Великі мовні моделі (LLM), на яких базуються ChatGPT та інші інструменти генеративного (такого, що створює контент) штучного інтелекту (ШІ), ніколи не вийдуть на рівень людського інтелекту, вважає головний науковий співробітник американської Meta в галузі ШІ Ян Лекун.
На його думку, у таких моделей дуже обмежене розуміння логіки, і вони не зможуть міркувати і планувати, як людина. Крім того, вони «не розуміють фізичного світу, не володіють постійною пам’яттю, не здатні міркувати в якому б то не було розумному сенсі цього слова і не можуть планувати… ієрархічно”, заявив він в інтерв’ю Financial Times.
Лекун висловився проти того, щоб покладатися на розвиток LLM у прагненні створити інтелект на рівні людського, оскільки ці моделі можуть точно відповідати на запити лише в тому разі, якщо їх навчено на коректних даних, і тому вони небезпечні.
Замість цього експерт займається розробкою абсолютно нового покоління ШІ-систем, які, як він сподівається, наділять машини «людським» інтелектом. Однак на виконання цього завдання може піти десять років, пояснив він.
Лекун керує командою з близько 500 осіб у лабораторії фундаментальних досліджень Meta в галузі ШІ. Вони працюють над створенням штучного інтелекту, який може розвинути в собі почуття здорового глузду і вивчати устрій світу аналогічно людині. Такий підхід називається «моделювання світу».
© 2016-2025, Open4Business. Всі права захищені.
Усі новини та схеми, розміщені на цьому веб-сайті, призначені для внутрішнього використання. Їхнє відтворення або розповсюдження в будь-якій формі можливі лише у разі розміщення прямого гіперпосилання на джерело. Відтворення або розповсюдження інформації, яка містить посилання на "Інтерфакс-Україна" як на джерело, забороняється без письмового дозволу інформаційного агентства "Інтерфакс-Україна". Фотографії, розміщені на цьому сайті, взяті лише з відкритих джерел; правовласники можуть висувати вимоги на адресу info@open4business.com.ua, в цьому випадку ми готові розмістити ваші авторські права на фотографію або замінити її.