Великі мовні моделі (LLM), на яких базуються ChatGPT та інші інструменти генеративного (такого, що створює контент) штучного інтелекту (ШІ), ніколи не вийдуть на рівень людського інтелекту, вважає головний науковий співробітник американської Meta в галузі ШІ Ян Лекун.
На його думку, у таких моделей дуже обмежене розуміння логіки, і вони не зможуть міркувати і планувати, як людина. Крім того, вони «не розуміють фізичного світу, не володіють постійною пам’яттю, не здатні міркувати в якому б то не було розумному сенсі цього слова і не можуть планувати… ієрархічно”, заявив він в інтерв’ю Financial Times.
Лекун висловився проти того, щоб покладатися на розвиток LLM у прагненні створити інтелект на рівні людського, оскільки ці моделі можуть точно відповідати на запити лише в тому разі, якщо їх навчено на коректних даних, і тому вони небезпечні.
Замість цього експерт займається розробкою абсолютно нового покоління ШІ-систем, які, як він сподівається, наділять машини «людським» інтелектом. Однак на виконання цього завдання може піти десять років, пояснив він.
Лекун керує командою з близько 500 осіб у лабораторії фундаментальних досліджень Meta в галузі ШІ. Вони працюють над створенням штучного інтелекту, який може розвинути в собі почуття здорового глузду і вивчати устрій світу аналогічно людині. Такий підхід називається «моделювання світу».
Стратегічна сесія за участю експертів, урядовців, народних депутатів і юристів стала початком роботи над нормативним полем для штучного інтелекту (ШІ), на ній обговорювали шляхи, якими може йти Україна у сфері його правового регулювання, повідомив віцепрем’єр – міністр цифрової трансформації Михайло Федоров.
“Ми повинні не відставати від усього світу, а очолити тренд ШІ. Неможливо говорити про цифрову державу, якщо ми не формуємо прогресивну політику в напрямку штучного інтелекту та адженду для світу”, – написав Федоров у своєму телеграм-каналі в середу.
За його словами, використання ШІ в Україні заплановано в різних сферах, зокрема, Мінцифри розробляє віртуального помічника в “Дії”, завдання якого швидко знаходити відповіді на запитання користувачів. Крім того, АІ допомагатиме Держстату обробляти й аналізувати дані, додав очільник Мінцифри.
Окремо Федоров відзначив користь ШІ у військових технологіях. За його словами, штучний інтелект допомагає фіксувати переміщення техніки та особового складу ворога, збивати ракети, ефективніше наводити на цілі БПЛА тощо.
“Створюємо умови, щоб топові міжнародні компанії, які займаються штучним інтелектом, приходили на український ринок”, – додав Федоров.
Цифровий простір є “новою межею основних прав”, новим світом, у якому колишні правила не завжди застосовуються автоматично, заявила голова Єврокомісії (ЄК) Урсула фон дер Ляєн.
“Подумайте про права дітей або захист прав споживачів. Але подумайте також про штучний інтелект. Його потенційні переваги величезні. Але це може бути і шкідливо, наприклад, якщо його використовують для найму і звільнення співробітників або для спостереження за громадянами за допомогою розпізнавання облич. Нам потрібні нові закони, щоб втілити наші вічні цінності в онлайн-світі”, – сказала глава ЄК у п’ятницю в Нью-Йорку на церемонії вручення World Peace & Liberty Award Єврокомісії.
Це премія, що присуджується з 1965 року Всесвітньою асоціацією юристів за заслуги в захисті верховенства права на противагу застосуванню сили.
За словами фон дер Ляєн, Європа лідирує у створенні правового поля для цифрової епохи.
“Ми першими у світі встановили правила для цифрових платформ, а тепер робимо те саме зі штучним інтелектом. Це означає, що всі компанії, які хочуть працювати на нашому ринку, мають відповідати дуже високим стандартам. Стандартам, у центрі яких – люди та їхні права”, – наголосила голова Європейської комісії.
Вона повідомила, що Євросоюз “працює з друзями-однодумцями, такими як Канада та Сполучені Штати, а також з Японією, країнами Латинської Америки та Індією, над розробкою еквівалентних правил, щоб технології розширювали особисту свободу, а не здатність держави контролювати нас”.
Центр безпеки штучного інтелекту (ШІ) у США та інші групи експертів разом попередили, що розвиток технологій ШІ загрожує зникненням людства, і що необхідно вжити заходів для запобігання такого сценарію розвитку подій.
“Зниження ризику вимирання, яке може статися через ШІ, має стати глобальним пріоритетом поряд з іншими загрозами, як-от пандемії та ядерна війна”, – ідеться в заяві, опублікованій на сайті Центру (Center for AI Safety).
Документ підписали експерти в галузі ШІ, а також фахівці у сфері інформаційних технологій, економіки, математики, філософії. Серед них – гендиректор компанії Open AI і програміст Сем Олтмен, один із розробників ШІ британський учений Джеффрі Гінтон.
Ініціатори заяви поширили її з метою підвищити обізнаність про ризик ШІ, почати дискусії на цю тему, а також розповісти про збільшення кількості експертів і громадських діячів, які серйозно ставляться до загроз від передових технологій ШІ.
Associated Press нагадує, що раніше цього року власник Twitter, SpaceX і Tesla Ілон Маск, а також понад 1 тис. наукових дослідників і технічних спеціалістів підписали лист із закликом призупинити на пів року програми розвиток ШІ, оскільки, за їхніми словами, “це створює серйозні ризики для суспільства і людства”.