Центр безпеки штучного інтелекту (ШІ) у США та інші групи експертів разом попередили, що розвиток технологій ШІ загрожує зникненням людства, і що необхідно вжити заходів для запобігання такого сценарію розвитку подій.
“Зниження ризику вимирання, яке може статися через ШІ, має стати глобальним пріоритетом поряд з іншими загрозами, як-от пандемії та ядерна війна”, – ідеться в заяві, опублікованій на сайті Центру (Center for AI Safety).
Документ підписали експерти в галузі ШІ, а також фахівці у сфері інформаційних технологій, економіки, математики, філософії. Серед них – гендиректор компанії Open AI і програміст Сем Олтмен, один із розробників ШІ британський учений Джеффрі Гінтон.
Ініціатори заяви поширили її з метою підвищити обізнаність про ризик ШІ, почати дискусії на цю тему, а також розповісти про збільшення кількості експертів і громадських діячів, які серйозно ставляться до загроз від передових технологій ШІ.
Associated Press нагадує, що раніше цього року власник Twitter, SpaceX і Tesla Ілон Маск, а також понад 1 тис. наукових дослідників і технічних спеціалістів підписали лист із закликом призупинити на пів року програми розвиток ШІ, оскільки, за їхніми словами, “це створює серйозні ризики для суспільства і людства”.