Сооснователь Apple Стив Возняк и более тысячи учёных, инженеров и общественных деятелей подписали открытое обращение о временном запрете на разработку сверхразумного искусственного интеллекта. В документе отмечается, что ИИ-системы следующего поколения способны принести пользу человечеству, однако неконтролируемое создание сверхразума, превосходящего людей во всех когнитивных задачах, грозит катастрофическими рисками. Среди угроз авторы выделяют массовую потерю рабочих мест, утрату гражданских свобод и даже возможное исчезновение человечества.
Подписавшиеся призывают ввести запрет на развитие сверхразумного ИИ до тех пор, пока не будут разработаны международные нормы безопасности и контроля. Они подчёркивают, что цель заявления — обратить внимание на консенсус среди экспертов, требующих приоритизировать безопасность над скоростью разработки.
Ранее многие из участников инициативы, включая руководителей ведущих tech-компаний, неоднократно сравнивали риски сверхразумного ИИ с угрозами ядерного оружия и глобальных пандемий. Нынешнее обращение стало очередной попыткой стимулировать публичную дискуссию о регулировании технологий, способных радикально изменить будущее цивилизации.
