«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4
«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4
В открытом письме они предупредили о потенциальных рисках для общества.
Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.
В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.
«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.
Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.
С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.
По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.
Смотреть все новости автора
Читайте по теме:
Офшорный круиз: На чьи Франки подрядили Олерского Путин назвал число привлеченных к боевым задачам мобилизованных Коровка из Кореновки зашла в OBI В российском регионе женщина избила и зарезала сожителя из-за алкоголя Суд признал законным решение о депортации стримера Некоглая из России В Москве загорелся торговый центр The Wall Street Journal впервые возглавит женщина А1 вернули ЖК Прайм Парк бывшему владельцу Пригожин предложил сажать всех, кто плохо пишет о ЧВК Вагнер Срок службы в армии могут продлить до двух летВажные новости
США ввели санкции против 12 топ-менеджеров «Лаборатории Касперского»
Сын замминистра обороны переписал лондонский бизнес на однокурсника
Опубликовано видео второго применения трехтонной управляемой авиабомбы
Суд изгнал из Крыма владельца группы «Зенден» Андрея Павлова
Юрий Ериняк — как бандит Юра Молдован захотел стать респектабельным бизнесменом