Байден обсудил с главами Microsoft и Google риски, связанные с ИИ

Президент США Байден обсудил с главами Microsoft и Google связанные с развитием ИИ риски Байден указал на риски развития ИИ и подчеркнул, что американские ИТ-компании «несут фундаментальную ответственность за обеспечение безопасности и надежности их продуктов до их внедрения и распространения»

Президент США Джо Байден, вице-президент Камала Харрис, глава корпорации Microsoft Сатья Наделла и генеральный директор компаний Google Сундар Пичаи на встрече в Белом доме обсудили риски, связанные с развитием искусственного интеллекта (ИИ), сообщила пресс-служба американского президента.

Во встрече также приняли участие Сэм Олтмен, генеральный директор американской компании OpenAI, которая разработала чат-бот ChatGPT, и генеральный директор компании Anthropic Дарио Амодеи.

Участники встречи «поделились опасениями по поводу рисков, связанных с искусственным интеллектом», а Байден подчеркнул, что компании «несут фундаментальную ответственность за обеспечение безопасности и надежности их продуктов до их внедрения и распространения».

По мнению главы государства и вице-президента, «для реализации преимуществ, которые могут быть получены в результате развития искусственного интеллекта, необходимо смягчить как существующие, так и потенциальные риски, которые искусственный интеллект представляет для каждого человека, общества [в целом] и национальной безопасности». «К ним относятся риски в сферах безопасности, прав и свобод человека, неприкосновенности частной жизни, рабочих мест и демократических ценностей», — уточнили в Белом доме.

Руководителей корпораций, в свою очередь, призвали к «ответственным действиям и принятию мер для защиты прав и обеспечения безопасности граждан». «Во время встречи также состоялось откровенное и конструктивное обсуждение трех ключевых вопросов: необходимости для компаний быть более прозрачными для политиков, общественности и других лиц в отношении своих систем искусственного интеллекта; важности возможности проведения оценки, проверки и подтверждения безопасности, надежности и эффективности систем искусственного интеллекта; необходимости обеспечения защиты систем искусственного интеллекта от злоумышленников и атак», — отмечается в заявлении.

Автор книги Sapiens сравнил ChatGPT c оружием массового поражения Технологии и медиа

Споры вокруг способов регулирования ИИ продолжаются уже несколько месяцев, они связаны с развитием чат-ботов на основе ИИ, включая наиболее известный из них — ChatGPT. Его разработчик — лаборатория OpenAI. Чат-бот обучали с помощью массива текстов из интернета и диалогов с живыми пользователями. ChatGPT, в том числе, способен вести диалог, сочинять стихи и прозу, резюмировать научные статьи и обрабатывать изображения по запросу пользователей.

Читайте на РБК Pro Деньги на скучном: как «Локо-Инвест» зарабатывает 30% годовых Время — деньги: как накопить капитал к совершеннолетию ребенка Ребенок не разговаривает. Когда бить тревогу В каких пяти сферах фрилансеры зарабатывают больше всего

В конце минувшего марта предприниматель Илон Маск, сооснователь соцсети Pinterest Эван Шарп, сооснователь Apple Стив Возняк и другие бизнесмены и представители IT-отрасли подписали открытое письмо с требованием приостановить разработки более мощных, чем GPT-4, нейросетей хотя бы на полгода. Они сочли, что пауза необходима для разработки протоколов безопасности в сфере искусственного интеллекта.

Послание подписали более 1 тыс. специалистов IТ-отрасли. Они предупредили, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества, и задались вопросом, должны ли люди «рисковать потерей контроля над цивилизацией».

«Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий», — утверждали авторы письма.
 

Авторы Теги

Источник

Добавить комментарий

Ваш адрес email не будет опубликован.

Закрыть