Сотрудники AI Godfather и OpenAI предупреждают, что технологии могут привести к «вымиранию человечества»

Сотрудники AI Godfather и OpenAI предупреждают, что технологии могут привести к «вымиранию человечества»

Как опытный геймер с глубоким интересом к технологиям и их влиянию на общество, я нахожу открытое письмо Джеффри Хинтона и опасения, высказанные бывшими сотрудниками OpenAI и Google, тревожными и заставляющими задуматься. К потенциальным рискам, создаваемым передовыми системами искусственного интеллекта, нельзя относиться легкомысленно.


Джеффри Хинтон, которого часто называют «крестным отцом искусственного интеллекта», вместе со своими бывшими коллегами из Google и OpenAI выступил с публичным заявлением, в котором выразил обеспокоенность тем, что развитый искусственный интеллект потенциально может привести к «вымиранию человечества».

В публичном сообщении ряд бывших сотрудников OpenAI и Google выразили обеспокоенность по поводу возможного подавления критики и проверок в секторе передового искусственного интеллекта, особо упомянув такие компании, как OpenAI. Они подчеркнули значительные опасности, связанные с этой быстро развивающейся технологией.

Кроме того, мы осознаём значительные опасности, связанные с этими передовыми технологиями. Опасности охватывают целый ряд проблем: от усиления существующих различий до возможности манипулирования и распространения ложной информации, вплоть до возможности отказа от контроля над автономными системами искусственного интеллекта, что в конечном итоге может поставить под угрозу человечество.

Тринадцать бывших сотрудников OpenAI и Google DeepMind совместно написали открытое письмо, причем шестеро из них предпочли скрыть свою личность. Известная фигура Джеффри Хинтон, которого часто называют «крестным отцом искусственного интеллекта», входит в число тех, кто поддержал этот документ. В 2018 году он был удостоен престижной премии Тьюринга за новаторский вклад, который способствовал недавнему всплеску технологий искусственного интеллекта.

Илья Суцкевер, соучредитель OpenAI и бывший главный научный сотрудник компании, завершил свое первоначальное докторское исследование под руководством Джеффри Хинтона. Позже в 2013 году Хинтон присоединился к DNNResearch, которой он руководил. Впоследствии Google приобрела эту компанию, положив начало появлению Google DeepMind.

Хинтон открыто выразил обеспокоенность по поводу потенциальных недостатков передовых технологий искусственного интеллекта. В интервью The New York Times в мае прошлого года он поделился сожалением по поводу своего профессионального вклада и предостерег от опасностей, которые генеративный ИИ представляет для общества.

Сотрудники AI Godfather и OpenAI предупреждают, что технологии могут привести к «вымиранию человечества»

Заинтересованные стороны, подписавшие письмо, выступают за усиление правовых гарантий для лиц, раскрывающих потенциальные опасности в системах искусственного интеллекта. Они считают, что существующего законодательства об информаторах недостаточно.

Для непосвященных: Министерство труда обеспечивает соблюдение правил, защищающих сотрудников от репрессий. Если вы, помимо прочего, сообщите о таких нарушениях, как хищение заработной платы, дискриминация, опасные условия труда и мошенничество, вашему работодателю будет запрещено принимать ответные меры против вас. Это может проявляться в увольнении, понижении в должности, упущенных возможностях продвижения по службе, отказе в сверхурочной работе или сокращении рабочего времени.

Как ярый сторонник свободы слова, я бы посоветовал компаниям, занимающимся искусственным интеллектом, воздерживаться от заключения или обеспечения соблюдения каких-либо контрактов, которые ограничивают нашу способность выражать критику или пренебрежительные комментарии.

В мае 2024 года Vox сообщил, что OpenAI применяет весьма ограничительную политику выхода для своих бывших сотрудников. Эта политика включает положения о конфиденциальности и недопустимости унижения, не позволяющие им бесконечно негативно отзываться о своем предыдущем работодателе. Простое признание существования такого соглашения о неразглашении считается нарушением условий.

Смотрите также

2024-06-05 14:05