OpenAI запрещает сотрудникам рассказывать о связанных с ИИ рисках — The Washington Post

4

Группа информаторов из OpenAI направила в Комиссию по ценным бумагам и биржам США (SEC) жалобу о том, что компания запрещает своим сотрудникам рассказывать о рисках, связанных с искусственным интеллектом. Ведомство призывают провести расследование.

OpenAI запрещает сотрудникам рассказывать о связанных с ИИ рисках — The Washington Post

  1. Новости

Автор: Ахмед Садулаев Ахмед Садулаев Подписаться на RB.RU в Telegram

Об этом сообщает The Washington Post со ссылкой на письмо в SEC. Согласно документу, OpenAI заставила работников подписать соглашения о сотрудничестве с отказом от выходного пособия, а также необходимости получить разрешение от работодателя на раскрытие информации федеральным органам.

По словам одного из информаторов, в трудовом договоре содержатся строки о том, что компания не хочет, чтобы ее сотрудники разговаривали с федеральными регуляторами.

«Я не думаю, что компании, занимающиеся ИИ, способны создавать безопасные и отвечающие общественным интересам технологии, если они ограждают себя от проверок и инакомыслия», — добавил анонимный сотрудник.

Адвокат информаторов Стивен Кон подчеркнул, что подобные соглашения угрожают сотрудникам уголовным преследованием, если они сообщат о каких-либо нарушениях властям.

По словам юриста, это противоречит федеральным законам. Кроме того, в соглашении нет исключения для раскрытия информации о нарушениях закона, что также является нарушением норм SEC.

Пресс-секретарь OpenAI Ханна Вон в ответ на обвинения заявила, что политика компании защищает права работников на раскрытие информации, а разработчик ChatGPT приветствует дискуссии о влиянии технологий на человечество.

«Мы считаем, что дебаты [о влиянии ИИ] имеют важное значение, и уже внесли существенные изменения в наш процесс увольнения, исключив из него пункты о неразглашении», — рассказала руководительница пресс-службы компании.

В мае стало известно, что OpenAI распустила команду по работе с долгосрочными рисками ИИ. Группа, которая должна была защитить человечество от искусственного интеллекта, проработала меньше года.

Ян Лейке, один из бывших руководителей отдела по работе с рисками, заявлял, что безопасность не входила в число приоритетов разработчика генеративного ИИ.

Фото: Mehaniq / Shutterstock

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Источник: rb.ru

Comments are closed.