OpenAI запрещает сотрудникам рассказывать о связанных с ИИ рисках — The Washington Post
Группа информаторов из OpenAI направила в Комиссию по ценным бумагам и биржам США (SEC) жалобу о том, что компания запрещает своим сотрудникам рассказывать о рисках, связанных с искусственным интеллектом. Ведомство призывают провести расследование.
OpenAI запрещает сотрудникам рассказывать о связанных с ИИ рисках — The Washington Post
Автор: Ахмед Садулаев Ахмед Садулаев Подписаться на RB.RU в Telegram
Об этом сообщает The Washington Post со ссылкой на письмо в SEC. Согласно документу, OpenAI заставила работников подписать соглашения о сотрудничестве с отказом от выходного пособия, а также необходимости получить разрешение от работодателя на раскрытие информации федеральным органам.
По словам одного из информаторов, в трудовом договоре содержатся строки о том, что компания не хочет, чтобы ее сотрудники разговаривали с федеральными регуляторами.
«Я не думаю, что компании, занимающиеся ИИ, способны создавать безопасные и отвечающие общественным интересам технологии, если они ограждают себя от проверок и инакомыслия», — добавил анонимный сотрудник.
Адвокат информаторов Стивен Кон подчеркнул, что подобные соглашения угрожают сотрудникам уголовным преследованием, если они сообщат о каких-либо нарушениях властям.
По словам юриста, это противоречит федеральным законам. Кроме того, в соглашении нет исключения для раскрытия информации о нарушениях закона, что также является нарушением норм SEC.
Пресс-секретарь OpenAI Ханна Вон в ответ на обвинения заявила, что политика компании защищает права работников на раскрытие информации, а разработчик ChatGPT приветствует дискуссии о влиянии технологий на человечество.
«Мы считаем, что дебаты [о влиянии ИИ] имеют важное значение, и уже внесли существенные изменения в наш процесс увольнения, исключив из него пункты о неразглашении», — рассказала руководительница пресс-службы компании.
В мае стало известно, что OpenAI распустила команду по работе с долгосрочными рисками ИИ. Группа, которая должна была защитить человечество от искусственного интеллекта, проработала меньше года.
Ян Лейке, один из бывших руководителей отдела по работе с рисками, заявлял, что безопасность не входила в число приоритетов разработчика генеративного ИИ.
Фото: Mehaniq / Shutterstock
Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!
Comments are closed.