Жертва преследования подала в суд на OpenAI

Женщина, подвергавшаяся преследованию со стороны своего бывшего партнера, подала судебный иск против OpenAI, утверждая, что компания проигнорировала три предупреждения о том, что пользователь ChatGPT представляет угрозу. По словам истца, система ИИ была использована для усиления бреда и галлюцинаций преследователя.

Poliitika

Исковое заявление поднимает серьезные вопросы об ответственности компаний, разрабатывающих системы искусственного интеллекта, за безопасность пользователей и потенциальный вред, который могут нанести их продукты. Истец утверждает, что направил OpenAI несколько предупреждений об опасном поведении пользователя, включая информацию о том, что мужчина использовал ChatGPT для разработки стратегий преследования и для укрепления своих бредовых убеждений о своей бывшей партнерше.

Особенно тревожным аспектом дела является то, что OpenAI предположительно располагала собственными внутренними механизмами обнаружения угроз, включая флаг массовых жертв, который мог быть активирован деятельностью данного пользователя. Несмотря на это, компания не предприняла адекватных мер для остановки доступа или изучения характера использования инструмента.

Дело подчеркивает растущую озабоченность тем, как современные ИИ-системы могут быть запечены в опасных целях и какие обязательства несут компании в отношении мониторинга и предотвращения потенциального вреда. Иск может установить важный прецедент относительно того, несет ли OpenAI и аналогичные компании гражданскую ответственность за вред, причиненный их пользователями.

Этот случай возникает в контексте более широкого обсуждения о регулировании ИИ и корпоративной ответственности в технологическом секторе, когда такие инструменты становятся все более распространенными в повседневной жизни.