Компания OpenAI намерена бороться с генерируемой ИИ дезинформацией во время выборов

OpenAI намерена бороться с обманом избирателей. Фото: habr.com

Один из ведущих разработчиков искусственного интеллекта, компания OpenAI намерена бороться во всем мире со связанной с выборами дезинформацией. Для этого компания кроме прочего запретила своим клиентам использовать инструменты ChatGPT и Dall-e в политических целях.

Об этом сообщает The Verge.

В частности, OpenAI намерена использовать криптографию для кодирования происхождения изображений, сгенерированных Dall-e 3. Это позволит платформе лучше обнаруживать созданные ИИ изображения, чтобы помочь избирателям оценивать достоверность определенного контента.

Также пользователям, включая разработчиков ChatGPT и Dall-e, запрещено использовать инструменты OpenAI, чтобы генерировать дипфейки, выдавать себя за кандидатов или местные органы власти, для проведения кампаний или лоббирования, а также для препятствования голосованию.

В OpenAI заявили, что пользователи ChatGPT начнут видеть новости со всего мира в реальном времени с указанием авторства и ссылками. А когда пользователи будут задавать процедурные вопросы, связанные с голосованием, их станут направлять на официальный ресурс голосования CanIVote.org.

В OpenAI отметили, что оценка мер, если они окажутся успешными, поможет внедрить другие стратегии.

Издание The Verge отмечает, что эффективность таких мер вызывает вопросы.

Ранее мы рассказывали, что соцсети заполонили реалистичные дипфейки с украинскими политиками и военными.

Осенью фейковый Алексей Арестович угрожал в начале 2024 года опубликовать "информационную бомбу, которая откроет глаза на то, кто такой Зеленский на самом деле".

Читайте также
Любое копирование, публикация, перепечатка или воспроизведение информации, содержащей ссылку на «Интерфакс-Украина», запрещается.