OpenAI запускает инструмент для обнаружения дипфейков на фоне скандалов с влиянием ИИ-контента на выборы
OpenAI запускает инструмент, который может распознавать изображения, созданные генератором изображений DALL-E 3. Произошло это на фоне растущего беспокойства относительно влияния контента, созданного искусственным интеллектом, на нынешние мировые выборы.
Об этом сообщает агентство Reuters.
Компания заявила, что во время внутреннего тестирования инструмент правильно идентифицировал изображения, созданные DALL-E 3, примерно в 98% случаев и может обрабатывать такие распространенные модификации, как сжатие, обрезание и изменение насыщенности, с минимальным влиянием.
Разработчики ChatGPT также планируют добавить защищенный от несанкционированного доступа водяной знак для обозначения цифрового контента, такого как фотографии или аудио, сигналом, который будет трудно удалить.
В рамках этих усилий OpenAI также присоединился к отраслевой группе, в которую входят Google, Microsoft и Adobe, и планирует создать стандарт, который поможет отследить происхождение различных медиа.
В апреле, во время всеобщих выборов в Индии, фальшивые видео с двумя актерами Болливуда, критикующими премьер-министра Нарендра Моди, стали вирусными в Интернете.
Распространение контента, созданного искусственным интеллектом, и глубокие фейки все чаще используются в Индии, а также на выборах в других странах мира, в частности в США, Пакистане и Индонезии.
OpenAI заявила, что присоединяется к Microsoft в создании фонда "общественной устойчивости" в размере 2 миллионов долларов для поддержки образования в области ИИ.
Читайте также: Война за миллиарды: проблема авторского права и ИИ вышла за рамки обычного плагиата
Экономическая правда.