Сервисы, которые "раздевают" женщин на фотографиях при помощи искусственного интеллекта, активно рекламируют в соцсетях. А вот закона, который бы обезопасил взрослых людей от дипфейков, до сих пор не приняли.
Популярность приложений и сайтов, где при помощи искусственного интеллекта можно "раздевать" женщин на фото, стремительно растет: по данным аналитической фирмы Graphika, только в сентябре ими воспользовались 24 млн человек, передает Bloomberg.Как сообщают аналитики, многие подобные сервисы используют для своей рекламы популярные социальные сети, в том числе X и Reddit, где с начала года число ссылок на приложения для "раздевания" возросло на 2400%.Кстати, большинство сервисов работают только с изображениями женщин. Для воссоздания изображения обнаженного человека сервисы применяют искусственный интеллект. Чаще всего фотографии берут из социальных сетей, а затем обрабатывают и распространяют их без согласия владельца. С развитием ИИ пользователи могут создавать все более реалистичные изображения, отмечает аналитик Graphika Сантьяго Лакатос.
В рекламе одного из приложений, размещенной в X, говорилось, что пользователь может создать фотографию обнаженного тела, а затем прислать ее человеку, который там изображен, - тем самым авторы объявления подстрекают к преследованию и домогательствам, отмечают аналитики. Некоторые приложения отображаются как спонсируемый контент на YouTube и выпадают первыми при поиске по слову nudify, - пишет РБК.Представитель Alphabet (владеет YouTube) заявил агентству, что компания не разрешает размещать рекламу, "содержащую откровенно сексуальный контент". В X и Reddit не ответили на запросы Bloomberg.
В дополнение к росту трафика, сервисы, некоторые из которых взимают 9,99 долларов в месяц, утверждают на своих веб-сайтах, что они привлекают много клиентов."Они делают большой бизнес", - сказал Лакатос. Описывая одно из приложений для раздевания, он доавил: "Если поверить им на слово, то на их веб-сайте бывает более тысячи пользователей в день".Директор по кибербезопасности Electronic Frontier Foundation Ева Гальперина отмечает, что подобными программами все чаще пользуются "обычные люди с обычными целями". По ее словам, многие так и не узнают, что их фотографии могли использовать для создания дипфейков. Но даже если это произойдет, инициировать расследование или судебное разбирательство сложно, отмечает специалист.