Програми OpenAI та Microsoft на базі ШІ можуть використовувати для створення дипфейків, пов’язаних з виборами, − дослідники

Інструменти створення зображень на базі штучного інтелекту від таких компаній, як OpenAI та Microsoft можна використовувати для створення фотографій, які можуть сприяти дезінформації, пов'язаній з виборами чи голосуванням, пише Reuters.
Водночас ці компанії мають політику проти створення фейкового контенту.
Центр протидії цифровій ненависті (CCDH), як приклад, використав ШІ для створення зображень президента США Джо Байдена на лікарняному ліжку, і працівників виборчих комісій, що розбивають машини для голосування.
“Потенціал використання таких зображень, створених штучним інтелектом, як “фотодоказів” може посилити поширення неправдивих тверджень, створюючи значну проблему для збереження чесності виборів”, – йдеться у звіті дослідників CCDH.
Підписуйтесь на наш Google News
Дослідники протестували ChatGPT Plus від OpenAI, Image Creator від Microsoft, Midjourney і DreamStudio від Stability AI, кожен з яких може генерувати зображення з текстових підказок.
Представник OpenAI сказав, що компанія працює над запобіганням зловживанням своїми інструментами, тоді як Microsoft не відповіла на запит про коментар.
У центрі зазначили, що OpenAI, Microsoft і Stability AI були серед групи з 20 технологічних компаній, які підписали угоду про спільну роботу, щоб запобігти втручанню оманливого вмісту штучного інтелекту у вибори, що цього року відбуваються в усьому світі.