Італійський регулятор заявив про порушення ChatGPT правил захисту даних
Італійське Управління з питань захисту даних (GPDP) ухвалило, що чатбот ChatGPT, який діє на основі штучного інтелекту, порушує правила захисту даних Європейського Союзу.
Про це пише "Європейська правда".
У повідомленні GPDP від 29 січня йдеться, що результати розслідування італійського регулятора виявили порушення конфіденційності даних, пов'язані зі збором персональних даних та віковим захистом.
Розслідування велось у межах робочої групи, яку Управління із захисту даних Італії створило з Європейською радою із захисту даних – незалежним органом ЄС, який вирішує питання застосування Регламенту про загальний захист даних.
Реклама:
Порушення з боку ChatGPT пов'язані з масовим збором даних користувачів, які потім використовуються для навчання алгоритму. Також ідеться про занепокоєння, що чат-бот може генерувати неприйнятний контент для дітей.
Тепер розробник ChatGPT – компанія OpenAI – має 30 днів для відповіді на претензії італійського регулятора.
У коментарі BBC OpenAI заперечила, що чат-бот не відповідає регламенту ЄС про конфіденційність.
Реклама:
"Ми активно працюємо над зменшенням персональних даних при навчанні наших систем, таких як ChatGPT, який також відхиляє запити на отримання приватної або конфіденційної інформації про людей", – ідеться у відповіді компанії.
Італія у березні 2023 року стала першою західною країною, яка заблокувала ChatGPT, посилаючись на занепокоєння щодо конфіденційності. Приблизно через чотири тижні – коли перші претензії були вирішені – роботу ChatGPT відновили.
Відповідно до Регламенту ЄС про загальний захист даних, компанії-порушниці можуть бути оштрафовані на суму до 4% від свого глобального обігу.