Українська правда

Італійський регулятор заявив про порушення ChatGPT правил захисту даних

31 січня, 19:55

Італійське Управління з питань захисту даних (GPDP) ухвалило, що чатбот ChatGPT, який діє на основі штучного інтелекту, порушує правила захисту даних Європейського Союзу.

Про це пише "Європейська правда".

У повідомленні GPDP від 29 січня йдеться, що результати розслідування італійського регулятора  виявили порушення конфіденційності даних, пов'язані зі збором персональних даних та віковим захистом.

Розслідування велось у межах робочої групи, яку Управління із захисту даних Італії створило з Європейською радою із захисту даних – незалежним органом ЄС, який вирішує питання застосування Регламенту про загальний захист даних.

Порушення з боку ChatGPT пов'язані з масовим збором даних користувачів, які потім використовуються для навчання алгоритму. Також ідеться про занепокоєння, що чат-бот може генерувати неприйнятний контент для дітей.

Тепер розробник ChatGPT – компанія OpenAI – має 30 днів для відповіді на претензії італійського регулятора.

У коментарі BBC OpenAI заперечила, що чат-бот не відповідає регламенту ЄС про конфіденційність.

"Ми активно працюємо над зменшенням персональних даних при навчанні наших систем, таких як ChatGPT, який також відхиляє запити на отримання приватної або конфіденційної інформації про людей", – ідеться у відповіді компанії.

Італія у березні 2023 року стала першою західною країною, яка заблокувала ChatGPT, посилаючись на занепокоєння щодо конфіденційності. Приблизно через чотири тижні – коли перші претензії були вирішені – роботу ChatGPT відновили.

Відповідно до Регламенту ЄС про загальний захист даних, компанії-порушниці можуть бути оштрафовані на суму до 4% від свого глобального обігу.

Європейська правда

штучний інтелект Італія