Samsung заборонила співробітникам використовувати ChatGPT через ризики для безпеки
Samsung заборонила використання генеративних інструментів ШІ, таких як ChatGPT, у своїх внутрішніх мережах і на пристроях, що належать компанії, через побоювання, що завантаження конфіденційної інформації на ці платформи становить ризик для безпеки.
Про це The Verge.
Це правило було доведено до відома співробітників у службовій записці, яка описує його як тимчасове обмеження, поки Samsung працює над "створенням безпечного середовища" для безпечного використання інструментів генеративного ШІ.
"Найбільшим фактором ризику, ймовірно, є чат-бот ChatGPT від OpenAI, який став надзвичайно популярним не тільки як іграшка для розваг, але і як інструмент для допомоги в серйозній роботі. Люди можуть використовувати систему для узагальнення звітів або написання відповідей на електронні листи - але це може означати введення конфіденційної інформації, до якої OpenAI також може мати доступ", - йдеться у матеріалі.
"Штаб-квартира переглядає заходи безпеки, щоб створити безпечне середовище для безпечного використання генеративного ШІ для підвищення продуктивності та ефективності співробітників", - йдеться у внутрішній записці компанії.
"Однак, поки ці заходи не будуть підготовлені, ми тимчасово обмежуємо використання генеративного ШІ", - йдеться у записці Samsung.
Крім обмеження використання генеративного ШІ на комп'ютерах, телефонах і планшетах компанії, Samsung також просить співробітників не завантажувати конфіденційну ділову інформацію з особистих комп'ютерів.
"Ми просимо вас старанно дотримуватися наших правил безпеки, інакше це може призвести до порушення або компрометації інформації компанії, що спричинить за собою дисциплінарні стягнення аж до звільнення", - йдеться в повідомленні Samsung.
Корифей Кремнієвої долини: історія "батька" ChatGPT Сема Альтмана
Війна чат-ботів. Як ChatGPT похитнув гегемонію Google
GPT-4 більший і кращий за ChatGPT, але OpenAI не пояснює, чому. Що відомо про нову модель?
Економічна правда