Тъй като AI инструменти като ChatGPT стават все по-интегрирани в нашите работни процеси, въпросът за сигурността на данните заема централно място. Тъй като компаниите и хората разчитат на тези инструменти за всичко - от мозъчна атака до вземане на решения, е изключително важно да разберете какво се случва с информацията, която качвате. Вашите чувствителни данни са изложени на риск от споделяне или изтичане? Нека проучим фактите и митовете около поверителността на данните в AI системите.

Какво се случва с информацията, която качвате?

Когато взаимодействате с ChatGPT, предоставената от вас информация може да се използва по няколко начина, в зависимост от това как е конфигурирана системата и въведените политики:

  1. Изолиране на данни: Разговорите са отделени, което означава, че информацията от един потребител не може да се появи директно в сесията на друг. Вашите данни не са достъпни за други потребители.
  2. Използване на данни за обучение: В някои случаи информацията може да се използва за подобряване на бъдещи версии на AI, но този процес включва анонимизиране и агрегиране. Корпоративните потребители често имат опцията да се откажат.
  3. Без директно споделяне: OpenAI не позволява конкретна, разпознаваема информация от един потребител да бъде споделяна с друг, умишлено или по невнимание.

Могат ли вашите данни да се показват в отговора на някой друг?

Това е често срещано безпокойство, но рискът е малък. AI не "помни" отделни сесии. Има обаче няколко нюанса, които трябва да се вземат предвид:

  1. Статистически асоциации: Ако изключително уникална или специфична информация се въвежда многократно от множество потребители, моделът може да генерира подобни отговори въз основа на шаблони, които е научил. Това не е нарушение, а неволно припокриване в общото обучение.
  2. Корпоративна защита: За компании, използващи AI инструменти в чувствителни индустрии, решенията от корпоративен клас предлагат по-строги протоколи за поверителност и гарантират, че качените данни не се използват за обучение на публични модели.

     

Защо компаниите трябва да се притесняват?

Въпреки че непосредственият риск от изтичане на данни е минимален, компаниите трябва да преценят потенциалните недостатъци от качването на чувствителна информация към платформи за изкуствен интелект на трети страни:

  1. Съответствие с нормативните изисквания: Индустрии, управлявани от разпоредби за защита на данните като GDPR или HIPAA, може да понесат правни последици, ако чувствителната информация бъде неправилно обработена.
  2. Рискове, свързани с интелектуалната собственост: Собствените данни, качени в инструментите за изкуствен интелект, биха могли по невнимание да повлияят на бъдещите резултати от модела, което поражда опасения относно поверителността.
  3. Уязвимости при пробив: Въпреки че OpenAI използва стабилни мерки за сигурност, никоя система не е имунизирана срещу кибер заплахи.

Най-добри практики за сигурно използване на AI

За да намалят рисковете, компаниите трябва да възприемат следните най-добри практики:

  1. Избягвайте качването на поверителни данни: Никога не въвеждайте чувствителна финансова, частна или лична информация, освен ако не е необходимо.
  2. Използвайте корпоративни решения: Изберете корпоративни версии на AI инструменти с подобрени мерки за защита на данните.
  3. Обучете своя екип: Обучете служителите какво трябва и какво не трябва да се прави при безопасно използване на AI системи.
  4. Преглед на условията за ползване: Уверете се, че разбирате как се използват вашите данни и дали могат да бъдат запазени за целите на обучението.

През март 2023, Италианският орган за защита на данните (DPA) временно забрани ChatGPT, позовавайки се на опасения за нарушения на поверителността на данните. Разследването на DPA разкри проблеми, свързани с масовото събиране на потребителски данни за алгоритми за обучение и неадекватни мерки за проверка на възрастта. OpenAI, разработчикът на ChatGPT, отговори чрез прилагане на мерки за справяне с тези опасения, което доведе до възстановяване на чатбота в Италия приблизително четири седмици по-късно. 
Би Би Си

Този инцидент подчертава важността на здравината практики за защита на данните при използване на AI инструменти като ChatGPT. Компаниите трябва да бъдат бдителни относно данните, които въвеждат в такива платформи, особено когато работят с чувствителна или частна информация. Осигуряването на спазване на разпоредбите за защита на данните и прилагането на строги вътрешни политики може да помогне за смекчаване на потенциалните рискове, свързани с използването на AI.

Въпреки всички налични протоколи за сигурност, OpenAI силно препоръчва да се избягва качването на поверителни данни. Тази препоръка подчертава присъщите рискове, свързани с използването на AI инструменти като ChatGPT за чувствителна информация. Поради това не е сигурно за корпоративните компании да разчитат на тези инструменти за работа със собствени или поверителни данни. Бизнесът трябва внимателно да оцени използването на AI и да обмисли алтернативни решения, които дават приоритет на поверителността на данните и съответствието.