Riscurile partajarii datelor sensibile cu GenAI la birou

Introducere

Odata cu evolutia rapida a inteligentei artificiale generative (GenAI), tot mai multe companii adopta aceste tehnologii pentru a imbunatati eficienta angajatilor si procesele interne. Instrumente precum ChatGPT, Gemini sau Copilot sunt deja integrate in fluxurile zilnice de lucru. Cu toate acestea, utilizarea GenAI la birou implica si o serie de riscuri semnificative legate de confidentialitatea si securitatea datelor, in special atunci cand angajatii introduc informatii sensibile in aceste platforme.

Ce este GenAI si cum este utilizat GenAI la birou

GenAI reprezinta un subset al inteligentei artificiale care poate genera continut nou – texte, cod sursa, imagini, etc. – pe baza informatiilor primite. In mediul corporate, aceste instrumente sunt utilizate pentru:

  • scrierea rapoartelor sau emailurilor
  • analiza seturilor mari de date
  • automatizarea sarcinilor repetitive
  • generarea de cod pentru dezvoltatorii software
  • brainstorming pentru continut de marketing sau strategii de vanzari

Desi beneficiile sunt clare, apare o problema majora: ce se intampla cu datele introduse in platforma GenAI?

Datele confidentiale devin vulnerabile

Angajatii, intentionat sau nu, pot introduce informatii sensibile precum:

  • Planuri de afaceri
  • Date de contact ale clientilor
  • Cod sursa proprietar
  • Strategii de marketing confidentiale
  • Informatii financiare sau contractuale

Aceste date pot fi apoi utilizate de sistemele GenAI pentru antrenare sau pot fi stocate pe servere care nu respecta standardele de securitate cibernetica impuse de o companie.

Cum se pot pierde aceste date prin folosirea GenAI la birou?

Mecanismele din spatele GenAI se bazeaza pe invatarea continua, iar datele partajate pot fi:

  • Stocate temporar pentru a imbunatati modelul
  • Folosite pentru afisarea unor rezultate viitoare altor utilizatori
  • Predispose la scurgeri de informatii in cazul unui atac informatic

Majoritatea platformelor GenAI cunoscute (in mod special cele gratuite) nu garanteaza un nivel ridicat de protectie pentru datele introduse de catre utilizatori.

Comportamentul angajatilor si lipsa de educatie in privinta riscurilor

Un studiu recent comandat de Salesforce si efectuat de legiuitorii europeni a aratat ca 64% dintre angajati au introdus informatii considerate confidentiale in sistemele GenAI. Cea mai ingrijoratoare descoperire a fost ca 6 din 10 persoane nu au fost instruite in privinta riscurilor legate de confidentialitate.

Utilizatorii de GenAI ignora riscurile

Multi angajati presupun ca astfel de platforme functioneaza similar cu un motor de cautare. Astfel, nivelul de atentie scade, iar informatii critice pot fi trimise fara probleme catre un sistem gazduit pe infrastructura externa.

Companiile nu impun politici clare

Lipsa de politici privind utilizarea GenAI duce la situatie in care:

  • Angajatii nu stiu ce au voie sa partajeze
  • Nu exista limitari tehnice sau software asupra datelor incarcarcate
  • Nu se efectueaza audituri constante de securitate

Riscurile utilizarii GenAI la birou, pentru organizatie

Organizatiile care nu controleaza strict interactiunile angajatilor cu sistemele GenAI se confrunta cu riscuri majore:

1. Scaparea de informatii confidentiale

Daca un angajat foloseste GenAI pentru a rescrie un draft de contract si introduce date confidentiale ale unui client, aceasta informatie poate fi compromisa sau utilizata de platforma.

2. Incalcarea reglementarilor privind protectia datelor

Furnizorii de GenAI nu sunt intotdeauna in conformitate cu GDPR sau alte norme, iar compania poate fi amendata pentru incalcarea confidentialitatii.

3. Pierdere de avantaj competitiv

Trimiterea neintentionata a unor strategii interne sau cod sursa poate permite competitorilor sa profite de informatii sensibile.

4. Imagine publica afectata

In cazul in care se descopera ca o companie a expus datele clientilor prin utilizarea incorecta a GenAI, increderea publicului si reputatia brandului pot fi iremediabil afectate.

Solutii proactive pentru companii si angajati

Educatia personalului

Este vital ca fiecare angajat sa cunoasca pericolele asociate utilizarii GenAI. Se recomanda:

  • Workshopuri interne pe teme de securitate cibernetica
  • Testare periodica prin simulari de scurgere de date
  • Stabilirea unor ghiduri clare privind utilizarea platformelor AI

Politici IT clare si impunerea lor

Companiile trebuie sa aiba reguli stricte, precum:

  • Utilizarea doar a platformelor aprobate si securizate
  • Blocarea automata a datelor sensibile pentru export
  • Monitorizarea activitatii angajatilor in aplicatiile AI

Utilizarea instrumentelor GenAI in cloud privat

O solutie viabila este gazduirea unui model AI intern sau colaborarea cu furnizori care ofera medii dedicate (on-premises). Astfel, datele nu parasesc infrastructura organizatiei.

Audituri si evaluari de risc periodice

Revizuirea constanta a interactiunilor cu GenAI si evaluarea nivelului de expunere a informatiilor permite companiilor sa corecteze din timp eventualele brese.

Concluzie

GenAI poate aduce beneficii semnificative organizatiilor, dar utilizarea fara masuri adecvate de protectie transforma aceste instrumente in facilitatori ai scurgerii de date. Companiile trebuie sa adopte o postura proactiva, impunand politici, educatie si controale stricte, pentru a evita riscurile asociate.

In final, responsabilitatea revine intregii organizatii – de la departamentul IT, pana la fiecare utilizator care interactioneaza cu aceste tehnologii. Educatia, vigilenta si planificarea strategica sunt cheia unei implementari securizate a GenAI.

Cu siguranta ai inteles care sunt noutatile din 2025 legate de securitate cibernetica, daca esti interesat sa aprofundezi cunostintele in domeniu, te invitam sa explorezi gama noastra de cursuri dedicate securitatii cibernetice din categoria Cybersecurity. Indiferent daca esti la inceput de drum sau doresti sa iti perfectionezi abilitatile, avem un curs potrivit pentru tine.