În cadrul Conferinţei Europene a Serviciilor Financiare ECFS 2025 - Tranziţia digitală în serviciile financiare, provocări şi oportunităţi generate de noile reglementări, organizată de ISF, Preşedintele Institutului de Studii Financiare, a declarat:
„Utilizarea inteligenţei artificiale (AI) în industria asigurărilor aduce multe beneficii, cum ar fi îmbunătăţirea eficienţei operaţionale, personalizarea ofertelor şi automatizarea proceselor. Cu toate acestea, există şi riscuri care trebuie gestionate pentru a proteja atât companiile de asigurări, cât şi clienţii lor. Iată câteva exemple de riscuri care pot apărea atunci când folosim AI în asigurări:
Discriminarea şi prejudecăţile algoritmice
Algoritmii de AI pot reflecta prejudecăţi şi inechităţi care există în datele de antrenament. Dacă un algoritm învaţă din date istorice care conţin prejudecăţi legate de rasă, sex, vârstă sau alţi factori, poate lua decizii care sunt discriminatorii, de exemplu, refuzând sau penalizând anumite grupuri de clienţi pe baza unor caracteristici care nu sunt relevante pentru evaluarea riscului.
Un algoritm care foloseşte datele istorice de la clienţi pentru a evalua riscurile de asigurare poate ajunge la concluzii discriminatorii dacă acele date conţin tendinţe de discriminare pe baza sexului sau etniei.
Lipsa transparenţei şi explicabilităţii.
Modelele AI complexe, cum ar fi reţelele neuronale, pot fi opace şi greu de înţeles pentru utilizatori şi reglementatori. Acest lucru poate duce la dificultăţi în înţelegerea deciziilor luate de AI şi în verificarea corectitudinii acestora.
Dacă un client nu este acceptat pentru o poliţă de asigurare sau nu primeşte o sumă corectă în urma unui accident, compania ar putea să nu fie capabilă să explice în mod clar motivul deciziei, ceea ce poate afecta încrederea consumatorilor şi poate duce la litigii.
Risc de securitate cibernetică şi atacuri
AI poate fi vulnerabil la atacuri cibernetice, cum ar fi manipularea datelor sau atacuri adversariale care modifică comportamentul algoritmilor. În industria asigurărilor, aceste atacuri pot afecta sistemele de evaluare a riscurilor, de stabilire a preţurilor sau de gestionare a daunelor.
Un atac cibernetic care modifică algoritmul folosit pentru a evalua cererile de despăgubire poate duce la plăţi eronate sau la procesarea incorectă a cererilor de despăgubire, afectând astfel atât compania de asigurări, cât şi clienţii.
Dependenţa de date necorecte sau incomplete.
AI este dependent de calitatea datelor pe care le primeşte. Dacă datele sunt incomplete, inexacte sau neactualizate, modelele AI pot lua decizii greşite sau pot face estimări incorecte ale riscurilor.
- Dacă un sistem AI utilizează date incomplete despre istoricul unui client (de exemplu, istoricul de daune neînregistrate corect sau date de sănătate inexacte), poate oferi o evaluare incorectă a riscului şi poate stabili preţuri incorecte pentru poliţele de asigurare.
Probleme legate de conformitatea cu reglementările
Utilizarea AI poate întâmpina dificultăţi în conformarea cu reglementările legale şi etice. De exemplu, reglementările de protecţie a datelor (precum GDPR în Uniunea Europeană) impun cerinţe stricte privind colectarea şi procesarea datelor personale, iar AI poate duce la încălcarea acestor reglementări dacă nu este utilizat corect.
Dacă un algoritm AI foloseşte date personale sensibile, cum ar fi istoricul medical al unui client, pentru a determina riscurile şi nu există măsuri corespunzătoare de protecţie a datelor, compania de asigurări ar putea încălca reglementările de protecţie a datelor, ducând la amenzi mari şi deteriorarea reputaţiei.
Nu trebuie uitate nici regulamentul UE privind inteligenţa artificială (AI ACT). Acesta reprezintă un pas înainte în reglementarea AI (primul de acest fel la nivel mondial) prin abordarea riscurilor generate de utilizate de AI. Sunt stabilite clar de reguli bazate pe risc pentru dezvoltatorii şi implementatorii AI cu privire la utilizări specifice ale AI, inclusiv în cazul utilizării acestuia pe pieţele financiare. Aceste măsuri au scopul de a garanta siguranţa, drepturile fundamentale şi utilizarea unor sisteme de AI care să aibă totuşi omul la bază”.