Gennaio 2026 01 • 01 • 2026 Italian Insurtech Association: tutte le uscite di Gennaio 2025 Italian Insurtech Association vuole offrire all’intera community una rassegna stampa più ricca e completa, comprensiva non solo degli articoli relativi all’associazione, ma anche di tutte le uscite inerenti il panorama Insurtech, nazionale e internazionale. In questa pagina si trova una rassegna utile a chiunque voglia approfondire e aggiornarsi sul mondo delle assicurazioni digitali e sulle tecnologie messe in campo per compiere l’innovazione. Legenda: 📌gli articoli relativi alle attività di #IIA 🌎 gli articoli di contesto sul mondo #Insurtech 📌12/01 Insurance Daily - AI Ethics: leva di fiducia e competitività per le assicurazioni L’intelligenza artificiale sta diventando una componente strutturale dei modelli operativi: ecco perché il mercato, consapevole della portata del cambiamento tecnologico, non può più interpretare i principi etici come meri vincoli regolamentari ma come nuovi criteri di maturità organizzativa L’intelligenza artificiale sta trasfor mando in profondità il settore assicurati vo, abilitando efficienza, automazione e capacità predittive lungo l’intera catena del valore: pricing e underwriting, ge stione sinistri, antifrode, assistenza alla rete e relazione con clienti e intermediari. La velocità con cui l’AI entra nei proces si core rende però sempre più centrale una domanda: come garantire decisioni affidabili, comprensibili e non discrimi natorie quando una parte crescente del giudizio è mediata da algoritmi? In questo scenario, il quadro regola mentare europeo, con l’ AI Act , chiarisce responsabilità e presìdi richiesti in mate ria di governance, trasparenza e control lo dei sistemi. La traiettoria di implementazione è per fasi: l’AI Act è entrato in vigore il primo agosto 2024 e prevede una data generale di applicazione per il 2 agosto 2026, con piena efficacia progressiva entro il 2030. La compliance , però, è solo il punto di partenza. Come già visto in altri ambiti regolati, conformarsi è necessario ma non sufficiente: nel settore assicurativo l’e tica dell’AI può diventare una leva strategica nella misura in cui rafforza la soste nibilità dei modelli, la credibilità delle decisioni e, in ultima analisi, la fiducia. UN TEMA OPERATIVO E NON VALORIALE Nel mercato assicurativo, l’ AI Ethics non è un capitolo astratto. È un tema di ge stione del rischio con implicazioni operative, reputazionali e regolamentari, perché riguarda processi che incidono direttamente su diritti e aspettative degli assicurati. Ecco dove si concentrano gli elementi cui prestare attenzione nella gestione del rischio di AI etico: • Pricing e underwriting : modelli predittivi addestrati su dati storici possono incorporare bias latenti e generare discriminazioni indirette tramite variabili proxy apparentemente neutrali; l’aumento di accuratezza tecnica può tra dursi in decisioni difficili da spiegare e contestare. • Claims management : l’automazione spinta può privilegiare velocità e stan dardizzazione a scapito dell’equità, soprattutto nei casi che richiedono va lutazioni contestuali. • Antifrode : approcci troppo aggressivi possono generare falsi positivi con impatti immediati sull’esperienza del cliente e sulla reputazione. • AI generativa e customer interaction : assistenti virtuali non adeguatamente supervisionati possono produrre risposte errate o non conformi, con rischi di mis-selling informativo e deterioramento della fiducia. Questi temi risultano sempre più centrali con l’approvazione dell’AI Act nel 2024: l’Unione Europea ha introdotto un impianto regolamentare basato sul rischio che inte ressa direttamente molti processi chiave del settore assicurativo. L’orizzonte temporale 2024-2027 segna un percorso di progressiva attuazione e di transizione decisiva: dopo una prima fase di preparazione e consolidamento, il 2026 segnerà l’avvio della piena applicabilità dei requisiti di governance, trasparenza, con trollo umano e gestione del rischio, accompagnato dalle aspettative di vigilanza di Eiopa (a livello europeo) e di Ivass (a livello nazionale). In questo contesto, le compagnie saranno chiamate non solo a dimostrare la con formità formale nell’applicazione dei sistemi AI, ma a intraprendere percorsi strutturati di adeguamento organizzativo e a promuovere l’evoluzione dei sistemi di intelligenza artificiale già in uso, aggiornando architetture, modelli e documentazione in un’ottica di maggiore trasparenza, tracciabilità, robustezza e spiegabilità. La scadenza del 2026 non rappresenta un traguardo puramente regolamentare, ma l’avvio di una complian ce dinamica che può tradursi in una concreta opportunità di evoluzione organizzativa per un piano di diffusione dell’AI sostenibile. IL LIVELLO DI MATURITÀ DEL MERCATO ASSICURATIVO Per analizzare il livello di preparazione del settore rispetto all’adozione e alla ge stione etica dell’intelligenza artificiale, Italian Insurtech Association , Mbs Consulting e Cerved hanno promosso una ricerca congiunta finalizzata a misurare la maturità del mercato assicurativo italiano nell’applicazione dei principi di AI Ethics ( https://www. cerved.com/ricerca-e-analisi/a/ricerca-analisi-imprese-mercati/l-impatto-dell-ai-ethi cs-nelle-assicurazioni ). L’indagine, condotta nel corso del 2025 attraverso una survey quantitativa affianca ta da interviste qualitative con il top management del settore, ha coinvolto compagnie assicurative, broker e operatori insurtech, restituendo una fotografia articolata delle iniziative in corso, delle priorità percepite e delle principali criticità. I risultati mostrano un settore complessivamente consapevole della portata del cambiamento regolamentare e tecnologico, ma caratterizzato da livelli di maturità an cora disomogenei. Oltre la metà delle compagnie dichiara di aver già avviato iniziative di adeguamento all’AI Act o di averle pianificate nel breve periodo; parallelamente, il livello di conoscenza della normativa può essere considerato buono, ma non uniforme: circa quattro operatori su dieci dichiarano una conoscenza approfondita del regola mento, mentre una quota significativa presenta ancora un livello di familiarità limitato o indiretto. I RISCHI REPUTAZIONALI ANCORA I PIÙ RILEVANTI Dal punto di vista organizzativo, le iniziative in corso sono prevalentemente guidate dalle funzioni di compliance, risk mana gement e IT. Le attività più diffuse riguardano la mappatura dei sistemi di AI, la classificazione dei modelli in base al rischio e l’avvio di processi di gestione del rischio AI. Più limitata risulta invece la diffusione di strumenti avanzati, come audit dedicati, test di conformità etica o comitati formalizzati di AI governance. Un elemento particolarmente significativo riguarda la percezione dei rischi. L’AI Ethics non emerge ancora come priorità assoluta nel ranking dei rischi aziendali: le compagnie tendono a concentrarsi su rischi operativi, tecnici e di cybersecurity, men tre i rischi etici risultano più distanti dal percepito quotidiano del business. Quando analizzati più in dettaglio, tuttavia, i rischi reputazionali emergono come i più rilevanti tra quelli etici, soprattutto in relazione all’utilizzo di chatbot e sistemi di interazione automatizzata con clienti e intermediari. Nel complesso, la ricerca restituisce l’immagine di un settore in transizione: attivo nel costruire i primi presìdi di governance, ma ancora orientato a un approccio prevalentemente adempitivo, in cui l’etica dell’AI non è pienamente integrata nella strategia aziendale. DALLA COMPLIANCE ALLA GOVERNANCE Superare una visione puramente normativa dell’AI Ethics significa riconoscerne il potenziale come fattore abilitante di valore. Un approccio etico strutturato consente innanzitutto di rafforzare la fiducia: verso i clienti, che richiedono decisioni trasparenti e non discriminatorie, e verso i regolatori, sempre più attenti alla capacità delle compagnie di governare sistemi ad alto rischio. In secondo luogo, l’AI Ethics contribuisce a migliorare la qualità delle decisioni. Modelli progettati e monitorati secon do principi di trasparenza, spiegabilità e supervisione umana permettono di individuare più rapidamente bias, anomalie e deterioramenti delle performance, riducendo il rischio di errori sistemici e contenziosi. In questa prospettiva, l’etica diventa un elemento di robustezza tecnica e organizzativa. Le esperienze più avanzate convergono su tre dimensioni operative complementari. L’ Ethics as a Service riguarda la costruzione di competenze e strutture organizzative dedica te, in grado di supportare in modo continuo i team di svi luppo e di business. L’ Ethics by Design integra i principi etici fin dalle fasi di progettazione dei modelli, analogamente a quanto avvenuto in passato con la privacy o la sicurezza. L’ Ethics of Use , infine, estende la responsabilità etica all’in tero ciclo di vita delle soluzioni AI, attraverso monitoraggio continuo, policy chiare e formazione diffusa. Il settore assicurativo italiano si trova oggi in una fase di transizione cruciale, in cui l’intelligenza artificiale sta rapida mente diventando una componente strutturale dei modelli operativi. In questo contesto, l’AI Ethics non può essere inter pretata come un mero vincolo regolamentare, ma come un nuovo criterio di maturità organizzativa. Le compagnie che sapranno integrare l’etica dell’AI nei propri modelli di governance saranno meglio posizionate per affrontare le sfide regolamentari, ridurre i rischi di lungo periodo e rafforzare la fiducia degli stakeholder. In un settore fondato sulla credibilità delle decisioni e sulla gestione del rischio, governare l’intelligenza artificiale in modo responsa bile rappresenta non solo un dovere, ma una concreta leva di competitività e sostenibilità nel tempo. Chiara Bonomelli , Per approfondire su www.insurancetrade.it: • AI, 100 miliardi di euro per le reti finanziarie • Agentic AI 📌16/01 lagazzettadelmezzogiorno.it - Mercato assicurativo: cosa significa oggi stipulare una polizza online?