Intelligenza artificiale a misura di Unione Europea
Lo studio di un prof del Sant’Anna chiesto dall’Europarlamento

Andrea Bertolini, professore presso l’Istituto Dirpolis della Scuola Superiore Sant’Anna di Pisa
PISA. Dopo aver adottato il primo quadro normativo complessivo al mondo sul fronte caldo, anzi incandescente, dell’ intelligenza artificiale (Ai Act), la Commissione Europea è ora di fronte a un bivio : ipotizza di rimettere nel cassetto la proposta di direttiva in materia di responsabilità civile e intelligenza artificiale (Aild) perché teme «un eccesso di regolazione che spaventa le imprese». È Andrea Bertolini, professore associato presso l’Istituto Dirpolis della Scuola Superiore Sant’Anna di Pisa, ad analizzare la questione in uno studio richiesto dal Parlamento Europeo. Titolo: “Intelligenza artificiale e responsabilità civile: una prospettiva europea”.
A darne notizia è il magazine dell’istituto universitario d’eccellenza segnalando che nell’analisi si mette in evidenza come «l’assenza di un quadro normativo europeo uniforme porti necessariamente a una frammentazione e alla moltiplicazione di soluzioni nazionali, potenzialmente divergenti». Con una conseguenza: l’assenza di norme si traduce paradossalmente in una “overdose” di regolamentazione, ciascun per sé e in maniera magari contrastante (e questo risulta «molto dannoso per le imprese»).
La proposta di direttiva su responsabilità civile e intelligenza artificiale (Aild) attualmente all’esame viene messa in controluce per rilevarne le criticità e indicare che «rischia di essere ampiamente inadeguata». Il motivo è presto detto: «Prevedendo solo soluzioni procedurali e non stabilendo una chiara regola di responsabilità ben definita, non sarebbe in grado di prevenire la frammentazione e lo sviluppo di soluzioni diverse nei 27 stati membri».
A giudizio di Bertolini invece – viene riferito dal quartier generale del Sant’Anna – è invece fondamentale «focalizzare gli interventi normativi solo sui sistemi di intelligenza artificiale ad alto rischio». Meglio evitare «una regolazione eccessiva delle applicazioni a basso impatto» e introdurre «modelli di responsabilità alternativi, più efficaci, come regole di responsabilità oggettiva o di colpa presunta per offrire maggiore certezza legale, protezione per gli utenti e sostenibilità per le imprese».