Approfondimento

Machina delinquere potest?

tophic image
Contents

Affrontare la tematica dell'intelligenza artificiale nelle imprese ci conduce a ragionare in un’ottica di compliance integrata anche in riferimento alle varie figure coinvolte. Possiamo affermare che quanto più un sistema di intelligenza artificiale presenti una valutazione di rischiosità elevata nel minare i diritti fondamentali alla base dell’Unione europea, maggiormente stringerti si presentano gli adempimenti da rispettare. Parallelamente, la stessa ratio guida la normativa di cui al D.Lgs. 231/2001, imponendo alle imprese di identificare, valutare e gestire i rischi di commissione di reati-presupposto nell’ambito della propria attività, attraverso l’implementazione di un sistema di controllo interno robusto ed efficace.

Il crescente ricorso a software e sistemi di intelligenza artificiale da parte delle imprese, pubbliche e private, impone una riflessione approfondita su come — e in quale misura — l’utilizzo di detti strumenti possa concretamente agevolare la commissione di specifici reati presupposto, esponendo le aziende al rischio di un potenziale addebito di responsabilità.

Pensiamo al riciclaggio di danaro che ben potrebbe essere favorito da sistemi di pagamento automatizzati in grado di consentire transazioni anonime tra conti bancari differenti, criptovalute o piattaforme digitali.

Pertanto, nel costruire un sistema di controllo interno non si può prescindere dall’implementazione di regole procedurali atte non solo ad adempiere alle disposizioni di cui all’AI ACT – differenziate in base alla valutazione del rischio attribuita ai sistemi di intelligenza artificiale – ma, altresì, idonee a presidiare i rischi reato precedentemente individuati e valutati.

Entrambe le normative pongono quindi l’etica del controllo preventivo al centro della strategia di gestione dei rischi.

Non si è fatto attendere il legislatore nazionale che – a mezzo del DDL sull’intelligenza artificiale – ad oggi, all’esame della Camera, ha prospettato una ridefinizione dei criteri di imputazione della responsabilità dell’ente tenendo conto del grado effettivo di controllo dell’intelligenza artificiale da parte dell’agente. Ciò si lega al principio della sorveglianza umana, perno fondante dell’AI ACT, ovvero progettare e sviluppare il sistema con misure di supervisione umana incorporate affinché si garantisca che il sistema di intelligenza artificiale possa essere efficacemente supervisionato da persone durante il periodo di utilizzo.

Per supportare le imprese a promuovere una cultura della legalità è necessario conoscere e applicare le normative con un approccio integrato che valorizzi le sinergie tra i diversi contesti regolatori.

promo image

AI ACT: rischi e opportunità

Scarica il PDF [7766 kb]