Dopo l’accordo provvisorio di due gruppi di legislatori del Parlamento europeo, il commento di Bernd Greifeneder, CTO di Dynatrace.
Dopo il primo storico accordo europeo annunciato lo scorso 8 dicembre, la mattina di martedì 13 febbraio 2024 due gruppi di legislatori del Parlamento europeo hanno votato un accordo provvisorio sull’AI Act, la legge dell’Unione Europea sull’Intelligenza Artificiale, in vista del voto dell’assemblea legislativa del prossimo aprile.
In occasione dell’evento, Bernd Greifeneder (CTO di Dynatrace), si è espresso su questo importante voto che aprirà la strada alla prima legislazione al mondo su questa tecnologia cruciale.
«Nello sviluppare i propri codici di condotta – ha dichiarato Greifeneder – è importante che le organizzazioni riconoscano che non tutte le IA sono uguali. Alcuni tipi, come quelli basati su approcci non deterministici, come l’IA generativa, comportano rischi maggiori rispetto ad altri modelli più consolidati. I manager delle aziende devono quindi classificare l’IA in base ai propri parametri di rischio, considerando l’impatto potenziale sui ricavi, sulla reputazione e sulle relazioni con gli stakeholder. A tal fine, devono considerare come l’IA prende le decisioni, se è trasparente e a quali processi ha accesso e controllo. Dovrebbero identificare se i suoi risultati sono deterministici, derivati da dati pertinenti e contestuali aggiornati in tempo reale, e quindi altamente accurati, o se l’IA trae conclusioni da dati casuali e chiusi, rendendola incline a errori e allucinazioni. Senza un quadro di classificazione che delinei chiaramente queste caratteristiche, le organizzazioni faranno fatica a utilizzare l’IA in modo sicuro, a prescindere dal fatto che sia conforme o meno».
Seppur con punti certi e nodi ancora da sciogliere come segnalavamo a questo link, ora che i legislatori hanno manifestato il loro sostegno alla legge europea sull’intelligenza artificiale, è quasi inevitabile che la proposta diventi legge. «Molte organizzazioni – ha proseguito Greifeneder – si chiederanno cosa fare per prepararsi durante il periodo di transizione di due anni che probabilmente inizierà nei prossimi mesi. In base alle linee guida stabilite, sembra che l’UE abbia, comprensibilmente, focalizzato la propria regolamentazione sulla riduzione dei rischi geopolitici dell’IA, ma non dei rischi commerciali. Di conseguenza, la maggior parte delle organizzazioni si troverà probabilmente a utilizzare quelli che l’UE definisce modelli di IA “a rischio minimo o nullo”. Questi modelli non ricadono direttamente sotto l’influenza dell’AI Act, ma l’UE sta incoraggiando le organizzazioni a impegnarsi in codici di condotta volontari per gestire meglio il rischio. È fondamentale che prendano sul serio questo consiglio, altrimenti le organizzazioni potrebbero scoprire che, pur essendo “conformi”, si stanno esponendo a rischi».
a cura di Redazione
Condividi l'articolo
Scegli su quale Social Network vuoi condividere