Perché i sistemi di intelligenza artificiale “aperta” non sono davvero aperti

Lo studio propone una riflessione critica su cosa significhi realmente apertura nell’IA
MeteoWeb

L’intelligenza artificiale (IA) è al centro di dibattiti politici, tecnologici ed etici. Una delle questioni più controverse riguarda l’idea di IAaperta”. Spesso, questa definizione viene associata a trasparenza, collaborazione e accessibilità, ma uno studio di David Gray Widder e colleghi solleva un punto critico: le affermazioni sull’IA “aperta” sono imprecise e rischiano di distorcere il dibattito pubblico. Lo studio esamina i presupposti dell’apertura nell’IA, analizzando il contesto industriale e tecnologico in cui tali sistemi operano, per mostrare come l’idea di apertura possa mascherare, invece che mitigare, la concentrazione di potere nel settore.

L’equivoco sull’apertura: le basi del problema

La retorica sull’IAaperta” si basa spesso su analogie con il movimento del software libero e open-source, che promuove la condivisione del codice sorgente per favorire l’innovazione e la democratizzazione tecnologica. Tuttavia, applicare queste nozioni all’IA è profondamente problematico. A differenza del software tradizionale, i sistemi di IA non si limitano al codice sorgente: richiedono modelli complessi, enormi dataset, infrastrutture computazionali avanzate e risorse umane specializzate. Questa complessità rende l’IA fondamentalmente diversa e difficilmente compatibile con il modello di apertura su cui si basa il software libero.

Widder e colleghi sottolineano come la concentrazione di potere nelle mani di poche grandi aziende tecnologiche sia un elemento cruciale per comprendere l’inefficacia delle definizioni attuali di apertura nell’IA. Aziende come OpenAI e Google, spesso leader nello sviluppo dell’IA, proclamano la loro adesione ai principi di apertura, ma il loro controllo su risorse chiave – come i dataset proprietari e le infrastrutture computazionali – limita significativamente la possibilità per attori esterni di competere o collaborare realmente su un piano di parità.

Che cosa significa apertura nell’IA?

Lo studio propone una riflessione critica su cosa significhi realmente apertura nell’IA. Secondo Widder e colleghi, l’apertura nell’IA può essere analizzata in termini di trasparenza, riusabilità ed estensibilità:

  • Trasparenza: implica la possibilità di accedere ai modelli, ai dati e ai processi utilizzati per addestrare un sistema di IA. Tuttavia, la trasparenza è spesso limitata: anche quando le aziende rendono disponibili i modelli, i dataset utilizzati sono spesso protetti da copyright o vincoli legali che ne impediscono l’utilizzo.
  • Riusabilità: si riferisce alla capacità di utilizzare componenti di IA esistenti per sviluppare nuovi sistemi o applicazioni. Questo aspetto è strettamente legato alla disponibilità di risorse tecniche e finanziarie, che rimangono concentrate nelle mani di poche grandi aziende.
  • Estensibilità: riguarda la possibilità di migliorare o espandere i sistemi di IA esistenti. Sebbene alcune piattaforme consentano modifiche, le limitazioni imposte dall’accesso alle risorse computazionali rendono l’estensibilità un privilegio piuttosto che un diritto universale.

Le contraddizioni dell’IA “aperta”

Widder evidenzia una contraddizione centrale: mentre la retorica sull’IA “aperta” promette innovazione e democratizzazione, nella pratica essa rafforza la concentrazione di potere. Questo fenomeno non è nuovo. Anche nel caso del software open-source, molte iniziative sono state cooptate da grandi aziende tecnologiche, che hanno sfruttato il lavoro collettivo per rafforzare il proprio dominio di mercato. L’IA non fa eccezione: le aziende che promuovono l’apertura spesso lo fanno con l’obiettivo di controllare i termini del dibattito, influenzare le politiche pubbliche e mantenere una posizione dominante.

Ad esempio, l’accesso a modelli avanzati di IA, come quelli sviluppati da OpenAI, richiede risorse computazionali enormi e costose, spesso disponibili solo alle stesse aziende che proclamano di rendere l’IA “aperta”. Inoltre, i dati utilizzati per addestrare questi modelli sono spesso raccolti da fonti che non rispettano principi di trasparenza o equità, perpetuando disuguaglianze nel processo di sviluppo dell’IA.

IA e politiche pubbliche: chi controlla l’innovazione?

Un altro tema chiave dello studio riguarda il ruolo delle politiche pubbliche nel plasmare il futuro dell’IA. Widder e colleghi osservano che attori potenti stanno cercando di influenzare il dibattito politico, proponendo due narrative contrapposte:

  • L’IA aperta è essenziale per l’innovazione e la democrazia: Questa affermazione sottolinea i benefici dell’accessibilità e della collaborazione, ma spesso ignora il fatto che le risorse necessarie per partecipare sono concentrate nelle mani di pochi attori.
  • L’IA aperta è un rischio per la sicurezza: Questa posizione, al contrario, enfatizza i pericoli derivanti dalla diffusione incontrollata della tecnologia. Sebbene legittima in alcuni contesti, questa narrativa può essere utilizzata per giustificare un maggiore controllo da parte di aziende o governi.

Entrambe le narrative, secondo Widder, finiscono per servire gli interessi delle grandi aziende tecnologiche, che sfruttano l’ambiguità del concetto di apertura per consolidare il proprio potere.

L’illusione dell’apertura

Lo studio di Widder e colleghi invita a riflettere sulla vera natura dell’apertura nell’IA. Sebbene concetti come trasparenza, riusabilità ed estensibilità siano importanti, essi non bastano a garantire una democratizzazione del settore. Al contrario, l’idea di IAaperta” rischia di diventare una strategia retorica che maschera la concentrazione di potere e limita il potenziale di una vera innovazione inclusiva.

Per affrontare queste sfide, è necessario ripensare il concetto di apertura, adottando politiche che affrontino direttamente la concentrazione di risorse e potere. Solo così sarà possibile trasformare l’IA in uno strumento al servizio della collettività, piuttosto che un ulteriore meccanismo di disuguaglianza.

Condividi