Usare l'intelligenza artificiale in modo etico: come si fa?

L'intelligenza artificiale è qui per restare. Saremo in grado di usarlo a beneficio dello sviluppo della società? Abbiamo stabilito alcune linee guida per realizzarlo insieme.
Usare l'intelligenza artificiale in modo etico: come si fa?
Sara González Juárez

Scritto e verificato la psicologa Sara González Juárez.

Ultimo aggiornamento: 23 aprile, 2023

Gli esseri umani, così desiderosi di confrontarsi con intelligenze che agiscono contro i nostri interessi, si trovano in un momento critico, uno in cui devono affrontare la sfida dell’usare l’intelligenza artificiale (IA) in modo etico. Questo progresso tecnologico promette una fioritura senza precedenti, ma porta anche sfide e difficoltà che meritano riflessione e ulteriori azioni.

I cambiamenti accelerati generano una serie di problemi di natura sociale che sembrano non riuscire ad adattarsi al ritmo. Cosa segna i limiti in questo tempo di trasformazione?

È proprio questa la risposta che delineeremo nello spazio seguente, cominciando col sottolineare che è necessario stabilire dei limiti morali -e probabilmente anche legali– nell’utilizzo dell’intelligenza artificiale; Altrimenti, ci esponiamo al fatto che lo sviluppo della civiltà diventerà l’esatto contrario.

Modi per utilizzare l’intelligenza artificiale in modo etico

Il dibattito sull’IA e sul suo utilizzo è ampio e complesso. Tuttavia, c’è un certo accordo su alcune norme morali al riguardo. Andiamo a vederli.

1. Intelligenza artificiale al servizio degli interessi umani

Annals of the Royal Academy of Moral and Political Sciences ha sottolineato in una pubblicazione che da un punto di vista umanistico un’intelligenza artificiale ha il compito di minimizzare la sofferenza evitabile delle persone. È qui che entra in gioco il concetto di “uso dannoso dell’intelligenza artificiale”, riferito ai potenziali pericoli che l’uso improprio di questi programmi pone alla società.

Pertanto, deve essere garantita la sicurezza delle persone, così come la privacy, l’identità e la riservatezza degli ambienti. In caso contrario, il precetto di questa sezione verrebbe violato.

2. Evitare la dittatura dei dati

La raccolta di dati massicci (o big data) è il motore del progresso, ad esempio, in settori così disparati come la tecnologia medica o lo sviluppo economico. Tuttavia, quando questi dati vengono utilizzati per distorcere la popolazione e segregarla, si parla di “dittatura dei dati”, sottolinea il bollettino del Consiglio superiore per la ricerca scientifica.

Continuando con l’esempio, un’intelligenza artificiale sarebbe in grado di raccogliere enormi campioni dei risultati di un nuovo trattamento medico o dell’incidenza di problemi di salute. In questo scenario, dovremmo chiederci fino a che punto è etico che un assicuratore abbia accesso a questi dati per farci un preventivo o darci una copertura.

Medico che utilizza un programma di intelligenza artificiale in laboratorio
L’intelligenza artificiale è già applicabile in vari campi, motivo per cui sono urgentemente necessari più regolamenti e legislazione al riguardo.

3. Rispettare i neurodiritti per usare l’intelligenza artificiale in modo etico

I big data potrebbero anche essere usati per fare previsioni sul comportamento umano. Questo viene sfruttato, soprattutto, nel campo del marketing. In questo senso, per utilizzare eticamente l’intelligenza artificiale, tali dati non dovrebbero essere uno strumento che influenza l’identità degli utenti o la loro libertà cognitiva. Questo è ciò che si chiamano neurodiritti.

Nel campo dell’intelligenza artificiale, è essenziale garantire il rispetto dei neurodiritti nella raccolta, archiviazione, analisi e utilizzo dei dati cerebrali. Pertanto, comporta l’ottenimento del consenso informato ed esplicito delle persone prima di raccogliere dati dal loro cervello, proteggere la privacy e la riservatezza di questi dati e garantire che vengano utilizzati in modo etico e responsabile.

Inoltre, il rispetto dei neurodiritti deve garantire che l’intelligenza artificiale non venga utilizzata per manipolare o influenzare indebitamente l’identità, la libertà cognitiva o l’autonomia delle persone.

Comprende, quindi, evitare la discriminazione, la stigmatizzazione o la manipolazione basata sui dati del cervello e garantire che le decisioni e le azioni basate sull’IA siano trasparenti, spiegabili ed eque. È una bella sfida, dal momento che la maggior parte dei modelli con cui lavorano le intelligenze artificiali sono opachi: danno buoni risultati, ma non sappiamo perché.

4. Preservare la dignità umana, un altro modo etico di usare l’intelligenza artificiale

Alcuni lavori, in particolare quelli di assistenza al cliente, sono considerati inadatti all’intelligenza artificiale e ai robot. Questo perché richiedono la capacità di empatia e rispetto. Così, ad esempio, non sarebbe etico sottoporre una persona a una terapia diretta dall’intelligenza artificiale, né farle funzionare come poliziotti o giudici.

L’empatia nei robot pone sfide molto interessanti, a causa della natura delle emozioni e della coscienza umane. Sebbene i robot possano essere programmati per riconoscere e rispondere alle espressioni facciali umane, al tono della voce e ad altri segnali emotivi, non hanno ancora la capacità di provare emozioni e capire nello stesso modo in cui lo facciamo noi.

A quest’area allude un lavoro presentato sulla rivista Economía y Sociedad, in cui spiegano che alle tecnologie intelligenti vengono assegnate funzioni inerenti alla gestione delle emozioni, come fanno gli esseri umani, cadendo in una contraddizione tra dovere morale e scenario in cui viene implementato.

5. Brevetto libero

Nel dibattito sulle intelligenze artificiali prevale un’affermazione: il loro brevetto dovrebbe essere aperto e pubblico. Il suo sviluppo non dovrebbe essere nelle mani di pochi, poiché è una tecnologia che influenza direttamente la vita delle persone e la loro configurazione sociale, persino la loro cultura. In questo modo si garantirebbe la trasparenza e si impedirebbe l’uso doloso delle IA.

Immagine computerizzata di cosa rappresenta l'intelligenza artificiale
Sebbene l’intelligenza artificiale trasformi la cultura, l’uomo rimane impegnato in un uso responsabile.

Perché usare l’intelligenza artificiale in modo etico?

Dalla sicurezza nazionale all’uso di un’app, passando per la politica e la medicina, l’uso dell’intelligenza artificiale necessita di una revisione etica isolata da interessi particolari. Un suo uso dannoso non solo causerebbe o aumenterebbe le minacce nella società, ma ne aggraverebbe anche le conseguenze negative.

Poiché l’IA sta cambiando il nostro mondo e la nostra cultura, gli agenti passivi devono sviluppare, parallelamente, una cultura della responsabilità e del buon uso di essa. Contrariamente a quanto molti pensano, non si tratta solo di apprendere e applicare misure di sicurezza informatica.

In effetti, promuovere una tale cultura responsabile è solo il primo passo. È più che necessario esigere che i governi e le aziende prendano misure per la gestione etica dell’IA, poiché la riflessione morale è già iniziata. E ci sono stati alcuni progressi in questo senso, commenta una pubblicazione di Global Law.

L’efficacia delle conclusioni di questa riflessione dipenderà dal fatto che raggiungano il loro obiettivo umanistico, poiché, per il momento, quelli che ci dominano davvero sono gli umani dietro i robot. Cioè, per ora, dietro ogni intelligenza artificiale c’è un’intelligenza umana.


Tutte le fonti citate sono state esaminate a fondo dal nostro team per garantirne la qualità, l'affidabilità, l'attualità e la validità. La bibliografia di questo articolo è stata considerata affidabile e di precisione accademica o scientifica.



Questo testo è fornito solo a scopo informativo e non sostituisce la consultazione con un professionista. In caso di dubbi, consulta il tuo specialista.