INTELLIGENZE ARTIFICIALI

>

OpenAI e l’uso militare dell’intelligenza artificiale

OpenAI, l’azienda dietro ChatGPT, ha di recente apportato un cambiamento nella sua politica d’uso. Il 10 gennaio 2024, l’azienda ha rimosso il divieto esplicito che proibiva l’uso delle sue tecnologie di intelligenza artificiale per uso militare. Questa decisione, inizialmente riportata da The Intercept, segna una svolta rispetto alla precedente posizione dell’azienda che era fermamente contraria all’uso delle sue tecnologie in contesti militari.

Collaborazioni militari

La revisione della politica include la collaborazione con DARPA per lo sviluppo di nuovi strumenti di cybersecurity. Questo esempio di utilizzo per la difesa è in linea con le missioni che OpenAI considera accettabili. Tuttavia, la politica aggiornata mette l’accento su principi universali, come “non nuocere agli altri”, evitando di menzionare specificamente il militare e la guerra. Questo approccio potrebbe generare ambiguità sulle possibili applicazioni militari più ampie dell’IA.

Preoccupazioni degli esperti

Esperti nel campo della sicurezza, come Heidy Khlaaf di Trail of Bits, hanno espresso preoccupazioni sui potenziali rischi e danni dell’utilizzo della tecnologia AI in applicazioni militari. La nuova politica, meno specifica, potrebbe portare a operazioni militari imprecise o influenzate da bias, aumentando il rischio di danni e vittime civili. La mancanza di dettagli specifici nella politica solleva interrogativi su come OpenAI intenderà applicare e far rispettare le nuove linee guida, specialmente in contesti militari dove la distinzione tra applicazioni offensive e difensive può rapidamente confondersi.

Potenziale uso militare

Nonostante gli strumenti di OpenAI attualmente non permettano un danno fisico diretto, i loro modelli linguistici e altre tecnologie di intelligenza artificiale potrebbero trovare un uso nel campo militare, come la codifica o l’elaborazione di ordini. Questo aspetto amplia il campo delle possibili collaborazioni militari, andando oltre la semplice proibizione di sviluppare armi o causare lesioni.

Una linea sottile

Il cambiamento di politica di OpenAI rappresenta un momento cruciale nell’evoluzione della tecnologia AI e nel suo rapporto con le applicazioni militari. Apre a nuove interpretazioni della collaborazione militare, potenzialmente aprendo nuovi percorsi per la tecnologia AI nei settori della sicurezza nazionale e della difesa. Tuttavia, la sottile linea tra difesa e offesa, unita ai rischi intrinseci e ai dilemmi etici associati alla tecnologia AI, richiede un’analisi attenta e considerata.

Leggi anche Verso un inverno dell’IA? Cosa dicono i fatti

IA e complessità

In questo contesto dinamico, è fondamentale rimanere informati e consapevoli degli sviluppi, poiché le decisioni prese oggi potrebbero avere un impatto significativo sul futuro dell’IA e sul suo ruolo nella società. La discussione su questo cambiamento di politica è un promemoria delle complessità e delle responsabilità che accompagnano lo sviluppo e l’applicazione delle tecnologie AI.