La geopolitica dell’IA e la pedagogia del possibile/The geopolitics of AI and the pedagogy of the possible

01.07.2024

di Luca BARALDI

Era il 2015, quando Umberto Eco, in occasione della ricezione della laurea honoris causa in Comunicazione e Cultura dei Media all'Università di Torino, dichiarava in una nota conferenza stampa che internet aveva concesso diritto di parola a "legioni di imbecilli". Gianluca Nicoletti, pochi giorni dopo, scelse di rispondere ad Eco con un articolo su La Stampa, in cui rivendicava con fermezza la natura potenzialmente antielitista delle nuove tecnologie digitali, benché fin da subito si fossero mostrate intrise di possibili contraddizioni e avessero lasciato intravvedere rischi non prevedibili: "Oggi la verità va difesa in ogni anfratto, farlo costa fatica, [...] ma soprattutto richiede capacità di combattimento all'arma bianca" (11 giugno 2015). Non scelse di parlare di tecnologia, né di misure di sicurezza informativa, né di controllo dell'opinione, ma di responsabilità individuale nella collaborazione collettiva, nel perseguimento comune di una nuova possibilità di futuro. Scelse di parlare di difesa della verità.

Se è corretto pensare, come dice Judith Wajcman in Technofeminism (2004) che "la tecnologia è sempre [...] il risultato di conflitti e compromessi, i cui esiti dipendono principalmente dalla distribuzione del potere e delle risorse tra i diversi gruppi della società" (p. 33), è altrettanto vero che le istituzioni incaricate di garantire gli equilibri tra poteri si trovano oggi a dover affrontare la progressiva erosione di punti di riferimento, fino a tempi recenti ritenuti incrollabili. La capillarità e la pervasività dei sistemi di comunicazione digitale, fondati sul modello della platform economy e alimentati dall'economia dell'attenzione, mette fortemente in discussione la capacità della politica di alimentare proattivamente un dibattito sul futuro della polis. La despazializzazione dell'agorà e la smaterializzazione dei luoghi del confronto sociale non pongono solo un problema di trasformazione dello spazio fisico, ma alimentano i margini di ambiguità e manipolabilità per la comunicazione pubblica. Non si vuole qui appiattire la riflessione su una polarizzazione materiale=buono vs. immateriale=cattivo, ma evidenziare la funzione fortemente strutturale - e non solo amministrativa - della documentabilità degli eventi, della tracciabilità delle fonti, della verificabilità delle informazioni, condizioni alla base della criticabilità (e del diritto alla critica) dei parametri in base ai quali un politico, un capo d'azienda o un qualunque cittadino prende decisioni. L'automazione dell'informazione, la datificazione acritica della realtà, l'iperautomazione dell'industria e dell'economia, la profilazione massiva e l'adattabilità non controllata dei servizi e dei prodotti digitali contribuiscono a dare forma ad un contesto sociale in cui i perimetri di sicurezza e di controllo sembrano assottigliarsi molto rapidamente.

Lo dice molto chiaramente Asma Mhalla nel suo Technopolitique. Comment la technologie fait de nous de soldats (2024), in cui evidenzia la correlazione doverosa tra accelerazione digitale e necessità di adeguamento delle strutture istituzionali e politiche: "L'innovazione tecnologica esige simmetricamente una capacità d'innovazione politica della medesima ampiezza" (p. 94). Parlo deliberatamente di correlazione doverosa, per richiamare l'imprescindibilità di un tessuto di meccanismi di interdipendenza tra gli attori sociali, nello scenario dei contesti democratici.

In un momento storico di rapida trasformazione degli equilibri alla base del contratto sociale, per come lo intendiamo ormai da secoli, occorre ripensare in profondità la nostra concezione del diritto, della relazione tra pubblico e privato, della corresponsabilità democratica, per garantire la persistenza di un sistema di diritti che, da decenni, cerca di indirizzare la geopolitica internazionale verso una condizione di pace - o di conflittualità controllata - e di cooperazione, di fronte alle sfide globali. Forse, in questo momento, è importante affidarci alla capacità delle istituzioni di indicare direzioni e di ispirare le dinamiche del cambiamento, in una prospettiva che, per quanto possa apparire utopistica, ci mette di fronte alla responsabilità di prendere coscienza dei cambiamenti che stiamo vivendo, di farcene carico, di non sottovalutarli.

In un momento di grande fermento sul tema, lo scorso 9 maggio il Consiglio d'Europa ha approvato la Convenzione quadro sull'intelligenza artificiale e i diritti umani, la democrazia e lo stato di diritto, che mette a fuoco in maniera immediata le possibili contraddizioni e i rischi strutturali di un uso non consapevole delle tecnologie di IA, che invoca, fin dal Preambolo, la conservazione dei valori condivisi e il perseguimento di un modello di innovazione responsabile. Il documento, suddiviso in 8 capitoli e 36 articoli, è un trattato internazionale sui diritti umani e può essere letto alla luce della più nobile funzione del diritto, che è quello di educare al valore intrinseco di una visione del mondo, anziché limitarsi a proibire comportamenti possibili. Il cerchio concettuale che guida la riflessione legislativa si apre, all'articolo 2, con la definizione di IA, e si chiude, all'articolo 20, con la definizione della necessità di alfabetizzazione digitale universale ("for all segments of the population"), rimarcando come l'istituzionalità dell'emanazione giuridica non possa più prescindere, nel mondo digitalizzato, da una dimensione sociale partecipativa.

Camminando su questa linea di contatto complessa, tra società e diritto, ne abbiamo parlato con Hanne Juncher, Director of Security, Integrity and the Rule of Law del Consiglio d'Europa, che ci ha guidati nella contestualizzazione del documento, con alcune chiavi di lettura che riteniamo fondamentali.

"Siamo orgogliosi del risultato che abbiamo ottenuto, soprattutto in un momento come questo, in cui i Paesi hanno bisogno di occasioni di confronto per cercare di comprendere meglio le potenzialità dell'AI e i suoi possibili rischi, per proteggere tutti i diritti e tutelare i processi che potrebbero esserne minacciati".

L'esperienza di Juncher, che nel corso degli anni presso il Consiglio d'Europa ha rivestito funzioni apicali nel settore dell'anticorruzione, dell'efficienza della giustizia e della prevenzione della tortura, la mette in una condizione privilegiata, per comprendere le possibili lacune e zone grigie che, in momenti di rapida trasformazione, potrebbero emergere nell'articolazione legale e sociale a livello nazionale. Com'è logico aspettarsi da uno strumento vincolante sui diritti umani la Convenzione non affronta le questioni di regolamentazione del mercato e delle politiche industriali. Non è però possibile negare che l'innovazione globale nel settore digitale si affida oggi, pressoché interamente, alle infrastrutture di aziende private e alla loro capacità d'investimento. Non si corre il rischio di alimentare uno scollamento tra una visione alta, culturalmente e filosoficamente irrifiutabile, e un'autoregolamentazione del mercato che si muove in un'altra direzione?

"La Convenzione non si occupa in maniera diretta di mercato o di business, ma affida agli Stati la responsabilità di determinare, ciascuno nei limiti dei propri poteri, misure che garantiscano la tutela dei diritti umani, della democrazia e dello stato di diritto, con particolare attenzione per le categorie più esposte ai rischi. Nella fase di redazione della Convenzione, condotta dai governi dei 46 Stati membri del Consiglio d'Europa, la discussione ha visto la partecipazione di circa 70 osservatori, in rappresentanza della società civile, delle istituzioni e anche delle aziende private, così come dei governi di Paesi delle Americhe, della Regione Pacifica e del Medio Oriente. Questa partecipazione ha confermato la rilevanza e l'urgenza di una regolamentazione dell'AI dal punto di vista dei diritti umani e della democrazia. Ovviamente non si può prescindere dalla collaborazione con certi interlocutori, ma è importante definire bene, nella struttura legislativa, quali sono i limiti da non oltrepassare e quali i rischi da prevenire. Sebbene l'intelligenza artificiale provenga principalmente dal settore privato, il suo utilizzo da parte dei governi e delle autorità dovrebbe essere soggetto a obblighi riguardanti l'impatto di tale utilizzo sui diritti e sui valori fondamentali. Questa nuova Convenzione li copre entrambi, in modo graduale e differenziato."

Nello stesso periodo la Commissione Europea ha approvato l'AI Act. In che modo dialogano, le due iniziative, e in che modo sono state armonizzate?

"Si tratta di due documenti che si completano a vicenda. L'AI Act è direttamente applicabile nei 27 paesi dell'Unione Europea e regola il comportamento degli individui. A tempo debito potrebbe avere un effetto globale, come abbiamo visto, ad esempio, per la regolamentazione dell'UE nel settore della protezione dei dati. La Convenzione quadro del Consiglio d'Europa è un trattato e come tale giuridicamente vincolante per gli Stati aderenti. Tutti i Paesi che hanno preso parte ai negoziati possono accedervi direttamente. È aperto anche all'adesione di altri Paesi da qualsiasi parte del mondo, previa richiesta al Comitato dei Ministri del Consiglio d'Europa. Entrambi i documenti rappresentano contributi molto importanti al quadro normativo sull'IA, in modi distinti. In quanto organizzazione per i diritti umani, queste sono ovviamente le aree di interesse del Consiglio d'Europa."

In questa epoca di sovrapproduzione di riflessioni e dichiarazioni sull'IA, sulle sue implicazioni etiche e sui suoi possibili impatti, si rischia però di perdere l'orientamento, o di lasciarsi quasi ubriacare dall'eccesso di informazioni a disposizione. Come spiegare ad un cittadino l'utilità e la necessità di tanti strumenti di controllo?

"L'intelligenza artificiale sta diventando un motore di cambiamento molto potente, sotto molti punti di vista, ma bisogna anche capire che ci sono dei rischi. AI Potrà aiutarci nel nostro lavoro quotidiano, potrà accelerare molte delle attività che svolgiamo normalmente, potrà potenziare la nostra capacità analitica, sarà potenzialmente sempre al nostro fianco. Dobbiamo sfruttare questo aspetto, mettendo in atto e implementando allo stesso tempo quadri che ci consentano di mitigare concretamente e offrire riparazione quando l'intelligenza artificiale si traduce in violazioni dei diritti umani o danneggia la democrazia o lo stato di diritto. Dobbiamo monitorare il suo impatto e proteggere, ad ogni livello, la dignità, la libertà e il valore di ogni singola persona."

Il privilegio di poter dialogare con chi accetta la responsabilità della tessitura tra evoluzione sociale e trasformazione istituzionale offre la possibilità, apparentemente contraddittoria, di ritrovarsi, nel porre domande, a scoprire i limiti della propria miopia. José María Lassalle, in Civilización artificial (2024), riflette a fondo sull'evoluzione del concetto di responsabilità, di socialità, di autenticità, lasciando molti quesiti aperti a nuove possibilità e nuove concezioni del mondo. È importante "formulare una nuova pedagogia che tenga in considerazione la cura delle imperfezioni che l'intelligenza artificiale cerca di rimuovere" (p. 182), afferma Lassalle, ricadendo nuovamente sul tema fondamentale di una nuova educazione. Se da una parte la modellazione astratta che è alla base dell'intelligenza artificiale ci espone costantemente al rischio di appiattimento della complessità, dall'altra la cultura dell'efficientismo ci priva, allo stesso modo, del tempo e della profondità di cui avremmo bisogno per riconoscere il valore di un mondo fragile e in costante cambiamento. A volte il diritto, prima di ogni altra cosa, cerca di rispondere alla nostra incapacità di fermarci a pensare, per riabilitare la nostra capacità di prestare attenzione a ciò che conta davvero. Se da una parte può sembrare che la Convenzione esprima concetti troppo distanti dalla realtà, a tratti addirittura utopistici, dall'altra è importante prendersi il tempo per ridefinire il senso delle parole. L'utopia non descrive l'ambizione dell'irrealizzabilità, ma la soglia del massimo miglioramento possibile. E di questa utopia realizzabile, oggi, abbiamo bisogno come dell'aria. 

The geopolitics of AI and the pedagogy of the possible

It was 2015, when Umberto Eco, on the occasion of receiving an honorary degree in Communication and Media Culture at the University of Turin, declared in a well-known press conference that the internet had granted the right to speak to "legions of imbeciles". Gianluca Nicoletti, a few days later, chose to respond to Eco with an article, in which he firmly claimed the potentially anti-elitist nature of new digital technologies, even though they had immediately shown themselves to be imbued with possible contradictions and had revealed risks that were not predictable: "Today the truth must be defended in every nook and cranny, doing so costs effort, [...] but above all it requires fighting skills with a white weapon" (La Stampa, 11 June 2015). He did not choose to talk about technology, nor about information security measures, nor about the control of opinion, but about individual responsibility in collective collaboration, in the common pursuit of a new possibility for the future. He chose to speak about defense of the truth.

If it is correct to think, as Judith Wajcman says in Technofeminism (2004), that "technology is always [...] the result of conflicts and compromises, the outcomes of which depend mainly on the distribution of power and resources between the different groups of society " (p. 33), it is equally true that the institutions responsible for guaranteeing the balance between powers today have to face the progressive erosion of points of reference, until recently considered unshakable. The capillarity and pervasiveness of digital communication systems, founded on the platform economy model and fueled by the attention economy, strongly calls into question the ability of politics to proactively fuel a debate on the future of the polis. The despatialization of the agora and the dematerialization of places of social confrontation do not only pose a problem of transformation of physical space, but fuel the margins of ambiguity and manipulability for public communication.

Here we do not want to flatten the reflection on a polarization material = good vs. immaterial = bad, but highlight the highly structural - and not only administrative - function of the documentability of events, the traceability of sources, the verifiability of information, conditions underlying the criticism (and the right to criticism) of the parameters based on which a politician, a company leader or any citizen makes decisions. The automation of information, the uncritical datafication of reality, the hyperautomation of industry and the economy, the massive profiling and uncontrolled adaptability of digital services and products contribute to giving shape to a social context in which security and control perimeters seem to be thinning very quickly.

Asma Mhalla says this very clearly in her Technopolitique. Comment la technologie fait de nous de soldats (2024), in which she highlights the necessary correlation between digital acceleration and the need to adapt institutional and political structures: "Technological innovation symmetrically requires a capacity for political innovation of the same breadth" (p . 94). I deliberately speak of necessary correlation, to recall the indispensability of an interdependence mechanism between social actors, in the scenario of democratic contexts.

In a historical moment of rapid transformation of the balance at the basis of the social contract, as we have understood it for centuries now, it is necessary to rethink in depth our conception of law, of the relationship between public and private, of democratic co-responsibility, to guarantee the persistence of a system of rights which, for decades, has sought to direct international geopolitics towards a condition of peace - or controlled conflict - and cooperation, in the face of global challenges. Perhaps, at this moment, it is important to rely on the ability of institutions to indicate directions and inspire the dynamics of change, in a perspective which, however utopian it may appear, puts us face to face with the responsibility of becoming aware of the changes we are experiencing, to take charge of them, not to underestimate them.

In a moment of great turmoil on the topic, last May 9th the Council of Europe approved the Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, which immediately brings into focus the possible contradictions and structural risks of an unconscious use of AI technologies, which calls, since the Preamble, for the preservation of shared values ​​and the pursuit of a model of responsible innovation. The document, divided into 8 chapters and 36 articles, is an international human rights treaty. It can be read in light of the noblest function of law, which is to educate on the intrinsic value of a vision of the world, rather than simply prohibiting possible behaviors. The conceptual circle that guides the legislative reflection opens, in article 2, with the definition of AI, and closes, in article 20, with the definition of the need for universal digital literacy ("for all segments of the population") , underlining how the institutionality of legal enactment can no longer ignore a participatory social dimension in the digitalized world.

Walking along this complex line of contact between society and law, we talked about it with Hanne Juncher, Director of Security, Integrity and the Rule of Law of the Council of Europe, who guided us in contextualizing the document, with some interpretation keys which we consider fundamental.

"We are proud of the result we have obtained, especially at a time when Countries need opportunities for discussion to try to better understand the potential of AI and its possible risks and protect any rights and processes that might be at risk from the use of AI."

The experience of Juncher, who over the years at the Council of Europe has held top positions in the sector of anti-corruption, efficiency of justice and prevention of torture, puts her in a privileged position to understand the possible gaps or gray areas which, in moments of rapid transformation, can emerge whether at the legal or social level.

As one might expect from a binding human rights instrument, the Convention does not address issues of market regulation and industrial policies. However, it cannot be denied that global innovation in the digital sector today relies almost entirely on the infrastructures of private companies and their investment capacity. Don't we run the risk of fueling a disconnect between a high vision, culturally and philosophically irrefutable, and a self-regulation of the market that moves in another direction?

"The Convention does not deal directly with the market or business, but entrusts States with the responsibility of determining, each within the limits of their powers, measures that guarantee the protection of human rights, democracy and the rule of law, with particular attention to the categories most exposed to risks. In the drafting phase of the Convention, taken forward by the governments of the 46 member states of the Council of Europe, the discussion saw the participation of nearly seventy observers, representing civil society, institutions and also private companies, as well as governments from the Americas, the Pacific Region and the Middle East. This confirmed the relevance and immediacy of the regulation of AI from a perspective of human rights and democracy. Obviously, it is important to clearly define, in the legislative structure, which limits should not be exceeded and which risks should be prevented. While AI emanates primarily from the private sector, its use by governments and authorities should be subject to obligations regarding the impact of such use on fundamental rights and values. This new Convention covers both, in a graduated and differentiated manner."

The activity of the European Commission has in the same period approved the AI ​​Act. How do the two initiatives interact and how have they been harmonized?

"These are two documents that complement each other. The AI ​​Act is directly applicable within the 27 countries of the European Union and regulates the behaviour of individuals. It may in due course offer a global effect, as we have seen for EU regulation in the area of data protection for example. The Council of Europe Framework Convention is a treaty and as such legally binding on the acceding States. All the countries that took part in the negotiations can accede to it directly. It is also open to accession by other countries from anywhere in the world, subject to a request to the Council of Europe's Committee of Ministers. Both documents are very important additions to the regulatory framework around AI, in distinct ways. As a human rights organisation, those are obviously the areas of focus of the Council of Europe."

In this era of overproduction of reflections and declarations on AI, on its ethical implications and its possible impacts, however, there is a risk of losing orientation, or of becoming almost intoxicated by the excess of information available. How to explain to a citizen the usefulness and necessity of so many control tools?

"Artificial intelligence is becoming a very powerful driver for change, from many points of view, but we also need to understand that there are risks. AI will be able to help us in our daily work, it will be able to accelerate many of the activities we normally carry out, it will be able to enhance our analytical capacity, it will potentially always be at our side. We need to harness that, while also putting in place and implementing frameworks that allow us to concretely mitigate and offer redress when AI results in human rights violations or damages democracy or the rule of law.We have to monitor its impact, to protect, at every level, the dignity, freedom and value of every single person."

The privilege of having the opportunity to dialogue with those who accept responsibility for the interweaving of social evolution and institutional transformation offers the apparently contradictory possibility of finding oneself, in asking questions, discovering the limits of one's own myopia. José María Lassalle, in Civilización artificial (2024), reflects in depth on the evolution of the concept of responsibility, sociality, authenticity, leaving many questions open to new possibilities and new conceptions of the world. It is important "to formulate a new pedagogy that takes into consideration the treatment of the imperfections that artificial intelligence tries to remove" (p. 182), states Lassalle, falling once again on the fundamental theme of a new education. If on the one hand the abstract modeling that is the basis of artificial intelligence constantly exposes us to the risk of flattening complexity, on the other hand the culture of efficiency deprives us, in the same way, of the time and depth we would need to recognize the value of a fragile and constantly changing world. Sometimes the law, before anything else, tries to respond to our inability to stop and pay attention, to rehabilitate our ability to pay attention to what really matters. While on the one hand it may seem that the Convention expresses concepts that are too distant from reality, at times even utopian, on the other hand it is important to take the time to redefine the meaning of the words. Utopia does not describe the ambition of unrealizability, but the threshold of the maximum possible improvement. It is useless to deny it: today, we need this realizable utopia like air