Il ruolo di primo piano dell’Unical nella riflessione su Etica e Intelligenza Artificiale L’intelligenza artificiale (IA) sta attraversando una fase di sviluppo straordinariamente accelerato, impattando significativamente sul tessuto economico e sociale. In un contesto in cui le capacità computazionali, l'accesso ai dati e gli algoritmi avanzati convergono, l'IA ha raggiunto successi tecnici inimmaginabili solo fino a pochi anni fa, concretizzandosi nella disponibilità di sistemi intelligenti sempre più autonomi, capaci di apprendere, adattarsi e prendere decisioni in modi sempre più complessi. L'avvento dei sistemi generativi ha poi evidenziato in modo ancora più marcato, nell'ultimo anno, la potente forza innovatrice e trasformativa dell'Intelligenza Artificiale, rendendo possibili processi di automazione caratterizzati da una straordinaria facilità d'uso. Questa rivoluzione, alimentata da massicci investimenti internazionali senza precedenti nella storia dell'informatica, ha rapidamente superato i confini accademici e dei centri di ricerca, assumendo la dimensione di un autentico fenomeno sociale. Il lancio di ChatGPT, prodotto da OpenAI, ha infatti giocato un ruolo significativo nel diffondere una consapevolezza senza precedenti riguardo alle potenzialità di un paradigma digitale in grado di plasmare, nel prossimo futuro, un nuovo modello di supporto per le attività individuali in una vasta gamma di settori, contenuti e applicazioni. La pervasività dell’Intelligenza Artificiale, assieme a tanti entusiasmi, sta però allo stesso tempo suscitando interrogativi etici e morali del tutto nuovi, ponendo l'umanità di fronte a sfide cruciali riguardo all'applicazione responsabile di questa straordinaria tecnologia. Il punto nodale delle attuali discussioni etiche legate all’IA si concentra sulla necessità di stabilire regole possibilmente universali per il suo utilizzo. Questo implica la necessità di saper guidare la progettazione di sistemi in grado di agire in base a determinati criteri conformi alle norme sociali e ai valori condivisi, oppure di esplorare approcci che si basino su paradigmi etici noti, come la deontologia, il consequenzialismo e il contrattualismo. In questo complesso panorama, un osservatorio privilegiato è oggi rappresentato dalla Società Italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA), nata nel 2020 da un gruppo di studiosi di differenti ambiti disciplinari. Con un articolo costitutivo dal titolo “Which ethics for the new (digital) world?”, SIpEIA ha sottolineato come sia importante non solo riflettere sull'etica dell'IA, affrontando le nuove questioni etiche sollevate dall'IA, ma anche sul tema del rapporto tra Etica e IA, ossia su come l'IA influenzerà l'Etica stessa. In effetti, questo rapporto viene oggi declinato su due ambiti di azione. Il primo ambito ha una natura introspettiva, riguarda cioè la definizione di un approccio etico alla stessa progettazione dei sistemi di IA, che si declina con un deciso impulso alla costruzione di buone pratiche, quali la creazione di team interdisciplinari nella progettazione che includano – ad esempio – non solo tecnici informatici, ma anche filosofi, pedagogisti, sociologi, e antropologi. Un secondo ambito riguarda, invece, il modo con cui i sistemi di IA, una volta progettati e realizzati impattano la società e la vita delle persone; in particolare, questo ambito riguarda gli aspetti: - Etico-politici, in riferimento alle forme di decision making che, potenzialmente, possono attribuire all’IA funzioni e analisi viziate da bias, per cui, di contro, si rende necessaria una maggiore sensibilità ai contesti di applicazione (frame analysis). In questo senso, è sempre più necessario informare e formare sul bias di automazione (credenza che la macchina non possa fallire in quanto funziona secondo principi di esattezza matematica); l’apparato giuridico, tecnico, politico ed etico devono quindi porsi a garanzia di un criterio fondamentale che non è quello della infallibilità, ma della trustworthiness (affidabilità);
- Etico-sociali, in rapporto a incompletezze (o nuovamente bias) presenti nei dataset che generano forme di discriminazione economiche e sociali in riferimento al genere, all’etnia, alle aree geografiche: l’algoritmo riproduce i bias tipicamente umani, ma, in aggiunta, può presentarne di nuovi, legati agli intrinseci limiti tecnologici. Aspetti etico-sociali emergono, inoltre, in relazione alle forti preoccupazioni riguardo al rischio di omologazione e manipolazione della coscienza collettiva globale, oltre che in relazioni a possibili violazioni del principio di libertà (il tema etico è quello della fairness digitale);
- Etico-economici, in relazione all’eventuale monopolio dei sistemi di IA, nonché a forme di investimento di fondi pubblici per implementare i sistemi di Intelligenza Artificiale in una corsa alle tecnologia sempre più dirompente. A questo si associa il rischio della potenziale perdita di posti di lavoro, non solo nei processi di automazione ma anche rispetto ad altre forme di lavoro creativo (es. marketing, giornalismo); specifici profili di criticità emergono dunque in ordine al complesso rapporto esistente tra sistemi di IA e rischi collegati all’utilizzo di algoritmi e dati come strumenti di potere in vari ambiti.
In considerazione della pluralità degli aspetti sin qui richiamati, è naturale che l’attuale riflessione etica sull’IA sia poi strettamente connessa con la sfera del diritto. In questo delicato rapporto, un atteggiamento diffuso è quello di numerosi enti nazionali e sovranazionali che tutelano lo sviluppo tecnico dell’IA, sostenendo un modello etico in riferimento alla mera compliance formale regolatoria. A questo atteggiamento si è contrapposta l’impostazione europea che, con l’AI Act, ha inquadrato invece lo sviluppo dell’Intelligenza Artificiale in un contesto regolatorio basato su principi etici e orientato alla definizione dei rischi connessi all’applicazione delle tecnologie, bandendo ad esempio alcune pratiche quali il social scoring, proprio perché caratterizzate da un rischio “non accettabile”. L’implementazione di questi principi richiederà però ancora alcuni mesi, mentre l’IA e le tecnologie si sviluppano ad un ritmo sempre più frenetico. Ecco quindi l’importanza di affiancare agli approcci regolatori anche un approccio più strettamente etico, attraverso interventi più immediati in termini di formazione, educazione e sensibilizzazione. In questo contesto, l’Università della Calabria sta svolgendo un importante ruolo a livello nazionale. In particolare, la prof.ssa Ines Crispini è stata socia fondatrice della Società Italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA), e attualmente è componente del Consiglio Direttivo. Io stesso sono componente di tale Consiglio, e nella mia veste di Presidente dell’Associazione Italiana per l’Intelligenza Artificiale ho agevolato iniziative ed eventi congiunti. Dall’a.a. 2022/2023, l’Università della Calabria ospita inoltre un dottorato nazionale in Learning Sciences and Digital Technologies (XXXVIII ciclo) in rete con altri 37 Atenei italiani e coordinato del prof. Pier Cesare Rivoltella. Il dottorato ha la specifica finalità di costruire una rete di ricerca-azione strutturata sulle recenti sfide educative aperte dalle nuove tecnologie, con specifico riferimento all’IA. L’idea è quella di un triplice approccio modulato in educare all’ IA, educare con l’IA, educare l’IA. La sperimentazione che il dottorato sta conducendo mira alla costruzione di un modello educativo di AI&Ethics Literacy grazie alla costruzione di una rete di scuole sul territorio calabrese, con la partecipazione di SIpEIA e dell’Istituto italiano di Bioetica. Sempre con SIpEIA, l’Università della Calabria ha inoltre promosso, organizzato e partecipato ad attività formative di interesse nazionale e internazionale, con corsi di dottorato e iniziative su nuclei tematici diversi, che pongono l’Etica in relazione all’educazione, al diritto, al campo medico, e alle questioni di genere. Prof. Gianluigi Greco Ordinario di Informatica Direttore del Dipartimento Unical di Matematica e Informatica Presidente dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA) Membro del Consiglio Direttivo della Società Italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA) |
Unical’s prominent role in the debate on Ethics and Artificial Intelligence Artificial Intelligence (AI) is undergoing an extraordinarily accelerated phase of development, significantly impacting the economic and social fabric. In a context where computational capabilities, data access, and advanced algorithms converge, AI has achieved unimaginable technical successes only a few years ago. This materializes in the availability of increasingly autonomous intelligent systems capable of learning, adapting, and making decisions in ever more complex ways. The advent of generative systems has further highlighted, over the past year, the powerful innovative and transformative force of Artificial Intelligence, enabling automation processes characterized by extraordinary ease of use. This revolution, fueled by unprecedented international investments in the history of computing, has quickly transcended academic and research boundaries, assuming the dimensions of a genuine social phenomenon. The launch of ChatGPT, produced by OpenAI, has indeed played a significant role in spreading unprecedented awareness regarding the potential of a digital paradigm capable of shaping a new support model for individual activities across a wide range of sectors, content, and applications. The pervasiveness of Artificial Intelligence, along with much enthusiasm, is, however, simultaneously raising entirely new ethical and moral questions, posing humanity with crucial challenges regarding the responsible application of this extraordinary technology. The focal point of current ethical discussions related to AI revolves around the need to establish possibly universal rules for its use. This implies the necessity of guiding the design of systems capable of acting based on specific criteria that align with social norms and shared values or exploring approaches based on known ethical paradigms, such as deontology, consequentialism, and contractualism. In this complex scenario, a privileged observatory is represented today by the Italian Society for the Ethics of Artificial Intelligence (SIpEIA), established in 2020 by a group of scholars from different disciplinary fields. With an constitutive article titled "Which ethics for the new (digital) world?", SIpEIA has emphasized the importance of not only reflecting on the ethics of AI, addressing the new ethical issues raised by AI, but also on the theme of the relationship between Ethics and AI, that is, how AI will influence Ethics itself. Indeed, this relationship is now articulated in two areas of action. The first area is introspective, involving the definition of an ethical approach to the design of AI systems, with a strong emphasis on the construction of good practices, such as the creation of interdisciplinary teams in design that include – for example – not only computer technicians but also philosophers, educators, sociologists, and anthropologists. The second area concerns how AI systems, once designed and implemented, impact society and people's lives; in particular, this area involves aspects: - Ethico-political, in reference to forms of decision-making that can potentially attribute functions and analyses tainted by bias to AI, requiring greater sensitivity to application contexts (frame analysis). In this sense, it is increasingly necessary to inform and educate about automation bias (the belief that the machine cannot fail because it operates based on principles of mathematical accuracy); the legal, technical, political, and ethical apparatus must therefore guarantee a fundamental criterion, which is not infallibility but trustworthiness.
- Ethico-social, in relation to inadequacies (or again bias) present in datasets that generate forms of economic and social discrimination based on gender, ethnicity, geographical areas: the algorithm reproduces biases typically human, but in addition, it can introduce new ones, related to intrinsic technological limitations. Ethico-social aspects also emerge in relation to strong concerns about the risk of standardization and manipulation of the global collective consciousness, as well as possible violations of the principle of freedom (the ethical theme is that of digital fairness).
- Ethico-economic, in relation to the potential monopoly of AI systems, as well as forms of investment of public funds to implement AI systems in an increasingly disruptive technology race. This is associated with the risk of potential job loss, not only in automation processes but also compared to other forms of creative work (e.g., marketing, journalism); specific critical profiles emerge, therefore, in relation to the complex relationship between AI systems and risks associated with the use of algorithms and data as instruments of power in various fields.
Given the plurality of aspects mentioned so far, it is natural that the current ethical reflection on AI is closely connected to the legal sphere. In this delicate relationship, a widespread approach is that of numerous national and supranational entities that safeguard the technical development of AI, supporting an ethical model with reference to mere formal regulatory compliance. This approach has been contrasted by the European stance, which, with the AI Act, has framed the development of Artificial Intelligence in a regulatory context based on ethical principles and oriented towards defining the risks associated with the application of technologies, banning certain practices, such as social scoring, precisely because they are characterized by an "unacceptable" risk. The implementation of these principles will still require several months, while AI and technologies develop at an increasingly frenetic pace. Hence, the importance of combining regulatory approaches with a more strictly ethical approach, through more immediate interventions in terms of training, education, and awareness. In this context, the University of Calabria is playing a significant role nationally. In particular, prof. Ines Crispini has been a founding member of the Italian Society for the Ethics of Artificial Intelligence (SIpEIA), and currently serves on the Board of Directors. I myself am a member of this Board, and in my capacity as President of the Italian Association for Artificial Intelligence I have facilitated joint initiatives and events. From the academic year 2022/2023, the University of Calabria also hosts a national doctoral program in Learning Sciences and Digital Technologies (XXXVIII cycle), in collaboration with 37 other Italian universities and coordinated by Prof. Pier Cesare Rivoltella. The specific purpose of the doctoral program is to build a research-action network structured on recent educational challenges posed by new technologies, with specific reference to AI. The idea is to pursue a triple approach modulated in educating about AI, educating with AI, and educating AI. The experimentation conducted by the doctoral program aims to build an educational model of AI&Ethics Literacy through the construction of a network of schools in the Calabria region, with the participation of SIpEIA and the Italian Institute of Bioethics. Together with SIpEIA, the University of Calabria has also promoted, organized, and participated in nationally and internationally relevant training activities, including doctoral courses and initiatives on various thematic nuclei, placing Ethics in relation to education, law, the medical field, and gender issues. Prof. Gianluigi Greco Full Professor of Computer Science Director of the Unical Department of Mathematics and Computer Science President of the Italian Association for Artificial Intelligence (AIxIA) Member of the Board of Directors of the Italian Society for the Ethics of Artificial Intelligence (SIpEIA) |
|
Tutte le informazioni e i documenti di UniCal longs 4 excellence qui Università della Calabria - 16 Febbraio 2024, 16:25 |
|
|