Felicia Pelagalli

European expert in innovation, Big Data analysis and Artificial Intelligence, former lecturer at the Sapienza University of Rome and at the Pontifical Salesian University,
Founder and CEO of CULTURE
From trust in algorithms to privacy by design to dreamers like Tim Berners-Lee: “Artificial intelligence must work to solve the issues of humanity: health, environment and happiness.”
Because the world is complex and changing

A dialogue with Felicia Pelagalli, European expert in innovation, Big Data analysis and Artificial Intelligence, long-time lecturer at the Sapienza University of Rome and at the Pontifical Salesian University, where she currently teaches Theory and Techniques of Digital Communication. In 2008, she founded the communication, training and big data analysis company CULTURE srl.

Thanks to her analysis, we will discover why it is important to establish a relationship of trust with algorithms and what the risks of this unprecedented relationship are. We will understand that we must ‘integrate’ and ‘innovate’ in all disciplines, from the humanities to STEM, and that, in these difficult times, we must listen to dreamers like Tim Berners-Lee.

Men rule innovation. It is a fact. 80% of artificial intelligence professors are men. In Facebook, 15 % are women in the research and innovation sector. At Google, the female presence in the same sector stands at 10 %. How do we reverse the trend?

Yes, it is true. However, I always wonder why so few girls choose this type of faculty, rather than the humanities. There is a need for work at the grassroots level, the key word being integration.

We always talk about multidiscipline and then we forget that philosophy also has a lot to say about artificial intelligence, just as psychology is fundamental in studying the interaction between man and machine or man and robot. What I mean is that we need to bring innovation into all disciplines and not think that there are only a few disciplines that deal with innovation such as STEM.

The assumption from which we start is wrong. Since the world is complex…

The world is complex and changing.

Yes, the job market, right now, is hunting for data scientists, software engineers, machine learning professionals, one of the areas that I deal with. However, there is also an important piece, which concerns natural language for which we need the linguist, to understand the semantic meaning of words, to accompany the engineer that is writing code. At the same time, it is important to bring all machine learning techniques, which we are studying, into all degrees, i.e. teach machine learning to philosophy, teach machine learning psychology and so on…

Let me tell you an anecdote. I remember the first time that, in a postgraduate school in health psychology, I proposed to the faculty to teach digital transformation, it was 2016, and to convince “everyone” I had to call the course, (with a contrivance) “training (in it. Formation) and digital transformation”. With this formula, it passed. During the pandemic they called me back… We need to anticipate things, not chase them!

To change course, disciplines must be integrated and not thought of as separate!

This year, Europe sent a message of attention to skills development, with reference to both the new generations to be trained and the generations already working in companies, who need to modernise their skills.

Remaining in Europe, in the seven principles of the European Code of Ethics on Artificial Intelligence the first word is trust. Why do you think so?

Europe has made this choice: to emphasise how trust in innovation, in artificial intelligence, is a central element of the relationship with citizens and businesses. It seems to me a sacrosanct principle because the social bond is based on trust and therefore without it, it will be really difficult to innovate a country, to innovate a company. Europe has placed the emphasis on trust both when it published the White Paper, with the ethical principles of the development of artificial intelligence and more recently when it defined the regulation on artificial intelligence which codified a series of risks.

For example, facial recognition in public places in real time has been banned as a high-risk practice. Imagine a pyramid, the low risk is at the base the high risk is at the top, clearly there is an increasing reduction of risk in the intermediate ranges.

I remember that when this regulation was released, the Vice-President of the EU Commission, Margrethe Vestager emphasised that trust, it was a must. Because if you think about it, Europe has a very specific position about culture and values on human rights, on humanism, on renaissance, and this is pitted against the United States and pitted against China, so it has a very marked value positioning.

In the slow time dictated by Covid, you created the series TRUST TALK, ‘Container of meaning for seeds of the future’. Two years on, what ‘fruits’ were born? And which audiences were listening?

Do you remember during the pandemic? We were all engaged in the production of webinars…I was lucky because I involved people who were very important to me, such as Luciano Floridi, Monsignor Vincenzo Paglia, Silvio Soldini, Francesco Piccolo and Roberto Cotroneo, just to name a few, in an online Talk. They were available to listen and respond.

Thanks to the choice of the Streamyard platform that allows real-time management of the comments coming in from the different social channels, we interacted with viewers and responded live. This created a bond with our audience. Episode after episode, like a TV series, always a different word, but consistent, as if it had the same wavelength with the central theme of trust. Like the word humanity, fragility, reciprocity, beauty and change just to mention a few. I turned this beautiful experience into a book published by Luca Sassella, which is called ‘Trust in the 21st Century’. I think I can say that it is also a beautiful result! Each theme, each interview has a colour, and a network, a network of words.

Trust and data analysis. The limits and contradictions of the Garante per la Privacy regarding data processing for prevention campaigns in the health sector?

In recent months, I have been taking care of the digital communication of Asl Roma2, and believe me, the issue of privacy is a really complex one to define. Let us go back to the positioning of Europe, that, as we have already said, protects human rights, and consequently there is the protection of our personal data, our ‘identity‘. Good thing we are in Europe! That there is the GDPR! At the same time, however, we must also take into account, that sometimes, the regulation blocks innovation, and the things we could do, for example with health data, which are the most sensitive data of all. But it is a problem of Ethics. You see, ethics basically means not behaving badly, not going against human rights: it is also true that there can be an unethical behaviour. Example: if I can alert someone, because perhaps a machine learning algorithm verifying images finds that that person might be at risk of cancer, how is the ethics being managed?

If we think of the last ten years of an innovation driven by commercial platforms, it is obvious that your right to use data about me, must stop where my right to protection begins. Only in health this is much more difficult to define: what is the limit? And then the thing that should definitely be avoided: the inertia loophole. One does not innovate because the privacy regulation does not allow it.

What do you propose?

Balance and privacy by design. It is always a balance that must be sought. It must be done in consultation with the Privacy Guarantor, involving it from the very beginning, in the stages of the entire design so that we do not have to start from scratch, so that the system or algorithm takes all protections into account.

From safeguards to measures. Measuring the social impact of, for example, digital medicine and telemedicine. With which tools? And how to communicate it to initiate engagement and collective awareness?

These aspects mentioned are very important. But the first lever of innovation is utility.

If we can communicate well, if we can communicate to the public, to citizens and patients (and their relatives) what is the benefit of that innovation we are introducing, digital medicine or telemedicine, what is the benefit for everybody, we will be able to give the push for change, the push to adopt certain systems. Without the obligation.

There was this acceleration with the pandemic. We all grasped what the usefulness of digital innovation was. It opened a ‘little door’ of change, of curiosity. I would say, in effect, that everyone has to find their own sense of possibility. Then there are those who, like Baricco, write that the digital revolution was there to prevent a repetition of the catastrophes and horrors of the 20th century…

Returning to your encouragement to be curious, to find meaning, a possibility. You said, “It’s not about going faster but in the right direction.” Which one?

Direction? I would like to know it today. When I uttered this sentence, the direction was clear. It was early 2020, pre-pandemic. There was an artificial intelligence that could answer some of humanity’s problems. Today, I don’t know, I can’t say that. And I think it is a common feeling for many. Obviously those who suffer the most are the new generations. Totally disoriented and you can see it from the increase in mental disorders you can see it from the number of NEET (Not in Education, Employment, or Training) not to mention the birth rate curve that keeps going down. It is a difficult time, very difficult.

What characteristics must female leadership have for our future?

Female leadership is finally beginning to take shape. Interesting if you like, that in Italy there are such different leaders: on one side Meloni, on the other Schlein, such a wealth of different and radical profiles. Male leaders all look a bit alike, from right to left if we think about it.

A model that is no longer working, not only in politics, because it is a model that is based on an individualistic culture, linked to the 20th century. In companies we are starting to talk about gentle leadership. We have realised today, that there is a need for collectivity, for community, for ‘us’, and probably women’s leadership intercepts this need. In conclusion, about artificial intelligence, I like to listen to the dreamers.

Dreamers like Tim Berners-Lee.  I don’t know if you have noticed what is happening on social networks, on Twitter, for example. Before, it was thought-hoped that the network would make democracy more widespread, make knowledge more widespread, that the network and data would address the challenges of humanity: a network working for the common good. These enlightened people, one after the other, wrote on Twitter: ‘I quit’. I like to keep thinking that artificial intelligence should work to solve humanity’s issues: health, the environment and happiness.

Written by: Eleonora Diquattro

Translated by: Mirela Cojocaru

Complete Italian version of the article below:

Felicia Pelagalli

Esperta europea di innovazione, analisi dei Big Data e Intelligenza Artificiale, già docente presso l’Università Sapienza di Roma e presso l’Università Pontificia Salesiana,
Fondatrice e CEO di CULTURE
Dalla fiducia verso gli algoritmi, al privacy by design ai sognatori come Tim Berners-Lee: “L’intelligenza artificiale deve lavorare per risolvere le questioni dell’umanità: la salute, l’ambiente e la felicità”.
Perché il mondo è complesso e in cambiamento

In dialogo con Felicia Pelagalli, esperta europea di innovazione, analisi dei Big Data e Intelligenza Artificiale, lunga attività di docenza presso l’Università Sapienza di Roma e presso l’Università Pontificia Salesiana, dove attualmente insegna Teoria e Tecniche della Comunicazione Digitale. Nel 2008, fonda la società di comunicazione, formazione e analisi dei big data CULTURE srl.

Grazie alla sua analisi scopriremo perché è importante stabilire un rapporto di fiducia con gli algoritmi e quali sono i rischi di questa relazione inedita. Che bisogna “integrare” e “innovare” in tutte le discipline, dalle umanistiche alle STEM, e che, in questo momento difficile, bisogna ascoltare i sognatori come Tim Berners-Lee.

Gli uomini governano l’innovazione. È un fatto. L’80% dei professori di intelligenza artificiale sono uomini. In Facebook, nel settore ricerca e innovazione il 15 % è lavoro femminile. In Google la presenza femminile, nello stesso settore si attesta al 10 %. Come invertire la rotta?

Si è vero. Però, io mi chiedo sempre perché così poche ragazze scelgano questo tipo di facoltà, bensì quelle umanistiche. Serve un lavoro alla base, di cui la parola chiave è integrazione.

Si parla sempre di multidisciplinarietà e poi però ci dimentichiamo che anche la filosofia ha molto da dire sull’intelligenza artificiale, come anche la psicologia è fondamentale nello studiare l’interazione tra uomo e macchina o tra uomo e robot. Quello che voglio dire è che in realtà bisogna portare innovazione in tutte le discipline e non pensare che ci siano soltanto alcune discipline che si occupano di innovazione come le STEM.

È sbagliato il presupposto da cui partiamo. Poiché il mondo è complesso…

Il mondo è complesso e in cambiamento.

Sì, il mercato del lavoro, in questo momento è a caccia di scienziati del dato, di ingegneri software, di professionisti del machine learning, uno degli ambiti di cui mi occupo, ma vi è anche un pezzo importante, che riguarda il linguaggio naturale e allora abbiamo bisogno del linguista, per comprendere il significato semantico delle parole, che affianchi l’ingegnere (meglio ingegnera) che sa scrivere codice. Contemporaneamente è importante portare tutte le tecniche di machine learning, che stiamo studiando, presso tutte le lauree, cioè insegnare machine learning a filosofia insegnare machine learning psicologia e così via…

Le racconto un aneddoto. Mi ricordo la prima volta che, in una scuola di specializzazione in psicologia della salute, al collegio dei docenti proposi di insegnare la trasformazione digitale, era il 2016, e per convincere “tutti” dovetti chiamare il corso, (con un escamotage) “formazione e trasformazione digitale” con questa formula, passò. Durante la pandemia mi hanno richiamato… Serve anticipare le cose non rincorrerle!

Per cambiare rotta bisogna integrare le discipline e non pensarle separate!

Quest’anno l’Europa ha inviato un messaggio di attenzione allo sviluppo delle competenze, in riferimento sia alle nuove generazioni da formare, che alle generazioni attive già nelle imprese, che devono rendere piu “moderne” le proprie competenze.

Restiamo in Europa, nei sette principi del Codice Etico Europeo sull’Intelligenza Artificiale la prima parola è fiducia. Secondo lei perché?

L’Europa ha fatto questa scelta: quella di mettere in evidenza quanto la fiducia verso l’innovazione, l’intelligenza artificiale sia elemento centrale del rapporto con i cittadini e le imprese. Mi sembra un principio sacrosanto, perché il legame sociale si basa sulla fiducia e quindi senza di essa, sarà veramente difficile innovare un paese, innovare un’impresa. l’Europa ha posto l’accento sulla fiducia sia quando ha pubblicato il Libro Bianco, con i principi etici dello sviluppo dell’intelligenza artificiale sia più recentemente quando ha definito il regolamento sull’intelligenza artificiale e questo ha codificato una serie di rischi.

Sono stati vietati ad esempio, il riconoscimento facciale in luoghi pubblici in tempo reale, è stata ritenuta una pratica ad alto rischio. L’immagine è di una piramide, il rischio basso è alla base il rischio alto è al vertice, chiaramente si riducono sempre più di rischio nelle fasce intermedie.

Ricordo che quando questo regolamento è stato rilasciato, la vicepresidente della Commissione UE, Margrethe Vestager ha sottolineato come la fiducia, era un elemento imprescindibile. Perché se ci pensa, l’Europa ha un posizionamento di cultura e di valori molto specifico sui diritti umani, sull’umanesimo, sul rinascimento e questo si contrappone agli Stati Uniti e si contrappone alla Cina, quindi, ha un posizionamento valoriale molto marcato.

Nel tempo lento dettato dal Covid, lei ha realizzato la serie TRUST TALK, “Contenitore di senso per semi di futuro”. A distanza di due anni, quali “frutti” sono nati? E quali pubblici erano in ascolto?

Si ricorda in pandemia? Eravamo tutti impegnati nella produzione di webinar…Io sono stata fortunata, perché ho coinvolto a confrontarsi in un Talk online, persone molto importanti per me, come Luciano Floridi, Mons. Vincenzo Paglia, Silvio Soldini, Francesco Piccolo e Roberto Cotroneo, solo per fare alcuni nomi. Si sono resi disponibili ad ascoltare e rispondere.

Grazie alla scelta della piattaforma Streamyard che consente di gestire in tempo reale i commenti che arrivavano dai diversi canali social, interagendo con gli spettatori e rispondendo in diretta. Per questo si è creato un legame con il nostro pubblico. Puntata dopo puntata, come una serie TV, sempre una parola diversa, ma coerente, come se avesse la stessa lunghezza d’onda con il tema centrale della fiducia. Come la parola umanità, fragilità, reciprocità, bellezza e cambiamento solo per ricordarne alcune. Questa bellissima esperienza l’ho trasformata in un libro edito da Luca Sassella, che si chiama appunto «Fiducia nel XXI secolo». Credo di poter dire che sia anche un bello oggetto! Ogni tema, ogni colloquio ha un colore, e una rete, un network di parole, grazie all’uso del network analysis sulla concorrenza delle parole.

Fiducia e analisi dei dati. I limiti e le contraddizioni del Garante per la Privacy in materia di trattamenti dei dati per campagne di prevenzione in ambito sanitario?

In questi mesi sto curando la comunicazione digitale dell’Asl Roma2, e mi creda, la questione della privacy è una questione veramente complessa da definire. Torniamo al posizionamento dell’Europa, ovvero come già detto, tutela i diritti umani, e vi è di conseguenza la tutela dei nostri dati personali, la nostra “identità”. Meno male che stiamo in Europa! Che c’è il GDPR ! Nello stesso tempo però dobbiamo anche tener conto, che avvolte, il regolamento blocca l’innovazione, e delle cose che potremmo fare, ad esempio con i dati sanitari, che sono i dati più sensibili in assoluto, ma è un problema di Etica. Vede l’Etica, in fondo significa non comportarsi male, non andare contro i diritti umani e però è anche vero, che vi può essere un comportamento non etico. Esempio: se io posso allertare delle persone, perché magari un algoritmo di machine learning verificando delle immagini, trova che quella persona potrebbe essere a rischio di tumore, allora dove sta l’etica?

Se pensiamo agli ultimi dieci anni, ad un’innovazione trainata dalle piattaforme commerciali è ovvio che il tuo diritto di vendermi, deve fermarsi dove inizia il mio diritto di tutela. Solamente nella salute questo è molto più difficile da definire: qual è il limite? E poi la cosa che sicuramente va evitata: la scappatoia dell’inerzia. Non si innova perché il regolamento della privacy non lo permette.

Lei cosa propone?

Equilibrio e privacy by design. È sempre un equilibrio che va cercato. Va fatto di concerto con il Garante della privacy, coinvolgendolo fin dall’inizio, nelle fasi di tutta la progettazione per non dover ricominciare da capo, in modo che il sistema o l’algoritmo tenga conto di tutte le tutele.

Dalle tutele alle misure. Misurare l’impatto sociale, ad esempio, della medicina digitale e della telemedicina. Con quali strumenti? E come comunicarlo per avviare engagement e consapevolezza collettiva?

Questi aspetti citati sono importantissimi. Ma la prima leva dell’innovazione è l’utilità.

Se noi riusciamo a comunicare bene, a trasmettere all’opinione pubblica, ai cittadini e ai pazienti (e ai relativi familiari) qual è l’utilità di quella innovazione che stiamo introducendo, la medicina digitale o la telemedicina, qual è il beneficio per tutti, riusciremo a dare la spinta al cambiamento, la spinta ad adottare determinati sistemi. Senza l’obbligo.

C’è stata questa accelerazione con la pandemia. Abbiamo colto tutti quale fosse l’utilità dell’innovazione digitale. Si è aperta una “porticina” di cambiamento, di curiosità. Direi in effetti, che ognuno deve trovare il proprio senso di possibilità. Poi c’è chi come Baricco, scrive che la rivoluzione digitale c’è stata per evitare che si ripercorressero le catastrofi e gli orrori del ‘900…

Tornando al suo incoraggiamento ad essere curiosi, a trovare un senso, una possibilità. Lei ha detto: “Non si tratta di andare più veloci ma nella direzione giusta.” Quale?

La direzione? Mi piacerebbe saperlo oggi. Quando ho pronunciato questa frase la direzione era chiara. Era inizio 2020, pre-pandemia. C’era un’intelligenza artificiale che poteva rispondere a dei problemi dell’umanità. Oggi non so, non posso dire altrettanto. E credo sia una sensazione comune a tanti. Ovviamente chi ne risente maggiormente sono le nuove generazioni. Totalmente disorientate e si vede dall’aumento dei disturbi mentali si vede dal numero dei Neet per non parlare della curva della natalità che continua a scendere. È un momento difficile, molto.

Che caratteriste deve avere la leadership femminile per il nostro futuro?

La leadership femminile finalmente inizia a delinearsi. Interessante se vogliamo, che in Italia ci siano delle leadership così diverse: da una parte la Meloni dall’altra la Schlein, una ricchezza di profili così diversi e radicali. I leader al maschile si assomigliano un po’ tutti, da destra a sinistra se ci pensiamo.

Un modello che non sta più funzionando, non solo in politica, perché è un modello che si basa su una cultura individualistica, legato al 900. Nelle aziende si inizia a parlare della leadership gentile. Abbiamo capito oggi, che bisogno di collettività, di comunità, di “noi” e probabilmente le leadership femminili intercettano questo bisogno. In conclusione, rispetto al tema dell’intelligenza artificiale a me piace ascoltare i sognatori.

Sognatori come Tim Berners-Lee.  Non so se lei ha notato quello che sta accadendo sui social network, su Twitter, ad esempio. Prima, si pensava-sperava che la rete avrebbe reso la democrazia più ampia, reso la conoscenza più diffusa, che la rete e i dati avrebbero affrontato le sfide dell’umanità: una rete che lavora per il bene comune. Queste persone illuminate, una dopo l’altra hanno scritto su Twitter: “Io mollo”. Mi piace continuare a pensare che l’intelligenza artificiale debba lavorare per risolvere le questioni dell’umanità: la salute, l’ambiente e la felicità.

Scritto da Eleonora Diquattro

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Compila questo campo
Compila questo campo
Inserisci un indirizzo email valido.
Devi accettare i termini per procedere