INTELLIGENZA ARTIFICIALE E STOLTEZZA UMANA
A COSA SERVE CREARE MACCHINE COME CHATGPT 4 ( 5,6.7…) E SIMILI?
Foto da Wired |
“In 1950, the English computer scientist Alan Turing devised a test he called the imitation game: could a computer program ever convince a human interlocutor that he was talking to another human, rather than to a machine[1]?” Tale gioco fu poi battezzato: test di Turing.
Così inizia un articolo di Billy Perrigo del dicembre 2022 sulla rivista Time, che di seguito menziona il fatto che Google aveva qualche mese prima licenziato uno dei suoi dipendenti proprio perché questi si stava convincendo che uno dei suoi chatbots (robot capaci di intrattenere una conversazione plausibile) fosse diventato “senziente”, cosciente quindi. Il chatbot aveva superato il test di Turing, pur non essendo certamente cosciente di ciò che diceva. Il giornalista riproduce in seguito la sua conversazione con un chatbot diventato famoso negli ultimi mesi, ChatGPT, presumibilmente ChatGPT4, sfornato nel novembre 2022 da Open AI, una start-up nata negli Stati Uniti nel 2015 nel cui Consiglio di Amministrazione erano presenti sia Elon Musk che Sam Altman, quest’ultimo diventato ora Amministratore Delegato. A partire dal chiasso che il lancio sul web di questo robot parlante ha fatto, sembra che la questione serissima del ruolo preponderante che l’intelligenza artificiale sta assumendo in ogni campo ora (e le direzioni in cui procede) si stia trasformando artatamente in un dibattito strampalato sulla minaccia esistenziale che queste abili macchine chiacchierine (e spesso pasticcione) o disegnatrici, auto-trasformatesi in loro avatar ben più potenti in futuro, potrebbero rappresentare. Mutatesi in mostri super-intelligenti potrebbero diventare un pericolo per la sopravvivenza della specie umana, in tot anni, variabili a seconda degli autori delle previsioni apocalittiche, molti dei quali hanno contribuito alla creazione dei possibili futuri mostri.
La super-intelligenza artificiale (ASI) esce dalla scatola (da Pixabay) |
Nel presente, il chatbot con il quale si intrattiene Billy Perrigo dice chiaramente di essere semplicemente un modello linguistico statistico[2], che quindi formula i suoi enunciati sulla base di associazioni probabilistiche fondate su miliardi di dati (input) ingurgitati dal web, costruito con miliardi di parametri con una tecnologia di deep learning (apprendimento profondo) usando reti neurali artificiali che imitano l’apprendimento umano[3]. Quindi non sente, non pensa, non è cosciente di quel che dice, è un abile pappagallo stocastico[4]. L’acronimo GPT significa “generative pre-trained transformer”, cioè indica che il robot è in grado di generare autonomamente frasi appropriate a seconda della domanda, selezionando dalle montagne del suo database le risposta più probabile sulla base di una tecnologia di machine learning, algoritmi che imparano a partire da altri algoritmi di apprendimento.
Scenario Terminator |
C’è anche un livello superiore ed è quello che suscita gli incubi futuribili di mostri super-intelligenti, più intelligenti degli umani: il meta-learning di questi ordigni, cioè il fatto che imparando ad imparare si possano perfezionare ad libitum. Infatti si prospetta che l’intelligenza artificiale (A.I. in acronimo inglese) potrebbe trasformarsi in AGI, cioè in intelligenza artificiale generale, non limitata a compiti specifici predefiniti. Da pappagalli stocastici, modelli statistici controllabili, i robot si trasformerebbero in super-macchine che ragionano autonomamente con potenza cognitiva superiore a quella di menti umane, prevaricandole, con conseguenze potenzialmente catastrofiche. Vedremo chi sono i preveggenti àuguri di sventure virtuali. Se ChatGPT4 crea già oggi testi, saggi, articoli su richiesta che rivaleggiano con testi scritti da professionisti, un altro tipo di robot (come Midjourney) crea e manipola immagini e video su indicazioni (prompts) via via più precise, fino al prodotto finale desiderato. E’ chiaro che esiste un grosso problema autoriale nella produzione e pubblicazione di questi contenuti, linguistici e grafici, non solo di copyright. E di responsabilità.
Si è ingaggiata una nobile gara di corsa tra i colossi informatici privati Google, Microsoft e Amazon, ognuno con i propri ordigni di intelligenza artificiale[5], mentre varie start up in poco tempo vengono quotate in borsa e aumentano il valore delle loro azioni, come appunto Open AI, che dopo il successo di ChatGPT4 è stata comprata da Microsoft. L’addestramento delle macchine intelligenti consuma un’immensa quantità di energia e costa molti miliardi di dollari. Siamo sicuri che ne valga la pena? A che scopo chiacchierare con un robot? La traduzione istantanea è utile, ma perché far creare loro testi o video? Per risparmiare soldi, forza lavoro, dipendenti, cos’altro? A chi giova? Analisi costi/benefici? Analisi dei rischi? Quali problemi si vogliono risolvere con questa costosa linea di ricerca[6]? E i comuni mortali come possono dire la loro e intervenire su decisioni che comunque li toccano già da vicino: privacy, cyber-sorveglianza, modelli di informazione, pubblicità, spettacoli, cultura, ecc. Il mercato del lavoro, il giornalismo, la medicina, la politica, l’Università funzionano sempre più con algoritmi di intelligenza artificiale. L’apprendimento scolastico ne è stato modificato e forse non in direzioni tali da coltivare attitudini critiche.
Dopo avere letto sull’argomento cercando di districarmi tra i tecnicismi, mi sembra di essere arrivata ad un punto fermo: c’è un campo vastissimo di operatività scientifica in settori come la medicina, l’aeronautica, l’astrofisica, la fisica delle particelle, le scienza sociali, la climatologia in particolare, ed altri senza dubbio, per cui l’intelligenza artificiale pubblica è un indispensabile fattore di sviluppo a vantaggio sia della ricerca fondamentale che applicata, a vantaggio dell’umanità in ultima analisi.
Foto del buco nero al centro della nostra galassia |
Esempi di ricerca pubblica non specializzata ce ne sono: il 28 aprile 2021 è stato lanciato il più grande progetto di I.A. che riunisce più di 250 ricercatori facenti capo a un centinaio di laboratori e imprese di una decina di paesi[7] (CNRS, Inria[8], Università, Renault, Airbus, Ubisoft, Orange, Facebook, Systran,[9] e altri). Tale progetto è stato battezzato Big Science[10], è open source, i suoi parametri e il suo codice informatico sono pubblici, è multilingue. La potenza di calcolo è assicurata dal supercalcolatore Jean Zay, a Orsay, che mette a disposizione 5 milioni di ore di calcolo. Il titolo in francese dell’articolo su Le Monde del 5 maggio 2021 è: “Projet géant pour faire parler une IA”, (Progetto gigantesco per far parlare una intelligenza artificiale). Big Science si propone di correggere i numerosi difetti dei concorrenti privati: monolingui, opachi, mal controllati e soggetti a molti rischi, come la produzione di testi fuorvianti, offensivi a volte. (Aggiungerei, volti al profitto.) Nell’articolo si sottolinea: vari gruppi studieranno le questioni etiche connesse all’impresa. In contrasto, si noti che Google ha licenziato, tra dicembre 2020 e febbraio 2021, due ricercatrici in materia di etica dell’intelligenza artificiale, Timnit Gebru e Margaret Mitchell, che lavoravano sui rischi impliciti nei modelli linguistici. La direzione di ricerca di Big Science è la stessa dei concorrenti privati, per cui gli interrogativi circa costi/benefici/fini rimangono, ma le sue caratteristiche e i caveat sono più rassicuranti, oltre al fatto che sia un progetto pubblico.
Isabelle Guyon, foto Le Monde, 2018 |
Un altro progetto, spiccatamente di indirizzo andragogico,[11] è partito da una ricercatrice universitaria, Isabelle Guyon, franco-svizzera-americana, che con una sua piccola impresa informatica (ClopiNet) ha ideato una macchina che lancia gare pubbliche di apprendimento nel campo della I.A. e del machine learning, capace de valutare meglio gli algoritmi. La ricercatrice ha poi promosso un progetto pubblico, Humania, il cui scopo dichiarato è quello di democratizzare l’intelligenza artificiale, finanziato dalla Agenzia Nazionale della Ricerca francese, ANR.[12] Sulla pagina di presentazione del sito ci sono due video per principianti, e poi una lunga lista degli esercizi delle gare già fatte. Tutto liberamente fruibile e anche divertente. Ma sembra che simili iniziative siano rare.
Sappiamo che il progresso tecnologico evolve in sistemi capitalistici, e oggi, in un periodo di neoliberismo trionfante in cui il fattore profitto è centrale, come la concorrenza a livello commerciale, industriale, scientifico, militare e politico, la cooperazione è spesso ignorata. L’insorgere del finanzcapitalismo, come l’ha giustamente chiamato il sociologo Luciano Gallino,[13] esaspera l’estrazione di valore da ogni brandello e angolo della terra e da ogni essere umano, tanto più da ogni conquista tecnologica e scientifica per di più piegata a fini che con il miglioramento della condizione umana hanno ben poco a che vedere. Così abbiamo da anni droni e bombe intelligenti che cadono su feste di matrimonio o su funerali, teleguidate da migliaia di chilometri di distanza. Un documento recente del SIPRI[14], Istituto svedese di ricerca sulla pace con sede a Stoccolma, inizia constatando che l’I.A. è al centro della concorrenza in campo militare tra le grandi potenze mondiali, in particolare tra U.S.A. e Cina, e per quanto concerne l’Europa sollecita l’U.E. a proporre comuni principi da rispettare nell’uso militare dell’I.A. A che punto siamo ora? Il contesto attuale di belligeranza, di accanimento spionistico e di rivalità tra potenze con le rispettive sfere di influenza non promette niente di buono. Le spese nazionali in armamenti stanno crescendo a dismisura.
Paziente e robot chirurgo, da Mediapart |
In campo medico l’intervento di affidabili robot-chirurghi controllati remotamente da specialisti può da un lato moltiplicare la capacità operativa ospedaliera[15] (un robot di questo tipo costa minimo 1,4 milioni di euro), aumentando l’efficienza, e rendere disponibili un numero maggiore di letti ai malati, si dice. Ma in caso di un qualsiasi errore, chi sarà responsabile? E che dire del rapporto di fiducia che deve esistere tra malato e chirurgo? Lo scopo principale è liberare letti più rapidamente e risanare il bilancio degli ospedali o migliorare il benessere dei pazienti e il numero degli interventi chirurgici con esito soddisfacente? In un’ottica di sanità pubblica globale, in termini di patologie che causano maggiore morbilità e mortalità[16], è più consigliabile investire in robot chirurghi o in formazione di medici dove occorre, in fornitura di acqua potabile, servizi igienici[17] e in zanzariere imbevute di insetticida[18] dove si tratta di vita o di morte? E la prevenzione buttata alle ortiche?
L'occhio del James Webb Telescope |
Se è chiaro lo scopo in ricerca fondamentale nel campo della fisica del Large Hadron Collider al CERN di Ginevra, il più potente acceleratore di particelle esistente, che consuma quantità immense di energia, ed egualmente chiaro lo scopo dell’ultimo miracolo di ingegneria astrofisica, il James Webb Telescope, la cui trentennale costruzione e il cui funzionamento sono sommamente energivori, di risalire alle origini dell’universo, meno chiaro è lo scopo di creare macchine di intelligenza artificiale energivore. Energia che è invece necessario economizzare nell’ottica di una sobrietà nell’uso delle risorse sempre più oculato, se vogliamo ancora cercare di non far bollire il nostro pianeta. L’unico che abbiamo, almeno nel presente e nel prevedibile futuro. Ma, guarda caso, coloro che sono dietro alla creazione di queste fantastiche macchin/azioni intelligenti e gridano al lupo dopo averlo allevato arricchendosi, pensano che si possa andare a vivere su altri pianeti. Almeno loro.
Artista immagina astronavi su Marte |
Lo scorso marzo è stata pubblicata una lettera aperta[19] firmata da un migliaio tra imprenditori, ricercatori informatici, professori e varie celebrità made in U.S.A. ambisesso (ma in maggioranza maschi) che perora la causa di una battuta d’arresto (di sei mesi[20]) nello sviluppo della I.A., adducendo un fondato timore che si possa in breve arrivare alla creazione involontaria di una super-intelligenza, superiore a quella umana, che “uscendo dalla scatola” possa prevaricare e distruggere il genere umano![21] Lo scenario è degno di film (americani!) del terrore tipo Terminator. E’ stupefacente che tale prospettiva possa sembrare un pericolo concreto, mentre innumerevoli altri pericoli e svantaggi ben più immediati e concreti per il genere umano non vengono assolutamente menzionati nella lettera. Roberto Ciccarelli, su Il Manifesto[22], riporta una intervista al prof. Antonio Casilli che rivela la quantità di forza lavoro umana dietro l’addestramento di questi pappagalli stocastici. Ad esempio, i curiosi che si sono affrettati a bersagliare di domande ChatGPT hanno fornito dati gratis per migliorarlo nella totale assenza di un quadro normativo. Ma c’è di peggio: la “pulitura” di tutto il bagaglio di nozioni divorato dal pappagallo ChatGPT4 in cui era presente la spazzatura raccattata dal web, non filtrata, è stata eseguita in Kenya da manovalanza pagata con pochi spiccioli, tra 1.32 e 2 dollari all’ora, persone che inoltre ne hanno sofferto psicologicamente, come denuncia Billy Perrigo su Time[23] fornendo dati e fatti. OpenAI ha ingaggiato una società informatica di Nairobi (Sama) che a sua volta ha arruolato decine di lavoratori sottopagati, uno dei quali descrive come “tortura” il compito di visionare descrizioni o scene disgustose per espellerle dal bagaglio dello strumento informatico. Il “miracolo” virtuale gronda sudore e sangue, uno sfruttamento bestiale, come sappiamo già dalle denunce di chi ha lavorato per analoghi fini con Facebook. Il virtuale cresce su una materialità disumana.
Manovalanza kenyota, foto generata da robot, su Time |
Inoltre bisogna considerare i cosiddetti opportunity costs, consistenti nell’investire miliardi in queste macchine super-energivore invece che in infrastrutture sociali e in sistemi pubblici di I.A. volti a favorire e accelerare sempre più l’urgente transizione ecologica, industriale ed energetica. I risvolti negativi della I.A. sono, oggi e non domani, ben presenti: violazione della privacy, ottundimento dello spirito critico specie nei giovanissimi, computer-dipendenza, creazione di falsità che appaiono plausibili, concorrenza sleale, distorsioni del mercato del lavoro, sfruttamento che non dice il suo nome (vedi Kenya), automazione eccessiva e nociva, sorveglianza poliziesca e controllo antidemocratico. Sono le attuali direzioni di ricerca nel campo della I.A. il pericolo maggiore, e lo sfrenato sfruttamento in senso commerciale e militare. Ho trovato a questo proposito molto utile il documento del prof. Daron Acemoglu.[24]
Ma c’è dell’altro. Infatti, tornando alla lettera che richiede la moratoria summenzionata, con stupore e alla fine qualcosa che assomiglia al raccapriccio, mi si è rivelato un mondo, una pseudo-filosofia di tipo paranoico dei suoi firmatari principali, questa sì pericolosissima dato che tra i protagonisti ci sono potenti tecno-miliardari, come li chiama Andrea Signorelli (su Wired), che maneggiano capitali come spiccioli per il caffè. Questi individui sono tycoons tipo Elon Musk o a capo di società di I.A., inseriti in Università prestigiose, in organizzazioni delle Nazioni Unite, sono stati consiglieri di responsabili politici, e aderiscono ad una corrente di pensiero che è stata definita longtermism, lungotermismo in italiano, sviluppatasi nella Silicon Valley. E probabilmente anche Geoffrey Hinton, canadese, che dopo 10 anni ha appena lasciato Google, è un lungotermista. A sua volta il lungotermismo scaturisce da un movimento sociale targato U.S.A., l’effective altruism (altruismo efficace).
Di primo acchito il concetto sembra condivisibile e ovvio, il principio che tutti gli umani hanno eguale valore e che occorre preoccuparsi di salvaguardarne l’integrità e il benessere, ovunque essi siano. Il promotore di tale movimento è stato il filosofo scozzese Will MacAskill[25], che con varie iniziative ha raccolto negli anni molti fondi per scopi filantropici, (filantropia, si torna indietro di 200 anni), egli stesso filantropo. Poi leggiamo che per massimizzare i benefici delle nostre azioni, secondo i dettami dell’altruismo efficace, bisogna cercare di arricchirsi il più possibile, raggiungere posizioni di potere e guadagnare a palate, per poter fare più beneficenza. Magari arricchirsi come l’imprenditore di criptovalute Sam Bankman-Fried, un sostenitore del movimento, fondatore di FTX, incappato in grossi problemi giudiziari. Arricchirsi ad ogni costo per poter fare beneficenza, ben strano principio. Leggiamo anche che Will MacAskill pensa che per servire meglio l’umanità è bene guardare molto oltre il presente, non nel futuro che incombe ora e nei decenni successivi, ma nei millenni a venire. Sul sito Vox[26]si legge che l’altruismo efficace poggia su tre premesse: 1, coloro che nasceranno nel futuro saranno tanti; 2, la loro sorte è importante per noi; 3, è in nostro potere rendere le loro vite felici o infelici. L’aumento esponenziale dei gas serra, gli stravolgimenti climatici attuali e futuri anche peggiori non turbano gli altruisti. Né l’estinzione di migliaia di specie viventi in corso. Chi conta (loro, oggi) non ne sarà presumibilmente toccato. E dato che in questo futuro ipotizzato e lontano, lontanissimo, la specie umana si sarà moltiplicata presumibilmente su vari pianeti di ricambio, (il bravo Will ipotizza 80 bilioni di esseri umani, tombola), è giusto preoccuparci ora di salvarli: si legga l’intervista su The Guardian del 2 agosto 2022[27]. E’ meglio rendere felici bilioni di persone invece che qualche miliardino. Così la pensano i lungotermisti: l’altruismo efficace trasformato in lungotermismo è il credo cui aderiscono molti santoni della Silicon Valley e i vari “scienziati” che firmano la lettera in cui chiedono che la ricerca in I.A. faccia una pausa perché il pericolo che possa sfociare nella creazione di una super-intelligenza (ASI, artificial super intelligence) è reale e la nostra (!) democrazia può essere messa in pericolo. Anche quella che sta dietro a Guantanamo.
Alluvioni in Sud Kivu, RDC, maggio 2023, centinaia di morti |
Un altro filosofo di riferimento lungotermista è Nick Bostrom, fondatore nel 2005 del Future of Humanity Institute, parte del dipartimento di Filosofia all’Università di Oxford, che condivide i suoi locali con il “Centro per l’altruismo efficace” con il quale collabora e di cui condivide i principi: fare sì che l’umanità a venire possa beneficiare il più possibile delle scelte che si compiono qui e ora. Ottica lungotermista condivisa da un altro filosofo di Oxford, Toby Ord, che è stato consigliere dell’OMS, della Banca Mondiale e del World Economic Forum. Per gli ultra-presbiti i disastri già provocati dal cambiamento climatico in corso, le epidemie di colera, siccità e inondazioni a ripetizione, l’alta mortalità materno-infantile e simili in paesi poveri, la corsa agli armamenti non sono problemi seri, è una frazione tutto sommato piccola dell’umanità che è coinvolta. Per la crisi climatica, l’opzione migliore è cercare un altro pianeta per emigrare come propugna l’altro noto lungotermista, Elon Musk, “per realizzare la nostra vocazione di stirpe multiplanetaria”. Certo che occorreranno parecchi pianeti per tutti quei bilioni di umani. Anche Jaan Tallin, fondatore di Skype e co-fondatore del Future of Life Institute, legato al Future of Humanity Institute, pensa che la crisi climatica non rappresenti un rischio esistenziale per una specie destinata agli spazi interplanetari (Andrea Signorelli su Wired[28]). Per Nick Bostrom tragedie come Chernobil o l’epidemia di AIDS sono “semplici increspature sul grande mare della vita” (citato da A. Signorelli, ibid.). Insomma, il collasso climatico possibile e probabile non è un problema grave per la sopravvivenza dell’umanità, lo spettro di una super-intelligenza tiranna invece lo è. E Nick Beckstead, membro del Future of Humanity Institute, arriva a sostenere che “salvare vite umane nelle nazioni povere potrebbe essere meno utile che salvare vite nelle nazioni ricche”.[29]
Situazione attuale gas serra |
Si arriva a
conclusioni che non sarebbero dispiaciute affatto a un tal Signor Goebbels. Spaventa
pensare che questi "filosofi", amministratori delegati, influencer, questa rete di istituti,
fondazioni, società informatiche e i loro iniziatori e aderenti possano
allargare la loro influenza e acquistare sempre più potere e magari
autorevolezza. Colossi commerciali come Amazon Google Microsoft sono dei vivai pericolosi
di simili esemplari umani, e spiace che siano presenti anche in Istituti
Universitari a Oxford. O all'ONU.
Credo che occorra informare, informarsi, mobilitarsi per far sì che l’I.A. sia sin da ora al servizio dell’umanità, della ricerca utile ad allontanare e sventare i reali pericoli presenti e prevedibili che incombono su questo pianeta ora e non in un futuro immaginario e fantasmatico. E che occorra smascherare questi profeti paranoici.
[1] https://time.com/6238781/chatbot-chatgpt-ai-interview/” Nel 1950 il matematico inglese Alan Turing ideò un test che chiamò “il gioco dell’imitazione”: sarebbe mai stato possibile che un programma di calcolo potesse indurre in inganno un interlocutore umano in modo da fargli credere di parlare a un suo simile e non a una macchina?”
[2] Più precisamente, un prodotto dei Large Language Models, reti neurali artificiali con miliardi di parametri, vedi Wikipedia per approfondire.
[3] Si noti che qui per apprendimento si intende l’assorbire acriticamente tutto lo scibile propinato da montagne di dati presenti sul web, il che farebbe rabbrividire non solo pedagogisti come i compianti Freinet e Freire ma anche chi sia dotato di un minimo di cognizioni in materia o anche solo di buon senso. E il nostro cervello non funziona solo con neuroni.
[4] La definizione è di Timnit Gebru, ricercatrice informatica ex dipendente di Google.
[5] Microsoft ha comprato Open AI e si è aggiudicato ChatGPT, Google ha sviluppato Bard, Amazon ha il suo Bedrock, Apple ci sta pensando, come META, ecc (?)
[6] Si presume che ogni ricerca debba partire da un problema da risolvere
[8] Institut de recherche en informatique et en automatique
[9] Società che sviluppa software di traduzione
[11] Andragogia è la scienza sociale che si occupa dell’educazione degli adulti, il cosiddetto life-long learning, l’educazione continua, così poco attuato in Italia
[12] https://guyon.chalearn.org/projects/humania
[13] https://osservatorioglobalizzazione.it/dossier/il-finanzcapitalismo-secondo-gallino/il-finanzcapitalismo-secondo-luciano-gallino/
[14] file:///C:/Users/Utente/Downloads/responsible_military_use_of_artificial_intelligence(1).pdf
[15] https://www.mediapart.fr/journal/france/090423/des-hopitaux-misent-sur-des-robots-chirurgicaux-14-million-d-euros-pour-liberer-des-lits
[16] In inglese, global burden of disease
[17] Circa 2 miliardi di persone non hanno accesso ad acqua potabile e 3,6 miliardi sono senza latrine e canalizzazione di acque usate (UN World Development Report, marzo 2023)
[18] La malaria causa ancora circa 600 milioni di morti annue.
[19] https://www.wired.it/article/intelligenza-artificiale-lettera-elon-musk-errori/#uno. Per leggere il testo in inglese. Si veda: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Al 13 maggio 2023 vedo 27565 firme.
[20] Se veramente si vuole un ripensamento profondo, a che servono solo sei mesi?
[21] Si legga a questo proposito sul “test della scatola”, ideato da uno di questi geni firmatari della lettera, Eliezer Yudkowsky, https://towardsdatascience.com/the-ai-box-experiment-18b139899936
[22] https://ilmanifesto.it/chatgpt-il-lato-oscuro-dellalgoritmo-e-la-forza-lavoro-che-addestra-la-macchina-digitale
[23] https://time.com/6247678/openai-chatgpt-kenya-workers/
[24] https://www.nber.org/papers/w29247
[25] https://it.wikipedia.org/wiki/William_MacAskill
[26] https://www.vox.com/future-perfect/23658383/longtermism-long-view-william-macaskill-effective-altruism-climate-change-future-generations
[27] https://www.theguardian.com/world/2022/aug/21/william-macaskill-what-we-owe-the-future-philosopher-interview
[28] https://www.iltascabile.com/scienze/lungotermismo/
[29] https://forum.effectivealtruism.org/posts/t3Spus6mhWPchgjdM/valuing-lives-instrumentally-leads-to-uncomfortable