ALGORETICA per uno sviluppo etico dell'intelligenza artificiale

anche i laicisti, non solo le religioni abramitiche che già si sono attivate, dovrebbero affrontare i problemi etici sollevati dalle tecnologie AI e non solo perché Elon Musk paragonò l'impatto della AI a quello della bomba atomica.

Trovo utili in merito le riflessioni di Paolo Benanti.

«L’intelligenza non è artificiale» scrive Limes, ma se non sarà governata democraticamente potrà compromettere la democrazia.

[Pagina senza pretese di esaustività o imparzialità, modificata 2026.02.06; col colore grigio distinguo i miei commenti rispetto al testo attinto da altri]

Pagine correlate: intelligenza, ICT, ChaptGPT, Scienza e tecnica, controllo, teoria dei giochi; moralità

 

 

2026.02.06 non commento: è solo da leggere tutto e da riflettere questo <fb1 fb2> di Paolo Benanti sull' Etica di frontiera: Moltbook. [CzzC: Continua qui con revisione epistemologica del nostro concetto di intelligenza e del test di Turing, non si verifica quella corsa al ribasso che caratterizza i social media antropici, né l’inevitabile deriva verso l’insulto o l’estremismo nota come legge di Godwin; Moltbook mostra, più che il futuro dell’AI, il fallimento delle nostre attuali strutture di convivenza digitale].

 

2026.01.23 Paolo Benanti.fb: Grok 4 (integrato nella piattaforma X) vanta un addestramento su ben 200.000 GPU Grace Hopper che ha scalato le capacità di calcolo di cento volte. Impressiona la potenza computazionale, ma la vera posta in gioco etica risiede altrove: l'intelligenza artificiale di Grok si millantatruth-seeking” (ricerca della verità) eppure, le analisi condotte dal ricercatore Jeremy Howard svelano una realtà ben diversa: <corriere2025.07 > interrogato sul conflitto israeliano-palestinese, il modello ha fatto eco in modo schiacciante alle opinioni personali di Elon Musk, citandolo in 54 riferimenti su 64.

 

↑2024.04.26 <avvenire> Facebook censura post e articoli innocenti, persino un’intervista di Avvenire al patriarca di Gerusalemme Pizzaballa, intitolata: «Costruire la pace partendo dai popoli». Ciò accade perché sono diminuiti i moderatori umani ed è aumentato l’uso dell’intelligenza artificiale [CzzC: ben più per algoritmi pilotati che per errori imprevisti]. Human Rights Watch accusa: «Meta censura sistematicamente i contenuti riguardanti la Palestina». Per noi di Avvenire e per tanti altri è toccato a qualunque contenuto riguardi il Medio Oriente e/o la guerra in Ucraina. Per Jacopo Fo, figlio di Dario, qualunque suo post solo perché pacifista. Per altri la censura riguarda i contenuti cattolici. Per altri ancora contenuti laici che vanno controcorrente. Cosa possiamo fare per contrastare questo vento di censura? La cosa più saggia da fare è … continua qui

 

↑2024.01.05 <open> sarà padre Paolo Benanti (algoretica) il nuovo presidente della Commissione sull’Intelligenza Artificiale per l’Informazione. Il professore della Pontificia Università Gregoriana, unico italiano membro del Comitato ONU sull’intelligenza artificiale, prenderà il posto di Giuliano Amato, dimessosi il 4 gennaio dopo le critiche di Giorgia Meloni.

 

↑2023.10.25 <manifesto> Serve Wittgenstein (1889-1951 filosofia del linguaggio) per capire ChatGpt? Abbiamo macchine che producono frasi in modo eccellente, ma avendo accantonato la domanda sul significato non sappiamo bene perché lo fanno. Ecco da dove viene l’ansia che ci percorre. Wittgenstein indicherebbe il punto critico dei nuovi automi: la soggettività. Al di là della responsabilità legale dell’esercizio di tali sistemi, chi si impegna quando l’automa parla? Nessuno. E in questo nulla, in questa eclissi del soggetto, sta crescendo oggi una gigantesca industria.

 

↑2023.06.06 <wired HwSw google> Giove, il software italiano di polizia predittiva, il cui sviluppo è cominciato nel 2020 sulla base del software KeyCrime. Il Garante della privacy sta valutando se dare o meno il suo via libera all'utilizzo del sistema che richiama alla mente Minority Report. Utilizzerà il sistema di riconoscimento facciale SARI? Ci sono da chiarire questioni di privacy e da analizzare aspetti di algoretica (ad es. errori dovuti ai pregiudizi algoritmici legati a provenienza e Weltanschauung delle persone)

 

↑2023.05.22 <ilsussidiario consapevoli colorati> ChatGPT &C: pericoli in arrivo dall'”amico robot”: l’Intelligenza artificiale non mette a rischio solamente posti di lavoro tradizionali, ma potenzialmente anche la democrazia. Occorre procedere a una regolamentazione. [CzzC: che tenga conto dell'algoretica? Basata su quale etica? Vorrei sperare almeno sull'etica espressa dalla dichiarazione universale dei diritti umani e almeno quella dei suoi Art.18 e 19, libertà di coscienza e di espressione, di cui purtroppo vediamo aumentare le violazioni anche nelle democrazie occidentali].

 

↑2023.05.02 <avvenire ansa> ICT: Geoffrey Hinton, il pioniere dell'intelligenza artificiale lascia Google: «AI pericolosa»; è considerato uno dei maggiori esperti di reti neurali, si dimette per potere esprimere le proprie preoccupazioni sull'evoluzione dei sistemi. «Non sappiamo se possiamo controllarli»

 

↑2023.04.13 <Vita Trentina> Intelligenza Artificiale, dove stiamo andando? Kent Walker: «L’intelligenza artificiale è troppo importante per non essere regolamentata» [CzzC: K.Walker si occupa anche di algoretica]. Osserv.Romano27Mar: «Non si può affidare agli algoritmi il giudizio sul valore e la dignità di una persona”.

 

2023.02.12 con rif. a NC che su Facebook inviterebbe «i teologi a pensarci un po' su perché, se veramente succedesse che un software si comportasse come una persona con l'anima spirituale, molta parte delle attuali concezioni teologiche sarebbero da rivedere profondamente», risponderei che i problemi sollevati dalle tecnologie AI sarebbero ben più laicamente etici che teologici e non solo perché Elon Musk paragonò l'impatto della AI a quello della bomba atomica. Per uno sviluppo etico della AI (algoretica) le religioni si sono già attivate: e i laicisti? «L’intelligenza non è artificiale» scrive Limes mentre elenca scenari inquietanti del tipo «la Cina sconfiggerà gli Usa con l'AI».

 

↑2023.01.26 la normativa UE denominata MICAR (Markets in Crypto-Assets Regulation - Regolamento sui Mercati delle Cripto-Attività) ha tra gli obiettivi principali <paydig> il mantenimento dell'integrità del suddetto mercato, pure in vista dell’EURO DIGITALE, regolando l'insider trading e altri tentativi di manipolazione. <google> contempla anche il DSA (Digital Services Act), la legge europea del 2022 sui servizi digitali, che, volendo veder chiaro anche negli algoritmi, ha imposto trasparenza sulla profilazione e il funzionamento delle piattaforme online, con obbligo per i fornitori di collaborare con le autorità e sottoporsi ad audit indipendenti.

 

↑2022.11.30 <openai> ChatGPT di OpenAI (che ha Elon Musk tra i suoi fondatori) sa rispondere a domande di follow-up, ammettere i propri errori, contestare premesse errate e rifiutare richieste inappropriate. [CzzC: una tale prestazione delle applicazioni di intelligenza artificiale era già disponibile per i big dell’ICT, ma Elon Musk l’ha voluta rendere accessibile a tutti, per far capire, come disse nel 2014, che l’AI può divenire «più pericolosa della bomba atomica»]

 

2021.11.02 <retepacedisarmo sentire> Campagna “Stop Killer Robots”, clicca qui per aderire. Governi e aziende della difesa stanno rapidamente sviluppando sistemi di armi con una crescente autonomia utilizzando le nuove tecnologie e l’intelligenza artificiale. [CzzC: non siamo capaci di fermare la proliferazione nucleare, i droni stanno neutralizzando la potenza dei carri armati (vedi Nagorno Karabakh) e vengono impiegati da primarie potenze come USA e Israele per eliminare avversari a distanza: auguro alla rete promotrice della petizione di ottenere qualche risultato in più della semplice raccolta dati di potenziali simpatizzanti; auguro all'umanità che la superiorità militare stia ancora dalla parte di chi ha più a cuore il rispetto dei diritti umani, visto che il diritto della forza prevale sulla forza del diritto]

 

2014.08.04 <wallstreetitalia> Musk (Tesla) avverte: “Intelligenza artificiale più pericolosa della bomba atomica”