ALGORETICA per uno sviluppo etico dell'intelligenza artificiale

anche i laicisti, non solo le religioni abramitiche che già si sono attivate, dovrebbero affrontare i problemi etici sollevati dalle tecnologie AI e non solo perché Elon Musk paragonò l'impatto della AI a quello della bomba atomica.

«L’intelligenza non è artificiale» scrive Limes, ma se non sarà governata democraticamente potrà compromettere la democrazia.

[Pagina senza pretese di esaustività o imparzialità, modificata 15/01/2024; col colore grigio distinguo i miei commenti rispetto al testo attinto da altri]

Pagine correlate: intelligenza, ICT, ChaptGPT, Scienza e tecnica, controllo, teoria dei giochi; moralità

 

2024.01.05 <open> sarà padre Paolo Benanti (algoretica) il nuovo presidente della Commissione sull’Intelligenza Artificiale per l’Informazione. Il professore della Pontificia Università Gregoriana, unico italiano membro del Comitato ONU sull’intelligenza artificiale, prenderà il posto di Giuliano Amato, dimessosi il 4 gennaio dopo le critiche di Giorgia Meloni.

 

↑2023.10.25 <manifesto> Serve Wittgenstein (1889-1951 filosofia del linguaggio) per capire ChatGpt? Abbiamo macchine che producono frasi in modo eccellente, ma avendo accantonato la domanda sul significato non sappiamo bene perché lo fanno. Ecco da dove viene l’ansia che ci percorre. Wittgenstein indicherebbe il punto critico dei nuovi automi: la soggettività. Al di là della responsabilità legale dell’esercizio di tali sistemi, chi si impegna quando l’automa parla? Nessuno. E in questo nulla, in questa eclissi del soggetto, sta crescendo oggi una gigantesca industria.

 

↑2023.06.06 <wired HwSw google> Giove, il software italiano di polizia predittiva, il cui sviluppo è cominciato nel 2020 sulla base del software KeyCrime. Il Garante della privacy sta valutando se dare o meno il suo via libera all'utilizzo del sistema che richiama alla mente Minority Report. Utilizzerà il sistema di riconoscimento facciale SARI? Ci sono da chiarire questioni di privacy e da analizzare aspetti di algoretica (ad es. errori dovuti ai pregiudizi algoritmici legati a provenienza e Weltanschauung delle persone)

 

↑2023.05.22 <ilsussidiario consapevoli colorati> ChatGPT &C: pericoli in arrivo dall'”amico robot”: l’Intelligenza artificiale non mette a rischio solamente posti di lavoro tradizionali, ma potenzialmente anche la democrazia. Occorre procedere a una regolamentazione. [CzzC: che tenga conto dell'algoretica? Basata su quale etica? Vorrei sperare almeno sull'etica espressa dalla dichiarazione universale dei diritti umani e almeno quella dei suoi Art.18 e 19, libertà di coscienza e di espressione, di cui purtroppo vediamo aumentare le violazioni anche nelle democrazie occidentali].

 

↑2023.05.02 <avvenire ansa> ICT: Geoffrey Hinton, il pioniere dell'intelligenza artificiale lascia Google: «AI pericolosa»; è considerato uno dei maggiori esperti di reti neurali, si dimette per potere esprimere le proprie preoccupazioni sull'evoluzione dei sistemi. «Non sappiamo se possiamo controllarli»

 

↑2023.04.13 <Vita Trentina> Intelligenza Artificiale, dove stiamo andando? Kent Walker: «L’intelligenza artificiale è troppo importante per non essere regolamentata» [CzzC: K.Walker si occupa anche di algoretica]. Osserv.Romano27Mar: «Non si può affidare agli algoritmi il giudizio sul valore e la dignità di una persona”.

 

2023.02.12 con rif. a NC che su Facebook inviterebbe «i teologi a pensarci un po' su perché, se veramente succedesse che un software si comportasse come una persona con l'anima spirituale, molta parte delle attuali concezioni teologiche sarebbero da rivedere profondamente», risponderei che i problemi sollevati dalle tecnologie AI sarebbero ben più laicamente etici che teologici e non solo perché Elon Musk paragonò l'impatto della AI a quello della bomba atomica. Per uno sviluppo etico della AI (algoretica) le religioni si sono già attivate: e i laicisti? «L’intelligenza non è artificiale» scrive Limes mentre elenca scenari inquietanti del tipo «la Cina sconfiggerà gli Usa con l'AI».

 

↑2022.11.30 <openai> ChatGPT di OpenAI (che ha Elon Musk tra i suoi fondatori) sa rispondere a domande di follow-up, ammettere i propri errori, contestare premesse errate e rifiutare richieste inappropriate. [CzzC: una tale prestazione delle applicazioni di intelligenza artificiale era già disponibile per i big dell’ICT, ma Elon Musk l’ha voluta rendere accessibile a tutti, per far capire, come disse nel 2014, che l’AI può divenire «più pericolosa della bomba atomica»]

 

2021.11.02 <retepacedisarmo sentire> Campagna “Stop Killer Robots”, clicca qui per aderire. Governi e aziende della difesa stanno rapidamente sviluppando sistemi di armi con una crescente autonomia utilizzando le nuove tecnologie e l’intelligenza artificiale. [CzzC: non siamo capaci di fermare la proliferazione nucleare, i droni stanno neutralizzando la potenza dei carri armati (vedi Nagorno Karabakh) e vengono impiegati da primarie potenze come USA e Israele per eliminare avversari a distanza: auguro alla rete promotrice della petizione di ottenere qualche risultato in più della semplice raccolta dati di potenziali simpatizzanti; auguro all'umanità che la superiorità militare stia ancora dalla parte di chi ha più a cuore il rispetto dei diritti umani, visto che il diritto della forza prevale sulla forza del diritto]

 

2014.08.04 <wallstreetitalia> Musk (Tesla) avverte: “Intelligenza artificiale più pericolosa della bomba atomica”