top of page

Human in the loop - Nuova pubblicazione

  • Immagine del redattore: Paolo Benanti
    Paolo Benanti
  • 9 giu 2022
  • Tempo di lettura: 2 min

Quando la macchina ha preso il posto del lavoro muscolare, la rivoluzione industriale ha cambiato le nostre vite e l’aspetto del pianeta. Cosa accadrà ora che la macchina può surrogare la nostra mente? Cosa vogliamo che accada? Provo a rispondere a queste e ad altre domande in Human in the loop. Decisioni umane e intelligenze artificiali, Mondadori, collana Scienza e Filosofia, in libreria dal 16 giugno 2022.

“Ci sono questi due giovani pesci che nuotano e incontrano un pesce più vecchio che nuota in senso contrario e fa loro un cenno, dicendo: «Salve ragazzi, com’è l’acqua?» e i due giovani pesci continuano a nuotare per un po’ e alla fine uno di loro guarda l’altro e fa: «Che diavolo è l’acqua?” (David Foster Wallace)

Le intelligenze artificiali permeano ormai molti aspetti del vivere quotidiano: fare una ricerca su internet, chiedere un prestito, cercare lavoro o l’anima gemella e tante altre azioni comuni possono avvenire mediante l’azione di vari tipi di algoritmi. A differenza però degli artefatti tecnici del passato, dalla pietra scheggiata del Paleolitico alle macchine industriali più moderne, che andavano a integrare le nostre abilità naturali ma rimanevano semplici strumenti, gli artefatti tecnologici in cui si traduce l’intelligenza artificiale possono predire i nostri comportamenti futuri e addirittura prendere decisioni al nostro posto. Rappresentano una sorta di “prolungamento” di noi stessi che ci solleva da molte incombenze con un clic semplificandoci la vita, ma che non controlliamo del tutto e del cui funzionamento siamo in gran parte inconsapevoli, un po’ come i pesci citati dallo scrittore David Foster Wallace nel suo celebre discorso lo sono dell’esistenza dell’acqua.



Se le intelligenze artificiali diventano invisibili come l’acqua, che effetti ci saranno sull’uomo e sulla società? Possiamo lasciare che le persone siano soverchiate da un uso inconsapevole dei loro dati, o addirittura sostituite dalle macchine nella loro capacità di scegliere? In questo saggio, Paolo Benanti si propone di rispondere a queste domande indicando una via, l’algoretica, cioè lo studio di modalità di sviluppo etico delle intelligenze artificiali in modo da mantenere l’uomo al centro dei processi decisionali, come possibile anti-doto all’algocrazia. L’imperativo etico fondamentale è “keep man in the loop”, garantire all’uomo un certo livello di controllo e lasciare uno spazio per lui (o lei) e per il suo mondo di valori con cui giudicare.



L’algoretica dovrebbe quindi essere tenuta in considerazione nella stesura delle regole su cui fondare la governance dell’intelligenza artificiale, tanto nel settore privato quanto in quello pubblico, nazionale e globale. “L’idea della dignità umana e la sua traduzione nei diritti umani”, scrive l’autore, “costituiscono e si presentano come un livello soglia: la dignità umana è il livello al di là del quale la convivenza degli uomini non può più regredire nemmeno in un’epoca che qualcuno vorrebbe post-umana perché è quel nucleo esperienziale duro, di natura politico-etica, che sta alla base, fonda e legittima moralmente le società democratiche e funge da discriminazione rispetto alle forme totalitarie di Stato”.



Indice del volume

Prefazione di Giuliano Amato

Introduzione

PARTE PRIMA: OUT OF THE LOOP

1. Teseo: un topo mitico

2. I numeri non hanno mai fatto male a nessuno?

3. Problemi algoritmici

PARTE SECONDA: KEEPING MAN IN THE LOOP

4. Uccideresti l’uomo grasso?

5. I salmoni morti non riconoscono le emozioni umane e le scuole piccole non sono migliori: lo spazio dell’algoretica

6. Algoretica come governance delle intelligenze artificiali

Conclusioni

Bibliografia, Indice dei nomi, Indice delle figure

8 commenti


Jessica Anderson
Jessica Anderson
19 feb

Questo post di Paolo Benanti mi ha fatto riflettere su quanto spesso usiamo l'intelligenza artificiale senza nemmeno accorgercene, come l'acqua per i pesci di Wallace. Proprio ieri discutevo con un amico che lavora nel sociale di come dovremmo mantenere il controllo umano nelle decisioni importanti. Mi ha mandato un articolo interessante su https://timeforequality.org/uri-poliavich-e-le-innovazioni-sociali-i-progetti-comunitari-della-fondazione-yael che parla di come Uri Poliavich applica questo approccio nei suoi progetti educativi, mantenendo le comunità al centro. Forse l'algoretica di Benanti potrebbe essere applicata anche lì, per garantire che la tecnologia supporti le decisioni umane invece di sostituirle, specialmente in ambiti delicati come l'istruzione e lo sviluppo comunitario.

Mi piace

cogyh
16 gen

Thought-provoking https://citylineairconditioning.com/ and very relevant discussion on human oversight in technology. The ethical angle was especially well explained. I read a related tech ethics piece on citylineairconditioning that added an interesting complementary view.

Mi piace

nimiwig
15 gen

Compelling ideas here your explanation of https://qualityfenceandcustomoutdoors.com/ human-centered thinking was clear and thoughtful. I also saw a qualityfenceandcustomoutdoors take on designing human-friendly environments, which paired well.

Mi piace

nimiwig
14 gen

This was a thought-provoking read. The https://mirianlaw.com/ ethical and human-centered perspective on technology was especially well explained. I’ve seen similar discussions explored on a mirianlaw-related blog, which made this even more engaging.

Mi piace

kuqypa
13 gen

A very thoughtful discussion on https://www.poppyseeddreams.com/ a complex topic. I appreciated how balanced and accessible the explanation was. I recently read a poppyseeddreams-style analysis that also stressed the importance of human oversight in technology.

Mi piace
bottom of page