VUOI I CONSIGLI DI STEPHEN KING? PUOI, GRAZIE ALL’AI. MA STEPHEN KING NON LO SA

Per una di quelle mirabili coincidenze della vita, mentre ragionavo su questo post ho letto l’ultimo numero della newsletter Bolena di Giulia Paganelli (iscrivetevi, merita) dove, nell’intervista di Giulia a Silvia Federici, si parla di corpi:

GP: Ma per farti l’ultima domanda: oggi siamo in un momento di “disincarnamento”, il corpo smette di essere carne e diventa digitale. Che cosa andiamo a perdere e come rende più irruenta la violenza sui corpi disincarnati?

SF: Quello che hai scritto mi ha fatto riflettere molto e ti ringrazio. Io non ci credo al corpo disincarnato. Credo che si tratti di un corpo impoverito, dissociato e separato, ridotto a carne. Questo processo di scorporazione legato ai nuovi modelli culturali ha come controparte una grossa violenza e un disperato bisogno di controllo sui corpi dei bambini e delle donne. C’è un rapporto dialettico: tanto più ti disincarni, tanto più hai bisogno di riattivare la corporeità attraverso la violenza per riacquistare vitalità, desiderio e senso di potere. 

Ora, calmi, non sto dicendo che esiste un legame fra, mettiamo, AI e violenza: il discorso è molto più ampio e complesso. E, calmi di nuovo, visto che mi accingo a scrivere nuovamente di AI, vorrei precisare che non sono una luddista, non sono una conservatrice, non voglio tornare al calamaio. E, se schivo come la peste le proposte di usare l’intelligenza artificiale su Meta e su Google, a volte interpello chatgpt  se ho bisogno di un certo tipo di informazioni, che però sottopongo a verifica subito dopo. Non chiedo mai di rivedere un mio testo o addirittura di scriverne uno, anche il più noioso, anche il più formale. Quello spetta a me, e se questo fa della sottoscritta un’esponente dei tempi andati, è verissimo anagraficamente, ma non sono convinta che eticamente lo sia.
Perché rivendico la possibilità di esprimere enormi dubbi su come, circoscrivendo la questione all’ambito della scrittura e, più in grande, della letteratura, l’AI venga usata da chi la concepisce. Da umani, dunque ed evidentemente: ma l’uso è sempre più insidioso, in questo campo (e non solo, ma non allarghiamo il discorso).

Facciamo un esempio. Su Wired del 4 marzo appare un articolo che comincia così:

“Sei stato il beniamino dell’insegnante? Vorresti  ancora ricevere appunti dal tuo professore universitario preferito? Vuoi una voce autorevole che corregga i tuoi testi? Bene, ottime notizie: un’azienda di software ha ideato un modo per simulare recensioni e critiche non solo da parte di autori di bestseller e accademici famosi del nostro tempo, ma anche da quelli che sono morti decenni fa—e evidentemente l’azienda non aveva bisogno del permesso di nessuno per farlo”.

E infatti, su Platform, un giornalista, Casey Newton, scopre di essere diventato “esperto” senza saperlo: e non è il solo, perché secondo The Verge un bel gruppetto di giornalisti tecnologici vengono utilizzati per dispensare consigli a loro insaputa:

“In effetti, nessuno mi ha chiesto il permesso di usare il mio nome in questo modo, e tanto meno di pagarmi per il lavoro da esperto che il mio clone AI stava apparentemente svolgendo per me (un abbonamento annuale a Grammarly costa 144 dollari).
Ho sempre pensato che prima o poi l’intelligenza artificiale avrebbe potuto rubarmi il lavoro. Ho sempre pensato che qualcuno me l’avrebbe detto quando sarebbe successo”.

Passo indietro. Grammarly è quello che si suole chiamare un assistente virtuale di scrittura. In abbonamento, come si è visto. Risponde a domande mentre scrivi, ha una funzione che suggerisce cambiamenti di stile, un “valutatore” che ipotizza il punteggio che il tuo testo otterrebbe in un corso universitario. Ha introdotto però una funzione, la “recensione dell’esperto”, che elenca  veri accademici e autori che possono giudicare quello che stai scrivendo. Quegli accademici e quegli autori non ne sanno nulla. Grammarly mette le mani avanti:

“I riferimenti a esperti in questo prodotto sono solo a scopo informativo e non indicano alcuna affiliazione con Grammarly o approvazione da parte di tali individui o entità.”

Dunque, se pago, posso avere il parere di Stephen King, se scrivo horror, o, se sono interessata alla scienza, potrebbe darmi consigli l’astrofisico Neil deGrasse Tyson. Volendo, posso anche essere valutata da uno dei più noti critici e docenti di scrittura come William Zinsser o da un meraviglioso astronomo come Carl Sagan, oppure, se sto scrivendo un saggio storico, da David Abulafia. Che però sono tutti morti.
Ma non c’è problema, che vuoi che sia? Uso i defunti per darti consigli, per gratificarti, e naturalmente (così si difendono) non sono che “suggerimenti ispirati a opere di esperti”. Possono farlo? La risposta è sempre quella: nel momento in cui lo fanno, lo rendono possibile.

Ps. Casey Newton, comunque, se l’è presa: “Grammarly mi ha profondamente infastidito, perché agisce con lo stesso senso di superiorità distruttiva del web che caratterizza il moderno settore dell’intelligenza artificiale”. Ha scritto al CEO ricevendo una risposta dell’azienda in cui promette che migliorerà la funzione. E commenta:
“Ciò che Grammarly sta facendo qui non è poi così diverso dalle aziende che costruiscono i modelli linguistici di base. Incolla una bozza del tuo testo in un chatbot, digita “modifica questo come farebbe Casey Newton” e il chatbot ti accetterà volentieri. Non mi chiederà nemmeno il permesso. Di certo non mi pagherà . E a differenza di Grammarly, non si prenderà nemmeno la briga di ricordarti (in piccolo) che non sono coinvolto in modo significativo”.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto