Le risposte automatiche
sono troppo intelligenti: “Vietato usare ChatGpt”
15 Gennaio 2023 05:00
Per spiegare chiaramente anche alle persone meno avvezze alla tecnologia la rilevanza e le implicazioni dell’arrivo di ChatGpt occorrono un paio di nozioni di base.
Prima: un chat bot è un software installato su un computer al fine di simulare una conversazione con un essere umana. Sono i chat bot, ad esempio, a rispondere automaticamente alle domande che rivolgiamo ai servizi clienti di molte aziende.
Seconda: per machine learning (in italiano: apprendimento automatico) si intende la capacità di una macchina di migliorare le proprie capacità e prestazioni nel tempo, imparando a svolgere determinati compiti in maniera sempre migliore grazie all’esperienza raccolta dalle normali attività a cui è chiamata.
In entrambi i casi, si può parlare di innovazioni rivoluzionarie quando sono state introdotte sul mercato, ma siccome la tecnologia corre molto veloce, oggi sono ormai considerate componenti standard per un computer o un’azienda.
Ma sul finire del 2022 l’organizzazione OpenAI ha rilasciato ChatGpt, la piattaforma basata su intelligenza artificiale che permette a chiunque di porre domande ottenendo risposte anche molto complesse. Ma gli si può chiedere anche di comporre poesie, canzoni, articoli e testi, scegliendo anche l’età del presunto autore.
L’inizio di una nuova era, per molti. Un enorme problema etico e di sicurezza, per tanti altri.
Un esempio concreto: il New York Times ha chiesto a ChatGpt di scrivere alcuni temi come farebbe un bambino di quarta elementare. Ha poi chiesto a un gruppo molto qualificato di insegnanti di valutare questi elaborati, presentandoli in maniera anonima assieme ad altri scritti dai veri studenti.
Non sempre gli esperti sono riusciti ad individuare il testo generato dall’intelligenza artificiale, che in generale è sempre stato giudicato all’altezza tanto per la grammatica, quanto per i contenuti.
Ecco perché il dipartimento dell’Istruzione di New York ha addirittura ristretto l’accesso a ChatGpt in tutte le reti scolastiche.
Hanno fatto lo stesso le otto università più importanti dell’Australia, le quali hanno stabilito che gli esami potranno essere sostenuti solo scrivendo con carta e penna, senza il supporto della tecnologia.
Timori eccessivi?
Assolutamente no. NegliStati Uniti, un professore della Furman University della Carolina del Sud ha ha scoperto che una sua studentessa aveva usato il bot per scrivere una tesina sul filosofo scozzese David Hume. È stata scoperta perché il saggio, seppur scritto in maniera grammaticalmente corretta e in bello stile, non conteneva le informazioni richieste dal docente, ma molto più generiche.
Caso diverso quello accaduto all’University of Central London, dove un professore è andato oltre, sottoponendo a ChatGpt una domanda d’esame. La risposta? “Coerente, completa, e dritta al punto, cosa che spesso agli studenti non riesce”, ha dichiarato l’insegnante.
Come scoprire con certezza, dunque, se un elaborato è frutto di questo “cervellone”?
OpenAI ha sviluppato un sotfware in grado di individuare con precisione quali testi sono stati scritti dal suo stesso bot, in modo da aiutare a distinguerli da quelli prodotti dagli esseri umani. Per la stessa ragione, potrebbe aggiungere un simbolo di riconoscimento al testo prodotto dalla AI.
© Copyright 2024 Editoriale Libertà
NOTIZIE CORRELATE