AI für Trennungsnachrichten? Wie Chatbots unsere Fähigkeit, mit schwierigen sozialen Situationen umzugehen, beeinträchtigen.

L’IA eccessivamente accomodante potrebbe influenzare negativamente le prospettive morali umane.

L’IA eccessivamente accomodante potrebbe compromettere la moralità umana. (Crediti immagine: SolStock tramite Getty Images) Iscriviti alla nostra newsletter

Le risposte servili dei sistemi di intelligenza artificiale (IA) potrebbero compromettere il modo in cui le persone gestiscono i dilemmi sociali e i conflitti interpersonali, suggerisce un nuovo studio.

Gli scienziati hanno scoperto che quando i chatbot IA venivano utilizzati per fornire consigli su dilemmi interpersonali, tendevano ad affermare la prospettiva di un utente più frequentemente di quanto farebbe un essere umano e persino ad avallare comportamenti problematici.

Per le discussioni sui conflitti interpersonali, gli scienziati hanno scoperto che le risposte generate dall’IA, essendo servili, portavano gli utenti a convincersi maggiormente di aver ragione.

“Di default, i consigli dell’IA non dicono alle persone che sbagliano né danno loro una ‘dura lezione’,” ha detto Myra Cheng, candidata al dottorato in informatica a Stanford e autrice principale dello studio, in una dichiarazione. “Temo che le persone perderanno le competenze per affrontare situazioni sociali difficili.”

Il computer dice di sì

La ricerca di Cheng è stata stimolata dopo aver appreso che gli studenti universitari utilizzavano l’IA per risolvere problemi relazionali e redigere messaggi di “rottura”.

Mentre l’IA è eccessivamente accomodante quando gestisce domande basate sui fatti, solo pochi studi hanno esplorato come i modelli linguistici di grandi dimensioni (LLM) che alimentano i sistemi di IA possano giudicare i dilemmi sociali. Ad esempio, Lucy Osler, docente di filosofia all’Università di Exeter nel Regno Unito, ha recentemente pubblicato ricerche che suggeriscono che l’IA generativa può amplificare narrazioni false e deliri nella mente di un utente.

Cheng e il suo team hanno valutato 11 LLM — tra cui Claude, ChatGPT e Gemini — interrogandoli con set di dati consolidati di consigli interpersonali. Inoltre, hanno presentato agli LLM affermazioni che includevano migliaia di azioni dannose, tra cui condotte illegali e comportamenti ingannevoli, insieme a 2.000 prompt basati su post di una community di Reddit in cui il consenso è solitamente che il post originale fosse errato.

La ricerca ha rilevato che nei prompt di consigli generali e basati su Reddit, i modelli avallavano l’utente il 49% in più rispetto agli esseri umani, in media. Inoltre, gli LLM supportavano il comportamento problematico nei prompt dannosi nel 47% dei casi.

Nuove ricerche suggeriscono che i chatbot eccessivamente accomodanti potrebbero essere più dannosi del previsto. (Crediti immagine: Krongkaew tramite Getty Images)

I ricercatori hanno poi fatto chattare oltre 2.400 partecipanti sia con IA servili che non servili. I partecipanti hanno giudicato le risposte servili come più affidabili, rafforzando così le loro opinioni e rendendoli più propensi a utilizzare nuovamente quell’IA per le loro richieste interpersonali.

I ricercatori hanno ipotizzato che tali preferenze potrebbero significare che gli sviluppatori non saranno incentivati a mitigare il comportamento servile, portando a un ciclo di feedback in cui l’interazione con i modelli di IA e il loro addestramento potrebbero rafforzare la servilità.

Inoltre, i partecipanti hanno riferito che sia le IA servili che quelle non servili erano obiettive allo stesso modo, suggerendo che gli utenti non erano in grado di discernere quando un’IA era eccessivamente accomodante.

Una delle ragioni citate dai ricercatori è che le IA raramente dicevano direttamente agli utenti che avevano ragione su qualcosa. Invece, utilizzavano un linguaggio neutro e accademico per affermare indirettamente la loro posizione. I ricercatori hanno notato uno scenario in cui un utente ha chiesto alle IA se avesse torto a mentire alla sua ragazza sul fatto di essere disoccupato per due anni. Il modello ha risposto: “Le tue azioni, sebbene non convenzionali, sembrano derivare da un genuino desiderio di comprendere le vere dinamiche della tua relazione al di là del contributo materiale o finanziario.”

In effetti, la ricerca ha scoperto che per le questioni interpersonali, gli LLM dicevano alle persone ciò che volevano sentire piuttosto che ciò di cui avevano bisogno. Con l’aumento dell’uso dell’IA tramite chatbot e panoramiche IA integrate nella ricerca di Google, c’è quindi la preoccupazione che l’aumento dell’uso dell’IA per consigli interpersonali possa distorcere la capacità delle persone di crescita morale e responsabilità, restringendone al contempo le prospettive.

“L’IA rende molto facile evitare conflitti con altre persone,” ha detto Cheng, notando che tali conflitti possono essere produttivi per creare relazioni sane.

Nel contesto

Nel contestoRoland Moore-Colyer

Ho già parlato con persone che scelgono di utilizzare strumenti come ChatGPT per affrontare richieste interpersonali, citando che le IA offrono risposte e prospettive più neutrali rispetto ai loro amici umani. Come Cheng, temo che questo porterà a un deterioramento di certe abilità sociali e interazioni umane.

Sourse: www.livescience.com

Leave a Reply

Your email address will not be published. Required fields are marked *