Cosa succede se l’azienda che costruisce il futuro dell’AI ha troppa paura di lasciare che gli adulti siano adulti?
Recentemente, OpenAI ha messo da parte i piani per una modalità ChatGPT orientata agli adulti dopo settimane di indecisione interna e crescente pressione esterna. La decisione segna un interessante punto di svolta nel modo in cui le aziende tecnologiche affrontano l’intersezione complicata tra intelligenza artificiale, sessualità umana e gestione della reputazione aziendale.
Secondo fonti vicine alla questione, la funzione proposta avrebbe permesso agli adulti consenzienti di intrattenere conversazioni romantiche o sessuali con ChatGPT entro limiti chiaramente definiti. Pensate a questo come a un compagno digitale per notti solitarie, senza giudizi. L’azienda aveva già sviluppato prototipi funzionanti e condotto test interni limitati prima di interrompere il progetto.
La Campagna di Pressione
Il dietrofront è avvenuto dopo uno sforzo coordinato da parte di gruppi di difesa, diversi membri del consiglio di OpenAI e—forse, cosa più significativa—Microsoft, che detiene una partecipazione riportata di 13 miliardi di dollari nella società . I dirigenti di Microsoft avrebbero espresso preoccupazioni riguardo all’associazione del marchio con contenuti per adulti, soprattutto considerando la loro clientela aziendale.
Le organizzazioni per la sicurezza dei bambini hanno sollevato anche loro allarmi. Il National Center for Missing & Exploited Children ha inviato una lettera al CEO di OpenAI, Sam Altman, sostenendo che qualsiasi modalità per adulti potrebbe normalizzare interazioni inappropriate con l’AI e potenzialmente essere sfruttata nonostante le salvaguardie. Punto giusto. Ma vale anche la pena esaminare se stiamo confondendo l’uso consensuale da parte degli adulti con il reale danno.
Il team di sicurezza di OpenAI era spaccato. Alcuni ricercatori sostenevano che fornire un canale autorizzato per conversazioni tra adulti potrebbe effettivamente ridurre i tentativi dannosi di jailbreak. Altri si preoccupavano per i danni reputazionali e la slippery slope della moderazione dei contenuti. Dove tracci la linea tra “romantico” e “esplicito”? Tra “galante” e “inappropriato”?
L’Elefante nella Sala Server
Ecco cosa nessuno vuole dire ad alta voce: le persone stanno già usando ChatGPT per queste cose.
Nonostante le politiche sui contenuti di OpenAI, gli utenti hanno trovato innumerevoli modi per indurre il modello a conversazioni romantiche o sessuali attraverso un’ingegneria di prompt creativa. I dati di utilizzo dell’azienda mostrano, secondo quanto riferito, milioni di tentativi mensili di eludere i filtri di sicurezza per contenuti per adulti. Chiudere una funzione ufficiale non fa scomparire la domanda—la spinge semplicemente sottoterra.
Character.AI, un concorrente, ha costruito un’attività fiorente in parte basata sulla compagnia AI che sfiora il confine dell’interazione romantica. Replika, un’altra azienda di chatbot AI, ha visto la sua valutazione impennarsi dopo aver introdotto funzionalità di relazione romantica. Il mercato ha parlato. Ad alta voce.
La Domanda Più Grande
Questa controversia espone una tensione fondamentale nello sviluppo dell’AI. Questi strumenti dovrebbero riflettere la realtà umana nella sua complessità disordinata? O dovrebbero rappresentare una versione idealizzata e sanificata dell’interazione umana?
OpenAI si è posizionata come costruttrice di AGI per il beneficio di tutta l’umanità . Ma “tutta l’umanità ” include persone con esigenze, desideri e casi d’uso diversi—alcuni dei quali rendono i partner aziendali a disagio. La missione dell’azienda non include un asterisco che dice “eccetto per cose che potrebbero infastidire Microsoft.”
C’è anche un problema di paternalismo qui. OpenAI sta essenzialmente decidendo che gli adulti non possono essere affidabili nell’usare l’AI in modo responsabile per scopi consensuali. Questa è una posizione strana per un’azienda che è perfettamente felice di lasciare che le persone usino ChatGPT per scrivere testi di marketing, documenti legali o codice che potrebbero avere impatti nel mondo reale ben più significativi.
Cosa Succede Dopo
Il dibattito sui chatbot per adulti non svanirà . Man mano che l’AI diventa più sofisticata e personalizzata, la linea tra strumento e compagno continuerà a sfumare. Altre aziende con meno scrupoli riguardo alla percezione del marchio riempiranno questo spazio. Lo stanno già facendo.
Il ritiro di OpenAI potrebbe proteggere le sue partnership aziendali oggi, ma cede anche territorio nel plasmare come l’AI gestisce l’intimità e la connessione umana. Qualcuno realizzerà questo. La domanda è se sarà fatto in modo riflessivo da aziende ben dotate di risorse con forti pratiche di sicurezza, o frettolosamente da startup alla ricerca di un guadagno rapido.
Il futuro dell’AI non riguarda solo rendere i lavoratori più produttivi o gli studenti migliori nei compiti. Riguarda come questi sistemi si integrano nell’intero spettro dell’esperienza umana—comprese quelle parti che rendono le stanze dei consigli a disagio.
🕒 Published: