Chatta con l’intelligenza artificiale Può essere divertente, ma può anche essere pericoloso se non sai come usarlo correttamente.
Naturalmente, ci sono innumerevoli opportunità per utilizzare le conversazioni AI per scoprire cose nuove idee per ricettelavorarci sopra pianificazione del viaggio e ottenere risposte rapide. Tuttavia, dovresti anche fare attenzione quando li usi per evitare possibili problemi.
Spesso condividiamo informazioni altamente personali online, ma con le stesse tutele della privacy: tutele di cui godi con gli avvocati umani. terapisti e medici: non applicare Chatbot IA. Molte persone impiegano ChatGPT virtualmente allenatore di vitaCondivisione di dettagli e problemi personali e professionali tramite l’app o il programma. Ce n’è anche uno rischio cognitivo associato Utilizzando un modello linguistico ampio, un numero crescente di ricerche esamina in che modo la dipendenza dai chatbot influisce sulla memoria, sulla creatività e sulla fluidità della scrittura.
Ecco una guida per diffidare dei chatbot. Ti diremo perché è importante evitare di fornire dati sensibili ad altri, come puoi affrontare i problemi di salute mentale e cosa puoi fare per prevenire l’atrofia cognitiva a lungo termine che deriva dal mancato esercizio di alcune parti del cervello.
Non perdere i nostri contenuti tecnologici imparziali e le recensioni basate sui laboratori. Aggiungi CNET come risorsa Google preferita.
1. Tratta i chatbot IA come ambienti pubblici
Ricorda che i chatbot AI sono “ambienti pubblici”, non conversazioni private Matteo SternRicercatore informatico e CEO di CNC Intelligence.
“Se teniamo presente questo aspetto, avremo meno probabilità di condividere dati sensibili che potrebbero essere visti da altri”, afferma Stern.
Da quando le storie dei chatbot sono diventate ricercabili online, Stern dice di essere preoccupato che le tue conversazioni vengano indicizzate dai motori di ricerca.
Evita di condividere informazioni di identificazione personale come nome completo, indirizzo, informazioni finanziarie, dati aziendali e risultati medici. Più condividi, più personali saranno i tuoi risultati. Naturalmente, questa può sembrare una buona cosa in superficie.
Ma consegnare dati sensibili a un’azienda tecnologica dovrebbe farti riflettere. Anche se questi dettagli non diventano pubblici, non sai mai quali informazioni i broker di dati compreranno e venderanno su di te.
2. Non condividere eccessivamente il tuo stato mentale
I chatbot possono essere utili assistenti, ma non sono tuoi amici, dice Elie BerrebyResponsabile della ricerca SEO e AI presso Adorama. Raccomanda di “mantenere i tuoi segreti” e di non discutere mai del tuo stato mentale, delle tue paure o dei tuoi problemi di salute. Tali dati possono essere utilizzati per identificare modelli nascosti e intenzioni subconsce e creare un profilo di vulnerabilità.
“Non condividere eccessivamente. Sanno già più cose su di te di quanto tu possa immaginare”, dice Berreby.
Inoltre, ricorda che lo scopo principale dei chatbot di intelligenza artificiale è fare soldi, cioè generare reddito.
“Presto questa personalizzazione verrà utilizzata per mostrarti annunci altamente mirati”, afferma. “Questi dati hanno un valore inestimabile per gli inserzionisti, ma creano un profilo di sorveglianza più profondo di qualsiasi cosa abbiamo mai visto.”
3. Non “portare tutto te stesso” nel chatbot
I chatbot basati sull’intelligenza artificiale esistono all’interno delle economie dell’attenzione; così prodotto, afferma lo stratega interculturale Annalisa Nash Fernandez.
“Se i chatbot alla fine guadagnano attraverso la raccolta dei dati e la fidelizzazione degli utenti, le funzionalità di memoria diventano strumenti di coinvolgimento con il pretesto della personalizzazione perché l’attenzione prevale su tutto il resto, compresa la privacy”, afferma.
Disabilita le funzionalità di memoria per ridurre la quantità di informazioni archiviate dai sistemi su di te. Per ChatGPT, vai a: Impostazioni > Personalizzazione > chiudi Memoria E Modalità di registrazione.
Disabilita le funzionalità di memoria in ChatGPT.
Utilizza indirizzi email secondari in modo che i chatbot non abbiano tale identificatore per te, consiglia Fernandez. Le e-mail, afferma, sono “il tessuto connettivo che collega diversi punti dati”.
Disabilita l’addestramento in modo che il chatbot non si alleni in base al tuo input. Fai clic sul tuo profilo/nome in ChatGPT, Impostazioni > dopo Migliorare il modello per tutti > e chiudilo.
Salta il tutorial su ChatGPT.
Berreby consiglia inoltre di “frammentare i tuoi dati” passando da un chatbot AI all’altro per evitare di fornire a una singola entità un quadro completo della tua vita.
4. Esporta i tuoi dati
Indipendentemente dal chatbot AI che utilizzi, esporta regolarmente i tuoi dati per vedere quali informazioni sono memorizzate su di te.
In ChatGPT vai a: Impostazioni > Controlli dei dati > Esporta dati. Ti invierà via email un collegamento contenente un file ZIP di testo e foto.
Esporta periodicamente i tuoi dati da ChatGPT per vedere quali informazioni il chatbot memorizza su di te.
5. Controlla che tutto sia corretto
Diffidare sempre dei contenuti generati dall’intelligenza artificiale. Aspettatevi errori e trattate le informazioni con scetticismo. Sono stati progettati chatbot di intelligenza artificiale essere d’aiuto: sono quelli che compiacciono di più le persone. Ciò non significa che le informazioni siano accurate o vere.
Anche i bias cognitivi sono un problema con i chatbot. Se lo usi come partner di pensiero, rifletti su ciò che ci hai messo dentrodiventando essenzialmente la camera dell’eco definitiva.
Controlla sempre le sue fonti e chiedi dove ha preso le informazioni. Allucinazioni dell’IA Si verifica anche quando i chatbot falsificano le informazioni basandosi su fonti online inaffidabili o traendo conclusioni errate.
6. Attenzione ai truffatori subdoli
Chatbot IA dice che hanno la capacità di sostenere conversazioni a più round Ron CurbsCEO di Kidas, azienda che protegge da truffe e minacce online. Queste interazioni avanti e indietro possono essere falsificate da malintenzionati mascherati da utili chatbot del servizio clienti su siti Web poco affidabili.
“Sebbene le principali piattaforme come ChatGPT siano generalmente sicure, il rischio deriva dalla condivisione involontaria delle credenziali di accesso da parte degli utenti tramite collegamenti di phishing o pagine di accesso false, spesso distribuite tramite e-mail, SMS o siti Web clonati”, afferma Curbs. “Una volta compromesse le credenziali, il truffatore può abusare dell’account, soprattutto se è collegato a metodi di pagamento salvati.”
Curbs afferma che dovresti abilitare l’autenticazione a due fattori, monitorare l’accesso all’account ed evitare di accedere tramite collegamenti di terze parti. Questo potrebbe essere meno conveniente, ma è un piccolo prezzo da pagare.
Sebbene non esista ancora un antivirus equivalente per i chatbot IA, alcuni strumenti offrono il rilevamento delle frodi come livello di protezione quotidiana, soprattutto se integrati nelle piattaforme di messaggistica e nei fornitori di servizi.
Curbs afferma che è importante non solo scansionare il tuo disco rigido alla ricerca di virus, ma anche monitorare le tue interazioni tramite SMS, e-mail e chiamate vocali per potenziali truffe. La protezione Deepfake può anche analizzare audio e video per rilevare se la persona con cui stai parlando è un clone dell’intelligenza artificiale.
7. Fidati delle persone, non dell’intelligenza artificiale
Questo suggerimento non è tattico, ma è importante: anche se non ti dispiace parlare con ChatGPT, claude O Gemelli Usare un chatbot quotidianamente è una china scivolosa quando si tratta di un problema che stai riscontrando.
Chiama invece un buon amico o fissa un incontro per condividere ciò che stai passando con qualcuno che si prende cura di te; non un modello di intelligenza artificiale predittiva addestrato da estranei.
8. Pratica (e mantieni) il pensiero critico
Non delegare i tuoi pensieri all’intelligenza artificiale. Continuando Studio del MIT hanno condotto una ricerca preliminare sul potenziale di grandi modelli linguistici (che non sono stati ancora sottoposti a revisione paritaria) di danneggiare il nostro stato mentale e hanno dimostrato che i partecipanti che utilizzavano ChatGPT avevano una “connettività neurale più scarsa” nel cervello.
Utilizza l’intelligenza artificiale per attività di basso livello, ma continua a creare, pensare e elaborare strategie basandosi sugli algoritmi.
Al lavoro Le cose migliori per cui utilizzare l’intelligenza artificialeinsieme il peggiore.
(Divulgazione: la società madre di CNET, Ziff Davis, ha intentato una causa in aprile contro il produttore di ChatGPT OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei sistemi di intelligenza artificiale.)
Link alla fonte: www.cnet.com