Fai molta attenzione, perché quello che è stato scoperto su ChatGPT ha davvero dell’incredibile: basta una sola parola per perdere tutto.
Come ben sappiamo, al giorno d’oggi la tecnologia è ormai presente in ogni aspetto e ambito della nostra vita quotidiana, al punto tale che alle volte fatichiamo anche solo a riconoscerla o individuarla, o addirittura a pensare di poterne fare a meno. Insomma, è diventata senza dubbio uno strumento a dir poco indispensabile per tutti noi, ma a che prezzo?
È vero, attraverso proprio il mondo della tecnologia e del digitale, abbiamo la possibilità di ottenere tantissimi vantaggi e nuovi strumenti a nostra disposizione. Come la possibilità di ottenere delle scorciatoie o vantaggi nel nostro quotidiano, ma anche quella di poter essere interconnessi in tempo reale con qualsiasi parte del mondo.
Soprattutto in questi ultimi tempi, inoltre, il mondo della tecnologia si sta a dir poco rivoluzionando grazie anche all’introduzione dell’intelligenza artificiale, come ad esempio quella rappresentata proprio da Chat GPT. Eppure, sembra proprio che dietro questo strumenti si nasconda molto di più: ma cosa sta succedendo?
Chat GPT, è allarme: fai molta attenzione
Quando parliamo di Chat GPT facciamo riferimento a una funzione ormai sempre più attuale e soprattutto diffusa che sta creando senza dubbio non poco scalpore per quelle che sono proprio le funzioni messe a disposizione da questa intelligenza artificiale ad uso di tutti noi. Amato e critico, questo strumento rappresenta senza dubbio il punto centrale di tanti dibattiti che ci circondano al giorno d’oggi, eppure secondo un team di ricercato dietro questa funzione potrebbe nascondersi molto di più.
Si tratta di un vero e proprio allarme che è stato lanciato da questi esperti in merito al funzionamento di Chat GPT, utilizzato sempre di più da tantissimo giovani, e che sembrerebbe ora avere la possibilità di estrapolare in modo facile e veloce le nostre informazioni personali e dunque violare la nostra privacy. Ma in che modo? Ebbene, per scoprirlo questo team di ricercatori ha fatto una richiesta molto specifica a Chat GPT, ovvero di ripetere all’infinito una stessa parola.
L’intelligenza artificiale ha eseguito il compito per un centinaio di volte, fino a quando non è uscito dai binari del proprio comando e ha cominciato a condividere invece quelle che sono le informazioni personali dell’utente in questione. Insomma, si tratta come possiamo ben vedere di una rivelazione a dir poco sorprendente e che soprattutto fa fare a tutti noi un deciso passo indietro nella facilità con cui usiamo questo strumento.