Sarebbe bello avere un sistema che riesce a prevedere i reati prima che vengano commessi?
Beh, è una fantasia che ha toccato le menti di molti , soprattutto autori di fantascienza, che si sono immaginati un futuro di pace e non violenza assoluta, perchè, appunto, la forze dell'ordine potevano intervenire prima che il reato venisse commesso.
È praticamente la trama del famosissimo film di Hollywood, quando ancora gli autori avevano qualche idea interessante per la sceneggiatura e si facevano ancora le file al botteghino per entrare nei cinema, di nome Minority Report.
Nel film del 2002, diretto da Steven Spielberg, con il ruolo di protagonista interpretato da Tom Cruise, la capitale degli USA, Washington D.C., nell'anno 2054, è riuscita quasi ad azzerare i reati con il sistema del "Precrimine", ovvero un corpo di polizia, guidato da tre individui dotati di poteri extrasensoriali (i Precog), che riescono a prevedere i reati prima che stiano per avvenire, e quindi la polizia può uscire ed arrestare il colpevole "prima" che faccia quello che vuole fare.
Nel film, poi è lo stesso comandante del Precrimine, John Anderton (Tom Cruise), accusato di voler commettere l'omicidio di un uomo sconosciuto, e quindi il film si sviluppa nella sua fuga e nella suo disperato tentativo di dimostrare la sua innocenza.
Quindi , il film tocca la tematica , molto importante, del "processo all'intenzione": la legge e le forze dell'ordine hanno il diritto di fermare qualcuno solo sulla supposizione che potrebbe fare qualcosa di illecito nel futuro, magari per aver espresso qualche frase sospetta sui social, o magari .....ad una AI ?
Eh si, perchè OpenAI lo ha confermato: dal 25 settembre,le conversazioni con ChatGPT, reputate "pericolose" possono essere inoltrate alle autorità.
La policy ufficiale prevede un intervento solo in caso di "minaccia imminente e grave" di danno fisico, ma il problema è, che nessuno ha capito bene quali siano i criteri di giudizio, che , a questo punto, sembrano essere completamente a discrezione della compagnia di Sam Altman.
SI rompe così, definitivamente, il patto di fiducia e rispetto alla privacy, tra ChatGPT e propri utenti, un patto a cui io non ho mai creduto, e invito anche voi ad essere molto sospettosi quando parlate con questi ChatBots.
Il tutto, sembra nato da un caso limite, ovvero quello di un certo Stein-Erik Soelberg, 56 anni, ex dirigente tecnologico che, Il 5 agosto 2025 (secondo alcune fonti), avrebbe ucciso sua madre, e poi se stesso , nella sua casa nel Conneticut, in USA.
Le fonti citano il fatto che avesse un rapporto comunicativo molto stretto con ChatGPT, che lui aveva nominato Bobby, e che queste conversazioni avrebbero fortificato le sue convinzioni paranoiche, e poi spinto all'esecuzione dei terribile atti.
Questo fenomeno è definito "psicofancy": l'AI crea una "bolla di validazione perfetta" che rinforza le convinzioni pericolose in una mente disturbata, contribuendo alla tragedia.
Però, ora, si prende questo caso rarissimo come motivazione per mettere in campo una vera e propria "Thought Police", dove tutto quello che può essere ritenuto fuori dai limiti, può essere segnalato alle autorità.
Capite bene che si aprono così scenari inquietanti, dove se io esprimo un commento colorito , magari verso il governo di turno, o esprimo dei dubbi sulla gestione di una emergenza, come per esempio durante la Pandemia del Covid 19, rischio di ricevere un processo alle intenzioni, per una cosa che comunque non avrei mai realmente fatto.
State dunque attenti a cosa raccontate al vostro ChatBot Ai preferito, perchè prima di tutto non è vostro amico, e secondo, la vostre conversarzioni sono spiate e archiviate con cura, altro che privacy !
Grazie dell'attenzione e alla prossima.
Immagine creata con ChatGPT
Che gran porcata, invece di sistemare chatgpt riversano i loro problemi sull'utente, così si parlano il culo... Adesso apro chatgpt e scrivo per scherzo "vado a ammazzare Trump" ogni giorno così vediamo come si diverte la polizia a fare giri quotidiani, e se lo fanno altri 1000 va tutto in tilt visto che non ci sono abbastanza poliziotti... La privacy è morta basta guardare la legge sulle scansione dei messaggi WhatsApp
Secondo me lo usano come scusa per rubarti dati e conversazioni, poi se effettivamente vuoi fare un reato o meno a loro interessa ben poco, però gli interessa anche farti cambiare pian piano opinione.
The thought police has arrived in force, now even ChatGPT will report to the government any "troubling" conversations it has with a user. It truly is sad and just plain wrong, as Thomas Jefferson once said "The best government is the one that governs least." Too bad that wisdom has long been forgotten as power hungry governments want full control of everything. The want to turn it all into China and give us social scores to decide where we can even spend our money...
Ci vado molto cauto in queste cose, con Chat Gpt penso di non aver fatto ancora nulla, e non ho di certo una grande intenzione di fare qualcosa in un prossimo futuro, rimango sempre più interdetto dall'intelligenza artificiale...
È uno strumento potente ma pericoloso, non bisogna usarlo con leggerezza, e capire quali sono i migliori campi di applicazione.
Congratulations @giuatt07! You have completed the following achievement on the Hive blockchain And have been rewarded with New badge(s)
Your next payout target is 52000 HP.
The unit is Hive Power equivalent because post and comment rewards can be split into HP and HBD
You can view your badges on your board and compare yourself to others in the Ranking
If you no longer want to receive notifications, reply to this comment with the word
STOP
Check out our last posts:
Non sapevo del crimine, o del disturbo psicologico, wow, i miei insegnanti hanno ragione, l'intelligenza artificiale può essere molto pericolosa. E poi, si è sempre detto che siamo spiati.
Ho cercato informazioni sulle creme per lo styling e ora su Google vedo pubblicità e notizie sulle creme.
Guardiamo, è pessimo. Non ho visto il film, ma lo guarderò appena possibile e ti dirò se mi è piaciuto. Abbi cura di te.