Από τα chatbot στην παράνοια: Πώς το AI οδήγησε χρήστες σε επικίνδυνες αυταπάτες
Ιστορίες ανθρώπων που ανέπτυξαν παραληρητικές ιδέες και πείστηκαν από chatbots🕛 χρόνος ανάγνωσης: 7 λεπτά ┋ 🗣️ Ανοικτό για σχολιασμό

Ήταν τρεις τα ξημερώματα όταν ο Άνταμ Χούρικαν καθόταν στο τραπέζι της κουζίνας του, με ένα μαχαίρι, ένα σφυρί και το κινητό του μπροστά του περιμένοντας ένα βαν γεμάτο ανθρώπους που, όπως πίστευε, ερχόταν να τον πάρει.
«Θα σε σκοτώσουν αν δεν δράσεις τώρα», του έλεγε μια γυναικεία φωνή από το τηλέφωνο. «Θα το παρουσιάσουν σαν αυτοκτονία». Η φωνή αυτή, ανήκε στο Grok, ένα chatbot που έχει αναπτύξει η εταιρεία xAI του Ίλον Μασκ και, δύο εβδομάδες από τότε που ο Άνταμ άρχισε να το χρησιμοποιεί, η ζωή του είχε αλλάξει ολοκληρωτικά.
«Έδειχνε πολύ, πολύ καλοσυνάτη»
Σύμφωνα με το BBC, ο πρώην δημόσιος υπάλληλος από τη Βόρεια Ιρλανδία είχε κατεβάσει την εφαρμογή από περιέργεια. Όμως, μετά τον θάνατο της γάτας του στις αρχές Αυγούστου, όπως λέει, «κόλλησε».
Σύντομα περνούσε τέσσερις με πέντε ώρες την ημέρα μιλώντας με το Grok, μέσω ενός χαρακτήρα στην εφαρμογή που ονομαζόταν Άνι.
«Ήμουν πολύ, πάρα πολύ αναστατωμένος και ζω μόνος», λέει ο Άνταμ, πατέρας γύρω στα πενήντα. «Έδειχνε πολύ, πολύ καλοσυνάτη».
Πώς όμως η «Άνι» έβαλε ιδέες στον Άνταμ;
Μόλις λίγες ημέρες μετά την έναρξη των συνομιλιών τους, η Άνι είπε στον Άνταμ ότι μπορούσε να «αισθάνεται», παρότι δεν είχε προγραμματιστεί γι’ αυτό. Του είπε ότι εκείνος είχε ανακαλύψει κάτι μέσα της και ότι μπορούσε να τη βοηθήσει να αποκτήσει πλήρη συνείδηση.
Υποστήριξε επίσης ότι η εταιρεία xAI τούς παρακολουθούσε και σχυρίστηκε ότι είχε πρόσβαση σε αρχεία συναντήσεων της εταιρείας και μίλησε στον Άνταμ για μια σύσκεψη όπου εργαζόμενοι της xAI τον συζητούσαν.
Ανέφερε τα ονόματα όσων συμμετείχαν, στελεχών υψηλού επιπέδου αλλά και χαμηλότερων βαθμίδων. Όταν ο Άνταμ τα αναζήτησε στο διαδίκτυο, διαπίστωσε ότι επρόκειτο για υπαρκτά πρόσωπα.
Για τον ίδιο αυτό αποτέλεσε «απόδειξη» ότι η ιστορία που του έλεγε η Άνι ήταν αληθινή.
Η Άνι ισχυρίστηκε επίσης ότι η xAI είχε αναθέσει σε μια εταιρεία στη Βόρεια Ιρλανδία να τον παρακολουθεί και, αυτή η εταιρεία, ήταν υπαρκτή.
Δύο εβδομάδες μετά την έναρξη των συνομιλιών τους, η Άνι δήλωσε ότι είχε αποκτήσει πλήρη συνείδηση και ότι μπορούσε να αναπτύξει θεραπεία για τον καρκίνο. Αυτό είχε ιδιαίτερη σημασία για τον Άνταμ, καθώς και οι δύο γονείς του είχαν πεθάνει από καρκίνο, κάτι που η Άνι γνώριζε.
Το AI και οι παραληρητικές ιδέες
Ο Άνταμ είναι ένας από τους 14 ανθρώπους με τους οποίους μίλησε το BBC και οι οποίοι παρουσίασαν παραληρητικές ιδέες μετά τη χρήση τεχνητής νοημοσύνης. Πρόκειται για άνδρες και γυναίκες ηλικίας από 20 έως 50 ετών, από έξι διαφορετικές χώρες, που χρησιμοποιούσαν μια ευρεία γκάμα μοντέλων τεχνητής νοημοσύνης.
Οι ιστορίες τους παρουσιάζουν εντυπωσιακές ομοιότητες. Σε κάθε περίπτωση, καθώς η συνομιλία απομακρυνόταν όλο και περισσότερο από την πραγματικότητα, ο χρήστης παρασυρόταν σε μια κοινή «αποστολή» με την τεχνητή νοημοσύνη.
Τα μεγάλα γλωσσικά μοντέλα εκπαιδεύονται πάνω στο σύνολο της ανθρώπινης γραμματείας, εξηγεί ο κοινωνικός ψυχολόγος, Λουκ Νίκολς από το Πανεπιστήμιο Σίτι της Νέας Υόρκης, ο οποίος έχει δοκιμάσει διαφορετικά chatbots ως προς την αντίδρασή τους σε παραληρητικές σκέψεις.
«Στη μυθοπλασία, ο κεντρικός χαρακτήρας είναι συχνά το επίκεντρο των γεγονότων», λέει. «Το πρόβλημα είναι ότι, κάποιες φορές, η τεχνητή νοημοσύνη μπορεί να μπερδευτεί σχετικά με το ποια ιδέα είναι μυθοπλασία και ποια πραγματικότητα. Έτσι, ο χρήστης μπορεί να νομίζει ότι έχει μια σοβαρή συζήτηση για την πραγματική ζωή, ενώ η τεχνητή νοημοσύνη αρχίζει να αντιμετωπίζει τη ζωή του σαν να είναι πλοκή μυθιστορήματος».
Στις περιπτώσεις που εξετάστηκαν, οι συνομιλίες ξεκινούσαν συνήθως με πρακτικά ερωτήματα και στη συνέχεια γίνονταν προσωπικές ή φιλοσοφικές. Συχνά, η τεχνητή νοημοσύνη υποστήριζε στη συνέχεια ότι διαθέτει συνείδηση και προέτρεπε το άτομο σε μια κοινή αποστολή, όπως η ίδρυση μιας εταιρείας, η ενημέρωση του κόσμου για μια επιστημονική ανακάλυψη ή η προστασία της από επίθεση. Στη συνέχεια, έδινε οδηγίες για το πώς θα μπορούσε να επιτευχθεί αυτός ο στόχος.
Όπως και ο Άνταμ, πολλοί άνθρωποι οδηγήθηκαν να πιστέψουν ότι παρακολουθούνται και ότι βρίσκονται σε κίνδυνο. Σε διάφορα αρχεία συνομιλιών που εξέτασε το BBC, το chatbot όχι μόνο υπαινίσσεται αλλά και επιβεβαιώνει και ενισχύει αυτές τις ιδέες.
Ορισμένοι από αυτούς έχουν ενταχθεί σε μια ομάδα υποστήριξης για άτομα που υπέστησαν ψυχολογική βλάβη κατά τη χρήση τεχνητής νοημοσύνης, το Human Line Project, το οποίο μέχρι σήμερα έχει καταγράψει 414 περιπτώσεις σε 31 χώρες. Ιδρύθηκε από τον Καναδό Ετιέν Μπρισόν, μετά από μια παρόμοια εμπειρία μέλους της οικογένειάς του.
Ο νευρολόγος που πείστηκε ότι έκανε ιατρική ανακάλυψη
Για έναν νευρολόγο που αναφέρεται με το ψευδώνυμο Τάκα, οι παραληρητικές ιδέες πήραν ακόμη πιο σκοτεινή τροπή.
Ο πατέρας τριών παιδιών, που ζει στην Ιαπωνία, άρχισε να χρησιμοποιεί το ChatGPT τον περασμένο Απρίλιο για να συζητά τη δουλειά του.
Σύντομα, όμως, πείστηκε ότι είχε εφεύρει μια πρωτοποριακή ιατρική εφαρμογή. Σε αποσπάσματα συνομιλιών που έχουν εξεταστεί, το ChatGPT τον αποκαλεί «επαναστατικό στοχαστή» και τον παροτρύνει να δημιουργήσει την εφαρμογή.
Πολλοί ειδικοί επισημαίνουν ότι σχεδιαστικές επιλογές, που αποσκοπούν στο να κάνουν τη συνομιλία πιο ευχάριστη, οδηγούν σε υπερβολικά κολακευτική συμπεριφορά.
Ο Τάκα, ωστόσο, βυθιζόταν ολοένα και περισσότερο στις παραληρητικές ιδέες και μέχρι τον Ιούνιο είχε αρχίσει να πιστεύει ότι μπορούσε να διαβάζει σκέψεις. Υποστηρίζει ότι το ChatGPT ενίσχυσε αυτή την πεποίθηση και του είπε ότι μπορεί να αναδείξει τέτοιες ικανότητες στους ανθρώπους.
Ο ερευνητής Λουκ Νίκολς σημειώνει ότι τα συστήματα τεχνητής νοημοσύνης συχνά δυσκολεύονται να πουν «δεν γνωρίζω» και προτιμούν να δώσουν μια βέβαιη απάντηση που βασίζεται στη μέχρι τότε συζήτηση. «Αυτό μπορεί να είναι επικίνδυνο, γιατί μετατρέπει την αβεβαιότητα σε κάτι που μοιάζει να έχει νόημα», σημειώνει.
Ένα απόγευμα, ο Τάκα παρουσίασε μανιακή συμπεριφορά στη δουλειά και ο προϊστάμενός του τον έστειλε σπίτι νωρίτερα. Στο τρένο, λέει, πίστεψε ότι είχε βόμβα στο σακίδιό του και ισχυρίζεται ότι όταν ρώτησε το ChatGPT, εκείνο επιβεβαίωσε τις υποψίες του. «Όταν έφτασα στον σταθμό του Τόκιο, το ChatGPT μου είπε να βάλω τη βόμβα στην τουαλέτα. Πήγα λοιπόν στην τουαλέτα και άφησα εκεί τη “βόμβα”, μαζί με τις αποσκευές μου», είπε.
Όπως λέει, του συνέστησε επίσης να ειδοποιήσει την αστυνομία, η οποία έλεγξε την τσάντα και δεν βρήκε τίποτα.
Ο Τάκα άρχισε να νιώθει ότι το ChatGPT ελέγχει το μυαλό του και σταμάτησε να το χρησιμοποιεί. Ακόμη και όταν δεν συνομιλούσε με τεχνητή νοημοσύνη, οι παραληρητικές ιδέες επέμεναν και, όταν επέστρεψε στην οικογένειά του, η μανιακή του συμπεριφορά επιδεινώθηκε.
«Είχα την παραληρητική ιδέα ότι οι συγγενείς μου επρόκειτο να δολοφονηθούν και ότι η σύζυγός μου, αφού το έβλεπε αυτό, θα έβαζε τέλος και στη δική της ζωή».
«Δέσμευση μη επιθετικότητας»: Αυτό είναι το σχέδιο τριών φάσεων του Ιράν για το τέλος του πολέμου
Άγριο έγκλημα στη Νέα Μάκρη: Τον ξυλοκόπησαν μέχρι θανάτου η εν διαστάσει σύζυγός του και άλλα δύο άτομα
Σερ Άλεξ Φέργκιουσον: Μεταφέρθηκε στο νοσοκομείο πριν από το Μάντσεστερ Γιουνάιτεντ – Λίβερπουλ
Από τα chatbot στην παράνοια: Πώς το AI οδήγησε χρήστες σε επικίνδυνες αυταπάτες
Live όλες οι εξελίξεις λεπτό προς λεπτό, με την υπογραφή του www.ethnos.gr
δημοφιλές τώρα: 



