Μήπως μοιράζεστε πολλά με το Chat GPT: Πώς οι συνομιλίες σας με την AI μπορεί να χρησιμοποιηθούν εναντίον σας

Δημοσιεύτηκε στις 19/10/2025 22:44

Μήπως μοιράζεστε πολλά με το Chat GPT: Πώς οι συνομιλίες σας με την AI μπορεί να χρησιμοποιηθούν εναντίον σας

Τις πρώτες πρωινές ώρες της 28ης Αυγούστου, ένας ήσυχος χώρος στάθμευσης σε ένα πανεπιστημιακό campus στο Μιζούρι έγινε θέατρο βίαιων πράξεων βανδαλισμού.

Μέσα σε μόλις 45 λεπτά, 17 αυτοκίνητα υπέστησαν σοβαρές ζημιές: σπασμένα παράθυρα, σπασμένους καθρέφτες, αποσπασμένους υαλοκαθαριστήρες και βαθουλωμένα αμαξώματα.

Οι ζημιές υπολογίζονται σε δεκάδες χιλιάδες δολάρια, δημιουργώντας σοκ σε φοιτητές και καθηγητές.

Η έρευνα της αστυνομίας διήρκεσε ένα μήνα, με συγκέντρωση αποδεικτικών στοιχείων όπως αποτυπώματα παπουτσιών, καταθέσεις μαρτύρων και βίντεο από κάμερες ασφαλείας.

Παρά τα παραπάνω στοιχεία, ήταν μια ομολογία στο ChatGPT που οδήγησε τελικά στην απαγγελία κατηγοριών εναντίον του 19χρονου φοιτητή Ryan Schaefer.

Σε συνομιλίες με το chatbot λίγο μετά το περιστατικό, ο Schaefer περιέγραψε τα γεγονότα και ρώτησε: «Πόσο έχω γ*μηθεί, φίλε;… Τι θα γίνει αν έσπασα πολλά αυτοκίνητα;»

Φαίνεται να πρόκειται για την πρώτη περίπτωση στην οποία κάποιος συλλαμβάνεται μέσω της τεχνολογίας, με την αστυνομία να περιγράφει τον «ανησυχητικό διάλογο» σε λεπτομερή έκθεση για τις κατηγορίες, σύμφωνα με το The Independent.

Η τεχνητή νοημοσύνη ως μάρτυρας εγκλημάτων

Λιγότερο από μια εβδομάδα μετά, το ChatGPT εμφανίστηκε ξανά σε μια ένορκη κατάθεση, αυτή τη φορά για ένα πολύ πιο σοβαρό έγκλημα.

Ο 29χρονος Jonathan Rinderknecht συνελήφθη για την υποτιθέμενη πρόκληση της πυρκαγιάς Palisades στην Καλιφόρνια, η οποία κατέστρεψε χιλιάδες σπίτια και επιχειρήσεις και στοίχισε τη ζωή σε 12 ανθρώπους, αφού είχε ζητήσει από την εφαρμογή τεχνητής νοημοσύνης να δημιουργήσει εικόνες μιας πόλης που καίγεται.

Οι δύο αυτές υποθέσεις είναι μόνο η αρχή μιας σειράς περιστατικών όπου η τεχνητή νοημοσύνη ενδέχεται να εμπλέκεται στην καταγραφή και ενοχοποίηση ατόμων.

Ο διευθυντής της OpenAI, Sam Altman, ξεκαθάρισε ότι δεν υπάρχει νομική προστασία για τις συνομιλίες των χρηστών με το chatbot, υπογραμμίζοντας όχι μόνο ζητήματα ιδιωτικότητας, αλλά και την απροσεξία των ανθρώπων σχετικά με τις προσωπικές πληροφορίες που μοιράζονται.

«Οι άνθρωποι μιλούν για τα πιο προσωπικά θέματα της ζωής τους στο ChatGPT», δήλωσε ο Altman.

«Χρησιμοποιούν το εργαλείο ως θεραπευτή, ως life coach, όταν έχουν προβλήματα στις σχέσεις τους… Και αυτή τη στιγμή, αν μιλήσεις σε έναν θεραπευτή, δικηγόρο ή γιατρό για αυτά τα προβλήματα, υπάρχει νομικό προνόμιο».

Η διευρυμένη χρήση της τεχνητής νοημοσύνης

Η ευελιξία των μοντέλων τεχνητής νοημοσύνης όπως το ChatGPT σημαίνει ότι οι χρήστες μπορούν να τα χρησιμοποιούν για τα πάντα: από επεξεργασία προσωπικών οικογενειακών φωτογραφιών έως αποκρυπτογράφηση σύνθετων εγγράφων όπως τραπεζικές προσφορές ή συμβάσεις ενοικίασης.

Μια πρόσφατη μελέτη της OpenAI αποκάλυψε ότι οι χρήστες το χρησιμοποιούν όλο και περισσότερο για ιατρικές συμβουλές, αγορές και παιχνίδια ρόλων.

Άλλες εφαρμογές αυτοπροβάλλονται ως εικονικοί θεραπευτές ή ρομαντικοί σύντροφοι, συχνά χωρίς μέτρα ασφαλείας.

Στο σκοτεινό διαδίκτυο, παράνομες υπηρεσίες επιτρέπουν στους ανθρώπους να χρησιμοποιούν την τεχνητή νοημοσύνη όχι μόνο ως εμπιστευτικό σύμβουλο, αλλά και ως συνεργό σε εγκληματικές ενέργειες.

Η σκοτεινή πλευρά των δεδομένων

Ο όγκος των δεδομένων που μοιράζονται είναι εκπληκτικός, τόσο για σκοπούς επιβολής του νόμου όσο και για εγκληματίες που μπορεί να επιδιώκουν να τα εκμεταλλευτούν.

Νωρίτερα φέτος, όταν η Perplexity λάνσαρε έναν web browser με τεχνητή νοημοσύνη, ερευνητές ασφαλείας διαπίστωσαν ότι χάκερ θα μπορούσαν να αποκτήσουν πρόσβαση στα δεδομένα των χρηστών και να τα χρησιμοποιήσουν για εκβιασμό.

Εταιρείες τεχνολογίας, όπως η Meta, εκμεταλλεύονται αυτό το νέο «θησαυρό» προσωπικών δεδομένων.

Από τον Δεκέμβριο, οι αλληλεπιδράσεις των χρηστών με τα εργαλεία τεχνητής νοημοσύνης της Meta θα χρησιμοποιούνται για στοχευμένες διαφημίσεις στο Facebook, Instagram και Threads, χωρίς δυνατότητα εξαίρεσης.

Οι φωνητικές συνομιλίες και οι ανταλλαγές κειμένου θα σαρώνονται για να μάθουν περισσότερα για τις προσωπικές προτιμήσεις και αγοραστικές συνήθειες των χρηστών.

Το παράδειγμα της Meta AI: αν κάποιος συζητήσει για πεζοπορία, θα εμφανίζονται προτάσεις για ομάδες πεζοπορίας, αναρτήσεις φίλων ή διαφημίσεις για μποτάκια πεζοπορίας.

Στοχευμένες διαφημίσεις και κοινωνικός έλεγχος

Αν και φαίνεται αβλαβές, η εμπειρία στοχευμένων διαφημίσεων έχει δείξει πόσο καταστροφικές μπορεί να είναι.

Άτομα που αναζητούν οικονομική βοήθεια έχουν εκτεθεί σε επιθετικά δάνεια, προβληματικοί παίκτες σε καζίνο λαμβάνουν δωρεάν περιστροφές και ηλικιωμένοι ενθαρρύνονται να ξοδέψουν τις αποταμιεύσεις τους σε υπερτιμημένα προϊόντα.

Ο Mark Zuckerberg δήλωσε ότι οι χρήστες μπορούν να επιτρέψουν στη Meta AI «να μάθει πολλά για εσάς και τα άτομα που σας ενδιαφέρουν».

Ταυτόχρονα, η Meta βασίζεται σχεδόν εξ ολοκλήρου στην πώληση στοχευμένων διαφημίσεων, γεγονός που εγείρει σοβαρά ζητήματα ηθικής και προστασίας προσωπικών δεδομένων.

Η πρόκληση της ηθικής και της ιδιωτικότητας

Ο κλάδος της τεχνητής νοημοσύνης αντιμετωπίζει μεγάλες προκλήσεις όσον αφορά την ισορροπία μεταξύ εξατομίκευσης και διαφάνειας.

Οι εταιρείες πρέπει να προστατεύουν ευαίσθητα δεδομένα και να επιτρέπουν στους χρήστες να έχουν έλεγχο, ενώ ταυτόχρονα η τεχνολογία συνεχώς διευκολύνει την καθημερινή ζωή.

Οι περιπτώσεις Schaefer και Rinderknecht αναδεικνύουν την αναγκαιότητα επανεξέτασης της σχέσης μας με την τεχνολογία. Με παρόμοιο τρόπο που το σκάνδαλο Cambridge Analytica ανάγκασε τους χρήστες να αναθεωρήσουν τη χρήση των κοινωνικών μέσων, η τρέχουσα τάση συλλογής δεδομένων φέρνει ξανά την ιδιωτικότητα στο επίκεντρο.

Η νέα εποχή της AI

Λιγότερο από τρία χρόνια μετά την κυκλοφορία του ChatGPT, πάνω από ένα δισεκατομμύριο άνθρωποι χρησιμοποιούν εφαρμογές τεχνητής νοημοσύνης.

Οι χρήστες συχνά γίνονται, άθελά τους, αντικείμενα εκμετάλλευσης από εταιρείες τεχνολογίας, διαφημιστές και ακόμα και εγκληματολογικούς ερευνητές.

Το παλιό ρητό «αν δεν πληρώνεις για μια υπηρεσία, τότε δεν είσαι ο πελάτης, αλλά το προϊόν» ίσως πρέπει να αναθεωρηθεί στη νέα εποχή της τεχνητής νοημοσύνης: τώρα, αντί για «προϊόν», ο χρήστης γίνεται «θήραμα».

© Πηγή: In.gr


Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook