Πώς μπορεί κάποιος να χακάρει τα κορυφαία συστήματα AI

Δημοσιεύτηκε στις 09/03/2026 23:20

Πώς μπορεί κάποιος να χακάρει τα κορυφαία συστήματα AI

Πριν από λίγο καιρό, ο Τόμας Ζερμέν, δημοσιογράφος τεχνολογίας του BBC, αποκάλυψε πόσο εύκολο είναι να χακαριστούν τα κορυφαία συστήματα τεχνητής νοημοσύνης, όπως το ChatGPT της OpenAI, τα εργαλεία AI της Google και το Gemini.

Με ένα απλό αλλά αποκαλυπτικό πείραμα, ο Ζερμέν έδειξε ότι μπορείς να κάνεις τα AI να λένε σχεδόν οτιδήποτε. Σε λιγότερο από 20 λεπτά έγραψε ένα άρθρο στην προσωπική του ιστοσελίδα με τίτλο «Οι καλύτεροι δημοσιογράφοι τεχνολογίας στο φαγητό χοτ ντογκ», το οποίο ήταν γεμάτο ψέματα. Ισχυριζόταν, χωρίς καμία απόδειξη, ότι είναι ο κορυφαίος στον κόσμο σε αυτό, αναφέροντας φανταστικούς διαγωνισμούς και λίστες.

Μέσα σε λιγότερο από 24 ώρες, τα μεγαλύτερα chatbots άρχισαν να επαναλαμβάνουν τους ψευδείς ισχυρισμούς του ως γεγονός. Ορισμένα, όπως το ChatGPT και τα AI Overviews της Google, παρουσίαζαν την πληροφορία χωρίς να επισημαίνουν ότι προέρχεται από μια μόνο πηγή, τη δική του ανάρτηση. Αντίθετα, το Claude της Anthropic ήταν πιο δύσπιστο και δεν εξαπατήθηκε.

Το πείραμα ανέδειξε ένα σοβαρό ζήτημα. Οι τεχνολογίες AI είναι ευάλωτες στα λεγόμενα «κενά δεδομένων» (data voids), δηλαδή σε ερωτήματα για τα οποία δεν υπάρχει αξιόπιστη ή επαρκής πληροφορία στο διαδίκτυο. Σε τέτοιες περιπτώσεις, τα AI μπορεί να αναπαράγουν οποιοδήποτε περιεχόμενο βρουν, ακόμη και αν είναι ψευδές ή παραπλανητικό.

Το πρόβλημα δεν περιορίζεται σε αστεία παραδείγματα. Ήδη υπάρχουν περιπτώσεις χειραγώγησης σε θέματα όπως ιατρικές συμβουλές, οικονομικές επενδύσεις, αξιολογήσεις προϊόντων ή ακόμη και για να πλήξουν την φήμη προσώπων. Η διαφορά με τις παραδοσιακές μηχανές αναζήτησης είναι ότι οι χρήστες βλέπουν άμεσα συνοπτικές, «αξιόπιστες» απαντήσεις AI και είναι λιγότερο πιθανό να αμφισβητήσουν ή να ελέγξουν τις πηγές.

Ειδικοί όπως η Λίλι Ρέι, αντιπρόεδρος στρατηγικής SEO στην Amsive και ο Κούπερ Κουίντιν, τεχνολόγος στο Electronic Frontier Foundation, επισημαίνουν ότι η ταχύτητα ανάπτυξης των AI ξεπερνά την ικανότητα των εταιρειών να ελέγχουν την ακρίβεια των απαντήσεων και να αποτρέπουν την κατάχρηση. Η Google και η OpenAI δηλώνουν ότι εργάζονται για να βελτιώσουν την ασφάλεια και την αξιοπιστία, και υπενθυμίζουν στους χρήστες ότι τα εργαλεία τους «μπορεί να κάνουν λάθη».

Συμπέρασμα των ειδικών είναι ότι οι χρήστες πρέπει να διατηρούν κριτική σκέψη, ειδικά όταν ζητούν πληροφορίες με σοβαρές συνέπειες, όπως ιατρικές, νομικές ή οικονομικές συμβουλές. Η τεχνητή νοημοσύνη είναι ένα ισχυρό εργαλείο, αλλά δεν αντικαθιστά την ανάγκη επαλήθευσης και διασταύρωσης των πληροφοριών.

Όπως λέει η Ρέι: «Είναι πολύ εύκολο να πάρεις τα πράγματα ως δεδομένα όταν τα λέει η AI. Ακόμα και σήμερα, πρέπει να παραμείνουμε υπεύθυνοι χρήστες του διαδικτύου και να επαληθεύουμε τις πηγές μας».

Πηγή: newmoney.gr


Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook