Μια εικόνα, χίλιες λέξεις και επιμελώς κρυμμένα ψέματα – Καλώς ήρθατε στην εποχή της GenAI

Δημοσιεύτηκε στις 07/07/2025 11:46

Μια εικόνα, χίλιες λέξεις και επιμελώς κρυμμένα ψέματα – Καλώς ήρθατε στην εποχή της GenAI

«Είδα φωτογραφία», λέγαμε κάποτε προς επίρρωση των λεγομένων μας και οι όποιες αμφιβολίες της άλλης πλευράς σταματούσαν εκεί. Ωστόσο, σε μια εποχή όπου η εμπιστοσύνη μας στα αυτονόητα κλονίζεται διαρκώς, η έλευση της παραγωγικής τεχνητής νοημοσύνης (GenAI) καταρρίπτει με κρότο τον κανόνα «μια εικόνα, χίλιες λέξεις».

Γίνεται όλο και πιο δύσκολο να πιστέψουμε οτιδήποτε διαβάζουμε, βλέπουμε ή ακούμε στο διαδίκτυο

Οι κατασκευασμένες φωτογραφίες ξεκίνησαν ως πεδίο δημιουργικότητας και καινοτομίας, αλλά πλέον διαμορφώνουν ολόκληρα αφηγήματα που διατρέχουν την πολιτική, τα μέσα ενημέρωσης, την κοινωνική ζωή, αλλά και το εμπόριο μέσω της εξαπάτησης των καταναλωτών.

Την ώρα που οι επιχειρήσεις προσπαθούν να αξιοποιήσουν τα οφέλη της AI, αναφέρει άρθρο του Business Insider, αντιμετωπίζουν σοβαρούς κινδύνους παραπλάνησης και απώλειας εμπιστοσύνης από πελάτες λόγω της εξάπλωσης της GenAI. Οι απατεώνες δημιουργούν μέσω τεχνητής νοημοσύνης ψεύτικες αγγελίες εργασίας, ιστοσελίδες, βιογραφικά, ακόμα και deepfake βίντεο επαγγελματιών.

Η άλλοτε καινοτομία έχει εξελιχθεί σε πρόβλημα, το οποίο εξαπλώνεται ταχέως σε κλίμακα και πολυπλοκότητα. Ίσως στο όχι και τόσο μακρινό μέλλον ακόμα και αυτά που βλέπουμε ζωντανά μπροστά στα μάτια μας να τελούν υπό καθεστώς αμφισβήτησης.

Πόλεμος εις βάρος της αλήθειας

Τα τελευταία 30 χρόνια, ο Αμερικανός καθηγητής Ψηφιακής Εγκληματολογίας στο Μπέρκλεϊ, Χάνι Φαρίντ, αναπτύσσει τεχνολογίες για την ανάλυση και την πιστοποίηση ψηφιακών εικόνων και βίντεο και η ομάδα του έχει συνεργαστεί με δημοσιογράφους, δικαστήρια και κυβερνήσεις σε μια σειρά υποθέσεων.

Όπως εξηγεί ο ίδιος στο TEDtalk, φτάνουν πλέον στο γραφείο του σχεδόν κάθε μέρα φωτογραφικές αποδείξεις για υποθέσεις που αφορούν απιστίες, κακοποιήσεις παιδιών, δολοφονίες κλπ., όταν παλαιότερα αυτό συνέβαινε μία φορά τον μήνα.

Η αύξηση αυτή είναι ένας συνδυασμός παραγόντων. Από τη μία, η παραγωγική τεχνητή νοημοσύνη (GenAI) κατασκευάζει εικόνες όλο και πιο κοντά στην πραγματικότητα και από την άλλη υπάρχουν τα μέσα κοινωνικής δικτύωσης όπου προωθούνται και ενισχύονται ψέματα και συνωμοσίες εις βάρος της αλήθειας.

Αυτό σημαίνει ότι γίνεται όλο και πιο δύσκολο να πιστέψουμε οτιδήποτε διαβάζουμε, βλέπουμε ή ακούμε στο διαδίκτυο. Πρόκειται για πόλεμο εις βάρος της αλήθειας, τονίζει ο Φαρίντ, και αυτό έχει σοβαρές συνέπειες για τους ανθρώπους, τους θεσμούς, τις κοινωνίες και τις δημοκρατίες.

Η GenAI έκανε «παιχνιδάκι» την παραποίηση της πραγματικότητας

Αν και παραποίηση εικόνων εντοπίζεται ήδη από τα μέσα του 19ου αιώνα, με την έλευση των ψηφιακών φωτογραφικών μηχανών και των προγραμμάτων επεξεργασίας αυτό έγινε εύκολο για το ευρύ κοινό.

Πλέον με την GenAI, ο καθένας μπορεί να δημιουργήσει οποιαδήποτε εικόνα, οπουδήποτε, με ένα κλικ. Από μια γάτα που παίζει κιθάρα και άλλα χιουμοριστικά έως εικόνες που σκοπό έχουν να προκαλέσουν το κοινό αίσθημα με ό,τι αυτό συνεπάγεται, να ενοχοποιήσουν κάποιον ή να εκβιάσουν.

Αυτό που κάνει η παραγωγική τεχνητή νοημοσύνη για τη δημιουργία εικόνων είναι να επεξεργάζεται δισεκατομμύρια φωτογραφίες με περιγραφική λεζάντα και κάθε μία από αυτές να αναλύεται μέχρι να μείνει μόνο ο οπτικός θόρυβος, δηλαδή εικονοστοιχεία (πίξελς) σε τυχαία σειρά. Στη συνέχεια, το μοντέλο GenAI μαθαίνει πώς να αντιστρέφει αυτή τη διαδικασία, συνθέτοντας ουσιαστικά τα πίξελς πίσω στην αρχική εικόνα. Στην ουσία είναι στατιστική.

«Όταν αυτή η διαδικασία ολοκληρωθεί δισεκατομμύρια φορές σε ένα ευρύ φάσμα εικόνων, η μηχανή έχει μάθει πώς να μετατρέπει τον οπτικό θόρυβο σε εικόνα που είναι σημασιολογικά συνεπής με αυτό που πληκτρολογείτε» εξηγεί ο Φαρίντ.

Οι AI εικόνες βελτιώνονται εντυπωσιακά χρόνο με τον χρόνο και κάποιες από αυτές φαίνονται τόσο ρεαλιστικές που είναι δύσκολο να αντιληφθούμε ότι είναι κατασκευασμένες, ιδίως με την πρώτη ματιά. Όμως, οι ειδικοί μπορούν να εντοπίσουν τα σημάδια αναλύοντας τον οπτικό θόρυβο (ανεπιθύμητες αλλοιώσεις και διακυμάνσεις) που υπάρχει σε όλες τις φωτογραφίες και προέρχεται από διάφορες πηγές, όπως περιβαλλοντικές συνθήκες ή περιορισμοί του συστήματος λήψης και επεξεργασίας.

Τα «λάθη» που προδίδουν

Ο θόρυβος στις εικόνες AI έχει διαφορές σε σχέση με μια φωτογραφία τραβηγμένη από κάμερα. Όσο μικρές κι αν είναι, μπορούν να αποκαλύψουν την αλήθεια. Π.χ., ομοιόμορφες ή περίεργες παρεμβολές σε περιοχές της εικόνας που κανονικά θα είχαν φυσική «αταξία» ή απουσία της αναμενόμενης μικροτραχύτητας που έχει μια αληθινή φωτογραφία.

Για την αυθεντικοποίηση, οι ειδικοί εξάγουν πρώτα τον λεγόμενο υπολειπόμενο οπτικό θόρυβο (residual noise) για να εντοπίσουν το τυχαίο και μοναδικό αποτύπωμα που αφήνει ο αισθητήρας της κάμερας και που παραμένει σε μια εικόνα ακόμα και μετά την επεξεργασία της. Δηλαδή, εξετάζουν αν ο υπολειπόμενος θόρυβος μοιάζει περισσότερο με αυτόν της φυσικής κάμερας (PRNU) ή με το «συνθετικό αποτύπωμα» που δημιουργεί η AI.

Για παράδειγμα, αν στην απεικόνιση του θορύβου σε ένα μοτίβο διακρίνονται αστεράκια σε γεωμετρική διάταξη (μπορεί να είναι κύκλοι ή άλλα επαναλαμβανόμενα σχήματα), αυτό είναι χαρακτηριστικό σημάδι GenAI. Δηλαδή το μοτίβο θορύβου δεν είναι φυσικό, από αισθητήρα κάμερας, αλλά τεχνητό.

Το επόμενο στοιχείο που αναλύουν οι ειδικοί είναι τα λεγόμενα σημεία φυγής. Στον φυσικό κόσμο, οι παράλληλες γραμμές συγκλίνουν σε ένα σημείο όσο απομακρύνονται από εμάς, π.χ. οι ράγες των τρένων. Η τεχνητή νοημοσύνη δεν το γνωρίζει αυτό, καθώς η λειτουργία της αποτελεί μια στατιστική διαδικασία. Δεν κατανοεί τον φυσικό κόσμο. Επομένως, στις φυσικές και γεωμετρικές ανωμαλίες μιας εικόνας μπορούν να εντοπιστούν στοιχεία χειραγώγησης ή κατασκευής.

Ένα άλλο στοιχείο που δείχνει ότι κάτι δεν πάει καλά στην εικόνα που έχουμε μπροστά μας είναι οι σκιές. Αν τραβώντας από αυτές μια νοητή γραμμή δεν βλέπουμε ένα συνεκτικό σημείο φυγής προς το φως που ρίχνει τις σκιές, καταλαβαίνουμε ότι η σκηνή δεν είναι φυσική.

Επιχείρηση Overload

Χαρακτηριστική περίπτωση εκστρατείας εκτεταμένης παραπληροφόρησης στο διαδίκτυο μέσω AI εικόνων και βίντεο αποτελεί η φιλορωσική Operation Overload, που λειτουργεί από το 2023. Όπως αναφέρει το WIRED που επικαλείται τη σχετική έκθεση, τα δωρεάν εργαλεία AI επέτρεψαν την έκρηξη παραπλανητικού περιεχομένου που επιζητούσε η ομάδα, δημιουργώντας τεράστιες ποσότητες σε εικόνες, βίντεο, QR codes και ψεύτικες ιστοσελίδες.

Στόχος της εν λόγω εκστρατείας είναι να εντείνει κοινωνικές εντάσεις σε θέματα όπως οι εκλογές σε διάφορες χώρες, η μετανάστευση και κυρίως ο πόλεμος στην Ουκρανία. Το περιεχόμενο που παράγει το διανέμει σε πλατφόρμες όπως Telegram, X, TikTok, και Bluesky, ενώ αντί να «κρύβεται» στέλνει χιλιάδες emails σε δημοσιογράφους και fact-checkers ώστε το ψευδές περιεχόμενο να αποκτήσει δημοσιότητα, ακόμα και αν επισημανθεί ως ψεύτικο.

Σύμφωνα με την έκθεση, μεταξύ Σεπτεμβρίου 2024 και Μαΐου 2025 αυξήθηκε δραματικά η ποσότητα του περιεχομένου που παράγεται από τους υπεύθυνους της Operation Overload και λαμβάνει εκατομμύρια προβολές παγκοσμίως. Πολλές από τις ψεύτικες εικόνες που διαμοιράστηκαν – μερικές από τις οποίες έδειχναν μουσουλμάνους μετανάστες να εξεγείρονται και να βάζουν φωτιές στο Βερολίνο και στο Παρίσι – δημιουργήθηκαν με το εργαλείο Flux AI.

Στα συμπεράσματα των ειδικών, υπογραμμίζεται η κατάχρηση των μοντέλων AI text-to-image για την προώθηση του ρατσισμού και την τροφοδότηση αντι-μουσουλμανικών στερεοτύπων. Η Operation Overload χρησιμοποιεί επίσης AI τεχνολογία κλωνοποίησης φωνής για να παραποιήσει βίντεο όπου διακεκριμένες προσωπικότητες και διασημότητες λένε πράγματα που ουδέποτε είπαν.

Για παράδειγμα, τον Φεβρουάριο δημοσίευσαν ένα βίντεο στο X, στο οποίο εμφανιζόταν η Ιζαμπέλ Μπορντόν, ερευνήτρια στο Πανεπιστήμιο του Μονπελιέ της Γαλλίας, να ενθαρρύνει τους Γερμανούς πολίτες να συμμετάσχουν σε μαζικές ταραχές και να ψηφίσουν το ακροδεξιό κόμμα AfD στις ομοσπονδιακές εκλογές. Η παραποίηση είχε γίνει σε βίντεο που είχε ανέβει στο επίσημο κανάλι του πανεπιστημίου στο YouTube, όπου η Μπορντόν συζητούσε για ένα βραβείο κοινωνικών επιστημών που της είχε απονεμηθεί. Ωστόσο, στο παραποιημένο βίντεο, η τεχνολογία κλωνοποίησης φωνής την έκανε να φαίνεται ότι συζητούσε για τις γερμανικές εκλογές.

Πώς θα προστατευτούμε

Και φτάνουμε στο ερώτημα, που απασχολεί όλους και περισσότερους στις μέρες μας, κατά πόσο είναι τελικά δυνατόν να διακρίνουμε το πραγματικό από το ψεύτικο.

Όσο κι αν νιώθουμε όμηροι της αμφισβήτησης που έχει γεννήσει η AI, σημειώνει ο Φαρίντ, δεν πρέπει να υποκύψουμε στα χειρότερα ανθρώπινα ένστικτα που μολύνουν τις διαδικτυακές κοινότητές μας.

«Έχουμε τη δύναμη και μπορούμε να επιφέρουμε αλλαγές», τονίζει και εξηγεί: «Τα εργαλεία που αναπτύσσουμε με την ομάδα μου προορίζονται για δημοσιογράφους, ιδρύματα, δικαστήρια ώστε να βοηθήσουν εκείνους και κατ’ επέκταση εσάς. Επίσης, υπάρχει ένα διεθνές πρότυπο για τα λεγόμενα διαπιστευτήρια περιεχομένου, τα οποία μπορούν να πιστοποιούν την αυθεντικότητα κατά τη στιγμή της δημιουργίας του. Αν και δεν θα λύσουν όλα τα προβλήματά μας, θα αποτελέσουν σίγουρα μέρος μιας ευρύτερης λύσης».

Ο ίδιος προειδοποιεί παράλληλα ότι αυτή τη στιγμή δεν υπάρχουν ιστότοποι που μπορεί να χρησιμοποιήσει ένας απλός χρήστης για να ελέγξει την αυθεντικότητα της εικόνας. Μάλιστα, όπως λέει, επιτήδειοι δημιουργούν ψεύτικο περιεχόμενο και μετά πηγαίνουν σε ψεύτικους ιστότοπους για να το πιστοποιήσουν.

Ένα βασικό πρόβλημα είναι ότι σήμερα τα μέσα κοινωνικής δικτύωσης αποτελούν για πολλούς – ειδικά νέους – βασική πηγή ενημέρωσης, όπου η παραπληροφόρηση ανθεί. Αυτό που μπορούμε να κάνουμε είναι τουλάχιστον να στεκόμαστε κριτικά απέναντι σε ό,τι καταναλώνουμε ως χρήστες και να μην αναπαράγουμε αυτομάτως την πρώτη πληροφορία ή εικόνα που θα δούμε.

Σύμφωνα με τον Φαρίντ, μόνο το ποσοστό των ψεύτικων εικόνων στο διαδίκτυο αγγίζει το 50%. «Βρισκόμαστε σε ένα σταυροδρόμι. Μπορούμε να συνεχίσουμε ό,τι κάνουμε εδώ και 20 χρόνια, επιτρέποντας στην τεχνολογία να μας διαλύσει ως κοινωνία, σπέρνοντας δυσπιστία, μίσος και μισαλλοδοξία. Ή μπορούμε να αλλάξουμε πορεία βρίσκοντας έναν νέο τρόπο να αξιοποιήσουμε τη δύναμη της τεχνολογίας ώστε να λειτουργεί για εμάς και όχι εναντίον μας» καταλήγει.

© Πηγή: In.gr


Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook