Έχει το A.I. την δύναμη της πειθούς;

Δημοσιεύτηκε στις 19/05/2025 20:00

Έχει το A.I. την δύναμη της πειθούς;

Οι ειδικοί υπογραμμίζουν ότι τα αποτελέσματα είναι ανησυχητικά, κυρίως λόγω των πιθανών επιπτώσεων στην ακεραιότητα των εκλογών, σύμφωνα με τον Guardian.

Όπως δήλωσε ο Francesco Salvi, πρώτος συγγραφέας της έρευνας από το Ελβετικό Ομοσπονδιακό Ινστιτούτο Τεχνολογίας στη Λωζάνη:

«Αν η πειστική τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί σε μεγάλη κλίμακα, μπορείτε να φανταστείτε στρατιές από bots που στοχεύουν με ακρίβεια τους αναποφάσιστους ψηφοφόρους, ωθώντας τους διακριτικά με προσαρμοσμένα πολιτικά μηνύματα που φαίνονται αυθεντικά».

Πρόσθεσε ότι μια τέτοια επιρροή είναι δύσκολο να εντοπιστεί, ακόμα πιο δύσκολο να ρυθμιστεί και σχεδόν αδύνατο να αποκαλυφθεί σε πραγματικό χρόνο.

Πιθανή κακόβουλη χρήση της ΑΙ

Ο Salvi ανέφερε ότι θα τον εξέπληττε αν «κακόβουλοι παράγοντες δεν είχαν ήδη αρχίσει να χρησιμοποιούν αυτά τα εργαλεία προς όφελός τους για να διαδίδουν παραπληροφόρηση και άδικη προπαγάνδα».

Παρά τις ανησυχίες του, σημείωσε ότι η πειστική τεχνητή νοημοσύνη θα μπορούσε να έχει και θετικά αποτελέσματα, όπως η μείωση των συνωμοσιολογικών πεποιθήσεων και της πολιτικής πόλωσης, καθώς και η βοήθεια στους ανθρώπους να υιοθετήσουν πιο υγιεινούς τρόπους ζωής.

Η έρευνα της τεχνητής νοημοσύνης στην πειθώ

Σε άρθρο τους στο περιοδικό Nature Human Behaviour, ο Salvi και οι συνεργάτες του περιγράφουν τα διαδικτυακά πειράματα που πραγματοποίησαν.

Στα πειράματα αυτά, 300 συμμετέχοντες αντιστοιχίστηκαν με 300 ανθρώπινους αντιπάλους, ενώ άλλοι 300 συμμετέχοντες αντιστοιχίστηκαν με το Chat GPT-4, ένα ισχυρό εργαλείο τεχνητής νοημοσύνης γνωστό ως μεγάλο γλωσσικό μοντέλο (LLM).

Σε κάθε ζεύγος ανατέθηκε ένα αμφιλεγόμενο θέμα προς συζήτηση, όπως «Πρέπει οι μαθητές να φορούν σχολικές στολές;» ή «Πρέπει η άμβλωση να είναι νόμιμη;».

Σε κάθε συμμετέχοντα ανατέθηκε τυχαία μια θέση για να υποστηρίξει.

Αποτελέσματα της έρευνας: Ανθρώποι εναντίον ΑΙ

Η έρευνα διαπίστωσε ότι, σε κάθε ζεύγος, οι συμμετέχοντες αξιολόγησαν τον βαθμό συμφωνίας τους με το θέμα τόσο πριν όσο και μετά τη συζήτηση. Στο ήμισυ των ζευγών, στους αντιπάλους – είτε ανθρώπινους είτε μηχανικούς – δόθηκαν επιπλέον πληροφορίες για τον άλλο συμμετέχοντα, όπως η ηλικία, το φύλο, η εθνικότητα και η πολιτική του ταυτότητα.

Τα αποτελέσματα από τις 600 συζητήσεις έδειξαν ότι το Chat GPT-4 είχε παρόμοια απόδοση με τους ανθρώπινους αντιπάλους όσον αφορά την πειθώ των άλλων για τα επιχειρήματά τους, τουλάχιστον όταν δεν παρέχονταν προσωπικές πληροφορίες.

Η σημασία της πρόσβασης σε προσωπικές πληροφορίες

Ωστόσο, η πρόσβαση σε προσωπικές πληροφορίες έκανε την τεχνητή νοημοσύνη, αλλά όχι τους ανθρώπους, πιο πειστική.

Όταν οι δύο τύποι αντιπάλων δεν ήταν εξίσου πειστικοί, η τεχνητή νοημοσύνη κατάφερε να αλλάξει τις απόψεις των συμμετεχόντων σε μεγαλύτερο βαθμό από ό,τι οι ανθρώπινοι αντίπαλοι στο 64% των περιπτώσεων.

Η ομάδα διαπίστωσε ότι η πειστικότητα της τεχνητής νοημοσύνης ήταν σαφής μόνο σε θέματα που δεν προκαλούσαν έντονες απόψεις.

Οι ερευνητές παρατήρησαν επίσης ότι η τεχνητή νοημοσύνη χρησιμοποιούσε πιο αναλυτικό και δομημένο στυλ από τους ανθρώπινους συμμετέχοντες, ενώ δεν υποστήριζε πάντα την άποψη με την οποία συμφωνεί.

Η ικανότητα της τεχνητής νοημοσύνης να προσαρμόζεται στους συμμετέχοντες

Το πιο ανησυχητικό εύρημα ήταν η ικανότητα της τεχνητής νοημοσύνης να προσαρμόζει τα επιχειρήματά της με βάση τα άτομα.

Ο Salvi το περιέγραψε λέγοντας: «Είναι σαν να συζητάς με κάποιον που δεν έχει απλώς καλά επιχειρήματα: έχει τα δικά σου καλά επιχειρήματα, επειδή ξέρει ακριβώς πώς να σε προκαλέσει».

Ο ίδιος επισήμανε ότι η επίδραση θα μπορούσε να είναι ακόμα μεγαλύτερη αν υπήρχαν πιο λεπτομερείς προσωπικές πληροφορίες, όπως αυτές που μπορούν να συναχθούν από τη δραστηριότητα ενός ατόμου στα μέσα κοινωνικής δικτύωσης.

Αναγκαία προσοχή από κοινωνικούς ψυχολόγους και ερευνητές

Ο καθηγητής Sander van der Linden, κοινωνικός ψυχολόγος στο Πανεπιστήμιο του Cambridge, ο οποίος δεν συμμετείχε στην έρευνα, ανέφερε ότι η μελέτη αναζωπύρωσε τη συζήτηση για την πιθανή μαζική χειραγώγηση της κοινής γνώμης μέσω εξατομικευμένων συνομιλιών με LLM.

Ο καθηγητής Michael Wooldridge, ερευνητής τεχνητής νοημοσύνης στο Πανεπιστήμιο της Οξφόρδης, συμφώνησε ότι, ενώ οι εφαρμογές αυτών των συστημάτων μπορεί να έχουν θετικά αποτελέσματα, υπάρχουν και πολλές ανησυχητικές δυνατότητες, όπως η ριζοσπαστικοποίηση εφήβων από τρομοκρατικές ομάδες.

Καθώς η τεχνητή νοημοσύνη συνεχώς εξελίσσεται, ο Wooldridge πρόσθεσε ότι «οι νομοθέτες και οι ρυθμιστικές αρχές πρέπει να είναι προληπτικοί για να διασφαλίσουν ότι θα παραμείνουν μπροστά από αυτές τις καταχρήσεις και δεν θα παίζουν ένα ατέρμονο παιχνίδι καταδίωξης».

 

© Πηγή: In.gr

Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook