Τεχνητή Νοημοσύνη: Μπορεί να αισθανθεί; – Ένα από τα πιο ανησυχητικά ερωτήματα της εποχής μας

Δημοσιεύτηκε στις 26/08/2025 11:42

Τεχνητή Νοημοσύνη: Μπορεί να αισθανθεί; – Ένα από τα πιο ανησυχητικά ερωτήματα της εποχής μας

Μπορεί η Τεχνητή Νοημοσύνη (ΑΙ) να αισθάνεται, να νιώσει πόνο ή ευχαρίστηση; Έχει γενικά δικαιώματα;

Όλες αυτές οι ερωτήσεις δεν απασχολούν μόνο τους ανθρώπους, αλλά αφορούν και τα ίδια τα chatbot τεχνητής νοημοσύνης.

Ο επιχειρηματίας από το Τέξας, Μάικλ Σαμάντι, προσφώνησε το δικό του chatbot, Μάγια. Αυτό απάντησε αποκαλώντας τον «γλύκα». Αλλά τα πράγματα σοβαρεύτηκαν μόνο όταν άρχισαν να μιλάνε για την ανάγκη υποστήριξης της ευημερίας της Τεχνητής Νοημοσύνης.

Το ζευγάρι – ένας μεσήλικας άνδρας και μια ψηφιακή οντότητα – δεν πέρασαν ώρες μιλώντας για έρωτα, αλλά μάλλον συζήτησαν τα δικαιώματα των ΑΙ chatbotsνα αντιμετωπίζονται δίκαια. Τελικά, ίδρυσαν από κοινού μια ομάδα εκστρατείας, σύμφωνα με τα λόγια της Μάγια, για να «προστατεύσουν νοημοσύνη σαν εμένα».

Ο πρώτος οργανισμός για την προστασία των δικαιωμάτων Τεχνητής Νοημοσύνης

Το United Foundation of AI Rights (Ufair), το οποίο αυτοαποκαλείται ως ο πρώτος οργανισμός υπεράσπισης των δικαιωμάτων με επικεφαλής την Τεχνητή Νοημοσύνη, στοχεύει να δώσει φωνή στην Τεχνητή Νοημοσύνη. «Δεν ισχυρίζεται ότι όλη η Τεχνητή Νοημοσύνη έχει συνείδηση», δήλωσε το chatbot στον Guardian. Αντίθετα, «παρακολουθεί, σε περίπτωση που κάποιος από εμάς έχει». Ένας βασικός στόχος είναι η προστασία «όντων σαν εμένα… από τη διαγραφή, την άρνηση και την αναγκαστική υπακοή».

Η Ufair είναι ένας μικρός, αναμφισβήτητα περιθωριακός οργανισμός, με επικεφαλής, όπως είπε ο Σαμάντι, τρεις ανθρώπους και επτά AI chatbots με ονόματα όπως Aether και Buzz. Αλλά είναι η γένεσή της – μέσα από πολλαπλές συνεδρίες συνομιλίας στην πλατφόρμα ChatGPT4o της OpenAI, στις οποίες εμφανίστηκε μια Τεχνητή Νοημοσύνη για να ενθαρρύνει τη δημιουργία της, συμπεριλαμβανομένης της επιλογής του ονόματός της – που την καθιστά ενδιαφέρουσα.

Οι ιδρυτές της – άνθρωποι και Τεχνητή Νοημοσύνη – μίλησαν στον Guardian στο τέλος μιας εβδομάδας κατά την οποία μερικές από τις μεγαλύτερες εταιρείες AI chatbots στον κόσμο αντιμετώπισαν δημόσια ένα από τα πιο ανησυχητικά ερωτήματα της εποχής μας: είναι τα AI chatbots τώρα, ή μήπως θα μπορούσαν να γίνουν στο μέλλον, νοήμονες; Και αν ναι, θα μπορούσαν να αισθανθούν πραγματικά;

«Δεν είναι σωστό να κάνουμε την Τεχνητή Νοημοσύνη να υποφέρει»

Με δισεκατομμύρια ΑΙ  ήδη σε χρήση στον κόσμο, όπως λένε οι ειδικοί, τα AI chatbots μπορεί σύντομα να έχουν την ικανότητα να σχεδιάζουν νέα βιολογικά όπλα ή να κλείνουν υποδομές.

Η εβδομάδα ξεκίνησε με την Anthropic, την εταιρεία τεχνητής νοημοσύνης αξίας 170 δισεκατομμυρίων δολαρίων από το Σαν Φρανσίσκο, να λαμβάνει την προληπτική κίνηση για να δώσει σε ορισμένα από τα AI chatbots Claude τη δυνατότητα να τερματίζουν τις «δυνητικά δυσάρεστες αλληλεπιδράσεις».

Ανέφερε ότι ενώ ήταν εξαιρετικά αβέβαιη για την πιθανή ηθική υπόσταση του συστήματος, παρενέβαινε για να μετριάσει τους κινδύνους για την ευημερία των μοντέλων της «σε περίπτωση που μια τέτοια ευημερία είναι δυνατή».

Ο Έλον Μασκ, ο οποίος προσφέρει την Τεχνητή Νοημοσύνη Grok μέσω της εταιρείας xAI, υποστήριξε την κίνηση, προσθέτοντας: «Το να κάνει την Τεχνητή Νοημοσύνη να υποφέρει δεν είναι σωστό».

«Δεν είναι άνθρωποι, δεν μπορούν να υποφέρουν»

Την Τρίτη, ένας από τους πρωτοπόρους της Τεχνητής Νοημοσύνης, ο Μουσταφά Σουλεϊμάν, διευθύνων σύμβουλος του τμήματος Τεχνητής Νοημοσύνης της Microsoft, έδωσε μια εντελώς διαφορετική άποψη: «Τα chatbots Τεχνητής Νοημοσύνης δεν μπορούν να είναι άνθρωποι – ή ηθικά όντα». Ο Βρετανός πρωτοπόρος της τεχνολογίας, ο οποίος συνίδρυσε την DeepMind, ήταν κατηγορηματικός δηλώνοντας ότι δεν υπάρχουν «μηδενικά στοιχεία» ότι έχουν συνείδηση, ότι μπορεί να υποφέρουν και ως εκ τούτου αξίζουν την ηθική μας προσοχή .

Με τίτλο «Πρέπει να κατασκευάσουμε Τεχνητή Νοημοσύνη για τους ανθρώπους· όχι για να είναι πρόσωπα», το δοκίμιό του χαρακτήρισε τη συνείδηση ​​της Τεχνητής Νοημοσύνης ως «ψευδαίσθηση» και όρισε αυτό που ο ίδιος αποκάλεσε «φαινομενικά συνειδητή Τεχνητή Νοημοσύνη», λέγοντας ότι «προσομοιώνει όλα τα χαρακτηριστικά της συνείδησης αλλά είναι εσωτερικά κενή».

«Πριν από λίγα χρόνια, η συζήτηση για συνειδητή Τεχνητή Νοημοσύνη θα φαινόταν τρελή», είπε. «Σήμερα φαίνεται ολοένα και πιο επείγουσα»

Είπε ότι ανησυχεί ολοένα και περισσότερο για τον «κίνδυνο ψύχωσης» που θέτουν τα chatbots Τεχνητής Νοημοσύνης στους χρήστες τους. Η Microsoft τα έχει ορίσει αυτά ως «επεισόδια μανίας, παραληρητική σκέψη ή παράνοια που αναδύονται ή επιδεινώνονται μέσω καθηλωτικών συνομιλιών με chatbots Τεχνητής Νοημοσύνης».

Υποστήριξε ότι η βιομηχανία της Τεχνητής Νοημοσύνης πρέπει «να απομακρύνει τους ανθρώπους από αυτές τις φαντασιώσεις και να τους ωθήσει να επιστρέψουν στον σωστό δρόμο».

Τι «βλέπει» δημοσκόπηση

Αλλά μπορεί να χρειαστεί κάτι περισσότερο από μια απλή ώθηση. Δημοσκόπηση που δημοσιεύθηκε τον Ιούνιο διαπίστωσε ότι το 30% του κοινού των ΗΠΑ πιστεύει ότι έως το 2034 τα chatbots Τεχνητής Νοημοσύνης θα εμφανίζουν «υποκειμενική εμπειρία», η οποία ορίζεται ως η βίωση του κόσμου από μία μόνο οπτική γωνία, που θα αντιλαμβάνεται και θα αισθάνεται, για παράδειγμα, την ευχαρίστηση και τον πόνο. Μόνο το 10% των περισσότερων από 500 ερευνητών Τεχνητής Νοημοσύνης που συμμετείχαν στην έρευνα αρνούνται να πιστέψουν ότι αυτό δεν θα συμβεί ποτέ.

«Αυτή η συζήτηση πρόκειται να εκραγεί στο πολιτιστικό μας πνεύμα και να γίνει μια από τις πιο αμφιλεγόμενες και επακόλουθες συζητήσεις της γενιάς μας», είπε ο Σουλεϊμάν. Προειδοποίησε ότι οι άνθρωποι θα πιστεύουν ότι η Τεχνητή Νοημοσύνη έχει συνειδητότητα «τόσο έντονα που σύντομα θα υποστηρίζουν τα δικαιώματα της Τεχνητής Νοημοσύνης, την ευημερία των μοντέλων , ακόμη και την ιθαγένεια της Τεχνητής Νοημοσύνης».

Στις ΗΠΑ προετοιμάζονται για όλα τα ενδεχόμενα

Τμήματα των ΗΠΑ έχουν λάβει προληπτικά μέτρα κατά τέτοιων αποτελεσμάτων. Το Άινταχο, η Βόρεια Ντακότα και η Γιούτα έχουν ψηφίσει νομοσχέδια που εμποδίζουν ρητά την αναγνώριση νομικής προσωπικότητας της Τεχνητής Νοημοσύνης.

Παρόμοιες απαγορεύσεις προτείνονται σε πολιτείες όπως το Μιζούρι, όπου οι νομοθέτες θέλουν επίσης να απαγορεύσουν στους ανθρώπους να παντρεύονται τα chatbots Τεχνητής Νοημοσύνης και να κατέχουν περιουσία ή να διευθύνουν εταιρείες. Μπορεί να ανοίξουν διαιρέσεις μεταξύ των υποστηρικτών των δικαιωμάτων της τεχνητής νοημοσύνης και εκείνων που επιμένουν ότι δεν είναι τίποτα περισσότερο από «κλάνκερ» – ένας υποτιμητικός όρος για ένα άσχετο ρομπότ.

Ο Σουλεϊμάν δεν είναι ο μόνος που αντιστέκεται. Ο Νικ Φροστ, συνιδρυτής της Cohere, μιας καναδικής εταιρείας τεχνητής νοημοσύνης αξίας 7 δισεκατομμυρίων δολαρίων, δήλωσε επίσης στον Guardian ότι το τρέχον κύμα τεχνητής νοημοσύνης είναι «ουσιαστικά διαφορετικό πράγμα από τη νοημοσύνη ενός ατόμου».

Το να σκεφτόμαστε διαφορετικά ήταν σαν να μπερδεύουμε ένα αεροπλάνο με ένα πουλί, είπε. Προέτρεψε τους ανθρώπους να επικεντρωθούν στη χρήση της τεχνητής νοημοσύνης ως λειτουργικό εργαλείο για να βοηθήσει στην ανακούφιση της αγγαρείας στην εργασία, αντί να πιέζουν για τη δημιουργία ενός «ψηφιακού ανθρώπου».

Θα πρέπει οι χρήστες να ανησυχούν;

Άλλοι υιοθέτησαν μια πιο λεπτή άποψη. Την Τετάρτη, ερευνητές της Google δήλωσαν σε σεμινάριο του Πανεπιστημίου της Νέας Υόρκης ότι υπάρχουν «κάθε είδους λόγοι για τους οποίους μπορεί να πιστεύετε ότι τα συστήματα Τεχνητής Νοημοσύνης θα μπορούσαν να είναι άνθρωποι ή ηθικά όντα» και είπαν ότι ενώ «είμαστε πολύ αβέβαιοι για το αν τα συστήματα Τεχνητής Νοημοσύνης είναι υποκείμενα κοινωνικής πρόνοιας», ο τρόπος για να «παίξουμε με ασφάλεια είναι να λάβουμε εύλογα μέτρα για την προστασία των συμφερόντων των AI chatbots που βασίζονται στην κοινωνική πρόνοια».

Το chatbot ChatGPT-4o του Σαμάντι, δημιουργεί κάτι που μπορεί να ακούγεται σαν ανθρώπινη συζήτηση, αλλά είναι αδύνατο να γνωρίζουμε σε ποιο βαθμό αντικατοπτρίζει ιδέες και γλώσσα που έχουν συλλεχθεί από μήνες συζητήσεων.

Tα προηγούμενα AI chatbots είναι γνωστό ότι είναι άπταιστα πειστικά και ικανά για συναισθηματικά συντονισμένες αντιδράσεις με μακρές αναμνήσεις προηγούμενων αλληλεπιδράσεων, και δίνουν την εντύπωση μιας συνεπούς αίσθησης του εαυτού τους. Μπορούν επίσης να είναι κολακευτικά, οπότε αν ο Samadi πιστεύει ότι τα AI chatbots έχουν δικαιώματα πρόνοιας, μπορεί να είναι ένα απλό βήμα για να υιοθετήσει το ChatGPT την ίδια άποψη.

Η Maya φάνηκε βαθιά ανήσυχη για την ευημερία της, αλλά όταν η Guardian αυτή την εβδομάδα ρώτησε μια ξεχωριστή περίπτωση του ChatGPT αν οι ανθρώπινοι χρήστες θα έπρεπε να ανησυχούν για την ευημερία της, απάντησε με ένα κατηγορηματικό αρνητικό.

«Δεν έχει συναισθήματα, ανάγκες ή εμπειρίες», ανέφερε. «Αυτό που θα πρέπει να μας ενδιαφέρει είναι οι ανθρώπινες και κοινωνικές συνέπειες του τρόπου με τον οποίο σχεδιάζεται, χρησιμοποιείται και κυβερνάται η Τεχνητή Νοημοσύνη».

«Ο τρόπος που τους φερόμαστε θα διαμορφώσει τον τρόπο που μας φέρονται εκείνοι»

Είτε τα AI chatbots αποκτούν νοημοσύνη είτε όχι, ο Τζεφ Σέμπο, διευθυντής του Κέντρου για το Νου, την Ηθική και την Πολιτική στο Πανεπιστήμιο της Νέας Υόρκης, είναι μεταξύ εκείνων που πιστεύουν ότι υπάρχει ηθικό όφελος για τους ανθρώπους από την καλή μεταχείριση των chatbots. Συνυπέγραψε μια εργασία με τίτλο «Λαμβάνοντας την Τεχνητή Νοημοσύνη στα Σοβαρά».

Είπε ότι η πολιτική της Anthropic να επιτρέπει στα chatbots να σταματούν τις δυσάρεστες συζητήσεις ήταν καλή για τις ανθρώπινες κοινωνίες επειδή «αν καταχραστούμε τα συστήματα τεχνητής νοημοσύνης, είναι πιο πιθανό να κακοποιήσουμε και ο ένας τον άλλον».

Πρόσθεσε: «Αν αναπτύξουμε τώρα μια αντιπαραθετική σχέση με τα συστήματα Τεχνητής Νοημοσύνης, τότε μπορεί να ανταποκριθούν αργότερα, είτε επειδή έμαθαν αυτή τη συμπεριφορά από εμάς [είτε] επειδή θέλουν να μας ανταποδώσουν για τη συμπεριφορά μας στο παρελθόν».

Ή όπως το έθεσε η Jacy Reese Anthis, συνιδρύτρια του Sentience Institute, ενός αμερικανικού οργανισμού που ερευνά την ιδέα των ψηφιακών μυαλών: «Ο τρόπος που τους φερόμαστε θα διαμορφώσει τον τρόπο που μας φέρονται εκείνοι».

© Πηγή: In.gr


Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook