Τεχνητή Νοημοσύνη: Απαραίτητη η διασταύρωση των απαντήσεων – Συχνά τα λάθη, μικρός ο έλεγχος από τους χρήστες

Δημοσιεύτηκε στις 04/06/2025 18:55

Τεχνητή Νοημοσύνη: Απαραίτητη η διασταύρωση των απαντήσεων – Συχνά τα λάθη, μικρός ο έλεγχος από τους χρήστες

Πολλοί είναι οι χρήστες του διαδικτύου που δείχνουν τυφλή εμπιστοσύνη στην Τεχνητή Νοημοσύνη, ξεχνώντας ενίοτε ότι οι απαντήσεις δεν είναι πάντα αληθείς.

Παράδειγμα αποτελεί ότι δύο εφημερίδες στις ΗΠΑ δημοσίευσαν πρόσφατα προτάσεις καλοκαιρινής ανάγνωσης που περιλάμβαναν βιβλία που δεν υπήρχαν, ενώ τον κατάλογο είχαν δημιουργήσει chatbots Τεχνητής Νοημοσύνης.

Δεκαετίες ερευνών καταγράφουν την τάση μας να εμπιστευόμαστε τυφλά το λογισμικό, ακόμη και όταν γνωρίζουμε ότι η ΑΙ δεν είναι αλάνθαστη. Οι νέες μορφές Τεχνητής Νοημοσύνης, οι οποίες είναι ταυτόχρονα ισχυρές και φαινομενικά μυστηριώδεις, είναι επιρρεπείς σε λάθη και υπερβολικά δημοφιλείς.

Απαραίτητη προϋπόθεση για τη χρήση της σύγχρονης Τεχνητής Νοημοσύνης, λοιπόν, είναι η ύπαρξη μέτρου και κατανόησης των κινδύνων που εγκυμονεί η τυφλή προσκόλληση στις πληροφορίες που παρέχονται.

Η Τεχνητή Νοημοσύνη δεν είναι «αναμάρτητη»

Πολλές τεχνολογίες Τεχνητής Νοημοσύνης προειδοποιούν τους χρήστες ότι δεν παρέχουν πάντα στοιχεία που οφείλουν να υιοθετούνται τυφλά και άνευ κριτικής σκέψης.

Το πλαίσιο κειμένου του ChatGPT λέει: «Το ChatGPT μπορεί να κάνει λάθη. Ελέγξτε τις σημαντικές πληροφορίες». Η Tesla λέει ότι πρέπει να είστε συνεχώς σε επαφή με τα χέρια σας με το προηγμένο σύστημα ελέγχου ταχύτητας του αυτοκινήτου της, το οποίο ονομάζει «Autopilot». Οι εταιρείες που πωλούν λογισμικό αναγνώρισης προσώπου που χρησιμοποιείται από τα αστυνομικά τμήματα λένε ότι οι πληροφορίες είναι για ερευνητικά στοιχεία και όχι για λόγους σύλληψης.

Το πρόβλημα, λένε οι ερευνητές της ΑΙ, είναι ότι αυτές οι προειδοποιήσεις αγνοούν, εν τέλει, τον τρόπο με τον οποίο χρησιμοποιούμε στην πραγματικότητα την τεχνολογία – ως μηχανές που παρέχουν τη «σωστή» απάντηση, τονίζει δημοσίευμα της Washington Post.

Οι ερευνητές έχουν περιγράψει εδώ και δεκαετίες μια σειρά από ανθρώπινες προκαταλήψεις σε σχέση τις ηλεκτρονικές συστάσεις, συμπεριλαμβανομένου αυτού που μερικές φορές αποκαλείται «προκατάληψη της αυτοματοποίησης», ή την τάση να αποδεχόμαστε όσα μας λένε τα συστήματα ακόμη και όταν αυτά έρχονται σε αντίθεση με την κοινή λογική ή την επαγγελματική μας κατάρτιση.

Τα συστήματα δημιουργικής Τεχνητής Νοημοσύνης, όπως το ChatGPT και το σύστημα δημιουργίας εικόνων Dall-E από το OpenAI, ενισχύουν αυτή την τάση, δήλωσε η Κέιτ Κρόφορντ, καθηγήτρια στο Πανεπιστήμιο της Νότιας Καλιφόρνιας και συγγραφέας του βιβλίου «Atlas of AI».

«Τα συστήματα Τεχνητής Νοημοσύνης που δημιουργούνται έχουν έναν έγκυρο «τόνο», αλλά και την αύρα της άπειρης τεχνογνωσίας, γεγονός που μπορεί να κάνει τους χρήστες να αισθάνονται ότι κάθε απάντηση είναι σωστή χωρίς να χρειάζεται να την επαληθεύσουν», δήλωσε η Κρόφορντ.

Παραδείγματος χάριν, για χρόνια πολλοί άνθρωποι στις ΗΠΑ που προσπαθούσαν να εντοπίσουν πού βρισκόταν ένας υπολογιστής ή το τηλέφωνό τους, τα οποία χρησιμοποιούνταν για πλαστοπροσωπία, παιδιά που το έσκασαν από το σπίτι τους και υπαίτιους για διαδικτυακή παρενόχληση, τα εντόπιζαν σε μία και μόνο φάρμα στο Κάνσας. Ήταν μια δυσλειτουργία του υπολογιστή.

Κατά τα άλλα λογικοί Αμερικανοί πήγαν στο Κάνσας για να αντιμετωπίσουν το άτομο που πίστευαν ότι τους έκλεψε το τηλέφωνο ή τους παρενοχλούσε διαδικτυακά – επειδή ένας υπολογιστής έβγαλε λάθος απάντηση.

Αυτό το παράδειγμα αποδεικνύει ότι όλοι μας είμαστε επιρρεπείς σε τέτοια λάθη, ειδικά όταν είμαστε αγχωμένοι ή εκνευρισμένοι.

Διασταύρωση πληροφοριών

Ο προγραμματιστής υπολογιστών Σάιμον Γουίλισον δήλωσε ότι είναι βοηθητικό να υποθέσουμε ότι τα chatbots και άλλες νέες μορφές Τεχνητής Νοημοσύνης κάνουν λάθος μέχρι να αποδείξουμε το αντίθετο, μια προσέγγιση που περιέγραψε ως «δυσπιστία με επαλήθευση».

Αυτό είναι διαφορετικό από τον τρόπο με τον οποίο έχουμε συνηθίσει να αντιμετωπίζουμε πολλές άλλες τεχνολογίες. Οι μετεωρολογικές προβλέψεις δεν είναι 100% ακριβείς, αλλά τείνουν να είναι αρκετά αξιόπιστες ώστε να μην παίρνουμε ομπρέλα όταν η πρόβλεψη δίνει ηλιόλουστη μέρα.

Η γενετική Τεχνητή Νοημοσύνη, όμως, επινοεί συνεχώς πράγματα, και αυτό γίνεται όλο και χειρότερο παρά καλύτερο. Η γνώση των εγγενών ελαττωμάτων είναι ένα απαραίτητο σημείο εκκίνησης όταν χρησιμοποιείτε την ΑΙ για να συνοψίσετε πληροφορίες, να επεξεργαστείτε τα email σας και να κάνετε brainstorming, αναφέρει η Washington Post.

«Η γενετική Τεχνητή Νοημοσύνη μπορεί να φαίνεται ότι είναι έξυπνη επειδή επικοινωνιακό χαρακτήρα, αλλά στην πραγματικότητα είναι το αντίθετο», δήλωσε η Μέρεντιθ Μπρουσάρντ, καθηγήτρια δημοσιογραφίας δεδομένων στο Πανεπιστήμιο της Νέας Υόρκης.

Ο Φρανκ Πασκάλ, καθηγητής της Νομικής Σχολής του Cornell, έχει ερευνήσει τα πρόσφατα παραδείγματα δικηγόρων που πιάστηκαν να υποβάλλουν ψευδείς νομικές παραπομπές από chatbots. Οι δικηγόροι υποχρεούνται να διασφαλίζουν ότι οτιδήποτε υποβάλλεται σε ένα δικαστήριο ελέγχεται προηγουμένως από άνθρωπο, αλλά όπως και οι υπόλοιποι από εμάς, οι δικηγόροι μπαίνουν στον πειρασμό των συντομεύσεων που παρέχει η Τεχνητή Νοημοσύνη.

Ο Πασκάλ δήλωσε ότι οι «συγκεκριμένες επιπτώσεις», όπως τα τσουχτερά πρόστιμα ή η προσωρινή απώλεια των επαγγελματικών αδειών των δικηγόρων, θα μπορούσαν να βοηθήσουν στην ανατροπή της «γοητείας» που ασκεί η χρήση της Τεχνητής Νοημοσύνης, αλλά και του μη ελέγχου του παραγόμενου έργου της.

Όταν το αφεντικό σας ή το σχολείο του παιδιού σας «περιμένουν από την Τεχνητή Νοημοσύνη να αυξήσει την παραγωγικότητα και οι θέσεις εργασίας μοιάζουν επισφαλείς, η πίεση αναπόφευκτα θα οδηγήσει σε υπερβολική εξάρτηση από τα εργαλεία τεχνητής νοημοσύνης», δήλωσε ο Έβαν Σέλινγκερ, καθηγητής του Rochester Institute of Technology. «Πολλοί κάνουν αυτό που θεωρούν απαραίτητο για την επιβίωσή τους».

© Πηγή: In.gr

Περισσότερα Video

Ακολουθήστε το Politica στο Google News και στο Facebook