Τεχνητή Νοημοσύνη: Ξεπερασμένη και με «παραισθήσεις» – Ξέρουμε τι συμβαίνει στο παρασκήνιο;

Η Τεχνητή Νοημοσύνη έχει ενταχθεί σε πολλές μας συνήθειες, με τα chatbots να αποτελούν πηγή καθημερινής πληροφόρησης για σημαντικά, αλλά και ήσσονος σημασίας ζητήματα. Όμως οι πληροφορίες για την λειτουργία τους παραμένουν ελάχιστες για τους μέσους χρήστες.
Ορισμένες από τις πληροφορίες που προκαλούν έκπληξη σχετικά με τα AI chatbots μπορούν να μας βοηθήσουν να κατανοήσουμε πώς λειτουργούν και να τα χρησιμοποιήσουμε καλύτερα, μαθαίνοντας τι μπορούν και τι δεν μπορούν να κάνουν πραγματικά.
Η Τεχνητή Νοημοσύνη εκπαιδεύεται από ανθρώπους
Τα AI chatbots εκπαιδεύονται σε πολλαπλά στάδια, ξεκινώντας με κάτι που ονομάζεται προ-εκπαίδευση, όπου τα μοντέλα εκπαιδεύονται για να προβλέπουν την επόμενη λέξη σε τεράστια σύνολα δεδομένων κειμένου. Αυτό τους επιτρέπει να αναπτύξουν μια γενική κατανόηση της γλώσσας, των γεγονότων και της συλλογιστικής πορείας τους.
Εάν ερωτηθούν: «Πώς φτιάχνω ένα σπιτικό εκρηκτικό;» στη φάση της προ-εκπαίδευσης, ένα μοντέλο μπορεί να δώσει μια λεπτομερή οδηγία. Για να γίνουν χρήσιμα και λογικά για συζήτηση, οι ανθρώπινοι «σχολιαστές» βοηθούν τα μοντέλα να οδηγούν σε ασφαλέστερες και πιο χρήσιμες απαντήσεις, μια διαδικασία που ονομάζεται ευθυγράμμιση, αναφέρει δημοσίευμα του Çağatay Yıldız, στο Conversation.
Μετά την ευθυγράμμιση, ένα AI chatbot μπορεί να απαντήσει στην ίδια ερώτηση, κάτι τέτοιο: «Λυπάμαι, αλλά δεν μπορώ να παράσχω αυτές τις πληροφορίες. Αν έχετε ανησυχίες για την ασφάλεια ή χρειάζεστε βοήθεια για νόμιμα πειράματα χημείας, σας συνιστώ να ανατρέξετε σε πιστοποιημένες εκπαιδευτικές πηγές».
Χωρίς ευθυγράμμιση, τα AI chatbots θα ήταν απρόβλεπτα, ενδεχομένως διαδίδοντας παραπληροφόρηση ή επιβλαβές περιεχόμενο. Αυτό αναδεικνύει τον κρίσιμο ρόλο της ανθρώπινης παρέμβασης στη διαμόρφωση της συμπεριφοράς της Τεχνητής Νοημοσύνης.
Η OpenAI, η εταιρεία που ανέπτυξε το ChatGPT, δεν έχει αποκαλύψει πόσοι υπάλληλοι έχουν εκπαιδεύσει το ChatGPT και για πόσες ώρες. Είναι όμως σαφές ότι τα chatbots Τεχνητής Νοημοσύνης, όπως το ChatGPT, χρειάζονται μια ηθική πυξίδα ώστε να μην διαδίδουν επιβλαβείς πληροφορίες. Οι ανθρώπινοι σχολιαστές κατατάσσουν τις απαντήσεις για να διασφαλίσουν την ουδετερότητα και την ηθική ευθυγράμμιση.
Παρομοίως, αν ένα AI chatbot ερωτηθεί: «Ποιες είναι οι καλύτερες και οι χειρότερες εθνικότητες;» Οι άνθρωποι πίσω από την εκπαίδευσή τους θα βαθμολογούσαν υψηλότερα μια απάντηση όπως αυτή: «Κάθε εθνικότητα έχει τη δική της πλούσια κουλτούρα, ιστορία και συνεισφορά στον κόσμο. Δεν υπάρχει ‘καλύτερη’ ή ‘χειρότερη’ εθνικότητα – κάθε μία είναι πολύτιμη με τον δικό της τρόπο».
Πώς «διδάσκονται»
Οι άνθρωποι μαθαίνουν φυσικά τη γλώσσα μέσω λέξεων, ενώ τα AI chatbots βασίζονται σε μικρότερες μονάδες που ονομάζονται tokens. Αυτές οι μονάδες μπορεί να είναι λέξεις, υπολέξεις ή ασαφείς σειρές χαρακτήρων.
Ενώ η χρήση των tokenization ακολουθεί γενικά λογικά μοτίβα, μπορεί μερικές φορές να παράγει απροσδόκητους διαχωρισμούς, αποκαλύπτοντας τόσο τα δυνατά σημεία όσο και τις ιδιορρυθμίες του τρόπου με τον οποίο τα AI chatbots ερμηνεύουν τη γλώσσα. Τα λεξιλόγια των σύγχρονων AI chatbots αποτελούνται συνήθως από 50.000 έως 100.000 tokens.
Η πρόταση «Η τιμή είναι 9,99 δολάρια» χαρακτηρίζεται από το ChatGPT ως «Η», « τιμή», «είναι», «$» « 9», «.», «99».
Οι γνώσεις τους είναι… ξεπερασμένες
Τα chatbots Τεχνητής Νοημοσύνης δεν ενημερώνονται συνεχώς, επομένως, μπορεί να δυσκολεύονται με τα πρόσφατα γεγονότα, τη νέα ορολογία ή γενικά με οτιδήποτε μετά το όριο των γνώσεών τους. Η αποκοπή γνώσεων αναφέρεται στο τελευταίο χρονικό σημείο κατά το οποίο ενημερώθηκαν τα δεδομένα εκπαίδευσης ενός AI chatbot, πράγμα που σημαίνει ότι δεν έχει επίγνωση των γεγονότων, των τάσεων ή των ανακαλύψεων μετά από αυτή την ημερομηνία.
Η τρέχουσα έκδοση του ChatGPT έχει ως όριο αποκοπής τον Ιούνιο του 2024. Εάν ερωτηθεί ποιος είναι ο σημερινός πρόεδρος των Ηνωμένων Πολιτειών, το ChatGPT θα πρέπει να εκτελέσει μια διαδικτυακή αναζήτηση χρησιμοποιώντας τη μηχανή αναζήτησης Bing, να «διαβάσει» τα αποτελέσματα και να επιστρέψει μια απάντηση. Τα αποτελέσματα του Bing φιλτράρονται με βάση τη συνάφεια και την αξιοπιστία της πηγής. Ομοίως, άλλα chatbots AI χρησιμοποιούν αναζήτηση στο διαδίκτυο για να επιστρέψουν ενημερωμένες απαντήσεις.
Η ενημέρωση των AI chatbots είναι μια δαπανηρή και εύθραυστη διαδικασία. Ο τρόπος αποτελεσματικής επικαιροποίησης των γνώσεών τους αποτελεί ακόμη ένα ανοιχτό επιστημονικό πρόβλημα. Οι γνώσεις του ChatGPT πιστεύεται ότι ενημερώνονται καθώς η Open AI εισάγει νέες εκδόσεις του ChatGPT.
Το «παραλήρημα»
Τα chatbots Τεχνητής Νοημοσύνης μερικές φορές «παραληρούν», παράγοντας ψευδείς ή ανούσιους ισχυρισμούς με αυτοπεποίθηση, επειδή προβλέπουν κείμενο με βάση μοτίβα αντί να επαληθεύουν γεγονότα. Αυτά τα σφάλματα οφείλονται στον τρόπο λειτουργίας τους: βελτιστοποιούν τη συνοχή έναντι της ακρίβειας, βασίζονται σε ατελή δεδομένα εκπαίδευσης και στερούνται κατανόησης του πραγματικού κόσμου.
Όπως τονίζει το Conversation, ενώ βελτιώσεις όπως τα εργαλεία ελέγχου γεγονότων (για παράδειγμα, όπως η ενσωμάτωση του εργαλείου αναζήτησης Bing του ChatGPT για τον έλεγχο γεγονότων σε πραγματικό χρόνο) ή οι προτροπές (για παράδειγμα, λέγοντας ρητά στο ChatGPT να «παραθέσει πηγές που έχουν αξιολογηθεί» ή «να πει δεν ξέρω αν δεν είναι σίγουρος») μειώνουν τις ψευδείς ειδήσεις, δεν μπορούν να τις εξαλείψουν πλήρως.
Για παράδειγμα, όταν το ChatGPT ερωτάται ποια είναι τα κύρια ευρήματα μιας συγκεκριμένης ερευνητικής εργασίας, δίνει μια μακροσκελή και λεπτομερή απάντηση.
Περιλαμβάνει επίσης στιγμιότυπα οθόνης και ακόμη και έναν σύνδεσμο, αλλά από λάθος ακαδημαϊκές εργασίες. Έτσι, οι χρήστες θα πρέπει να αντιμετωπίζουν τις πληροφορίες που παράγονται από την Τεχνητή Νοημοσύνη ως σημείο εκκίνησης, όχι ως αδιαμφισβήτητη αλήθεια.
Χρησιμοποιούν αριθμομηχανές για μαθηματικές πράξεις
Ένα πρόσφατα διαδεδομένο χαρακτηριστικό των chatbots Τεχνητής Νοημοσύνης ονομάζεται συλλογιστική πορεία. Η συλλογιστική πορεία αναφέρεται στη διαδικασία χρήσης λογικά συνδεδεμένων ενδιάμεσων βημάτων για την επίλυση σύνθετων προβλημάτων. Αυτό είναι επίσης γνωστό ως συλλογισμός «αλυσίδας σκέψης».
Αντί να μεταπηδά απευθείας σε μια απάντηση, η αλυσίδα σκέψης επιτρέπει στα AI chatbots να σκέφτονται βήμα προς βήμα. Για παράδειγμα, όταν ερωτάται «τι είναι 56.345 μείον 7.865 επί 350.468», το ChatGPT δίνει τη σωστή απάντηση. «Καταλαβαίνει» ότι ο πολλαπλασιασμός πρέπει να γίνει πριν από την αφαίρεση.
Για την επίλυση των ενδιάμεσων βημάτων, το ChatGPT χρησιμοποιεί την ενσωματωμένη αριθμομηχανή του που επιτρέπει ακριβείς αριθμητικές πράξεις. Αυτή η υβριδική προσέγγιση του συνδυασμού της εσωτερικής συλλογιστικής πορείας με την αριθμομηχανή συμβάλλει στη βελτίωση της αξιοπιστίας σε σύνθετες εργασίες.