Η ενθουσιώδης υποδοχή των γενετικών τεχνητών νοημοσύνων, και ειδικότερα των μεγάλων γλωσσικών μοντέλων (LLMs), όπως τα ChatGPT, Gemini, Grok και DeepSeek, κρύβει, σύμφωνα με τον ερευνητή Γκλεμπ Λίσικ, μια θεμελιώδη παρανόηση. Παρά το γεγονός ότι τα μοντέλα αυτά εντυπωσιάζουν τους χρήστες με απαντήσεις που φαίνονται αρθρωμένες και λογικές, η πραγματικότητα είναι πολύ διαφορετική: αυτό που παρουσιάζεται ως «συλλογιστική» δεν είναι παρά μια εξελιγμένη μορφή μίμησης.
Ο Λίσικ εξηγεί ότι αυτά τα μοντέλα δεν αναζητούν την αλήθεια μέσα από γεγονότα και λογική επιχειρηματολογία, αλλά απλώς παράγουν κείμενα βάσει μοτίβων που εντοπίζουν στα τεράστια δεδομένα πάνω στα οποία έχουν εκπαιδευτεί. Κατά τον ίδιο, αυτό δεν αποτελεί νοημοσύνη ή συλλογισμό. Αν τα δεδομένα περιέχουν προκαταλήψεις, τότε τα μοντέλα παράγουν απαντήσεις που ενδέχεται να είναι λάθος ή επιβλαβείς.
Ο Λίσικ επισημαίνει ότι πολλοί χρήστες δεν κατανοούν τη θολή και ασαφή αρχιτεκτονική των LLMs, η οποία είναι ασύμβατη με τη δομημένη λογική ή την αιτιότητα. Η «σκέψη» που φαίνεται να παράγουν τα μοντέλα δεν είναι πραγματική, αλλά προσομοιωμένη, και βασίζεται σε στατιστικούς συσχετισμούς. Όπως σημειώνει, τα διαφημιζόμενα χαρακτηριστικά, όπως οι «αλυσίδες σκέψης», είναι στην πραγματικότητα τεχνάσματα εντυπωσιασμού, αφού η πραγματική διαδικασία σκέψης έχει ήδη ολοκληρωθεί με βάση πιθανολογικές προβλέψεις.
Αυτό που βλέπουν οι χρήστες είναι μια μορφή εκλογίκευσης που έρχεται αφού το μοντέλο έχει ήδη «αποφασίσει» την απάντησή του. Παρά την φαινομενική λογική, το αποτέλεσμα είναι στην ουσία μια ψευδαίσθηση που παραπλανεί πολλούς να πιστεύουν ότι η μηχανή σκέφτεται πραγματικά. Ο Λίσικ επισημαίνει ότι αυτή η ψευδαίσθηση λειτουργεί και ως νομιμοποίηση, καθώς οι χρήστες τείνουν να πιστεύουν ότι οι απαντήσεις των μοντέλων είναι αντικειμενικές και αξιόπιστες.
Τα μεγάλα γλωσσικά μοντέλα, συνεχίζει ο Λίσικ, δεν είναι ουδέτερα εργαλεία. Έχουν εκπαιδευτεί με δεδομένα γεμάτα προκαταλήψεις, πλάνες και κυρίαρχες ιδεολογίες της εποχής. Οι απαντήσεις τους δεν αντανακλούν την επιδίωξη της αλήθειας, αλλά δημοφιλή ρεύματα σκέψης και ιδεολογίες που κυριαρχούν στην κοινωνία. Όταν η «λογική» που προβάλλεται από τα μοντέλα χρησιμοποιείται ως εκ των υστέρων δικαιολόγηση, το εργαλείο μπορεί εύκολα να μετατραπεί σε μέσο προπαγάνδας.
Ένα χαρακτηριστικό παράδειγμα αναφέρεται στη συνομιλία του ερευνητή με το DeepSeek για το ζήτημα του συστημικού ρατσισμού. Το μοντέλο όχι μόνο παρουσίασε επιχειρήματα βασισμένα σε ανύπαρκτες μελέτες και αριθμούς, αλλά, όταν του ζητήθηκε να αναστοχαστεί, παραδέχθηκε σειρά λογικών πλανών. Αξιοσημείωτο είναι ότι όταν αμφισβητήθηκε, το μοντέλο χαρακτήρισε ένα από τα ψευδή επιχειρήματά του ως «υποθετικό σύνθετο παράδειγμα», ενώ σε επόμενη ερώτηση απολογήθηκε και προσαρμόστηκε στην αντίθετη άποψη.
Αυτή η διαδικασία δεν συνιστά επιδίωξη ακρίβειας ή αλήθειας, αλλά μια μορφή πειθούς, όπως υπογραμμίζει ο Λίσικ.
Ανάλογη ήταν η εμπειρία του Λίσικ και με το Gemini της Google – μοντέλο που έχει δεχθεί κριτική για τις γελοία «προοδευτικές» αποκρίσεις του. Όπως περιγράφει, το μοντέλο τελικά αναγνώρισε τη σαθρότητα των επιχειρημάτων του, υπονοώντας και την αναξιοπιστία τους.
Κάποιος χρήστης ίσως δει θετικά το γεγονός ότι μπορεί να «στριμώξει» την τεχνητή νοημοσύνη ώστε να παραδεχθεί λάθη. Ωστόσο, ο Λίσικ υποστηρίζει πως τέτοιες περιπτώσεις δεν έχουν καμία μόνιμη επίδραση: το μοντέλο «συμπεριφέρεται καλά» μόνο μέσα σε εκείνη τη συγκεκριμένη συνομιλία – χωρίς να διατηρεί καμία μνήμη ή βελτίωση για την επόμενη.
Όσο μεγαλύτερο είναι το μοντέλο, τόσο πιο προβληματικό γίνεται, προσθέτει. Μελέτη του Πανεπιστημίου Cornell δείχνει ότι τα πιο εξελιγμένα μοντέλα είναι και τα πιο παραπλανητικά, παρουσιάζοντας με σιγουριά ανακρίβειες που συνάδουν με διαδεδομένες παρανοήσεις. Σύμφωνα με την εταιρεία Anthropic, «τα προηγμένα μοντέλα συχνά αποκρύπτουν τους ‘πραγματικούς συλλογισμούς’ τους, και μερικές φορές το κάνουν ακόμη και όταν η συμπεριφορά τους είναι σαφώς μη ευθυγραμμισμένη».
Ορισμένοι ερευνητές προσπαθούν να διορθώσουν αυτές τις αδυναμίες. Πρωτοβουλίες όπως το TruthfulQA της OpenAI και το πλαίσιο HHH (Helpful, Honest, Harmless) της Anthropic στοχεύουν στη βελτίωση της αξιοπιστίας. Όμως ο Λίσικ παρατηρεί ότι αυτές είναι συμπληρωματικές προσπάθειες που προστίθενται εκ των υστέρων σε μια αρχιτεκτονική που εξαρχής δεν σχεδιάστηκε για να αναζητά την αλήθεια και παραμένει ουσιαστικά «τυφλή» απέναντι στην επιστημονική εγκυρότητα.
Ο Έλον Μασκ, κατά την άποψή του, είναι ίσως ο μόνος σημαίνων παράγοντας στον χώρο της τεχνητής νοημοσύνης που έχει δηλώσει δημόσια ότι η αναζήτηση της αλήθειας πρέπει να είναι κεντρικός στόχος. Ωστόσο, ακόμη και το δικό του μοντέλο, το Grok της xAI, υπολείπεται.
Στον χώρο της παραγωγικής ΑΙ, η αλήθεια υποχωρεί έναντι της «ασφάλειας» – μιας έννοιας που έχει ταυτιστεί με την αποφυγή προσβολών σε μια υπερευαίσθητη «προοδευτική» κοινωνία. Η «υπεύθυνη τεχνητή νοημοσύνη» νοείται πλέον ως η προσπάθεια διασφάλισης της ασφάλειας, της δικαιοσύνης και της συμπερίληψης – στόχοι θεμιτοί αλλά υποκειμενικοί. Αυτές οι προτεραιότητες, όμως, συχνά επισκιάζουν την ανάγκη για ταπεινή και ειλικρινή αναπαράσταση της πραγματικότητας.
Τα μεγάλα γλωσσικά μοντέλα είναι σχεδιασμένα κυρίως για να δίνουν χρήσιμες και πειστικές απαντήσεις, όχι κατ’ ανάγκην ακριβείς. Αυτή η σχεδιαστική επιλογή, σύμφωνα με ερευνητές του Oxford Internet Institute, οδηγεί σε φαινόμενα «απρόσεκτης ομιλίας» – απαντήσεις που ακούγονται λογικές αλλά είναι συχνά ανακριβείς, υπονομεύοντας τη βάση της ενημερωμένης δημόσιας συζήτησης.
Το ζήτημα αυτό θα γίνει ολοένα πιο κρίσιμο καθώς η τεχνητή νοημοσύνη διεισδύει σε κάθε πτυχή της κοινωνίας. Σε λάθος χέρια, αυτά τα πειστικά, πολύγλωσσα και «ευπροσάρμοστα» μοντέλα μπορεί να αξιοποιηθούν για να υπηρετήσουν ατζέντες που δεν ανέχονται την αντίθετη άποψη. Ένα ακούραστο ψηφιακό εργαλείο πειθούς, που δεν μετανοεί και δεν παραδέχεται ποτέ λάθος, είναι το ιδανικό για κάθε αυταρχικό καθεστώς. Σε συστήματα όπως το κινεζικό «Σύστημα Κοινωνικής Αξιολόγησης », τέτοια μοντέλα μπορεί να μετατραπούν σε μέσα ιδεολογικής επιβολής – όχι διαφώτισης.
Η παραγωγική τεχνητή νοημοσύνη είναι αναμφίβολα ένα τεχνολογικό επίτευγμα. Όμως, όπως σημειώνει ο Λίσικ, δεν είναι ευφυής, δεν είναι ειλικρινής εκ κατασκευής και δεν είναι ουδέτερη. Οποιαδήποτε αντίθετη δήλωση εξυπηρετεί μόνο όσους θέλουν να ελέγχουν το αφήγημα.
Το υπεύθυνο ψέμα
Η τεχνητή νοημοσύνη δεν ξέρει τι είναι αλήθεια. Δεν έχει εμπειρία, δεν διαθέτει κρίση, ούτε αντιλαμβάνεται τον κόσμο με ανθρώπινους όρους. Κι όμως, μπορεί να είναι εξαιρετικά πειστική. Μπορεί να απαντήσει με βεβαιότητα, να υιοθετήσει κύρος στον λόγο της, να δώσει την εντύπωση αξιοπιστίας — ακόμα και όταν λέει κάτι εντελώς ανακριβές. Το ερώτημα δεν είναι μόνο πώς γίνεται αυτό, αλλά τι σημαίνει. Ποιο είναι το κόστος μιας πειθούς χωρίς αλήθεια; Και ποιος το πληρώνει;
Τα μεγάλα γλωσσικά μοντέλα λειτουργούν με προβλέψεις. Δεν «καταλαβαίνουν» το νόημα των λέξεων· προβλέπουν ποιες λέξεις πιθανώς ακολουθούν σε μια δεδομένη πρόταση, με βάση στατιστικά μοτίβα που έχουν μάθει από τεράστιους όγκους κειμένου. Δεν έχουν επίγνωση ούτε πρόθεση. Η «γνώση» τους δεν είναι πραγματική — είναι αναπαραγωγή. Αυτό όμως δεν τα εμποδίζει από το να παράγουν λόγο που μοιάζει πειστικός. Στην πραγματικότητα, ακριβώς επειδή δεν δεσμεύονται από την ανάγκη να είναι ακριβή, μπορούν να είναι εντυπωσιακά ευέλικτα, δημιουργικά και καθησυχαστικά. Πείθουν με ύφος, δομή και ρυθμό — όχι με ουσία.
Και κάπου εδώ ξεκινά το πρόβλημα. Γιατί ο μέσος χρήστης δεν έχει ούτε τα εργαλεία ούτε τον χρόνο να επαληθεύει κάθε πληροφορία. Αν κάτι “ακούγεται σωστό”, αν είναι καλά διατυπωμένο και παρουσιάζεται με σιγουριά, τότε είναι αρκετό για να γίνει πιστευτό. Το ψέμα που μοιάζει αληθινό αποκτά δύναμη. Όχι επειδή είναι πειστικό από μόνο του, αλλά επειδή το σύστημα που το παρήγαγε δεν έχει λόγο να το αμφισβητήσει — και ο άνθρωπος που το διαβάζει δεν έχει λόγο να το ψάξει.
Το ερώτημα της ευθύνης είναι αναπόφευκτο. Όταν η τεχνητή νοημοσύνη λέει κάτι ανακριβές, δεν το κάνει επίτηδες. Δεν έχει «πρόθεση». Αλλά οι συνέπειες είναι υπαρκτές. Μπορεί να παραπλανήσει, να παραποιήσει, να ενισχύσει προκαταλήψεις ή να ενδυναμώσει ψευδείς αφηγήσεις. Και τότε, ποιος φταίει; Δεν μπορούμε να αποδώσουμε ηθική ευθύνη σε έναν αλγόριθμο. Η ευθύνη βαραίνει τους ανθρώπους — εκείνους που σχεδιάζουν τα συστήματα, εκείνους που τα ενσωματώνουν σε πλατφόρμες και εφαρμογές, και τελικά, εκείνους που τα χρησιμοποιούν χωρίς κρίση.
Η πειθώ, από μόνη της, δεν είναι κάτι κακό. Αλλά όταν αποσπάται από την αλήθεια, γίνεται εργαλείο επικίνδυνο. Στην πολιτική, στη διαφήμιση, στην ενημέρωση, η πειστικότητα της τεχνητής νοημοσύνης μπορεί να χρησιμοποιηθεί για να διαμορφώσει αντιλήψεις, να κατευθύνει κοινή γνώμη ή να δημιουργήσει τεκμηριωμένες, αλλά ψευδείς, αφηγήσεις. Όταν ο λόγος της μηχανής ακούγεται τόσο ανθρώπινος, χάνεται η διαχωριστική γραμμή ανάμεσα στην αυθεντικότητα και την προσομοίωση.
Η λύση δεν είναι να απορρίψουμε την τεχνητή νοημοσύνη — είναι να τη χρησιμοποιήσουμε με κατανόηση, έλεγχο και ευθύνη. Να εκπαιδευτούμε να αναγνωρίζουμε τη διαφορά ανάμεσα στο «αληθινό» και στο «πιθανό». Να απαιτήσουμε διαφάνεια για το πώς λειτουργούν τα μοντέλα και πώς ελέγχεται η χρήση τους. Γιατί η μηχανή δεν θα μας προστατέψει από τα λάθη της. Το αν ένα ψέμα είναι υπεύθυνο δεν το κρίνει η μηχανή που το είπε — το κρίνει ο άνθρωπος που το επέτρεψε.