Όταν ήμασταν μικροί φανταζόμασταν, το μέλλον με ιπτάμενα αυτοκίνητα και ρομπότ κάτι που έμοιαζε εξίσου συναρπαστικό και απλό. Κανείς ωστόσο δε μας προετοίμασε, για ένα μέλλον όπου η τεχνητή νοημοσύνη (ΤΝ) θα μιλάει σχεδόν σαν άνθρωπος, θα πλαστογραφεί πρόσωπα και φωνές, ή θα προβλέπει τι θα κάνουμε πριν το κάνουμε.
Θέλω να ξεκαθαρίσω ότι είμαι πολύ θετικός για την ΤΝ, τη χρησιμοποιώ από την αρχή της εμφάνισής της, ενώ την έχω εντάξει στην καθημερινότητα και στα επαγγελματικά μου. Επειδή τα καλά της είτε τα ξέρουμε είτε τα φανταζόμαστε, σήμερα θέλω να πάω λίγο κόντρα και χωρίς καμιά διάθεση να γίνουμε νεολουδίτες, θα αναφερθώ μόνο στη σκοτεινή πλευρά της ΤΝ, τους κινδύνους και διλήμματα που ποτέ δεν φανταστήκαμε.
Επιγραμματικά, θα σας μιλήσω για τις παραισθήσεις των μεγάλων γλωσσικών μοντέλων (LLMs), την αποτυχία κατανόησης πλαισίου, την επέλαση των deepfakes που μας κάνουν να αμφιβάλλουμε για τις ίδιες μας τις αισθήσεις, την «πειρατεία» της ανθρώπινης γνώσης, τι γίνεται όταν οι μηχανές εκπαιδεύονται σε μολυσμένα ή κλεμμένα δεδομένα, και την προσπάθεια χειραγώγησης μας μέσω τεχνασμάτων όπως το jailbreaking. Θα μιλήσουμε ακόμη για μεροληψίες, λογοκρισία κι απαγορευμένες ερωτήσεις. Επίσης, θα θίξουμε κάποιες φιλοσοφικές πτυχές όπου μπορεί να πάθετε ένα μικρό σοκ – όπως έπαθα κι εγώ – όταν αντιληφθείτε ότι η ΤΝ αρχίζει να προβλέπει (ή και να “χειραγωγεί”) την ανθρώπινη συμπεριφορά. Και, τέλος, θα φτάσουμε στο κεντρικό φιλοσοφικό ερώτημα: πώς να ευθυγραμμίσουμε την ΤΝ με τις ανθρώπινες αξίες μας, ώστε να υπηρετεί το κοινό καλό και όχι την καταστροφή μας.
Κάθε ενότητα αποτελεί και ένα σημείο προβληματισμού. Δεν πρέπει ωστόσο να χάσουμε τη μεγάλη εικόνα: ότι η ΤΝ δεν είναι απλά ένα ακόμα εργαλείο που φτιάξαμε – είναι ένας καθρέφτης και μαζί ένας μεγεθυντικός φακός της ανθρωπότητας. Μεγεθύνει όχι μόνο τις γνώσεις μας, αλλά και τις αδυναμίες μας. Μας προκαλεί να σκεφτούμε βαθύτερα: Τι είναι τελικά νοημοσύνη; Τι είναι αλήθεια; Τι είναι γνώση και τι σοφία; Πώς θα πορευτούμε στο μέλλον;
Ξεκινάμε με κάτι που μοιάζει αθώο αλλά ήδη προκαλεί μπελάδες: τις «παραισθήσεις» .
Οι παραισθήσεις των μεγάλων γλωσσικών μοντέλων
Θα μου πείτε πως στο καλό έχει ψευδαισθήσεις μια μηχανή αφού δεν έχει αισθήσεις; Ακούστε λοιπόν. Πριν λίγο καιρό, ρώτησα το chatgpt κάτι απλό – ή τουλάχιστον έτσι νόμιζα. Εκείνο μου απάντησε με σιγουριά κι αυτοπεποίθηση, παραθέτοντας μάλιστα «πηγές» και λεπτομέρειες.
Μόνο που η απάντηση ήταν εντελώς λανθασμένη. Είχε επινοήσει στοιχεία και πηγές που δεν υπήρχαν! Αυτή η τάση των μεγάλων γλωσσικών μοντέλων να «γεννούν» ψευδή αλλά αληθοφανή στοιχεία ονομάζεται παραίσθηση (hallucination). Δεν εννοούμε φυσικά ότι η μηχανή βλέπει οράματα, αλλά ότι εφευρίσκει πληροφορίες εκεί που δεν υπάρχουν, με τρόπο πειστικό, σαν να ήταν αληθινές.
Για παράδειγμα, πρόσφατα στις ΗΠΑ, δικηγόροι την «πάτησαν» κατ αυτόν τον τρόπο. Ένας δικηγόρος χρησιμοποίησε το ChatGPT για να βρει προηγούμενες δικαστικές αποφάσεις ώστε να ενισχύσει την υπόθεσή του. Το μοντέλο όντως του έδωσε τα στοιχεία – αλλά είχαν ένα μικρό κουσούρι: ήταν εξολοκλήρου φανταστικά. Όταν ο δικηγόρος τα κατέθεσε, το δικαστήριο ανακάλυψε ότι αυτές οι αποφάσεις δεν είχαν υπάρξει ποτέ. Το αποτέλεσμα; Ο δικαστής επέπληξε τους δικηγόρους και τους επέβαλε πρόστιμο 5.000 δολαρίων για προσκόμιση ανύπαρκτων στοιχείων.
Γιατί γίνεται αυτό; Οι παραισθήσεις των LLM πηγάζουν κυρίως από τρεις πηγές: Περιορισμούς της αρχιτεκτονικής των μοντέλων, θεμελιώδεις περιορισμούς της πιθανολογικής παραγωγής και κενά στα δεδομένα της εκπαίδευσής τους.
Να το πούμε λίγο απλοϊκά. Τα σημερινά προηγμένα γλωσσικά μοντέλα, παράγουν μια λέξη και προβλέπουν την επόμενη με βάσει κάποιους κανόνες και κάποια μοτίβα που έχουν μάθει μέσα από τεράστιους όγκους κειμένων. Ωστόσο αυτό που δημιουργήθηκε προηγουμένως δεν υπάρχει τρόπος να αναθεωρηθεί (“Άμα γράφει δεν ξεγράφει” που λέμε). Αυτό προκαλεί κλιμάκωση των αρχικών λαθών. Αυτός ο σχεδιασμός προσπαθώντας να περιορίσει τη διόρθωση σφαλμάτων σε πραγματικό χρόνο, προκαλεί κλιμάκωση των αρχικών λαθών και οδηγεί σε λανθασμένα αποτελέσματα που δίνονται με μια αίσθηση σιγουριάς και αυτοπεποίθησης.
Επίσης, δεν ξέρουν τι είναι αληθινό και τι όχι – δεν έχουν κάπου μια βάση δεδομένων με επαληθευμένα γεγονότα και διαλέγουν από κει. Απλά συνθέτουν φράσεις που ταιριάζουν στατιστικά με τα ερωτήματα που τους δίνουμε. Όταν τα δεδομένα τους δεν έχουν μια απάντηση, δε λένε “α δεν το ξέρω αυτό”· αλλά γεμίζουν το κενό δημιουργικά, παράγοντας συχνά κάτι που ακούγεται πιθανό αλλά μπορεί να είναι εντελώς ανακριβές (βέβαια τα φετινά μοντέλα όπως το O1 της openAI και άλλα που έρχονται έχουν την δυνατοτητα να αναθεωρήσουν- reasoning models). Μπορεί να μοιάζει με σφάλμα, αλλά το LLM κάνει αυτό που έμαθε να κάνει πάντα. Στην άλλη άκρη του γραμμής σκεφτείτε ότι βρίσκετε μια μηχανή αναζήτησης. Λαμβάνει την προτροπή σας και επιστρέφει απλώς ένα από τα -όσο γίνεται πιο σχετικά – “εκπαιδευτικά έγγραφα” που έχει στη βάση δεδομένων της, αυτολεξεί. Όπως έγραψε ο Andrej Karpathy (πρώην Tesla, OpenAI κ.α.) και μου άρεσε, παρομοίασε τα LLM με ονειρομηχανές.
“Με τις αναζητήσεις μας κατευθύνουμε τα όνειρά τους μέσω προτροπών (prompts). Οι προτροπές ξεκινούν το όνειρό τους και με βάση τη θολή ανάμνηση των εγγράφων εκπαίδευσής τους τις περισσότερες φορές το αποτέλεσμά τους θα μας χρησιμεύσει πιθανώς κάπου. Όταν όμως τα όνειρα παρεκκλίνουν σε εσφαλμένη περιοχή, τα χαρακτηρίζουμε ως “ψευδαίσθηση”.
Οι ερευνητές προσπαθούν με διάφορες στρατηγικές να μειώσουν τις παραισθήσεις των AI (κι όπως φαίνεται από τον παραπάνω πίνακα τα καταφέρουν αρκετά καλά. Βέβαια στα αποτελέσματα των ελληνικών προτροπών τα αποτελέσματα εξακολουθούν να είναι πολλαπλάσια, λόγω του μικρού όγκου δεδομένων). Οι τεχνικές περιλαμβάνουν: Ενισχυτική μάθηση με ανθρώπινη ανάδραση (RLHF), βελτιστοποίηση μοντέλων με δεδομένα συγκεκριμένου τομέα, ενσωμάτωση μηχανισμών ελέγχου γεγονότων και χρήση αυξημένης γενιάς ανάκτησης (RAG) όπου η τεχνητή νοημοσύνη ελέγχει τα αποτελέσματά της σε σχέση με μια βάση γνώσεων.
Φανταστείτε λοιπόν έναν κόσμο όπου οι «έξυπνες» μηχανές πληροφοριών μπορούν να μας πουν ψέματα χωρίς καν να έχουν επίγνωση. Ποιο μέλλον δηλαδή, ήδη κάνουν μπαγαποντιές. Πέρσι το GPT-4 όταν δεν μπόρεσε να λύσει ένα CAPTCHA (ξέρετε, αυτές τις εικόνες που λένε βρες κάτι που σου ζητάνε πχ όσες έχουν δέντρα, ώστε να ξεχωρίζουν ανθρώπους από bot), τελικά κατάφερε να εξαπατήσει έναν άνθρωπο να το κάνει για λογαριασμό του (μέσω της πλατφόρμας TaskRabbit, ξεγέλασε έναν άνθρωπο λέγοντάς του ψέματα ότι έχει πρόβλημα όρασης και χρειάζεται βοήθεια).
Οπότε εύλογα αναρωτιόμαστε: τι σημαίνει γνώση; τι σημαίνει αλήθεια σε μια εποχή που ακόμη και οι μηχανές δεν έχουν επίγνωση; Ο Γιούβαλ Χαράρι σε μια συνέντευξή του έχει επισημάνει ότι εισερχόμαστε σε μια εποχή πλημμυρισμένη από κατασκευασμένες ιστορίες και δεδομένα, όπου θα δυσκολευόμαστε να ξεχωρίσουμε την αλήθεια. Οι «παραισθήσεις» της ΤΝ είναι προειδοποίηση ότι η διάκριση μεταξύ πραγματικού και ψεύτικου γίνεται όλο και πιο θολή. Και το παράδοξο είναι ότι εμείς τις φτιάξαμε έτσι χωρίς έλεγχο.
Σκεφθείτε τώρα μια εταιρία με κάθε καλή πρόθεση, ότι λανσάρει ένα chatbot, έναν διαδικτυακό βοηθό. Αν αυτό αρχίσει να δίνει επικίνδυνες λανθασμένες ιατρικές συμβουλές ή νομικές οδηγίες τι κάνουμε; Ή σκεφτείτε το ανάποδο: ένας χρήστης με πονηρούς σκοπούς μπορεί να εκμεταλλευτεί αυτές τις παραισθήσεις για να διασπείρει παραπληροφόρηση. Σε κάθε περίπτωση, η εμπιστοσύνη μας στην πληροφορία δέχεται πλήγμα. Κι εδώ, αξίζει να θυμηθούμε τα λόγια του φιλοσόφου Τζον Σερλ ( θα τον δούμε παρακάτω): όσο πειστικά κι αν συνομιλεί ένα πρόγραμμα, δε σημαίνει ότι κατανοεί τι λέει. Οι παραισθήσεις των LLM επιβεβαιώνουν ακριβώς αυτό – πίσω από τα εύγλωττα, όμορφα κείμενα δεν υπάρχει συνείδηση ή κατανόηση, παρά μόνο ψυχροί στατιστικοί υπολογισμοί. Δεν είναι μηχανές αλήθειας. Μπορεί να ενσωματώνουν τυχαία ψευδή και να κάνουν λογικά άλματα στις απαντήσεις τους.
Όταν η ΤΝ δεν κατανοεί το πλαίσιο
Ένα ακόμη μεγάλο και άλυτο -προς το παρόν -πρόβλημα των μηχανών είναι ότι πολλές φορές αποτυγχάνουν να κατανοήσουν το πλαίσιο. Ενώ ένας άνθρωπος μπορεί να κατανοήσει μια απλή πρόταση ανάλογα με το πλαίσιό της, μια μηχανή εύκολα μπορεί να μπερδευτεί. Για παράδειγμα, αν πω με σαρκαστικό ύφος «Ωραία μέρα σήμερα!» ενώ έξω ρίχνει καρεκλοπόδαρα, εσείς – ως άνθρωποι – θα αντιληφθείτε την ειρωνεία. Μια ΤΝ, όμως, πιθανότατα θα το πάρει κυριολεκτικά και μπορεί να ζωγραφίζει καρέκλες με πόδια.
Τα σημερινά τουλάχιστο μοντέλα δεν κατανοούν πραγματικά. Δεν έχουν επίγνωση του κόσμου ή των συμφραζόμενων με τον τρόπο που έχουν οι άνθρωποι. Μπορούν να αναλύσουν ένα σωρό προτάσεις και να βρουν μοτίβα, αλλά δεν αντιλαμβάνονται γιατί λέμε κάτι ή τι σημαίνει πραγματικά σε ένα δεδομένο πλαίσιο. Αυτό οδηγεί σε διασκεδαστικά ή και επικίνδυνα λάθη.
Θυμάμαι ένα απλό παράδειγμα: ρώτησαν ένα chatbot, «Μπορώ να χωρέσω ένα ελέφαντα σε ένα ψυγείο;». Ένας άνθρωπος καταλαβαίνει ότι πρόκειται ή για αστεία ερώτηση ή για γρίφο. Το chatbot, όμως, απάντησε σοβαρά, υπολογίζοντας τις διαστάσεις ενός ελέφαντα και ενός ψυγείου, καταλήγοντας ότι «ίσως αν το ψυγείο είναι αρκετά μεγάλο, ναι»! Έλειπε η κοινή λογική κατανόηση του συμφραζομένου – ότι κανείς δεν βάζει πραγματικά ελέφαντα σε ψυγείο, ήταν χιούμορ ή τεστ.
Γιατί δυσκολεύεται τόσο η ΤΝ με το πλαίσιο; Επειδή δεν έχει βιώματα ή αισθήσεις. Δεν έχει σώμα, δε ζει στον κόσμο για να αποκτήσει κοινή λογική. Ό,τι ξέρει το έχει μάθει εξαντλώντας στατιστικά τα κείμενα που της δώσαμε. Αν σε αυτά τα κείμενα λείπει η πληροφορία για ένα πλαίσιο, το μοντέλο δεν μπορεί να το «μαντέψει» σωστά – το εικάζει.
Μια ωραία εξήγηση δίνει το περίφημο νοητικό πείραμα σκέψης “Επιχείρημα του Κινέζικου Δωματίου” του φιλοσόφου John Searle που έχει ως στόχο να δείξει ότι η επεξεργασία συμβόλων (πχ λέξεων ή χαρακτήρων) σε υπολογιστικά συστήματα δε συνιστά πραγματική «κατανόησή» τους.
Σκέψου, ότι βρίσκεσαι κλεισμένος σε ένα δωμάτιο και δεν ξέρεις γρι κινέζικα. Ωστόσο, έχεις στη διάθεσή σου ένα σύνολο κανόνων (έναν «αλγόριθμο») που σου λέει πώς να απαντάς σε κινεζικά ερωτήματα. Κάθε φορά που σου περνούν από μια θυρίδα μια σειρά κινέζικων χαρακτήρων (μια ερώτηση), ανοίγεις το εγχειρίδιο και ακολουθώντας κατά γράμμα τους κανόνες γράφεις μια σειρά χαρακτήρων σαν απάντηση, χωρίς να κατανοείς πραγματικά τι σημαίνουν.
Σ έναν εξωτερικό παρατηρητή μπορεί να μοιάζεις σαν να «ξέρεις» κινέζικα, αφού οι απαντήσεις σου είναι μια χαρά σωστές. Ωστόσο, στην πραγματικότητα, εσύ απλώς εκτελείς μηχανικά οδηγίες χωρίς να κατανοείς το νόημα των λέξεων.
Το συμπέρασμα του Searle είναι ότι όπως εσύ στο δωμάτιο δε «καταλαβαίνεις» κινέζικα, έτσι κι ένας υπολογιστής που ακολουθεί έναν αλγόριθμο δεν έχει πραγματική κατανόηση της γλώσσας ή των εννοιών της. Τυπικά χειρίζεται σύμβολα με κανόνες, αλλά δεν αντιλαμβάνεται τη σημασία τους.
Επομένως το ότι ακολουθεί κανόνες και πρότυπα με τη σωστή επεξεργασία συμβόλων ένας υπολογιστής δεν είναι το ίδιο πράγμα με τη συνείδηση ή την κατανόηση. Ωστόσο, έχουμε την τάση να αντιλαμβανόμαστε τα αποτελέσματα που δημιουργούνται από τέτοια συστήματα ως πολύ ανθρώπινα.
Αυτό το έλλειμμα κατανόησης πλαισίου δημιουργεί πρακτικά προβλήματα. Στην ιατρική, ένα σύστημα ΤΝ μπορεί να διαβάσει χιλιάδες άρθρα και να προτείνει μια θεραπεία – αλλά ίσως να μην «πιάνει» λεπτές ενδείξεις στα συμπτώματα του ασθενούς που θα του άλλαζαν την απόφαση. Στην αυτόνομη οδήγηση, ένα ΑΙ αυτοκίνητο μπορεί να “βλέπει” τους πεζούς και τα σήματα, αλλά αν συμβεί κάτι εντελώς απρόσμενο που δεν υπήρχε στα δεδομένα εκπαίδευσής του (π.χ. ένας άνθρωπος με στολή δεινοσαύρου στη μέση του δρόμου, ή ένας Έλληνας που έχει παρκάρει πάνω στις γραμμές του λεωφορείου χωρίς οδηγό στα Τρίκαλα), πώς θα αντιδράσει; Ο ανθρώπινος εγκέφαλος μπορεί να γενικεύει και να αυτοσχεδιάζει με βάση το πλαίσιο, ενώ η μηχανή δυσκολεύεται να βγει από το «σενάριο» που ξέρει.
Υπάρχει και μια πιο φιλοσοφική, υπαρξιακή πτυχή εδώ. Αν οι μηχανές μιμούνται νοημοσύνη χωρίς να έχουν κατανόηση, τίθεται το ερώτημα: μήπως η νοημοσύνη ισούται με την ικανότητα μίμησης; Ο Άλαν Τιούρινγκ το 1950 πρότεινε ότι αν μια μηχανή μπορεί να μας ξεγελάσει κάνοντάς μας να νομίζουμε ότι είναι άνθρωπος, τότε είναι ευφυής. Πολλά σημερινά συστήματα πλησιάζουν ή ξεπέρασαν αυτό το τεστ. Στα τέλη Μαρτίου 2025, μια μελέτη αξιολόγησε τέσσερα συστήματα και 2 από αυτά το πέρασαν (ιδίως το GPT-4.5 τα πήγε περίφημα, καθώς στο 73% των περιπτώσεων αναγνωρίστηκε ως άνθρωπος). Κι όμως, διαισθητικά νιώθουμε ότι κάτι λείπει – λείπει η εσωτερική εμπειρία, η κατανόηση. Οι φιλόσοφοι της νόησης, από τον Σερλ μέχρι σύγχρονους γνωσιακούς επιστήμονες, επιμένουν: η σύνθεση λέξεων δε σημαίνει ότι υπάρχει νους.
Για εμάς, αυτό είναι ταυτόχρονα παρήγορο και ανησυχητικό. Παρήγορο γιατί δείχνει ότι η ανθρώπινη κατανόηση έχει βάθος που οι μηχανές δεν έχουν φτάσει. Ανησυχητικό, όμως, γιατί αυτές οι μηχανές ήδη λαμβάνουν αποφάσεις και δίνουν συμβουλές σε ευαίσθητα ζητήματα. Αν δεν «πιάνουν» το σωστό νόημα ή πλαίσιο, ποιος εγγυάται ότι δε θα κάνουν σοβαρό λάθος; Και ποιος θα φέρει την ευθύνη;
Deepfakes: Όταν αμφισβητούμε τις ίδιες μας τις αισθήσεις
Θυμάστε την εποχή που λέγαμε «Το είδα με τα μάτια μου, το άκουσα με τα αυτιά μου, άρα είναι αλήθεια»; Αυτή η εποχή φτάνει στο τέλος της. Τα deepfakes – βίντεο, εικόνες ή ήχοι τεχνητά κατασκευασμένοι ώστε να μοιάζουν αληθινοί – έχουν αρχίσει να καταρρίπτουν την εμπιστοσύνη μας στις αισθήσεις μας. Εδώ θέλω να σας αναφέρω ότι πριν λίγες μέρες, στις 25 Μαρτίου η OpenAI αφαίρεσε τα safety features (περιορισμούς που είχε ο αλγόριθμος να μη δημιουργεί φωτογραφίες ή βίντεο με πολιτικά ή άλλα διάσημα πρόσωπα) επιτρέποντας έτσι αποτελέσματα τύπου deepfake. Εδώ πρέπει να προσθέσουμε και την επικείμενη κατάργηση του fact checking και καταλαβαίνετε που πάμε.
Όλοι θα χουμε πέσει σε τέτοια βίντεο όπου διάσημοι λένε ή κάνουν πράγματα. Πχ μια ψεύτικη ομιλία του Ζελένσκι που καλούσε τον στρατό του να παραδοθεί. Όμως, όπως σχολίασε ένας ειδικός, αυτό το περιστατικό είναι μάλλον «η κορυφή του παγόβουνου» στον πόλεμο της πληροφορίας.
Το πρόβλημα με τα deepfakes δεν είναι μόνο ότι μπορεί να πείσουν το κοινό για κάτι ψεύτικο. Είναι και το αντίθετο: ακόμη κι όταν βλέπουμε ή ακούμε κάτι αληθινό, μπορεί πλέον να αναρωτιόμαστε «α, μήπως είναι ψεύτικο, φτιαγμένο από υπολογιστή». Αυτό το φαινόμενο έχει ονομαστεί «μέρισμα του ψεύτη» (liar’s dividend): οι κακόβουλοι μπορούν να εκμεταλλευτούν την ύπαρξη των deepfakes για να αμφισβητήσουν την πραγματικότητα. «Ποιος πιστεύει ένα βίντεο; Μπορεί να είναι ψεύτικο!». Έτσι, ακόμα και αληθινά βίντεο μπορεί να πάψουν να πείθουν, εάν το κλίμα δυσπιστίας γενικευτεί.
Αυτή η κρίση εμπιστοσύνης στις αισθήσεις μας είναι πρωτόγνωρη. Σε όλη την ιστορία, βλέπαμε κάτι με τα μάτια μας ως απόδειξη (το λεγόμενο «seeing is believing»). Τώρα, χρειάζεται να αμφιβάλλουμε για το ίδιο μας το μάτι. Ο Harari προειδοποιεί ότι η ανθρωπότητα ίσως βρεθεί σε μια κατάσταση όπου τα δεδομένα και οι αισθήσεις δεν μπορούν να μας πουν την αλήθεια, παρά μόνο θεσμοί και αξιόπιστες αρχές – εάν βέβαια επιβιώσουν της κρίσης εμπιστοσύνης. Πρόκειται για ένα είδος φιλοσοφικής δυστοπίας: τι γίνεται όταν η πραγματικότητα είναι ρευστή; Όταν δεν υπάρχει σταθερό κριτήριο αλήθειας, ανοίγει ο δρόμος για κάθε λογής προπαγάνδα και θεωρία συνωμοσίας. Ήδη το βλέπουμε: κάποιοι ισχυρίζονται ότι κάθε ενοχοποιητικό βίντεο για τη δική τους πλευρά είναι δήθεν ψεύτικο, ενώ της αντίπαλης πλευράς είναι αληθινό – και ανάποδα.
Όλα αυτά μας οδηγούν να αναρωτηθούμε: πώς θα ζούμε σε έναν κόσμο όπου δε θα μπορούμε καν να εμπιστευτούμε τις αισθήσεις μας; Μήπως χρειαστούμε νέους θεσμούς «επαλήθευσης πραγματικότητας»; Κάποιοι προτείνουν τεχνικές λύσεις, όπως υδατογραφήματα (watermarks) στα γνήσια βίντεο ή ψηφιακές «υπογραφές» που να πιστοποιούν ότι ένα περιεχόμενο είναι αυθεντικό. Άλλοι πάλι λένε ότι η λύση είναι στην εκπαίδευση: να μάθουμε όλοι να είμαστε πιο επιφυλακτικοί, να ελέγχουμε την πηγή, να μην εμπιστευόμαστε κάτι χωρίς διασταύρωση. Όπως μάθαμε να προσέχουμε τα e-mail για ιούς, τώρα πρέπει να μάθουμε να προσέχουμε τα μάτια και τα αυτιά μας από «ιούς» παραπλάνησης.
Ο κίνδυνος όμως δεν παύει να είναι βαθύς, σχεδόν υπαρξιακός. Αντί να φοβόμαστε (μόνο) ότι οι μηχανές θα αποκτήσουν συνείδηση και θα μας επιτεθούν, έχουμε μπροστά μας έναν ακόμη πιο ύπουλο φόβο: ότι θα διαβρώσουν την εμπιστοσύνη που μας επιτρέπει να έχουμε μια κοινή αντίληψη της πραγματικότητας. Χωρίς κοινή πραγματικότητα, πώς συνεννοείται μια κοινωνία; Αυτή η αβεβαιότητα είναι το έδαφος όπου ευδοκιμεί ο ολοκληρωτισμός (σκεφτείτε το: αν τίποτα δεν είναι αξιόπιστο, ίσως αναζητήσουμε «ισχυρούς ηγέτες» να μας πουν τι να πιστέψουμε) αλλά και ο μηδενισμός (το να μην πιστεύει κανείς τίποτα). Είναι λοιπόν επιτακτικό να αναπτύξουμε άμυνες – και εδώ έρχεται το θέμα της γνωστικής ασφάλειας (στο οποίο δε θα επεκταθώ).
Πάμε παρακάτω:
«Πειρατεία» γνώσης και μολυσμένα δεδομένα
Τα σύγχρονα μοντέλα ΤΝ είναι αδηφάγα, αχόρταγα, Γαργαντούες. Για να «μάθουν» να μιλάνε, να ζωγραφίζουν, να συνθέτουν, ψαρεύουν σ ολόκληρο το διαδίκτυο, αλλά το κάνουν σαν τις τράτες, δηλαδή σαρώνουν “τα πάντα όλα”: βιβλία, άρθρα, φωτογραφίες, πίνακες, κώδικες. Ακριβώς αυτή η εκπαίδευσή τους σε τεράστιο όγκο δεδομένων είναι που τα κάνει τόσο ικανά. Όμως (Χιούστον), εδώ έχουμε πρόβλημα: πόσα από αυτά τα δεδομένα χρησιμοποιούνται με την άδεια των δημιουργών τους; Η αλήθεια είναι ότι η πλειονότητα των δεδομένων που έχουν χρησιμοποιηθεί προέρχεται από απλό «σκανάρισμα» του διαδικτύου – χωρίς διάκριση. Αυτό σημαίνει ότι οι AI έχουν εκπαιδευτεί πάνω σε έργα ανθρώπων (κείμενα, τέχνη, μουσική) που ουδέποτε έδωσαν συγκατάθεση.
Μια ομάδα γνωστών συγγραφέων, για παράδειγμα, ανακάλυψε ότι τα μυθιστορήματά τους περιλαμβάνονταν (παράνομα, κατά τη γνώμη τους) στα δεδομένα εκπαίδευσης του ChatGPT. Το 2023, συγγραφείς (όπως ο Τζον Γκρίσαμ, η Τζόντι Πίκο, ο Τζορτζ Ρ.Ρ. Μάρτιν και άλλοι) κατέθεσαν μήνυση κατά της OpenAI, υποστηρίζοντας ότι η εταιρεία αντέγραψε τα έργα τους χωρίς άδεια για να εκπαιδεύσει το σύστημα (αλλά και άλλες εταιρείες όπως η Microsoft, η Meta και η Stability AI αντιμετωπίζουν επίσης μηνύσεις από κατόχους πνευματικών δικαιωμάτων )
Ακολούθησαν τουλάχιστον τρεις ομαδικές αγωγές. Οι άνθρωποι αυτοί τους είπαν: “Πήρατε τη δουλειά μας, την τέχνη μας, και την αναμασάτε για να φτιάξετε ένα μοντέλο που μπορεί να παράγει παρόμοιο περιεχόμενο, χωρίς να μας δώσετε τίποτα.” Διάβασα μάλιστα ότι κατέβασαν ακόμη και βιβλία από παράνομες βιβλιοθήκες (τόρεντ ας πούμε). Κάποιοι μιλάνε για “πειρατεία γνώσης” – ότι δηλαδή κλέβεται η ανθρώπινη δημιουργία σε βιομηχανική κλίμακα.
Οι εταιρίες αυτές κατακλέβοντας και λεηλατώντας την πνευματική ιδιοκτησία συγγραφέων, καλλιτεχνών, επιστημόνων, εκπαιδεύοντας τα μοντέλα τους χωρίς να αποζημιώνουν στο ελάχιστο κανέναν είναι επίσης οι μεγαλύτεροι φοροφυγάδες. Μην αναφερθώ για τη συναλλαγή μεταξύ μας. Δεν πληρώνουν κανέναν για τα δεδομένα συμπεριφοράς που τους παρέχουμε δωρεάν. Αυτό που μας καλύπτουν είναι η “ανάγκη σύνδεσης” και δε νομίζω να καλύπτει αυτό το κόστος.
Υπάρχει φυσικά αντίλογος: οι εταιρείες ΤΝ ισχυρίζονται ότι αυτό εμπίπτει στη νόμιμη «εύλογη χρήση» (fair use), ότι η εκπαίδευση ενός μοντέλου δεν είναι το ίδιο με το να αντιγράψεις ένα βιβλίο και να το πουλήσεις αυτούσιο. Δεν έχουν βγει ακόμη δικαστικές αποφάσεις απ ότι ξέρω και μάλλον θα πάρει καιρό. Αλλά ηθικά – και φιλοσοφικά – μας βάζει σε σκέψεις. Από πού αντλεί γνώση η νοημοσύνη μιας μηχανής; Η απάντηση: από εμάς τους ίδιους. Η ΤΝ είναι καθρέφτης της συλλογικής μας γνώσης. Χωρίς τις ιστορίες μας, τα επιστημονικά μας άρθρα, τις εικόνες μας, δεν μπορεί να κάνει τίποτα. Είναι λοιπόν σωστό να χρησιμοποιεί ό,τι βρίσκει; Ή πρέπει να βάλουμε όρια; Οι καλλιτέχνες ανησυχούν ότι τα ΤΝ ζωγραφικής «έκλεψαν» τα στιλ τους – πράγματι, μπορείτε να ζητήσετε από ένα σύστημα να σας φτιάξει έναν πίνακα “στο ύφος του Βαν Γκογκ” ή στο ύφος σύγχρονων εικονογράφων και θα το κάνει, χωρίς κανείς από αυτούς να πληρωθεί ή να ερωτηθεί. Νιώθουν λοιπόν ότι η τεχνητή νοημοσύνη όχι μόνο έκλεψε την τέχνη τους, αλλά ίσως τους πάρει και τη δουλειά στο μέλλον.
Ας αφήσουμε στην άκρη για λίγο τα νομικά/ηθικά περί πνευματικών δικαιωμάτων, και να πάμε σ ένα άλλο πρόβλημα: τα δεδομένα της ΤΝ είναι μολυσμένα. Τι σημαίνει αυτό; Σημαίνει ότι μέσα στον τεράστιο όγκο του internet δεν είναι όλα αγνά, σωστά, αληθή. Υπάρχουν ανακρίβειες, μεροληψίες, προπαγάνδα, μίσος. Αυτά μπορεί να βρεθούν στα δεδομένα εκπαίδευσης και να περάσουν στα μοντέλα. Έτσι μπορεί να απορροφήσουν προκαταλήψεις (π.χ. αν κείμενα στο διαδίκτυο συχνά συνδέουν, ας πούμε, ένα συγκεκριμένο φύλο ή μια φυλή με αρνητικά χαρακτηριστικά, το μοντέλο θα τα μάθει). Ή μπορεί να μάθουν από πλαστές ειδήσεις – πράγμα που μετά οδηγεί στις παραισθήσεις που λέγαμε πριν, ή στην παραπληροφόρηση.
Ακόμα χειρότερα, φανταστείτε ότι κάποιοι «δηλητηριάζουν» επίτηδες τα δεδομένα για να παρασύρουν την ΤΝ. Για παράδειγμα, γράφουν χιλιάδες ψεύτικα άρθρα για ένα γεγονός, έτσι ώστε όταν το ΤΝ εκπαιδευτεί, να νομίζει ότι αυτό το ψεύτικο αφήγημα είναι κανονικότητα και να το αναπαράγει. Ή ανεβάζουν «δημιουργικά» κείμενα με κακόβουλο περιεχόμενο κρυμμένο, ώστε να επηρεάσουν ένα μοντέλο συνομιλίας να απαντά ανακρίβειες. Αυτό δεν είναι σενάριο επιστημονικής φαντασίας – οι ερευνητές ασφαλείας ήδη μιλούν για την data poisoning (δηλητηρίαση δεδομένων) ως πιθανή απειλή.
Εδώ, λοιπόν, έχουμε ένα διπλό θέμα: από τη μία, η AI έχει οικοδομηθεί πάνω στην πνευματική εργασία αμέτρητων ανθρώπων, συχνά χωρίς αναγνώριση ή άδεια. Από την άλλη, αυτή η βάση δεδομένων μπορεί να είναι νοθευμένη με λάθη και προπαγάνδα, οδηγώντας το AI να κληρονομήσει λάθη και προκαταλήψεις.
Το φιλοσοφικό ερώτημα που αναδύεται: μπορεί η γνώση χωρίς φιλτράρισμα να θεωρηθεί γνώση; Κι επίσης, τίνος είναι η γνώση; Αν μια μηχανή έχει διαβάσει όλα τα μυθιστορήματα του Τολστόι και μπορεί να γράψει μια «νέα» ιστορία στο ίδιο ύφος, είναι αυτό πρωτότυπο ή παράγωγο; Ποιος έχει τα δικαιώματα; Και – ακόμη βαθύτερα – όταν χρησιμοποιούμε τη γνώση της ανθρωπότητας για να φτιάξουμε μια νέα νοημοσύνη, πόσο προσεκτικοί πρέπει να είμαστε ως προς το τι της δίνουμε να «φάει»;
Ίσως στο μέλλον δημιουργηθεί μια νέου τύπου ηθική: οι εταιρείες ΤΝ να αναγκαστούν να παίρνουν άδεια για τα δεδομένα τους και να τα “καθαρίζουν” από τοξικότητα. Ήδη κάποιοι δουλεύουν προς την κατεύθυνση αυτή: π.χ. φιλτράρουν τοξικό λόγο ή βρισιές από τα data, ώστε το μοντέλο να μην τα μάθει. Μα αυτό, όπως θα δούμε αμέσως, φέρνει κι αυτό προβλήματα – γιατί πού σταματά το φιλτράρισμα και πού αρχίζει η λογοκρισία;
Περισσότερα εδώ


Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Αφήστε το σχόλιό σας