Τεχνητή Νοημοσύνη
Ποιος αποφασίζει τι λέει η AI;
Ποιος αποφασίζει τι λέει η AI; Η μετάβαση της ενημέρωσης από παραδοσιακά μέσα σε συστήματα AI και chatbots δεν είναι
Η μετάβαση της ενημέρωσης από παραδοσιακά μέσα σε συστήματα AI και chatbots δεν είναι απλώς τεχνολογική αναβάθμιση — αλλά αλλαγή του καθορισμού της πραγματικότητας. Η Campbell Brown, γνωστή από τα χρόνια της στην τηλεόραση και πρώην υπεύθυνη ειδήσεων στη Meta, εδώ και καιρό παρακολουθεί αυτές τις μετατοπίσεις. Με την ίδρυση της δικής της εταιρείας, της Forum AI, επιχειρεί να φέρει στην επιφάνεια ένα κρίσιμο ερώτημα: ποιος και με ποια κριτήρια αποφασίζει τι θα σερβίρει ένα μοντέλο ως «αληθές» όταν οι απαντήσεις αφορούν σύνθετα, πολυσύνθετα θέματα;
Η ιστορία της Brown δεν είναι η κλασική ενός τεχνολόγου που ξαφνικά ανησυχεί για την τεχνητή νοημοσύνη. Είναι η ιστορία ενός ανθρώπου που έχει δει τι συμβαίνει όταν πλατφόρμες βραβεύουν το engagement πάνω από την ακρίβεια: όταν το κίνητρο είναι να κρατηθεί ο χρήστης στην οθόνη, όχι να κατανοήσει σωστά ένα θέμα, το αποτέλεσμα είναι παραμορφωμένη πληροφόρηση και φτωχότερο κοινό διάλογο. Αυτό το δίδαγμα οδηγεί τώρα την προσπάθειά της στο να σχεδιάσει πρακτικούς τρόπους μέτρησης και βελτίωσης της αξιοπιστίας των μεγάλων μοντέλων.
Από την τηλεόραση στη ροή των πληροφοριών
Η πορεία της Brown από τη δημοσιογραφία στην τεχνολογία σηματοδοτεί κάτι περισσότερο από αλλαγή καριέρας. Στη Meta είδε από πρώτο χέρι πώς οι αλγόριθμοι και οι σχεδιαστικές επιλογές διαμορφώνουν την πραγματικότητα για εκατομμύρια ανθρώπους. Όταν κυκλοφόρησε δημόσια το ChatGPT, περιγράφει μια στιγμή κλειδί: συνειδητοποίησε ότι η τεχνολογία αυτή θα γίνει «το φίλτρο μέσα από το οποίο θα περνάει πληθώρα πληροφοριών» — και ότι στην πρώτη φάση δεν ήταν επαρκώς αξιόπιστη.
Αυτό που την ανησύχησε περισσότερο δεν ήταν μόνο η τεχνική ποιότητα, αλλά η κοινωνική επίπτωση: τι σημαίνει για τα παιδιά της γενιάς που θα μεγαλώσει με chatbots ως πηγή γνώσης; Με αυτή την ώθηση ιδρύθηκε η Forum AI, με στόχο να οργανώσει ανθρώπινη τεχνογνωσία γύρω από «high-stakes topics» — ζητήματα όπου οι αποφάσεις έχουν σοβαρές συνέπειες και δεν υπάρχουν απλές απαντήσεις: γεωπολιτική, ψυχική υγεία, χρηματοοικονομικές αποφάσεις, προσλήψεις.
Πώς αξιολογεί η Forum AI
Η προσέγγιση της Forum AI βασίζεται σε κάτι που ακούγεται απλό αλλά είναι δύσκολο στην πράξη: να φέρει τους κορυφαίους ειδικούς ενός πεδίου και μαζί τους να χτίσει benchmarks — δηλαδή πρότυπα αξιολόγησης που περιγράφουν τι σημαίνει «σωστό», «αποδεκτό» ή «επικίνδυνο» σε κάθε περίπτωση. Στη δουλειά για τη γεωπολιτική, για παράδειγμα, έχουν συμμετάσχει προσωπικότητες όπως ο Niall Ferguson, ο Fareed Zakaria, ο πρώην υπουργός Εξωτερικών Tony Blinken, ο πρώην πρόεδρος της Βουλής Kevin McCarthy και η Anne Neuberger που ηγήθηκε της κυβερνοασφάλειας σε διακυβερνητικό επίπεδο.
Το ενδιαφέρον στοιχείο στην προσέγγισή τους είναι ότι δεν αρκούνται σε λίγες μαρτυρίες: χρησιμοποιούν τους ειδικούς για να ορίσουν κανόνες και περιστατικά, και στη συνέχεια «εκπαιδεύουν» δικαστές τεχνητής νοημοσύνης που μπορούν να αξιολογούν μοντέλα σε μεγάλη κλίμακα. Ο στόχος που αναφέρουν είναι 90% συμφωνία μεταξύ των AI judges και των ανθρώπινων ειδικών — ένα επίπεδο συναίνεσης που, σύμφωνα με τη Brown, έχουν καταφέρει να προσεγγίσουν σε συγκεκριμένες δοκιμές.
Τι έδειξαν τα τεστ των μεγάλων μοντέλων
Τα συμπεράσματα από τα πρώτα τεστ δεν ήταν ενθαρρυντικά. Η Brown αναφέρει παραδείγματα που δείχνουν συστηματικά προβλήματα: το Gemini κατάφερε να αντλήσει πληροφορίες από ιστοσελίδες κομμουνιστικού κόμματος της Κίνας για θέματα που δεν είχαν σχέση με την Κίνα, ενώ στα περισσότερα μοντέλα παρατηρήθηκε μια προτίμηση προς αριστερό πολιτικό πλαίσιο. Τα προβλήματα δεν είναι πάντα κραυγαλέα — συχνά πρόκειται για απώλεια πλαισίου, έλλειψη αντιπροσωπευτικών απόψεων, ή για αδυναμία να αναγνωριστεί όταν μια πηγή είναι μεροληπτική ή αναξιόπιστη.
Υπάρχουν και πιο δύσκολες αστοχίες: straw-manning επιχειρημάτων χωρίς να τις παρουσιάζει ως τέτοιες, συγχέοντας correlation με causation, ή προσφέροντας μονοδιάστατες προτάσεις σε ζητήματα ψυχικής υγείας που απαιτούν ευαισθησία και ιατρική/ψυχολογική επίβλεψη. Η Brown υπογραμμίζει ότι κάποιες βελτιώσεις είναι τεχνικά «εύκολες» — όπως καλύτερη επιλογή και σήμανση πηγών — αλλά άλλες απαιτούν βαθύτερες αλλαγές στα κριτήρια εκπαίδευσης.
Γιατί τα υπάρχοντα audits αποτυγχάνουν
Η βιομηχανία έχει υιοθετήσει γρήγορα την ιδέα των audits και των standardized benchmarks. Ωστόσο, η Brown τα χαρακτηρίζει ως ελλιπή και πολλές φορές «αποσπασματικά». Όταν η πόλη της Νέας Υόρκης επέβαλε νόμο για έλεγχο προκαταλήψεων στα συστήματα πρόσληψης, ο ελεγκτής βρήκε ότι πάνω από το μισό των συστημάτων είχαν παραβιάσεις που δεν εντοπίστηκαν από τις τυπικές διαδικασίες ελέγχου. Το πρόβλημα είναι ότι τα checklists και τα generic tests δεν πιάνουν τις edge cases — περίπλοτες καταστάσεις που μόνο ειδικοί πεδίου μπορούν να αναγνωρίσουν.
Η συνέπεια είναι ότι πολλοί φορείς περιορίζονται σε «σφραγίδες συμμόρφωσης» που προσφέρουν ελάχιστη πρακτική ασφάλεια. Η πραγματική αξιολόγηση απαιτεί χρόνο, domain expertise και δοκιμές που προσομοιώνουν ρεαλιστικές συνθήκες χρήσης — και αυτό κοστίζει. Η Brown επιμένει ότι «έξυπνοι generalists» δεν επαρκούν· θέλεις ειδικούς που να προβλέπουν δυσλειτουργίες πριν αυτές γίνουν ζήτημα δημόσιας ασφάλειας ή αδικίας.
Επιχειρήσεις, κίνητρα και αγορά
Παρά την κριτική στο λανθασμένο auditing, η Brown βλέπει μια ρεαλιστική οδό προόδου: την αγορά. Οι επιχειρήσεις έχουν νομικά και οικονομικά κίνητρα να ζητούν ακρίβεια και ευθύνη, ειδικά όταν τα συστήματα επηρεάζουν πιστωτικές αποφάσεις, δάνεια, ασφάλειες ή προσλήψεις. Σε αυτές τις χρήσεις, το κόστος ενός λάθους είναι απτό — νομικές αγωγές, reputational risk, οικονομικές απώλειες. Γι’ αυτό και η πρόταση της Forum AI είναι να πουλήσει στις επιχειρήσεις αξιόπιστες μεθόδους αξιολόγησης που συνδυάζουν ειδικούς με αυτοματοποιημένους ελέγχους.
Η μετατόπιση από την ιδέα «AI για το ευρύ κοινό» στην ιδέα «AI για επιχειρήσεις που δεν θέλουν να ρισκάρουν» μπορεί να δημιουργήσει μια πιο άμεση ζήτηση για υπεύθυνες πρακτικές. Ωστόσο, η μετατροπή αυτής της ζήτησης σε σταθερό επιχειρηματικό μοντέλο δεν είναι δεδομένη. Η αγορά συχνά ικανοποιείται με φτηνές λύσεις compliance, και ο ανταγωνισμός δεν ενθαρρύνει πάντα την ποιότητα σε βάθος.
Τεχνικές προκλήσεις στην αξιολόγηση
Αξιολογώντας τα μοντέλα, οι τεχνικές προκλήσεις είναι πολλαπλές. Πρώτον, υπάρχει το ζήτημα της μέτρησης: πώς ορίζεις ένα «σωστό» αποτέλεσμα σε ένα θέμα που έχει πολλές ορθές απαντήσεις; Η λύση της Forum AI περιλαμβάνει multi-dimensional benchmarks όπου οι αξιολογητές «βαθμολογούν» όχι μόνο την ακρίβεια αλλά και την πληρότητα, την παρουσία αντιθέτων απόψεων, την πηγή και την πιθανότητα κινδύνου. Δεύτερον, υπάρχει το θέμα της κλίμακας: κανείς δεν μπορεί να ζητήσει από ανθρώπους να αξιολογούν κάθε απάντηση εκατομμυρίων χρηστών. Γι’ αυτό αναπτύσσουν AI judges — μοντέλα εκπαιδευμένα να προσομοιώνουν την κρίση των ειδικών.
Η εκπαίδευση αυτών των AI judges απαιτεί προσεκτικό tailing: δεδομένα υψηλής ποιότητας, pairwise comparisons, ranking tasks και συνεχείς ενημερώσεις για να μη γερνάει το benchmark. Ακόμη και με αυτό, τα metrics όπως η «συναίνεση 90% με τους ειδικούς» δεν εξαλείφουν όλες τις αβεβαιότητες· δείχνουν όμως ότι είναι εφικτό να προσεγγιστεί αξιοπιστία σε επίπεδα που σήμερα θεωρούνται ανέφικτα.
Κίνδυνοι και μακροπρόθεσμες συνέπειες
Η επίτευξη μεγαλύτερης ακρίβειας δεν είναι πανάκεια. Υπάρχει ρίσκο συγκέντρωσης της εξουσίας: αν λίγες εταιρείες ορίζουν τα πρότυπα «αλήθειας», μπορούν να ασκήσουν δυσανάλογη επιρροή στην πολιτική και στον δημόσιο λόγο. Επιπλέον, η ίδια η έννοια της αλήθειας σε κοινωνικά και πολιτικά ζητήματα δεν είναι πάντα αντικειμενική· υπάρχουν διαφωνίες που αποτυπώνουν πολιτιστικές και ιδεολογικές αντιθέσεις. Το να «βελτιώσουμε» ένα μοντέλο για να είναι πιο «ακριβές» σημαίνει επίσης να αποφασίσουμε από ποια οπτική γωνία θα το κάνουμε.
Υπάρχει ακόμη ο τεχνικός κίνδυνος των adversarial prompts, της δηλητηρίασης δεδομένων (data poisoning) και της χρήσης μοντέλων για χειραγώγηση. Ακόμα και αν βελτιστοποιήσεις μοντέλα για truthfulness, ένας επιτήδειος μπορεί να δημιουργήσει prompts ή δεδομένα που παρακάμπτουν τα φιλτράρίσματα. Αυτό σημαίνει ότι οι λύσεις απαιτούν πολλαπλά επίπεδα άμυνας: καλύτερη εκπαίδευση, ανίχνευση κατάχρησης, προδιαγραφές πηγής και ίσως νομικό πλαίσιο που να επιβάλει διαφάνεια.
Τι σημαίνει για τους χρήστες
Ο μέσος χρήστης έχει τώρα πρόσβαση σε απαντήσεις πολύ πιο γρήγορα, αλλά όχι απαραίτητα πιο σωστές. Η εμπιστοσύνη στο AI παραμένει χαμηλή σε μεγάλο μέρος του κοινού, και σε πολλές περιπτώσεις με δίκιο: οι απαντήσεις που παίρνει κάποιος από ένα chatbot την ώρα που κάνει μια απλή ερώτηση έχουν ακόμα πολλά «σκουπίδια». Αυτό δημιουργεί ένα παράδοξο: η τεχνολογία μπορεί να βελτιώσει την πρόσβαση στην πληροφορία, αλλά αν δεν συνοδεύεται από αξιοπιστία, επιβαρύνει την ήδη προβληματική σχέση του κοινού με την αλήθεια.
Για τον χρήστη η καλύτερη πρακτική αυτή τη στιγμή είναι η συνέχεια της κριτικής σκέψης: να ελέγχει τις πηγές, να συγκρίνει απαντήσεις, και να θυμάται ότι σε σύνθετα ζητήματα ένα chatbot προσφέρει ένα σημείο εκκίνησης, όχι τελεσίδικη απάντηση. Αν οι εταιρείες αρχίσουν να προσφέρουν πιο αξιόπιστες αξιολογήσεις — και αν οι ρυθμιστικοί φορείς απαιτήσουν διαφάνεια — τότε το χρήσιμο αυτό εργαλείο μπορεί να γίνει και ασφαλές.
Γιατί έχει σημασία
Η συζήτηση της Campbell Brown και οι προσπάθειες της Forum AI φωτίζουν ένα ουσιαστικό ζήτημα: η μετάβαση στην εποχή της AI απαιτεί νέες δομές αξιοπιστίας. Χωρίς αυτές, η τεχνολογία κινδυνεύει να επαναλάβει τα λάθη των κοινωνικών δικτύων, όπου η βελτιστοποίηση για engagement έβγαλε στην επιφάνεια τοξικά και παραπλανητικά περιεχόμενα. Η διεθνής πολιτική, τα οικονομικά, η ψυχική υγεία και οι μισθοί ανθρώπων μπορούν να επηρεαστούν άμεσα από την ποιότητα αυτών των συστημάτων.
Η λύση δεν είναι ούτε απλή ούτε αποκλειστικά τεχνική. Απαιτεί συνδυασμό ειδικής γνώσης, τεχνικών εργαλείων, επιχειρηματικών κινήτρων και ρυθμιστικής πίεσης. Η πρόκληση για την επόμενη πενταετία θα είναι να δημιουργήσουμε μηχανισμούς που ενθαρρύνουν την ακρίβεια, προστατεύουν από κατάχρηση και διασφαλίζουν ότι η εξουσία για την «ανάθεση της αλήθειας» δεν θα κεντρικοποιηθεί ανεξέλεγκτα.
Η Forum AI έχει ήδη χρηματοδοτηθεί — συγκέντρωσε 3 εκατομμύρια δολάρια το φθινόπωρο με επικεφαλής τη Lerer Hippeau — και επιδιώκει να πουλήσει υπηρεσίες αξιολόγησης σε επιχειρήσεις που ενδιαφέρονται πραγματικά για την ασφάλεια και τη νομιμότητα. Αυτό το μοντέλο επιχειρεί να δημιουργήσει αγορά για ποιοτικές υπηρεσίες όπου σήμερα επικρατούν φτηνές, ελλιπείς λύσεις. Αν το καταφέρει, μπορεί να γίνει παράδειγμα για το πώς οι επαγγελματικές απαιτήσεις μπορούν να πιέσουν για καλύτερα πρότυπα στην ευρύτερη χρήση της AI.
Στο τέλος, το ερώτημα που θέτει η Brown δεν έχει μόνο τεχνική απάντηση: ποιος αποφασίζει τι είναι αλήθεια; Η απάντηση θα διαμορφωθεί από την αλληλεπίδραση τεχνικών λύσεων, επαγγελματικών κινήτρων, ρυθμιστικών πλαισίων και κοινωνικών αξιών. Το κρίσιμο είναι να διασφαλίσουμε ότι αυτή η απάντηση θα υπηρετεί το κοινό συμφέρον και όχι αποκλειστικά βραχυπρόθεσμα οικονομικά κέρδη.