Τεχνητή Νοημοσύνη
Όταν το ChatGPT έχει παραισθήσεις
Η OpenAI βρίσκεται για ακόμη μία φορά στο επίκεντρο ενός καταιγιστικού νομικού και ηθικού ζητήματος στην Ευρώπη, καθώς αντιμετωπίζει νέα καταγγελία για παραβίαση του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR) λόγω των λεγόμενων «ψευδαισθήσεων» του ChatGPT.
Αυτή τη φορά, το διακύβευμα δεν είναι απλώς εσφαλμένα στοιχεία βιογραφικού ή λάθη ημερομηνιών. Η τεχνητή νοημοσύνη της εταιρείας φέρεται να δημιούργησε μία απολύτως ανυπόστατη και σοκαριστική αφήγηση: ότι ένας Νορβηγός πολίτης καταδικάστηκε για τη δολοφονία των δύο παιδιών του και την απόπειρα δολοφονίας του τρίτου.
Ψευδο-Αφηγήσεις με Επικίνδυνες Συνέπειες
Η ομάδα υπεράσπισης προσωπικών δεδομένων Noyb (None of Your Business) υποστηρίζει την καταγγελία του πολίτη, τονίζοντας ότι η παραβίαση δεν περιορίζεται μόνο στην ακρίβεια των δεδομένων, αλλά επεκτείνεται και στην αδυναμία διόρθωσης. Σύμφωνα με τον GDPR, οι πολίτες έχουν δικαίωμα διόρθωσης (right to rectification), κάτι που το ChatGPT αυτή τη στιγμή δεν υποστηρίζει.
Η Noyb τονίζει ότι ακόμη και η εμφάνιση μικρής προειδοποίησης ότι «το ChatGPT μπορεί να κάνει λάθη» δεν αποτελεί επαρκή νομική ή ηθική κάλυψη όταν η παραγόμενη πληροφορία είναι τόσο σοβαρά δυσφημιστική.
Η Σοβαρότητα του Σφάλματος
Το πιο ανησυχητικό είναι ότι η απάντηση της AI δεν ήταν απλώς ένα τυχαίο λάθος. Εμπεριείχε πραγματικά στοιχεία όπως τον αριθμό και το φύλο των παιδιών του καταγγέλλοντος, καθώς και τη γενέτειρά του, τα οποία πλαισίωναν την ψευδή ιστορία με ρεαλισμό, εντείνοντας την παραπλάνηση. Η Noyb δήλωσε ότι δεν βρήκε καμία εξήγηση για το πώς προέκυψε αυτή η ψευδής αφήγηση, ούτε από δημοσιογραφικές βάσεις δεδομένων, ούτε από κάποια γνωστή υπόθεση.
Νομικό και Τεχνολογικό Υπόβαθρο
Στο πλαίσιο του GDPR, οι εταιρείες που επεξεργάζονται προσωπικά δεδομένα φέρουν την ευθύνη για την ακρίβεια των πληροφοριών και υποχρεούνται να διασφαλίζουν τη δυνατότητα πρόσβασης και διόρθωσης. Το να αποκλείεις τον χρήστη από οποιαδήποτε μορφή παρέμβασης όταν πλήττεται η υπόληψή του, δεν είναι μόνο ανεπαρκές – είναι παράνομο.
Η OpenAI έχει ήδη αντιμετωπίσει παρόμοιες κατηγορίες: η ιταλική αρχή προστασίας δεδομένων είχε επιβάλει προσωρινό μπλοκάρισμα του ChatGPT το 2023, οδηγώντας σε αλλαγές διαφάνειας στην πολιτική της εταιρείας. Επιπλέον, η αυστριακή αρχή παρέπεμψε άλλη καταγγελία της Noyb στην ιρλανδική DPC, η οποία ακόμη εξετάζει την υπόθεση.
Μελλοντικές Επιπτώσεις
Εάν επιβεβαιωθεί η παραβίαση, η OpenAI κινδυνεύει με πρόστιμα που αγγίζουν έως και το 4% του παγκόσμιου ετήσιου κύκλου εργασιών της. Ωστόσο, η Noyb επιμένει ότι το πρόβλημα είναι βαθύτερο: ακόμη κι αν η OpenAI «σταματήσει» την παραγωγή συγκεκριμένων ψευδών απαντήσεων, αυτό δεν σημαίνει ότι σταματά να διατηρεί τα δεδομένα αυτά εσωτερικά.
Η δικηγόρος της Noyb, Kleanthi Sardeli, δήλωσε: «Η προσθήκη μιας αποποίησης ευθύνης δεν απαλλάσσει από την ευθύνη. Οι εταιρείες AI δεν μπορούν να προσποιούνται ότι ο GDPR δεν τις αφορά. Αν δεν αντιμετωπιστεί η ψευδής πληροφορία στη ρίζα της, τότε τα λάθη αυτά ενδέχεται να καταστρέψουν ζωές.»
Το Σταυροδρόμι της Τεχνητής Νοημοσύνης
Το περιστατικό υπενθυμίζει το κρίσιμο ερώτημα της εποχής μας: Μπορεί η τεχνητή νοημοσύνη να ενσωματωθεί στις κοινωνίες μας χωρίς να πλήξει τα βασικά δικαιώματα των πολιτών; Η υπόθεση του Arve Hjalmar Holmen δεν είναι απλώς μια μεμονωμένη αποτυχία ενός chatbot. Είναι το σύμπτωμα μιας βαθύτερης ρήξης μεταξύ καινοτομίας και νομιμότητας.
Η OpenAI και άλλοι πάροχοι GenAI εργαλείων καλούνται πλέον να αποδείξουν ότι η τεχνολογία τους δεν λειτουργεί εις βάρος της ανθρώπινης αξιοπρέπειας και των συνταγματικών ελευθεριών.