Η μυστική χρήση της τεχνητής νοημοσύνης από εργαζόμενους
Σύμφωνα με νέα έκθεση, πολλοί Αυστραλοί εργαζόμενοι χρησιμοποιούν μυστικά εργαλεία γενετικής τεχνητής νοημοσύνης (Gen AI) χωρίς τη γνώση ή την έγκριση των προϊσταμένων τους. Η έκθεση με τίτλο “Our Gen AI Transition: Implications for Work and Skills”, που δημοσιεύτηκε από την ομοσπονδιακή κυβέρνηση της Αυστραλίας, αποκαλύπτει ότι μεταξύ 21% και 27% των εργαζομένων, κυρίως σε τομείς γραφείου, καταφεύγουν σε τέτοια εργαλεία κρυφά.
Γιατί οι εργαζόμενοι κρύβουν τη χρήση AI;
Πολλοί εργαζόμενοι αναφέρουν ότι αισθάνονται πως η χρήση της τεχνητής νοημοσύνης συνιστά “απάτη”, φοβούνται μήπως θεωρηθούν τεμπέληδες ή μη ικανοί. Η αυξανόμενη αυτή χρήση χωρίς έγκριση, γνωστή ως «σκιώδης χρήση», εμφανίζεται ενώ οι αρχές προτρέπουν τους πολίτες να αξιοποιήσουν την τεχνητή νοημοσύνη.
Κενά στην διακυβέρνηση της AI
Τα αποτελέσματα της έκθεσης υπογραμμίζουν τα κενά στην διακυβέρνηση της χρήσης AI στην εργασία, αφήνοντας τόσο τους εργαζομένους όσο και τους εργοδότες στο σκοτάδι σχετικά με το τι είναι σωστό να κάνουν. Στην Αυστραλία, οι κανόνες για τη χρήση της τεχνητής νοημοσύνης μπορεί να αλλάξουν ακόμη και όταν κάποιος περάσει τα όρια μιας πολιτείας.
Κίνδυνοι και οφέλη από τη «σκιώδη χρήση» της AI
Η 124σέλιδη έκθεση από το Jobs and Skills Australia καλύπτει πολλά ζητήματα, όπως η άνιση υιοθέτηση της AI και πώς αυτή μπορεί να επηρεάσει τη διαθεσιμότητα θέσεων εργασίας στο μέλλον. Ένα από τα πιο ενδιαφέροντα ευρήματα αφορά τη μυστική χρήση της AI, που δεν είναι πάντα αρνητική. Αυτοί οι χρήστες μπορεί να είναι κρυφοί ηγέτες, φέρνοντας καινοτομίες από τη βάση.
Η «σκιώδης χρήση» από εργαζόμενους αποτελεί σημαντικό μέρος της υιοθέτησης της AI μέχρι σήμερα. Ένα σημαντικό ποσοστό εργαζομένων χρησιμοποιεί εργαλεία Gen AI ανεξάρτητα, χωρίς επίβλεψη από τον εργοδότη, δείχνοντας ενθουσιασμό αλλά και εγείροντας ανησυχίες σχετικά με τη διακυβέρνηση και τους κινδύνους.
Αναγκαία η διακυβέρνηση και η εκπαίδευση
Η έκθεση προτείνει την αξιοποίηση αυτής της πρώιμης υιοθέτησης και πειραματισμού, αλλά προειδοποιεί ότι χωρίς σαφή διακυβέρνηση, η σκιώδης χρήση μπορεί να εξαπλωθεί. Αυτός ο ανεπίσημος πειραματισμός μπορεί να κατακερματίσει πρακτικές που είναι δύσκολο να κλιμακωθούν ή να ενσωματωθούν αργότερα, αυξάνοντας τους κινδύνους για την ασφάλεια των δεδομένων, την υπευθυνότητα και τη συμμόρφωση.
Πραγματικοί κίνδυνοι από αποτυχίες AI
Η έκθεση καλεί για εθνική εποπτεία της μετάβασης της Αυστραλίας στην Gen AI μέσω ενός συντονισμένου εθνικού πλαισίου, κεντρικής δυνατότητας και ενίσχυσης των ψηφιακών και AI δεξιοτήτων για όλο τον πληθυσμό. Αυτή η ανάγκη αντικατοπτρίζει την έρευνά μου, που δείχνει ότι το νομικό πλαίσιο της Αυστραλίας για την AI έχει κενά και τα συστήματα γνώσης, από το δίκαιο έως την αναφορά, χρειάζονται θεμελιώδη αναθεώρηση.
Αποτυχίες και παρανομίες στη χρήση AI
Ακόμη και σε επαγγέλματα όπου έχουν προκύψει σαφέστεροι κανόνες, συχνά αυτό συνέβη μετά από σοβαρές αποτυχίες. Για παράδειγμα, στην Βικτώρια, υπάλληλος παιδικής προστασίας έβαλε ευαίσθητες λεπτομέρειες σε ChatGPT για υπόθεση σεξουαλικών αδικημάτων κατά ανηλίκου. Η επιτροπή πληροφοριών της Βικτώριας απαγόρευσε τη χρήση εργαλείων AI από το προσωπικό της παιδικής προστασίας μέχρι τον Νοέμβριο του 2026.
Η ανομοιομορφία των κανόνων ανά πολιτεία
Οι δικηγόροι έχουν επίσης βρεθεί να καταχρώνται την AI, από τις Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο έως την Αυστραλία. Ένα πρόσφατο παράδειγμα αφορά παραπλανητικές πληροφορίες που δημιουργήθηκαν από AI για υπόθεση δολοφονίας στη Μελβούρνη. Αλλά ακόμη και για τους δικηγόρους, οι κανόνες είναι ασαφείς και διαφέρουν από πολιτεία σε πολιτεία. Για παράδειγμα, ένας δικηγόρος στη Νέα Νότια Ουαλία δεν επιτρέπεται να χρησιμοποιεί AI για τη δημιουργία περιεχομένου ενόρκων δηλώσεων.
Ανάγκη για εθνική νομοθεσία και πολιτικές
Αυτή τη στιγμή, η χρήση AI στην εργασία βρίσκεται σε μια γκρίζα ζώνη διακυβέρνησης. Οι περισσότερες οργανώσεις λειτουργούν χωρίς σαφείς πολιτικές, αξιολογήσεις κινδύνου ή νομικές διασφαλίσεις. Ακόμη κι αν όλοι το κάνουν, ο πρώτος που θα πιαστεί θα αντιμετωπίσει τις συνέπειες.
Θα ήταν προτιμότερη μια εθνική ομοιόμορφη νομοθεσία για την AI. Άλλωστε, η τεχνολογία AI που χρησιμοποιούμε είναι η ίδια, είτε είστε στη Νέα Νότια Ουαλία είτε στη Βόρεια Επικράτεια – και η AI δεν γνωρίζει φυσικά σύνορα. Αλλά αυτό δεν φαίνεται πιθανό ακόμη.
Εάν οι εργοδότες δεν θέλουν οι εργαζόμενοι να χρησιμοποιούν AI κρυφά, τι μπορούν να κάνουν; Εάν υπάρχουν προφανείς κίνδυνοι, ξεκινήστε δίνοντας στους εργαζόμενους σαφέστερες πολιτικές και εκπαίδευση. Ένα παράδειγμα είναι αυτό που κάνει τώρα το νομικό επάγγελμα (σε ορισμένες πολιτείες) για να δώσει σαφείς, γραπτές οδηγίες. Αν και δεν είναι τέλειο, είναι ένα βήμα προς τη σωστή κατεύθυνση. Αλλά εξακολουθεί να μην είναι αρκετό, ειδικά επειδή οι κανόνες δεν είναι ίδιοι σε εθνικό επίπεδο.
Χρειαζόμαστε πιο προορατική εθνική διακυβέρνηση της AI – με σαφέστερες πολιτικές, εκπαίδευση, ηθικές κατευθυντήριες γραμμές, μια προσέγγιση βάσει κινδύνου και παρακολούθηση συμμόρφωσης – για να ξεκαθαρίσουμε τη θέση τόσο για τους εργαζόμενους όσο και για τους εργοδότες.
Χωρίς μια εθνική πολιτική διακυβέρνησης της AI, οι εργοδότες αφήνονται να περιηγηθούν σε ένα κατακερματισμένο και ασυνεπές ρυθμιστικό ναρκοπέδιο, αντιμετωπίζοντας παραβιάσεις σε κάθε στροφή. Εν τω μεταξύ, οι ίδιοι οι εργαζόμενοι που θα μπορούσαν να βρίσκονται στην πρώτη γραμμή της AI μετατροπής μας μπορεί να αναγκαστούν να χρησιμοποιούν AI κρυφά, φοβούμενοι ότι θα θεωρηθούν τεμπέληδες απατεώνες.
