Mastodon
Connect with us

Automation & Bots

Γιατί δεν πρέπει πάντα να εμπιστευόμαστε τα «καλά» πολιτικά bots

Η ανάγκη για κριτική σκέψη και διαφάνεια στη χρήση πολιτικών bots με AI.

Published

on

Γιατί δεν πρέπει πάντα να εμπιστευόμαστε τα «καλά» πολιτικά bots

Η άνοδος των πολιτικών bots

Κατά τη διάρκεια της ομοσπονδιακής εκλογικής εκστρατείας του 2019, οι ανησυχίες για ξένες παρεμβάσεις και τα τρομακτικά «ρωσικά bots» κυριάρχησαν στη συζήτηση. Αντίθετα, κατά τη διάρκεια του εκλογικού κύκλου του 2021, νέα πολιτικά bots άρχισαν να ξεχωρίζουν για τις δυνητικά χρήσιμες συνεισφορές τους. Αυτή η εξέλιξη αναδεικνύει την αυξανόμενη επιρροή της τεχνητής νοημοσύνης (AI) στην πολιτική σκηνή.

Η χρήση της AI στην πολιτική

Οι δημιουργοί πολιτικών bots πειραματίζονται με την AI για να αυτοματοποιήσουν την ανάλυση δεδομένων από τα κοινωνικά δίκτυα, από την ανίχνευση της τοξικότητας στο διαδίκτυο μέχρι την αντικατάσταση των παραδοσιακών δημοσκοπήσεων. Αυτά τα πολιτικά bots μπορούν να θεωρηθούν ως «καλές» χρήσεις της AI, αλλά ακόμη και αν είναι χρήσιμα, πρέπει να είμαστε κριτικοί. Οι περιπτώσεις των SAMbot και Polly μας βοηθούν να κατανοήσουμε τι πρέπει να περιμένουμε και να απαιτούμε από όσους επιλέγουν να χρησιμοποιούν την AI στις πολιτικές τους δραστηριότητες.

Η περίπτωση των SAMbot και Polly

Το SAMbot δημιουργήθηκε από την Areto Labs σε συνεργασία με το Κέντρο Δημοκρατίας Samara. Πρόκειται για ένα εργαλείο που αναλύει αυτόματα τα tweets για να αξιολογήσει την παρενόχληση και την τοξικότητα που απευθύνεται σε πολιτικούς υποψήφιους. Από την άλλη, η Advanced Symbolics Inc. ανέπτυξε το Polly, ένα εργαλείο που αναλύει τα δεδομένα των κοινωνικών δικτύων για να προβλέψει ποιος θα κερδίσει τις εκλογές. Και τα δύο εργαλεία έχουν τραβήξει την προσοχή των μέσων ενημέρωσης και επηρεάζουν την κάλυψη των εκλογών.

Η εμπιστοσύνη στα πολιτικά bots

Γνωρίζουμε λίγα για το πώς λειτουργούν αυτά τα εργαλεία, ωστόσο τα εμπιστευόμαστε σε μεγάλο βαθμό επειδή χρησιμοποιούνται από μη κομματικούς φορείς. Όμως, αυτά τα bots θέτουν το πλαίσιο και τα πρότυπα για το πώς θα χρησιμοποιηθεί αυτή η μορφή AI στο μέλλον. Είναι εύκολο να τα θεωρούμε ως φίλους που μας βοηθούν να κατανοήσουμε τη χαοτική πολιτική συζήτηση στα κοινωνικά δίκτυα, αλλά πρέπει να θυμόμαστε ότι είναι απλώς εργαλεία που απαιτούν ανθρώπινη παρέμβαση για να λειτουργήσουν.

Ο κίνδυνος της προσέγγισης του «μαύρου κουτιού»

Η AI είναι ένας γενικός όρος για μια ευρεία γκάμα τεχνολογιών, και οι τεχνικές εξελίσσονται συνεχώς. Η εξήγηση της διαδικασίας είναι πρόκληση ακόμη και σε εκτενή ακαδημαϊκά άρθρα, οπότε δεν είναι έκπληξη το γεγονός ότι τα περισσότερα πολιτικά bots παρουσιάζονται με ελάχιστες πληροφορίες για το πώς λειτουργούν. Τα bots είναι «μαύρα κουτιά» — οι εισροές και οι λειτουργίες τους δεν είναι ορατές στους χρήστες ή σε άλλους ενδιαφερόμενους — και αυτή τη στιγμή οι δημιουργοί τους απλώς προτείνουν: «Κάνει αυτό που θέλουμε, εμπιστευτείτε μας».

Η σημασία της διαφάνειας

Το πρόβλημα είναι ότι αυτό που συμβαίνει μέσα σε αυτά τα μαύρα κουτιά μπορεί να είναι εξαιρετικά ποικίλο και ακατάστατο, και μικρές επιλογές μπορεί να έχουν τεράστιες επιπτώσεις. Για παράδειγμα, το Perspective API της Jigsaw (Google) — που στοχεύει στην αναγνώριση της τοξικότητας — ενσωμάτωσε ακούσια ρατσιστικές και ομοφοβικές τάσεις στο εργαλείο τους. Η Jigsaw ανακάλυψε και διόρθωσε τα προβλήματα μόνο όταν οι άνθρωποι άρχισαν να κάνουν ερωτήσεις για τα απρόσμενα αποτελέσματα.

Ερωτήματα που πρέπει να θέτουμε

Πρέπει να καθιερώσουμε ένα βασικό σύνολο ερωτήσεων που να θέτουμε όταν βλέπουμε νέα πολιτικά bots. Χρειαζόμαστε να αναπτύξουμε ψηφιακές δεξιότητες γραμματισμού ώστε να μπορούμε να αμφισβητούμε τις πληροφορίες που εμφανίζονται στις οθόνες μας. Για παράδειγμα, ποια δεδομένα χρησιμοποιούνται; Αντιπροσωπεύουν πραγματικά τον πληθυσμό που πιστεύουμε ότι αντιπροσωπεύουν;

Η εκπαίδευση των bots

Κάθε πολιτικό bot μπορεί να έχει σχεδιαστεί πολύ διαφορετικά. Αναζητήστε μια σαφή εξήγηση για το τι έγινε και πώς οι δημιουργοί ή οι χρήστες του bot ελέγχουν για να διασφαλίσουν ότι το αυτοματοποιημένο εργαλείο είναι πράγματι στο στόχο (αξιοπιστία) και συνεπές (αξιοπιστία). Οι διαδικασίες εκπαίδευσης για την ανάπτυξη τόσο του SAMbot όσο και του Polly δεν εξηγούνται λεπτομερώς στους αντίστοιχους ιστότοπούς τους.

Τα επόμενα βήματα

Το SAMbot και το Polly είναι εργαλεία που δημιουργήθηκαν από μη κομματικούς φορείς χωρίς ενδιαφέρον για τη δημιουργία παραπληροφόρησης, τη σπορά σύγχυσης ή την επιρροή του ποιος θα κερδίσει τις εκλογές. Αλλά τα ίδια εργαλεία θα μπορούσαν να χρησιμοποιηθούν για πολύ διαφορετικούς σκοπούς. Πρέπει να γνωρίζουμε πώς να εντοπίζουμε και να κριτικάρουμε αυτά τα bots.

Κάθε φορά που χρησιμοποιείται ένα πολιτικό bot ή οποιοδήποτε είδος AI στην πολιτική, είναι απαραίτητες οι πληροφορίες για το πώς δημιουργήθηκε και δοκιμάστηκε. Είναι σημαντικό να θέτουμε προσδοκίες για διαφάνεια και σαφήνεια από νωρίς. Αυτό θα βοηθήσει όλους να αναπτύξουν καλύτερες ψηφιακές δεξιότητες γραμματισμού και θα μας επιτρέψει να διακρίνουμε μεταξύ αξιόπιστων και αναξιόπιστων χρήσεων αυτών των εργαλείων.

Advertisement