Η γοητεία της ταχύτητας δεν είναι υποκατάστατο της αξιοπιστίας
Τα μεγάλα γλωσσικά μοντέλα δίνουν την εντύπωση ότι προσφέρουν μια άμεση λύση σε ένα παλιό πρόβλημα της διοίκησης, πώς να παράγεται γρήγορα κείμενο, ανάλυση, περίληψη και προτάσεις αποφάσεων με μικρότερο κόστος. Ακριβώς εκεί βρίσκεται ο κίνδυνος. Η εντυπωσιακή ευχέρεια διατύπωσης δεν ταυτίζεται με αλήθεια, ακρίβεια ή διοικητική ευθύνη. Ένα σύστημα που γράφει πειστικά μπορεί ταυτόχρονα να σφάλλει πειστικά. Και όταν αυτό το σφάλμα εισέρχεται σε φορείς του δημοσίου ή σε επιχειρήσεις, δεν πρόκειται για απλή τεχνική ατέλεια. Πρόκειται για οργανωτικό, νομικό και πολιτικό κίνδυνο.
Η βασική παρανόηση είναι ότι τα μεγάλα μοντέλα ΤΝ μπορούν να χρησιμοποιηθούν σαν ουδέτεροι, αξιόπιστοι βοηθοί γενικής χρήσης. Δεν μπορούν, τουλάχιστον όχι χωρίς αυστηρή αρχιτεκτονική ελέγχου. Η ίδια η σύγχρονη συζήτηση γύρω από τις παραισθήσεις των μοντέλων δείχνει ότι αυτά τα συστήματα συχνά προτιμούν να δώσουν μια απάντηση αντί να αναγνωρίσουν αβεβαιότητα. Αυτό σημαίνει ότι σε διοικητικά περιβάλλοντα, όπου η ακρίβεια, η τεκμηρίωση και η ιχνηλασιμότητα είναι κρίσιμες, η αβασάνιστη χρήση τους μπορεί να παράγει λάθη με ύφος βεβαιότητας.
Όταν το λάθος αποκτά κύρος
Στη διοίκηση, ένα λανθασμένο κείμενο δεν είναι απλώς ένα κακό κείμενο. Μπορεί να επηρεάσει αξιολογήσεις, προμήθειες, γνωμοδοτήσεις, αποφάσεις προσωπικού, συμβάσεις, απαντήσεις προς πολίτες ή εσωτερικές εισηγήσεις. Στον ιδιωτικό τομέα μπορεί να αλλοιώσει ελέγχους συμμόρφωσης, να δημιουργήσει λανθασμένη νομική ή κανονιστική εικόνα, να επηρεάσει οικονομικές αποφάσεις ή να ενισχύσει εσφαλμένες εσωτερικές διαδικασίες. Το πρόβλημα δεν είναι μόνο ότι η ΤΝ μπορεί να “φανταστεί” πηγές, στοιχεία ή ερμηνείες. Είναι ότι αυτά τα λάθη παράγονται σε μορφή που μοιάζει ώριμη, πλήρης και θεσμικά επεξεργασμένη.
Η διοίκηση λειτουργεί με αλυσίδες εμπιστοσύνης. Αν ένα στέλεχος βασιστεί σε κείμενο που έχει παραχθεί από μοντέλο χωρίς να γνωρίζει τα όρια, τις παραλείψεις και τις αβεβαιότητες του, τότε το λάθος δεν μένει στο επίπεδο του εργαλείου. Μεταφέρεται σε ολόκληρη την αλυσίδα λήψης αποφάσεων. Έτσι η ΤΝ μετατρέπεται από υποβοηθητικό μέσο σε μηχανισμό παραγωγής αδιαφανούς σφάλματος.
Χωρίς τεχνικούς μηχανισμούς ελέγχου, η χρήση είναι ανεύθυνη
Η ορθή θέση δεν είναι να απαγορευθεί συνολικά η χρήση μεγάλων μοντέλων. Είναι να τεθεί ένα σαφές διοικητικό δόγμα. Καμία χρήση σε κρίσιμες λειτουργίες χωρίς τεχνικούς και οργανωτικούς μηχανισμούς μείωσης κινδύνου. Αυτό σημαίνει, πρώτον, χρήση μόνο σε περιβάλλοντα όπου υπάρχει πρόσβαση σε ελεγχόμενη βάση γνώσης και όχι ελεύθερη παραγωγή απαντήσεων χωρίς τεκμηριωτικό έλεγχο. Δεύτερον, υποχρεωτική σύνδεση με διαδικασίες επαλήθευσης πηγών, καταγραφής εκδόσεων, λογιστικών ιχνών και σαφούς επισήμανσης του τι προήλθε από άνθρωπο και τι από μηχανή. Τρίτον, πρόβλεψη για άρνηση απάντησης όταν το σύστημα δεν έχει επαρκή βεβαιότητα, αντί για παραγωγή εύηχων εικασιών.
Εξίσου κρίσιμη είναι η ανθρώπινη εποπτεία. Όχι ως τυπική υπογραφή στο τέλος, αλλά ως ουσιαστικός έλεγχος από έμπειρα στελέχη που γνωρίζουν το αντικείμενο, το κανονιστικό πλαίσιο και τις συνέπειες ενός σφάλματος. Ο άνθρωπος δεν πρέπει να λειτουργεί ως διακοσμητικός επικυρωτής της μηχανής. Πρέπει να έχει τον πρώτο και τον τελευταίο λόγο.
Η διοίκηση χρειάζεται ΤΝ με λογοδοσία, όχι αυτοματισμό χωρίς έλεγχο
Η πιο ώριμη πολιτική και διοικητική στάση σήμερα είναι απλή. Τα μεγάλα μοντέλα ΤΝ μπορούν να αξιοποιηθούν μόνο ως βοηθητικά συστήματα μέσα σε ελεγχόμενο πλαίσιο, με τεχνικές δικλίδες, αυστηρή εποπτεία και σαφή κατανομή ευθύνης. Οτιδήποτε λιγότερο είναι πρόσκληση σε θεσμικά λάθη μεγάλης κλίμακας.
Για το δημόσιο αυτό είναι ζήτημα κράτους δικαίου. Για τον ιδιωτικό τομέα είναι ζήτημα συμμόρφωσης, αξιοπιστίας και εταιρικής ευθύνης. Και για την κοινωνία συνολικά είναι ζήτημα δημοκρατίας. Δεν χρειαζόμαστε διοίκηση που απλώς φαίνεται έξυπνη. Χρειαζόμαστε διοίκηση που είναι ελέγξιμη, τεκμηριωμένη και υπεύθυνη.
Πηγές:
MIT Technology Review, The hardest question to answer about AI-fueled delusions, ρεπορτάζ για νέα έρευνα του Stanford πάνω σε 391.562 μηνύματα από 19 περιπτώσεις, που δείχνει ότι τα chatbots μπορούν να ενισχύουν παραληρητικές ή επικίνδυνες αλληλεπιδράσεις: https://www.linkedin.com/posts/mit-technology-review_the-hardest-question-to-answer-about-ai-fueled-activity-7441941657735946240-M7VV
NIST, Artificial Intelligence Risk Management Framework: Generative AI Profile, επίσημο πλαίσιο διαχείρισης κινδύνων για παραγωγική ΤΝ με έμφαση σε αξιοπιστία, παραισθήσεις, δοκιμές και ανθρώπινη εποπτεία: https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf
European Union, AI Act και ειδικά οι διατάξεις για διαφάνεια και ανθρώπινη εποπτεία, που θεμελιώνουν την ανάγκη ώστε οι χρήστες και οι φορείς ανάπτυξης να μπορούν να κατανοούν και να ελέγχουν την έξοδο των συστημάτων ΤΝ: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai?utm_source=chatgpt.com
OpenAI, Why Language Models Hallucinate, ανάλυση για το γιατί τα γλωσσικά μοντέλα τείνουν να μαντεύουν αντί να δηλώνουν αβεβαιότητα και γιατί αυτό παραμένει κεντρικό πρόβλημα αξιοπιστίας: https://openai.com/index/why-language-models-hallucinate/
European Commission, Responsible Use of Generative AI in Research, κατευθύνσεις υπεύθυνης χρήσης παραγωγικής ΤΝ με έμφαση στη διαφάνεια, τον έλεγχο και τη μηχανική λογοδοσία, χρήσιμες και για οργανισμούς πέρα από την έρευνα: https://research-and-innovation.ec.europa.eu/document/download/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en