Γιατί η αλόγιστη χρήση LLMs στο Δημόσιο είναι επιστημονικά και θεσμικά επισφαλής
Η διάλεξη του Michael Wooldridge στη Royal Society έθεσε το ζήτημα στη σωστή του βάση: τα σημερινά Μεγάλα Γλωσσικά Μοντέλα δεν είναι «λογικός νους», αλλά στατιστικοί μηχανισμοί πρόβλεψης ακολουθιών λέξεων. Δεν διαθέτουν την έννοια αλήθειας, δεν έχουν επίγνωση των ορίων τους και δεν φέρουν ευθύνη για το αποτέλεσμα. Αυτό το επιστημονικό δεδομένο έχει άμεσες συνέπειες για τον δημόσιο τομέα, όπου η απόφαση πρέπει να είναι αιτιολογημένη, ελέγξιμη και αποδοτέα σε πρόσωπα και θεσμούς. (Royal Society)
Το πρόβλημα δεν είναι η «απόδοση», αλλά η αξιοπιστία
Η βασική αδυναμία των LLMs είναι η παραγωγή πειστικού λόγου χωρίς εγγύηση ορθότητας. Η γνωστή αποτυχία «hallucination» δεν είναι απλό σφάλμα υλοποίησης, αλλά δομική συνέπεια της πρόβλεψης με βάση συσχετίσεις. Η κριτική των Narayanan και Kapoor δείχνει ότι μεγάλο μέρος των ισχυρισμών για «ακρίβεια» και «αντικειμενικότητα» στηρίζεται σε κακή μεθοδολογία αξιολόγησης, σε υπερπροσαρμογή σε benchmarks και σε σύγχυση μεταξύ γλωσσικής ευφράδειας και επιστημονικής εγκυρότητας. (NIST Publications) (για πλαίσιο κινδύνων) (NIST)
Διάχυση ευθύνης και διάβρωση θεσμών
Όταν η ΤΝ μπαίνει στον πυρήνα διοικητικών και νομικών ροών, μετατρέπεται από εργαλείο σε υποδομή που αναδιαμορφώνει την ίδια τη θεσμική λειτουργία. Αυτό τεκμηριώνεται από Hartzog και Silbey: η αυτοματοποίηση αλλάζει τις ιεραρχίες ευθύνης, θολώνει τη λογοδοσία και αποδυναμώνει τη συσσωρευμένη θεσμική γνώση. Στο Δημόσιο, όπου η πράξη πρέπει να αιτιολογείται και να αμφισβητείται, το «μαύρο κουτί» είναι ασύμβατο με το κράτος δικαίου. (Royal Society) (EUR-Lex)
Υπερεμπιστοσύνη στην αυτοματοποίηση και νέοι κίνδυνοι ασφάλειας
Ακόμη και όταν υπάρχει τυπικά «ανθρώπινος έλεγχος», η έρευνα στη δημόσια διοίκηση δείχνει ότι οι άνθρωποι τείνουν να υπερεμπιστεύονται αλγοριθμικές εισηγήσεις, ακόμη και όταν υπάρχουν προειδοποιητικά σήματα. Το φαινόμενο “automation bias” υπονομεύει την ιδέα ότι ο άνθρωπος διορθώνει πάντα το σύστημα. (OUP Academic). Παράλληλα, η ενσωμάτωση LLMs σε ροές RAG και «agents» εισάγει επιφάνειες επίθεσης όπως “prompt injection” και “corpus poisoning”, δηλαδή τρόπους με τους οποίους τρίτοι μπορούν να χειραγωγήσουν το σύστημα ώστε να παραγάγει λανθασμένες ή επικίνδυνες ενέργειες. Αυτοί οι κίνδυνοι είναι ιδιαίτερα κρίσιμοι σε υπηρεσίες με πρόσβαση σε εσωτερικά έγγραφα και μητρώα. (arXiv)
Τι σημαίνει ρεαλιστική πολιτική ΤΝ
Η επιστημονικά συνεπής στάση είναι: εργαλείο υποβοήθησης, όχι φορέας απόφασης. Υποχρεωτική τεκμηρίωση σκοπού, ανθρώπινη υπογραφή, περιορισμός σε χρήσεις χαμηλού ρίσκου, και ευθυγράμμιση με απαιτήσεις διαχείρισης κινδύνου και ανθρώπινης εποπτείας που αποτυπώνονται σε πλαίσια όπως το “NIST AI RMF” και σε κανόνες όπως ο “EU AI Act” για υψηλού κινδύνου εφαρμογές. (NIST Publications)
Τέλος, για ψηφιακή κυριαρχία και έλεγχο, το Δημόσιο οφείλει να προτιμά ανοικτές, ελέγξιμες ευρωπαϊκές στοίβες όπου είναι εφικτό: open-weight μοντέλα όπως το Mistral Large 3 (Mistral AI) και πρωτοβουλίες διαφάνειας όπως το OpenEuroLLM (OpenEuroLLM), μαζί με τεκμηριωμένα ευρωπαϊκά μοντέλα (Apertus, EuroLLM, Velvet) που ενισχύουν τη γλωσσική κάλυψη και τη δυνατότητα τοπικής εγκατάστασης. (Hugging Face)
Πηγές άρθρου:
1. Michael Faraday Prize Lecture, “This is not the AI we were promised”, Royal Society: εκδήλωση και περιγραφή διάλεξης (18 Feb 2026) (Royal Society)
2. Regulation (EU) 2024/1689 (Artificial Intelligence Act), EUR-Lex: δεσμευτικό πλαίσιο για υψηλού κινδύνου συστήματα (EUR-Lex)
3. NIST AI RMF 1.0 (NIST AI 100-1): πλαίσιο διαχείρισης κινδύνων και αξιοπιστίας (NIST Publications)
4. Hartzog & Silbey, “How AI Destroys Institutions”, SSRN: θεσμική διάβρωση, λογοδοσία (Royal Society)
5. Alon-Barkat et al., “Human–AI Interactions in Public Sector Decision Making”, JPART (OUP): υπερεμπιστοσύνη σε αλγοριθμικές εισηγήσεις (OUP Academic)
6. Ramakrishnan et al., “Securing AI Agents Against Prompt Injection Attacks”, arXiv: κίνδυνοι prompt injection σε RAG (arXiv)
7. Clop et al., “Backdoored Retrievers for Prompt Injection Attacks on RAG”, arXiv: corpus poisoning και backdoors (arXiv)