Γιατί η Τεχνητή Νοημοσύνη κάνει λάθη κοινής λογικής
Η εντυπωσιακή ευχέρεια δεν είναι κατανόηση
Τα σύγχρονα μεγάλα γλωσσικά μοντέλα μπορούν να γράψουν κείμενα, να συνοψίσουν έγγραφα, να παράγουν κώδικα, να μεταφράσουν, να απαντήσουν σε ερωτήσεις και να οργανώσουν πολύπλοκες εργασίες με ταχύτητα που εντυπωσιάζει. Αυτή η ευχέρεια δημιουργεί όμως μια επικίνδυνη παρεξήγηση: επειδή η απάντηση μοιάζει ανθρώπινη, θεωρούμε ότι πίσω της υπάρχει ανθρώπινη κατανόηση.
Δεν υπάρχει. Τα μοντέλα Τεχνητής Νοημοσύνης δεν καταλαβαίνουν τον κόσμο όπως τον καταλαβαίνει ένας άνθρωπος. Δεν έχουν σώμα, εμπειρία, κοινωνικό πλαίσιο, καθημερινή τριβή με τα πράγματα. Δεν γνωρίζουν τι σημαίνει να σταθείς σε μια ουρά, να χάσεις ένα δικαιολογητικό, να μπερδευτείς σε μια διοικητική διαδικασία ή να πρέπει να διακρίνεις αν ένας κανόνας ισχύει για τη δική σου περίπτωση. Υπολογίζουν σχέσεις μέσα στη γλώσσα και στα δεδομένα. Παράγουν την πιθανότερη συνέχεια ενός κειμένου. Μπορούν να είναι εξαιρετικά χρήσιμα, αλλά μπορούν και να κάνουν λάθη που ένας άνθρωπος θα απέφευγε αμέσως.
Αυτό εξηγεί γιατί ένα μοντέλο μπορεί να γράψει μια πειστική ανάλυση για τη φορολογική πολιτική και ταυτόχρονα να αποτύχει σε ένα απλό πρόβλημα κοινής λογικής. Η γλωσσική δεξιότητα δεν ταυτίζεται με κρίση. Η στατιστική συσχέτιση δεν είναι αιτιώδης κατανόηση. Η ομοιότητα με ανθρώπινη έκφραση δεν αποτελεί απόδειξη ανθρώπινης σκέψης.
Τα μοντέλα ως εξερευνητές που πατούν κουμπιά
Ένας χρήσιμος τρόπος να σκεφτούμε αυτά τα συστήματα είναι ως «εξερευνητές που πατούν κουμπιά». Δοκιμάζουν μια ενέργεια, παρατηρούν το αποτέλεσμα, προσαρμόζουν την επόμενη απάντηση ή πράξη. Σε περιβάλλοντα όπου υπάρχει άμεση ανατροφοδότηση, αυτό μπορεί να παράγει εντυπωσιακή συμπεριφορά. Σε περιβάλλοντα όπου χρειάζεται βαθιά κατανόηση, μακροπρόθεσμη συνέπεια και κοινωνική κρίση, η ίδια μέθοδος γίνεται εύθραυστη.
Το πρόβλημα μεγαλώνει όταν τα μοντέλα χρησιμοποιούνται ως πράκτορες, δηλαδή όταν δεν απαντούν απλώς σε ερωτήσεις, αλλά καλούν εργαλεία, ανοίγουν αρχεία, εκτελούν εντολές, συμπληρώνουν φόρμες ή προτείνουν διοικητικές ενέργειες. Εκεί το λάθος δεν μένει σε ένα κείμενο. Μπορεί να επηρεάσει μια αίτηση, ένα επίδομα, μια άδεια, μια προμήθεια, μια φορολογική υποχρέωση ή μια δημόσια υπηρεσία.
Στον δημόσιο τομέα αυτό είναι κρίσιμο. Ένα λάθος σε μια γενική απάντηση είναι ενοχλητικό. Ένα λάθος σε μια διοικητική διαδικασία μπορεί να γίνει αδικία. Ένας ψηφιακός βοηθός που απαντά με σιγουριά αλλά χωρίς τεκμηρίωση μπορεί να οδηγήσει τον πολίτη σε λάθος βήματα. Ένα εργαλείο που συνοψίζει νομοθεσία χωρίς να ελέγχει το ισχύον κείμενο μπορεί να αναπαράγει παρωχημένη πληροφορία. Ένα σύστημα που προτείνει επιλογές σε υπάλληλο χωρίς παραπομπές μπορεί να μεταφέρει το σφάλμα μέσα στη διοίκηση.
Γιατί χρειάζονται συστήματα RAG
Η απάντηση δεν είναι να απορρίψουμε την Τεχνητή Νοημοσύνη. Είναι να τη σχεδιάσουμε σωστά. Εδώ μπαίνουν τα συστήματα RAG, δηλαδή τα συστήματα παραγωγής απαντήσεων με ανάκτηση τεκμηρίων από αξιόπιστες πηγές. Αντί το μοντέλο να απαντά μόνο από τη «μνήμη» του, πρώτα αναζητά σχετικά έγγραφα, νόμους, οδηγίες, βάσεις γνώσης ή επίσημες σελίδες και μετά παράγει απάντηση με βάση αυτά.
Αυτό αλλάζει ριζικά τη χρήση της ΤΝ στο Δημόσιο. Ένας βοηθός για πολίτες δεν πρέπει να «ξέρει» γενικά τι ισχύει για μια άδεια. Πρέπει να ανακτά την ισχύουσα διαδικασία από το μητρώο διοικητικών διαδικασιών, τη σχετική υπουργική απόφαση, τη σελίδα της υπηρεσίας και τα απαιτούμενα δικαιολογητικά. Ένα εργαλείο για δημόσιους υπαλλήλους δεν πρέπει να συνοψίζει έναν νόμο από μνήμης. Πρέπει να δείχνει άρθρο, παράγραφο, ημερομηνία ισχύος και πηγή.
Τα RAG συστήματα δεν εξαφανίζουν τις παραισθήσεις. Τις περιορίζουν. Το κάνουν επειδή δένουν την απάντηση σε συγκεκριμένο τεκμήριο. Επιτρέπουν στον χρήστη να ελέγξει την πηγή. Δίνουν στη διοίκηση ίχνος ελέγχου. Επιτρέπουν αξιολόγηση: αν η απάντηση είναι λάθος, μπορεί να ελεγχθεί αν έφταιξε η ανάκτηση, η πηγή, η διατύπωση της ερώτησης ή το ίδιο το μοντέλο.
Ευρωπαϊκά παραδείγματα για τον δημόσιο τομέα
Η Γαλλία κινείται με το Albert API, μια διακυβερνητική πλατφόρμα παραγωγικής ΤΝ για δημόσιες υπηρεσίες. Το σημαντικό δεν είναι μόνο ότι προσφέρει πρόσβαση σε μοντέλα, αλλά ότι παρέχει RAG ως υπηρεσία, ώστε οι διοικήσεις να χτίζουν εφαρμογές πάνω σε δικές τους βάσεις γνώσης και όχι σε αδιαφανή γενική μνήμη ενός μοντέλου.
Στο Ηνωμένο Βασίλειο, το GOV.UK Chat σχεδιάζεται ως RAG σύστημα πάνω στο περιεχόμενο του GOV.UK. Η αξία του δεν βρίσκεται μόνο στην ευκολία της συνομιλίας, αλλά στην απαίτηση να μπορεί ο πολίτης να ελέγχει την απάντηση στην αρχική πηγή. Ταυτόχρονα, οι δοκιμές έδειξαν ότι οι χρήστες μπορεί να υπερεμπιστεύονται ένα εργαλείο επειδή φέρει το κύρος του κράτους. Άρα η διαφάνεια και η προειδοποίηση για πιθανά λάθη είναι μέρος της υπηρεσίας, όχι υποσημείωση.
Στην Εσθονία, το Bürokratt δείχνει μια άλλη κατεύθυνση: ένας εθνικός ψηφιακός βοηθός που βοηθά τους πολίτες να βρίσκουν πληροφορίες για δημόσιες υπηρεσίες και, όταν δεν μπορεί να απαντήσει, τους κατευθύνει σε άνθρωπο. Αυτή η αρχή είναι θεμελιώδης. Το σύστημα δεν πρέπει να προσποιείται παντογνωσία. Πρέπει να ξέρει πότε να σταματά.
Στο επίπεδο της Ευρωπαϊκής Ένωσης, το ESSbot της European Labour Authority δείχνει πώς ένα RAG πλαίσιο μπορεί να βοηθήσει στην ανάκτηση σχετικής νομικής πληροφορίας για εργασιακά και διασυνοριακά ζητήματα. Η αξία του είναι ότι το σύστημα βελτιώνεται με ανατροφοδότηση χρηστών, όχι με τυφλή εμπιστοσύνη στο μοντέλο.
Για μια δημόσια ΤΝ με ανοιχτά πρότυπα
Για την Ελλάδα, το συμπέρασμα είναι σαφές. Κάθε δημόσιο σύστημα ΤΝ που αφορά δικαιώματα, υποχρεώσεις, επιδόματα, άδειες, φόρους, δημόσιες συμβάσεις ή διοικητικές διαδικασίες πρέπει να είναι RAG by default. Πρέπει να βασίζεται σε ανοιχτά πρότυπα, δημόσια ελεγχόμενα δεδομένα, καταγραφή ενεργειών, ανθρώπινη τελική ευθύνη και δυνατότητα ανεξάρτητου ελέγχου.
Η ΤΝ μπορεί να κάνει το κράτος πιο γρήγορο. Μόνο η σωστή αρχιτεκτονική μπορεί να το κάνει πιο αξιόπιστο. Και στον δημόσιο τομέα, η αξιοπιστία δεν είναι τεχνικό χαρακτηριστικό. Είναι δημοκρατική υποχρέωση.
Πηγές άρθρου:
ARC Prize Foundation, ARC-AGI-3: A New Challenge for Frontier Agentic Systems: Η εργασία τεκμηριώνει το χάσμα ανάμεσα στην ανθρώπινη επίδοση και την επίδοση προηγμένων συστημάτων ΤΝ σε διαδραστικά προβλήματα συλλογισμού, με ανθρώπους στο 100% και συστήματα ΤΝ κάτω από 1%, συνδέεται άμεσα με το επιχείρημα ότι η ευχέρεια δεν ισοδυναμεί με κοινή λογική: https://arxiv.org/abs/2603.24621,
UK Government, AI Insights: RAG Systems: Εξηγεί γιατί τα συστήματα RAG μειώνουν τις παραισθήσεις, επειδή γειώνουν τις απαντήσεις σε έγκυρες πηγές γνώσης αντί να βασίζονται μόνο στα σταθερά δεδομένα εκπαίδευσης του μοντέλου: https://www.gov.uk/government/publications/ai-insights/ai-insights-rag-systems-html,
DINUM, Albert API: Η επίσημη γαλλική πλατφόρμα Albert API περιγράφεται ως διακυβερνητική πλατφόρμα παραγωγικής ΤΝ για διοικήσεις, με πρόσβαση σε μοντέλα και RAG as a service, κατάλληλο παράδειγμα δημόσιας ευρωπαϊκής υποδομής ΤΝ με τεκμηριωμένη ανάκτηση: https://albert.sites.beta.gouv.fr/,
Government Digital Service, Developing GOV.UK Chat: Our data science and AI engineering journey: Περιγράφει το GOV.UK Chat ως RAG σύστημα που συνδυάζει σημασιολογική αναζήτηση και παραγωγική ΤΝ για απαντήσεις πάνω στο περιεχόμενο του GOV.UK, με έμφαση στην αξιολόγηση και την επαλήθευση: https://insidegovuk.blog.gov.uk/2026/05/15/developing-gov-uk-chat-our-data-science-and-ai-engineering-journey/,
European Labour Authority, ESSbot AI-powered chatbot public record: Το δημόσιο αρχείο του ESSbot αναφέρει ρητά τη χρήση RAG framework για ακριβέστερη ανάκτηση σχετικής νομικής πληροφορίας από εξωτερικές πηγές και τη χρήση ανατροφοδότησης για βελτίωση του συστήματος: https://www.ela.europa.eu/sites/default/files/2026-02/ELA_Record_ESSbot_public_version.pdf.