Τα επιστημονικά επιχειρήματα κατά της αλόγιστης χρήσης ΤΝ στο Δημόσιο
Η Τεχνητή Νοημοσύνη προβάλλεται συχνά ως ουδέτερο εργαλείο εκσυγχρονισμού της δημόσιας διοίκησης. Η ρητορική της αποδοτικότητας, της ταχύτητας και της μείωσης κόστους δημιουργεί την εντύπωση ότι η ευρεία υιοθέτησή της αποτελεί αυτονόητη πρόοδο. Ωστόσο, η επιστημονική βιβλιογραφία επισημαίνει ότι η αλόγιστη ενσωμάτωση αλγοριθμικών συστημάτων σε κρίσιμες θεσμικές λειτουργίες ενέχει σοβαρούς κινδύνους για τη δημοκρατική λογοδοσία, τη νομική ασφάλεια και την κοινωνική εμπιστοσύνη.
Η ΤΝ δεν είναι ουδέτερη τεχνολογία
Οι Woodrow Hartzog και Jessica Silbey, στο έργο τους “How AI Destroys Institutions”, τεκμηριώνουν ότι τα συστήματα ΤΝ δεν λειτουργούν απλώς ως βοηθητικά εργαλεία, αλλά αναδιαμορφώνουν τους ίδιους τους θεσμούς. Όταν η λήψη αποφάσεων μεταφέρεται σε αλγοριθμικά μοντέλα, μεταβάλλονται οι δομές ευθύνης. Η ευθύνη διαχέεται μεταξύ προγραμματιστών, παρόχων υποδομών και διοικητικών φορέων, καθιστώντας δυσχερή την απόδοση λογοδοσίας.
Στη δημόσια διοίκηση, όπου η αιτιολογημένη πράξη και η δυνατότητα δικαστικού ελέγχου αποτελούν θεμέλια του κράτους δικαίου, η χρήση αδιαφανών μοντέλων δημιουργεί δομικό πρόβλημα. Εάν το σκεπτικό μιας διοικητικής απόφασης βασίζεται σε κλειστό αλγόριθμο, η διαφάνεια υπονομεύεται.
Τα όρια της προβλεπτικής ακρίβειας
Στο βιβλίο “AI Snake Oil”, οι Arvind Narayanan και Sayash Kapoor αναλύουν τις υπερβολικές αξιώσεις ακρίβειας που συχνά συνοδεύουν τα συστήματα ΤΝ. Η πλειονότητα των μοντέλων βασίζεται σε στατιστική πρόβλεψη με βάση ιστορικά δεδομένα. Αυτό συνεπάγεται ότι αναπαράγουν μοτίβα του παρελθόντος, συμπεριλαμβανομένων των προκαταλήψεων.
Σε περιβάλλοντα ριζικής αβεβαιότητας, όπως η απονομή δικαιοσύνης ή η χάραξη δημόσιας πολιτικής, η στατιστική κανονικότητα δεν ισοδυναμεί με ορθότητα. Η ανθρώπινη κρίση ενσωματώνει ερμηνεία, αξιακή στάθμιση και θεσμική μνήμη. Η αντικατάστασή της από αυτοματοποιημένες συστάσεις ενέχει κίνδυνο συστημικής μεροληψίας.
Αλγοριθμική αυθεντία & δημοκρατική διάβρωση
Η επιστημονική έρευνα στην αλγοριθμική διακυβέρνηση δείχνει ότι οι πολίτες τείνουν να αποδίδουν αυξημένη αξιοπιστία σε τεχνολογικά συστήματα. Αυτό το φαινόμενο, γνωστό ως automation bias, οδηγεί σε άκριτη αποδοχή προτάσεων που παράγονται από μοντέλα.
Όταν το Δημόσιο υιοθετεί κλειστές υποδομές που ελέγχονται από εξωευρωπαϊκές εταιρείες, προκύπτει και ζήτημα ψηφιακής κυριαρχίας. Πρωτοβουλίες όπως η GAIA-X αναγνωρίζουν την ανάγκη ευρωπαϊκής αυτονομίας στις υποδομές δεδομένων. Παράλληλα, εταιρείες όπως η Mistral AI αποδεικνύουν ότι είναι εφικτή η ανάπτυξη ανταγωνιστικών μοντέλων εντός Ευρώπης.
Η αλόγιστη εξάρτηση από κλειστά συστήματα μεταφέρει κρίσιμες λειτουργίες του Δημοσίου σε ιδιωτικά οικοσυστήματα. Η μετατόπιση αυτή δεν είναι τεχνική αλλά πολιτική.
Η ανάγκη στρατηγικής ανοιχτότητας
Η επιστημονική τεκμηρίωση δεν οδηγεί σε τεχνοφοβία, αλλά σε θεσμική προσοχή. Η χρήση ΤΝ στο Δημόσιο οφείλει να πληροί αυστηρές προϋποθέσεις διαφάνειας, ελέγξιμου κώδικα, αναπαραγωγιμότητας και θεσμικής εποπτείας.
Η επένδυση σε ανοικτά πρότυπα και τοπικές υποδομές δεν αποτελεί ιδεολογική επιλογή αλλά μηχανισμό διασφάλισης δημοκρατικής κυριαρχίας. Η τεχνολογία μπορεί να υποστηρίξει τους θεσμούς μόνο εφόσον παραμένει υπό δημόσιο έλεγχο. Διαφορετικά, κινδυνεύει να λειτουργήσει ως επιταχυντής συγκέντρωσης ισχύος και διάβρωσης της λογοδοσίας.
Πηγές άρθρου:
“How AI Destroys Institutions”, Woodrow Hartzog & Jessica Silbey: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5870623
“AI Snake Oil”, Arvind Narayanan & Sayash Kapoor: https://press.princeton.edu/books/hardcover/9780691249133/ai-snake-oil
“GAIA-X: A Federated Data Infrastructure for Europe”: https://gaia-x.eu/
“Mistral 7B Announcement”, Mistral AI: https://mistral.ai/news/announcing-mistral-7b/