Μια ιδιαίτερα επίκαιρη και πολυεπίπεδη συζήτηση για την Τεχνητή Νοημοσύνη και τον ρόλο της στη διαμόρφωση της αλήθειας στην ψηφιακή εποχή πραγματοποιήθηκε στο πλαίσιο του 11ου Οικονομικού Φόρουμ Δελφών 2026. Το θέμα «Τεχνητή Νοημοσύνη και η Μάχη για την Αλήθεια στην Ψηφιακή Εποχή» έθεσε στο επίκεντρο το ερώτημα αν η ραγδαία εξέλιξη των συστημάτων AI ενισχύει τη γνώση και τη διαφάνεια ή αν λειτουργεί ως πολλαπλασιαστής παραπληροφόρησης και σύγχυσης στον δημόσιο διάλογο.
Στο πάνελ συμμετείχαν ο υπουργός Ψηφιακής Διακυβέρνησης Δημήτρης Παπαστεργίου, ο υφυπουργός παρά τω πρωθυπουργώ και κυβερνητικός εκπρόσωπος Παύλος Μαρινάκης, ο καθηγητής του Οικονομικού Πανεπιστημίου Αθηνών και εταίρος της EY Χρήστος Ταραντίλης, η δημοσιογράφος του Αθηναϊκού-Μακεδονικού Πρακτορείου Ειδήσεων Αλεξάνδρα Γούτα και ο συγγραφέας Χρήστος Χωμενίδης.
Η τεχνητή νοημοσύνη ως καταλύτης παραπληροφόρησης
Η συζήτηση ανέδειξε κοινή ανησυχία ότι η τεχνητή νοημοσύνη δεν αποτελεί απλώς τεχνολογικό εργαλείο, αλλά καταλύτη που επιταχύνει υπάρχουσες παθογένειες του ψηφιακού οικοσυστήματος, κυρίως την εξάπλωση της παραπληροφόρησης. Οι παρεμβάσεις εστίασαν τόσο στη θεσμική διάσταση του προβλήματος, όπως η ανάγκη ενίσχυσης του ευρωπαϊκού πλαισίου ρύθμισης (DSA), όσο και στην κοινωνική και παιδευτική του διάσταση, με έμφαση στον ψηφιακό εγγραμματισμό και τη «γνωστική θωράκιση» των πολιτών.
Ιδιαίτερη βαρύτητα δόθηκε στο ζήτημα της ταυτοποίησης των χρηστών στο διαδίκτυο και στη διαφάνεια του περιεχομένου που παράγεται από AI. Οι ομιλητές υπογράμμισαν την ανάγκη για σαφή σήμανση, λογοδοσία των πλατφορμών και θεσμικούς φραγμούς απέναντι στη διάδοση ψευδών ειδήσεων. Παράλληλα τέθηκε και η υπαρξιακή διάσταση του ζητήματος, με προβληματισμούς γύρω από τη σχέση ανθρώπινης κρίσης και αλγοριθμικής «ευκολίας».
Δημήτρης Παπαστεργίου: «Πρέπει να τελειώνουμε με την ανωνυμία στο διαδίκτυο»
Ο Δημήτρης Παπαστεργίου επεσήμανε ότι η αποδοχή χωρίς κριτική των αποτελεσμάτων της τεχνητής νοημοσύνης οδηγεί συχνά σε λανθασμένα συμπεράσματα. Τόνισε πως η «εύκολη και γρήγορη αλήθεια» της AI δεν είναι πάντοτε η πραγματική αλήθεια και κάλεσε για ενίσχυση της παιδείας και της αναζήτησης της βαθύτερης γνώσης.
Αναφερόμενος στην ταχύτητα διάδοσης ψευδών ειδήσεων, σημείωσε ότι οι πλατφόρμες κοινωνικής δικτύωσης πρέπει να αναλάβουν ευθύνη, καθώς «βγάζουν χρήματα από τέτοια περιεχόμενα». Υπογράμμισε ότι η Ευρώπη πρέπει να επιβάλει φραγμούς σε ευρωπαϊκό επίπεδο, επισημαίνοντας ότι «πρέπει να τελειώνουμε με την ανωνυμία» στο διαδίκτυο μέσω υποχρεωτικής ταυτοποίησης των χρηστών.
Παύλος Μαρινάκης: «Η δημοκρατία δεν είναι ασυδοσία»
Ο Παύλος Μαρινάκης προειδοποίησε για τον κίνδυνο αλλοίωσης εκλογικών αποτελεσμάτων μέσω της τεχνητής νοημοσύνης. Όπως είπε, μεγαλύτερος κίνδυνος δεν είναι τα deepfake βίντεο, αλλά τα ανυπόγραφα άρθρα και οι ανώνυμοι λογαριασμοί που διαδίδουν ψευδείς πληροφορίες.
Τόνισε την ανάγκη ταυτοποίησης των χρηστών στο διαδίκτυο και ξεκαθάρισε ότι «η δημοκρατία δεν είναι ασυδοσία», καλώντας σε ευρωπαϊκή δράση για την επιβολή κανόνων στις πλατφόρμες κοινωνικής δικτύωσης. Επισήμανε ότι οι πολίτες πρέπει να γνωρίζουν πότε ένα βίντεο ή περιεχόμενο είναι προϊόν τεχνητής νοημοσύνης.
Χρήστος Ταραντίλης: «Η αποπληροφόρηση μεγαλύτερος κίνδυνος από την κλιματική κρίση»
Ο Χρήστος Ταραντίλης υπογράμμισε ότι η τεχνητή νοημοσύνη μπορεί να είναι ταυτόχρονα πηγή αλήθειας και παραπληροφόρησης. Αναφέρθηκε στα εκατομμύρια deepfake βίντεο και ηχητικά αποσπάσματα που κυκλοφορούν, επισημαίνοντας ότι η αποπληροφόρηση θεωρείται, βάσει μελέτης του World Economic Forum, ο μεγαλύτερος παγκόσμιος κίνδυνος για τα έτη 2024 και 2026.
Πρότεινε την εφαρμογή ψηφιακής σήμανσης και υδατογραφημάτων για κάθε περιεχόμενο που παράγεται από AI, καθώς και την εκπαίδευση των πολιτών στην «ψηφιακή παιδεία» από το δημοτικό σχολείο. Ιδιαίτερη αναφορά έκανε στην ανάγκη εκπαίδευσης της τρίτης ηλικίας, ώστε να μην απομακρύνεται από τη δημόσια ζωή λόγω σύγχυσης ή δυσπιστίας απέναντι στις πληροφορίες.
Αλεξάνδρα Γούτα: «Η ταχύτητα του ψεύδους έναντι της δημοσιογραφικής επαλήθευσης»
Η Αλεξάνδρα Γούτα παρομοίασε την τεχνητή νοημοσύνη με τον «Ιανό», επισημαίνοντας τη διπλή της φύση: εργαλείο έρευνας αλλά και πηγή παραπληροφόρησης. Σύμφωνα με τα στοιχεία που παρουσίασε, ένα deepfake βίντεο μπορεί να δημιουργηθεί σε λίγα λεπτά, ενώ η διάψευσή του απαιτεί ημέρες, διαδίδεται δε έως και 20 φορές ταχύτερα από τις πραγματικές ειδήσεις.
Τόνισε ότι οι αλγόριθμοι των social media επιβραβεύουν το ακραίο και συναισθηματικά φορτισμένο περιεχόμενο και πρότεινε την ενίσχυση της «αργής» και επώνυμης δημοσιογραφίας, καθώς και τη χρήση εργαλείων επαλήθευσης για την προστασία των πολιτών.
Χρήστος Χωμενίδης: Η υπαρξιακή απειλή της τεχνητής νοημοσύνης
Ο Χρήστος Χωμενίδης προσέγγισε το θέμα από φιλοσοφική σκοπιά, υπογραμμίζοντας ότι οι άνθρωποι συχνά προτιμούν μια «ωραία ιστορία» από την αντικειμενική αλήθεια. Αυτή η τάση καθιστά τα deepfakes ιδιαίτερα επικίνδυνα, καθώς το κοινό είναι έτοιμο να πιστέψει το ψεύδος που ταιριάζει στις πεποιθήσεις του.
Εξέφρασε την ανησυχία ότι η AI μπορεί να εξελιχθεί σε υπαρξιακή απειλή για την κυριαρχία του ανθρώπου, καθώς στερείται «βιώματος» και «εγώ». Προειδοποίησε ότι η ανεξέλεγκτη ανάπτυξή της μπορεί να οδηγήσει σε μια εποχή όπου ο άνθρωπος θα χάσει την κριτική του ικανότητα προς χάρη της ευκολίας.