Αναφορά EDMO: Προληπτική κατάρριψη παραπληροφόρησης με χρήση τεχνητής νοημοσύνης ενόψει των ευρωεκλογών

|

|

Ευρωπαΐοι πολίτες από 27 διαφορετικά κράτη μέλη θα ψηφίσουν στις επόμενες ευρωεκλογές μεταξύ 6 και 9 Ιουνίου. Κατά την διάρκεια της θητείας του τωρινού ευρωκοινοβουλίου, η Ευρωπαϊκή Ένωση αντιμετώπισε τεράστιες και πρωτοφανείς δυσκολίες, από την πανδημία της COVID-19 μέχρι τον πόμεμο στην Ουκρανία, οι οποίες άφησαν έντονα σημάδια σε πολλές ευρωπαϊκές κοινωνίες. Σύμφωνα με πρόσφατη παγκόσμια δημοσκόπηση της UNESCO το 85% των ανθρώπων ανησυχούν για τις επιπτώσεις της κακόβουλης παραπληροφόρησης και το 87% πιστεύει ότι έχει ήδη προκαλέσει προβλήματα στην πολιτική της χώρας τους. Ενόψει των ευρωεκλογών η κακόβουλη παραπληροφόρηση αποτελεί πραγματικό κίνδυνο για εκμετάλλευση και ενίσχυση της πόλωσης που υπάρχει ήδη σε πολλές ευρωπαϊκές χώρες.

Σύμφωνα με ερευνητικές μελέτες και διάφορους ειδικούς, μια από τις πιο ανησυχητικές εξελίξεις στον χώρο της τεχνητής νοημοσύνης τα τελευταία χρόνια είναι η δυνατότητα λογισμικού AI να δημιουργήσει υλικό το οποίο μπορεί να χρησιμοποιηθεί για προώθηση κακόβουλης παραπληροφόρησης. Τον Μάρτιο του 2024, το ευρωκοινοβούλιο υιοθέτησε το AI act, μια ενδελεχή νομοθεσία για την ρύθμιση λογισμικού τεχνητής νοημοσύνης, ωστόσο οι εν λόγω νομοθετικές ρυθμίσεις δεν θα τεθούν εγκαίρως σε λειτουργία για τις επόμενες ευρωεκλογές του 2024. Άλλα ευρωπαϊκά νομοθετικά εργαλεία, συγκεκριμένα το DSA και το DMA, μπορούν δυνητικά να παίξουν ρόλο στην ρύθμιση της κακόβουλης χρήσης λογισμικού τεχνητής νοημοσύνης για διασπορά παραπληροφόρησης. Ωστόσο, η νομοθεσία που αφορά αυτό το πεδίο είναι σχετικά καινούργια και δεν έχει δοκιμαστεί στην πράξη.

Σύμφωνα με τις μηνιαίες αναφορές του δικτύου fact-checking του EDMO για την παραπληροφόρηση στην Ευρώπη, μέχρι στιγμής, το υλικό που χρησιμοποιείται στα πλαίσια κακόβουλης παραπληροφόρησης και παράγεται από λογισμικό τεχνητής νοημοσύνης αποτελεί μειοψηφία των συνολικών περιπτώσεων. Ωστόσο, ορισμένες σχετικές περιπτώσεις κυκλοφόρησαν ευρέως τους περασμένους μήνες και καταρρίφθηκαν από οργανισμούς fact-checking.

Εξετάζοντας τις τέσσερις βασικές κατηγορίες περιεχομένου που παράγεται από λογισμικό τεχνητής νοημοσύνης (εικόνες, ηχητικά αρχεία, βίντεο και κείμενα) και εξετάζοντας πρόσφατες περιπτώσεις (πολλές εκ των οποίων αναλύονται σε αυτή την αναφορά της ομάδας του EDMO για την παραπληροφόρηση σχετικά με τις ευρωεκλογές και στις μηνιαίες αναφορές του EDMO) τι μπορούμε να περιμένουμε στις ερχόμενες ευρωεκλογές;

Εικόνες AI

Τους περασμένους μήνες κυκλοφόρησαν διάφορες εικόνες που δημιουργήθηκαν με λογισμικό τεχνητής νοημοσύνης σε διαφορετικές χώρες της ΕΕ στο πλαίσιο διασποράς κακόβουλης παραπληροφόρησης. Για παράδειγμα, κυκλοφόρησε εικόνα με τρακτέρ και μπάλες από άχυρο μπροστά στον Πύργο του Άιφελ σε μια προσπάθεια διόγκωσης των εξελίξεων για τις πορείες των αγροτών. Επίσης, κυκλοφόρησε εικόνα με τον Frans Timmermans, πρώην αντιπρόεδρο της Ευρωπαϊκής Επιτροπής και υποψήφιο για την προεδρία του συνασπισμού GroenLinks–PvdA στις εκλογές της Ολλανδίας το 2023, σε ιδιωτικό τζετ να γευματίζει σε ταξίδι από και προς την Μάλαγα παρουσιάζοντας το σκηνικό ως απόδειξη διαφθοράς. Εντοπίστηκαν επίσης, εικόνα του Ντόναλντ Τράμπ με τον Τζέφρι Έπσταιν στο πλαίσιο προσπάθειας στοχοποίησης του πρώην προέδρου των ΗΠΑ, εικόνα με μια άστεγη Ιρλανδή μητέρα με παιδιά για ενίσχυση των εντάσεων εναντίων μεταναστών στην Ιρλανδία λόγω του προβλήματος στέγασης, μια εικόνα που έδειχνε έναν όροφο κτηρίου γεμάτο με κουτιά πίτσας στο συνέδριο του γερμανικού κόματος των Πράσινων για στοχοποίηση του κόματος και ούτω καθεξής.

Σε όλες αυτές τις περιπτώσεις υπήρχαν στοιχεία που έδειχναν ότι πρόκειται για εικόνες που δημιουργήθηκαν με λογισμικό τεχνητής νοημοσύνης: τα χέρια, τα μάτια, λάθος σχήματα και σκιές πρόδιδαν ότι η εικόνα δεν ήταν πραγματική. Η σχετική ευκολία με την οποία εντοπίζονται οι εικόνες που έχουν δημιουργηθεί με λογισμικό AI από ειδικούς, αλλά και από απλούς χρήστες, είναι ίσως ένας από τους λόγους για τους οποίους η εν λόγω τεχνολογία δεν χρησιμοποιείται ακόμα μαζικά στο πλαίσιο κακόβουλης παραπληροφόρησης. Σε πρόσφατες κρίσεις, όπως ο πόλεμος Ισραήλ/Χαμάς, η γνωστή τεχνική της κοινοποίησης παλιών φωτογραφιών με χρήση παραπλανητικής λεζάντας για διασπορά παραπληροφόρησης ήταν πολύ πιο συχνή συγκριτικά με εικόνες που δημιουργήθηκαν με λογισμικό AI.

Συνυπολογίζοντας τις προηγούμενες περιπτώσεις χρήσεις λογισμικού AI και την τωρινή ικανότητα τέτοιων λογισμικών να παράγουν εικόνες, μπορούμε να υποθέσουμε ότι θα υπάρξει περιορισμένη αλλά όχι ιδιαίτερα σημαντική χρήση αυτής της τεχνικής παραπληροφόρησης στο πλαίσιο των ευρωεκλογών. Μπορούμε να περιμένουμε ότι θα δημιουργηθούν εικόνες AI για να ενισχυθούν διαφορετικά αφηγήματα, για παράδειγμα σχετικά με στημένες εκλογές, επεξεργασμένα ψηφοδέλτια και συμμετοχή παράνομων μεταναστών στις εκλογές. Επίσης είναι πιθανό τέτοιες εικόνες να χρησιμοποιηθούν για στοχοποίηση πολιτικών ή για να μεταφέρουν συναισθηματικά φορτισμένα μηνύματα για θέματα της επικαιρότητας, για πολιτικές αντιπαραθέσεις και ούτω καθεξής.

Ωστόσο, η ποιότητα αυτού του υλικού επιτρέπει τον γρήγορο και αποτελεσματικό εντοπισμό και κατάρριψη του, ακόμα και από απλούς χρήστες. Κατά συνέπεια είναι πιθανό ότι και το ποσοστό της κακόβουλης παραπληροφόρησης με χρήση εικόνων ΑΙ δεν θα αυξηθεί πριν τις εκλογές σε επίπεδα πολύ πανω από αυτά που εντοπίστηκαν τους περασμένους μήνες. Πολύ πιο πιθανή είναι η χρήση της τεχνικής διασποράς παλιών φωτογραφιών με χρήση λεζάντας που θέτει τις φωτογραφίες εκτός πλαισίου με στόχο κακόβουλη παραπληροφόρηση.

Προφανώς αυτά τα συμπεράσματα μπορεί να αλλάξουν πολύ γρήγορα σε περίπτωση που υπάρξει κάποια σημαντική εξέλιξη στην ικανότητα λογισμικού ΑΙ να παράγει εικόνες οι οποίες είναι πολύ δύσκολο να εντοπιστούν.

ΑΙ ηχητικά αρχεία

Λαμβάνοντας υπόψιν προηγούμενες σχετικές περιπτώσεις, μπορούμε να πούμε ότι η κακόβουλη παραπληροφόρηση με χρήση ηχητικών αρχείων που παράγονται από λογισμικό τεχνητής νοημοσύνης αποτελεί μια από τις μεγαλύτερες ανησυχίες αυτή τη στιγμή. Η εν λόγω τεχνολογία είναι ήδη σε θέση να παράγει υλικό το οποίο δύσκολα μπορεί ο μέσος χρήστης να το αναγνωρίσει ως ψευδές. Τα ηχητικά αρχεία που παράγονται με χρήση AI δεν έχουν επίσης το μειονέκτημα των AI βίντεο, δηλαδή τα οπτικά στοιχεία που μπορεί να προδίδουν ότι πρόκειται για ψευδές υλικό, ενώ ακόμα και εργαλεία εντοπισμού AI αρχείων δεν μπορούν να τα ταυτοποιήσουν με επαρκή αποτελεσματικότητα.

Ένα συγκεκριμένο παράδειγμα δείχνει πως η εν λόγω τεχνική κακόβουλης παραπληροφόρησης μπορεί να είναι ιδιαίτερα επιβλαβείς πριν από εκλογές. Στην Σλοβακία, δυο μόλις μέρες πριν τις εκλογές τον Σεπτέμβριο του 2023, χιλιάδες χρήστες μέσων κοινωνικής δικτύωσης κοινοποίησαν ένα ύποπτο ηχητικό αρχείο, το οποίο παρουσιάστηκε ως συζήτηση μεταξύ του Michal Šimečka, προέδρου του κόμματος PS και της δημοσιογράφου Monika Tódová. Το εν λόγω αρχείο υποτίθεται πως ήταν ηχογράφηση τηλεφωνικής επικοινωνίας μεταξύ τους στο οποίο συζητούσαν πώς θα μπορούσαν να επηρεάσουν τις εκλογές υπέρ του κόμματος PS, με μια από τις προτάσεις να είναι η αγορά ψήφων από την κοινότητα των Ρομά στην χώρα.

Η ποιότητα του ηχητικού αρχείου ήταν σχετικά κακή, επομένως διάφοροι ειδικοί συμπέραναν ότι πιθανότατα ήταν προϊόν λογισμικού AI. Ωστόσο, το ηχητικό αρχείο κυκλοφόρησε ευρέως κατά την διάρκεια των εκλογών, γεγονός που έκανε την απάντηση του εμπλεκόμενου πολιτικού ακόμα πιο δύσκολη.

Λίγες μέρες πριν την κυκλοφορία αυτού του ηχητικού αρχείου, ο Šimečka στοχοποιήθηκε με χρήση παρόμοιου υλικού. Διάφορες αναρτήσεις στα μέσα κοινωνικής δικτύωσης αναπαρήγαγαν ηχητική ηχογράφηση στην οποία υποτίθεται πως ακουγόταν ο Šimečka να συζητά τα σχέδια του κόμματος του για απότομη αύξηση στην τιμή της μπύρας πριν τις εκλογές. Η ποιότητα του ήχου ήταν και πάλι αρκετά κακή για να οδηγήσει ειδικούς στο συμπέρασμα ότι πρόκειται για αρχείο που δημιουργήθηκε με λογισμικό τεχνητής νοημοσύνης. Ωστόσο, στο μεταξύ, το ψευδές ηχητικό αρχείο κυκλοφόρησε ευρέως λίγες μέρες πριν τις εκλογές.

Ένα ακόμα σχετικό παράδειγμα που μπορούμε να αναφέρουμε είναι αυτό του προέδρου των ΗΠΑ, Joe Biden. Δύο μέρες πριν τις εκλογές για το χρίσμα των Δημοκρατικών στο New Hampshire τον Ιανουάριο του 2024, χιλιάδες άνθρωποι στην πολιτεία έλαβαν μια κλήση η οποία έμοιαζε ρομποτική και παραγόμενη από λογισμικό AI. Η φωνή στην κλήση έμοιαζε αρκετά με αυτή του Joe Biden και καλούσε τους πολίτες να μην ψηφίσουν στις εκλογές. Αντίστοιχο ήταν και το παράδειγμα ψευδούς ηχητικού αρχείου το οποίο υποτίθεται πως ήταν ηχογράφηση της μητέρας του Αλεξέι Ναβάλνι στην οποία κατηγορούσε την σύζυγο του, Γιούλια Ναβάλναγια, ότι ήταν καιροσκόπος η οποία ήταν πρακτικά υπεύθυνη για τον θάνατο του γιού της.

Εξετάζοντας αυτά τα παραδείγματα, είναι πιθανό ηχητικά αρχεία που παράγονται από AI να χρησιμοποιηθούν πριν τις ευρωεκλογές στο πλαίσιο κακόβουλης παραπληροφόρησης, τουλάχιστον σε κάποιες χώρες. Μπορεί να χρησιμοποιηθούν για να διαβάλουν πολιτικούς, για να προωθήσουν θεωρίες συνωμοσίας αναφορικά με την ακεραιότητα των εκλογών ή/και για να αποθαρρύνουν τους πολίτες από το να ψηφίσουν. Δεδομένου ότι η ποιότητα αυτών των αρχείων δεν είναι ακόμα αρκετά υψηλή για να αποτρέψει τον εντοπισμό από ειδικούς και ότι η τεχνολογία δεν χρησιμοποιείται ακόμα ευρέως από κέντρα κακόβουλης παραπληροφόρησης είναι πιθανό ότι αυτά τα περιστατικά δεν θα είναι πάρα πολλά. Σε κάθε περίπτωση, ωστόσο, είναι πιθανό πολλοί χρήστες μέσων κοινωνικής δικτύωσης να παραπλανηθούν από τέτοιου είδους ηχητικά αρχεία και σε περίπτωση που αυτό γίνει πριν τις εκλογές θα είναι αρκετά δύσκολη η κατάρριψη του εκάστοτε ισχυρισμού με επαρκή ταχύτητα και έκθεση ώστε να γίνει ευρέως γνωστό ότι πρόκειται για κακόβουλη παραπληροφόρηση με χρήση AI.

Σε αυτό το σημείο είναι σκόπιμο να τονίσουμε ότι υπάρχει πιθανότητα μιας ελαφρώς διαφορετική περίπτωση παραπληροφόρησης η οποία όμως σχετίζεται με το θέμα των ηχητικών αρχείων ΑΙ. Για παράδειγμα ενδέχεται να υπάρξει δημοσιοποίηση ενός πραγματικού ηχητικού αρχείου, το οποίο περιέχει αληθινές δηλώσεις, πριν τις εκλογές όπως μια προβληματική ή ντροπιαστική δήλωση από έναν υποψήφιο. Σε αυτή τη περίπτωση ενδέχεται να υπάρξει ισχυρισμός από τους εμπλεκόμενους ότι πρόκειται για ηχητικό αρχείο που δημιουργήθηκε με λογισμικό ΑΙ. Στην περίπτωση που ο απαιτούμενος χρόνος για κατάρριψη του εν λόγω ισχυρισμού δεν φτάνει για να δημοσιευθεί πριν τις εκλογές, τα άτομα που διέσπειραν αυτό τον ψευδή ισχυρισμό μπορούν να επωφεληθούν από την βραχυπρόθεσμη σύγχυση. Σε αυτό το πλαίσιο είναι σημαντικό να θυμόμαστε ότι ο βασικός στόχος με τις καμπάνιες κακόβουλης παραπληροφόρησης είναι σπάνια το να πειστεί το κοινό για την εκάστοτε ψευδή είδηση που κυκλοφορεί. Αντίθετα ο στόχος είναι συνήθως να σταλεί το μήνυμα ότι είναι αδύνατο να ξέρουμε την αλήθεια και πως κάθε εκδοχή της αλήθειας είναι εξίσου πιθανή.

ΑΙ βίντεο

Η τεχνολογία για την παραγωγή βίντεο με χρήση τεχνητής νοημοσύνης εξελίσσεται με μεγάλη ταχύτητα. Πρόσφατα κυκλοφόρησαν στο διαδίκτυο βίντεο τα οποία δημιουργήθηκαν με παροχή περιγραφής του βίντεο σε μορφή κειμένου την οποία περιγραφή το λογισμικό AI μετέτρεψε σε βίντεο. Αυτά τα βίντεο αποτελούν απόδειξη του πόσο δύσκολο είναι για τον μέσο χρήστη να αναγνωρίσει αν το περιεχόμενο είναι πραγματικό. Το πιο προηγμένο εργαλείο αυτού του είδους είναι ίσως το Sora που κυκλοφόρησε η OpenAI, η εταιρία που δημιούργησε το ChatGPT. Η ανακοίνωση του Sora συνοδεύτηκε από επίδειξη των δυνατοτήτων καθώς τα βίντεο που παράγει χαρακτηρίζονται από πρακτικά καινοφανή βαθμό ρεαλισμού. Ωστόσο το Sora δεν είναι ακόμα διαθέσιμο στο κοινό, ενδεχομένως λόγω ανησυχίας για πιθανές καταχρήσεις, μια βασική εκ των οποίων είναι η χρήση στο πλαίσιο κακόβουλης παραπληροφόρησης.

Η περιορισμένη πρόσβαση στις πιο καινοτόμες τεχνολογίες παραγωγής οπτικοακουστικού υλικού με χρήση λογισμικού τεχνητής νοημοσύνης είναι πιθανότατα ο λόγος που οργανισμοί ελέγχου γεγονότων στην Ευρώπη δεν έχουν ανιχνεύσει ακόμα σημαντική αύξηση κακόβουλης παραπληροφόρησης αυτού του είδους. Τα διαθέσιμα λογισμικά παραγωγής AI βίντεο μέσω γραπτής περιγραφής δεν πλησιάζουν τον απαιτούμενο βαθμό ρεαλισμού για να παραπλανήσουν με ευκολία το κοινό. Επομένως, προς το παρόν, το ρίσκο διασποράς βίντεο τα οποία παράγονται εξ ολοκλήρου από λογισμικά τεχνητής νοημοσύνης με σκοπό την χειραγώγηση της κοινής γνώμης πριν τις ευρωεκλογές είναι μικρό.

Πιο πιθανή είναι η περίπτωση διασποράς κακόβουλης παραπληροφόρησης, πριν από τις ευρωεκλογές, με χρήση ηχητικών αρχείων που παράγονται με λογισμικό τεχνητής νοημοσύνης ή με ηχητικά αρχεία που υφίστανται τροποποίηση μαζί με το συνοδευόμενο βίντεο. Η αλλαγή του εκάστοτε βίντεο μπορεί να περιοριστεί στον συγχρονισμό των χειλιών ή των εκφράσεων του προσώπου του ομιλητή έτσι ώστε οι λέξεις και οι εκφράσεις να ταιριάζουν με το τροποποιημένο αρχείο ήχου. Η τεχνολογία για την πραγματοποίηση τέτοιων αλλαγών έχει ήδη αναπτυχθεί, και ενώ συχνά το επίπεδο της δεν είναι επαρκές χρησιμοποιείται ευρέως.

Διαφορετικοί οργανισμοί του δικτύου ελέγχου γεγονότων του EDMO έχουν εντοπίσει αναρτήσεις αυτού του τύπου τους περασμένους μήνες. Για παράδειγμα, ρεπορτάζ του France24 δέχτηκε ψηφιακή επεξεργασία ώστε να παρουσιάζει έναν από τους δημοσιογράφους του μέσου να κάνει δηλώσεις που δεν έγιναν στην πραγματικότητα κάνοντας συγχρονισμό των χειλιών στο βίντεο με κατασκευασμένο ηχητικό αρχείο. Συγκεκριμένα, στο επεξεργασμένο βίντεο, ο δημοσιογράφος λέει ότι ο γάλλος Πρόεδρος Εμανουέλ Μακρόν υποχρεώθηκε να ακυρώσει την επίσκεψη του στην Ουκρανία λόγω φόβου για απόπειρα δολοφονίας. Ένα βίντεο του BBC με την Greta Thumberg δέχτηκε τροποποποίηση ώστε να φαίνεται ότι δήλωσε πως πρέπει να αρχίσει η παραγωγή περιβαλλοντικά βιώσιμων τάνκ και όπλων αν η ανθρωπότητα θέλει να συνεχίσει να διεξάγει πολέμους. Βίντεο του τσέχου ηθοποιού Ondřej Vetchý, ο οποίος ξεκίνησε καμπάνια χρηματοδότησης με στόχο να στείλει τα χρήματα στην Ουκρανία για αγορά drones, δέχτηκε επεξεργασία ώστε να τον δείχνει να δηλώνει πως οι τσέχοι θα έπρεπε να λατρεύουν τον Stapan Bandera (ακροδεξιός εθνικιστής Ουκρανός πολιτικός, ο οποίος συνεργάστηκε με τους Ναζί στον Β’ Παγκόσμιο Πολέμο). Βίντεο με τον πρώην επικεφαλής των Ουκρανικών Ενόπλων Δυνάμεων, στρατηγό Valery Zaluzhny, δέχτηκε επεξεργασία ώστε να φαίνεται ότι κατηγορούσε τον Πρόεδρο Ζελένσκι ως προδότη και ότι καλούσε σε εξέγερση των ουκρανών εναντίον της κυβέρνησης του. Πολλές ακόμα περιπτώσεις που εντοπίστηκαν, και οι οποίες συχνά σχετίζονταν με πολιτικούς (για παράδειγμα Meloni, Babis, Denkov), αφορούσαν απάτες.

Δεδομένων των εν λόγω περιπτώσεων μπορούμε να πούμε ότι παρόμοιο υλικό ενδέχεται να εμφανιστεί και πριν τις ευρωεκλογές του 2024 με σκοπό την δυσφήμιση πολιτικών, την προώθηση θεωριών συνωμοσίας, και/ή την διασπορά ψευδών ισχυρισμών οι οποίοι μπορεί να διαβάλουν την δημοκρατική διαδικασία των εκλογών. Ο κίνδυνος από τον συγκεκριμένο τύπο υλικού είναι ελαφρώς μικρότερος συγκριτικά με τον κίνδυνο από ηχητικά αρχεία που παράγονται με χρήση λογισμικού τεχνητής νοημοσύνης. Αυτή η διαφορά οφείλεται στο γεγονός ότι τα βίντεο AI έχουν συχνά περισσότερα στοιχεία τα οποία προδίδουν ότι πρόκειται για ψευδές υλικό, τόσο από ειδικούς όσο και από τον μέσο χρήστη social media. Επιπλέον, όταν πρόκειται για περίπτωση όπου χρησιμοποιείται πραγματικό βίντεο ως βάση στο οποίο προστίθεται ψευδές ηχητικό αρχείο και γίνεται επεξεργασία χειλιών για συγχρονισμό, η διαδικασία εξακρίβωσης είναι πιο εύκολη. Σε κάθε περίπτωση αυτός ο τύπος υλικού μπορεί να εξαπατήσει πολίτες πριν ψηφίσουν.

ΑΙ κείμενα

Τα κείμενα που παράγονται με λογισμικό AI παρουσιάζουν δυο είδη προβλημάτων. Αν το κείμενο αποτελεί απάντηση σε ερώτηση χρήστη, και ο χρήστης δεν δημοσιοποιήσει την απάντηση, υπάρχει ο κίνδυνος – ο οποίος είναι ιδιαίτερα σημαντικός για εκείνα τα συστήματα που δεν έχουν αυστηρές δικλείδες ασφαλείας ή στηρίζονται σε αμφιλεγόμενες βάσεις δεδομένων – οι πληροφορίες που θα λάβει ο χρήστης να βασίζονται σε ψευδή ή παραπλανητικά στοιχεία στα οποία δεν θα έχουν πρόσβαση ειδικοί ή fact-checkers ώστε να ελέγξουν την εγκυρότητα τους. Όπως τόνιστηκε σε σχετικό άρθρο του EDMO, υπάρχει σημαντικός κίνδυνος που προκύπτει από την πεποίθηση χρηστών ότι οι απαντήσεις που λαμβάνουν από chatbots που βασίζονται σε LLMs (Μεγάλα Γλωσσικά Μοντέλα) περιέχουν τις πιο ακριβείς πληροφορίες, και όχι απλά τις πιο πειστικές.

Η άλλη πλευρά του προβλήματος είναι πως, αν τα κείμενα που παράγονται από AI γίνουν δημόσια διαθέσιμα, για παράδειγμα σελίδες ενημέρωσης οι οποίες αποτελούνται εξ ολοκλήρου από υλικό αυτού του τύπου, ή από δημοσίευση των απαντήσεων σε ιδιωτικές ερωτήσεις χρηστών σε LLMs, η κακόβουλη παραπληροφόρηση θα κυκλοφορούσε με παρόμοιο τρόπο όπως η “παραδοσιακή” παραπληροφόρηση με κείμενα που γράφονται από ανθρώπους. Μια από τις πιο προβληματικές παραμέτρους είναι ο όγκος. Τα συστήματα ΑΙ επιτρέπουν θεωρητικά την δημιουργία τεράστιου αριθμού κειμένων που περιέχουν κακόβουλη παραπληροφόρηση με ελάχιστο κόστος και με πολύ μεγάλη ταχύτητα. Ωστόσο, ο όγκος της παραγωγής υλικού δεν είναι η μόνη ανησυχητική παράμετρος. Μια ακόμα πιο ανησυχητική προοπτική είναι η αυτοματοποίηση τέτοιων συστημάτων AI, όχι μόνο για παραγωγή, αλλά για διανομή και ενίσχυση αναρτήσεων που περιέχουν κακόβουλη πραπληροφόρηση με χρήση bots.

Δεν είναι απίθανο να υπάρξουν τέτοια φαινόμενα πριν τις επόμενες ευρωεκλογές, παρότι η επίπτωση τους ενδέχεται να περιορίζεται εύκολα με εφαρμογή συγκεκριμένων πολιτικών σε πλατφόρμες κοινωνικής δικτύωσης (για παράδειγμα Meta, X, TikTok) οι οποίες θα στοχεύουν στην ανίχνευση και την αφαίρεση υλικού από τέτοιες καμπάνιες που έχουν ως στόχο την διασπορά κακόβουλης παραπληροφόρησης.

Συμπέρασμα

Το υλικό που παράγεται από λογισμικό τεχνητής νοημοσύνης με στόχο την διασπορά κακόβουλης παραπληροφόρησης αποτελεί σημαντικό ρίσκο ενόψει των ευρωεκλογών του 2024. Μπορεί να χρησιμοποιηθεί για να δυσφημίσει πολιτικούς και/ή άλλα δημόσια πρόσωπα, να διασπείρει ψευδείς ισχυρισμούς και θεωρίες συνωμοσίας και να διαβρώσει συνολικά την ακεραιότητα της δημοκρατικής διαδικασίας των εκλογών.

Οι εικόνες που παράγονται με χρήση AI αποτελούν ρίσκο μεσαίου επιπέδου στην τωρινή τους μορφή. Τα βίντεο που παράγονται με ΑΙ είναι δυνητικά επιβλαβή, ειδικά αυτά που βασίζονται σε πραγματικό βίντεο όπου γίνεται επεξεργασία του ήχου για να παρουσιάζονται ψευδείς δηλώσεις, ωστόσο ο εντοπισμός και η κατάρριψη τους είναι προς το παρόν σχετικά εύκολη. Τα κείμενα που παράγονται με ΑΙ αποτελούν σχετικά μικρό κίνδυνο, ωστόσο είναι σημαντικό να υπάρξει άμεση κινητοποίηση για αποτελεσματικό περιορισμό σε καμπάνιες κακόβουλης παραπληροφόρησης οι οποίες στοχεύουν στην διοχέτευση τεράστιου όγκου ψευδών ισχυρισμών. Τα ηχητικά αρχεία που παράγονται με χρήση ΑΙ αποτελούν τον μεγαλύτερο κίνδυνο καθώς είναι πολύ πιο δύσκολο να καταρριφθούν ενώ έχουν την δυνατότητα να εξαπατήσουν τον μέσο χρήστη με μεγαλύτερη ευκολία.

Η πρώτη και πιο σημαντική γραμμή άμυνας των πολιτών είναι η ενημέρωση. Χρειάζεται προσοχή όταν ερχόμαστε σε επαφή με υλικό το οποίο προσπαθεί να περάσει ένα αρκετά συναισθηματικό μήνυμα το οποίο μπορεί να επηρεάσει την διάθεση ψήφου ή τις πολιτικές προτιμήσεις και δεν έχει επιβεβαιωθεί από κάποιο γνωστό μέσο. Η καλλιέργεια υγιούς σκεπτικισμού, η εξέταση για πιθανά σημάδια που προδίδουν αν πρόκειται για αυθεντικό υλικό και η αναμονή για επιβεβαίωση της ακρίβειας πριν μοιραστούμε κάποιον ισχυρισμό είναι πρακτικές που μπορούν να μειώσουν σημαντικά την διασπορά κακόβουλης παραπληροφόρησης.

Μπορείτε να διαβάσετε την αρχική αναφορά στα αγγλικά εδώ.


Tommaso Canetta, υποδιευθυντής του Pagella Politica/Facta News και συντονιστής των διαστηριοτήτων τουτ δικτύου ελέγχου γεγονότων του EDMO

Συντακτική ομάδα

Περισσότερα σχετικά άρθρα

Στείλτε μας θέματα που έχετε βρει

    Πηγές