Βίντεο που υποτίθεται ότι δείχνει βομβαρδισμό στο Μπαχρέιν είναι προϊόν AI

|

|

Η αξιολόγησή μας

Δείκτης αξιολόγησης: Πολύ Aνακριβές

Σφραγίδα άρθρου: Σφραγίδα Βίντεο ΑΙ

Ισχυρισμός

Βίντεο στα social media δείχνει την στιγμή επίθεσης με ιρανικό drone σε πολυκατοικία στο Μπαχρέιν.

Συμπέρασμα

Παρότι υπήρξε πραγματική επίθεση στη χώρα, το συγκεκριμένο οπτικοακουστικό υλικό έχει δημιουργηθεί με χρήση τεχνητής νοημοσύνης, όπως προκύπτει τόσο από την αναντιστοιχία με τα πραγματικά πλάνα του περιστατικού όσο και από τα εμφανή οπτικά σφάλματα που φέρει.

Στα μέσα κοινωνικής δικτύωσης κυκλοφορεί πληθώρα βίντεο που παρουσιάζονται ως πλάνα από επιθέσεις σχετιζόμενες με τον εν εξελίξει πόλεμο μεταξύ Ιράν, ΗΠΑ και Ισραήλ. Ένα από αυτά παρουσιάζεται ως πραγματικό βίντεο που δείχνει πολυκατοικία στο Μπαχρέιν να δέχεται επίθεση, ενώ πολίτες παρακολουθούν τις εκρήξεις. Ωστόσο, το συγκεκριμένο βίντεο δεν είναι αυθεντικό, αλλά έχει δημιουργηθεί με τη χρήση λογισμικού τεχνητής νοημοσύνης.

Οι εξεταζόμενοι ισχυρισμοί

Τον εξεταζόμενο ισχυρισμό αναπαρήγαγε, μεταξύ άλλων, και ο δημοσιογράφος Γιώργος Σφακιανάκης στο προφίλ του στο Facebook:

Μπαχρέιν, τώρα #Πόλεμος #Ισραήλ #ΗΠΑ #Ιράν

Ανάλυση των ισχυρισμών

Η κατάσταση του πολέμου και οι επιθέσεις

Ο πόλεμος μεταξύ Ιράν, ΗΠΑ και Ισραήλ, ο οποίος ξεκίνησε με τις επιθέσεις της 28ης Φεβρουαρίου 2026, βρίσκεται σε εξέλιξη. Πυραυλικές επιθέσεις και επιθέσεις με drones έχουν καταγραφεί όχι μόνο μεταξύ Ιράν και Ισραήλ, αλλά και σε χώρες της ευρύτερης περιοχής που φιλοξενούν αμερικανικές στρατιωτικές δυνάμεις ή συνδέονται στρατιωτικά με τις ΗΠΑ, όπως η Ιορδανία, τα Ηνωμένα Αραβικά Εμιράτα και το Ιράκ.

Μία από αυτές τις επιθέσεις έλαβε χώρα στο Μπαχρέιν, με στόχο πολυώροφη πολυκατοικία, την 1η Μαρτίου 2026. Η επίθεση, η οποία καταγράφηκε σε βίντεο, πραγματοποιήθηκε με χρήση ιρανικού drone.

Το επίμαχο βίντεο έχει δημιουργηθεί με λογισμικό AI

Το επίμαχο βίντεο παρουσιάζεται ψευδώς ως καταγραφή της συγκεκριμένης επίθεσης στο Μπαχρέιν. Ωστόσο, δεν πρόκειται για αυθεντικό οπτικοακουστικό υλικό, αλλά για βίντεο που έχει παραχθεί με τη χρήση τεχνητής νοημοσύνης. Αυτό καθίσταται εμφανές τόσο από το γεγονός ότι στο εξεταζόμενο βίντεο επικρατεί ακόμη φως ημέρας, ενώ στο πραγματικό βίντεο της επίθεσης φαίνεται ότι το περιστατικό σημειώθηκε νύχτα, όσο και από επιμέρους οπτικές ασυνέπειες που προδίδουν τη χρήση AI.

Συγκεκριμένα, κατά την εξέταση επιμέρους καρέ του βίντεο εντοπίζονται χαρακτηριστικά σφάλματα τεχνητής δημιουργίας εικόνας, όπως οχήματα που εμφανίζονται ενωμένα μεταξύ τους, καθώς και αφύσικη εξαφάνιση του καπνού της έκρηξης μέσα στο κτήριο:

Συμπέρασμα

Παρότι υπήρξε πραγματική επίθεση στη χώρα, το συγκεκριμένο οπτικοακουστικό υλικό έχει δημιουργηθεί με χρήση τεχνητής νοημοσύνης, όπως προκύπτει τόσο από την αναντιστοιχία με τα πραγματικά πλάνα του περιστατικού όσο και από τα εμφανή οπτικά σφάλματα που φέρει.

Avatar photo

Αρχισυντάκτης στο FactReview και fact-checker με βασικό αντικείμενο την επιστημονική αρθρογραφία και ανάλυση επιστημονικής παραπληροφόρησης.

Περισσότερα σχετικά άρθρα

Βιβλιογραφία