ΕΠΙΣΤΗΜΗ

Ευρωεκλογές 2024: Πόσο μπορεί να επηρεάσει τα αποτελέσματα η τεχνητή νοημοσύνη (tweet)

artificial intelligence in business 1

To 2024, περισσότερες από 70 εκλογικές αναμετρήσεις θα διεξαχθούν σε όλον τον πλανήτη -συμπεριλαμβανομένων των προεδρικών εκλογών στις ΗΠΑ και των ευρωεκλογών– και ήδη διατυπώνονται ανησυχίες για τη χρήση της τεχνητής νοημοσύνης με στόχο την παραπληροφόρηση και την άσκηση επιρροής στους ψηφοφόρους.

Η Υπηρεσία Κυβερνοασφάλειας της Ευρωπαϊκής Ένωσης (ENISA), κατέγραψε περισσότερα από 2.500 τέτοια περιστατικά στον κυβερνοχώρο από τον Ιούλιο του 2022. Οι δημόσιες διοικήσεις και η υγειονομική περίθαλψη ήταν οι κύριοι στόχοι, με 19% και 8% αντίστοιχα, ενώ το 6% όλων των επιθέσεων στόχευαν τους τομείς της μεταποίησης, των μεταφορών και των οικονομικών.

Στην ετήσια έκθεσή της για τις απειλές στον κυβερνοχώρο κατά της Ευρώπης, η υπηρεσία κατέγραψε άνοδο της τεχνολογίας chatbot AI , των deepfakes και ανάλογων τεχνολογιών. «Οι εγκληματίες του κυβερνοχώρου στοχεύουν ολοένα και περισσότερο τις υποδομές cloud, έχουν γεωπολιτικά κίνητρα και έχουν αυξήσει τις επιχειρήσεις εκβιασμού, όχι μόνο μέσω ransomware αλλά και μέσω απευθείας επίθεσης στους χρήστες», αναφέρει η έκθεση.

Η ENISA προειδοποιεί μάλιστα ότι τόσο οι κυβερνήσεις όσο και ο ιδιωτικός τομέας, και ιδιαίτερα τα μέσα ενημέρωσης, θα πρέπει να είναι σε εγρήγορση ενόψει των ευρωεκλογών για τον εντοπισμό, την απομυθοποίηση και την καταπολέμηση της παραπληροφόρησης που δημιουργείται από την τεχνητή νοημοσύνη στο διαδίκτυο. «Η εμπιστοσύνη στην εκλογική διαδικασία της ΕΕ θα εξαρτηθεί καθοριστικά από την ικανότητά μας να βασιζόμαστε σε ασφαλείς υποδομές στον κυβερνοχώρο και την ακεραιότητα και τη διαθεσιμότητα των πληροφοριών», δήλωσε ο εκτελεστικός διευθυντής της ENISA, Γιούχαν Λεπασάαρ.

 

Για τους μελετητές των εκλογών, η πιθανή επίδραση της τεχνητής νοημοσύνης στη δημοκρατία έχει γίνει κεντρικό θέμα στην ημερήσια διάταξη. Τα ερωτήματα πολλά: Υπάρχουν σημαντικοί κίνδυνοι που δεν βλέπουμε; Μπορεί αυτή η τεχνολογία να προκαλέσει σύγχυση στον τρόπο με τον οποίο οι κοινωνίες συγκεντρώνουν τις προτιμήσεις τους για να παρέχουν σαφείς εντολές διακυβέρνησης;

Για να αντιμετωπιστούν αυτά τα ερωτήματα, είναι απαραίτητο να απομυθοποιηθεί η ιδέα της ύπαρξης μιας γενικής τεχνητής νοημοσύνης που μπορεί να δράσει σε διαφορετικά πλαίσια και λογική όπως κάνουν οι άνθρωποι. Αυτές οι τεχνολογίες δεν υπάρχουν ακόμη. Επί του παρόντος, έχουν επιτευχθεί μόνο πολύ συγκεκριμένες εφαρμογές που έχουν λειτουργήσει καλά σε συγκεκριμένες εργασίες. Το σίγουρο είναι ότι ορισμένα μοντέλα κατάφεραν να έχουν γρήγορη εκμάθηση, γεγονός που άνοιξε τα παράθυρα σε εικασίες για πιθανές εφαρμογές στο μέλλον.

Και δεν είναι μόνο η Ευρώπη που βρίσκεται σε επιφυλακή. Οι Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο, η Ολλανδία και ίσως η Ουκρανία είναι μεταξύ των δημοκρατικών χωρών που θα πραγματοποιήσουν εκλογές τους επόμενους 16 μήνες. Όσοι εργάζονται για την εκλογική ακεραιότητα, παρακολουθούν επιφυλακτικά την εμφάνιση της γενετικής τεχνητής νοημοσύνης, η οποία θα μπορούσε να εντείνει τις ήδη πολωμένες πολιτικές συζητήσεις, τις απειλές ξένης επιρροής και τις ψεύτικες ειδήσεις. Περιεχόμενο όπως deepfakes, ψεύτικα βίντεο που φαίνονται αληθινά, έχουν εμφανιστεί σε προεκλογικές εκστρατείες στην Πολωνία και τη Σλοβακία τις τελευταίες εβδομάδες.

Ερευνητής στο Πανεπιστήμιο του Κέιμπριτζ που ειδικεύεται στα deepfakes, εξήγησε στο POLITICO ότι αυτές οι εφαρμογές τεχνητής νοημοσύνης ήταν προηγουμένως απαγορευτικά ακριβές ή δύσκολες για τον μέσο άνθρωπο. Τώρα όμως βρίσκονται σε εφαρμογές που απευθύνονται στους καταναλωτές, σε ιστότοπους, συχνά δωρεάν ή πολύ φθηνά. Το MIT προειδοποιεί ότι είναι επίσης σύνηθες φαινόμενο τα μηνύματα να δοκιμάζονται σε τεχνητούς προσομοιωτές πριν τη διάδοσή τους σε πραγματικούς πολίτες. Εάν η αλλαγή δεν απομυθοποιηθεί και δεν ελέγχεται, η τεχνητή νοημοσύνη μπορεί να διαβρώσει την εμπιστοσύνη των πολιτών στις εκλογικές διαδικασίες. Αυτό θα ήταν καταστροφικό, ενώ η Γηραιά Ηπειρος ήδη μετρά υψηλά ποσοστά αποχής κατά τις εκλογικές διαδικασίες σε χώρες της…

You may also like

Comments are closed.