Παρακολουθήσεις Νο 2: αυτή τη φορά με AI

Ευρυδίκη Μπερσή, Maria Maggiore, Leila Minano, Νικόλας Λεοντόπουλος

Από τις 2 Φεβρουαρίου οι ευρωπαϊκές κυβερνήσεις θα χρησιμοποιούν εργαλεία AI κατά των πολιτών τους σε δημόσιους χώρους. Η έρευνα «Εφ.Συν.» - Investigate Europe - Reporters United τεκμηριώνει με έγγραφα ότι η κυβέρνηση Μητσοτάκη έπαιξε παρασκηνιακό όσο και πρωταγωνιστικό ρόλο στην απόρριψη περιορισμών στη χρήση της ΑΙ, ανοίγοντας τον δρόμο για μαζικές και ανεξέλεγκτες παρακολουθήσεις με την επίφαση της εθνικής ασφάλειας. Οπως ακριβώς συνέβη και στο σκάνδαλο των υποκλοπών. Αυτή τη φορά, όμως, με όπλο την Τεχνητή Νοημοσύνη.

Η 2α Φεβρουαρίου πέφτει Κυριακή. Από εκείνη τη μέρα, το δικαίωμά μας να χανόμαστε στο πλήθος θα καταργηθεί. Οι ευρωπαϊκές κυβερνήσεις θα έχουν, και με τη βούλα του νόμου, τη δυνατότητα να χρησιμοποιούν τεχνολογίες Τεχνητής Νοημοσύνης (AI) για να παρακολουθούν και να αναλύουν τη συμπεριφορά πολιτών σε δημόσιους χώρους, χρησιμοποιώντας τεχνολογίες αναγνώρισης προσώπων αλλά και συναισθημάτων, τόσο σε πραγματικό χρόνο όσο και εκ των υστέρων.

Αυτό το δυστοπικό –κυριολεκτικά και μεταφορικά– αύριο είναι επίτευγμα (και) της κυβέρνησης Μητσοτάκη. Για δύο λόγους:

Πρώτον, με παρέμβασή της ζήτησε –και πέτυχε– να επεκταθεί η χρήση της AI στις φυλακές και τις συνοριακές ζώνες, απλώνοντας ένα δίχτυ μαζικής και αδιάκριτης παρακολούθησης των πολιτών σε εκτεταμένες περιοχές της χώρας.

Δεύτερον, ενώ πολλές άλλες κυβερνήσεις ζήτησαν να θεσμοθετηθούν δικλίδες ασφαλείας, η ελληνική κυβέρνηση ήταν η μόνη από τα κράτη-μέλη που τις απέρριψε όλες (και τις πέντε!). Μάλιστα σε δύο από τις πέντε ήταν μόνη της απέναντι στα άλλα κράτη-μέλη!

Η πολύχρονη διαπραγμάτευση για τον νέο ευρωπαϊκό νόμο για την Τεχνητή Νοημοσύνη (AI Act) είχε ως διακύβευμα την απαγόρευση της χρήσης ΑΙ στον δημόσιο χώρο – εκτός εξαιρέσεων. Ομως η έρευνα των Investigate Europe - Reporters United - «Εφ.Συν.» [διαβάστε το δημοσίευμα των Reporters United ΕΔΩ] δείχνει ότι καθολική απαγόρευση στην πραγματικότητα δεν θα υπάρξει. Οι ευρωπαϊκές κυβερνήσεις όρισαν ποιες θα μπορούσαν να είναι οι χρήσεις της Τεχνητής Νοημοσύνης που εγκυμονούν κινδύνους και στη συνέχεια, με μια σειρά εξαιρέσεων, αναίρεσαν τον εαυτό τους επιτρέποντας τη χρήση τους από τις αρχές ασφαλείας – αλλά και από κάθε ιδιωτική εταιρεία που συνεργάζεται με αυτές.

Αποκτήσαμε πρόσβαση σε 100 εμπιστευτικά έγγραφα που περιγράφουν τις διαπραγματεύσεις για τον νέο ευρωπαϊκό νόμο, οι οποίες ολοκληρώθηκαν στα τέλη του 2023. Το συμπέρασμα: Κάθε φορά που μία κυβέρνηση, συνήθως η γαλλική, ζητούσε να διευρυνθεί η χρήση της ΑΙ, παραδείγματος χάριν για να κατηγοριοποιούν οι Αρχές τους πολίτες ανάλογα με τις πεποιθήσεις τους, για να συντάσσουν καταλόγους με πιθανούς μελλοντικά παραβάτες ή για να αναλύουν σε πραγματικό χρόνο ποιοι είναι οι πιο θυμωμένοι σε ένα πλήθος, η ελληνική κυβέρνηση παρακολουθούσε χωρίς να διαφωνεί.

Στις 29 Νοεμβρίου 2023, ο εκπρόσωπος της ελληνικής κυβέρνησης ζήτησε να μην ισχύει κανένας περιορισμός στη χρήση των εργαλείων Τεχνητής Νοημοσύνης σε πραγματικό χρόνο όταν πρόκειται για συνοριακές περιοχές και φυλακές.

Αυτό προκύπτει από αναφορά της γερμανικής διπλωματικής αποστολής που περιγράφει τη συνεδρίαση. Το έγγραφο περιλαμβάνεται σε αυτά που ήρθαν στην κατοχή μας. Η Ελλάδα «ζήτησε να εξαιρεθούν ρητά οι συνοριακές περιοχές και οι φυλακές από τον ορισμό του “δημόσια προσβάσιμου χώρου”, σε ό,τι αφορά τη χρήση RBI σε πραγματικό χρόνο» (RBI, δηλαδή Remote Biometric Identification, είναι η ταυτοποίηση βιομετρικών στοιχείων μέσω καμερών από τις αρχές ασφαλείας). Αν οι συνοριακές περιοχές και οι φυλακές δεν θεωρούνται «δημόσιος χώρος», τότε όποιοι περιορισμοί κι αν τεθούν στη χρήση βιομετρικών εργαλείων στον δημόσιο χώρο δεν θα τις αφορούν. Τα συστήματα ταυτοποίησης σε πραγματικό χρόνο περιλαμβάνονται στον κατάλογο των «εφαρμογών τεχνητής νοημοσύνης υψηλού κινδύνου» για τα θεμελιώδη δικαιώματα. Οι καθηγήτριες του Πανεπιστημίου του Μάαστριχτ, Αλις Τζανίνι και Σάρα Τας, εξηγούν: «Τα συστήματα RBI ταυτοποιούν άτομα που μπορεί να μην αποτελούν επισήμως αντικείμενο αστυνομικής έρευνας, να μην είναι ύποπτοι, αλλά απλά στοχοποιούνται. Ο όρος είναι εγγενώς ασαφής και άρα επιδέχεται πολλές ερμηνείες».

Παρ’ όλα αυτά, η Ελλάδα ζήτησε την εξαίρεση και αυτή εγκρίθηκε. Στη συνέχεια, «χάθηκε» στο κείμενο μιας πολύ ευρύτερης διατύπωσης, που επιτρέπει ακόμα περισσότερα. «Ενα κράτος-μέλος μπορεί να επιτρέψει την πλήρη ή μερική χρήση συστημάτων RBI σε πραγματικό χρόνο στον δημόσιο χώρο για λόγους τήρησης της τάξης», αναφέρει το άρθρο 5 του νέου ευρωπαϊκού νόμου για την Τεχνητή Νοημοσύνη.

Τίθενται κάποιες προϋποθέσεις, παραδείγματος χάριν να υπάρχει αντίστοιχη πρόβλεψη στην εθνική νομοθεσία ή να ενημερώνεται για τη χρήση των συστημάτων η Κομισιόν, αλλά ούτε κι αυτές ισχύουν αν ένα κράτος επικαλεστεί λόγους εθνικής ασφαλείας.

Το Ευρωπαϊκό Κοινοβούλιο προσπάθησε μάταια να αποτρέψει την εξέλιξη αυτή. «Ηταν μια από τις πιο σκληρές μάχες», μας είπε πηγή του Ευρωκοινοβουλίου που μετείχε στις διαπραγματεύσεις με τις κυβερνήσεις. «Χάσαμε».

Στη συνεδρίαση της 24ης Νοεμβρίου 2023, η Ελλάδα ζήτησε να καταργηθεί και κάθε δικλίδα ασφαλείας στη χρήση RBI εκ των υστέρων – ουσιαστικά να μην υπάρχουν όρια στην αναδρομική αξιοποίηση οπτικοακουστικού υλικού με χρήση Τεχνητής Νοημοσύνης.

Βιομετρική επιτήρηση στα σύνορα

Ζητήσαμε από τη Μόνιμη Ελληνική Αντιπροσωπεία στις Βρυξέλλες περισσότερες λεπτομέρειες για τη στάση της κυβέρνησης, αλλά δεν λάβαμε απάντηση.

Το σίγουρο είναι ότι η ελληνική κυβέρνηση δεν περιμένει την εφαρμογή του AI Act για να αξιοποιήσει τα καινούργια της εργαλεία. Οταν πραγματοποίησε την παρέμβαση υπέρ της βιομετρικής επιτήρησης στα σύνορα, τον Νοέμβριο του 2023, είχε μόλις κάνει χρήση των τεχνολογιών αυτών, στη δομή αιτούντων άσυλο της Σάμου. Αυτό αποκάλυψε διεθνής έρευνα του Solomon στα μέσα Ιανουαρίου του 2025. Η έρευνα περιγράφει τα συμβάντα του Οκτωβρίου του 2023, όταν στη δομή επικράτησε αναβρασμός λόγω των επιθέσεων της Χαμάς στο Ισραήλ και του Ισραήλ στη Γάζα. Με τη βοήθεια εικόνων από ντρόουν, που αναμεταδίδονταν στην Αθήνα, οι πύλες που χώριζαν τα διάφορα τμήματα του χρηματοδοτούμενου από την Ε.Ε. καμπ σφραγίστηκαν και πέντε αιτούντες άσυλο συνελήφθησαν.

«Οι κάμερες διαθέτουν έναν αλγόριθμο Τεχνητής Νοημοσύνης που τους επιτρέπει να εστιάζουν όπου υπάρχει αναταραχή, στέλνοντας ειδοποιήσεις τόσο στο υπουργείο Μετανάστευσης όσο και στον κόμβο καμερών της δομής», εξήγησε αρμόδιος στο Solomon.

Μια αναστάτωση σε κλειστή δομή προσφύγων για την Ελλάδα, μια διοργάνωση Ολυμπιακών Αγώνων για τη Γαλλία – κάθε χώρα βρίσκει αφορμές να δοκιμάσει και να νομιμοποιήσει τη χρήση εργαλείων τα οποία μπορεί να αποβούν πολύ επικίνδυνα για απλούς ανθρώπους που έτυχε να μοιάζουν με υπόπτους ή να έχουν καταχωριστεί σε βάση δεδομένων με πιθανούς μελλοντικά παραβάτες.

Τι αποκαλύπτει το γερμανικό έγγραφο

Ακολουθεί αυτούσιο το απόσπασμα από το γερμανικό διπλωματικό έγγραφο που αναφέρεται στην επίμαχη συνεδρίαση:

Εκ των υστέρων εξ αποστάσεως βιομετρική ταυτοποίηση (Post RBI)

1η Δικλίδα Ασφάλειας (ενημέρωση της εποπτικής αρχής): Υποστήριξη από Ιταλία, Δανία, Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ελλάδα.

2η Δικλίδα Ασφαλείας (ενημέρωση της αρχής προστασίας δεδομένων): Υποστήριξη από Ιταλία, Δανία, Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ελλάδα.

3η Δικλίδα Ασφαλείας (διευρυμένες υποχρεώσεις εγγραφής σε μητρώα): Υποστήριξη: Ιταλία, Δανία, Ιρλανδία, Πολωνία, Μάλτα. Απόρριψη: Γερμανία, Ελλάδα.

4η Δικλίδα Ασφαλείας (δυνατότητα για τα κράτη-μέλη να υιοθετήσουν πιο περιοριστικούς εθνικούς κανόνες): Υποστήριξη από Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ιταλία, Δανία, Ελλάδα.

5η Δικλίδα Ασφαλείας (υποχρέωση ενημέρωσης της Κομισιόν): Υποστήριξη από Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ιταλία, Δανία, Γερμανία, Ελλάδα.

Είναι χαρακτηριστική η έμμονη ιδέα της Αθήνας να αποφευχθούν με κάθε τρόπο οι θεσμικές εγγυήσεις που θα ανέμενε κανείς σε ένα σύγχρονο κράτος δικαίου. Οπως φαίνεται από το διπλωματικό έγγραφο, η κυβέρνηση Μητσοτάκη απέρριψε «την ενημέρωση της εποπτικής αρχής» και «της Αρχής Προστασίας Δεδομένων» (ΑΠΔ), αλλά και τη διεύρυνση της «υποχρέωσης εγγραφής σε μητρώα». Πρόκειται ακριβώς για ανάλογες πρακτικές με αυτές που η κυβέρνηση Μητσοτάκη χρησιμοποίησε στην υπόθεση των υποκλοπών, προκειμένου να εξουδετερώσει τα θεσμικά αντίβαρα της Αρχής Διασφάλισης του Απορρήτου των Επικοινωνιών (ΑΔΑΕ) και της ΑΠΔ.

«Η εκ των υστέρων βιομετρική ταυτοποίηση, καθώς βασίζεται σε μεγαλύτερα σετ δεδομένων και έχει περισσότερο χρόνο στη διάθεσή της για την επεξεργασία δεδομένων, μπορεί να έχει ακόμη μεγαλύτερες επιπτώσεις στα θεμελιώδη δικαιώματα και τις ελευθερίες από την ταυτοποίηση σε πραγματικό χρόνο», σημειώνουν οι καθηγήτριες Τζανίνι και Τας.

Αναγνώριση συναισθημάτων

Τα έγγραφα στα οποία είχαμε πρόσβαση δείχνουν τον ενθουσιασμό των κυβερνήσεων για τη χρήση εργαλείων προληπτικής αστυνόμευσης. Τα εργαλεία αυτά πράγματι επιτρέπονται στην τελική εκδοχή του νόμου, όπως επιτρέπονται και τα εργαλεία αναγνώρισης συναισθημάτων από τις Αρχές – ακόμα και μέσα σε σχολεία, πανεπιστήμια ή εργασιακούς χώρους, αρκεί να θεωρείται ότι συντρέχουν λόγοι ασφαλείας.

«Απαγορεύεται», γράφει το ΑΙ Αct, «η χρήση συστημάτων τεχνητής νοημοσύνης για να συναχθούν συμπεράσματα για τα συναισθήματα ενός ατόμου στον χώρο εργασίας ή σε εκπαιδευτικά ιδρύματα, εκτός αν συντρέχουν ιατρικοί λόγοι ή λόγοι ασφαλείας».

Επίσης, επιτρέπεται στις κρατικές υπηρεσίες να συλλέγουν και να επεξεργάζονται οποιοδήποτε στοιχείο μπορεί να συναχθεί από την εμφάνιση και την παρουσία του καθενός στον δημόσιο χώρο. «Είναι πολύ σημαντικό να διατηρήσουμε τη δυνατότητα να αναζητούμε ένα άτομο που έχει εκφράσει μια θρησκευτική πεποίθηση ή μια πολιτική άποψη, όπως είναι το να φοράει μια κονκάρδα ή ένα αξεσουάρ», είπε ο αντιπρόσωπος της Γαλλίας στο Συμβούλιο της 24ης Νοεμβρίου 2023. Ολα αυτά «όταν πρόκειται για άτομο που εμπλέκεται σε βίαιο εξτρεμισμό ή θεωρείται ότι υπάρχει κίνδυνος να εμπλακεί σε τρομοκρατία». Ετσι, αν θεωρείται απαραίτητο για «την επιβολή του νόμου» το ΑΙ Αct επιτρέπει να χρησιμοποιείται η Τεχνητή Νοημοσύνη «για να προσδιοριστούν η φυλή, οι πολιτικές απόψεις, η συμμετοχή σε συνδικαλιστικούς φορείς, οι θρησκευτικές ή φιλοσοφικές πεποιθήσεις, η σεξουαλική ζωή ή ο σεξουαλικός προσανατολισμός».

«Οι κυβερνήσεις μας αναζητούν φορτικά όλο και περισσότερους πόρους, νόμους και τεχνολογικές δυνατότητες για την παρακολούθηση, τον έλεγχο και την τιμωρία καθημερινών ανθρώπων», υποστήριξε η Σάρα Τσάντερ της οργάνωσης για την προστασία των ατομικών ελευθεριών Equinox.

Και στις ιδιωτικές εταιρείες

Στην πράξη τα δεδομένα των πολιτών δεν μένουν καν στις κρατικές υπηρεσίες, συγκεντρώνονται νομίμως από τις ιδιωτικές εταιρείες ή τις τρίτες χώρες που παρέχουν τεχνολογία Τεχνητής Νοημοσύνης στις αστυνομικές αρχές. O νόμος δίνει ακόμα μία καταπληκτική δυνατότητα στις ιδιωτικές εταιρείες που αναπτύσσουν εφαρμογές Τεχνητής Νοημοσύνης: μπορούν μόνες τους να αποφασίσουν αν οι εφαρμογές χαρακτηρίζονται υψηλού ρίσκου και άρα αν θέλουν ή όχι να υποβληθούν σε απαγορεύσεις ή αυξημένους ελέγχους. Εσωτερικό έγγραφο της νομικής υπηρεσίας του Ευρωκοινοβουλίου, στο οποίο απέκτησε πρόσβαση η έρευνά μας, τονίζει ότι αυτό «αφήνει πολλά περιθώρια υποκειμενικών κρίσεων στις εταιρείες, σε αντίθεση με τους στόχους του AI Act, που είναι να ελαχιστοποιήσει τους κινδύνους από τη χρήση AI».

Αν όμως οι στόχοι δεν ήταν αυτοί; «Στην πραγματικότητα, η νομοθεσία είναι ένα εργαλείο υπέρ της βιομηχανίας, που είχε στόχο να ενισχύσει τις εταιρείες Τεχνητής Νοημοσύνης στην Ευρώπη», θεωρεί η Τσάντερ.

● Η έρευνα της διασυνοριακής ομάδας δημοσιογράφων Investigate Europe δημοσιεύεται από τα μέσα ενημέρωσης Diclose (Γαλλία), EU Observer (Bελγιο), Ιl Fatto Quotidiano (Ιταλία), InfoLibre (Ισπανία), Netzpolitik (Γερμανία), Publico (Πορτογαλία) και «Εφ.Συν.» / Reporters United (Ελλάδα). 

Πηγή: ΕΦΗΜΕΡΙΔΑ ΤΩΝ ΣΥΝΤΑΚΤΩΝ