Ο ανιχνευτής ψεύδους υψηλής τεχνολογίας που χρησιμοποιείται στα σύνορα της Ευρώπης αντιμετωπίζει τον έλεγχο

Ένας ανιχνευτής ψεμάτων που οδηγείται από τεχνητή νοημοσύνη και δοκιμάζεται στα σύνορα της Ευρωπαϊκής Ένωσης είναι το επίκεντρο μιας αγωγής που ελπίζει να φέρει περισσότερη διαφάνεια στη χρηματοδότηση της «ηθικά αμφισβητήσιμης» τεχνολογίας του μπλοκ, δήλωσε ο υποστηρικτής του.

Ο Πάτρικ Μπρέιερ, ευρωπαίος νομοθέτης, ζητά την απελευθέρωση εγγράφων του Οργανισμού Έρευνας της ΕΕ (REA) που αξιολογούν τη δοκιμή 4,5 εκατομμυρίων ευρώ (5,4 εκατομμύρια δολάρια) για τη χρήση ανιχνευτών ψεύτικης νοημοσύνης (AI) για την ενίσχυση της ασφάλειας των συνόρων της ΕΕ.

Χάστε 300x3250

«Θέλω να δημιουργήσω ένα προηγούμενο για να βεβαιωθώ ότι το κοινό… θα έχει πρόσβαση σε πληροφορίες σχετικά με την έρευνα που χρηματοδοτείται από την ΕΕ», δήλωσε ο Breyer, του Γερμανικού Πειρατικού Κόμματος, ο οποίος χαρακτήρισε την τεχνολογία ως «ψευδο-επιστημονικό επίκεντρο ασφάλειας».

Το ανώτερο δικαστήριο της Ευρωπαϊκής Ένωσης άρχισε την ακρόαση της υπόθεσης την Παρασκευή.

Η δοκιμή iBorderCtrl, η οποία ολοκληρώθηκε το 2019, είναι ένα από τα πολλά έργα που επιδιώκουν να αυτοματοποιήσουν τα ολοένα και πιο πολυσύχναστα σύνορα της ΕΕ και να καταπολεμήσουν την παράνομη μετανάστευση και την τρομοκρατία.

Το έργο, που ξεκίνησε το 2016, δοκιμάστηκε στην Ελλάδα, τη Λετονία και την Ουγγαρία, αντλώντας κριτική από ομάδες ανθρωπίνων δικαιωμάτων που αμφισβητούν την ικανότητα της τεχνολογίας να αξιολογεί με ακρίβεια τις προθέσεις των ανθρώπων και τις δυνατότητές της για διακρίσεις.

Η Ευρωπαϊκή Επιτροπή, η οποία διαχειρίζεται το REA, δήλωσε ότι το έργο είχε ως στόχο να δοκιμάσει νέες ιδέες και τεχνολογίες.

«Το iBorderCtrl δεν αναμενόταν να προσφέρει έτοιμες τεχνολογίες ή προϊόντα. Δεν οδηγούν όλα τα ερευνητικά έργα στην ανάπτυξη τεχνολογιών με πραγματικές εφαρμογές », δήλωσε εκπρόσωπος της Επιτροπής σε ηλεκτρονικά σχόλια.

Στο iBorderCtrl, ζητήθηκε από άτομα που σχεδιάζουν να ταξιδέψουν να απαντήσουν σε ερωτήσεις από έναν συνοριοφύλακα με κινούμενα σχέδια μέσω υπολογιστή, μέσω webcam. Οι μικρο-χειρονομίες τους αναλύθηκαν για να δουν αν ήταν ψέματα, σύμφωνα με τον ιστότοπο της Ευρωπαϊκής Επιτροπής.

Στη συνέχεια, στα σύνορα, οι ταξιδιώτες χαμηλού κινδύνου πέρασαν, ενώ οι επιβάτες υψηλότερου κινδύνου στάλθηκαν για περαιτέρω ελέγχους, ανέφερε.

«ΔΥΣΤΟΠΙΑΝΟΣ»

Η Ella Jakubowska της ομάδας ψηφιακών δικαιωμάτων EDRi εξέφρασε την ανησυχία της για την αποτελεσματικότητα της τεχνητής νοημοσύνης στη λήψη τέτοιων αποφάσεων.

«Οι ανθρώπινες εκφράσεις ποικίλλουν, ποικίλουν (ειδικά για άτομα με συγκεκριμένες αναπηρίες) και συχνά εξαρτώνται από τον πολιτισμό», είπε σε ηλεκτρονικά σχόλια.

«Το IBorderCtrl δεν είναι καθόλου το μοναδικό δυστοπικό τεχνολογικό πείραμα που χρηματοδοτείται από την ΕΕ», πρόσθεσε.

Η IBorderCtrl αναγνώρισε τις ηθικές ανησυχίες στον ιστότοπό της, προσθέτοντας ότι το έργο βοήθησε να ξεκινήσει μια δημόσια συζήτηση σχετικά με τη χρήση της τεχνολογίας.

«Οι νέες τεχνολογίες μπορούν να έχουν σημαντικό αντίκτυπο στη βελτίωση της αποτελεσματικότητας, της ακρίβειας, της ταχύτητας, μειώνοντας παράλληλα το κόστος του ελέγχου των συνόρων», ανέφερε.

«Ωστόσο, ενδέχεται να συνεπάγονται κινδύνους για τα θεμελιώδη ανθρώπινα δικαιώματα, οι οποίοι πρέπει να διερευνηθούν περαιτέρω και να μετριαστούν πριν τεθεί σε λειτουργία μια ιδέα».

Όταν ο Breyer ζήτησε από την REA τα αποτελέσματα του έργου, την έκθεση δεοντολογίας και τη νομική αξιολόγηση το 2019, η REA είπε ότι η αποκάλυψη θα υπονόμευε τα εμπορικά συμφέροντα της κοινοπραξίας iBorderCtrl – μια απόφαση την οποία η Breyer αμφισβητεί τώρα στο δικαστήριο.

Ο Μπρέιερ είπε ότι ελπίζει ότι η υπόθεση θα οδηγήσει σε μεγαλύτερη διαφάνεια σχετικά με τη χρηματοδότηση της ΕΕ από «ηθικά αμφισβητήσιμη» τεχνολογία.

Ενώ η τεχνολογία ήταν απίθανο να χρησιμοποιηθεί ξανά στα σύνορα της ΕΕ, υπήρχε κίνδυνος να εισέλθει στον ιδιωτικό τομέα, για παράδειγμα για τον έλεγχο ασφαλιστικών απαιτήσεων ή αιτούντων εργασία, είπε.

Καθώς οι κυβερνήσεις της ΕΕ στρέφονται ολοένα και περισσότερο σε αλγόριθμους και την τεχνητή νοημοσύνη για τη λήψη σημαντικών αποφάσεων σχετικά με τη ζωή των ανθρώπων, απαιτείται περισσότερη διαφάνεια, δήλωσε ο Merel Koning, ανώτερος υπεύθυνος πολιτικής της Διεθνούς Αμνηστίας.

«Η (Ευρωπαϊκή Επιτροπή) πρέπει να υποβάλει όλες τις έρευνες που διεξάγονται σε συστήματα τεχνητής νοημοσύνης στο απόλυτο φως του δημόσιου ελέγχου και να χρηματοδοτεί μόνο έρευνα που σέβεται, προστατεύει και προωθεί τα ανθρώπινα δικαιώματα», δήλωσε ο Koning στο Ίδρυμα Thomson Reuters.

Η Επιτροπή είπε ότι όλες οι ερευνητικές προτάσεις που χρηματοδοτούνται από την ΕΕ υποβάλλονται σε ειδική αξιολόγηση που επαληθεύει τη συμμόρφωσή τους με τους κανόνες δεοντολογίας και τα πρότυπα.

«Η Επιτροπή ενθαρρύνει πάντα τα έργα να δημοσιοποιούν όσο το δυνατόν περισσότερο τα αποτελέσματά τους», ανέφερε.

Cx02β

Source