Σάββατο 14 Ιανουαρίου 2023

«Κόκκινες γραμμές» για την τεχνητή νοημοσύνη απαιτεί το ομοσπονδιακό υπουργείο Δικαιοσύνης

«Κόκκινες γραμμές» για την τεχνητή νοημοσύνη απαιτεί το ομοσπονδιακό υπουργείο Δικαιοσύνης
8 Σεπ 2021 
Το Ομοσπονδιακό Υπουργείο Δικαιοσύνης θέλει αυστηρές απαιτήσεις της ΕΕ για τη χρήση τεχνητής νοημοσύνης, αναφέρει η «Handelsblatt». Επιπλέον, το υπουργείο προτείνει το TÜV ως αρχή δοκιμών για εφαρμογές τεχνητής νοημοσύνης. Το Υπουργείο προειδοποιεί ιδιαίτερα όταν πρόκειται για προστασία δεδομένων.



Όπως αναφέρει η Handelsblatt , το Ομοσπονδιακό Υπουργείο Δικαιοσύνης απαιτεί σαφή όρια για τη χρήση της τεχνητής νοημοσύνης (AI) σε ευρωπαϊκό επίπεδο. «Πρέπει να προσδιορίσουμε ποιες πτυχές της τεχνητής νοημοσύνης είναι απαράδεκτες για εμάς ως μια ελεύθερη, δημοκρατική κοινωνία», δήλωσε ο υπουργός Δικαιοσύνης Κρίστιαν Κάστροπ, σύμφωνα με την Handelsblatt . Και περαιτέρω: "Πρέπει να υπάρχουν κόκκινες γραμμές όταν χρησιμοποιείτε AI."
Σύμφωνα με το ρεπορτάζ, ο Κάστροπ βλέπει την ανάγκη για δράση, ειδικά στο θέμα των «σκοτεινών μοτίβων». Το "Dark Pattern" είναι ένας σχεδιασμός διεπαφής χρήστη που έχει σχεδιαστεί για να παρακινεί έναν χρήστη να εκτελεί ορισμένες δραστηριότητες αντίθετες με τα ενδιαφέροντά του. Για παράδειγμα όταν αγοράζετε προϊόντα. "Αυτό περιλαμβάνει επίσης μια συγκατάθεση cookie που έχει σχεδιαστεί με τέτοιο τρόπο ώστε οι επισκέπτες του ιστότοπου να είναι πιο πιθανό να κάνουν την επιλογή που επιθυμούν οι πάροχοι με τη μεγαλύτερη δυνατή πρόσβαση στα δεδομένα χρήστη", πρόσθεσε ο Kastrop.
Σύμφωνα με τον υπουργό Εξωτερικών, προβληματική είναι και η κοινωνική μοριοδότηση. Ξεκινά με έναν πιστωτικό έλεγχο που βασίζεται σε αλγόριθμους και τελειώνει με έναν διαφανή πολίτη. «Λανθασμένες αποφάσεις εδώ μπορεί να έχουν σοβαρές συνέπειες για τα άτομα», είπε ο Κάστροπ. Σύμφωνα με την έκθεση, ο Kastrop είναι επίσης επικριτικός για τη βιομετρική απομακρυσμένη επιτήρηση, για παράδειγμα μέσω της αναγνώρισης προσώπου. Τα θεμελιώδη δικαιώματα θα θιγούν άμεσα. Τέτοιες εφαρμογές θα μπορούσαν πολύ γρήγορα να κάνουν διακρίσεις και να οδηγήσουν σε αποκλεισμό.

Η ΕΕ θέλει αυστηρότερες απαιτήσεις

Τον Απρίλιο του τρέχοντος έτους, η Επιτροπή της ΕΕ πρότεινε να υπάρξει ένα αυστηρό πλαίσιο για τη χρήση της τεχνητής νοημοσύνης στην Ευρώπη στο μέλλον. Μεταξύ άλλων, ένα διάταγμα τεχνητής νοημοσύνης αποσκοπεί στην απαγόρευση της χρήσης ορισμένων τεχνολογιών, για παράδειγμα εάν οι ανήλικοι ενθαρρύνονται να συμπεριφέρονται επικίνδυνα ή εάν αυτό δίνει στις αρχές την ευκαιρία να αξιολογήσουν την κοινωνική συμπεριφορά των πολιτών.

Η Επιτροπή της ΕΕ δημοσίευσε αντίστοιχη πρόταση στις 21 Απριλίου . Θα πρέπει να υπάρχουν αυστηρές απαιτήσεις για την τεχνολογία τεχνητής νοημοσύνης που χρησιμοποιείται, για παράδειγμα, στην παροχή ενέργειας, στο σχολείο ή στην επαγγελματική κατάρτιση, στην πολιτική ασύλου ή στην ποινική δίωξη. Πριν χρησιμοποιηθούν συστήματα σε αυτούς τους τομείς, θα πρέπει να διευκρινιστεί ότι τα αποτελέσματα που εισάγουν διακρίσεις διατηρούνται «όσο το δυνατόν χαμηλότερα».

Επιπλέον, θα πρέπει να είναι δυνατός ο εντοπισμός του τρόπου με τον οποίο προέκυψαν τα αποτελέσματα και η τεχνολογία θα πρέπει να παρακολουθείται "καταλλήλως" από τους ανθρώπους. Θα πρέπει να υπάρχουν λιγότερο αυστηρές απαιτήσεις για συστήματα που η Επιτροπή της ΕΕ ταξινομεί ως "χαμηλού κινδύνου" και "ελάχιστου κινδύνου". Η Επιτροπή της ΕΕ κατανοεί ότι προγράμματα όπως τα chatbots είναι "χαμηλού κινδύνου". Εδώ θα πρέπει να διασφαλιστεί ότι οι χρήστες γνωρίζουν ότι αλληλεπιδρούν με ένα μηχάνημα.

Τα βιντεοπαιχνίδια με τεχνητή νοημοσύνη ή τα φίλτρα ανεπιθύμητης αλληλογραφίας εμπίπτουν στην τελευταία κατηγορία και «ενέχουν ελάχιστο ή καθόλου κίνδυνο για τα πολιτικά δικαιώματα ή την ασφάλεια», σύμφωνα με την Ευρωπαϊκή Επιτροπή. Τέτοια συστήματα δεν θα πρέπει πλέον να υπόκεινται σε ρύθμιση. Προτού τεθεί σε ισχύ ένας κανονισμός τεχνητής νοημοσύνης, πρέπει να εγκριθεί από τις χώρες της ΕΕ και το Ευρωπαϊκό Κοινοβούλιο.
=====================
σχετικό δημοσίευμα
Η ΕΕ προτείνει νέους κανόνες και δράσεις για την αριστεία και την εμπιστοσύνη στην τεχνητή νοημοσύνη 
22/04/2021

Η Ευρωπαϊκή Επιτροπή προτείνει σήμερα νέους κανόνες και δράσεις με στόχο να καταστεί η Ευρώπη παγκόσμιος κόμβος αξιόπιστης τεχνητής νοημοσύνης (ΤΝ). Ο συνδυασμός του πρώτου νομικού πλαισίου για την ΤΝ στην ιστορία και ενός νέου συντονισμένου σχεδίου με τα κράτη μέλη θα εγγυάται την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, ενισχύοντας παράλληλα την αποδοχή της ΤΝ, τις επενδύσεις και την καινοτομία σε ολόκληρη την ΕΕ.

Οι νέοι κανόνες για τα μηχανήματα θα συμπληρώσουν την εν λόγω προσέγγιση, προσαρμόζοντας τους κανόνες ασφαλείας ώστε να ενισχυθεί η εμπιστοσύνη των χρηστών/χρηστριών στη νέα πολυδύναμη γενιά προϊόντων.
Η Μαργκρέιτε Βέστεϊγιερ, εκτελεστική αντιπρόεδρος για «Μια Ευρώπη έτοιμη για την ψηφιακή εποχή», δήλωσε σχετικά: «Όσον αφορά την τεχνητή νοημοσύνη, η εμπιστοσύνη σε αυτή είναι απολύτως αναγκαία και όχι απλώς ευκταία. Με αυτούς τους κανόνες-ορόσημο, η ΕΕ πρωτοστατεί στην ανάπτυξη νέων παγκόσμιων προτύπων ώστε να διασφαλιστεί ότι μπορούμε να έχουμε εμπιστοσύνη στην τεχνητή νοημοσύνη. Καθορίζοντας τα πρότυπα, μπορούμε να προετοιμάσουμε το έδαφος για μια τεχνολογία βασιζόμενη σε δεοντολογικές αρχές σε παγκόσμιο επίπεδο και να διασφαλίσουμε ότι η ΕΕ παραμένει ανταγωνιστική καθ' όλη τη διαδικασία. Οι κανόνες μας, διαχρονικοί και φιλικοί προς την καινοτομία, θα παρεμβαίνουν όπου είναι απολύτως αναγκαίο: όταν διακυβεύονται η ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών της ΕΕ.»
Ο επίτροπος Εσωτερικής Αγοράς, Τιερί Μπρετόν δήλωσε: «Η ΤΝ είναι μέσο, όχι αυτοσκοπός. Έχει εφευρεθεί εδώ και δεκαετίες, αλλά πλέον έχει επιτύχει νέες ικανότητες χάρη στη μεγαλύτερη υπολογιστική ισχύ. Έτσι, προσφέρει τεράστιες δυνατότητες σε ποικίλους τομείς, από την υγεία και τις μεταφορές μέχρι την ενέργεια, τη γεωργία, τον τουρισμό και την κυβερνοασφάλεια. Συνεπάγεται, επίσης, ορισμένους κινδύνους. Στόχος των σημερινών προτάσεων είναι να ενισχυθεί η θέση της Ευρώπης ως παγκόσμιου κόμβου αριστείας στον τομέα της ΤΝ από το εργαστήριο στην αγορά, να διασφαλιστεί ότι η ΤΝ στην Ευρώπη σέβεται τις αξίες και τους κανόνες μας και να αξιοποιηθεί το δυναμικό της ΤΝ για βιομηχανική χρήση.»

Ο νέος κανονισμός για την ΤΝ θα διασφαλίσει ότι οι Ευρωπαίοι μπορούν να εμπιστεύονται όλα όσα έχει να προσφέρει η ΤΝ. Οι αναλογικοί και ευέλικτοι κανόνες θα αντιμετωπίσουν τους ειδικούς κινδύνους που ενέχουν τα συστήματα ΤΝ και θα θέσουν τα πλέον υψηλά πρότυπα σε παγκόσμιο επίπεδο. Το συντονισμένο σχέδιο περιγράφει τις απαραίτητες αλλαγές πολιτικής και τις απαραίτητες επενδύσεις σε επίπεδο κρατών μελών για την ενίσχυση της ηγετικής θέσης της Ευρώπης στην ανάπτυξη ανθρωποκεντρικής, βιώσιμης, ασφαλούς και αξιόπιστης ΤΝ χωρίς αποκλεισμούς.
Η ευρωπαϊκή προσέγγιση για μια αξιόπιστη ΤΝ

Οι νέοι κανόνες θα εφαρμόζονται άμεσα και με τον ίδιο τρόπο σε όλα τα κράτη μέλη βάσει ενός διαχρονικού ορισμού της τεχνητής νοημοσύνης. Οι εν λόγω κανόνες ακολουθούν μια προσέγγιση με βάση τον κίνδυνο:

Μη αποδεκτός κίνδυνος: τα συστήματα ΤΝ που θεωρείται ότι συνιστούν σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων θα απαγορεύονται. Εδώ περιλαμβάνονται συστήματα ή εφαρμογές ΤΝ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών/χρηστριών (παραδείγματος χάριν, παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από τις κυβερνήσεις.
Υψηλός κίνδυνος: στα συστήματα ΤΝ που χαρακτηρίζονται ως υψηλού κινδύνου περιλαμβάνεται η τεχνολογία ΤΝ που χρησιμοποιείται:στις υποδομές ζωτικής σημασίας (π.χ. μεταφορές), τεχνολογία ΤΝ που θα μπορούσε να θέσει σε κίνδυνο τη ζωή και την υγεία των πολιτών·
στην εκπαίδευση ή την επαγγελματική κατάρτιση, τεχνολογία ΤΝ που μπορεί να καθορίζει την πρόσβαση στην εκπαίδευση και την πορεία της επαγγελματικής ζωής ενός ατόμου (π.χ. βαθμολόγηση εξετάσεων)·
στα κατασκευαστικά στοιχεία ασφαλείας των προϊόντων (π.χ. εφαρμογή ΤΝ σε υποβοηθούμενη από ρομπότ χειρουργική)·
στην απασχόληση, στη διαχείριση εργαζομένων και στην πρόσβαση στην αυτοαπασχόληση (π.χ. λογισμικό διαλογής βιογραφικών σημειωμάτων για διαδικασίες πρόσληψης)·
στις βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. αξιολόγηση πιστοληπτικής ικανότητας που στερεί από τους πολίτες τη δυνατότητα να λαμβάνουν δάνεια)·
στην επιβολή του νόμου, τεχνολογία ΤΝ που μπορεί να παρεμβαίνει στα θεμελιώδη δικαιώματα των πολιτών (π.χ. αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων)·
στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (π.χ. εξακρίβωση της γνησιότητας ταξιδιωτικών εγγράφων)·
στην απονομή δικαιοσύνης και στις δημοκρατικές διαδικασίες (π.χ. εφαρμογή του νόμου σε συγκεκριμένα πραγματικά περιστατικά).

Τα συστήματα ΤΝ υψηλού κινδύνου θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά:Κατάλληλα συστήματα εκτίμησης και μετριασμού των κινδύνων·
Υψηλή ποιότητα των συνόλων δεδομένων που τροφοδοτούν το σύστημα ώστε να ελαχιστοποιούνται οι κίνδυνοι και οι διακρίσεις·
Καταγραφή των δραστηριοτήτων με σκοπό τη διασφάλιση της ιχνηλασιμότητας των αποτελεσμάτων·
Λεπτομερής τεκμηρίωση που παρέχει όλες τις απαραίτητες πληροφορίες σχετικά με το σύστημα και τον σκοπό του ώστε οι αρχές να αξιολογούν τη συμμόρφωσή του·
Σαφείς και επαρκείς πληροφορίες για τον χρήστη/χρήστρια·
Κατάλληλα μέτρα ανθρώπινης εποπτείας για την ελαχιστοποίηση του κινδύνου·
Υψηλό επίπεδο ανθεκτικότητας, ασφάλειας και ακρίβειας.

Ειδικότερα, όλα τα συστήματα εξ αποστάσεως βιομετρικής ταυτοποίησης θεωρούνται υψηλού κινδύνου και υπόκεινται σε αυστηρές απαιτήσεις. Η χρήση τους σε πραγματικό χρόνο σε δημοσίως προσβάσιμους χώρους για σκοπούς επιβολής του νόμου καταρχήν απαγορεύεται. Οι ελάχιστες εξαιρέσεις σ' αυτόν τον κανόνα καθορίζονται και ρυθμίζονται αυστηρά (για παράδειγμα, όταν είναι απολύτως αναγκαίο για την αναζήτηση αγνοούμενου παιδιού, για την πρόληψη συγκεκριμένης και επικείμενης τρομοκρατικής απειλής ή για τον εντοπισμό, την επισήμανση, την ταυτοποίηση ή τη δίωξη δράστη ή υπόπτου σοβαρής αξιόποινης πράξης). Η χρήση αυτή υπόκειται στην έγκριση δικαστικής ή άλλης ανεξάρτητης αρχής και σε κατάλληλους περιορισμούς όσον αφορά το χρονικό διάστημα, τη γεωγραφική εμβέλεια και τις βάσεις δεδομένων όπου πραγματοποιείται αναζήτηση.

Περιορισμένος κίνδυνος, δηλαδή συστήματα ΤΝ που υπόκεινται σε συγκεκριμένες υποχρεώσεις διαφάνειας: όταν χρησιμοποιούν συστήματα ΤΝ όπως τα διαλογικά ρομπότ (chatbot), οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχάνημα, ώστε να μπορούν να λάβουν τεκμηριωμένη απόφαση να συνεχίσουν ή να διακόψουν την αλληλεπίδραση.

Ελάχιστος κίνδυνος: η νομική πρόταση επιτρέπει την ελεύθερη χρήση εφαρμογών όπως βιντεοπαιχνιδιών βασισμένων στην τεχνητή νοημοσύνη ή φίλτρων ανεπιθύμητης αλληλογραφίας. Η συντριπτική πλειονότητα των συστημάτων ΤΝ εμπίπτουν σε αυτή την κατηγορία. Το σχέδιο κανονισμού δεν παρεμβαίνει σε αυτή την κατηγορία, καθώς αυτά τα συστήματα ΤΝ συνεπάγονται μόνο ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα και την ασφάλεια των πολιτών.

Όσον αφορά τη διακυβέρνηση, η Επιτροπή προτείνει οι εθνικές αρμόδιες αρχές εποπτείας της αγοράς να εποπτεύουν τους νέους κανόνες, ενώ η δημιουργία ενός Ευρωπαϊκού Συμβουλίου Τεχνητής Νοημοσύνης θα διευκολύνει την εφαρμογή τους και θα προωθήσει την ανάπτυξη προτύπων για την ΤΝ. Επιπλέον, προτείνονται εθελοντικοί κώδικες δεοντολογίας για την ΤΝ μη υψηλού κινδύνου, καθώς και ρυθμιστικά δοκιμαστήρια για τη διευκόλυνση της υπεύθυνης καινοτομίας.
Επόμενα στάδια

Το Ευρωπαϊκό Κοινοβούλιο και τα κράτη μέλη θα πρέπει να εγκρίνουν τις προτάσεις της Επιτροπής με αντικείμενο την ευρωπαϊκή προσέγγιση της τεχνητής νοημοσύνης και τα μηχανολογικά προϊόντα στο πλαίσιο της συνήθους νομοθετικής διαδικασίας. Μόλις εγκριθούν, οι κανονισμοί θα είναι άμεσα εφαρμόσιμοι σε ολόκληρη την ΕΕ. Παράλληλα, η Επιτροπή θα συνεχίσει να συνεργάζεται με τα κράτη μέλη για την υλοποίηση των δράσεων που εξαγγέλλονται στο συντονισμένο σχέδιο.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Υβριστικά σχόλια θα πηγαίνουν στα αζήτητα.