Τι σημαίνει ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI) για τη Silicon Valley

Julia Reinhardt, Επαγγελματίας Διαχείρισης Απορρήτου και Τεχνητής Νοημοσύνης, σχετικά με την πολιτική δεδομένων, τον Γενικό Κανονισμό Προστασίας Δεδομένων (ΓΚΠΔ) και τον αντίκτυπό του στις Μικρομεσαίες Επιχειρήσεις

Στο τελευταίο επεισόδιο του Φωνές της Οικονομίας Δεδομένων, μιλήσαμε με την Julia Reinhardt. Είναι ειδικός στη διακυβέρνηση της Τεχνητής Νοημοσύνης και σύμβουλος σε θέματα προστασίας της ιδιωτικής ζωής και δημόσιας πολιτικής με έδρα το Σαν Φρανσίσκο. Ως Mozilla Fellow in Residence, η Julia αξιολογεί τις ευκαιρίες και τους περιορισμούς των ευρωπαϊκών προσεγγίσεων σχετικά με την αξιόπιστη Τεχνητή Νοημοσύνη στη Silicon Valley και τις δυνατότητές τους για τις αμερικανικές επιχειρήσεις και την υπεράσπιση. Κατά τη διάρκεια της συζήτησής μας, η Julia μίλησε για τις διαφορετικές πτυχές του αντίκτυπου του ΓΚΠΔ στη Silicon Valley και τις προκλήσεις της επερχόμενης ρύθμισης της Τεχνητής Νοημοσύνης. Ακολουθούν επεξεργασμένα αποσπάσματα από το podcast.

(Αγγλικοί και Ελληνικοί Υπότιτλοι)

Επιπτώσεις του ΓΚΠΔ στη Silicon Valley

Ο ΓΚΠΔ είχε αξιοσημείωτες και άμεσες επιπτώσεις παγκοσμίως. Έχει επίσης ευαισθητοποιήσει τη Silicon Valley ότι η προστασία της ιδιωτικής ζωής είναι σημαντική για τους ανθρώπους στην Ευρώπη και σε άλλες περιοχές του κόσμου. Είναι ένα ανθρώπινο δικαίωμα που στις ΗΠΑ, πολλοί δεν το είχαν θεωρήσει σημαντικό. Η παγκόσμια συζήτηση γύρω από την προστασία της ιδιωτικής ζωής έχει μετατοπιστεί τα τελευταία τρία χρόνια από το 2018 και μετά, το ίδιο και οι νόμοι. Ως άμεσο αποτέλεσμα του ΓΚΠΔ στην Ευρώπη, χώρες όπως η Ιαπωνία, η Βραζιλία, η Ινδία και η Κίνα βρίσκονται στη διαδικασία ψήφισης νόμων για την προστασία της ιδιωτικής ζωής εμπνευσμένων από τον ΓΚΠΔ. Επιπλέον, η Καλιφόρνια έχει έναν νέο νόμο για την προστασία της ιδιωτικής ζωής, ο οποίος τέθηκε σε ισχύ το 2020 λόγω του ΓΚΠΔ.

Ο ΓΚΠΔ έδειξε επίσης στη Silicon Valley ότι μια από τις μεγαλύτερες αγορές της, η Ευρώπη, έχει τους δικούς της κανόνες και ότι οι ΗΠΑ πρέπει να τους ακολουθούν για να μπορούν να είναι σημαντικοί παίκτες εκεί και να κερδίσουν χρήματα στην περιοχή. Και ως αποτέλεσμα, πολλοί οργανισμοί με έδρα τις ΗΠΑ που επεξεργάζονται προσωπικά δεδομένα ανθρώπων σε όλο τον κόσμο αποφάσισαν να εφαρμόσουν τον ΓΚΠΔ και να επεκτείνουν όλα τα δικαιώματα που τον συνοδεύουν στους πελάτες τους, οι οποίοι δεν χρειάζεται να είναι κάτοικοι Ευρώπης και να ζουν εκτός Ευρώπης. Αυτό τους δίνει ένα πλεονέκτημα στην παγκόσμια συμμόρφωση και τους διευκολύνει να χειρίζονται παράπονα και αιτήματα. Επιπλέον, ο ΓΚΠΔ τους προσφέρει ένα νομικό πλαίσιο και ένα σύνολο προτύπων.

"Πρέπει να αναφέρω ότι ένας απογοητευτικός παράγοντας με τους νόμους του ΓΚΠΔ είναι η επιβολή τους. Ακόμα και όταν οι εταιρείες τεχνολογίας χτυπηθούν με πρόστιμα δισεκατομμυρίων δολαρίων, γι' αυτές είναι ένα χτύπημα στον καρπό. Και μέχρι στιγμής, ο ΓΚΠΔ δεν έχει αλλάξει τα υποκείμενα επιχειρηματικά μοντέλα, τον τρόπο με τον οποίο κερδίζονται χρήματα στο διαδίκτυο και την παρακολούθηση της συμπεριφοράς των ανθρώπων. Έτσι, δεν είναι μόνο το επιχειρηματικό μοντέλο μιας εταιρείας- είναι το οικονομικό μοντέλο στο οποίο βασίζεται ολόκληρο το διαδίκτυο - που δεν έχει την προστασία της ιδιωτικής ζωής, στην κορυφή των προτεραιοτήτων. Για να αλλάξει αυτό απαιτεί θεμελιώδεις και πιθανώς επώδυνες προσαρμογές στον τρόπο με τον οποίο έχουν δομηθεί τα πράγματα. Αυτό είναι κάτι που ο ΓΚΠΔ δεν έχει καταφέρει μέχρι στιγμής να επιτύχει. Και αυτό είναι σίγουρα λίγο απογοητευτικό".

Κανονισμοί Τεχνητής Νοημοσύνης (AI) στην Ευρώπη και οι παγκόσμιες προκλήσεις τους

Η Julia εργάστηκε ως Γερμανίδα διπλωμάτης για σχεδόν 15 χρόνια, διαχειριζόμενη διμερείς σχέσεις, διαχειριζόμενη κρίσεις, επικοινωνίες, ηγούμενη πρωτοκόλλων υψηλού επιπέδου, συμμετέχοντας σε διαπραγματευτικές διαδικασίες της ΕΕ και προωθώντας την καινοτομία και την έκταση δραστηριότητας στις δυτικές ΗΠΑ.

Στο πλαίσιο της σημερινής της εργασίας, αναφέρει ότι σκοπεύει να διασφαλίσει ότι ο επερχόμενος κανονισμός για την Τεχνητή Νοημοσύνη (AI) από την Ευρώπη δεν θα προκαλέσει και πάλι αυτή την υστέρηση για τους μικρούς παίκτες, διότι στον τομέα της Τεχνητής Νοημοσύνης (AI) - το μέγεθος μετράει. "Όσο περισσότερα δεδομένα μπορείτε να συγκεντρώσετε, τόσο καλύτερα λειτουργεί το σύστημα Τεχνητής Νοημοσύνης (AI) σας. Έχουμε ήδη φτάσει αρκετά μακριά στο δρόμο προς τη μονοπώληση, επειδή οι μεγάλοι παίκτες της αγοράς έχουν πρόσβαση σε ένα εντυπωσιακό εύρος δεδομένων. Μπορούν επίσης να έχουν την πολυτέλεια να συλλέγουν δεδομένα υψηλής ποιότητας, τα οποία στη συνέχεια τους επιτρέπουν να κατασκευάζουν Τεχνητή Νοημοσύνη (AI) με καλύτερες επιδόσεις. Και για τους μικρής κλίμακας παρόχους, αυτό που είναι πιο σημαντικό είναι η σαφήνεια της καθοδήγησης. Το προσχέδιο που υπέβαλε η Ευρωπαϊκή Επιτροπή προετοιμαζόταν για πολύ καιρό. Είναι η πιο φιλόδοξη και η πιο ολοκληρωμένη προσπάθεια περιορισμού των κινδύνων που συνδέονται με την ανάπτυξη της Τεχνητής Νοημοσύνης (AI) που έχουμε δει μέχρι στιγμής σε όλο τον κόσμο. Πρόκειται για ένα νέο τολμηρό βήμα". Μπορείτε να διαβάσετε μια ανάλυση της πρότασης κανονισμού για την Τεχνητή Νοημοσύνη (AI) εδώ.

Τώρα, το 2021, βρισκόμαστε στο στάδιο της μετατροπής αυτών των αρχών σε πρακτικούς κανόνες και κανονισμούς. Οι κανόνες που πρότεινε η Ευρωπαϊκή Επιτροπή δεν θα κάλυπταν όλα τα συστήματα Τεχνητής Νοημοσύνης (AI). Για παράδειγμα, καλύπτουν τα συστήματα που θεωρείται ότι ενέχουν σημαντικό κίνδυνο για την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων που ζουν στην Ευρώπη. Πρόκειται για μια προσέγγιση με βάση τον κίνδυνο και έχει πολλά επίπεδα. Και αυτά τα επίπεδα έχουν διαφορετικούς κανόνες για διαφορετικές κατηγορίες συστημάτων Τεχνητής Νοημοσύνης (AI)- ορισμένα απαγορεύονται, ορισμένα θεωρούνται υψηλού κινδύνου και ορισμένα ακολουθούν μόνο συγκεκριμένους κανόνες. Και έπειτα άλλα όπου, ξέρετε, απλά λένε ότι πρέπει να είστε πιο διαφανείς.

Εμβαθύνοντας στους κανονισμούς: Δοκιμές κώδικα για αλγορίθμους

Πρέπει να γνωρίζετε σε ποια κατηγορία εμπίπτει το σύστημα Τεχνητής Νοημοσύνης (AI) σας. Για ορισμένες χρήσεις της Τεχνητής Νοημοσύνης (AI), η Επιτροπή προτείνει την πλήρη απαγόρευση και λέει ότι αποτελεί απαράδεκτη απειλή για τους πολίτες. Για παράδειγμα, ένα σύστημα Τεχνητής Νοημοσύνης (AI) προκαλεί σωματική ή ψυχολογική βλάβη χειραγωγώντας τη συμπεριφορά των ανθρώπων ή εκμεταλλευόμενο τις ευάλωτες ικανότητές τους, όπως η ηλικία ή η αναπηρία. Άλλα παραδείγματα είναι τα συστήματα κοινωνικής βαθμολόγησης όπου οι άνθρωποι συλλέγουν πόντους και η αναγνώριση προσώπου σε δημόσιους χώρους από τις αρχές επιβολής του νόμου - δεν απαγορεύονται όλες οι αναγνωρίσεις προσώπου, αλλά αυτές που χρησιμοποιούνται από την αστυνομία σε δημόσιους χώρους. Αν και υπάρχουν και εξαιρέσεις.

Το μεγαλύτερο μέρος του ρυθμιστικού σχεδίου επικεντρώνεται στην Τεχνητή Νοημοσύνη (AI), η οποία θεωρείται υψηλού κινδύνου, και το τι είναι υψηλού κινδύνου ορίζεται στο ρυθμιστικό σχέδιο. Έτσι, αυτές είναι κατά κάποιο τρόπο προβληματικές χρήσεις στον τομέα των προσλήψεων στο πλαίσιο της πρόσληψης εργασίας, του προσδιορισμού της πιστοληπτικής ικανότητας ενός ατόμου ή της επιλεξιμότητας για δημόσιες υπηρεσίες και παροχές, καθώς και ορισμένες εφαρμογές που χρησιμοποιούνται στην επιβολή του νόμου και την ασφάλεια και το δικαστικό σύστημα. Και για αυτές, τα συστήματα αυτά πρέπει να πληρούν διαφορετικές απαιτήσεις και να υποβάλλονται σε αξιολόγηση συμμόρφωσης πριν κυκλοφορήσουν στην ευρωπαϊκή αγορά.

Για να διασφαλιστεί ότι ένα σύστημα Τεχνητής Νοημοσύνης (AI) συμμορφώνεται με διάφορες απαιτήσεις σχετικά με τη διαχείριση σοβαρών κινδύνων, πρέπει να χρησιμοποιεί σύνολα δεδομένων κατά την εκπαίδευση, την επικύρωση και τη δοκιμή που είναι συναφή, αντιπροσωπευτικά, χωρίς σφάλματα κ.λπ. Η τεκμηρίωση σχετικά με ένα σύστημα Τεχνητής Νοημοσύνης (AI) υψηλού κινδύνου πρέπει να είναι πραγματικά εκτενής και πολύ ακριβής - γιατί επιλέξατε συγκεκριμένα σχέδια; Γιατί το σχεδιάσατε με συγκεκριμένο τρόπο; Η λέξη-κλειδί είναι πάντα η ανθρώπινη επίβλεψη. Έτσι, τα συστήματα Τεχνητής Νοημοσύνης (AI) υψηλού κινδύνου πρέπει να σχεδιάζονται έτσι ώστε να επιτρέπουν στους ανθρώπους να κατανοούν τις δυνατότητες και τους περιορισμούς ενός συστήματος και να αντιμετωπίζουν τη λεγόμενη προκατάληψη της αυτοματοποίησης. Επίσης, εάν είναι απαραίτητο, να αντιστρέφουν ή να παρακάμπτουν το αποτέλεσμα. Είναι σαν τον έλεγχο κώδικα για τους αλγορίθμους.

Παραθυράκια στη ρύθμιση της Τεχνητής Νοημοσύνης (AI): Δεν είναι ο τελικός κόσμος

Το Ευρωπαϊκό Κοινοβούλιο και άλλοι φορείς στην Ευρώπη έχουν ήδη ζητήσει πολύ αυστηρότερους κανόνες σε ορισμένα στοιχεία του σχεδίου. Επιπλέον, ορισμένα κράτη μέλη πιστεύουν ότι θα πρέπει να είναι πιο αυστηρό σε ορισμένες περιπτώσεις. Ωστόσο, αυτό δεν είναι ο τελικός λόγος.

"Κατά την προσωπική μου γνώμη, πιστεύω ότι οι εξαιρέσεις, όπως στην αναγνώριση προσώπου, είναι πολύ ευρείες. Είναι δύσκολο όταν απαγορεύεις πολύ συγκεκριμένες χρήσεις της αναγνώρισης προσώπου, αλλά στη συνέχεια, στη βιομηχανία ή σε ιδιωτικές χρήσεις, δεν υπάρχει καμία απαγόρευση. Ακόμη και στις χρήσεις της επιβολής του νόμου, υπάρχουν ορισμένες περιοχές όπου μπορεί να χρησιμοποιηθεί. Πρακτικά, οι αρχές επιβολής του νόμου στην Ευρώπη θα αγοράσουν συστήματα αναγνώρισης προσώπου στην αγορά, όπου κι αν παράγονται, και θα τα χρησιμοποιήσουν στις συγκεκριμένες περιπτώσεις που θα τους επιτρέπεται. Πώς θέλετε πραγματικά να διασφαλίσετε ότι δεν θα τα χρησιμοποιήσουν για άλλα πράγματα; Νομίζω ότι αυτό είναι ένα τεράστιο παραθυράκι. Νομίζω ότι η αναγνώριση προσώπου έχει τη δυνατότητα να υπονομεύσει πραγματικά την ελεύθερη κοινωνία μας. Τελικά, άρα υπάρχουν πολλά που πρέπει να επικρίνουμε σε αυτό το σχέδιο".

Ακολουθεί μια λίστα με τις επιλεγμένες χρονοσφραγίδες για τα διάφορα θέματα που συζητήθηκαν κατά τη διάρκεια του podcast:

  • 2:16 - 6:56 Η διαδρομή της Julia από Γερμανίδα διπλωμάτης σε σύμβουλο για την πολιτική και τους κανονισμούς δεδομένων στις ΗΠΑ.

  • 6:56 - 12:48 Ο αντίκτυπος του ΓΚΠΔ στη Silicon Valley

  • 15:55 - 20:38 Επιπτώσεις του ΓΚΠΔ στους  Γίγαντες της Τεχνολογίας και στις Μικρομεσαίες Επιχειρήσεις στις ΗΠΑ

  • 20:38 - 25:53 Πώς επηρεάζουν οι προτεινόμενοι κανονισμοί για την Τεχνητή Νοημοσύνη (AI) τις ΗΠΑ;

  • 25:53 - 29:58 Λεπτομερής ανάλυση των κανονισμών Τεχνητής Νοημοσύνης (AI)

  • 29:58 - 35:55 Παραθυράκια και προκλήσεις του κανονισμού για την Τεχνητή Νοημοσύνη (AI);

  • 35:55 - Τέλος Η καινοτομία και η ρύθμιση της Τεχνητής Νοημοσύνης (AI) συμβαδίζουν;



Ακολουθήστε το Πρωτόκολλο Ocean στο Twitter, το Telegram, το LinkedIn, το Reddit, το GitHub και το Newsletter για ενημερώσεις και ανακοινώσεις του έργου. Και συνομιλήστε απευθείας με άλλους προγραμματιστές στο Discord.


Πρωτότυπο Άρθρο (Αγγλική): What AI Regulation means for Silicon Valley

Συντάκτης Πρωτότυπου Άρθρου: Diksha Dutta

Ημερομηνία Συγγραφής Πρωτότυπου Άρθρου: 05 Αυγούστου 2021