Την Τετάρτη, το Κοινοβούλιο έδωσε το πράσινο φως στο νόμο για την τεχνητή νοημοσύνη (AI). Σκοπός του είναι να διασφαλίσει την ασφάλεια και τον σεβασμό των θεμελιωδών δικαιωμάτων και να προωθήσει την καινοτομία.
Οι ευρωβουλευτές ενέκριναν τον κανονισμό με 523 ψήφους υπέρ, 46 κατά και 49 αποχές. Το Κοινοβούλιο και το Συμβούλιο συμφώνησαν επί του κειμένου τον Δεκέμβριο του 2023.
Οι νέοι κανόνες αποσκοπούν στην προστασία των θεμελιωδών δικαιωμάτων, της δημοκρατίας και του κράτους δικαίου, καθώς και της περιβαλλοντικής βιωσιμότητας από συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου. Ταυτόχρονα, αποσκοπούν στην ενίσχυση της καινοτομίας και στη διασφάλιση ότι η ΕΕ θα αναλάβει ηγετικό ρόλο στον τομέα αυτό. Ο κανονισμός ορίζει ορισμένες υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους δυνητικούς κινδύνους και τις επιπτώσεις.
Απαγορευμένες εφαρμογές
Οι νέοι κανονισμοί απαγορεύουν ορισμένες εφαρμογές τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών. Σε αυτές περιλαμβάνονται η βιομετρική κατηγοριοποίηση με βάση ευαίσθητα χαρακτηριστικά και η μη στοχευμένη ανάγνωση εικόνων προσώπου από το διαδίκτυο ή από κάμερες παρακολούθησης για βάσεις δεδομένων αναγνώρισης προσώπου. Τα συστήματα αναγνώρισης συναισθημάτων στο χώρο εργασίας και στα σχολεία και η αξιολόγηση της κοινωνικής συμπεριφοράς με τη χρήση τεχνητής νοημοσύνης θα απαγορεύονται επίσης στο μέλλον. Η προληπτική αστυνόμευση που βασίζεται αποκλειστικά στην κατάρτιση προφίλ ή στην αξιολόγηση των χαρακτηριστικών ενός ατόμου και η χρήση τεχνητής νοημοσύνης για τον επηρεασμό της συμπεριφοράς των ανθρώπων ή την εκμετάλλευση των αδυναμιών τους δεν θα επιτρέπεται επίσης βάσει των νέων κανόνων.
Εξαιρέσεις για τις αρχές επιβολής του νόμου
Κατ’ αρχήν, η χρήση συστημάτων βιομετρικής ταυτοποίησης εξ αποστάσεως από τις αρχές επιβολής του νόμου απαγορεύεται. Ωστόσο, υπάρχουν ορισμένες λεπτομερείς και στενά καθορισμένες εξαιρέσεις. Η εξ αποστάσεως ταυτοποίηση σε πραγματικό χρόνο επιτρέπεται μόνο εάν τηρούνται αυστηροί κανονισμοί ασφαλείας – συμπεριλαμβανομένων των χρονικών και χωρικών περιορισμών και της ανάγκης να ληφθεί εκ των προτέρων ειδική διοικητική ή δικαστική άδεια. Τέτοια συστήματα μπορούν να χρησιμοποιηθούν, για παράδειγμα, για την ειδική αναζήτηση ενός αγνοούμενου προσώπου ή για την πρόληψη τρομοκρατικής επίθεσης. Η χρήση συστημάτων τεχνητής νοημοσύνης για την επακόλουθη εξ αποστάσεως ταυτοποίηση θεωρείται ιδιαίτερα επικίνδυνη. Για το σκοπό αυτό απαιτείται δικαστική άδεια, η οποία πρέπει να συνδέεται με ποινικό αδίκημα.
Υποχρεώσεις για συστήματα υψηλού κινδύνου
Ορισμένες υποχρεώσεις προβλέπονται επίσης για άλλα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, καθώς μπορεί να αποτελέσουν σημαντική απειλή για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου. Τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στους τομείς των κρίσιμων υποδομών, της εκπαίδευσης και κατάρτισης ή της απασχόλησης χαρακτηρίζονται ως υψηλού κινδύνου. Τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για βασικές ιδιωτικές και δημόσιες υπηρεσίες – για παράδειγμα στην υγειονομική περίθαλψη ή τις τράπεζες -, σε ορισμένους τομείς της επιβολής του νόμου και σε σχέση με τη μετανάστευση και τη διαχείριση των συνόρων, τη δικαιοσύνη και τις δημοκρατικές διαδικασίες (για παράδειγμα για τον επηρεασμό των εκλογών) θεωρούνται επίσης υψηλού κινδύνου. Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Στο μέλλον, το κοινό θα έχει το δικαίωμα να υποβάλλει καταγγελίες σχετικά με τα συστήματα τεχνητής νοημοσύνης και να λαμβάνει εξηγήσεις για τις αποφάσεις που λαμβάνονται βάσει συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου και επηρεάζουν τα δικαιώματά του.
Απαιτήσεις διαφάνειας
Τα συστήματα τεχνητής νοημοσύνης γενικής χρήσης και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσης με τη νομοθεσία της ΕΕ περί πνευματικών δικαιωμάτων και της δημοσίευσης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιείται για την εκπαίδευση. Για τα πιο ισχυρά μοντέλα που θα μπορούσαν να υποκρύπτουν συστημικούς κινδύνους, θα ισχύουν στο μέλλον πρόσθετες απαιτήσεις – για παράδειγμα, πρέπει να διενεργούνται αξιολογήσεις μοντέλων, να αξιολογούνται και να μετριάζονται οι συστημικοί κίνδυνοι και να αναφέρονται περιστατικά.
Επιπλέον, οι τεχνητά παραγόμενες ή επεξεργασμένες εικόνες ή το περιεχόμενο ήχου και βίντεο (τα λεγόμενα deepfakes) πρέπει στο μέλλον να επισημαίνονται σαφώς ως τέτοια.
Στα κράτη μέλη πρέπει να δημιουργηθούν εργαστήρια πραγματικών συνθηκών και να διεξάγονται δοκιμές υπό πραγματικές συνθήκες. Αυτά πρέπει να είναι προσβάσιμα στις μικρομεσαίες επιχειρήσεις και τις νεοφυείς επιχειρήσεις, ώστε να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα συστήματα τεχνητής νοημοσύνης πριν από τη διάθεσή τους στην αγορά.