Σημαντικές θέσεις και προτάσεις της εισηγήτριας της LEFT Έλενας Κουντουρά, η οποία πιέζει για μια αξιόπιστη ανθρωποκεντρική Τεχνητή Νοημοσύνη βασιζόμενη στις ευρωπαϊκές αξίες και στα θεμελιώδη δικαιώματα, υιοθετήθηκαν στην Γνωμοδότηση για την Πράξη της Τεχνητής Νοημοσύνης που υπερψήφισε σήμερα με συντριπτική πλειοψηφία, 61 υπέρ και 2 κατά, η Επιτροπή Βιομηχανίας, Έρευνας και Ενέργειας (ITRE) του Ευρωπαϊκού Κοινοβουλίου.
Η γνωμοδότηση αυτή αφορά ουσιαστικά στην εισαγωγή για πρώτη φορά εναρμονισμένων ευρωπαϊκών κανόνων για την τεχνητή νοημοσύνη, σε ζητήματα αρμοδιότητας της ITRE σχετικά με τα δεδομένα και τη διακυβέρνηση των δεδομένων, την ακρίβεια, την ανθεκτικότητα και την κυβερνοασφάλεια των συστημάτων τεχνητής νοημοσύνης, αλλά και σε ευρύτερα ζητήματα που σχετίζονται με την καινοτομία, την ανταγωνιστικότητα, την έρευνα, τη βιωσιμότητα και τις μελλοντικές εξελίξεις στη βιομηχανία. Θα ενταχθεί στην νομοθετική Έκθεση που καταρτίζουν από κοινού οι Επιτροπές IMCO (Επιτροπή Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών) και LIBE (Πολιτικών Ελευθεριών, Δικαιοσύνης και Εσωτερικών Υποθέσεων) ως την τελική θέση του Ευρωπαϊκού Κοινοβουλίου κατά την πρώτη ανάγνωση, ώστε να ξεκινήσουν οι τριμερείς διαπραγματεύσεις με το Συμβούλιο και την Κομισιόν για την υιοθέτηση του Κανονισμού.
Οι βασικές θέσεις της Έλενας Κουντουρά, για τις οποίες ως εισηγήτρια της πολιτικής της ομάδας πίεσε και υπερψηφίστηκαν στην γνωμοδότηση, αφορούν συγκεκριμένα:
- την ανάγκη για τη διασφάλιση περισσότερης νομικής ασφάλειας και σαφήνειας στον Κανονισμό για την Τεχνητή Νοημοσύνη και τη διόρθωση υφιστάμενων κενών και ασαφειών, ενώ προστέθηκαν νέοι ορισμοί όπως πχ. ο ορισμός των deepfake, του γραμματισμού στον τομέα της τεχνητής νοημοσύνης, των δεδομένων προσωπικού και μη χαρακτήρα κ.α.
- την ανάγκη για την διασφάλιση του ανθρωποκεντρικού χαρακτήρα της Πράξης για την Τεχνητή Νοημοσύνη, στη βάση της ισχυρής προστασίας των θεμελιωδών δικαιωμάτων και την απαγόρευση των διακρίσεων όπως ορίζονται στις Συνθήκες και τη νομοθεσία για τα θεμελιώδη δικαιώματα και τις απαιτήσεις για λογοδοσία και διαφάνεια στη χρήση συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου.
- τη στήριξη και προώθηση της καινοτομίας, μέσα από ένα οικοσύστημα αριστείας που θα περιλαμβάνει τα ρυθμιστικά δοκιμαστήρια (regulatory sandboxes) που δημιουργούν ένα ελεγχόμενο περιβάλλον για τη δοκιμή καινοτόμων τεχνολογιών για περιορισμένο χρονικό διάστημα, την πρόσβαση στους Κόμβους Ψηφιακής Καινοτομίας και την πρόσβαση σε εγκαταστάσεις δοκιμών και πειραματισμού. Στόχος είναι να βοηθηθούν οι καινοτόμες επιχειρήσεις, οι ΜμΕ και οι νεοφυείς επιχειρήσεις ώστε να συνεχίσουν να καινοτομούν σύμφωνα με τους νέους κανόνες, με την παράλληλη διασφάλιση ότι δεν θα υπάρχουν κενά που θέτουν σε κίνδυνο την προστασία των προσωπικών δεδομένων ή τα θεμελιώδη δικαιώματα. Τυχόν σημαντικοί κίνδυνοι για τη δημοκρατία, το περιβάλλον, την υγεία και την ασφάλεια και για τα θεμελιώδη δικαιώματα που εντοπίζονται κατά την ανάπτυξη και τη δοκιμή των συστημάτων Τεχνητής Νοημοσύνης, θα έχουν ως αποτέλεσμα τον άμεσο μετριασμό και, ελλείψει αυτού, την αναστολή της διαδικασίας ανάπτυξης και δοκιμής τους.
- την εξασφάλιση ότι τα συστήματα ΤΝ υψηλού κινδύνου θα σχεδιάζονται και αναπτύσσονται κατά τρόπο ώστε να επιτυγχάνουν ασφάλεια εκ του σχεδιασμού και εξ ορισμού (security by design and by default), λαμβανομένου υπόψη του επιδιωκόμενου σκοπού τους, επιτυγχάνοντας έτσι κατάλληλο επίπεδο ακρίβειας, ανθεκτικότητας, ασφάλειας και κυβερνοασφάλειας, καθ’ όλη τη διάρκεια του κύκλου ζωής τους. Στο πλαίσιο αυτό ο Οργανισμός της Ευρωπαϊκής Ένωσης για την Κυβερνοασφάλεια (ENISA) θα συμμετέχει, με συμβουλευτική ιδιότητα, από κοινού με το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης, στην αντιμετώπιση τυχόν αναδυόμενων ζητημάτων σε ολόκληρη την εσωτερική αγορά όσον αφορά την ασφάλεια στον κυβερνοχώρο.
- την ανάγκη διασφάλισης του διαχρονικού χαρακτήρα της πράξης με τη βελτίωση της διασύνδεσης με την πράσινη μετάβαση και με πιθανές αλλαγές όσον αφορά τη βιομηχανία, την τεχνολογία και την ισχύ της Τεχνητής Νοημοσύνης. Συγκεκριμένα, οι ευρωπαϊκές εταιρείες θα πρέπει να χρησιμοποιούν τις διαθέσιμες τεχνολογικές εξελίξεις, προκειμένου τα κράτη μέλη να επιτύχουν τους στόχους τους για το κλίμα και τους Στόχους Βιώσιμης Ανάπτυξης των Ηνωμένων Εθνών. Για να διασφαλιστεί η συνοχή, αυτό απαιτεί τα ίδια τα συστήματα τεχνητής νοημοσύνης να σχεδιάζονται με βιώσιμο τρόπο ώστε να μειώνουν τη χρήση πόρων και την κατανάλωση ενέργειας, περιορίζοντας έτσι το αποτύπωμα στο περιβάλλον.