Με ρυθμιστικό πλαίσιο ανάλογο του GDPR, η ΕΕ θέλει να περιορίσει την ανεξέλεγκτη και ενδεχομένως επικίνδυνη χρήση της τεχνητής νοημοσύνης από οργανισμούς, με πρόστιμα που θα φτάνουν μέχρι και το 4% των ετήσιων εσόδων.
Σύμφωνα με ένα ανεπίσημο έγγραφο που διέρρευσε αρχικά στο Politico στις 14 Απριλίου, η ΕΕ ετοιμάζει ένα ρυθμιστικό πλαίσιο, προκειμένου να εμποδίσει την ανεξέλεγκτη χρήση εφαρμογών τεχνητής νοημοσύνης. Εφαρμογές, όπως η αναγνώριση προσώπου, έχουν τη δυνατότητα να παραβιάσουν τα προσωπικά δεδομένα των πολιτών, ενώ εφαρμογές, στις οποίες έχει δοθεί και η δυνατότητα εκτέλεσης αποφάσεων, θα μπορούσαν ακόμα και να βλάψουν πολίτες.
Μια εβδομάδα μετά τη διαρροή, στις 21 Απριλίου, η ΕΕ ανακοίνωσε και επίσημα την πρόθεσή της να προχωρήσει στη δημιουργία ρυθμιστικού πλαισίου, το οποίο προβλέπει πρόστιμα μέχρι και 20 εκατομμύρια ευρώ για οργανισμούς και εταιρείες που θα ξεφεύγουν από το πλαίσιο. Εφαρμογές της τεχνητής νοημοσύνης, όπως για παράδειγμα τα social scoring systems που έχουν ήδη αρχίσει να λειτουργούν στην Κίνα, θεωρούνται “προσβλητικά για τις αρχές της Ευρωπαϊκής Ένωσης”, όπως δήλωσε αξιωματούχος της και επομένως η χρήση τους δεν θα είναι εφικτή στα κράτη μέλη της.

Οι κανόνες είναι οι πρώτοι παγκοσμίως που έχουν ως στόχο να ρυθμίσουν θέματα που έχουν σχέση με τις εφαρμογές τεχνητής νοημοσύνης και είναι αναμενόμενο ότι προκάλεσαν τις αντιδράσεις των χωρών που ηγούνται σε αυτόν τον τομέα, κυρίως των ΗΠΑ και της Κίνας. Την περασμένη χρονιά, η Google προειδοποίησε ότι ο ορισμός της τεχνητής νοημοσύνης από την ΕΕ είναι ασαφής και οι Βρυξέλλες πρέπει να αποφύγουν ένα σκληρό ρυθμιστικό πλαίσιο που θα βλάψει την εξέλιξη μιας κρίσιμης τεχνολογίας.

Η ανακοίνωση του ρυθμιστικού πλαισίου δεν είναι κεραυνός εν αιθρία, καθώς τον περασμένο Σεπτέμβριο, η Πρόεδρος της ΕΕ, Ursula von der Leyen είχε δηλώσει «Είτε πρόκειται για αγροτική παραγωγή, ιατρικές προβλέψεις ή αυτόνομα οχήματα, η τεχνητή νοημοσύνη θα ανοίξει νέα παράθυρα στον κόσμο μας. Ωστόσο, χρειάζεται ρυθμιστικό πλαίσιο γιατί η θέα από όλα αυτά τα παράθυρα δεν είναι ακίνδυνη.» Η προετοιμασία της πρότασης έχει ξεκινήσει περισσότερο από ένα χρόνο πριν και στη διαβούλευση είχαν εμπλακεί το Ευρωπαϊκό Κοινοβούλιο και εκπρόσωποι των 27 κρατών μελών. Ωστόσο, το ρυθμιστικό πλαίσιο αναμένεται να δημιουργήσει αντιδράσεις και από τα κράτη μέλη, όπως η Γαλλία, τα οποία έχουν ανακοινώσει συστήματα ασφάλειας που χρησιμοποιούν την τεχνητή νοημοσύνη για τον εντοπισμό πιθανών εγκληματιών και τρομοκρατών.

Θα μπορούσε να είναι η τεχνητή νοημοσύνη μια νέα παγκόσμια κούρσα για την απόκτηση ενός “οπλοστασίου”, όπως συνέβη πριν από ένα περίπου αιώνα με την κούρσα για τα πυρηνικά όπλα; Σε μια τέτοια περίπτωση, τα κράτη που δεν θα θέσουν ηθικούς περιορισμούς θα έχουν ανταγωνιστικό πλεονέκτημα, γεγονός που θα τους επιτρέψει να κάνουν “δοκιμές” ανάλογες του Ναγκασάκι και της Χιροσίμα; Τα όρια ανάμεσα σε εμπορικούς-οικονομικούς πολέμους και πολέμους που ξεφεύγουν από το πλαίσιο των υπολογιστών είναι πολύ μικρά. Οπότε, αποφάσεις σε αυτή που λαμβάνει η ΕΕ, αν και αποτελούν δείγμα ενός πιο ανθρώπινου πολιτισμού δεν εξασφαλίζουν ότι δε θα γίνει θύμα εξελιγμένων οπλικά κονκισταδόρων.

Ο Christian Guttmann, Global Head of Artificial Intelligence and Data και Vice President της TietoEVRY, η οποία απασχολεί 24.000 εργαζόμενους και είναι στη λίστα Top 100 global IT companies, σύμφωνα με το Reuters, αναφέρει σε πρόσφατη ανάρτησή του «Είμαι βαθιά προβληματισμένος από την προσπάθεια της ΕΕ να θέσει ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη. Θεωρώ την προσπάθεια αυτή προβληματική από πολλές οπτικές. Μια μεγάλη ανησυχία είναι ότι στο σύντομο μέλλον δεν θα υπάρχουν προϊόντα τεχνητής νοημοσύνης που θα χαρακτηρίζονται ηθικά. Το έγγραφο που διάβασα είναι γεμάτο από φόβο και προστατευτισμό. Επομένως, η ΕΕ όχι μόνο αποδυναμώνει τις δικές της εταιρείες στερώντας τους το δικαίωμα της ανάπτυξης, αλλά ενδυναμώνει εταιρείες στις ΗΠΑ και την Κίνα που δεν θα εφαρμόσουν ανάλογα ρυθμιστικά πλαίσια». #