του Γιάννη Λεοντάρη
Μια σειρά από βελτιώσεις και αλλαγές στην πρόταση κανονισμού για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη που κατέθεσε πρόσφατα η ΕΕ, προτείνει η Ευρωπαϊκή Ομοσπονδία Καταναλωτών (BEUC), μέσα από μία αναλυτική μελέτη με τίτλο «Εφαρμογές της Τεχνητής Νοημοσύνης και κανονιστικό πλαίσιο προστασίας των καταναλωτών – Προτάσεις στο σχέδιο Κανονισμού».
Όπως αναφέρει, μεταξύ άλλων, η μελέτη,
- «η συγκεκριμένη νομοθεσία είναι καθοριστικής σημασίας για τη διασφάλιση υψηλού επιπέδου προστασίας των καταναλωτών, ως προς τα δικαιώματα και την προστασία τους. Η ανάπτυξη και χρήση των νέων τεχνολογιών τεχνητής νοημοσύνης αλλάζουν ήδη την καταναλωτική αγορά και τις κοινωνίες εν γένει.
- Αν και η διείσδυσή τους στην αγορά υπόσχεται τη βελτίωση της άνεσης και της αποτελεσματικότητας, απαιτούνται φιλόδοξες λύσεις για να διασφαλιστεί ότι η νέα τεχνολογία δεν θα συνεπάγεται δυνητικούς κινδύνους για τους καταναλωτές.».
Η εν λόγω μελέτη αναφέρει ορισμένες αρχικές διατυπώσεις βελτίωσης και επισημάνσεις, ώστε να διασφαλιστεί, όπως αναφέρει, η προστασία των καταναλωτών και η επίτευξη του στόχου μιας ισορροπημένης προσέγγισης, όπως η ΕΕ έχει ρητά δεσμευτεί, ώστε να διατηρηθεί μεν η τεχνολογική πρωτοπορία της, αλλά να διασφαλιστεί επίσης και ότι οι Ευρωπαίοι πολίτες μπορούν να επωφεληθούν από τις νέες τεχνολογίες που αναπτύσσονται και λειτουργούν σύμφωνα με τις αξίες, τα θεμελιώδη δικαιώματα και τις αρχές της.
Οι προτάσεις της μελέτης
Επιγραμματικά, οι προτάσεις της συγκεκριμένης μελέτης έχουν ως εξής:
- Να θεσπιστούν σαφή νομικά δικαιώματα για τους καταναλωτές και να μην επικεντρώνεται στα «συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου»
– Είναι σκόπιμο όλα τα συστήματα ΤΝ να υπόκεινται σε ένα ελάχιστο σύνολο κοινών νομικών κανόνων (βασικές αρχές διαφάνειας, ενημέρωσης, δικαιοσύνης, λογοδοσίας,
απαγόρευσης των διακρίσεων, ασφάλειας, αμφισβήτησης αλγοριθμικής διαδικασίας λήψης αποφάσεων χωρίς καμία ανθρώπινη παρέμβαση ή το δικαίωμα υποβολής καταγγελίας σε περίπτωση υποτιθέμενης παράβασης κλπ).
– Πολλές εφαρμογές τεχνητής νοημοσύνης που οι καταναλωτές χρησιμοποιούν ή θα χρησιμοποιήσουν στο εγγύς μέλλον στην καθημερινή τους ζωή (πχ «έξυπνοι» μετρητές, συνδεδεμένα παιχνίδια με τεχνολογία τεχνητής νοημοσύνης, εικονικοί βοηθοί ή συστήματα συστάσεων περιεχομένου που επιλέγουν τί βλέπουν οι άνθρωποι στα μέσα κοινωνικής δικτύωσης σύμφωνα με το προφίλ τους) εξαιρούνται από το πεδίο
εφαρμογής.
– Επιπλέον, ο κατάλογος των συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου στο παράρτημα III, πρέπει να διευρυνθεί. Για παράδειγμα, η τεχνητή νοημοσύνη που βασίστηκε στα κριτήρια της επιλεξιμότητας κάποιου ατόμου για την ασφάλιση υγείας ή αυτοκινήτου ή για το κόστος αυτής της ασφάλισης, δεν θεωρείται ως τεχνητή νοημοσύνη «υψηλού κινδύνου».
- Να διευρυνθούν και να ενισχυθούν οι απαγορευμένες πρακτικές (άρθρο 5)
– Η τεχνητή νοημοσύνη που χειραγωγεί, καλλιεργεί διακρίσεις, παραπλανά ή βλάπτει με άλλο τρόπο τους καταναλωτές με τρόπο που δύναται να προκαλέσει οικονομική και κοινωνική βλάβη, είναι σκόπιμο και αναγκαίο να συμπεριληφθεί στην πρόταση.
Επιπλέον, η εφαρμογή αυτής της διάταξης δεν πρέπει να περιορίζεται στην τεχνητή νοημοσύνη που η «προοριζόμενη χρήση» είναι να προκαλέσει βλάβη, αποκλείοντας κατά συνέπεια την «ενδεχόμενη χρήση» ή την «προβλεπόμενη χρήση» των συστημάτων τεχνητής νοημοσύνης. Η υποχρέωση απόδειξης του στοιχείου της πρόθεσης δεν απαιτείται στην
Ευρωπαϊκή νομοθεσία για την προστασία του καταναλωτή σε περίπτωση αθέμιτων εμπορικών πρακτικών και εκ των πραγμάτων είναι σημαντικό να διατηρηθεί το ίδιο επίπεδο προστασίας που ο καταναλωτής δικαιούται και προσδοκά βάσει της νομοθεσίας της Ε.Ε.
– Το άρθρο 5 (1) παρ. Β, θα πρέπει επίσης να καλύπτει την τεχνητή νοημοσύνη που χρησιμοποιείται για την εκμετάλλευση και άλλων ευπαθών ομάδων, λόγω της «ψηφιακής ασυμμετρίας», η οποία θέτει όλα τα άτομα σε ευάλωτη κατάσταση, αλλά και της αδιαφανής και ιδιαίτερα περίπλοκης φύσης των συστημάτων τεχνητής νοημοσύνης.
– Η χρήση εξ αποστάσεως βιομετρικής ταυτοποίησης φυσικών προσώπων και συστημάτων αναγνώρισης συναισθημάτων από ιδιωτικές εταιρείες σε δημόσια προσβάσιμους χώρους, θα πρέπει επίσης να απαγορευτεί, σύμφωνα και με την από κοινού γνωμοδότηση του Ευρωπαϊκού Συμβουλίου Προστασίας Δεδομένων (ΕΣΠΔ) και του Ευρωπαίου Επόπτη Προστασίας Δεδομένων (ΕΕΠΔ).
- Να προβλέπονται για τους καταναλωτές αποτελεσματικά μέσα προσφυγής στη δικαιοσύνη και αποζημίωση σε περίπτωση βλάβης
– Καθώς όλο και περισσότεροι έμποροι στρέφονται στη λήψη αποφάσεων βάσει αλγορίθμων, οι καταναλωτές θα πρέπει να έχουν το δικαίωμα να λαμβάνουν μια σαφή αιτιολόγηση για τη λειτουργία των συστημάτων τεχνητής νοημοσύνης, καθώς και το δικαίωμα εναντίωσης στη λήψη των εν λόγω αποφάσεων, σε περίπτωση που έχουν σημαντική επίπτωση σε αυτούς.
– Θα πρέπει να περιλαμβάνει ένα αποτελεσματικό σύνολο δικαιωμάτων για τους καταναλωτές, δεδομένου των ιδιαίτερα πολύπλοκων κινδύνων που δύνανται να επιφέρει η τεχνολογία Τ.Ν. Η υπάρχουσα νομοθεσία, όπως ο Γενικός Κανονισμός για την Προστασία των Δεδομένων (ΓΚΠΔ), δεν παρέχει επαρκή προστασία σε περιβάλλον τεχνητής νοημοσύνης.
– Δικαίωμα υποβολής καταγγελίας από τους καταναλωτές και το δικαίωμα
εκπροσώπησής τους από ενώσεις καταναλωτών κατά την άσκηση των δικαιωμάτων τους μέσω άσκησης συλλογικών αγωγών αποζημίωσης, στα πλαίσια εφαρμογής της Ευρωπαϊκής Οδηγίας για τις αντιπροσωπευτικές αγωγές.
- Να μην αντικαθιστούν τη νομοθεσία η εφαρμογή εναρμονισμένων (τεχνικών) προτύπων από τους κατασκευαστές
– Είναι σημαντικό να διασφαλιστεί ότι, τα συγκεκριμένα πρότυπα χρησιμοποιούνται μόνο για την εφαρμογή τεχνικών απαιτήσεων και δεν ισχύουν ως προς τον ορισμό ή την εφαρμογή θεμελιωδών δικαιωμάτων ή νομικών κανόνων. Για παράδειγμα πρέπει να περιλαμβάνει λεπτομερέστερους κανόνες σχετικά με τις διατάξεις που ισχύουν για την
«τεχνητή νοημοσύνη υψηλού κινδύνου», συμπεριλαμβανομένης της νομοθεσίας κατά των διακρίσεων.
- Να απαιτείται ο έλεγχος από τρίτους για την αξιολόγηση της συμμόρφωσης των «συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου» (άρθρο 43)
– Το προτεινόμενο πλαίσιο αξιολόγησης της συμμόρφωσης συνιστά προφανή σύγκρουση συμφερόντων: ο πάροχος που αξιολογεί εάν ένα συγκεκριμένο προϊόν συμμορφώνεται με τους κανόνες είναι ο ίδιος που ενδιαφέρεται να διαθέσει την τεχνητή νοημοσύνη στην αγορά της ΕΕ το συντομότερο δυνατό.
– Οι περιπτώσεις «αυτοαξιολόγησης» πρέπει να επιτρέπονται μόνο για την εκτίμηση συστημάτων τεχνητής νοημοσύνης που δεν θεωρούνται υψηλού κινδύνου.
– Τα αποτελέσματα της διαδικασίας αξιολόγησης συμμόρφωσης και όλα τα σχετικά έγγραφα πρέπει να κοινοποιούνται στην αρχή εποπτείας της αγοράς, πριν το προϊόν διατεθεί στην αγορά και στους καταναλωτές.
- Να αποσαφηνιστούν και να βελτιωθούν η διοικητική δομή και οι μηχανισμοί επιβολής
– Σαφείς υποχρεώσεις, αρμοδιότητες και εκτελεστικές εξουσίες των διαφόρων εμπλεκόμενων φορέων, όπως και οι διαφορετικές προβλεπόμενες διαδικασίες.
– Ο μεγάλος αριθμός των εθνικών αρμόδιων αρχών, που συμμετέχουν στην εφαρμογή του παρόντος κανονισμού (πχ Αρχές Προστασίας Καταναλωτών, Αρχές Τηλεπικοινωνιών, Αρχές Εποπτείας της Αγοράς κλπ.) θα δυσχεραίνει ιδιαίτερα την εύρεση των οικονομικών και ανθρώπινων πόρων, ή/και τεχνικών εμπειρογνωμόνων, προκειμένου να διασφαλιστεί η κατάλληλη και αποτελεσματική επιβολή των απαιτήσεων και των υποχρεώσεων που ορίζονται στο πλαίσιο του κανονισμού.
– Σύσταση ενός εξειδικευμένου τεχνικού οργάνου, με τη συμμετοχή εμπειρογνωμόνων που θα οριστεί από την ΕΕ και με συγκεκριμένες αρμοδιότητες.
– Επιπλέον, αναφορικά με τη διαδικασία διασφάλισης στο άρθρο 66, η ΕΕ θα πρέπει να είναι σε θέση να εκκινήσει μία διαδικασία αξιολόγησης για ένα σύστημα τεχνητής νοημοσύνης, στις περιπτώσεις που:
α. έχει επαρκείς λόγους να πιστεύει ότι ένα σύστημα τεχνητής νοημοσύνης ενέχει κινδύνους
β. καμία αρχή εποπτείας της αγοράς δεν ξεκίνησε έρευνα βάσει του άρθρου 65, παρ.2
γ. το σύστημα τεχνητής νοημοσύνης επηρεάζει τους καταναλωτές σε περισσότερα από ένα κράτη μέλη.