Τι θεωρείται σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου βάσει του Κανονισμού (ΕΕ) για την ΤΝ (EU AI Act)?

Τι θεωρείται σύστημα τεχνητής νοημοσύνης υψηλού κινδύνου βάσει του Κανονισμού (ΕΕ) για την ΤΝ (EU AI Act)?

Ορισμός και σκοπός της ταξινόμησης κινδύνου 

Ο Κανονισμός (ΕΕ) για την Τεχνητή Νοημοσύνη (EU AI Act) θεσπίζει ένα ολοκληρωμένο κανονιστικό πλαίσιο για τα συστήματα τεχνητής νοημοσύνης που διατίθενται στην αγορά ή χρησιμοποιούνται εντός της Ευρωπαϊκής Ένωσης. Κεντρικό δομικό στοιχείο του Κανονισμού αποτελεί το σύστημα ταξινόμησης βάσει κινδύνου, το οποίο διαφοροποιεί τις κανονιστικές υποχρεώσεις ανάλογα με τον δυνητικό αντίκτυπο ενός συστήματος ΤΝ στα άτομα, την κοινωνία και τα θεμελιώδη δικαιώματα. 

Ο σκοπός της ταξινόμησης δεν είναι η ομοιόμορφη ρύθμιση όλων των συστημάτων ΤΝ, αλλά η συγκέντρωση αυξημένων εγγυήσεων στις περιπτώσεις όπου η χρήση της ΤΝ ενδέχεται να δημιουργεί σημαντικούς κινδύνους. Τα συστήματα που χαρακτηρίζονται ως υψηλού κινδύνου υπόκεινται, συνεπώς, στις πλέον εκτεταμένες απαιτήσεις συμμόρφωσης, διακυβέρνησης και εποπτείας. 

Η διαπίστωση του αν ένα σύστημα ΤΝ εμπίπτει στην κατηγορία υψηλού κινδύνου αποτελεί κρίσιμο κατώφλι κανονιστικής εφαρμογής, καθώς καθορίζει όχι μόνο το εύρος των υποχρεώσεων, αλλά και –σε ορισμένες περιπτώσεις– τη νομιμότητα της διάθεσής του στην ενωσιακή αγορά. 

Η συστηματική προσέγγιση του EU AI Act 

Ο Κανονισμός υιοθετεί ένα πολυεπίπεδο ρυθμιστικό μοντέλο, το οποίο διακρίνει μεταξύ τεσσάρων κατηγοριών συστημάτων ΤΝ: 

  1. Απαγορευμένες πρακτικές ΤΝ, λόγω μη αποδεκτού κινδύνου. 
  1. Συστήματα ΤΝ υψηλού κινδύνου, τα οποία επιτρέπονται μόνον εφόσον πληρούν αυστηρές προϋποθέσεις. 
  1. Συστήματα περιορισμένου κινδύνου, που υπόκεινται κυρίως σε υποχρεώσεις διαφάνειας. 
  1. Συστήματα ελάχιστου κινδύνου, τα οποία παραμένουν κατά κανόνα αρρύθμιστα. 

Τα συστήματα υψηλού κινδύνου καταλαμβάνουν κεντρική θέση σε αυτή τη δομή: δεν απαγορεύονται, αλλά υπάγονται σε ένα λεπτομερές πλαίσιο εκ των προτέρων και διαρκών υποχρεώσεων, με στόχο τον μετριασμό συστημικών κινδύνων. 

Συστήματα ΤΝ υψηλού κινδύνου: πεδίο εφαρμογής και νομική έννοια 

Ένα σύστημα τεχνητής νοημοσύνης μπορεί να χαρακτηριστεί ως υψηλού κινδύνου με δύο βασικούς τρόπους: 

  1. Λόγω της προβλεπόμενης χρήσης του σε ρυθμιζόμενο τομέα, ή 
  1. Ως στοιχείο ασφάλειας προϊόντος που υπόκειται σε ενωσιακή νομοθεσία ασφάλειας. 

Ρυθμιζόμενοι τομείς και αντίκτυπος στα θεμελιώδη δικαιώματα 

Συστήματα ΤΝ θεωρούνται υψηλού κινδύνου όταν προορίζονται να χρησιμοποιηθούν σε τομείς στενά συνδεδεμένους με θεμελιώδη δικαιώματα, ασφάλεια ή πρόσβαση σε ουσιώδεις υπηρεσίες, όπως ιδίως: 

  • απασχόληση και διαχείριση εργαζομένων, 
  • εκπαίδευση και επαγγελματική κατάρτιση, 
  • πρόσβαση σε δημόσιες ή ιδιωτικές υπηρεσίες, 
  • πιστοληπτική ικανότητα και χρηματοοικονομικές υπηρεσίες, 
  • επιβολή του νόμου, μετανάστευση και έλεγχος συνόρων, 
  • απονομή δικαιοσύνης και δημοκρατικές διαδικασίες. 

Η βασική αιτιολόγηση έγκειται στο ότι σφάλματα, μεροληψία ή δυσλειτουργίες σε τέτοια συστήματα ενδέχεται να προκαλέσουν σοβαρές νομικές, οικονομικές ή προσωπικές συνέπειες για τα υποκείμενα των αποφάσεων. 

Στοιχεία ασφάλειας ρυθμιζόμενων προϊόντων 

Συστήματα ΤΝ χαρακτηρίζονται επίσης ως υψηλού κινδύνου όταν λειτουργούν ως στοιχεία ασφάλειαςπροϊόντων που ήδη υπάγονται σε ενωσιακή νομοθεσία ασφάλειας προϊόντων, όπως ιατροτεχνολογικά προϊόντα, μηχανήματα ή οχήματα. Στις περιπτώσεις αυτές, ο Κανονισμός για την ΤΝ λειτουργεί συμπληρωματικά προς τα υφιστάμενα τομεακά καθεστώτα. 

Ταξινόμηση βάσει παραρτημάτων και ο ρόλος της προβλεπόμενης χρήσης 

Η αναλυτική κατηγοριοποίηση των συστημάτων ΤΝ υψηλού κινδύνου καθορίζεται κυρίως στα Παραρτήματα του Κανονισμού, τα οποία προσδιορίζουν: 

  • τους τομείς εφαρμογής που θεωρούνται υψηλού κινδύνου, και 
  • τα είδη συστημάτων ΤΝ που εμπίπτουν σε αυτούς. 

Καθοριστικής σημασίας είναι ο σκοπός χρήσης του συστήματος, όπως αυτός ορίζεται από τον πάροχο. Το ίδιο τεχνικό σύστημα μπορεί να υπαχθεί ή όχι στην κατηγορία υψηλού κινδύνου, ανάλογα με το πλαίσιο ανάπτυξης και εφαρμογής του. 

Η ταξινόμηση, συνεπώς, δεν εξαρτάται αποκλειστικά από τεχνικά χαρακτηριστικά, αλλά από μια λειτουργική και συμφραζόμενη αξιολόγηση της χρήσης και του πραγματικού αντικτύπου. 

Διάκριση από μη υψηλού κινδύνου συστήματα ΤΝ 

Δεν θεωρούνται όλα τα συστήματα ΤΝ που λειτουργούν σε ευαίσθητα περιβάλλοντα αυτομάτως υψηλού κινδύνου. Ο Κανονισμός διακρίνει σαφώς μεταξύ: 

  • συστημάτων που υποστηρίζουν τη λήψη αποφάσεων, και 
  • συστημάτων που καθορίζουν ή δεσμεύουν το αποτέλεσμα νομικά ή πρακτικά. 

Συστήματα που απλώς υποβοηθούν τον άνθρωπο, χωρίς ουσιώδη επιρροή στο τελικό αποτέλεσμα, ενδέχεται να μην υπάγονται στην κατηγορία υψηλού κινδύνου. Αντιθέτως, συστήματα που αυτοματοποιούν ή διαμορφώνουν αποφασιστικά αποφάσεις σχετικές με δικαιώματα ή ευκαιρίες φυσικών προσώπων είναι πιθανότερο να χαρακτηριστούν ως υψηλού κινδύνου. 

Νομικές συνέπειες του χαρακτηρισμού ως υψηλού κινδύνου 

Ενισχυμένες υποχρεώσεις συμμόρφωσης 

Τα συστήματα ΤΝ υψηλού κινδύνου υπόκεινται, μεταξύ άλλων, σε: 

  • συστήματα διαχείρισης κινδύνων και διακυβέρνησης, 
  • εκτενή τεχνική τεκμηρίωση, 
  • κανόνες διακυβέρνησης και ποιότητας δεδομένων, 
  • μηχανισμούς ανθρώπινης εποπτείας, 
  • απαιτήσεις ακρίβειας, ανθεκτικότητας και κυβερνοασφάλειας. 

Οι υποχρεώσεις αυτές ισχύουν πριν από τη διάθεση στην αγορά και καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος. 

Αξιολόγηση συμμόρφωσης και πρόσβαση στην αγορά 

Πριν από τη διάθεση ή τη θέση σε λειτουργία ενός συστήματος ΤΝ υψηλού κινδύνου, απαιτείται αξιολόγηση συμμόρφωσης. Ανάλογα με την κατηγορία, αυτή μπορεί να διενεργείται εσωτερικά ή με τη συμμετοχή κοινοποιημένων οργανισμών. 

Η μη συμμόρφωση μπορεί να οδηγήσει σε περιορισμούς πρόσβασης στην αγορά, υποχρεωτική απόσυρση ή διοικητικές κυρώσεις. 

Κατανομή κανονιστικής ευθύνης 

Ο Κανονισμός διακρίνει μεταξύ παρόχων και χρηστών (deployers) συστημάτων ΤΝ, αποδίδοντας διαφορετικές ευθύνες σε κάθε κρίκο της αλυσίδας αξίας. Ο χαρακτηρισμός ως υψηλού κινδύνου επηρεάζει, συνεπώς, άμεσα τη νομική λογοδοσία

Ο χαρακτηρισμός υψηλού κινδύνου ως κανονιστικός πυλώνας 

Η έννοια του συστήματος ΤΝ υψηλού κινδύνου αποτελεί θεμελιώδη πυλώνα της κανονιστικής αρχιτεκτονικής του EU AI Act. Συνδέει τις νομικές υποχρεώσεις με τον πραγματικό αντίκτυπο των συστημάτων ΤΝ στα άτομα και την κοινωνία. 

Η ορθή ταξινόμηση είναι κρίσιμη για τη νομική βεβαιότητα. Εσφαλμένη αξιολόγηση μπορεί να οδηγήσει είτε σε αδικαιολόγητο κανονιστικό βάρος είτε σε σοβαρά κενά συμμόρφωσης. 

Συμπέρασμα 

Ένα σύστημα τεχνητής νοημοσύνης χαρακτηρίζεται ως υψηλού κινδύνου βάσει του EU AI Act όταν η προβλεπόμενη χρήση, η λειτουργική του συμβολή και ο δυνητικός του αντίκτυπος το εντάσσουν σε ρυθμιζόμενους τομείς ή πλαίσια ασφάλειας προϊόντων, όπως αυτά καθορίζονται στον Κανονισμό και τα Παραρτήματά του. Η ταξινόμηση βασίζεται σε νομικά κριτήρια και όχι αποκλειστικά στην τεχνική πολυπλοκότητα και ενεργοποιεί ένα ολοκληρωμένο πλέγμα υποχρεώσεων διακυβέρνησης και εποπτείας. 

Η κατανόηση της έννοιας του υψηλού κινδύνου αποτελεί προϋπόθεση για την ορθή πλοήγηση στο κανονιστικό τοπίο της τεχνητής νοημοσύνης στην Ευρωπαϊκή Ένωση. 

Σημείωση 

Οι πληροφορίες που περιέχονται στο παρόν άρθρο παρέχονται αποκλειστικά για γενικούς ενημερωτικούς σκοπούς και δεν συνιστούν νομική συμβουλή

Κύλιση στην κορυφή