του Guido Lobrano*
Ο σχεδιασμός του κανονισμού της Ε.Ε. για την Τεχνητή Νοημοσύνη πρέπει να προσβλέπει στην αύξηση των επιπέδων εμπιστοσύνης του κοινού, ενώ προωθεί την καινοτομία.
Η δημόσια συζήτηση σε παγκόσμιο επίπεδο γύρω από το θέμα της Τεχνητής Νοημοσύνης κυριαρχείται σε μεγάλο βαθμό από απόψεις σχετικά με το πώς οι κυβερνήσεις πρέπει να εξαλείψουν όλους τους δυνητικούς κινδύνους που αφορούν αυτήν την ανατρεπτική τεχνολογία.
Φυσικά, αυτό δεν είναι δυνατό να συμβεί, καθώς είναι αδύνατη η επίτευξη «μηδενικού κινδύνου» στα πλαίσια μιας κοινωνίας, αλλά το σημαντικότερο είναι ότι αυτή η προσέγγιση φέρει και τον δικό της κίνδυνο- αυτόν της υποτίμησης των αρνητικών πτυχών της μείωσης, της επιβράδυνσης ή των δυσκολιών στην υιοθέτηση των τεχνολογιών Τεχνητής Νοημοσύνης που θα ωφελούσε σε μεγάλο βαθμό τους ευρωπαίους πολίτες.
Στα πλαίσια αυτά και υπό συνθήκες ανταγωνισμού μεταξύ ΗΠΑ και Κίνας, η Ευρωπαϊκή Ένωση καλλιεργεί τις δικές της παγκόσμιες φιλοδοξίες, ενώ η Ευρωπαϊκή Επιτροπή σύντομα θα εκπονήσει σχέδια καθορισμού των ρυθμίσεων αναφορικά με τη χρήση της Τεχνητής Νοημοσύνης.
Η ίδια η Επιτροπή αναγνώρισε την ευρεία εφαρμογή της Τεχνητής Νοημοσύνης, συμπεριλαμβάνοντας-μεταξύ άλλων- τον αντίκτυπο και τον κίνδυνο για τη Λευκή Βίβλο του προηγούμενου έτους- ειδικότερα όσον αφορά την Τεχνητή Νοημοσύνη υψηλού κινδύνου, η οποία αναμένεται σε μεγάλο βαθμό να συμπεριληφθεί στον επερχόμενο κανονισμό. Αυτό είναι σίγουρα και το ορθό- που πολλοί νομοθέτες ελπίζουμε ότι θα πράξουν.
Ωστόσο, παρόλο που υπάρχει ευρεία αποδοχή για τα κριτήρια που λαμβάνονται υπόψη ως προς την Τεχνητή Νοημοσύνη υψηλού κινδύνου, ισχύει ότι: η «ανθρωποκεντρική» προσέγγιση της Ε.Ε. προάγει την ηθική και υπεύθυνη ανάπτυξη της Τεχνητής Νοημοσύνης, αλλά είναι σημαντικό οι νέες προτάσεις της Ε.Ε. να μην γενικεύουν τα κριτήρια κινδύνου κρίνοντας όλες τις εφαρμογές της Τεχνητής Νοημοσύνης ως υψηλού κινδύνου.
Αυτό θα επέβαλε δυσανάλογα τις διάφορες υποχρεώσεις, από τις οποίες θα έπρεπε να αποκλείονται εφαρμογές που στην πραγματικότητα ενέχουν μικρά ποσοστά κινδύνου για τα θεμελιώδη δικαιώματα. Επίσης, πολλές εφαρμογές εμπίπτουν ήδη στο πεδίο της τομεακής νομοθεσίας, αλλάζοντας από χώρα σε χώρα.
Αυτή είναι μόνο μία από τις πολλές παγκοσμίων διαστάσεων προκλήσεις που σχετίζονται με τη θέσπιση κανονισμών για ένα τόσο σύνθετο ζήτημα όπως της Τεχνητής Νοημοσύνης, που απαιτεί με τη σειρά του έναν παγκόσμιο διάλογο και λύση.
Ενώ η Ε.Ε. ίσως θα είναι η πρώτη που θα θεσπίσει κανονισμούς για την Τεχνητή Νοημοσύνη, πολύ πιθανόν να ακολουθήσουν και άλλοι. Τυχόν νέοι κανονισμοί για την Τεχνητή Νοημοσύνη πρέπει να εξεταστούν σε παγκόσμιο επίπεδο, καθώς οι φορείς είναι τόσο διαφορετικοί όσο οι G7 και G20. Μεταξύ άλλων- το Παγκόσμιο Οικονομικό Φόρουμ, ο ΟΟΣΑ και η UNESCO, έχουν αναδειχθεί τα τελευταία χρόνια.
Άλλωστε, η τεχνολογία αναπτύσσεται παγκοσμίως μέσω των σύνθετων αλυσίδων εφοδιασμού, καθιστώντας την παγκόσμια σύγκλιση και προσέγγιση ισχυρό παράγοντα καινοτομίας.
Οφέλη για όλους
Η Ευρώπη αναγνωρίζει ήδη τα οφέλη που προσφέρει η Τεχνητή Νοημοσύνη: όχι μόνο διευκολύνοντας τη ζωή μας, αλλά βοηθώντας στην επίλυση κοινωνικών προκλήσεων- όπως η θεραπεία χρόνιων ασθενειών ή η αντιμετώπιση της κλιματικής αλλαγής.
Η πανδημία του κορονοϊού καθιστά αυτόν τον ρόλο ακόμη πιο κρίσιμο, καθώς η Τεχνητή Νοημοσύνη βοηθά στην παροχή καινοτόμων λύσεων σε ζητήματα υγείας, αλλά και τρόπους εξόδου από την οικονομική κρίση που προκαλείται από τον COVID-19.
Αν η Ε.Ε. επιβάλει γενικά ρυθμιστικά μέτρα για την Τεχνητή Νοημοσύνη, ενδέχεται να παρακωλύσει τα οφέλη που μπορεί να έχει σε τομείς τόσο διαφορετικούς, όσο -όχι μόνο- αναφορικά με τον ιατροφαρμακευτικό τομέα, αλλά και τη γεωργία και τον τομέα των κατασκευών, των μετακινήσεων και των χρηματοοικονομικών υπηρεσιών. Ταυτόχρονα, πρέπει να αναγνωρίσουμε τις νέες προκλήσεις που ανακύπτουν με τις ταχέως αναπτυσσόμενες τεχνολογίες, όπως η Τεχνητή Νοημοσύνη.
Η πιο μεγάλη πρόκληση για τους υπεύθυνους χάραξης πολιτικής είναι, επομένως, να διαχειριστούν αυτούς τους πιθανούς κινδύνους, ενώ ταυτόχρονα επιτρέπουν τη σταθερή ανάπτυξη και εφαρμογή της Τεχνητής Νοημοσύνης. Αυτό που έχει σημασία εδώ είναι μια λεπτομερής, ευέλικτη, αλλά και αποτελεσματική προσέγγιση όσον αφορά τη ρύθμιση, συμπεριλαμβάνοντας τη δυνατότητα αυτορρύθμισης μέσω συμφωνημένων κριτηρίων αναφοράς, αλλά και μηχανισμούς διευκόλυνσης της διασυνοριακής κανονιστικής ισχύος, μέσω της αμοιβαίας αναγνώρισης- μεταξύ άλλων.
Οι ισχυρές διασφαλίσεις των θεμελιωδών δικαιωμάτων και η προάσπιση των ευρωπαϊκών αξιών πρέπει να βασίζονται σε ένα πλαίσιο που θα ενθαρρύνει την καινοτομία και θα επιτρέπει την υπεύθυνη ανάπτυξη της τεχνολογίας παγκοσμίως. Αυτός είναι ο λόγος για τον οποίο είναι αποδεκτός ο στόχος της Ε.Ε. για τη ρύθμιση μόνο της Τεχνητής Νοημοσύνης «υψηλού κινδύνου» και των εφαρμογών της.
Κοινό καλό
Αν η Τεχνητή Νοημοσύνη αποτελεί, πράγματι, εργαλείο για το κοινό καλό, τότε το κοινό πρέπει να το κατανοήσει. Εκτός από την προώθηση της διαφάνειας και της σχετικής ενημέρωσης, οι εθνικές κυβερνήσεις και οι διεθνείς οργανισμοί, όπως και η Ε.Ε., πρέπει να επενδύουν στις δεξιότητες. Αυτό δεν σημαίνει ότι με τον τρόπο αυτό θα γνωρίζουμε λεπτομερώς τον τρόπο λειτουργίας κάθε εφαρμογής της Τεχνητής Νοημοσύνης, αλλά θα μπορούμε να έχουμε την εμπιστοσύνη -και βάσει δεδομένων- ότι ο αντίκτυπός της είναι θετικός.
*Αντιπρόεδρος του Συμβουλίου Βιομηχανίας Πληροφορικής για την Ευρώπη
**πρώτη δημοσίευση: www.euractiv.com