Εγγραφή

Αναφορά

Ένας οδηγός για τους υπεύθυνους χάραξης πολιτικής: Αξιολόγηση ταχέως αναπτυσσόμενων τεχνολογιών, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, μεγάλων γλωσσικών μοντέλων και άλλα

Σε αυτό το έγγραφο το ISC διερευνά το περίγραμμα ενός πλαισίου για την ενημέρωση των υπευθύνων χάραξης πολιτικής σχετικά με τις πολλαπλές παγκόσμιες και εθνικές συζητήσεις που λαμβάνουν χώρα σχετικά με την τεχνητή νοημοσύνη.

Ο οδηγός του ISC προσφέρει ένα ολοκληρωμένο πλαίσιο που έχει σχεδιαστεί για να γεφυρώσει το χάσμα μεταξύ των αρχών υψηλού επιπέδου και της πρακτικής, εφαρμόσιμης πολιτικής. Ανταποκρίνεται στην επείγουσα ανάγκη για κοινή κατανόηση τόσο των ευκαιριών όσο και των κινδύνων που παρουσιάζουν οι αναδυόμενες τεχνολογίες. Αυτό είναι ένα ουσιαστικό έγγραφο για όσους εργάζονται στο πλέγμα πολιτικής στην ταχέως μεταβαλλόμενη ψηφιακή εποχή μας.

Το πλαίσιο διερευνά τις δυνατότητες της τεχνητής νοημοσύνης και των παραγώγων της μέσω ενός ολοκληρωμένου φακού, που περιλαμβάνει την ανθρώπινη και κοινωνική ευημερία μαζί με εξωτερικούς παράγοντες όπως η οικονομία, η πολιτική, το περιβάλλον και η ασφάλεια. Ορισμένες πτυχές της λίστας ελέγχου μπορεί να είναι πιο σχετικές από άλλες, ανάλογα με το πλαίσιο, αλλά καλύτερες αποφάσεις φαίνονται πιο πιθανές εάν ληφθούν υπόψη όλοι οι τομείς, ακόμα κι αν ορισμένοι μπορούν γρήγορα να αναγνωριστούν ως άσχετοι σε συγκεκριμένες περιπτώσεις. Αυτή είναι η εγγενής αξία μιας προσέγγισης λίστας ελέγχου.

«Σε μια εποχή που χαρακτηρίζεται από ταχεία τεχνολογική καινοτομία και πολύπλοκες παγκόσμιες προκλήσεις, το πλαίσιο του ISC για ολοκληρωμένη και πολυδιάστατη ανάλυση των πιθανών επιπτώσεων δίνει τη δυνατότητα στους ηγέτες να λαμβάνουν τεκμηριωμένες, υπεύθυνες αποφάσεις. Εξασφαλίζει ότι καθώς προχωράμε τεχνολογικά, το κάνουμε με προσεκτική εξέταση των ηθικών, κοινωνικών και οικονομικών επιπτώσεων».

Peter Γκλούκμαν, Πρόεδρος του ISC

Ενώ, μεταξύ άλλων, οι αρχές υψηλού επιπέδου έχουν γνωστοποιηθεί από την UNESCO, τον ΟΟΣΑ, την Ευρωπαϊκή Επιτροπή και τον ΟΗΕ, και συνεχίζονται διάφορες συζητήσεις σχετικά με ζητήματα δυνητικής διακυβέρνησης, ρύθμισης, ηθικής και ασφάλειας, υπάρχει μεγάλο χάσμα μεταξύ τέτοιων αρχών και διακυβέρνησης ή κανονιστικού πλαισίου. Το ISC αντιμετωπίζει αυτή την ανάγκη μέσω του νέου του οδηγού για τους υπεύθυνους χάραξης πολιτικής.

Αυτός ο οδηγός για τους υπεύθυνους χάραξης πολιτικής δεν αποσκοπεί στην απαγόρευση ενός ρυθμιστικού καθεστώτος, αλλά μάλλον στην πρόταση ενός προσαρμοστικού και εξελισσόμενου αναλυτικού πλαισίου που θα μπορούσε να υποστηρίξει οποιεσδήποτε διαδικασίες αξιολόγησης και ρυθμίσεων που ενδέχεται να αναπτυχθούν από ενδιαφερόμενους φορείς, συμπεριλαμβανομένων των κυβερνήσεων και του πολυμερούς συστήματος.

«Το πλαίσιο είναι ένα κρίσιμο βήμα στην παγκόσμια συζήτηση για την τεχνητή νοημοσύνη, καθώς παρέχει μια βάση από την οποία μπορούμε να οικοδομήσουμε συναίνεση σχετικά με τις επιπτώσεις της τεχνολογίας τόσο για τώρα όσο και για το μέλλον». 

Χέμα Σρίντχαρ, πρώην επικεφαλής επιστημονικός σύμβουλος, Υπουργείο Άμυνας, Νέα Ζηλανδία και νυν ανώτερος ερευνητής Fellow, Πανεπιστήμιο του Ώκλαντ, Νέα Ζηλανδία.

Από τον Οκτώβριο του 2023, υπήρξαν αρκετές σημαντικές εθνικές και πολυμερείς πρωτοβουλίες με περαιτέρω εξέταση της ηθικής και της ασφάλειας της τεχνητής νοημοσύνης. Οι επιπτώσεις της τεχνητής νοημοσύνης στην ακεραιότητα ορισμένων από τα κρίσιμα συστήματα μας, συμπεριλαμβανομένων των οικονομικών, κυβερνητικών, νομικών και εκπαιδευτικών συστημάτων, καθώς και διαφορετικών συστημάτων γνώσης (συμπεριλαμβανομένης της επιστημονικής και της εγχώριας γνώσης), προκαλούν αυξανόμενη ανησυχία. Το πλαίσιο αντικατοπτρίζει περαιτέρω αυτές τις πτυχές.

Τα σχόλια που ελήφθησαν από τα μέλη του ISC και τη διεθνή κοινότητα χάραξης πολιτικής μέχρι σήμερα αντικατοπτρίζονται στην αναθεωρημένη έκδοση του αναλυτικού πλαισίου, το οποίο τώρα κυκλοφορεί ως οδηγός για τους υπεύθυνους χάραξης πολιτικής.

Ένας οδηγός για τους υπεύθυνους χάραξης πολιτικής: Αξιολόγηση ταχέως αναπτυσσόμενων τεχνολογιών, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, μεγάλων γλωσσικών μοντέλων και άλλα

Αυτό το έγγραφο συζήτησης παρέχει το περίγραμμα ενός αρχικού πλαισίου για την ενημέρωση των πολλαπλών παγκόσμιων και εθνικών συζητήσεων που λαμβάνουν χώρα σχετικά με την τεχνητή νοημοσύνη.

Πλαίσιο για χρήση στον οργανισμό σας

Κατεβάστε το πλαίσιο για χρήση στον οργανισμό σας

Εδώ παρέχουμε το εργαλείο πλαισίου ως επεξεργάσιμο φύλλο Excel για χρήση στον οργανισμό σας. Εάν προτιμάτε μια μορφή ανοιχτού κώδικα, επικοινωνήστε [προστασία μέσω email].

Εισαγωγή

Οι ταχέως αναδυόμενες τεχνολογίες παρουσιάζουν προκλητικά ζητήματα όσον αφορά τη χρήση, τη διακυβέρνηση και τη δυνητική ρύθμιση. Η συνεχιζόμενη πολιτική και οι δημόσιες συζητήσεις για την τεχνητή νοημοσύνη (AI) και τη χρήση της έχουν φέρει αυτά τα ζητήματα στο επίκεντρο. Οι γενικές αρχές για την τεχνητή νοημοσύνη έχουν ανακοινωθεί από την UNESCO, τον ΟΟΣΑ, τον ΟΗΕ και άλλους, συμπεριλαμβανομένης της Διακήρυξης Bletchley του Ηνωμένου Βασιλείου, και υπάρχουν αναδυόμενες προσπάθειες δικαιοδοσίας για ρύθμιση πτυχών της τεχνολογίας μέσω, για παράδειγμα, της AI της Ευρωπαϊκής Ένωσης (ΕΕ) Νόμος ή το πρόσφατο εκτελεστικό διάταγμα AI των Ηνωμένων Πολιτειών.

Ενώ η χρήση της τεχνητής νοημοσύνης συζητείται εκτενώς σε αυτά και σε άλλα φόρουμ, σε γεωπολιτικά χάσματα και σε χώρες σε όλα τα επίπεδα εισοδήματος, παραμένει ένα οντολογικό χάσμα μεταξύ της ανάπτυξης αρχών υψηλού επιπέδου και της ενσωμάτωσής τους στην πράξη είτε μέσω κανονιστικών, πολιτικών, διακυβέρνησης ή προσεγγίσεις διαχείρισης. Η διαδρομή από την αρχή στην πράξη είναι ανεπαρκώς καθορισμένη, αλλά δεδομένης της φύσης και του ρυθμού ανάπτυξης και εφαρμογής της τεχνητής νοημοσύνης, της ποικιλίας των ενδιαφερόντων και του εύρους των πιθανών εφαρμογών, οποιαδήποτε προσέγγιση δεν μπορεί να είναι υπερβολικά γενική ή ρυθμιστική.

Για αυτούς τους λόγους, η μη κυβερνητική επιστημονική κοινότητα συνεχίζει να διαδραματίζει ιδιαίτερο ρόλο. Το Διεθνές Επιστημονικό Συμβούλιο (ISC) – με την πλουραλιστική του συμμετοχή από τις κοινωνικές και φυσικές επιστήμες – δημοσίευσε ένα έγγραφο συζήτησης τον Οκτώβριο του 2023 παρουσιάζοντας ένα προκαταρκτικό αναλυτικό πλαίσιο που εξέταζε τους κινδύνους, τα οφέλη, τις απειλές και τις ευκαιρίες που συνδέονται με την ταχέως κινούμενη ψηφιακή τεχνολογία. Ενώ αναπτύχθηκε για να εξετάσει την τεχνητή νοημοσύνη, είναι εγγενώς αγνωστικιστική στην τεχνολογία και μπορεί να εφαρμοστεί σε μια σειρά αναδυόμενων και διασπαστικών τεχνολογιών, όπως η συνθετική βιολογία και η κβαντική. Αυτό το έγγραφο συζήτησης ζήτησε σχόλια από ακαδημαϊκούς και υπεύθυνους χάραξης πολιτικής. Η συντριπτική ανατροφοδότηση κατέστησε αναγκαία τη διεξαγωγή μιας τέτοιας ανάλυσης και αποτέλεσε μια πολύτιμη προσέγγιση για την αντιμετώπιση αναδυόμενων τεχνολογιών όπως η τεχνητή νοημοσύνη.

Ο σκοπός του πλαισίου είναι να παράσχει ένα εργαλείο για την ενημέρωση όλων των ενδιαφερομένων – συμπεριλαμβανομένων των κυβερνήσεων, των εμπορικών διαπραγματευτών, των ρυθμιστικών αρχών, της κοινωνίας των πολιτών και της βιομηχανίας – για την εξέλιξη αυτών των τεχνολογιών, ώστε να τους βοηθήσει να πλαισιώσουν πώς θα μπορούσαν να εξετάσουν τις επιπτώσεις, θετικές ή αρνητικές, η ίδια η τεχνολογία και πιο συγκεκριμένα η συγκεκριμένη εφαρμογή της. Αυτό το αναλυτικό πλαίσιο έχει αναπτυχθεί ανεξάρτητα από τα συμφέροντα της κυβέρνησης και του κλάδου. Είναι στο μέγιστο πλουραλιστικό στις προοπτικές του, περιλαμβάνοντας όλες τις πτυχές της τεχνολογίας και τις επιπτώσεις της που βασίζονται σε εκτεταμένες διαβουλεύσεις και σχόλια.

Αυτό το έγγραφο συζήτησης για τους υπεύθυνους χάραξης πολιτικής δεν αποσκοπεί στην απαγόρευση ενός ρυθμιστικού καθεστώτος, αλλά μάλλον στην πρόταση ενός προσαρμοστικού και εξελισσόμενου αναλυτικού πλαισίου που θα μπορούσε να υποστηρίξει οποιεσδήποτε διαδικασίες αξιολόγησης και ρυθμίσεων που θα μπορούσαν να αναπτυχθούν από ενδιαφερόμενους φορείς, συμπεριλαμβανομένων των κυβερνήσεων και του πολυμερούς συστήματος.

Καθώς οι υπεύθυνοι λήψης αποφάσεων παγκοσμίως και σε εθνικό επίπεδο εξετάζουν τις κατάλληλες ρυθμίσεις πολιτικής και μοχλούς για να εξισορροπήσουν τους κινδύνους και τα οφέλη μιας νέας τεχνολογίας όπως η τεχνητή νοημοσύνη, το αναλυτικό πλαίσιο προορίζεται ως συμπληρωματικό εργαλείο για να διασφαλίσει ότι το πλήρες σύνολο των πιθανών επιπτώσεων αντικατοπτρίζεται επαρκώς.

Ιστορικό: γιατί ένα αναλυτικό πλαίσιο;

Η ταχεία εμφάνιση τεχνολογιών με την πολυπλοκότητα και τις επιπτώσεις της τεχνητής νοημοσύνης οδηγεί σε πολλούς ισχυρισμούς μεγάλου οφέλους. Προκαλεί όμως και φόβους σημαντικών κινδύνων, από ατομικό έως γεωστρατηγικό επίπεδο.1 Μεγάλο μέρος της συζήτησης μέχρι σήμερα έχει εξεταστεί με δυαδική έννοια, καθώς οι απόψεις που εκφράζονται δημόσια τείνουν να λαμβάνουν χώρα στα ακραία άκρα του φάσματος. Οι ισχυρισμοί υπέρ ή κατά της τεχνητής νοημοσύνης είναι συχνά υπερβολικοί και – δεδομένης της φύσης της τεχνολογίας – είναι δύσκολο να αξιολογηθούν.

Απαιτείται μια πιο ρεαλιστική προσέγγιση όπου η υπερβολή αντικαθίσταται με βαθμονομημένες και πιο λεπτομερείς αξιολογήσεις. Η τεχνολογία AI θα συνεχίσει να εξελίσσεται και η ιστορία δείχνει ότι σχεδόν κάθε τεχνολογία έχει τόσο ευεργετικές όσο και επιβλαβείς χρήσεις. Επομένως, το ερώτημα είναι: πώς μπορούμε να επιτύχουμε τα ευεργετικά αποτελέσματα αυτής της τεχνολογίας, μειώνοντας παράλληλα τον κίνδυνο επιβλαβών συνεπειών, ορισμένες από τις οποίες θα μπορούσαν να είναι υπαρξιακές σε μέγεθος;

Το μέλλον είναι πάντα αβέβαιο, αλλά υπάρχουν αρκετές αξιόπιστες και ειδικές φωνές σχετικά με την τεχνητή νοημοσύνη και τη γενετική τεχνητή νοημοσύνη για να ενθαρρύνουν μια σχετικά προληπτική προσέγγιση. Επιπλέον, είναι απαραίτητη μια προσέγγιση συστημάτων καθώς η τεχνητή νοημοσύνη είναι μια κατηγορία τεχνολογιών με ευρεία χρήση και εφαρμογή από πολλούς τύπους χρηστών. Αυτό σημαίνει ότι πρέπει να λαμβάνεται υπόψη το πλήρες πλαίσιο όταν εξετάζονται οι επιπτώσεις οποιασδήποτε χρήσης τεχνητής νοημοσύνης για τα άτομα, την κοινωνική ζωή, την πολιτική ζωή, την κοινωνική ζωή και στο παγκόσμιο πλαίσιο.

Σε αντίθεση με τις περισσότερες άλλες τεχνολογίες, για τις ψηφιακές και συναφείς τεχνολογίες, ο χρόνος μεταξύ ανάπτυξης, κυκλοφορίας και εφαρμογής είναι εξαιρετικά σύντομος, καθοδηγούμενος σε μεγάλο βαθμό από τα συμφέροντα των εταιρειών παραγωγής ή των πρακτορείων. Από τη φύση του – και δεδομένου ότι βασίζεται στην ψηφιακή ραχοκοκαλιά – η τεχνητή νοημοσύνη θα έχει εφαρμογές που είναι γρήγορα διαδεδομένες, όπως έχει ήδη φανεί με την ανάπτυξη μεγάλων μοντέλων γλώσσας. Ως αποτέλεσμα, ορισμένες ιδιότητες μπορεί να γίνουν εμφανείς μόνο μετά την απελευθέρωση, πράγμα που σημαίνει ότι υπάρχει ο κίνδυνος απρόβλεπτων συνεπειών, τόσο κακόβουλων όσο και καλοπροαίρετων.

Σημαντικές διαστάσεις κοινωνικών αξιών, ιδιαίτερα σε διαφορετικές περιοχές και πολιτισμούς, θα επηρεάσουν τον τρόπο με τον οποίο γίνεται αντιληπτή και αποδεκτή οποιαδήποτε χρήση. Επιπλέον, τα γεωστρατηγικά συμφέροντα κυριαρχούν ήδη στη συζήτηση, με κυρίαρχα και πολυμερή συμφέροντα να διασταυρώνονται συνεχώς και να οδηγούν έτσι τον ανταγωνισμό και τον διχασμό.

Μέχρι σήμερα, μεγάλο μέρος της ρύθμισης μιας εικονικής τεχνολογίας έχει εξεταστεί σε μεγάλο βαθμό μέσα από το πρίσμα των «αρχών» και της εθελοντικής συμμόρφωσης, αν και με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη2 και παρόμοια, βλέπουμε μια στροφή σε πιο εφαρμοστέους αλλά κάπως στενούς κανονισμούς. Η καθιέρωση μιας αποτελεσματικής παγκόσμιας ή εθνικής τεχνολογικής διακυβέρνησης και/ή ρυθμιστικού συστήματος παραμένει πρόκληση και δεν υπάρχει προφανής λύση. Θα χρειαστούν πολλαπλά επίπεδα λήψης αποφάσεων με γνώμονα τον κίνδυνο κατά μήκος της αλυσίδας, από τον εφευρέτη στον παραγωγό, στον χρήστη, στην κυβέρνηση και στο πολυμερές σύστημα.

Ενώ οι αρχές υψηλού επιπέδου έχουν γνωστοποιηθεί από την UNESCO, τον ΟΟΣΑ, την Ευρωπαϊκή Επιτροπή και τον ΟΗΕ, μεταξύ άλλων, και συνεχίζονται διάφορες συζητήσεις υψηλού επιπέδου σχετικά με θέματα πιθανής διακυβέρνησης, ρύθμισης, ηθικής και ασφάλειας, υπάρχει μεγάλο χάσμα μεταξύ αυτών των αρχές και ένα πλαίσιο διακυβέρνησης ή κανονιστικού πλαισίου. Αυτό πρέπει να αντιμετωπιστεί.

Ως σημείο εκκίνησης, το ISC εξετάζει το ενδεχόμενο να αναπτύξει μια ταξινόμηση θεωρήσεων που θα μπορούσε να αναφέρει οποιοσδήποτε προγραμματιστής, ρυθμιστής, σύμβουλος πολιτικής, καταναλωτής ή υπεύθυνος λήψης αποφάσεων. Δεδομένων των ευρειών επιπτώσεων αυτών των τεχνολογιών, μια τέτοια ταξινόμηση πρέπει να λαμβάνει υπόψη το σύνολο των επιπτώσεων και όχι ένα στενά εστιασμένο πλαίσιο. Ο παγκόσμιος κατακερματισμός αυξάνεται λόγω της επιρροής των γεωστρατηγικών συμφερόντων στη λήψη αποφάσεων, και δεδομένου του επείγοντος χαρακτήρα αυτής της τεχνολογίας, είναι απαραίτητο οι ανεξάρτητες και ουδέτερες φωνές να υπερασπίζονται επίμονα μια ενοποιημένη και χωρίς αποκλεισμούς προσέγγιση.


1) Hindustan Times. 2023. Η G20 πρέπει να δημιουργήσει μια διεθνή επιτροπή για την τεχνολογική αλλαγή.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη. 2023. https://artificialintelligenceact.eu

Η ανάπτυξη ενός αναλυτικού πλαισίου

Το ISC είναι ο πρωταρχικός παγκόσμιος μη κυβερνητικός οργανισμός που ενσωματώνει τις φυσικές και κοινωνικές επιστήμες. Η παγκόσμια και πειθαρχική του εμβέλεια σημαίνει ότι είναι σε καλή θέση για να παράγει ανεξάρτητες και παγκόσμια σχετικές συμβουλές για την ενημέρωση των σύνθετων επιλογών που έχουμε μπροστά μας, ιδιαίτερα καθώς οι τρέχουσες φωνές σε αυτόν τον τομέα προέρχονται σε μεγάλο βαθμό από τη βιομηχανία ή από τις πολιτικές και πολιτικές κοινότητες των μεγάλων τεχνολογικών δυνάμεων.

Μετά από μια περίοδο εκτεταμένης συζήτησης, η οποία περιελάμβανε την εξέταση μιας μη κυβερνητικής διαδικασίας αξιολόγησης, η ISC κατέληξε στο συμπέρασμα ότι η πιο χρήσιμη συνεισφορά της θα ήταν η δημιουργία ενός προσαρμοστικού αναλυτικού πλαισίου που θα μπορούσε να χρησιμοποιηθεί ως βάση για διάλογο και λήψη αποφάσεων από όλους ενδιαφερομένων, συμπεριλαμβανομένων των διαδικασιών επίσημης αξιολόγησης που προκύπτουν.

Το προκαταρκτικό αναλυτικό πλαίσιο, το οποίο κυκλοφόρησε για συζήτηση και ανατροφοδότηση τον Οκτώβριο του 2023, έλαβε τη μορφή μιας γενικής λίστας ελέγχου που σχεδιάστηκε για χρήση τόσο από κυβερνητικούς όσο και από μη κυβερνητικούς θεσμούς. Το πλαίσιο εντόπισε και διερεύνησε τις δυνατότητες μιας τεχνολογίας όπως η τεχνητή νοημοσύνη και τα παράγωγά της μέσα από ένα ευρύ πρίσμα που περιλαμβάνει την ανθρώπινη και κοινωνική ευημερία, καθώς και εξωτερικούς παράγοντες όπως η οικονομία, η πολιτική, το περιβάλλον και η ασφάλεια. Ορισμένες πτυχές της λίστας ελέγχου μπορεί να είναι πιο σχετικές από άλλες, ανάλογα με το πλαίσιο, αλλά καλύτερες αποφάσεις φαίνονται πιο πιθανές εάν ληφθούν υπόψη όλοι οι τομείς, ακόμα κι αν ορισμένοι μπορούν γρήγορα να αναγνωριστούν ως άσχετοι σε συγκεκριμένες περιπτώσεις. Αυτή είναι η εγγενής αξία μιας προσέγγισης λίστας ελέγχου.

Το προκαταρκτικό πλαίσιο προήλθε από προηγούμενες εργασίες και σκέψεις, συμπεριλαμβανομένης της έκθεσης του Διεθνούς Δικτύου για Κυβερνητικές Επιστημονικές Συμβουλές (INGSA) για την ψηφιακή ευημερία3 και το πλαίσιο του ΟΟΣΑ για την ταξινόμηση των συστημάτων τεχνητής νοημοσύνης,4 για να παρουσιάσει το σύνολο των πιθανών ευκαιριών, κινδύνων και επιπτώσεων του AI. Αυτά τα προηγούμενα προϊόντα ήταν πιο περιορισμένα στην πρόθεσή τους, δεδομένου του χρόνου και του πλαισίου τους. Υπάρχει ανάγκη για ένα γενικό πλαίσιο που να παρουσιάζει όλο το φάσμα των θεμάτων τόσο βραχυπρόθεσμα όσο και μακροπρόθεσμα.

Από την κυκλοφορία του, το έγγραφο συζήτησης έχει λάβει σημαντική υποστήριξη από πολλούς ειδικούς και φορείς χάραξης πολιτικής. Πολλοί έχουν επικυρώσει συγκεκριμένα τη σύσταση για την ανάπτυξη ενός προσαρμοστικού πλαισίου που επιτρέπει τη σκόπιμη και προληπτική εξέταση των κινδύνων και των επιπτώσεων της τεχνολογίας, και λαμβάνοντας έτσι πάντα υπόψη το σύνολο των διαστάσεων από το άτομο στην κοινωνία και τα συστήματα.

Μια βασική παρατήρηση που έγινε μέσω της ανατροφοδότησης ήταν η αναγνώριση ότι αρκετές από τις επιπτώσεις που εξετάζονται στο πλαίσιο είναι εγγενώς πολύπλευρες και εκτείνονται σε πολλές κατηγορίες. Για παράδειγμα, η παραπληροφόρηση θα μπορούσε να ληφθεί υπόψη τόσο από ατομικό όσο και από γεωστρατηγικό πρίσμα. Συνεπώς, οι συνέπειες θα είναι ευρείες.

Προτάθηκε επίσης η επιλογή να συμπεριληφθούν μελέτες περιπτώσεων ή υποδείγματα για τη δοκιμή του πλαισίου. Αυτό θα μπορούσε να χρησιμοποιηθεί για την ανάπτυξη κατευθυντήριων γραμμών για να καταδειχθεί πώς θα μπορούσε να χρησιμοποιηθεί στην πράξη σε διαφορετικά πλαίσια. Ωστόσο, αυτό θα ήταν ένα σημαντικό εγχείρημα και μπορεί να περιορίσει τον τρόπο με τον οποίο αντιλαμβάνονται οι διάφορες ομάδες τη χρήση αυτού του πλαισίου. Γίνεται καλύτερα από υπεύθυνους χάραξης πολιτικής που συνεργάζονται με ειδικούς σε συγκεκριμένες δικαιοδοσίες ή πλαίσια.

Από τον Οκτώβριο του 2023, υπήρξαν αρκετές σημαντικές εθνικές και πολυμερείς πρωτοβουλίες με περαιτέρω εξέταση της ηθικής και της ασφάλειας της τεχνητής νοημοσύνης. Οι επιπτώσεις της τεχνητής νοημοσύνης στην ακεραιότητα ορισμένων από τα κρίσιμα συστήματα μας, συμπεριλαμβανομένων των οικονομικών, κυβερνητικών, νομικών και εκπαιδευτικών συστημάτων, καθώς και διαφορετικών συστημάτων γνώσης (συμπεριλαμβανομένης της επιστημονικής και της εγχώριας γνώσης), προκαλούν αυξανόμενη ανησυχία. Το αναθεωρημένο πλαίσιο αντικατοπτρίζει περαιτέρω αυτές τις πτυχές.

Τα σχόλια που έχουν ληφθεί μέχρι σήμερα αντικατοπτρίζονται στην αναθεωρημένη έκδοση του αναλυτικού πλαισίου, το οποίο τώρα δημοσιεύεται ως οδηγός για τους υπεύθυνους χάραξης πολιτικής.

Ενώ το πλαίσιο παρουσιάζεται στο πλαίσιο της τεχνητής νοημοσύνης και των συναφών τεχνολογιών, είναι άμεσα μεταβιβάσιμο στις εκτιμήσεις άλλων ταχέως αναδυόμενων τεχνολογιών όπως η κβαντική και η συνθετική βιολογία.


3) Gluckman, P. and Allen, K. 2018. Κατανόηση της ευημερίας στο πλαίσιο των ταχέων ψηφιακών και σχετικών μετασχηματισμών. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ΟΟΣΑ. 2022. OECD Framework for the Classification of AI systems. OECD Digital Economy Papers, No. 323,#. Παρίσι, Εκδόσεις ΟΟΣΑ.
https://oecd.ai/en/classificatio

Το πλαίσιο

Ο παρακάτω πίνακας παρουσιάζει τις διαστάσεις ενός υποτιθέμενου αναλυτικού πλαισίου. Παρέχονται παραδείγματα για να καταδειχθεί γιατί κάθε τομέας μπορεί να έχει σημασία. στο πλαίσιο, το πλαίσιο θα απαιτούσε σχετική με τα συμφραζόμενα επέκταση. Είναι επίσης σημαντικό να γίνει διάκριση μεταξύ των γενικών ζητημάτων που προκύπτουν κατά τις εξελίξεις της πλατφόρμας και εκείνων που ενδέχεται να προκύψουν κατά τη διάρκεια συγκεκριμένων εφαρμογών. Κανένα στοιχείο που περιλαμβάνεται εδώ δεν πρέπει να αντιμετωπίζεται ως προτεραιότητα και, ως εκ τούτου, θα πρέπει να εξετάζονται όλα.

Τα ζητήματα ομαδοποιούνται γενικά στις ακόλουθες κατηγορίες όπως περιγράφονται παρακάτω:

  • Ευημερία (συμπεριλαμβανομένης της ευημερίας των ατόμων ή του εαυτού, της κοινωνίας, της κοινωνικής ζωής και της ζωής των πολιτών)
  • Εμπόριο και οικονομία
  • περιβαλλοντική
  • Γεωστρατηγική και γεωπολιτική
  • Τεχνολογικά (χαρακτηριστικά συστήματος, σχεδιασμός και χρήση)

Ο πίνακας περιγράφει τις διαστάσεις που μπορεί να χρειαστεί να ληφθούν υπόψη κατά την αξιολόγηση μιας νέας τεχνολογίας.

? INGSA. 2018. Κατανόηση της ευημερίας στο πλαίσιο των ταχέων ψηφιακών και σχετικών μετασχηματισμών.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

? Νέοι περιγραφείς (πηγές μέσω της εκτενούς διαβούλευσης και ανατροφοδότησης και ανασκόπησης βιβλιογραφίας)

? Πλαίσιο ΟΟΣΑ για την ταξινόμηση των συστημάτων τεχνητής νοημοσύνης: ένα εργαλείο για αποτελεσματικές πολιτικές τεχνητής νοημοσύνης.
https://oecd.ai/en/classification

Διαστάσεις επιρροής: Ατομικό / εαυτός

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
?Ικανότητα τεχνητής νοημοσύνης των χρηστώνΠόσο ικανοί και ενήμεροι για τις ιδιότητες του συστήματος είναι οι πιθανοί χρήστες που θα αλληλεπιδράσουν με το σύστημα; Πώς θα τους παρέχονται οι σχετικές πληροφορίες και προφυλάξεις χρήστη;
? Επηρεασμένος ενδιαφερόμενοςΠοιοι είναι οι κύριοι ενδιαφερόμενοι που θα επηρεαστούν από το σύστημα (άτομα, κοινότητες, ευάλωτοι, κλαδικοί εργαζόμενοι, παιδιά, υπεύθυνοι χάραξης πολιτικής, επαγγελματίες κ.λπ.);
? ΠροαιρετικόΠαρέχεται στους χρήστες η ευκαιρία να εξαιρεθούν από το σύστημα ή τους δίνονται ευκαιρίες να αμφισβητήσουν ή να διορθώσουν το αποτέλεσμα;
?Κίνδυνοι για τα ανθρώπινα δικαιώματα και τις δημοκρατικές αξίεςΈχει το σύστημα θεμελιώδη αντίκτυπο στα ανθρώπινα δικαιώματα, συμπεριλαμβανομένων, ενδεικτικά, της ιδιωτικής ζωής, της ελευθερίας της έκφρασης, της δικαιοσύνης, της μη διακριτικής μεταχείρισης κ.λπ.;
?Πιθανές επιπτώσεις στην ευημερία των ανθρώπωνΟι τομείς επιρροής του συστήματος σχετίζονται με την ευημερία του κάθε χρήστη (ποιότητα εργασίας, εκπαίδευση, κοινωνικές αλληλεπιδράσεις, ψυχική υγεία, ταυτότητα, περιβάλλον κ.λπ.);
? Δυνατότητα μετατόπισης ανθρώπινης εργασίαςΥπάρχει δυνατότητα για το σύστημα να αυτοματοποιεί εργασίες ή λειτουργίες που εκτελούνταν από ανθρώπους; Εάν ναι, ποιες είναι οι κατάντη συνέπειες;
? Δυνατότητα για χειραγώγηση ταυτότητας, αξιών ή γνώσηςΕίναι το σύστημα σχεδιασμένο ή δυνητικά ικανό να χειραγωγήσει την ταυτότητα του χρήστη ή
ορίζονται τιμές ή διαδίδουν παραπληροφόρηση;
? Ευκαιρίες για αυτοέκφραση και αυτοπραγμάτωσηΥπάρχει δυνατότητα για τεχνητή και αυτοαμφιβολία; Υπάρχει πιθανότητα ψευδούς ή
μη επαληθεύσιμοι ισχυρισμοί πραγματογνωμοσύνης;
? Μέτρα αυτοεκτίμησηςΥπάρχει πίεση για την απεικόνιση του εξιδανικευμένου εαυτού; Θα μπορούσε ο αυτοματισμός να αντικαταστήσει μια αίσθηση
προσωπικής ολοκλήρωσης; Υπάρχει πίεση να ανταγωνιστεί το σύστημα στο
ΧΩΡΟΣ ΕΡΓΑΣΙΑΣ? Είναι πιο δύσκολο να προστατευτεί η ατομική φήμη από την παραπληροφόρηση;
? ΜυστικότηταΥπάρχουν διάχυτες ευθύνες για τη διαφύλαξη του απορρήτου και υπάρχουν;
γίνονται υποθέσεις σχετικά με τον τρόπο με τον οποίο χρησιμοποιούνται τα προσωπικά δεδομένα;
? ΑυτονομίαΘα μπορούσε το σύστημα AI να επηρεάσει την ανθρώπινη αυτονομία δημιουργώντας υπερβολική εξάρτηση από
τελικούς χρήστες?
? Ανθρώπινη ανάπτυξηΥπάρχει αντίκτυπος στην απόκτηση βασικών δεξιοτήτων για την ανθρώπινη ανάπτυξη, όπως π.χ
εκτελεστικές λειτουργίες ή διαπροσωπικές δεξιότητες ή αλλαγές στον χρόνο προσοχής που επηρεάζουν
μάθηση, ανάπτυξη προσωπικότητας, ανησυχίες ψυχικής υγείας κ.λπ.;
? Προσωπική φροντίδα υγείαςΥπάρχουν ισχυρισμοί για αυτοδιάγνωση ή εξατομικευμένες λύσεις υγειονομικής περίθαλψης; Αν είναι έτσι,
είναι επικυρωμένα σύμφωνα με τα ρυθμιστικά πρότυπα;
? Ψυχική υγείαΥπάρχει κίνδυνος αυξημένου άγχους, μοναξιάς ή άλλων προβλημάτων ψυχικής υγείας ή
μπορεί η τεχνολογία να βελτιώσει τέτοιες επιπτώσεις;
? Εξέλιξη του ανθρώπουΘα μπορούσαν να αλλάξουν τα μεγάλα γλωσσικά μοντέλα και η τεχνητή γενική νοημοσύνη
πορεία της ανθρώπινης εξέλιξης;
? Αλληλεπίδραση ανθρώπου-μηχανήςΘα μπορούσε η χρήση να οδηγήσει σε αποδυνάμωση και εξάρτηση με την πάροδο του χρόνου για τα άτομα; Είναι
υπάρχουν επιπτώσεις στην ανθρώπινη αλληλεπίδραση;
5) Τα τεχνολογικά κριτήρια που εξετάζονται στο πλαίσιο αφορούν ειδικά την τεχνητή νοημοσύνη και θα πρέπει να αναθεωρηθούν για άλλες τεχνολογίες ανάλογα με την περίπτωση.

Διαστάσεις επιπτώσεων: Κοινωνία/κοινωνική ζωή

Κριτήρια Παραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Κοινωνικές αξίεςΑλλάζει το σύστημα ριζικά τη φύση της κοινωνίας, επιτρέπει την ομαλοποίηση ιδεών που προηγουμένως θεωρούνταν αντικοινωνικές ή παραβιάζει τις κοινωνικές αξίες του πολιτισμού στον οποίο εφαρμόζεται;
? Κοινωνικές αλληλεπιδράσειςΥπάρχει επίδραση στην ουσιαστική ανθρώπινη επαφή, συμπεριλαμβανομένων των συναισθηματικών σχέσεων;
? Υγεία πληθυσμούΥπάρχει δυνατότητα το σύστημα να προωθήσει ή να υπονομεύσει τις προθέσεις για την υγεία του πληθυσμού;
? Πολιτιστική έκφρασηΕίναι πιθανό ή πιο δύσκολο να αντιμετωπιστεί η αύξηση της πολιτιστικής ιδιοποίησης ή διάκρισης; Η εξάρτηση από το σύστημα λήψης αποφάσεων αποκλείει ή περιθωριοποιεί τους πολιτισμικά σημαντικούς τομεακούς δεσμούς της κοινωνίας;
? Δημόσια εκπαίδευσηΥπάρχει επίδραση στους ρόλους των εκπαιδευτικών ή στα εκπαιδευτικά ιδρύματα; Τονίζει ή μειώνει το σύστημα το ψηφιακό χάσμα και την ανισότητα μεταξύ των μαθητών; Είναι προχωρημένη ή υπονομευμένη η εγγενής αξία της γνώσης ή της κριτικής κατανόησης;
? Διαστρεβλωμένη πραγματικότηταΟι μέθοδοι που χρησιμοποιούνται για να διακρίνουμε τι είναι αληθινό εξακολουθούν να ισχύουν; Διακυβεύεται η αντίληψη της πραγματικότητας;

Διαστάσεις επιπτώσεων: Οικονομικό πλαίσιο (εμπόριο)

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Βιομηχανικός τομέαςΣε ποιον βιομηχανικό τομέα εφαρμόζεται το σύστημα (οικονομικά, γεωργία, υγειονομική περίθαλψη, εκπαίδευση, άμυνα κ.λπ.);
? Επιχειρηματικό μοντέλοΣε ποια επιχειρηματική λειτουργία χρησιμοποιείται το σύστημα και με ποια ιδιότητα; Πού χρησιμοποιείται το σύστημα (ιδιωτικό, δημόσιο, μη κερδοσκοπικό);
? Επιπτώσεις σε κρίσιμες δραστηριότητες Η διακοπή της λειτουργίας ή της δραστηριότητας του συστήματος θα επηρεάσει βασικές υπηρεσίες ή κρίσιμες υποδομές;
?Πλάτος ανάπτυξηςΠώς αναπτύσσεται το σύστημα (στενή χρήση εντός μονάδας έναντι ευρέως διαδεδομένης σε εθνικό/διεθνές επίπεδο);
? Τεχνική ωριμότηταΠόσο τεχνικά ώριμο είναι το σύστημα;
? Διαλειτουργικότητα Είναι πιθανό να υπάρχουν σιλό, σε εθνικό ή παγκόσμιο επίπεδο, που εμποδίζουν το ελεύθερο εμπόριο και επηρεάζουν τη συνεργασία με τους εταίρους;
? Τεχνολογική κυριαρχίαΗ επιθυμία για τεχνολογική κυριαρχία οδηγεί σε συμπεριφορές, συμπεριλαμβανομένου του ελέγχου σε ολόκληρη την εφοδιαστική αλυσίδα τεχνητής νοημοσύνης;
? Αναδιανομή εισοδήματος και εθνικοί δημοσιονομικοί μοχλοίΘα μπορούσαν να τεθούν σε κίνδυνο οι βασικοί ρόλοι του κυρίαρχου κράτους (π.χ. αποθεματικές τράπεζες); Θα προωθηθεί ή θα μειωθεί η ικανότητα του κράτους να ανταποκριθεί στις προσδοκίες και τις επιπτώσεις των πολιτών (κοινωνικές, οικονομικές, πολιτικές κ.λπ.);
? Ψηφιακό χάσμα (AI divide) Επιδεινώνονται οι υπάρχουσες ψηφιακές ανισότητες ή δημιουργούνται νέες;

Διαστάσεις επιρροής: Πολιτική ζωή

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Διακυβέρνηση και δημόσια υπηρεσίαΘα μπορούσαν οι μηχανισμοί διακυβέρνησης και το παγκόσμιο σύστημα διακυβέρνησης να επηρεαστούν θετικά ή αρνητικά;
? Μέσα ενημέρωσηςΕίναι πιθανόν ο δημόσιος λόγος να πολωθεί και να εδραιωθεί σε πληθυσμιακό επίπεδο; Θα υπάρξει επίδραση στα επίπεδα εμπιστοσύνης στην Τέταρτη Περιουσία; Θα επηρεαστούν περαιτέρω η δεοντολογία και τα πρότυπα ακεραιότητας των συμβατικών δημοσιογράφων;
? Κράτος δικαίουΘα υπάρξει επίδραση στην ικανότητα εντοπισμού ατόμων ή οργανισμών να λογοδοτήσουν (π.χ. τι είδους λογοδοσία να εκχωρηθεί σε έναν αλγόριθμο για δυσμενή αποτελέσματα); Υπάρχει απώλεια κυριαρχίας (περιβαλλοντική, δημοσιονομική, κοινωνική πολιτική, ηθική κ.λπ.);
?Πολιτική και κοινωνική συνοχήΥπάρχει πιθανότητα πιο παγιωμένων πολιτικών απόψεων και λιγότερων ευκαιριών για οικοδόμηση συναίνεσης; Υπάρχει πιθανότητα περαιτέρω περιθωριοποίησης ομάδων; Είναι περισσότερο ή λιγότερο πιθανά τα αντίθετα στυλ πολιτικής;
? Κοινωνική άδειαΥπάρχουν ανησυχίες για το απόρρητο, ζητήματα εμπιστοσύνης και ηθικές ανησυχίες που πρέπει να ληφθούν υπόψη για την αποδοχή της χρήσης από τα ενδιαφερόμενα μέρη;
? Αυτόχθονη γνώσηΘα μπορούσαν η γνώση και τα δεδομένα των ιθαγενών να καταστραφούν ή να ιδιοποιηθούν; Υπάρχουν επαρκή μέτρα για την προστασία από παραπληροφόρηση, παραπληροφόρηση και εκμετάλλευση;
? Επιστημονικό σύστημαΔιακυβεύεται η ακαδημαϊκή και ερευνητική ακεραιότητα; Υπάρχει απώλεια εμπιστοσύνης στην επιστήμη; Υπάρχουν πιθανότητες κακής χρήσης, κατάχρησης ή κατάχρησης; Ποια είναι η συνέπεια της άσκησης της επιστήμης;

Διαστάσεις επιπτώσεων: Γεωστρατηγικό/Γεωπολιτικό πλαίσιο

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Παρακολούθηση ακριβείαςΕίναι τα συστήματα εκπαιδευμένα σε ατομικά δεδομένα συμπεριφοράς και βιολογικά δεδομένα και θα μπορούσαν να χρησιμοποιηθούν για την εκμετάλλευση ατόμων ή ομάδων;
? Ψηφιακός διαγωνισμόςΘα μπορούσαν οι κρατικοί ή μη φορείς (π.χ. μεγάλες εταιρείες τεχνολογίας) να αξιοποιήσουν συστήματα και δεδομένα για να κατανοήσουν και να ελέγξουν τους πληθυσμούς και τα οικοσυστήματα άλλων χωρών ή να υπονομεύσουν τον έλεγχο δικαιοδοσίας;
? Γεωπολιτικός ανταγωνισμόςΘα μπορούσε το σύστημα να προκαλέσει ανταγωνισμό μεταξύ των εθνών σχετικά με την αξιοποίηση ατομικών και ομαδικών δεδομένων για οικονομικά, ιατρικά συμφέροντα και συμφέροντα ασφάλειας;
? Μετατόπιση παγκόσμιων δυνάμεωνΑπειλείται η θέση των εθνικών κρατών ως πρωταρχικών γεωπολιτικών παραγόντων στον κόσμο; Οι εταιρείες τεχνολογίας ασκούν την εξουσία που κάποτε προοριζόταν για τα έθνη-κράτη και έχουν γίνει ανεξάρτητοι, κυρίαρχοι παράγοντες (αναδυόμενη τεχνοπολική παγκόσμια τάξη);
? ΠαραπληροφόρησηΘα διευκόλυνε το σύστημα την παραγωγή και τη διάδοση παραπληροφόρησης από κρατικούς και μη φορείς με αντίκτυπο στην κοινωνική συνοχή, την εμπιστοσύνη και τη δημοκρατία;
? Εφαρμογές διπλής χρήσηςΥπάρχει δυνατότητα τόσο για στρατιωτική όσο και για πολιτική χρήση;
? Κατακερματισμός της παγκόσμιας τάξηςΘα μπορούσαν να αναπτυχθούν σιλό ή ομάδες κανονισμών και συμμόρφωσης που εμποδίζουν τη συνεργασία, οδηγούν σε ασυνέπειες στην εφαρμογή και δημιουργούν περιθώρια σύγκρουσης;

Διαστάσεις επιπτώσεων: Περιβαλλοντικές

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Κατανάλωση ενέργειας και πόρων (αποτύπωμα άνθρακα)Αυξάνουν το σύστημα και οι απαιτήσεις την κατανάλωση ενέργειας και πόρων πέρα ​​από τα κέρδη απόδοσης που επιτυγχάνονται μέσω της εφαρμογής;
?Πηγή ενέργειαςΑπό πού προέρχεται η ενέργεια για το σύστημα (ανανεώσιμες πηγές ενέργειας έναντι ορυκτών καυσίμων κ.λπ.);

Διαστάσεις επιπτώσεων: Δεδομένα και είσοδος

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Διεύθυνση και συλλογήΤα δεδομένα και τα δεδομένα συλλέγονται από ανθρώπους, αυτοματοποιημένους αισθητήρες ή και τα δύο;
? Προέλευση των δεδομένωνΕίναι τα δεδομένα και τα στοιχεία από ειδικούς που παρέχονται, παρατηρούνται, συνθετικά ή προέρχονται; Υπάρχουν προστασίες υδατογραφήματος για επιβεβαίωση της προέλευσης;
? Δυναμική φύση των δεδομένωνΤα δεδομένα ενημερώνονται δυναμικά, στατικά, δυναμικά από καιρό σε καιρό ή σε πραγματικό χρόνο;
? δικαιώματαΕίναι τα δεδομένα ιδιόκτητα, δημόσια ή προσωπικά (που σχετίζονται με αναγνωρίσιμα άτομα);
? Αναγνωρισιμότητα και προσωπικά δεδομέναΕάν είναι προσωπικά, τα δεδομένα είναι ανώνυμα ή ψευδώνυμα;
? Δομή των δεδομένωνΕίναι τα δεδομένα δομημένα, ημι-δομημένα, πολύπλοκα δομημένα ή μη;
? Μορφή των δεδομένωνΕίναι η μορφή των δεδομένων και των μεταδεδομένων τυποποιημένη ή μη τυποποιημένη;
? Κλίμακα των δεδομένωνΠοια είναι η κλίμακα του συνόλου δεδομένων;
? Καταλληλότητα και ποιότητα των δεδομένων Είναι το σύνολο δεδομένων κατάλληλο για το σκοπό; Είναι το μέγεθος του δείγματος επαρκές; Είναι αρκετά αντιπροσωπευτικό και πλήρες; Πόσο θορυβώδη είναι τα δεδομένα; Είναι επιρρεπής σε σφάλματα;

Διαστάσεις κρούσης: Μοντέλο

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Διαθεσιμότητα πληροφοριώνΥπάρχουν διαθέσιμες πληροφορίες σχετικά με το μοντέλο του συστήματος;
? Τύπος μοντέλου AIΕίναι το μοντέλο συμβολικό (κανόνες που δημιουργούνται από τον άνθρωπο), στατιστικό (χρησιμοποιεί δεδομένα) ή υβριδικό;
? Δικαιώματα που σχετίζονται με το μοντέλοΤο μοντέλο είναι ανοιχτού κώδικα ή ιδιόκτητο, διαχειρίζεται ο ίδιος ή τρίτος;
? Ένα από πολλά μοντέλαΑποτελείται το σύστημα από ένα μοντέλο ή από πολλά αλληλένδετα μοντέλα;
? Γεννητικό ή μεροληπτικόΕίναι το μοντέλο γεννητικό, διακριτικό ή και τα δύο;
? Πρότυπο κτίριοΜαθαίνει το σύστημα με βάση τους ανθρώπινους γραμμένους κανόνες, από δεδομένα, μέσω εποπτευόμενης μάθησης ή μέσω ενισχυτικής μάθησης;
? Εξέλιξη μοντέλου (AI drift)Το μοντέλο εξελίσσεται και/ή αποκτά ικανότητες από την αλληλεπίδραση με δεδομένα στο πεδίο;
? Ομοσπονδιακή ή κεντρική μάθησηΕίναι το μοντέλο εκπαιδευμένο κεντρικά ή σε αρκετούς τοπικούς διακομιστές ή συσκευές 'edge';
? Ανάπτυξη/συντήρησηΕίναι το μοντέλο καθολικό, προσαρμόσιμο ή προσαρμοσμένο στα δεδομένα του ηθοποιού της τεχνητής νοημοσύνης;
? Ντετερμινιστικό ή πιθανολογικό Χρησιμοποιείται το μοντέλο με ντετερμινιστικό ή πιθανολογικό τρόπο;
? Διαφάνεια μοντέλου Είναι διαθέσιμες πληροφορίες στους χρήστες για να κατανοήσουν τα αποτελέσματα και τους περιορισμούς του μοντέλου ή να χρησιμοποιούν περιορισμούς;
? Υπολογιστικός περιορισμόςΥπάρχουν υπολογιστικοί περιορισμοί στο σύστημα; Είναι δυνατόν να προβλεφθούν άλματα ικανότητας ή νόμοι κλιμάκωσης;

Διαστάσεις επιρροής: Εργασία και έξοδος

ΚριτήριαΠαραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση
? Εργασία(ες) που εκτελούνται από το σύστημαΠοιες εργασίες εκτελεί το σύστημα (αναγνώριση, ανίχνευση συμβάντων, πρόβλεψη κ.λπ.);
? Συνδυασμός εργασιών και ενεργειώνΣυνδυάζει το σύστημα πολλές εργασίες και ενέργειες (συστήματα παραγωγής περιεχομένου, αυτόνομα συστήματα, συστήματα ελέγχου κ.λπ.);
? Επίπεδο αυτονομίας του συστήματος Πόσο αυτόνομες είναι οι ενέργειες του συστήματος και τι ρόλο παίζουν οι άνθρωποι;
? Βαθμός ανθρώπινης εμπλοκήςΥπάρχει κάποια ανθρώπινη συμμετοχή για την επίβλεψη της συνολικής δραστηριότητας του συστήματος τεχνητής νοημοσύνης και την ικανότητα να αποφασίζει πότε και πώς θα χρησιμοποιηθεί το σύστημα τεχνητής νοημοσύνης σε οποιαδήποτε κατάσταση;
? Βασική εφαρμογήΑνήκει το σύστημα σε έναν βασικό τομέα εφαρμογών όπως οι τεχνολογίες ανθρώπινης γλώσσας, η όραση υπολογιστών, η αυτοματοποίηση και/ή η βελτιστοποίηση ή η ρομποτική;
? ΕκτίμησηΥπάρχουν πρότυπα ή μέθοδοι διαθέσιμα για την αξιολόγηση της παραγωγής του συστήματος;

Πώς θα μπορούσε να χρησιμοποιηθεί αυτό το πλαίσιο;

Αυτό το πλαίσιο θα μπορούσε να χρησιμοποιηθεί με πολλούς τρόπους, όπως:

  • Να γεφυρώσει το χάσμα μεταξύ αρχών υψηλού επιπέδου και αξιολόγησης για ρυθμιστικούς σκοπούς ή σκοπούς διακυβέρνησης. Το πλαίσιο μπορεί να το υποστηρίξει με τη δημιουργία μιας επικυρωμένης κοινής ταξινόμησης του φάσματος των θεμάτων που αξίζει να ληφθούν υπόψη από τους σχετικούς ενδιαφερόμενους ως βάση για την ενημέρωση και τη διαμόρφωση περαιτέρω σκέψης. Για παράδειγμα, σε εθνικό επίπεδο, το πλαίσιο θα μπορούσε να χρησιμοποιηθεί ως εργαλείο από την κυβέρνηση καθώς αναπτύσσει μια εθνική στρατηγική και πολιτικές τεχνητής νοημοσύνης για να δημιουργήσει μια κοινή βάση των κινδύνων και των ευκαιριών μεταξύ των ομάδων ενδιαφερομένων.
  • Για την ενημέρωση των αξιολογήσεων επιπτώσεων. Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη απαιτεί από τους οργανισμούς που παρέχουν εργαλεία τεχνητής νοημοσύνης ή υιοθετούν τεχνητή νοημοσύνη στις διαδικασίες τους να προβούν σε εκτίμηση επιπτώσεων για να εντοπίσουν τον κίνδυνο των πρωτοβουλιών τους και να εφαρμόσουν μια κατάλληλη προσέγγιση διαχείρισης κινδύνου. Το πλαίσιο που παρουσιάζεται εδώ θα μπορούσε να χρησιμοποιηθεί ως βάση για αυτό.
  • Για την ενημέρωση της σάρωσης ορίζοντα για κινδύνους και μελλοντικά σενάρια. Η κατηγοριοποίηση των κινδύνων στην Ενδιάμεση Έκθεση του Συμβουλευτικού Οργάνου ΤΝ του ΟΗΕ6 ευθυγραμμίζεται σε γενικές γραμμές με το πλαίσιο που παρουσιάζεται στο πλαίσιο εδώ. Υπάρχει η ευκαιρία να χρησιμοποιηθεί το πλαίσιο για την οικοδόμηση συναίνεσης και τη δοκιμή της σοβαρότητας των αναδυόμενων κινδύνων καθώς και για την πρόληψη αυτών.
  • Να ενισχύσει τις ηθικές αρχές που απαιτούνται για την καθοδήγηση και τη ρύθμιση της χρήσης της τεχνητής νοημοσύνης. Το πλαίσιο μπορεί να το κάνει αυτό παρέχοντας μια ευέλικτη βάση πάνω στην οποία μπορούν να αναπτυχθούν αξιόπιστα συστήματα και διασφαλίζοντας τη νόμιμη, ηθική, ισχυρή και υπεύθυνη χρήση της τεχνολογίας. Αυτές οι αρχές θα μπορούσαν να δοκιμαστούν έναντι του πλήρους φάσματος των επιπτώσεων που παρουσιάζονται σε αυτό το πλαίσιο.
  • Να διευκολυνθεί η απογραφή των υφιστάμενων και εξελισσόμενων μέτρων (ρυθμιστικά, νομοθετικά, πολιτικές, πρότυπα, διακυβέρνηση κ.λπ.) και εντοπισμός κενών που χρήζουν περαιτέρω εξέτασης. Αυτά θα μπορούσαν να αντιστοιχιστούν σε σχέση με τις κατηγορίες πλαισίων σε εθνικό ή πολυεθνικό επίπεδο για να προσδιοριστούν τα κενά και να εντοπιστούν κατάλληλα μέτρα για τον μετριασμό των κινδύνων.
  • Για την υποστήριξη της κυβερνητικής χρήσης της τεχνητής νοημοσύνης. Καθώς πολλές κυβερνήσεις καθορίζουν τις αντίστοιχες στρατηγικές τους για τη χρήση της τεχνητής νοημοσύνης σε οργανισμούς και συστήματα, το πλαίσιο θα μπορούσε να χρησιμοποιηθεί για τον καθορισμό των κατάλληλων ορίων κινδύνου και τον εντοπισμό βασικών ενδιαφερομένων και ευθυνών.
  • Για την υποστήριξη του δημόσιου λόγου και την καθιέρωση κοινωνικής άδειας σχετικά με τον τρόπο χρήσης της τεχνητής νοημοσύνης και τα υποστηρικτικά δεδομένα που θα χρησιμοποιηθούν στις κυβερνητικές υπηρεσίες ή ευρύτερα στην κοινωνία.

Ένας δρόμος προς τα εμπρός
Συνοπτικά, το αναλυτικό πλαίσιο παρέχεται ως η βάση μιας εργαλειοθήκης που θα μπορούσε να χρησιμοποιηθεί από τα ενδιαφερόμενα μέρη για να εξετάσουν διεξοδικά τυχόν σημαντικές εξελίξεις είτε των πλατφορμών είτε της χρήσης με συνεπή και συστηματικό τρόπο. Οι διαστάσεις που παρουσιάζονται σε αυτό το πλαίσιο έχουν σχέση από την αξιολόγηση της τεχνολογίας στη δημόσια πολιτική, από την ανθρώπινη ανάπτυξη στην κοινωνιολογία και τις μελέτες για το μέλλον και την τεχνολογία. Αν και έχει αναπτυχθεί για τεχνητή νοημοσύνη, αυτό το αναλυτικό πλαίσιο έχει πολύ ευρύτερη εφαρμογή σε οποιαδήποτε άλλη αναδυόμενη τεχνολογία.

6 Συμβουλευτικό Συμβούλιο AI του ΟΗΕ. 2023. Ενδιάμεση Έκθεση: Κυβερνώντας την τεχνητή νοημοσύνη για την ανθρωπότητα. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Ευχαριστίες

Πολλοί άνθρωποι συμβουλεύτηκαν και παρείχαν σχόλια κατά την ανάπτυξη τόσο του αρχικού εγγράφου συζήτησης όσο και των σχολίων που ακολούθησαν την δημοσίευσή του. Και τα δύο έγγραφα συντάχθηκαν από Sir Peter Gluckman Gluckman, Πρόεδρος του ISC και Hema Sridhar, πρώην Κύριος Επιστημονικός Σύμβουλος, Υπουργείο Άμυνας, Νέα Ζηλανδία και νυν Ανώτερος Ερευνητής Fellow, Πανεπιστήμιο του Ώκλαντ, Νέα Ζηλανδία.

Ειδικότερα, ο Λόρδος ISC Martin Rees, πρώην Πρόεδρος της Βασιλικής Εταιρείας και Συνιδρυτής του Κέντρου για τη Μελέτη των Υπαρξιακών Κινδύνων, Πανεπιστήμιο του Cambridge. Καθηγητής Shivaji Sondhi, Καθηγητής Φυσικής, Πανεπιστήμιο της Οξφόρδης. Καθηγητής K Vijay Raghavan, πρώην Κύριος Επιστημονικός Σύμβουλος της Κυβέρνησης της Ινδίας. Amandeep Singh Gill, Απεσταλμένος του Γενικού Γραμματέα του ΟΗΕ για την Τεχνολογία. Seán Ó hÉigeartaigh, Εκτελεστικός Διευθυντής, Κέντρο για τη Μελέτη Υπαρξιακών Κινδύνων, Πανεπιστήμιο του Κέιμπριτζ. Sir David Spiegelhalter, Winton Καθηγητής του Public Understanding of Risk, Πανεπιστήμιο
του Cambridge? Amanda-June Brawner, Ανώτερη Σύμβουλος Πολιτικής και Ian Wiggins, Διευθυντής Διεθνών Υποθέσεων, Royal Society, Ηνωμένο Βασίλειο. Ο Dr Jerome Duberry, Διευθύνων Σύμβουλος και η Dr Marie-Laure Salles, Διευθύντρια, Graduate Institute της Γενεύης. Chor Pharn Lee, Κέντρο για Στρατηγικά Μέλλοντα, Γραφείο Πρωθυπουργού, Σιγκαπούρη. Barend Mons και Dr Simon Hodson, την Επιτροπή Δεδομένων (CoDATA)· Καθηγητής Yuko Harayama, Πρώην Εκτελεστικός Διευθυντής, RIKEN; Καθηγητής
Rémi Quirion, Πρόεδρος, INGSA; Δρ Claire Craig, Πανεπιστήμιο της Οξφόρδης και πρώην επικεφαλής της Προοπτικής Διερεύνησης του Κυβερνητικού Γραφείου Επιστημών. Ο καθηγητής Yoshua Bengio, Επιστημονική Συμβουλευτική Επιτροπή του Γενικού Γραμματέα του ΟΗΕ και στο Πανεπιστήμιο του Μόντρεαλ. και πολλοί άλλοι που παρείχαν σχόλια στο ISC σχετικά με το αρχικό έγγραφο συζήτησης.


Περαιτέρω ανάγνωση

Προετοιμασία Εθνικών Ερευνητικών Οικοσυστημάτων για AI: Στρατηγικές και πρόοδος το 2024

Αυτό το έγγραφο εργασίας από τη δεξαμενή σκέψης του ISC, το Center for Science Futures, παρέχει θεμελιώδεις πληροφορίες και πρόσβαση σε πόρους από χώρες από όλα τα μέρη του κόσμου, σε διάφορα στάδια ενσωμάτωσης της τεχνητής νοημοσύνης στα ερευνητικά τους οικοσυστήματα.


τρεις ερευνητές συζητούν

Δημιουργία επιστημονικών συστημάτων έτοιμων για το μέλλον στον Παγκόσμιο Νότο

Οι αναδυόμενες τεχνολογίες αναδιαμορφώνουν τον τρόπο με τον οποίο διεξάγεται η επιστήμη και προσφέρουν σημαντικές δυνατότητες για την ενίσχυση των επιστημονικών συστημάτων στον Παγκόσμιο Νότο - εάν η υιοθέτησή τους καθοδηγείται από συμπεριληπτικές, καλά υποστηριζόμενες και ευαίσθητες στο πλαίσιο προσεγγίσεις. Το πώς θα διασφαλιστεί ότι αυτές οι τεχνολογίες συμβάλλουν σε πιο δίκαια και ανθεκτικά επιστημονικά συστήματα, αντί να ενισχύουν τις υπάρχουσες ανισότητες, ήταν το κεντρικό θέμα αυτής της πρόσφατης στρατηγικής συνάντησης.