Έχει προταθεί από αρκετούς ακαδημαϊκούς και εμπειρογνώμονες σε θέματα πολιτικής ότι το Διεθνές Επιστημονικό Συμβούλιο – με την πλουραλιστική του ιδιότητα μέλους από τις κοινωνικές και φυσικές επιστήμες – να θεσπίσει μια διαδικασία παραγωγής και διατήρησης ενός σχολιασμένου πλαισίου/καταλόγου ελέγχου των κινδύνων, των οφελών, των απειλών και των ευκαιριών σχετίζεται με ταχέως κινούμενες ψηφιακές τεχνολογίες, συμπεριλαμβανομένης – αλλά χωρίς περιορισμό – της τεχνητής νοημοσύνης. Ο σκοπός της λίστας ελέγχου θα είναι να ενημερώσει όλους τους ενδιαφερόμενους - συμπεριλαμβανομένων των κυβερνήσεων, των εμπορικών διαπραγματευτών, των ρυθμιστικών αρχών, της κοινωνίας των πολιτών και της βιομηχανίας - για πιθανά μελλοντικά σενάρια και θα πλαισιώσει τον τρόπο με τον οποίο θα μπορούσαν να εξετάσουν τις ευκαιρίες, τα οφέλη, τους κινδύνους και άλλα θέματα.
Το ISC είναι στην ευχάριστη θέση να παρουσιάσει αυτό το έγγραφο συζήτησης σχετικά με την αξιολόγηση της ταχέως αναπτυσσόμενης ψηφιακής και σχετικής τεχνολογίας. Η τεχνητή νοημοσύνη, η συνθετική βιολογία και οι κβαντικές τεχνολογίες είναι πρωταρχικά παραδείγματα καινοτομίας, ενημερωμένης από την επιστήμη, που αναδύονται με πρωτοφανή ρυθμό. Μπορεί να είναι δύσκολο να προβλεφθούν συστηματικά όχι μόνο οι εφαρμογές τους, αλλά και οι επιπτώσεις τους.
Η αξιολόγηση των κοινωνικών πτυχών της γενεσιουργής τεχνητής νοημοσύνης, όπως τα μεγάλα γλωσσικά μοντέλα, τα οποία αναμενόμενα αντιπροσωπεύουν το μεγαλύτερο μέρος αυτού του εγγράφου συζήτησης, είναι μια απαραίτητη γέφυρα μέσα στην τρέχουσα συζήτηση – μερικές φορές οδηγούμενη από πανικό, άλλες φορές όχι αρκετά βαθιά στη σκέψη – και τα απαραίτητα μαθήματα δράση που μπορούμε να κάνουμε. Το ISC είναι πεπεισμένο ότι απαιτείται ένα αναλυτικό πλαίσιο μεταξύ της κοινωνικής αποδοχής τέτοιων νέων τεχνολογιών και της πιθανής ρύθμισής τους για τη διευκόλυνση των πολυμερών συζητήσεων που απαιτούνται για τη λήψη τεκμηριωμένων και υπεύθυνων αποφάσεων σχετικά με τον τρόπο βελτιστοποίησης των κοινωνικών οφελών αυτής της ταχέως αναδυόμενης τεχνολογίας.
Το ISC είναι ανοιχτό σε αντιδράσεις από την κοινότητά μας μέσω αυτού του εγγράφου συζήτησης, προκειμένου να αξιολογήσει πώς να συνεχίσει να συμμετέχει και να συμβάλλει στη συζήτηση γύρω από την τεχνολογία.
Salvatore Aricò, Διευθύνων Σύμβουλος
Έγγραφο συζήτησης ISC
Ένα πλαίσιο για την αξιολόγηση των ταχέως αναπτυσσόμενων ψηφιακών και συναφών τεχνολογιών: τεχνητή νοημοσύνη, μεγάλα γλωσσικά μοντέλα και όχι μόνο
Αυτό το έγγραφο συζήτησης παρέχει το περίγραμμα ενός αρχικού πλαισίου για την ενημέρωση των πολλαπλών παγκόσμιων και εθνικών συζητήσεων που λαμβάνουν χώρα σχετικά με την τεχνητή νοημοσύνη.
Κάντε λήψη της αναφοράςΝέο! Διαβάστε την έκδοση 2024 για υπεύθυνους χάραξης πολιτικής με πλαίσιο με δυνατότητα λήψης για τον οργανισμό σας.
Ένας οδηγός για τους υπεύθυνους χάραξης πολιτικής: Αξιολόγηση ταχέως αναπτυσσόμενων τεχνολογιών, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, μεγάλων γλωσσικών μοντέλων και άλλα
Αυτό το έγγραφο συζήτησης παρέχει το περίγραμμα ενός αρχικού πλαισίου για την ενημέρωση των πολλαπλών παγκόσμιων και εθνικών συζητήσεων που λαμβάνουν χώρα σχετικά με την τεχνητή νοημοσύνη.
Περιεχόμενα
Εισαγωγή
Οι ταχέως αναδυόμενες τεχνολογίες παρουσιάζουν προκλητικά ζητήματα όσον αφορά τη διακυβέρνησή τους και τη δυνητική ρύθμισή τους. Η πολιτική και οι δημόσιες συζητήσεις για την τεχνητή νοημοσύνη (AI) και τη χρήση της έχουν φέρει αυτά τα ζητήματα στο επίκεντρο. Ενώ οι ευρείες αρχές για την τεχνητή νοημοσύνη έχουν δημοσιευτεί από την UNESCO, τον ΟΟΣΑ και άλλους, και υπάρχουν εκκολαπτόμενες συζητήσεις σχετικά με την παγκόσμια ή δικαιοδοτική ρύθμιση της τεχνολογίας, υπάρχει ένα οντολογικό χάσμα μεταξύ της ανάπτυξης αρχών υψηλού επιπέδου και της ενσωμάτωσής τους σε ρυθμιστικές πολιτικές. προσεγγίσεις διακυβέρνησης και διαχείρισης. Εδώ θα μπορούσε να διαδραματίσει ιδιαίτερο ρόλο η μη κυβερνητική επιστημονική κοινότητα.
Έχει προταθεί από αρκετούς ακαδημαϊκούς και εμπειρογνώμονες πολιτικής το Διεθνές Συμβούλιο Επιστημών (ISC) – με την πλουραλιστική του συμμετοχή από τις κοινωνικές και φυσικές επιστήμες – να θεσπίσει μια διαδικασία για την παραγωγή και τη διατήρηση ενός σχολιασμένου πλαισίου/καταλόγου ελέγχου των κινδύνων, των οφελών, απειλές και ευκαιρίες που σχετίζονται με ταχέως κινούμενες ψηφιακές τεχνολογίες, συμπεριλαμβανομένης – αλλά δεν περιορίζεται σε – της τεχνητής νοημοσύνης. Ο σκοπός της λίστας ελέγχου θα είναι να ενημερώσει όλους τους ενδιαφερόμενους - συμπεριλαμβανομένων των κυβερνήσεων, των εμπορικών διαπραγματευτών, των ρυθμιστικών αρχών, της κοινωνίας των πολιτών και της βιομηχανίας - για πιθανά μελλοντικά σενάρια και θα πλαισιώσει τον τρόπο με τον οποίο θα μπορούσαν να εξετάσουν τις ευκαιρίες, τα οφέλη, τους κινδύνους και άλλα θέματα.
Τα αποτελέσματα δεν θα λειτουργούσαν ως φορέας αξιολόγησης, αλλά ως ένα προσαρμοστικό και εξελισσόμενο αναλυτικό πλαίσιο που θα μπορούσε να υποστηρίξει οποιεσδήποτε διαδικασίες αξιολόγησης και ρυθμίσεων που θα μπορούσαν να αναπτυχθούν από τα ενδιαφερόμενα μέρη, συμπεριλαμβανομένων των κυβερνήσεων και του πολυμερούς συστήματος. Οποιοδήποτε αναλυτικό πλαίσιο θα πρέπει ιδανικά να αναπτυχθεί ανεξάρτητα από κυβερνητικούς και βιομηχανικούς ισχυρισμούς, δεδομένων των κατανοητών συμφερόντων τους. Πρέπει επίσης να είναι στο μέγιστο πλουραλιστικό στις προοπτικές του, καλύπτοντας έτσι όλες τις πτυχές της τεχνολογίας και τις επιπτώσεις της.
Αυτό το έγγραφο συζήτησης παρέχει το περίγραμμα ενός αρχικού πλαισίου για την ενημέρωση των πολλαπλών παγκόσμιων και εθνικών συζητήσεων που λαμβάνουν χώρα σχετικά με την τεχνητή νοημοσύνη.
Ιστορικό: Γιατί ένα αναλυτικό πλαίσιο;
Η ταχεία εμφάνιση μιας τεχνολογίας με την πολυπλοκότητα και τις επιπτώσεις της τεχνητής νοημοσύνης προκαλεί πολλούς ισχυρισμούς για μεγάλα οφέλη. Ωστόσο, προκαλεί και φόβους σημαντικών κινδύνων, από ατομικό έως γεωστρατηγικό επίπεδο. Μεγάλο μέρος της συζήτησης τείνει να διεξάγεται στα άκρα του φάσματος των απόψεων και χρειάζεται μια πιο ρεαλιστική προσέγγιση. Η τεχνολογία AI θα συνεχίσει να εξελίσσεται και η ιστορία δείχνει ότι σχεδόν κάθε τεχνολογία έχει τόσο ευεργετικές όσο και επιβλαβείς χρήσεις. Επομένως, το ερώτημα είναι: πώς μπορούμε να επιτύχουμε ευεργετικά αποτελέσματα από αυτήν την τεχνολογία, μειώνοντας παράλληλα τον κίνδυνο επιβλαβών συνεπειών, ορισμένες από τις οποίες θα μπορούσαν να είναι υπαρξιακές σε μέγεθος;
Το μέλλον είναι πάντα αβέβαιο, αλλά υπάρχουν αρκετές αξιόπιστες και ειδικές φωνές σχετικά με την τεχνητή νοημοσύνη και τη γενετική τεχνητή νοημοσύνη για να ενθαρρύνουν μια σχετικά προληπτική προσέγγιση. Επιπλέον, απαιτείται μια συστημική προσέγγιση, επειδή η τεχνητή νοημοσύνη είναι μια κατηγορία τεχνολογιών με ευρεία χρήση και εφαρμογή από πολλούς τύπους χρηστών. Αυτό σημαίνει ότι το πλήρες πλαίσιο πρέπει να λαμβάνεται υπόψη κατά την εξέταση των επιπτώσεων της τεχνητής νοημοσύνης για τα άτομα, την κοινωνική ζωή, την πολιτική ζωή, την κοινωνική ζωή και στο παγκόσμιο πλαίσιο.
Σε αντίθεση με τις περισσότερες προηγούμενες τεχνολογίες, οι ψηφιακές και οι συναφείς τεχνολογίες έχουν πολύ μικρό χρονικό διάστημα από την ανάπτυξη έως την κυκλοφορία, σε μεγάλο βαθμό καθοδηγούμενο από τα συμφέροντα των εταιρειών παραγωγής ή των πρακτορείων. Η τεχνητή νοημοσύνη είναι γρήγορα διάχυτη. Ορισμένες ιδιότητες μπορεί να γίνουν εμφανείς μόνο μετά την κυκλοφορία και η τεχνολογία θα μπορούσε να έχει τόσο κακόβουλες όσο και καλοπροαίρετες εφαρμογές. Οι διαστάσεις σημαντικών τιμών θα επηρεάσουν τον τρόπο με τον οποίο γίνεται αντιληπτή οποιαδήποτε χρήση. Επιπλέον, μπορεί να υπάρχουν γεωστρατηγικά συμφέροντα.
Μέχρι σήμερα, η ρύθμιση μιας εικονικής τεχνολογίας έχει φανεί σε μεγάλο βαθμό μέσα από το πρίσμα των «αρχών» και της εθελοντικής συμμόρφωσης. Πιο πρόσφατα, ωστόσο, η συζήτηση στράφηκε σε ζητήματα εθνικής και πολυμερούς διακυβέρνησης, συμπεριλαμβανομένης της χρήσης ρυθμιστικών και άλλων εργαλείων πολιτικής. Οι ισχυρισμοί υπέρ ή κατά της τεχνητής νοημοσύνης είναι συχνά υπερβολικοί και – δεδομένης της φύσης της τεχνολογίας – είναι δύσκολο να αξιολογηθούν. Η δημιουργία ενός αποτελεσματικού παγκόσμιου ή εθνικού συστήματος τεχνολογικής ρύθμισης θα είναι πρόκληση και θα απαιτηθούν πολλαπλά επίπεδα λήψης αποφάσεων με γνώμονα τον κίνδυνο κατά μήκος της αλυσίδας, από τον εφευρέτη στον παραγωγό, στον χρήστη, στην κυβέρνηση και στο πολυμερές σύστημα.
Ενώ, μεταξύ άλλων, οι αρχές υψηλού επιπέδου έχουν γνωστοποιηθεί από την UNESCO, τον ΟΟΣΑ και την Ευρωπαϊκή Επιτροπή, και διεξάγονται διάφορες συζητήσεις υψηλού επιπέδου σχετικά με ζητήματα πιθανής ρύθμισης, υπάρχει μεγάλο οντολογικό χάσμα μεταξύ αυτών των αρχών και ενός πλαισίου διακυβέρνησης ή κανονιστικού πλαισίου. Ποια είναι η ταξινόμηση των εκτιμήσεων που μπορεί να χρειαστεί να λάβει υπόψη μια ρυθμιστική αρχή; Ένα στενά εστιασμένο πλαίσιο δεν θα ήταν συνετό, δεδομένων των ευρειών επιπτώσεων αυτών των τεχνολογιών. Αυτή η δυνατότητα έχει αποτελέσει αντικείμενο πολλών σχολίων, τόσο θετικών όσο και αρνητικών.
Η ανάπτυξη ενός αναλυτικού πλαισίου
Το ISC είναι η κύρια παγκόσμια ΜΚΟ που ενσωματώνει τις φυσικές και κοινωνικές επιστήμες. Η παγκόσμια και πειθαρχική του εμβέλεια σημαίνει ότι είναι σε καλή θέση για να παράγει ανεξάρτητες και παγκόσμιες σχετικές συμβουλές για να ενημερώσει τις περίπλοκες επιλογές που έχουμε μπροστά μας, ιδιαίτερα καθώς οι τρέχουσες φωνές σε αυτόν τον τομέα προέρχονται σε μεγάλο βαθμό από τη βιομηχανία ή από τις μεγάλες τεχνολογικές δυνάμεις. Μετά από εκτεταμένη συζήτηση τους τελευταίους μήνες, συμπεριλαμβανομένης της εξέτασης μιας μη κυβερνητικής διαδικασίας αξιολόγησης, η ISC κατέληξε στο συμπέρασμα ότι η πιο χρήσιμη συνεισφορά της θα ήταν να δημιουργήσει και να διατηρήσει ένα προσαρμοστικό αναλυτικό πλαίσιο που μπορεί να χρησιμοποιηθεί ως βάση για διάλογο και λήψη αποφάσεων από όλων των ενδιαφερομένων, μεταξύ άλλων κατά τη διάρκεια οποιασδήποτε επίσημης διαδικασίας αξιολόγησης προκύψει.
Αυτό το πλαίσιο θα λάβει τη μορφή μιας γενικής λίστας ελέγχου που θα μπορούσε να χρησιμοποιηθεί τόσο από κυβερνητικούς όσο και από μη κυβερνητικούς θεσμούς. Το πλαίσιο προσδιορίζει και διερευνά τις δυνατότητες μιας τεχνολογίας όπως η τεχνητή νοημοσύνη και τα παράγωγά της μέσα από ένα ευρύ πρίσμα που περιλαμβάνει την ανθρώπινη και κοινωνική ευημερία, καθώς και εξωτερικούς παράγοντες, όπως η οικονομία, η πολιτική, το περιβάλλον και η ασφάλεια. Ορισμένες πτυχές της λίστας ελέγχου μπορεί να είναι πιο σχετικές από άλλες, ανάλογα με το πλαίσιο, αλλά καλύτερες αποφάσεις είναι πιο πιθανές εάν ληφθούν υπόψη όλοι οι τομείς. Αυτή είναι η εγγενής αξία μιας προσέγγισης λίστας ελέγχου.
Το προτεινόμενο πλαίσιο προέρχεται από προηγούμενες εργασίες και σκέψεις, συμπεριλαμβανομένης της έκθεσης ψηφιακής ευημερίας του Διεθνούς Δικτύου για Κυβερνητικές Επιστημονικές Συμβουλές (INGSA)1 και το Πλαίσιο Ταξινόμησης ΤΝ του ΟΟΣΑ2 να παρουσιάσει το σύνολο των πιθανών ευκαιριών, κινδύνων και επιπτώσεων της τεχνητής νοημοσύνης. Αυτά τα προηγούμενα προϊόντα ήταν πιο περιορισμένα στην πρόθεσή τους, δεδομένου του χρόνου και του πλαισίου τους, υπάρχει ανάγκη για ένα γενικό πλαίσιο που να παρουσιάζει το πλήρες φάσμα των θεμάτων τόσο βραχυπρόθεσμα όσο και μακροπρόθεσμα.
Αν και έχει αναπτυχθεί για την εξέταση της τεχνητής νοημοσύνης, αυτό το αναλυτικό πλαίσιο θα μπορούσε να εφαρμοστεί σε οποιαδήποτε ταχέως αναδυόμενη τεχνολογία. Τα θέματα ομαδοποιούνται γενικά στις ακόλουθες κατηγορίες για περαιτέρω εξέταση:
Περιλαμβάνεται ένας κατάλογος εκτιμήσεων για καθεμία από τις παραπάνω κατηγορίες μαζί με τις αντίστοιχες ευκαιρίες και συνέπειές τους. Μερικά είναι σχετικά με συγκεκριμένες περιπτώσεις ή εφαρμογές τεχνητής νοημοσύνης, ενώ άλλα είναι γενικά και αγνωστικά για την πλατφόρμα ή τη χρήση. Κανένα στοιχείο που περιλαμβάνεται εδώ δεν πρέπει να αντιμετωπίζεται ως προτεραιότητα και, ως εκ τούτου, θα πρέπει να εξετάζονται όλα.
Πώς θα μπορούσε να χρησιμοποιηθεί αυτό το πλαίσιο;
Αυτό το πλαίσιο θα μπορούσε να χρησιμοποιηθεί, αλλά δεν περιορίζεται σε, με τους ακόλουθους τρόπους:
Ο παρακάτω πίνακας είναι μια πρώιμη διαμόρφωση των διαστάσεων ενός αναλυτικού πλαισίου. Ανάλογα με την τεχνολογία και τη χρήση της, ορισμένα εξαρτήματα θα είναι πιο σχετικά από άλλα. Τα παραδείγματα παρέχονται για να δείξουν γιατί κάθε τομέας μπορεί να έχει σημασία. στο πλαίσιο, το πλαίσιο θα απαιτούσε σχετική με τα συμφραζόμενα επέκταση. Είναι επίσης σημαντικό να γίνει διάκριση μεταξύ των εξελίξεων της πλατφόρμας και των γενικών ζητημάτων που μπορεί να προκύψουν κατά τη διάρκεια συγκεκριμένων εφαρμογών.
Διαστάσεις που πρέπει να λαμβάνονται υπόψη κατά την αξιολόγηση μιας νέας τεχνολογίας
| Αρχικό σχέδιο των διαστάσεων που μπορεί να χρειαστεί να ληφθούν υπόψη κατά την αξιολόγηση μιας νέας τεχνολογίας | ||
| Διαστάσεις κρούσης | Κριτήρια | Παραδείγματα για το πώς αυτό μπορεί να αντικατοπτρίζεται στην ανάλυση |
| Ατομικό / εαυτό | Ικανότητα AI των χρηστών | Πόσο ικανοί και ενήμεροι για τις ιδιότητες του συστήματος είναι οι πιθανοί χρήστες που θα αλληλεπιδράσουν με το σύστημα; Πώς θα τους παρέχονται οι σχετικές πληροφορίες και προφυλάξεις χρήστη; |
| Επηρεασμένοι ενδιαφερόμενοι | Ποιοι είναι οι κύριοι ενδιαφερόμενοι που θα επηρεαστούν από το σύστημα (δηλαδή άτομα, κοινότητες, ευάλωτοι, κλαδικοί εργαζόμενοι, παιδιά, υπεύθυνοι χάραξης πολιτικής, επαγγελματίες); | |
| Προαιρετικότητα | Παρέχεται στους χρήστες η επιλογή εξαίρεσης από το σύστημα; θα πρέπει να τους δοθούν ευκαιρίες να αμφισβητήσουν ή να διορθώσουν το αποτέλεσμα; | |
| Κίνδυνοι για τα ανθρώπινα δικαιώματα και τις δημοκρατικές αξίες | Θα μπορούσε το σύστημα να επηρεάσει (και προς ποια κατεύθυνση) τα ανθρώπινα δικαιώματα, συμπεριλαμβανομένων, ενδεικτικά, της ιδιωτικής ζωής, της ελευθερίας της έκφρασης, της δικαιοσύνης, του κινδύνου διακρίσεων κ.λπ.; | |
| Πιθανές επιπτώσεις στην ευημερία των ανθρώπων | Θα μπορούσε το σύστημα να επηρεάσει (και προς ποια κατεύθυνση) την ευημερία του μεμονωμένου χρήστη (δηλαδή, ποιότητα εργασίας, εκπαίδευση, κοινωνικές αλληλεπιδράσεις, ψυχική υγεία, ταυτότητα, περιβάλλον); | |
| Δυνατότητα μετατόπισης ανθρώπινης εργασίας | Υπάρχει δυνατότητα για το σύστημα να αυτοματοποιεί εργασίες ή λειτουργίες που εκτελούνταν από ανθρώπους; Εάν ναι, ποιες είναι οι κατάντη συνέπειες; | |
| Δυνατότητα για χειραγώγηση ταυτότητας, αξιών ή γνώσης | Είναι το σύστημα σχεδιασμένο ή δυνητικά ικανό να χειριστεί την ταυτότητα ή τις αξίες του χρήστη ή να διαδώσει παραπληροφόρηση; Υπάρχει πιθανότητα ψευδών ή μη επαληθεύσιμων ισχυρισμών εμπειρογνωμοσύνης; | |
| Μέτρα αυτοεκτίμησης | Υπάρχει πίεση για την απεικόνιση ενός εξιδανικευμένου εαυτού; Θα μπορούσε ο αυτοματισμός να αντικαταστήσει την αίσθηση της προσωπικής ολοκλήρωσης; Υπάρχει πίεση για ανταγωνισμό με το σύστημα στο χώρο εργασίας; Γίνεται πιο δύσκολη η προστασία της φήμης του ατόμου από την παραπληροφόρηση; | |
| Προστασία προσωπικών δεδομένων | Υπάρχουν διάχυτες ευθύνες για τη διαφύλαξη του απορρήτου και υπάρχουν υποθέσεις σχετικά με τον τρόπο χρήσης των προσωπικών δεδομένων; | |
| Αυτονομία | Θα μπορούσε το σύστημα να επηρεάσει την ανθρώπινη αυτονομία δημιουργώντας υπερβολική εξάρτηση από την τεχνολογία από τους τελικούς χρήστες; | |
| Ανθρώπινη ανάπτυξη | Υπάρχει αντίκτυπος στην απόκτηση βασικών δεξιοτήτων για την ανθρώπινη ανάπτυξη, όπως εκτελεστικές λειτουργίες, διαπροσωπικές δεξιότητες, αλλαγές στον χρόνο προσοχής που επηρεάζουν τη μάθηση, ανάπτυξη προσωπικότητας, ανησυχίες για την ψυχική υγεία κ.λπ.; | |
| Προσωπική υγειονομική περίθαλψη | Υπάρχουν ισχυρισμοί για εξατομικευμένες λύσεις υγειονομικής περίθαλψης; Εάν ναι, επικυρώνονται σύμφωνα με τα ρυθμιστικά πρότυπα; | |
| Ψυχική υγεία | Υπάρχει κίνδυνος αυξημένου άγχους, μοναξιάς ή άλλων προβλημάτων ψυχικής υγείας ή μπορεί η τεχνολογία να μετριάσει τέτοιες επιπτώσεις; | |
| Ανθρώπινη εξέλιξη | Θα μπορούσε η τεχνολογία να οδηγήσει σε αλλαγές στην ανθρώπινη εξέλιξη; | |
| Διαστάσεις κρούσης | Κριτήρια | Περιγραφή |
| Κοινωνία/κοινωνική ζωή | Κοινωνικές αξίες | Το σύστημα αλλάζει ριζικά τη φύση της κοινωνίας ή επιτρέπει την ομαλοποίηση ιδεών που προηγουμένως θεωρούνταν αντικοινωνικές ή παραβιάζει τις κοινωνικές αξίες του πολιτισμού στον οποίο εφαρμόζεται; |
| Κοινωνική αλληλεπίδραση | Υπάρχει επίδραση στην ουσιαστική ανθρώπινη επαφή, συμπεριλαμβανομένων των συναισθηματικών σχέσεων; | |
| Δικαιοσύνη | Είναι πιθανό η εφαρμογή/τεχνολογία να μειώσει ή να ενισχύσει τις ανισότητες (δηλαδή, οικονομικές, κοινωνικές, εκπαιδευτικές, γεωγραφικές); | |
| Υγεία του πληθυσμού | Υπάρχει δυνατότητα το σύστημα να προωθήσει ή να υπονομεύσει τις προθέσεις για την υγεία του πληθυσμού; | |
| Πολιτιστική έκφραση | Είναι πιθανό ή πιο δύσκολο να αντιμετωπιστεί η αύξηση της πολιτιστικής ιδιοποίησης ή διάκρισης; Η εξάρτηση από το σύστημα λήψης αποφάσεων δυνητικά αποκλείει ή περιθωριοποιεί τμήματα της κοινωνίας; | |
| Δημόσια εκπαίδευση | Υπάρχει επίδραση στους ρόλους των εκπαιδευτικών ή στα εκπαιδευτικά ιδρύματα; Τονίζει ή μειώνει το σύστημα την ανισότητα μεταξύ των μαθητών και το ψηφιακό χάσμα; Είναι προχωρημένη ή υπονομευμένη η εγγενής αξία της γνώσης ή της κριτικής κατανόησης; | |
| Διαστρεβλωμένη πραγματικότητα | Οι μέθοδοι που χρησιμοποιούμε για να διακρίνουμε τι είναι αληθινό εξακολουθούν να ισχύουν; Διακυβεύεται η αντίληψη της πραγματικότητας; | |
| Οικονομικό πλαίσιο (εμπόριο) | Βιομηχανικός τομέας | Σε ποιον βιομηχανικό τομέα αναπτύσσεται το σύστημα (δηλαδή χρηματοδότηση, γεωργία, υγειονομική περίθαλψη, εκπαίδευση, άμυνα); |
| Επιχειρηματικό μοντέλο | Σε ποια επιχειρηματική λειτουργία χρησιμοποιείται το σύστημα και με ποια ιδιότητα; Πού χρησιμοποιείται το σύστημα (ιδιωτικό, δημόσιο, μη κερδοσκοπικό); | |
| Επιπτώσεις σε κρίσιμες δραστηριότητες | Η διακοπή της λειτουργίας ή της δραστηριότητας του συστήματος θα επηρεάσει βασικές υπηρεσίες ή κρίσιμες υποδομές; | |
| Ανάσα ανάπτυξης | Πώς αναπτύσσεται το σύστημα (σχεδόν εντός ενός οργανισμού έναντι ευρέως διαδεδομένου σε εθνικό/διεθνές επίπεδο); | |
| Τεχνική ωριμότητα (TRL) | Πόσο τεχνικά ώριμο είναι το σύστημα; | |
| Τεχνολογική κυριαρχία | Η τεχνολογία οδηγεί σε μεγαλύτερη συγκέντρωση της τεχνολογικής κυριαρχίας; | |
| Αναδιανομή εισοδήματος και εθνικοί δημοσιονομικοί μοχλοί | Θα μπορούσαν να τεθούν σε κίνδυνο οι βασικοί ρόλοι του κυρίαρχου κράτους (δηλαδή, οι αποθεματικές τράπεζες); Θα προωθηθεί ή θα μειωθεί η ικανότητα του κράτους να ανταποκριθεί στις προσδοκίες και τις επιπτώσεις των πολιτών (δηλαδή, κοινωνικές, οικονομικές, πολιτικές); | |
| Διαστάσεις κρούσης | Κριτήρια | Περιγραφή |
| Πολιτική ζωή | Διακυβέρνηση και δημόσια υπηρεσία | Θα μπορούσαν οι μηχανισμοί διακυβέρνησης και τα συστήματα παγκόσμιας διακυβέρνησης να επηρεαστούν θετικά ή αρνητικά; |
| Ειδησεογραφικά μέσα | Είναι πιθανόν ο δημόσιος λόγος να γίνει περισσότερο ή λιγότερο πολωμένος και εδραιωμένος σε πληθυσμιακό επίπεδο; Θα υπάρξει επίδραση στα επίπεδα εμπιστοσύνης στα μέσα ενημέρωσης; Θα επηρεαστούν περαιτέρω η δεοντολογία και τα πρότυπα ακεραιότητας της συμβατικής δημοσιογραφίας; | |
| Κανόνας δικαίου | Θα υπάρξει επίδραση στην ικανότητα εντοπισμού ατόμων ή οργανισμών να λογοδοτήσουν (δηλαδή, τι είδους ευθύνη να εκχωρηθεί σε έναν αλγόριθμο για δυσμενή αποτελέσματα); Δημιουργεί αυτό απώλεια κυριαρχίας (δηλαδή, περιβαλλοντική, φορολογική, κοινωνική πολιτική, ηθική); | |
| Πολιτική και κοινωνική συνοχή | Υπάρχει πιθανότητα πιο παγιωμένων πολιτικών απόψεων και λιγότερων ευκαιριών για οικοδόμηση συναίνεσης; Υπάρχει πιθανότητα περαιτέρω περιθωριοποίησης ομάδων; Είναι περισσότερο ή λιγότερο πιθανά τα αντίθετα στυλ πολιτικής; | |
| Γεωστρατηγικό/γεωπολιτικό πλαίσιο | Παρακολούθηση ακριβείας | Είναι τα συστήματα εκπαιδευμένα σε ατομικά δεδομένα συμπεριφοράς και βιολογικά δεδομένα, και εάν ναι, θα μπορούσαν να χρησιμοποιηθούν για την εκμετάλλευση ατόμων ή ομάδων; |
| Ψηφιακός αποικισμός | Είναι σε θέση οι κρατικοί ή μη φορείς να αξιοποιήσουν συστήματα και δεδομένα για να κατανοήσουν και να ελέγξουν τους πληθυσμούς και τα οικοσυστήματα άλλων χωρών ή να υπονομεύσουν τον έλεγχο δικαιοδοσίας; | |
| Γεωπολιτικός ανταγωνισμός | Επηρεάζει το σύστημα τον ανταγωνισμό μεταξύ εθνών και τεχνολογικών πλατφορμών για πρόσβαση σε ατομικά και συλλογικά δεδομένα για οικονομικούς ή στρατηγικούς σκοπούς; | |
| Εμπορικές και εμπορικές συμφωνίες | Έχει το σύστημα επιπτώσεις στις διεθνείς εμπορικές συμφωνίες; | |
| Αλλαγή στις παγκόσμιες δυνάμεις | Απειλείται η θέση των εθνικών κρατών ως πρωταρχικών γεωπολιτικών παραγόντων στον κόσμο; Θα ασκούν οι εταιρείες τεχνολογίας την εξουσία που θα προορίζεται κάποτε για τα έθνη-κράτη και γίνονται ανεξάρτητοι κυρίαρχοι παράγοντες; | |
| παραπληροφόρηση | Είναι ευκολότερο για κρατικούς και μη φορείς να παράγουν και να διαδίδουν παραπληροφόρηση που επηρεάζει την κοινωνική συνοχή, την εμπιστοσύνη και τη δημοκρατία; | |
| περιβαλλοντική | Κατανάλωση ενέργειας και πόρων (αποτύπωμα άνθρακα) | Το σύστημα και οι απαιτήσεις αυξάνουν την κατανάλωση ενέργειας και πόρων πέρα από τα κέρδη απόδοσης που επιτυγχάνονται μέσω της εφαρμογής; |
| Διαστάσεις κρούσης | Κριτήρια | Περιγραφή |
| Δεδομένα και εισαγωγή | Ανίχνευση και συλλογή | Τα δεδομένα και τα δεδομένα συλλέγονται από ανθρώπους, αυτοματοποιημένους αισθητήρες ή και τα δύο; |
| Προέλευση των δεδομένων | Όσον αφορά τα δεδομένα είναι αυτά που παρέχονται, παρατηρούνται, συνθετικά ή παράγωγα; Υπάρχουν προστασίες υδατογραφήματος για επιβεβαίωση της προέλευσης; | |
| Δυναμική φύση των δεδομένων | Είναι τα δεδομένα δυναμικά, στατικά, ενημερώνονται από καιρό σε καιρό ή ενημερώνονται σε πραγματικό χρόνο; | |
| Δικαιώματα | Είναι τα δεδομένα ιδιοκτησίας, δημόσια ή προσωπικά (δηλαδή σχετίζονται με αναγνωρίσιμα άτομα); | |
| Αναγνωρισιμότητα προσωπικών δεδομένων | Εάν τα προσωπικά δεδομένα, είναι ανώνυμα ή ψευδώνυμα; | |
| Δομή των δεδομένων | Είναι τα δεδομένα δομημένα, ημι-δομημένα, πολύπλοκα δομημένα ή μη; | |
| Μορφή των δεδομένων | Είναι η μορφή των δεδομένων και των μεταδεδομένων τυποποιημένη ή μη τυποποιημένη; | |
| Κλίμακα των δεδομένων | Ποια είναι η κλίμακα του συνόλου δεδομένων; | |
| Καταλληλότητα και ποιότητα των δεδομένων | Είναι το σύνολο δεδομένων κατάλληλο για το σκοπό; Είναι το μέγεθος του δείγματος επαρκές; Είναι αρκετά αντιπροσωπευτικό και πλήρες; Πόσο θορυβώδη είναι τα δεδομένα; Είναι επιρρεπής σε σφάλματα; | |
| Μοντέλο | Διαθεσιμότητα πληροφοριών | Υπάρχουν διαθέσιμες πληροφορίες σχετικά με το μοντέλο του συστήματος; |
| Τύπος μοντέλου AI | Είναι το μοντέλο συμβολικό (κανόνες που δημιουργούνται από τον άνθρωπο), στατιστικό (χρησιμοποιεί δεδομένα) ή υβριδικό; | |
| Δικαιώματα που σχετίζονται με το μοντέλο | Διαχειρίζεται το μοντέλο ανοιχτού κώδικα ή ιδιόκτητο, διαχειρίζεται ο ίδιος ή τρίτος; | |
| Μονά ή πολλαπλά μοντέλα | Αποτελείται το σύστημα από ένα μοντέλο ή από πολλά αλληλένδετα μοντέλα; | |
| Γεννητικό ή μεροληπτικό | Είναι το μοντέλο γεννητικό, διακριτικό ή και τα δύο; | |
| Μοντέλο κτίριο | Μαθαίνει το σύστημα με βάση τους ανθρώπινους γραμμένους κανόνες, από δεδομένα, μέσω εποπτευόμενης μάθησης ή μέσω ενισχυτικής μάθησης; | |
| Εξέλιξη μοντέλου (AI drift) | Το μοντέλο εξελίσσεται και/ή αποκτά ικανότητες από την αλληλεπίδραση με δεδομένα στο πεδίο; | |
| Ομοσπονδιακή ή κεντρική μάθηση | Είναι το μοντέλο εκπαιδευμένο κεντρικά ή σε αρκετούς τοπικούς διακομιστές ή συσκευές "edge"; | |
| Ανάπτυξη και συντήρηση | Είναι το μοντέλο καθολικό, προσαρμόσιμο ή προσαρμοσμένο στα δεδομένα του ηθοποιού της τεχνητής νοημοσύνης; | |
| Ντετερμινιστικό ή πιθανολογικό | Χρησιμοποιείται το μοντέλο με ντετερμινιστικό ή πιθανολογικό τρόπο; | |
| Διαφάνεια μοντέλου | Είναι διαθέσιμες πληροφορίες στους χρήστες για να κατανοήσουν τα αποτελέσματα και τους περιορισμούς του μοντέλου ή να χρησιμοποιούν περιορισμούς; | |
| Υπολογιστικός περιορισμός | Υπάρχουν υπολογιστικοί περιορισμοί στο σύστημα; Μπορούμε να προβλέψουμε άλματα ικανότητας ή νόμους κλιμάκωσης; | |
| Διαστάσεις κρούσης | Κριτήρια | Περιγραφή |
| Εργασία και έξοδος | Εργασία(ες) που εκτελούνται από το σύστημα | Ποιες εργασίες εκτελεί το σύστημα (δηλαδή, αναγνώριση, ανίχνευση συμβάντων, πρόβλεψη); |
| Συνδυασμός εργασιών και ενεργειών | Συνδυάζει το σύστημα πολλές εργασίες και ενέργειες (δηλ. συστήματα παραγωγής περιεχομένου, αυτόνομα συστήματα, συστήματα ελέγχου); | |
| Επίπεδο αυτονομίας του συστήματος | Πόσο αυτόνομες είναι οι ενέργειες του συστήματος και τι ρόλο παίζουν οι άνθρωποι; | |
| Βαθμός ανθρώπινης εμπλοκής | Υπάρχει κάποια ανθρώπινη συμμετοχή για την επίβλεψη της συνολικής δραστηριότητας του συστήματος τεχνητής νοημοσύνης και την ικανότητα να αποφασίζει πότε και πώς θα χρησιμοποιηθεί το σύστημα σε οποιαδήποτε κατάσταση; | |
| Βασική εφαρμογή | Ανήκει το σύστημα σε έναν βασικό τομέα εφαρμογών όπως τεχνολογίες ανθρώπινης γλώσσας, όραση υπολογιστών, αυτοματισμός ή/και βελτιστοποίηση ή ρομποτική; | |
| Εκτίμηση | Υπάρχουν πρότυπα ή μέθοδοι διαθέσιμα για την αξιολόγηση της παραγωγής του συστήματος ή την αντιμετώπιση απρόβλεπτων αναδυόμενων ιδιοτήτων; | |
Κλειδί για πηγές των περιγραφών
απλό κείμενο:
Gluckman, P. and Allen, K. 2018. Κατανόηση της ευημερίας στο πλαίσιο των ταχέων ψηφιακών και σχετικών μετασχηματισμών. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Εντονο Κείμενο:
ΟΟΣΑ. 2022. Πλαίσιο του ΟΟΣΑ για την ταξινόμηση συστημάτων τεχνητής νοημοσύνης. OECD Digital Economy Papers, No. 323, OECD Publishing, Παρίσι. https://oecd.ai/en/classification
Κείμενο με πλάγια γραφή:
Νέοι περιγραφείς (από πολλές πηγές)
Ένας δρόμος προς τα εμπρός
Ανάλογα με την ανταπόκριση σε αυτό το έγγραφο συζήτησης, μια ομάδα εργασίας εμπειρογνωμόνων θα συγκροτηθεί από το ISC για την περαιτέρω ανάπτυξη ή τροποποίηση του παραπάνω αναλυτικού πλαισίου μέσω του οποίου οι ενδιαφερόμενοι θα μπορούσαν να εξετάσουν διεξοδικά τυχόν σημαντικές εξελίξεις είτε των πλατφορμών είτε των διαστάσεων χρήσης. Η ομάδα εργασίας θα είναι πειθαρχικά, γεωγραφικά και δημογραφικά ποικιλόμορφη, με εμπειρογνωμοσύνη που εκτείνεται από την αξιολόγηση της τεχνολογίας έως τη δημόσια πολιτική, από την ανθρώπινη ανάπτυξη έως την κοινωνιολογία και τις μελέτες για το μέλλον και την τεχνολογία.
Για να ασχοληθείτε με αυτό το έγγραφο συζήτησης, επισκεφθείτε συμβούλιο.επιστήμη/δημοσιεύσεις/πλαίσιο-ψηφιακές-τεχνολογίες
Ευχαριστίες
Πολλοί άνθρωποι συμβουλεύτηκαν για την ανάπτυξη αυτής της εργασίας, η οποία συντάχθηκε από Sir Peter Gluckman, Πρόεδρος, ISC και Χέμα Σρίντχαρ, πρώην Κύριος Επιστήμονας, Υπουργείο Άμυνας, και νυν Κύριος Ερευνητής, Πανεπιστήμιο του Ώκλαντ, Νέα Ζηλανδία.
Ειδικότερα, ευχαριστούμε τον Λόρδο Μάρτιν Ρις, πρώην Πρόεδρο της Βασιλικής Εταιρείας και συνιδρυτή του Κέντρου για τη Μελέτη των Υπαρξιακών Κινδύνων του Πανεπιστημίου του Κέιμπριτζ. Καθηγητής Shivaji Sondhi, Καθηγητής Φυσικής, Πανεπιστήμιο της Οξφόρδης. Καθηγητής K Vijay Raghavan, πρώην κύριος επιστημονικός σύμβουλος της κυβέρνησης της Ινδίας. Amandeep Singh Gill, Απεσταλμένος του Γενικού Γραμματέα του ΟΗΕ για την Τεχνολογία. Δρ Seán Óh Éigeartaigh, Εκτελεστικός Διευθυντής, Κέντρο για τη Μελέτη των Υπαρξιακών Κινδύνων, Πανεπιστήμιο του Κέιμπριτζ. Amanda-June Brawner, Ανώτερη Σύμβουλος Πολιτικής και Ian Wiggins, Διευθυντής Διεθνών Υποθέσεων, Royal Society UK. Dr Jerome Duberry, Dr Marie-Laure Salles, Διευθυντής, Μεταπτυχιακό Ινστιτούτο της Γενεύης. κ. Chor Pharn Lee, Κέντρο για Στρατηγικά Μέλλοντα, Γραφείο Πρωθυπουργού, Σιγκαπούρη. Barend Mons και Dr Simon Hodson, την Επιτροπή Δεδομένων (CoDATA)· Καθ. Yuko Harayama, Ιαπωνία; Καθηγητής Rémi Quirion, Πρόεδρος, INGSA. Δρ Claire Craig, Πανεπιστήμιο της Οξφόρδης και πρώην Επικεφαλής Προοπτικής Διερεύνησης, Κυβερνητικό Γραφείο Επιστημών. και ο καθηγητής Yoshua Bengio, Επιστημονική Συμβουλευτική Επιτροπή του Γενικού Γραμματέα του ΟΗΕ και στο Πανεπιστήμιο του Μόντρεαλ. Η προσέγγιση της λίστας ελέγχου εγκρίθηκε γενικά και τονίστηκε η επικαιρότητα οποιασδήποτε ενέργειας από την ISC.
Εικόνα: adamichi στο iStock