Οι μεγαλύτερες εταιρείες του κόσμου δεν πρέπει να αφεθούν να δρουν ανεξέλεγκτα στον μεταξύ τους ανταγωνισμό για την εκμετάλλευση της τεχνητής νοημοσύνης.
Του German Bender
Μετάφραση: Συντακτική ομάδα pass-world.gr
Ποιος είναι ο καλύτερος τρόπος για την ανάπτυξη της τεχνητής νοημοσύνης; Το ερώτημα αυτό, που επί μακρόν ήταν θεωρητικό, έχει πλέον μετατραπεί σε απτή ανησυχία, η οποία σύντομα θα απαιτήσει λήψη σημαντικών στρατηγικών αποφάσεων. Βλέπουμε δύο εντελώς διαφορετικές προσεγγίσεις να ξετυλίγονται μπροστά στα μάτια μας.
Η μία είναι η κούρσα μεταξύ των παγκόσμιων τεχνολογικών κολοσσών, η οποία ξεκίνησε με την πρόσφατη παρουσίαση του χρηματοδοτούμενου από τη Microsoft ChatGPT και προκάλεσε ήδη τις υποσχέσεις της Google και της κινεζικής εταιρείας Baidu για παρόμοια συστήματα.
Σε αυτές τις περιπτώσεις, η αγορά –ή μάλλον το κίνητρο του κέρδους– είναι ο μηχανισμός που ωθεί τις εταιρείες να λάβουν αποφάσεις, τις οποίες πιθανόν θα έπρεπε –και ίσως θα προτιμούσαν– να αναβάλουν.
Η άλλη είναι η διαδικασία της Ευρωπαϊκής Ένωσης για ρύθμιση, ιδίως μέσω της ολοκληρωμένης νομοθετικής δέσμης που θα αφορά την τεχνητή νοημοσύνη και τα σχετικά με αυτήν πρότυπα. Αυτό θα ταξινομεί τα συστήματα σύμφωνα με τέσσερα επίπεδα κινδύνου: απαράδεκτο, υψηλό, περιορισμένο και ελάχιστο/μηδενικό.
Εδώ, ο τρόπος λειτουργίας είναι δημοκρατικός και πολιτικός, μέσω της εισαγωγής νομοθεσίας και άλλων μορφών ρύθμισης.
Μέχρι στιγμής, κυρίαρχη είναι η αγορά, αν και συχνά υποστηρίζεται από κρατικά δάνεια και δημόσιες επενδύσεις στην έρευνα και την επιχειρηματικότητα. Αυτό οφείλεται εν μέρει στον ταχύτατο ρυθμό των τεχνολογικών αλλαγών, που δυσχεραίνει τους δημοκρατικούς θεσμούς και τα εθνικά κράτη στην προσπάθειά τους να συμβαδίσουν.
Νομικά και τεχνικά, η ρύθμιση της τεχνητής νοημοσύνης έχει αποδειχθεί εξαιρετικά δύσκολη.
Διεθνείς προσπάθειες
Το ChatGPT καθιστά εμφανείς ορισμένες από τις υφιστάμενες δυσκολίες και κινδύνους.
Το σύστημα είναι προσβάσιμο σε όλο τον κόσμο και πιθανότατα θα εξαπλωθεί γρήγορα όταν η Microsoft το ενσωματώσει σε πολλά προϊόντα της και επιτρέψει και σε άλλες εταιρείες να κάνουν το ίδιο.
Παρόμοια αποτελέσματα διάχυσης είναι πιθανό να υπάρξουν και με τα συστήματα τεχνητής νοημοσύνης της Google και της Baidu.
Δεν είναι προφανές πώς μπορεί να ρυθμιστεί αποτελεσματικά αυτή η εγγενώς παγκόσμια και άμορφη τεχνολογία και η επιρροή των επιμέρους χωρών μπορεί να είναι πολύ περιορισμένη. Για το λόγο αυτό, βρίσκονται σε εξέλιξη διεθνείς προσπάθειες.
Ο Εκπαιδευτικός, Επιστημονικός και Πολιτιστικός Οργανισμός των Ηνωμένων Εθνών δρομολόγησε την πρώτη παγκόσμια συμφωνία για δεοντολογία της τεχνητής νοημοσύνης το 2021 και πλέον υπάρχουν διαδικασίες σε όλο τον κόσμο –ακόμα και στις Ηνωμένες Πολιτείες– για τη ρύθμιση της τεχνητής νοημοσύνης με διάφορους τρόπους.
Η πρωτοβουλία της ΕΕ για τη δημιουργία νομοθεσίας και προτύπων για τη διασφάλιση της ηθικής και βιώσιμης τεχνητής νοημοσύνης υπήρξε καταλυτικός παράγοντας. Η επιρροή της Ένωσης δεν πρέπει να υποτιμάται: μια αγορά 500 εκατομμυρίων ανθρώπων με υψηλά εισοδήματα σε παγκόσμιο επίπεδο δεν είναι ασήμαντη.
Η ελπίδα είναι ότι μια ταχέως αναπτυσσόμενη ρύθμιση της ΕΕ θα μπορούσε να έχει εξομαλυντική επίδραση στην παγκόσμια αγορά, αν και αυτή είναι μια εξαιρετικά αβέβαιη προοπτική.
Ένα από τα εμπόδια σε αυτή την προσπάθεια σχετίζεται με τη συμμετοχή της Baidu στην κούρσα για την τεχνητή νοημοσύνη: αυταρχικές κυβερνήσεις σκοπεύουν να χρησιμοποιήσουν την τεχνολογία της τεχνητής νοημοσύνης για επιτήρηση και καταστολή.
Δεν είναι πολύ πιθανό ότι τέτοια κράτη θα συμμορφωθούν οικειοθελώς με τους κανονισμούς της ΕΕ.
Στην περίπτωση της Κίνας δεν είναι καν απαραίτητο, καθώς η εγχώρια αγορά είναι αρκετά μεγάλη, ώστε η τεχνολογία τεχνητής νοημοσύνης να αναπτύσσεται γρήγορα και σύμφωνα με εντελώς διαφορετικούς κανόνες και νόρμες από ό,τι στις ΗΠΑ ή την Ευρώπη.
Εκρηκτική εξάπλωση
Μέσα σε δύο μήνες από την έναρξή του, το ChatGPT είχε συγκεντρώσει 100 εκατομμύρια χρήστες.
Οι δυνάμεις της αγοράς μπορούν να προκαλέσουν μια εκρηκτική εξάπλωση των τεχνολογιών τεχνητής νοημοσύνης, οι οποίες μάλιστα δεν είναι πλήρως κατανοητές από τις εταιρείες που τις αναπτύσσουν και τις οποίες διστάζουν να εξηγήσουν στους τρίτους εκτός των εταιριών.
Αρκετοί χρήστες κατάφεραν να «ξεγελάσουν» το ChatGPT, ώστε να δώσει απαντήσεις για τις οποίες δεν θα έπρεπε να είναι ικανό: να δώσει συνταγές για ναρκωτικά ή εκρηκτικά και να εκφράσει ρατσιστικές απόψεις.
Γιατί το ChatGPT εμφανίζει αυτή την απροσδόκητη και αντιφατική συμπεριφορά; Κανείς δεν γνωρίζει πραγματικά και η εταιρεία που βρίσκεται πίσω από αυτή την τεχνολογία, η OpenAI, δεν είναι καθόλου ανοιχτή σε ό,τι αφορά τις πληροφορίες.
Έτσι ρώτησα το ChatGPT. Με κρυπτικό τρόπο, μου απάντησε: «[Α]υτό, ως μοντέλο τεχνητής νοημοσύνης που εκπαιδεύεται από την OpenAI, βρίσκεται διαρκώς υπό ανάπτυξη και βελτίωση».
Μοιάζει πολύ δύσκολο, ακόμη και για τους δημιουργούς του συστήματος, να ρυθμίσουν τη χρήση και τη λειτουργικότητά του. Ακόμη μεγαλύτερη προσοχή θα πρέπει να διέπει τη χρήση και τη διάδοση πιο πολύπλοκων συστημάτων, με ακόμη πιο σοβαρές συνέπειες που δεν μπορούμε να προβλέψουμε και να αποτρέψουμε.
Οι κίνδυνοι από το να αφήσουμε την αγορά να διαδώσει την τεχνολογία τεχνητής νοημοσύνης, πυροδοτώντας παράλληλα μια κούρσα εξοπλισμών μεταξύ των ανταγωνιστών, θα πρέπει να είναι προφανείς.
Πιθανές βλάβες
Πολλοί μελετητές έχουν επισημάνει τους κοινωνικούς κινδύνους από την ταχεία και ανεξέλεγκτη ανάπτυξη της τεχνητής νοημοσύνης.
Ο Daron Acemoglu, καθηγητής οικονομικών στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης, έχει προειδοποιήσει ότι η ταχεία τεχνολογική αλλαγή πρέπει να συνδυαστεί με μεταρρυθμίσεις για την ευημερία και την αγορά εργασίας για να αποφευχθεί η αυξανόμενη ανισότητα, η διάβρωση της δημοκρατίας και η εντεινόμενη πόλωση.
Μια παρόμοια προσέγγιση έχει προτείνει ο οικονομολόγος του Χάρβαρντ Dani Rodrik: «Οι κυβερνητικές πολιτικές μπορούν να συμβάλλουν στην καθοδήγηση της αυτοματοποίησης και των τεχνολογιών τεχνητής νοημοσύνης προς μια πιο φιλική για την εργασία πορεία, που θα συμπληρώνει τις δεξιότητες των εργαζομένων αντί να τις αντικαθιστά».
Ο Σουηδός μαθηματικός Olle Häggström, ειδικός στους υπαρξιακούς κινδύνους της τεχνητής νοημοσύνης, έχει προειδοποιήσει εδώ και καιρό για τις πιθανές βλάβες που κυμαίνονται από την επιτήρηση και την ανεργία μέχρι τα αυτόνομα οπλικά συστήματα και ένα μέλλον, όπου οι μηχανές απλώς θα καταλάβουν τον κόσμο.
Έχει ανησυχήσει για την έναρξη της ChatGPT. Τη βλέπει ως ένδειξη του πόσο δύσκολο θα είναι το λεγόμενο πρόβλημα της ευθυγράμμισης της τεχνητής νοημοσύνης απέναντι σε πιο εξελιγμένα και άρα πιο επικίνδυνα συστήματα. Δηλαδή, πόσο δύσκολος θα είναι ο σχεδιασμός σε ένα σύστημα τεχνητής νοημοσύνης όλων των προστατευτικών κιγκλιδωμάτων για να μην ξεφύγουν από τον δρόμο τους αυτά τα συστήματα.
Υπάρχει λόγος να σταματήσουμε ή να περιορίσουμε αυστηρά ορισμένους τύπους συστημάτων μέχρι να τους κατανοήσουμε καλύτερα. Αυτό θα απαιτούσε εκτεταμένη συζήτηση, εκπαίδευση και επικοινωνία, δημοκρατικά θεμελιωμένες.
Διαφορετικά, είναι πιθανό να υπάρξουν αντιδράσεις από το κοινό που στερείται αυτές τις τεχνολογίες (ειδικά αν οι άνθρωποι σε άλλες χώρες μπορούν να τις χρησιμοποιήσουν). Αυτό έχει ήδη συμβεί με τον Γενικό Κανονισμό για την Προστασία Δεδομένων: ενώ έχει πολλές θετικές πτυχές, ο ΓΚΠΔ είναι ευρέως αντιπαθής και γελοιοποιημένος, καθώς η ΕΕ έχει καταφέρει να εμφανιστεί ως γραφειοκρατικός κολοσσός που έχει σκοπό να δυσκολέψει τη χρήση του Διαδικτύου από τους απλούς ανθρώπους.
Περισσότερα και καλύτερα συστήματα
Ορισμένοι θεωρούν ότι η ρύθμιση της τεχνητής νοημοσύνης αποτελεί εμπόδιο στην καινοτομία και προειδοποιούν ότι η ευρωπαϊκή προσέγγιση θα μπορούσε να μετατρέψει την ΕΕ σε ένα υποβαθμισμένο τμήμα της τεχνητής νοημοσύνης. Εν τω μεταξύ, οι ΗΠΑ και η Κίνα, υποστηρίζουν οι ίδιοι, θα προχωρούν μπροστά, έχοντας λιγότερες ανησυχίες για τη νομοθεσία, τα βιομηχανικά πρότυπα και τις ηθικές κατευθυντήριες γραμμές.
Φυσικά, η ευρωπαϊκή ρύθμιση δεν είναι τέλεια και τα κράτη δεν είναι πάντα καλοπροαίρετα ούτε σοφά. Είναι σαφές ότι χρειαζόμαστε έναν συνδυασμό αγοράς και ρύθμισης. Αλλά δεδομένων των πιθανών κινδύνων και του γρήγορου ρυθμού της τεχνολογικής ανάπτυξης και διάδοσης, είχαμε πάρα πολύ από το πρώτο και πολύ λίγο από το δεύτερο.
Οι αγορές δεν εξουδετερώνουν επαρκώς τις «αρνητικές εξωτερικότητες» (ανεπιθύμητες παρενέργειες). Δεν διανέμουν την οικονομική αξία που δημιουργεί η τεχνολογία με βιώσιμο και ισότιμο τρόπο. Δεν ενσωματώνουν κοινωνικές ή πολιτικές εκτιμήσεις. Και σπάνια συμβάλλουν σε τεχνολογικές λύσεις που ωφελούν το κοινωνικό σύνολο.
Οι περισσότεροι από εμάς θέλουμε περισσότερη και καλύτερη τεχνητή νοημοσύνη. Αλλά γι’ αυτό, χρειαζόμαστε περισσότερη και καλύτερη ρύθμιση.
Για τον συγγραφέα
Ο German Bender είναι επικεφαλής αναλυτής στη δεξαμενή σκέψης Arena Idé, με έδρα τη Στοκχόλμη και υποψήφιος διδάκτωρ στη Σχολή Οικονομικών Επιστημών της Στοκχόλμης. Επί του παρόντος είναι επισκέπτης ερευνητής στο Κέντρο Εργασίας και Δίκαιης Οικονομίας της Νομικής Σχολής του Χάρβαρντ.
Το άρθρο δημοσιεύτηκε στο Social Europe, στις 15 Φεβρουαρίου 2023.
Διαβάστε επίσης:
Οι φιλόσοφοι με τα μάτια της Τεχνητής Νοημοσύνης
Σωματείο εργαζομένων Google: «Έχουμε ευθύνη για την τεχνολογία που φέρνουμε στον κόσμο»