Ποιοι είναι οι απτοί κίνδυνοι της τεχνητής νοημοσύνης;

Possessed Photography/Unsplash

Έξι επιστήμονες στον τομέα της τεχνολογίας μιλούν για τις επείγουσες απειλές που θέτει η τεχνητή νοημοσύνη και την ανάγκη θεσμοθέτησης ρυθμίσεων. Παράλληλα, στέκονται κριτικά απέναντι στις πρόσφατες ανοιχτές επιστολές συναδέλφων τους που κάνουν λόγο για κίνδυνο αφανισμού της ανθρωπότητας από την τεχνητή νοημοσύνη, υπογραμμίζοντας ότι η επίκληση αόριστων μελλοντικών υπαρξιακών κινδύνων μπορεί να αποσπάσει την προσοχή μας από την αντιμετώπιση πολύ απτών και πιο άμεσων υπαρκτών απειλών.


Των Nuria Oliver, Bernhard Schölkopf, Florence d’Alché-Buc, Nicolò Cesa-Bianchi, Sepp Hochreiter, Serge Belongie

Μετάφραση: Συντακτική ομάδα pass-world.gr


Τους τελευταίους μήνες, η τεχνητή νοημοσύνη (ΤΝ) έχει εισέλθει στην παγκόσμια συζήτηση ως αποτέλεσμα της ευρείας υιοθέτησης εργαλείων βασισμένων στην παραγωγική ΤΝ, όπως τα chatbots και τα προγράμματα αυτόματης δημιουργίας εικόνων. Διακεκριμένοι επιστήμονες και τεχνολόγοι της ΤΝ έχουν εκφράσει ανησυχίες σχετικά με τους υποθετικούς υπαρξιακούς κινδύνους που εγκυμονούν αυτές οι εξελίξεις.

Έχοντας εργαστεί στην τεχνητή νοημοσύνη για δεκαετίες, αυτή η έξαρση της δημοτικότητας και ο εντυπωσιασμός που ακολούθησε μας εξέπληξε.

Στόχος μας με αυτό το άρθρο δεν είναι να ανταγωνιστούμε, αλλά να εξισορροπήσουμε τη δημόσια αντίληψη, η οποία φαίνεται να κυριαρχείται δυσανάλογα από φόβους για υποθετικές υπαρξιακές απειλές που σχετίζονται με την ΤΝ.

Δεν είναι ο ρόλος μας να πούμε ότι κανείς δεν μπορεί ή δεν πρέπει να ανησυχεί για τους πιο εξωτικούς κινδύνους. Ως μέλη του Ευρωπαϊκού Εργαστηρίου Μάθησης και Ευφυών Συστημάτων (ELLIS), ενός οργανισμού με ερευνητική βάση που επικεντρώνεται στη μηχανική μάθηση, θεωρούμε ο ρόλος μας είναι να αντιμετωπίσουμε αυτούς τους κινδύνους μέσα σε μια ρεαλιστική προοπτική, ιδίως στο πλαίσιο κυβερνητικών οργανισμών που εξετάζουν ρυθμιστικές δράσεις με τη συμβολή τεχνολογικών εταιρειών.

Τι είναι η τεχνητή νοημοσύνη;

Η τεχνητή νοημοσύνη είναι ένας κλάδος της επιστήμης των υπολογιστών ή της μηχανικής που διαμορφώθηκε τη δεκαετία του 1950. Φιλοδοξεί να δημιουργήσει ευφυή υπολογιστικά συστήματα, έχοντας ως σημείο αναφοράς την ανθρώπινη νοημοσύνη.

Με τον ίδιο τρόπο που η ανθρώπινη νοημοσύνη είναι πολύπλοκη και ποικιλόμορφη, υπάρχουν πολλοί τομείς στην τεχνητή νοημοσύνη που μιμούνται πτυχές της ανθρώπινης νοημοσύνης: από την αντίληψη έως τη συλλογιστική, τον προγραμματισμό και τη λήψη αποφάσεων.

Michael Dziedzic/Unpslash

Ανάλογα με το επίπεδο ικανότητάς τους, τα συστήματα τεχνητής νοημοσύνης χωρίζονται σε τρία επίπεδα:

  1. Στενή ή αδύναμη τεχνητή νοημοσύνη, η οποία αναφέρεται σε συστήματα τεχνητής νοημοσύνης που είναι σε θέση να εκτελούν συγκεκριμένες εργασίες ή να επιλύουν συγκεκριμένα προβλήματα, έχοντας πολλά από αυτά σήμερα επίπεδο επιδόσεων ανώτερο από τους ανθρώπους.

Όλα τα συστήματα τεχνητής νοημοσύνης σήμερα είναι στενά συστήματα τεχνητής νοημοσύνης. Παραδείγματα αποτελούν τα chatbots όπως το chatGPT, οι φωνητικοί βοηθοί όπως η Siri και η Alexa, τα συστήματα αναγνώρισης εικόνων και οι αλγόριθμοι συστάσεων.

2. Γενική ή ισχυρή ΤΝ, η οποία αναφέρεται σε συστήματα ΤΝ που παρουσιάζουν επίπεδο νοημοσύνης παρόμοιο με αυτό των ανθρώπων, συμπεριλαμβανομένης της ικανότητας κατανόησης, εκμάθησης και εφαρμογής γνώσεων σε ένα ευρύ φάσμα εργασιών και ενσωματώνοντας έννοιες όπως η συνείδηση.

Η γενική τεχνητή νοημοσύνη βρίσκεται σε μεγάλο βαθμό στο επίπεδο των υποθέσεων και δεν έχει υλοποιηθεί μέχρι σήμερα.

3. Super τεχνητή νοημοσύνη, που αναφέρεται σε συστήματα με νοημοσύνη ανώτερη από την ανθρώπινη σε όλες τις εργασίες. Εξ ορισμού, δεν είμαστε σε θέση να κατανοήσουμε αυτό το είδος νοημοσύνης, με τον ίδιο τρόπο που ένα μυρμήγκι δεν είναι σε θέση να κατανοήσει τη δική μας νοημοσύνη. Η σούπερ τεχνητή νοημοσύνη είναι μια ακόμη πιο υποθετική έννοια από τη γενική τεχνητή νοημοσύνη.

Η τεχνητή νοημοσύνη μπορεί να εφαρμοστεί σε κάθε τομέα, από την εκπαίδευση μέχρι τις μεταφορές, την υγειονομική περίθαλψη, τη νομοθεσία ή την παραγωγή. Έτσι, αλλάζει βαθιά όλες τις πτυχές της κοινωνίας.

Ακόμη και στη “στενή μορφή” της ΤΝ, έχει σημαντικές δυνατότητες να δημιουργήσει βιώσιμη οικονομική ανάπτυξη και να μας βοηθήσει να αντιμετωπίσουμε τις πιο πιεστικές προκλήσεις του 21ου αιώνα, όπως η κλιματική αλλαγή, οι πανδημίες και η ανισότητα.

Προκλήσεις που θέτουν τα σημερινά συστήματα τεχνητής νοημοσύνης

Η υιοθέτηση συστημάτων λήψης αποφάσεων με βάση την ΤΝ την τελευταία δεκαετία σε ένα ευρύ φάσμα τομέων, από τα μέσα κοινωνικής δικτύωσης έως την αγορά εργασίας, δημιουργεί επίσης σημαντικούς κοινωνικούς κινδύνους και προκλήσεις που πρέπει να κατανοηθούν και να αντιμετωπιστούν.

Η πρόσφατη εμφάνιση εξαιρετικά ικανών μεγάλων, παραγωγικών προ-εκπαιδευμένων μοντέλων μετασχηματιστών (GPT) επιδεινώνει πολλές από τις υπάρχουσες προκλήσεις, ενώ δημιουργεί νέες που χρήζουν προσεκτικής κατανόησης.

Η άνευ προηγουμένου κλίμακα και η ταχύτητα με την οποία τα εργαλεία αυτά έχουν υιοθετηθεί από εκατοντάδες εκατομμύρια ανθρώπους σε όλο τον κόσμο δημιουργεί περαιτέρω πίεση στα κοινωνικά και ρυθμιστικά μας συστήματα.

Υπάρχουν ορισμένες εξαιρετικά σημαντικές προκλήσεις που πρέπει να αποτελέσουν προτεραιότητά μας:

  • Η χειραγώγηση της ανθρώπινης συμπεριφοράς από αλγορίθμους τεχνητής νοημοσύνης με δυνητικά καταστροφικές κοινωνικές συνέπειες στη διάδοση ψευδών πληροφοριών, στη διαμόρφωση της κοινής γνώμης και στα αποτελέσματα των δημοκρατικών διαδικασιών.
  • Αλγοριθμικές προκαταλήψεις και διακρίσεις που όχι μόνο διαιωνίζουν αλλά και επιδεινώνουν στερεότυπα, μοτίβα διακρίσεων ή ακόμη και καταπίεση.
  • Η έλλειψη διαφάνειας τόσο στα μοντέλα όσο και στις χρήσεις τους.
  • Η παραβίαση της ιδιωτικής ζωής και η χρήση τεράστιων ποσοτήτων εκπαιδευτικών δεδομένων χωρίς τη συγκατάθεση ή την αποζημίωση των δημιουργών τους.
  • Η εκμετάλλευση των εργαζομένων που σχολιάζουν, εκπαιδεύουν και διορθώνουν τα συστήματα τεχνητής νοημοσύνης, πολλοί από τους οποίους βρίσκονται σε αναπτυσσόμενες χώρες με πενιχρούς μισθούς.
  • Το τεράστιο αποτύπωμα άνθρακα των μεγάλων κέντρων δεδομένων και των νευρωνικών δικτύων που απαιτούνται για την κατασκευή αυτών των συστημάτων ΤΝ.
  • Η έλλειψη ειλικρίνειας στα συστήματα τεχνητής νοημοσύνης που εφευρίσκουν πιστευτό περιεχόμενο (εικόνες, κείμενα, ήχους, βίντεο…) χωρίς αντιστοιχία με τον πραγματικό κόσμο.
  • Η ευθραυστότητα αυτών των μεγάλων μοντέλων που μπορούν να κάνουν λάθη και να εξαπατηθούν.
  • Ο εκτοπισμός θέσεων εργασίας και συρρίκνωσης επαγγελμάτων.
  • Η συγκέντρωση δύναμης στα χέρια ενός ολιγοπωλίου όσων ελέγχουν τα σημερινά συστήματα τεχνητής νοημοσύνης.
Markus Winkles/Unsplash

Αποτελεί η τεχνητή νοημοσύνη πραγματικά υπαρξιακό κίνδυνο για την ανθρωπότητα;

Δυστυχώς, αντί να επικεντρωθεί σε αυτούς τους απτούς κινδύνους, η δημόσια συζήτηση ––κυρίως οι πρόσφατες ανοικτές επιστολές– έχει επικεντρώνεται περισσότερο σε υποθετικούς υπαρξιακούς κινδύνους της ΤΝ.

Η έννοια του υπαρξιακού κινδύνου αναφέρεται σε ένα πιθανό γεγονός ή σενάριο που αποτελεί απειλή για την ύπαρξη της ανθρωπότητας, με συνέπειες που θα μπορούσαν να βλάψουν ή να καταστρέψουν ανεπανόρθωτα τον ανθρώπινο πολιτισμό και, ως εκ τούτου, να οδηγήσουν στην εξαφάνιση του είδους μας. Ένα παγκόσμιο καταστροφικό γεγονός (όπως η πρόσκρουση αστεροειδούς ή μια πανδημία), η καταστροφή ενός βιώσιμου πλανήτη (λόγω της κλιματικής αλλαγής, της αποψίλωσης των δασών ή της εξάντλησης κρίσιμων πόρων όπως το νερό και ο καθαρός αέρας) ή ένας παγκόσμιος πυρηνικός πόλεμος αποτελούν παραδείγματα υπαρξιακών κινδύνων.

Ο κόσμος μας αντιμετωπίζει σίγουρα μια σειρά από κινδύνους και οι μελλοντικές εξελίξεις είναι δύσκολο να προβλεφθούν. Εν όψει αυτής της αβεβαιότητας, πρέπει να δώσουμε προτεραιότητα στις προσπάθειές μας. Η απομακρυσμένη πιθανότητα μιας ανεξέλεγκτης υπερ-νοημοσύνης πρέπει επομένως να εξεταστεί σε ένα πλαίσιο, και αυτό περιλαμβάνει το πλαίσιο των 3,6 δισεκατομμυρίων ανθρώπων στον κόσμο που είναι εξαιρετικά ευάλωτοι λόγω της κλιματικής αλλαγής, του περίπου 1 δισεκατομμυρίου ανθρώπων που ζουν με λιγότερο από 1 δολάριο ΗΠΑ την ημέρα ή των 2 δισεκατομμυρίων ανθρώπων που πλήττονται από συγκρούσεις. Πρόκειται για πραγματικούς ανθρώπους των οποίων οι ζωές βρίσκονται σήμερα σε σοβαρό κίνδυνο, έναν κίνδυνο που σίγουρα δεν προκλήθηκε από την υπερ-ΤΝ.

Η επικέντρωση σε έναν υποθετικό υπαρξιακό κίνδυνο αποσπά την προσοχή μας από τις τεκμηριωμένες σοβαρές προκλήσεις που θέτει σήμερα η Τεχνητή Νοημοσύνη, δεν περιλαμβάνει τις διαφορετικές οπτικές γωνίες της ευρύτερης ερευνητικής κοινότητας και συμβάλλει σε περιττό πανικό στον πληθυσμό.

Η κοινωνία θα ωφεληθεί σίγουρα από τη συμπερίληψη της απαραίτητης ποικιλομορφίας, πολυπλοκότητας και αποχρώσεων αυτών των ζητημάτων και από τον σχεδιασμό συγκεκριμένων και συντονισμένων εφαρμόσιμων λύσεων για την αντιμετώπιση των σημερινών προκλήσεων της ΤΝ, συμπεριλαμβανομένης της ρύθμισης. Η αντιμετώπιση αυτών των προκλήσεων απαιτεί τη συνεργασία και τη συμμετοχή των πιο επηρεαζόμενων τομέων της κοινωνίας μαζί με την απαραίτητη τεχνική και διοικητική εμπειρογνωμοσύνη. Είναι καιρός να δράσουμε τώρα με φιλοδοξία και σοφία – και σε συνεργασία.

Το άρθρο δημοσιεύτηκε στο Conversation.

Για τους συγγραφείς

Η Nuria Oliver είναι Διευθύντρια του Ιδρύματος ELLIS Alicante και ομότιμη καθηγήτρια του Πανεπιστημίου του Αλικάντε στην Ισπανία. profesora honoraria de la Universidad de Alicante, Universidad de Alicante

Ο Bernhard Schölkopf είναι κορυφαίος ερευνητής σε ζητήματα Τεχνητής Νοημοσύνης και Διευθυντής στο Ινστιτούτο Max Planck για τα Ευφυή Συστήματα

Η Florence d’Alché-Buc είναι Καθηγήτρια και συνεργάτης της Télécom Paris – Institut Mines-Télécom.

Ο Nicolò Cesa-Bianchi είναι Καθηγητής της Επιστήμης των Υπολογιστών στο Πανεπιστήμιο του Μιλάνου.

Ο Sepp Hochreiter διευθύνει το Ινστιτούτο για την Εκμάθηση Μηχανών στο Πανεπιστήμιο Johannes Kepler Linz.

Ο Serge Belongie είναι Καθηγητής της Επιστήμης των Υπολογιστών στο Πανεπιστήμιο της Κοπεγχάγης.

Όλοι οι συγγραφείς του παρόντος άρθρου είναι μέλη του Διοικητικού Συμβουλίου του Ευρωπαϊκού Εργαστηρίου Μάθησης και Ευφυών Συστημάτων (ELLIS).

Διαβάστε επίσης:

Το ChatGPT και η ανησυχητική παγκόσμια κούρσα για την εκμετάλλευση της Τεχνητής Νοημοσύνης

Οι φιλόσοφοι με τα μάτια της Τεχνητής Νοημοσύνης