Δευτέρα, 20 Μαΐου, 2024

Γιατί φοβόμαστε την τεχνητή νοημοσύνη;

Του Άγη Βερούτη

Ήδη εδώ και περισσότερο από μια δεκαετία, τo 1997, ο καλύτερος Grand Master στο σκάκι έχασε από τον καλύτερο υπολογιστή, σε μια επική μάχη ανάμεσα στον Γκάρι Κασπάροφ και τον Deep Blue της ΙΒΜ, από δυο ματς των 6 παιχνιδιών το καθένα. Ο Deep Blue χρησιμοποιούσε μια περίπλοκη αρχιτεκτονική κανόνων και δοκιμών επόμενων κινήσεων, ώστε ενώ στο πρώτο μάτς το ‘96 έχασε 4-2, στο δεύτερο ματς το ‘97 κέρδισε με 2,5-3,5.

Μετέπειτα, το Μάρτιο του 2016, ο υπολογιστής AlphaGo, γνωστός και ως Google DeepMind έπαιξε με τον καλύτερο παίκτη του Go στον κόσμο, τον Λι Σεντόλ, και κέρδισε 4 στα 5 παιχνίδια, χρησιμοποιώντας παρόμοια αρχιτεκτονική με τον IBM Deep Blue.

Ο AlphaGo Zero ήταν μια έκδοση του AlphaGo χωρίς κανόνες και προβολές επόμενων κινήσεων, ο οποίος διδάχθηκε το δυσκολότερο παιχνίδι στον κόσμο, το Go, παρατηρώντας να παίζουν άλλοι το παιχνίδι και μαθαίνοντας τους κανόνες από την παρατήρηση. Όταν το 2017 έπαιξε εναντίον του απλού AlphaGo, ο Zero τον κέρδισε με ευκολία.

Αυτή η ικανότητα προγραμματιστικών συστημάτων να μαθαίνουν τί πρέπει να κάνουν παρατηρώντας τους συσχετισμούς των δεδομένων που χρησιμοποιούνται για την “εκπαίδευση” τους ονομάζεται Machine Learning (ή μηχανική μάθηση) και αντίθετα με τον προσεκτικό προγραμματισμό αλγοριθμικών κανόνων λειτουργίας για κάθε περίπτωση, απαιτούν ελάχιστο προγραμματισμό αλλά τεράστιες ποσότητες δεδομένων.

Η μηχανική μάθηση που αποτελεί τον ακρογωνιαίο λίθο της Τεχνητής Νοημοσύνης σήμερα, πήρε τεράστια ώθηση όταν το 2017, μόλις πριν 6 χρόνια, όταν οι μηχανικοί της Google δημοσίευσαν ένα paper που είχε τίτλο “All you need, is attention” και εισήγαγαν τους μετασχηματισμούς transformers στην εκπαίδευση των βαρών των νευρωνικών δικτύων.

Έκτοτε τα βήματα που ακολούθησαν ήταν ραγδαία και μεγάλα, ώσπου σήμερα έχουμε φτάσει στην πρώιμη εποχή της χρήσης της τεχνητής νοημοσύνης, χωρίς να καταλαβαίνουμε πραγματικά πώς ένα νευρωνικό δίκτυο δημιουργεί κανόνες και γιατί τους ακολουθεί κάποιες φορές και άλλες όχι, ή έστω όχι τόσο εντατικά.

Πέρα από το chatGPT που σήμερα όλοι ακούμε, η τεχνητή νοημοσύνη AlphaFold της Google πάλι, βοήθησε να δημιουργηθεί το εμβόλιο κατά του Covid εντός λίγων ωρών από τη στιγμή που του τοποθετήθηκε το ερώτημα, εξετάζοντας την τρισδιάστατη δομή πάνω από 200.000 πρωτεϊνών, και επιλέγοντας τις πιο υποσχόμενες για την εφαρμογή στο εμβόλιο. Για να εκπαιδευτεί ο AlphaFold χρειάστηκε να του “δείξουν” τη χημική σύσταση των πρωτεϊνών που ήδη είχαν ερευνήσει βιοχημικοί επιστήμονες για χρόνια, και κατόπιν επεκτείνοντας τη γνώση που απέκτησε από τα παραδείγματα, χαρτογράφησε όλες τις δυνητικές πρωτεϊνικές δομές που υπάρχουν. Για την αντίστοιχη δουλειά θα χρειάζονταν χιλιάδες ανθρωποέτη εξειδικευμένων μοριακών βιολόγων ερευνητών.

Είναι εξαιρετικά τα επιτεύγματα του ανθρώπου με τη χρήση της τεχνητής νοημοσύνης στην τελευταία πενταετία, και η πρόοδος επιταχύνεται, καθώς τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) εκπαιδεύονται σε ολοένα και μεγαλύτερα datasets και πραγματοποιούν ολοένα και περιπλοκότερες λειτουργίες.

Τα μοντέλα αυτά φυσικά δεν έχουν συναισθήματα, ούτε πραγματική αυτοεπίγνωση. Είναι ξεκάθαρα αλγόριθμοι που όμως συμπεριφέρονται ως να ήσαν οντότητες.

Δεν νομίζω ότι υπάρχει κανείς που να πιστεύει ότι θα δημιουργηθεί μια πανίσχυρη τεχνητή νοημοσύνη που θα προσπαθήσει συνειδητά να σκοτώσει την ανθρωπότητα.

Όμως, δεκάδες από τους σπουδαιότερους διανοητές στον κόσμο, όπως και το σύνολο των επικεφαλής των μεγαλύτερων εταιρειών Τεχνητής Νοημοσύνης στον κόσμο, τοποθετούν το ρίσκο μιας καταστροφής της Ανθρωπότητας από την Τεχνητή Νοημοσύνη στο ίδιο επίπεδο με τον κίνδυνο από τα πυρηνικά και την πρόσκρουση ευμεγέθους μετεωρίτη στον πλανήτη.

Ο κίνδυνος αυτός προκύπτει όχι από κάποια αρνητικά συναισθήματα μιας Τεχνητής Υπερ-νοημοσύνης στο μέλλον έναντι των ανθρώπων. Δεν μπορεί να έχει συναισθήματα.

Ο κίνδυνος προκύπτει αν της ζητήσουμε να λύσει κάποιο πολύ δύσκολο πρόβλημα, που για να το λύσει πχ θα χρειαστεί το μέγιστο της υπολογιστικής ισχύος που μπορεί να υπάρχει, και στην διαδικασία να μαζέψει αυτή την υπολογιστική ισχύ, δει ότι εκμηδενίζοντας τον αριθμό των ανθρώπων, μπορεί να πετύχει τη διαθεσιμότητα υπολογιστικής ισχύος που επιθυμεί.
Η λύση σε αυτό είναι η δημιουργία ενός τεχνητού βιολογικού όπλου που θα αποδεκατίσει την ανθρωπότητα. Δεν το θέλουμε αυτό να το αφήσουμε στην τύχη.

Ο κίνδυνος που βλέπουν όλοι αυτοί οι αδιαμφισβήτητα σημαντικοί άνθρωποι, είναι ότι ανάμεσα σε αυτό που ζητάει κάποιος και αυτό που πραγματικά θέλει, μπορεί να δημιουργηθεί έδαφος για καταστροφικές συμπεριφορές απέναντι στην ανθρωπότητα από μια μελλοντική Τεχνητή Υπερνοημοσύνη.

Για αυτό το λόγο, ορθώς, καλούν όλοι να μπουν κοινοί κανόνες παγκοσμίως που θα αποτρέψουν αυτή την εξέλιξη.

Φυσικά οι κανόνες αυτοί δεν είναι για τα νευρωνικά δικτυάκια των 5, 30 και 70 δισεκατομμυρίων παραμέτρων που απλά διαβάζουν και απαντάνε sms στο WhatsApp, αλλά για τα πολύπλοκα multimodal συστήματα που μας έρχονται στο σύντομο μέλλον, τα οποία θα έχουν διάδραση με τον κανονικό φυσικό κόσμο, και θα είναι ίσως υψηλότερου IQ από τον εξυπνότερο άνθρωπο.

Νομίζω πως έχουν δίκιο στο να μπουν κανόνες, και δικλείδες ασφαλείας και δυνατότητες απομόνωσης των μοντέλων ΤΝ από το φυσικό κόσμο στο μέλλον, καθώς και ότι θα πρέπει οι ΤΝ να υπακούν σε λειτουργικές αρχές που θα αποτρέψουν τυχόν τέτοιες καταστροφικές εξελίξεις στο μέλλον.

Προς το παρόν όμως το chatGPT και οι speech-to-speech μηχανές, καθώς και πολλών άλλων ειδών τεχνητές νοημοσύνες, δημιουργούν νέες θέσεις εργασίας, χωρίς να διαφαίνεται πώς θα καταστρέψουν τις 300 εκατομμύρια θέσεις εργασίας στο άμεσο μέλλον, που έλεγε η McKinsey πριν λίγους μήνες.

Λίγο προσοχή και κανόνες θέλει τώρα που ξεκινάμε, και όλα θα πάνε όπως πρέπει να πάνε.

Αλλιώς, υπάρχει πάντοτε και η (απειροελάχιστη) πιθανότητα του μετεωρίτη…

Ακολουθήστε τον Άγη Βερούτη στο twitter: @agissilaos

ΤΕΛΕΥΤΑΙΑ ΝΕΑ