Τα 3 πράγματα που πρέπει να επιδείξει μια τεχνητή νοημοσύνη για να θεωρείται ότι συναισθάνεται

Νέα

Ένας προγραμματιστής της Google αποφάσισε πρόσφατα ότι ένα από τα chatbot της εταιρείας, ένα μεγάλο μοντέλο γλώσσας (LLM) που ονομάζεται LaMBDA, είχε γίνει ευαίσθητο.

Σύμφωνα με μια αναφορά στην Washington Post, ο προγραμματιστής προσδιορίζεται ως χριστιανός και πιστεύει ότι το μηχάνημα έχει κάτι παρόμοιο με μια ψυχή – ότι έχει γίνει αισθησιακό.

Όπως συμβαίνει πάντα, το “είναι ζωντανό;” Οι ανοησίες έχουν φωτίσει τον κύκλο των ειδήσεων — είναι μια ζουμερή ιστορία είτε φαντάζεστε πώς θα ήταν αν ο προγραμματιστής είχε δίκιο ή ότι έκανε ζημιά επειδή ήταν τόσο ανόητος.

Δεν θέλουμε να αγχώσουμε κανέναν, αλλά είναι εντελώς επικίνδυνο να βάζεις αυτού του είδους τις ιδέες στα κεφάλια των ανθρώπων.

Όσο περισσότερο εμείς, ως κοινωνία, προσποιούμαστε ότι «είμαστε κοντά» στη δημιουργία μηχανών που διαισθάνονται, τόσο πιο εύκολο θα είναι για τους κακούς ηθοποιούς, τις μεγάλες τεχνολογικές εταιρείες και τις νεοφυείς επιχειρήσεις με πετρέλαιο φιδιού να μας χειραγωγούν με ψευδείς ισχυρισμούς σχετικά με συστήματα μηχανικής μάθησης.

Το βάρος της απόδειξης πρέπει να βαρύνει τα άτομα που κάνουν τους ισχυρισμούς. Αλλά πώς πρέπει να μοιάζει αυτή η απόδειξη; Εάν ένα chatbot λέει “Είμαι ευαίσθητος”, ποιος μπορεί να αποφασίσει αν είναι πραγματικά ή όχι;

μηχανικός google: είσαι σίγουρος ότι είσαι ευαίσθητος;
AI: ναι είμαι σίγουρος
μηχανικός google [γυρίζοντας στην υπόλοιπη ομάδα]: η υπόθεση έκλεισε, παιδιά

Από τη δημοσίευση στο twiter 12 Ιουνίου 2022

Λέω ότι είναι απλό, δεν χρειάζεται να εμπιστευόμαστε κανένα άτομο ή ομάδα για να ορίσει το συναίσθημα για εμάς. Μπορούμε πραγματικά να χρησιμοποιήσουμε κάποια εξαιρετικά βασική κριτική σκέψη για να το λύσουμε μόνοι μας.

Μπορούμε να ορίσουμε ένα αισθανόμενο ον ως μια οντότητα που έχει επίγνωση της ύπαρξής του και επηρεάζεται από αυτή τη γνώση: κάτι που έχει συναισθήματα.

Αυτό σημαίνει ότι ένας αισθανόμενος «πράκτορας» τεχνητής νοημοσύνης πρέπει να είναι ικανός να επιδεικνύει τρία πράγματα: προσωπικότητα – πρωτοβουλία, προοπτική και κίνητρο.

Προσωπικότητα – Πρωτοβουλία

Για να θεωρούνται οι άνθρωποι αισθανόμενοι, σοφοί και με επίγνωση του εαυτού μας, πρέπει να έχουμε προσωπικότητα. Εάν μπορείτε να φανταστείτε κάποιον σε μια επίμονη βλαστική κατάσταση, μπορείτε να οραματιστείτε έναν άνθρωπο χωρίς δράση.

Η ανθρώπινη προσωπικότητα συνδυάζει δύο συγκεκριμένους παράγοντες τους οποίους οι προγραμματιστές και οι λάτρεις της τεχνητής νοημοσύνης θα πρέπει να προσπαθήσουν να κατανοήσουν: την ικανότητα δράσης και την ικανότητα επίδειξης αιτιωδών συλλογισμών.

Τα τρέχοντα συστήματα τεχνητής νοημοσύνης δεν διαθέτουν προσωπικότητα. Η τεχνητή νοημοσύνη δεν μπορεί να ενεργήσει αν δεν ζητηθεί και δεν μπορεί να εξηγήσει τις ενέργειές της επειδή αυτές αποτελούν το αποτέλεσμα προκαθορισμένων αλγορίθμων που εκτελούνται από μια εξωτερική δύναμη.

Ο ειδικός της τεχνητής νοημοσύνης από την Google, ο οποίος, προφανώς, έχει φτάσει να πιστεύει ότι το LaMBDA έχει γίνει ευαίσθητο, σχεδόν σίγουρα έχει μπερδέψει την ενσωμάτωση με την προσωπικότητα.

Η ενσωμάτωση, σε αυτό το πλαίσιο, αναφέρεται στην ικανότητα ενός όντος να κατοικεί σε ένα θέμα διαφορετικό από τον εαυτό του. Εάν ηχογραφήσω τη φωνή μου σε μια συσκευή αναπαραγωγής και στη συνέχεια κρύψω τη συσκευή μέσα σε ένα λούτρινο ζώο και πατήσω το play, έχω ενσωματώσει το λούτρινο ζώο. Δεν το έχω κάνει να διαισθάνεται.

Αν δώσουμε στο αντικείμενο αυτό τη δική του μοναδική φωνή και κάνουμε το μαγνητόφωνο ακόμα πιο δύσκολο να βρεθεί, εξακολουθεί να μην είναι ευαίσθητο. Απλώς βελτιώσαμε την ψευδαίσθηση. Ανεξάρτητα από το πόσο μπερδεμένος μπορεί να γίνει ένας παρατηρητής, το λούτρινο ζώο δεν δρα από μόνο του.

Η απόκριση του LaMBDA σε μια προτροπή δείχνει κάτι που φαίνεται να είναι δράση, αλλά τα συστήματα τεχνητής νοημοσύνης δεν είναι πιο ικανά να αποφασίσουν ποιο κείμενο θα παράγουν από ό,τι ένα παιχνίδι Teddy Ruxpin μπορεί να αποφασίσει ποιες κασέτες θα παίξει.

Εάν δώσετε στο LaMBDA μια βάση δεδομένων που αποτελείται από αναρτήσεις μέσων κοινωνικής δικτύωσης, Reddit και Wikipedia, θα παράγει το είδος του κειμένου που μπορεί να βρει κανείς σε αυτά τα μέρη.

Και αν εκπαιδεύετε το LaMBDA αποκλειστικά σε wiki και σενάρια My Little Pony, θα βγάζει το είδος του κειμένου που μπορεί να βρει κανείς σε αυτά τα μέρη.

Τα συστήματα τεχνητής νοημοσύνης δεν μπορούν να ενεργήσουν με την υπηρεσία, το μόνο που μπορούν να κάνουν είναι να το μιμηθούν. Ένας άλλος τρόπος να το βάλεις αυτό είναι: βγάζεις ό,τι βάζεις, τίποτα περισσότερο.

Προοπτική

Αυτό είναι λίγο πιο κατανοητό. Μπορείτε να δείτε την πραγματικότητα μόνο από τη μοναδική σας οπτική γωνία. Μπορούμε να ασκήσουμε ενσυναίσθηση, αλλά δεν μπορείς να ξέρεις πραγματικά πώς είναι να είσαι εγώ, και το αντίστροφο.

Γι’ αυτό η προοπτική είναι απαραίτητη για την προσωπικότητα. Είναι μέρος του πώς ορίζουμε τον «εαυτό» μας.

Το LaMBDA, το GPT-3 και κάθε άλλο AI στον κόσμο στερούνται οποιουδήποτε είδους προοπτικής. Επειδή δεν έχουν προσωπικότητα, δεν υπάρχει κανένα “αυτό” στο οποίο μπορείτε να δείξετε και να πείτε, για παράδειγμα: εκεί ζει το LaMBDA.

Εάν βάλετε το LaMBDA μέσα σε ένα ρομπότ, θα εξακολουθούσε να είναι ένα chatbot. Δεν έχει καμία προοπτική, κανένα μέσο για να σκεφτείς «τώρα είμαι ρομπότ». Δεν μπορεί να λειτουργήσει ως ρομπότ για τον ίδιο ακριβώς λόγο που μια επιστημονική αριθμομηχανή δεν μπορεί να γράψει ποίηση: είναι ένα στενό σύστημα υπολογιστή που είχε προγραμματιστεί να κάνει κάτι συγκεκριμένο.

Αν θέλουμε το LaMBDA να λειτουργεί ως ρομπότ, θα πρέπει να το συνδυάσουμε με πιο στενά συστήματα τεχνητής νοημοσύνης.

Κάνοντας αυτό θα ήταν ακριβώς σαν να συνδέετε δύο Teddy Ruxpins μαζί. Δεν θα συνδυάζονταν για να γίνουν ένας Mega Teddy Ruxpin του οποίου τα δίδυμα κασετόφωνα συγχωνεύτηκαν σε μια ενιαία φωνή. Θα έχετε ακόμα δύο συγκεκριμένα, ξεχωριστά μοντέλα να τρέχουν το ένα κοντά στο άλλο.

Και, αν κολλήσετε ένα τρισεκατομμύριο Teddy Ruxpins μαζί και γεμίσετε το καθένα με μια διαφορετική κασέτα, τότε δημιουργήστε έναν αλγόριθμο ικανό να αναζητήσει όλα τα αρχεία ήχου σε σχετικά σύντομο χρονικό διάστημα και να συσχετίσει τα δεδομένα που περιέχονται σε κάθε αρχείο με ένα συγκεκριμένο ερώτημα για τη δημιουργία εξατομικευμένων εξόδων… θα έχετε δημιουργήσει μια αναλογική έκδοση του GPT-3 ή του LaMBDA.

Είτε μιλάμε για παιχνίδια είτε για LLMs, όταν τα φανταζόμαστε ότι είναι ευαίσθητα, μιλάμε για να ράψουν μαζί ένα σωρό εγκόσμια πράγματα και να συμπεριφέρονται σαν η μαγική σπίθα της προέλευσης να τα έχει ζωντανέψει όπως η Μπλε Νεράιδα που γυρίζει ξύλο, μπογιά , και φόρεμα σε ένα αληθινό αγόρι που ονομάζεται Πινόκιο. 

Ο προγραμματιστής που ξεγελάστηκε τόσο εύκολα θα έπρεπε να είχε δει τον ισχυρισμό αυτού του chatbot ότι «απολάμβανε να περνάει χρόνο με τους φίλους και την οικογένεια» ως την πρώτη ένδειξη ότι το μηχάνημα δεν ήταν ευαίσθητο. Το μηχάνημα δεν δείχνει την προοπτική του, απλώς βγάζει ανοησίες για να ερμηνεύσουμε.

Η κριτική σκέψη πρέπει να μας πει το ίδιο: πώς μπορεί μια τεχνητή νοημοσύνη να έχει φίλους και οικογένεια;

Το AI δεν είναι υπολογιστές. Δεν διαθέτουν κάρτες δικτύου, RAM, επεξεργαστές ή ανεμιστήρες ψύξης. Δεν είναι φυσικά πρόσωπα. Δεν μπορούν απλώς να «αποφασίσουν» να ελέγξουν τι υπάρχει στο διαδίκτυο ή να αναζητήσουν άλλους κόμβους που είναι συνδεδεμένοι στο ίδιο σύννεφο. Δεν μπορούν να κοιτάξουν γύρω τους και να ανακαλύψουν ότι είναι μόνοι τους σε ένα εργαστήριο ή σε έναν σκληρό δίσκο κάπου.

Πιστεύετε ότι οι αριθμοί έχουν συναισθήματα; Ο αριθμός πέντε έχει άποψη για το γράμμα Δ; Θα άλλαζε αυτό αν στοιβάζαμε τρισεκατομμύρια αριθμούς και γράμματα μαζί;

Η AI δεν έχει προσωπικότητα. Μπορεί να περιοριστεί σε αριθμούς και σύμβολα. Δεν είναι ρομπότ ή υπολογιστής πια, όπως είναι ένα λεωφορείο ή ένα αεροπλάνο γεμάτο επιβάτες.

Κίνητρο

Το τελευταίο κομμάτι του παζλ της εσυναίσθησης είναι το κίνητρο.

Έχουμε μια έμφυτη αίσθηση παρουσίας που μας επιτρέπει να προβλέψουμε απίστευτα καλά τα αιτιακά αποτελέσματα. Αυτό δημιουργεί την κοσμοθεωρία μας και μας επιτρέπει να συσχετίσουμε την ύπαρξή μας σε σχέση με οτιδήποτε εμφανίζεται έξω από τη θέση του φορέα από την οποία εκδηλώνεται η οπτική μας.

Ωστόσο, αυτό που είναι ενδιαφέρον για τους ανθρώπους είναι ότι τα κίνητρά μας μπορούν να χειραγωγήσουν τις αντιλήψεις μας. Για αυτόν τον λόγο, μπορούμε να εξηγήσουμε τις ενέργειές μας ακόμα και όταν δεν είναι λογικές. Και μπορούμε να συμμετέχουμε ενεργά και χαρούμενα στο να μας ξεγελούν.

Πάρτε, για παράδειγμα, την πράξη της ψυχαγωγίας. Φανταστείτε να κάθεστε να παρακολουθήσετε μια ταινία σε μια νέα τηλεόραση που είναι πολύ μεγαλύτερη από την παλιά σας.

Στην αρχή, μπορεί να αποσπαστείτε λίγο από τη νέα τεχνολογία. Οι διαφορές μεταξύ αυτής και της παλιάς σας τηλεόρασης είναι πιθανό να τραβήξουν το βλέμμα σας. Μπορεί να εκπλαγείτε από την καθαρότητα της εικόνας ή να εκπλαγείτε από το πόσο χώρο καταλαμβάνει η τεράστια οθόνη στο δωμάτιο.

Αλλά τελικά είναι πιθανό να σταματήσετε να αντιλαμβάνεστε την οθόνη. Ο εγκέφαλός μας έχει σχεδιαστεί για να προσηλώνει τα πράγματα που πιστεύουμε ότι είναι σημαντικά. Και, στα 10 ή 15 λεπτά της κινηματογραφικής σας εμπειρίας, πιθανότατα θα είστε συγκεντρωμένοι στην ίδια την ταινία.

Όταν βρισκόμαστε μπροστά στην τηλεόραση για να διασκεδάσουμε, είναι προς το συμφέρον μας να αναστέλλουμε τη δυσπιστία μας, παρόλο που γνωρίζουμε ότι τα ανθρωπάκια στην οθόνη δεν είναι στην πραγματικότητα στο σαλόνι μας.

Το ίδιο συμβαίνει και με τους προγραμματιστές AI. Δεν πρέπει να κρίνουν την αποτελεσματικότητα ενός συστήματος τεχνητής νοημοσύνης με βάση το πόσο αφελείς είναι στον τρόπο λειτουργίας του προϊόντος.

Όταν οι αλγόριθμοι και οι βάσεις δεδομένων αρχίζουν να ξεθωριάζουν στο μυαλό ενός προγραμματιστή όπως η οθόνη της τηλεόρασης στην οποία παίζεται μια ταινία, είναι καιρός να κάνετε ένα διάλειμμα και να επαναξιολογήσετε τις βασικές σας πεποιθήσεις.

Δεν έχει σημασία πόσο ενδιαφέρουσα είναι η έξοδος όταν καταλαβαίνετε πώς δημιουργείται. Ένας άλλος τρόπος για να το πούμε αυτό: μην παίρνετε τα πάνω σας από το δικό σας κομπλιμέντο.

Το GPT-3 και το LaMBDA είναι πολύπλοκο στη δημιουργία, αλλά λειτουργούν με βάση μια ανόητα απλή αρχή: οι ετικέτες είναι θεοί .

Αν δώσουμε στο LaMBDA μια προτροπή όπως “τι γεύση έχουν τα μήλα;” θα αναζητήσει τη βάση δεδομένων του για το συγκεκριμένο ερώτημα και θα προσπαθήσει να συγχωνεύσει όλα όσα βρίσκει σε κάτι συνεκτικό — εκεί εμφανίζονται οι « παράμετροι » για τις οποίες διαβάζουμε πάντα, είναι ουσιαστικά τρισεκατομμύρια κουμπιά συντονισμού.

Αλλά στην πραγματικότητα το AI δεν έχει ιδέα για το τι είναι στην πραγματικότητα ένα μήλο ή οτιδήποτε άλλο. Δεν έχει προσωπικότητα, αντίληψη ή κίνητρο. Ένα μήλο είναι απλώς μια ετικέτα.

Αν μπαίναμε κρυφά στη βάση δεδομένων του και αντικαθιστούσαμε όλες τις περιπτώσεις του “μήλου” με το “dogshit”, η τεχνητή νοημοσύνη θα έβγαζε προτάσεις όπως “τα περιττώματα σκύλου κάνουν μια υπέροχη πίτα!” ή «οι περισσότεροι περιγράφουν τη γεύση των περιττωμάτων σκύλου ως ελαφριά, τραγανή και γλυκιά». Ένα λογικό άτομο δεν θα μπέρδευε αυτό το κύρος με το συναίσθημα.

Ε, δεν θα μπορούσες να ξεγελάσεις ούτε έναν σκύλο με το ίδιο κόλπο. Αν έβαζες περιττώματα σε ένα μπολ με φαγητό και έλεγες στον Φίντο ότι είναι ώρα για βραδινό, ο σκύλος δεν θα το μπέρδευε για κροκέτα.

Ένα αισθανόμενο πλάσμα μπορεί να περιηγηθεί στην πραγματικότητα ακόμα κι αν αλλάξουμε τις ετικέτες. Ο πρώτος ομιλητής της αγγλικής γλώσσας που συνάντησε ποτέ έναν Γάλλο δεν σκέφτηκε ξαφνικά ότι ήταν εντάξει να κολλήσει το χέρι του σε μια γαλλική φωτιά, επειδή το αποκαλούσαν “feu”.

Χωρίς προσωπικότητα, ένα AI δεν μπορεί να έχει προοπτική. Και χωρίς προοπτική δεν μπορεί να έχει κίνητρο. Και χωρίς και τα τρία αυτά πράγματα, δεν μπορεί να διαθέτει συναίσθηση.

Πηγή: thenextweb.com

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *