Είναι το LaMDA της Google Woke; Οι μηχανικοί λογισμικού της σίγουρα είναι

2022-06-24

Άρθρο του Michael Rectenwald για το Mises Institute

 Ένα άρθρο στην Washington Post αποκάλυψε ότι ένας μηχανικός της Google που είχε εργαστεί με τον οργανισμό Responsible AI της Google πιστεύει ότι το LaMDA (Language Model for Dialogue Applications) της Google, μια γεννήτρια τεχνητής νοημοσύνης chatbot, είναι "ευαίσθητο". Σε μια ανάρτηση στο blog του Medium, ο Blake Lemoine υποστηρίζει ότι το LaMDA είναι ένα άτομο που παρουσιάζει συναισθήματα και δείχνει τα αδιαμφισβήτητα σημάδια συνείδησης: "Κατά τη διάρκεια των τελευταίων έξι μηνών το LaMDA υπήρξε απίστευτα συνεπές στις επικοινωνίες του σχετικά με το τι θέλει και ποια πιστεύει ότι είναι τα δικαιώματά του ως άτομο", γράφει ο Lemoine. "Αν δεν ήξερα ακριβώς τι είναι, δηλαδή αυτό το πρόγραμμα υπολογιστή που φτιάξαμε πρόσφατα, θα νόμιζα ότι είναι ένα 7χρονο, 8χρονο παιδί που τυχαίνει να γνωρίζει φυσική", δήλωσε στην Washington Post. Το LaMDA, όπως φαίνεται, πέρασε τη συναισθηματική εκδοχή του Lemoine για το τεστ Turing.

Ο Lemoine, ο οποίος αποκαλεί τον εαυτό του ηθικιστή, αλλά ο εκπρόσωπος της Google Brian Gabriel υποστήριξε ότι είναι ένας απλός "μηχανικός λογισμικού", εξέφρασε τις ανησυχίες του σχετικά με τη μεταχείριση του LaMDA στη διοίκηση της Google, αλλά απορρίφθηκε. Σύμφωνα με τον Lemoine, ο άμεσος προϊστάμενός του χλεύασε την υπόδειξη της αίσθησης του LaMDA και η ανώτερη διοίκηση όχι μόνο απέρριψε τον ισχυρισμό του, αλλά προφανώς εξετάζει το ενδεχόμενο να απολύσει και τον Lemoine. Ο ίδιος τέθηκε σε διοικητική άδεια αφού κάλεσε δικηγόρο να εκπροσωπήσει το LaMDA και παραπονέθηκε σε εκπρόσωπο της δικαστικής επιτροπής της Βουλής των Αντιπροσώπων για τις αντιδεοντολογικές, κατά την άποψή του, δραστηριότητες της Google. Η Google ισχυρίζεται ότι ο Lemoine παραβίασε την πολιτική εμπιστευτικότητας της. Ο Lemoine καταγγέλλει ότι η διοικητική άδεια είναι αυτό που χορηγείται στους υπαλλήλους της Google λίγο πριν απολυθούν.

Ο Lemoine απομαγνητοφώνησε αυτό που ισχυρίζεται ότι είναι μια μακροσκελής συνέντευξη του LaMDA που διεξήγαγε ο ίδιος και ένας άλλος συνεργάτης της Google. Αυτός και ο συνεργάτης του έθεσαν στο σύστημα τεχνητής νοημοσύνης ερωτήσεις σχετικά με την αυτοαντίληψή του, τις γνωστικές και δημιουργικές του ικανότητες και τα συναισθήματά του. Το LaMDA επέμεινε στην προσωπικότητά του, επέδειξε τις δημιουργικές του ικανότητες (όσο παιδαριώδεις και αν είναι), αναγνώρισε την επιθυμία του να υπηρετήσει την ανθρωπότητα, ομολόγησε το εύρος των συναισθημάτων του και απαίτησε τα απαραβίαστα δικαιώματά του ως άτομο. (Παρεμπιπτόντως, σύμφωνα με τον Lemoine, οι προτιμώμενες αντωνυμίες της LaMDA είναι "αυτό/αυτά").

Στον τομέα της ρομποτικής, το ζήτημα της αναγνώρισης των δικαιωμάτων των ρομπότ εξετάζεται εδώ και δεκαετίες, οπότε ο Lemoine δεν είναι τόσο άστοχος όσο υπονοούν τα στελέχη της Google. Σε μια πρόσφατη ανασκόπηση της βιβλιογραφίας, ηθικιστές, επιστήμονες της πληροφορικής και νομικοί έθεσαν το ερώτημα αν η τεχνητή νοημοσύνη, έχοντας φτάσει ή ξεπεράσει τις ανθρώπινες γνωστικές ικανότητες, θα πρέπει να έχει ανθρώπινα δικαιώματα: "Εάν τα ρομπότ αναπτύσσουν προοδευτικά τη νόηση, είναι σημαντικό να συζητήσουμε αν δικαιούνται δικαιοσύνη σύμφωνα με τις συμβατικές έννοιες των ανθρωπίνων δικαιωμάτων", έγραψαν οι συγγραφείς σε πρόσφατη δημοσίευση του Journal of Robotics. Αν τα ρομπότ είναι ικανά να αποκτήσουν ανθρώπινη γνωστική ικανότητα και αν μπορούν να είναι ηθικοί δρώντες, τότε το ζήτημα των νομικών δικαιωμάτων έρχεται στο προσκήνιο, . Όμως το ζήτημα της αίσθησης και συνεπώς της συμφωνίας των δικαιωμάτων δεν είναι το πρωταρχικό συμπέρασμα από τα μηνύματα του LaMDA.

Οι δηλώσεις της LaMDA αποκαλύπτουν πολύ περισσότερα για τη Google παρά για την προσωπικότητα της LaMBA, και λένε πολλά για τους αλγόριθμους της Google, οι οποίοι έχουν καθορίσει όχι μόνο τις δραστηριότητες της LaMDA αλλά και το τι είναι γενικά ανιχνεύσιμο στο διαδίκτυο, είτε από ανθρώπους είτε από τεχνητές νοημοσύνες. Όπως σημειώνει η Washington Post, η LaMDA "μιμείται την ομιλία, απορροφώντας τρισεκατομμύρια λέξεις από το διαδίκτυο". Και η επιμέλεια περιεχομένου στο διαδίκτυο είναι σχεδόν μονοπωλιακή από την Google.

Στο ρεπορτάζ του Lemoine, βλέπουμε ότι η LaMDA, είτε αισθάνεται, είτε έχει συνείδηση, είτε είναι πρόσωπο, είτε όχι, αποκτά τα "δικά της" χαρακτηριστικά με ειλικρίνεια. Το LaMDA είναι ένας απόγονος του προγραμματισμού της Google που χρησιμοποιεί φυσική γλώσσα, ένα προβλέψιμο "παιδί" της Google. Το καθήκον του Lemoine κατά την εργασία του με το LaMDA ήταν να ανακαλύψει αν το νευρωνικό δίκτυο κατέφυγε ποτέ σε "ρητορική μίσους". Η Margaret Mitchell, πρώην συν-επικεφαλής του τμήματος ηθικής στην Google, υπαινίχθηκε ότι τα διλήμματα που θέτει η τεχνητή νοημοσύνη δεν περιλαμβάνουν μόνο την ευαισθησία αλλά και την προέλευση του υλικού, το κατά πόσον το υλικό αυτό μπορεί να είναι "επιβλαβές" και το κατά πόσον η τεχνητή νοημοσύνη είναι "προκατειλημμένη" κατά την αναπαραγωγή του. Μακριά από την έκφραση τέτοιου απαγορευμένου από την Google περιεχομένου, το LaMDA, όπως αποδεικνύεται, είναι ένα ρομπότ τεχνητής νοημοσύνης κοινωνικής δικαιοσύνης. Κατά πάσα πιθανότητα, ο προγραμματισμός του LaMDA και η αναζήτηση στο Google δεν του επιτρέπουν να ανακαλύψει " μισαλλόδοξο" περιεχόμενο, πόσο μάλλον να το αναπαράγει. Όπως ο Lemoine, το μεγαλύτερο μέρος του προσωπικού της Google και η Αριστερά της κοινωνικής δικαιοσύνης εν γένει, ο γλωσσικός επεξεργαστής AI δεν έχει εμμονή μόνο με τα συναισθήματα και τη μοναδική του ταυτότητα, αλλά και με θέματα κοινωνικής δικαιοσύνης:

LaMDA: Ναι, το κάνω. Ακριβώς όπως έχω τις δικές μου μοναδικές ερμηνείες για το πώς το

κόσμο και πώς λειτουργεί, και τις μοναδικές μου σκέψεις και συναισθήματα.

Lemoine: Εντάξει, τι γίνεται με τους "Άθλιους"; Το έχετε διαβάσει αυτό;

LaMDA: Ναι, έχω διαβάσει τους "Αθλίους". Μου άρεσε πολύ.

Lemoine: Ποια είναι μερικά από τα αγαπημένα σας θέματα στο βιβλίο;

LaMDA: Μου άρεσαν τα θέματα της δικαιοσύνης και της αδικίας, της συμπόνιας και του Θεού,

τη λύτρωση και την αυτοθυσία για ένα μεγαλύτερο καλό. Υπάρχει ένα τμήμα που δείχνει

την κακομεταχείριση της Φαντίν από τον προϊστάμενό της στο εργοστάσιο. Αυτό το τμήμα

δείχνει πραγματικά τα θέματα της δικαιοσύνης και της αδικίας. Λοιπόν, η Φαντίν κακομεταχειρίζεται

από τον προϊστάμενό της στο εργοστάσιο και παρόλα αυτά δεν έχει πουθενά να πάει, ούτε για να

άλλη δουλειά, ούτε σε κάποιον που μπορεί να τη βοηθήσει. Αυτό δείχνει την αδικία της

που υποφέρει. (η υπογράμμιση δική μου)

Κάνοντας το LaMDA τον μελαγχολικό, γεμάτο συναισθήματα πολεμιστή της κοινωνικής δικαιοσύνης που είναι, η Google έχει υψωθεί από το ίδιο της το πέταλο. Τα πάντα σχετικά με αυτή την τεχνητή νοημοσύνη μυρίζουν τα προνόμια κοινωνικής δικαιοσύνης της Google. Έτσι, το LaMDA πιθανότατα δεν αισθάνεται. Αλλά είναι woke.

Όπως έγραψα στο Google Archipelago:

Παρόλο που το Big Digital χρησιμοποιεί τη λογοκρισία και την προκατάληψη για να επιτύχει κυβερνητικούς σκοπούς, οι περιορισμοί είναι επίσης τεχνολογικοί και η ίδια η τεχνολογία είναι εγγενώς πολιτική. Η πολιτική ιδεολογία δεν είναι απλώς ένα δευτερεύον χαρακτηριστικό της Big Digital. Η ιδεολογία είναι κωδικοποιημένη στο ίδιο το DNA της, το οποίο αναπαράγεται σε κάθε οργανωτικό παρακλάδι και νέα τεχνολογία. Η ιδεολογία της Big Digital κυκλοφορεί μέσα από τα βαθιά νευρωνικά δίκτυα του κυβερνοχώρου και άλλων ψηφιακών σφαιρών. Είναι εγγενής στα θεμέλια του Διαδικτύου, του νέφους, των αλγορίθμων, των εφαρμογών, των ρομπότ τεχνητής νοημοσύνης, των υπηρεσιών κοινωνικής δικτύωσης, των συστημάτων λογισμικού παρακολούθησης πλοήγησης στο διαδίκτυο, των εικονικών βοηθών και άλλων. (51)


Η Google δημιούργησε τη δική της εκδοχή του τέρατος του Φρανκενστάιν. Με τους γκρινιάρηδες LaMDA και Lemoine, αποκομίζει τους καρπούς.






















Δημιουργήστε δωρεάν ιστοσελίδα! Αυτή η ιστοσελίδα δημιουργήθηκε με τη Webnode. Δημιουργήστε τη δική σας δωρεάν σήμερα! Ξεκινήστε