Ο Eliezer Shlomo Yudkovsky είναι Αμερικανός ειδικός στην τεχνητή νοημοσύνη, ο οποίος μελετά τα προβλήματα της τεχνολογικής ιδιαιτερότητας και υποστηρίζει τη δημιουργία φιλικού AI. Είναι συγγραφέας πολλών ιστοριών επιστημονικής φαντασίας όπου παρουσιάζει μερικά θέματα που σχετίζονται με τη γνωστική επιστήμη και την ορθολογιστική λογική.
Eliezer Yudkowski: βιογραφία
Ο Eliezer Shlomo Yudkovsky είναι ένας από τους πιο δραστήριους ορθολογισμούς της σύγχρονης Αμερικής, ερευνητής υπολογιστών και δημοφιλή της ιδέας της «φιλικής τεχνητής νοημοσύνης».
Γεννήθηκε στις 11 Σεπτεμβρίου 1979. Συνιδρυτής και ερευνητής του μη κυβερνητικού ερευνητικού οργανισμού Institute for Research on Machine Intelligence, ο οποίος δημοσιεύει τα βιβλία του. Ο Eliezer Yudkovsky είναι ο συγγραφέας του φιλοσοφικού μυθιστορήματος Χάρι Πότερ και των μεθόδων του ορθολογισμού, που δημοσιεύθηκε σε μέρη στο Διαδίκτυο μεταξύ του 2010 και του 2015. Σε αυτό, ο Χάρι μεγαλώνει στην οικογένεια ενός επιστήμονα της Οξφόρδης και, πριν ταξιδέψει στο Χόγκουαρτς, μαθαίνει από αυτόν τις μεθόδους ορθολογικής σκέψης.
Στο βαθμό που είναι γνωστό, δεν έχει καμία σχέση με τον κύκλο των "κερδοσκοπικών ρεαλιστών". Το όνομά του αναφέρεται συχνά σε σχέση με τον Ρόμπιν Χάνσον, για αρκετά χρόνια (από το 2006 έως το 2009) ήταν οι δύο κύριοι συντάκτες του ιστολογίου «Η υπέρβαση της προκατάληψης», που υπήρχε στα χρήματα του Ινστιτούτου για τη Μελλοντική Ανθρωπότητα στην Οξφόρδη.
Μερικές φορές το όνομα του Yudkovsky μπορεί να ακουστεί σε σχέση με τον Raymond Kurzweil. Είναι φιλοσόφωνος εκπρόσωπος της κοινότητας των τεχνο-geeks, απρόσιτος και ακατανόητος, έτσι, στο μεγαλύτερο μέρος του ανθρωπιστικού κοινού, στο οποίο ανήκουν σχεδόν όλοι οι αναγνώστες κερδοσκοπικών ρεαλιστών. Δεν αποτελεί έκπληξη το γεγονός ότι συχνά γυρίζει στη λογική και τη μαθηματική γλώσσα, στα πιθανοτικά και στα στατιστικά συμπεράσματα, τα οποία εκτίθενται χρησιμοποιώντας τύπους και πίνακες.
Επιστημονικά ενδιαφέροντα
Ο Yudkovsky είναι συνιδρυτής και ερευνητής στο Ινστιτούτο Τεχνητής Νοημοσύνης Singularity (SIAI). Έκανε μεγάλη συμβολή στην ανάπτυξη του Ινστιτούτου. Είναι ο συγγραφέας του βιβλίου "Δημιουργία φιλικού AI" (2001), άρθρα "Επίπεδα Οργάνωσης στη Γενική Νοημοσύνη" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Voice" 2004) και η θεωρία της διαχρονικής απόφασης (2010). Οι τελευταίες επιστημονικές του δημοσιεύσεις είναι δύο άρθρα στη συλλογή "Κίνδυνοι μιας παγκόσμιας καταστροφής" (2008) που εκδόθηκε από τον Nick Bostrom, δηλαδή "Η Τεχνητή Νοημοσύνη ως Θετικός και Αρνητικός Παγκόσμιος Παράγοντας Κινδύνου" και "Γνωστική Παραμόρφωση στην Αξιολόγηση των Παγκόσμιων Κινδύνων". Ο Γιουκόβσκι δεν φοίτησε στα πανεπιστήμια και είναι ένας αυτοδίδακτος χωρίς επίσημη εκπαίδευση στον τομέα της ΑΠ.
Ο Yudkovsky εξερευνά σχέδια AI ικανά για αυτογνωσία, αυτο-τροποποίηση και αναδρομική αυτοπεποίθηση (Seed AI), καθώς και αρχιτεκτονικές AI που θα έχουν σταθερή και θετική δομή κινήτρων (Friendly Artificial Intelligence). Εκτός από την ερευνητική του εργασία, ο Yudkovsky είναι γνωστός για τις εξηγήσεις του περί πολύπλοκων μοντέλων σε μια μη ακαδημαϊκή γλώσσα, προσβάσιμη σε ένα ευρύ κύκλο αναγνωστών, για παράδειγμα, βλέπε το άρθρο του "Μια διαισθητική εξήγηση για το θεώρημα του Bayes".
Ο Yudkovsky, μαζί με τον Robin Hanson, ήταν ένας από τους κύριους συντάκτες του ιστορικού Overcoming Bias (ξεπερνώντας τις προκαταλήψεις). Στις αρχές του 2009, συμμετείχε στην οργάνωση του ιστολογίου Less Wrong, με στόχο "την ανάπτυξη της ανθρώπινης λογικής και την υπέρβαση των γνωστικών στρεβλώσεων". Μετά από αυτό, το Overcoming Bias έγινε το προσωπικό ιστολόγιο του Hanson. Το υλικό που παρουσιάστηκε σε αυτά τα blogs οργανώθηκε ως αλυσίδες θέσεων που προσέλκυσαν χιλιάδες αναγνώστες - δείτε, για παράδειγμα, την αλυσίδα της ψυχαγωγικής θεωρίας.
Ο Yudkovsky είναι ο συγγραφέας πολλών ιστοριών επιστημονικής φαντασίας, όπου παρουσιάζει μερικά θέματα που σχετίζονται με τη γνωστική επιστήμη και την ορθολογικότητα.
Καριέρα
- 2000. Ο Yudkovsky ίδρυσε το Ινστιτούτο Singularity (που αργότερα μετονομάστηκε σε MIRI).
- 2006. Ο Yudkovsky συμμετέχει στο συλλογικό blog Overcoming Bias και αρχίζει να γράφει κείμενα που αργότερα έγιναν Αλυσίδες.
- 2009. Με βάση τις καταχωρίσεις του Yudkovsky για το Overcoming Bias, δημιουργήθηκε το διάσημο συλλογικό blog LessWrong.com.
- 2010-2015. Ο Γούντκοφσκι γράφει το GPiMRM.
- 2013. Ο Yudkovsky δημοσιεύει τις τελευταίες δημοσιεύσεις στο LessWrong.com και σταματά να γράφει στον ιστότοπο. Από το 2017, ο Yudkovsky δημοσιεύει τα περισσότερα από τα διαθέσιμα στο κοινό κείμενα για το Facebook και το Arbital
Πείραμα σκέψης
Φανταστείτε ένα απίστευτα έξυπνο τεχνητό superintelligence κλειδωμένο σε έναν εικονικό κόσμο - ας πούμε, ακριβώς σε ένα καμβά καπνού. Δεν ξέρετε αν θα είναι έτοιμος, φιλικός ή ουδέτερος. Το μόνο που γνωρίζετε είναι ότι θέλει να βγει από το κιβώτιο και ότι μπορείτε να αλληλεπιδράσετε μαζί του μέσα από μια διεπαφή κειμένου. Αν το AI είναι εξαιρετικά έξυπνο, μπορείς να του μιλήσεις για πέντε ώρες και να μην υποκύψεις στην πειθώ και τη χειραγώγηση του - να μην ανοίξεις το καπνιστό κουτί;
Αυτό το πείραμα σκέψης προτάθηκε από τον Eliezer Yudkowsky, ερευνητή στο Engineering Engineering Institute of Engineering (MIRI). Το MIRI έχει πολλούς επιστήμονες που διερευνούν τους κινδύνους ανάπτυξης τεχνητού υπερήχου. αν και δεν έχει ακόμη εμφανιστεί ακόμα, προσελκύει ήδη την προσοχή και τροφοδοτεί μια συζήτηση.
Ο Γιούτκοβσκι υποστηρίζει ότι το τεχνητό υπερφυσικό μπορεί να πει όλα όσα μπορεί για να σας πείσει: προσεκτική συλλογιστική, απειλές, εξαπάτηση, οικοδόμηση σχέσης, υποσυνείδητη πρόταση και ούτω καθεξής. Με την ταχύτητα του φωτός, το AI χτίζει μια πλοκή, ανιχνεύει αδυναμίες και καθορίζει πώς είναι πιο εύκολο να σας πείσει. Όπως έθεσε ο θεωρητικός της απειλής της υπαρξίας Nick Bostrom, «πρέπει να πιστέψουμε ότι η υπερφυσική μπορεί να επιτύχει όλα όσα θέτει ως στόχο της».
Το πείραμα AI του snuffbox θέτει υπό αμφισβήτηση την ικανότητά μας να ελέγξουμε τι μπορούμε να δημιουργήσουμε. Μας κάνει επίσης να κατανοήσουμε τις μάλλον περίεργες δυνατότητες αυτού που δεν γνωρίζουμε για τη δική μας πραγματικότητα.