Eliezer Yudkowsky
Eliezer Yudkowsky na Singularity Summit w Stanford (2006) | |
Data urodzenia | 11 września 1979 |
---|---|
Zawód, zajęcie | badacz sztucznej inteligencji |
Narodowość | Amerykańska |
Pracodawca | Singularity Institute |
Wyznanie | brak (ateizm) |
Strona internetowa |
Eliezer Shlomo Yudkowsky (ur. 11 września 1979[1]) – amerykański badacz sztucznej inteligencji, szczególnie technologicznej osobliwości i propagator Friendly artificial intelligence (przyjaznej sztucznej inteligencji)[2].
Yudkowsky jest samoukiem - nie uczył się w szkole średniej ani na uniwersytecie.[3]. Nie stosuje się do systemu akademickiego.
Jest współzałożycielem i badaczem w Machine Intelligence Research Institute (MIRI)[4]. Yudkowsky jest autorem następujących publikacji MIRI: „Creating Friendly AI” (2001), „Levels of Organization in General Intelligence” (2002), „Coherent Extrapolated Volition” (2004), and „Timeless Decision Theory” (2010)[5].
Badania Yudkowsky’ego skupiają się na tych aspektach sztucznej inteligencji, które pomagają w zrozumieniu samego siebie, modyfikacji samego siebie, i okresowemu samodoskonaleniu (seed AI); oraz na architekturze sztucznej inteligencji sprzyjającej stabilnym dobrowolnym strukturom motywacyjnym (Friendly AI, a szczególnie Coherent Extrapolated Volition)[6]. Poza pracami badawczymi, Yudkowsky pisze, używając języka nie-akademickiego, artykuły wyjaśniające rozmaite kwestie filozoficzne, zwłaszcza na temat racjonalności, np. „An Intuitive Explanation of Bayes' Theorem”.
Yudkowsky jest też autorem kilku dzieł science fiction i innych z gatunku fikcji literackiej. Jego historia o Harrym Potterze z gatunku fan fiction, Harry Potter and the Methods of Rationality, dotycząca kwestii kognitywistyki i racjonalizmu[7], zyskała przychylną recenzję pisarza Davida Brina[8] a także programisty Erica S. Raymonda[9]. Harry Potter and the Methods of Rationality jest jedną z najpopularniejszych książek na portalu FanFiction.net, budzącą kontrowersje wśród fanów Harry’ego Pottera[10].
Jest autorem dwóch rozdziałów w tomie Global Catastrophic Risks, pod redakcją filozofa z Oxfordu Nicka Bostroma oraz Milana Ćirkovicia[11].
Yudkowsky, wraz z Robinem Hansonem, był jednym z głównych autorów bloga Overcoming Bias sponsorowanego przez Future of Humanity Institute (Instytut Przyszłości Ludzkości) na Oxford University. Z początkiem 2009 pomógł w założeniu Less Wrong, „bloga społecznościowego poświęconego kształtowaniu sztuki ludzkiej racjonalności” („community blog devoted to refining the art of human rationality”)[12].
Mieszka w Redwood City w Kalifornii[13].
Przypisy
- ↑ Eliezer Yudkowsky: Autobiography. 2000-08-31. [dostęp 2011-06-30]. (ang.).
- ↑ Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. [dostęp 2011-06-27]. [zarchiwizowane z tego adresu (2009-06-27)]. (ang.).
- ↑ Cameron Reilly: GDay World #238: Eliezer Yudkowsky. The Podcast Network, 2007-05-17. [dostęp 2011-06-27]. (ang.).
- ↑ Kurzweil, Ray: The Singularity Is Near. New York, US: Viking Penguin, 2005, s. 599. ISBN 0-670-03384-7.
- ↑ Eliezer Yudkowsky Profile. Accelerating Future. [dostęp 2011-06-27]. [zarchiwizowane z tego adresu (2012-07-04)]. (ang.).
- ↑ Kurzweil, Ray: The Singularity Is Near. New York, US: Viking Penguin, 2005, s. 420. ISBN 0-670-03384-7.
- ↑ „Harry Potter and the Methods of Rationality isn’t primarily interested in teaching readers the “what” of science, even though it is liberally sprinkled with interesting facts about genetics, game theory, quantum mechanics, and psychology, among other things. Instead, as the title suggests, it’s about the “how” of science, conceived of not in the narrow sense of research in a laboratory, but in the broader sense of the process of figuring out how anything in the world works.” Julia Galef: Teaching the Scientific Method, with Magic. 3 Quarks Daily, 2011-03-21. [dostęp 2011-06-27]. (ang.).
- ↑ David Brin: A secret of college life... plus controversies and science!. 2010-06-21. [dostęp 2011-06-27]. (ang.).
- ↑ Eric S. Raymond: Harry Potter and the Methods of Rationality. 2010-07-06. [dostęp 2011-06-27]. (ang.).
- ↑ Daniel Snyder: 'Harry Potter' and the Key to Immortality. The Atlantic, 2011-07-18. [dostęp 2011-07-29]. Cytat: "Methods of Rationality caused uproar in the fan fiction community, drawing both condemnations and praise on Harry Potter message boards like DarkLordPotter for its blasphemous—or brilliants—treatment of the canon... Methods of Rationality remains one of the most popular stories on FanFiction.net, with more than 13,000 reviews." (ang.).
- ↑ Global Catastrophic Risks. Oxford, UK: Oxford University Press, 2008, s. 91–119, 308–345. ISBN 978-0-19-857050-9.
- ↑ Overcoming Bias: About. Overcoming Bias. [dostęp 2011-06-27]. (ang.).
- ↑ Eliezer Yudkowsky: Eliezer Yudkowsky: About. [dostęp 2011-06-27]. (ang.).
Bibliografia
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World, Douglas Mulhall, 2002, str. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies, Damien Broderick, 2001, str. 236, 265-272, 289, 321, 324, 326, 337-339, 345, 353, 370.
Linki zewnętrzne
- Strona domowa
- Less Wrong – „A community blog devoted to refining the art of human rationality” założony przez Yudkowsky’ego
- Biografia na portalu KurzweilAI.net. kurzweilai.net. [zarchiwizowane z tego adresu (2010-06-26)].
- Biografia w Singularity Institute. singinst.org. [zarchiwizowane z tego adresu (2012-06-06)].
- Prace i bibliografia do pobrania. unjobs.org. [zarchiwizowane z tego adresu (2007-09-27)].
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address – Feb 2003
- Harry Potter and the Methods of Rationality na portalu Fanfiction.net
Media użyte na tej stronie
Autor: "null0", Licencja: CC BY-SA 2.0
Eliezer Yudkowsky, an American researcher into artificial intelligence.