
- Desde 2012 es director de Ingeniería en Google.
- En 2009 Kurzweil, en colaboración con Google y el NASA Ames Research Center, anunció la creación de la Universidad de la Singularidad para "montar, educar e inspirar un cuadro de líderes que se esfuercen en comprender y facilitar el desarrollo de tecnologías de avance exponencial, enfocar y guiar estas herramientas para dirigir los grandes retos de la humanidad" proporcionando a sus alumnos las destrezas y herramientas para guiar el proceso de la singularidad "para el beneficio de la humanidad y su entorno".

Fundador del Extropy Institute, More ha escrito numerosos artículos e
xponiendo la filosofía transhumanista desde una óptica libertaria, perspectiva que bautizaría como extropianismo.
En un ensayo de 1990 "Transhumanism: Toward a Futurist Philosophy", introdujo el término "transhumanismo" en su sentido moderno.
- Desde 2011 Max More se convirtió en presidente y CEO de Alcor Life Extension Foundation, organización a la que se unió en 1986 (Alcor aboga por, investiga y realiza cryonics , la preservación de cadáveres humanos en nitrógeno líquido después de la muerte legal , con la esperanza de restaurarlos a la salud completa cuando se desarrolle una nueva tecnología hipotética en el futuro).
- En 2004 introduce el "principio de proacción", en oposición al de precaución.

Nick Bostrom (1973): Filósofo sueco utilitarista, de la univerisdad de Oxford
- En 1998, junto con David Pearce, cofundó la "Asociación Transhumanista MundialHumanity Plus"
" ("World Transhumanist Association"), que ahora se llama "Humanity Plus"
- En 2004 cofundó junto a James Hughes el IEET ("Instituto para la Ética y las Tecnologías Emergentes").
- En 2011 fundó el Programa Oxford Marton Sobre los Impactos de la Tecnología Futurista
- Es el director fundador del "Future of Humanity Institute" (Instituto Futuro de la Humanidad) en la Universidad de Oxford.
“Cuando los transhumanistas buscan extender la vida humana, no están intentando añadir un par de años extra en un hogar asistido dedicado a babear en los propios zapatos. La meta es más años saludables, felices y productivos. Idealmente, todos deberíamos tener el derecho a elegir cuándo y cómo morir –o no morir. Los transhumanistas quieren vivir más tiempo porque ellos quieren hacer más cosas, aprender más y tener más experiencias; quieren tener más diversión y pasar más tiempo con las personas amadas; quieren seguir creciendo y madurando más allá de las insignificantes ocho décadas que la evolución nos ha asignado; y también para ver por sí mismos aquellas maravillas que el futuro puede traer consigo”, "es irrelevante si algo es o no natural en orden a considerar si es bueno o deseable", “Si la muerte forma parte del orden natural, así también el deseo humano por trascender e ir más allá de la misma. Antes del transhumanismo, la única esperanza de evadir la muerte era a través de la reencarnación o de una resurrección espiritual” ("The Transhumanist FAQ" - Nick Bostrom)

David Pearce (1960): Filósofo británico utilitarista y seguidor del transhumanismo.
- En 1998, junto con Nick Bostrom, cofundó la "Asociación Transhumanista Mundial" ("World Transhumanist Association"), que ahora se llama "Humanity Plus"
- La postura de Pearce se presenta con mayor prominencia en El imperativo hedonista (The Hedonistic Imperative), un manifiesto en el que el autor delinea cómo la ingeniería genética y la nanotecnología eliminarán, con el tiempo, toda forma de experiencia desagradable.
- Actualmente Pearce es director de BLTC Research (organización fundada en 1995 por David Pearce con el fin de promover lo que denomina "Ingeniería celestial" o "Ingeniería Paradisíaca", es decir, la abolición del sufrimiento y la creación de estados gloriosos de placer sublime).


James J. Hughes (1961): Sociólogo y experto en bioética canadiense, profesor de políticas sanitarias en el Trinity College de Hartford.
- Fue el director de la Asociación Transhumanista Mundial entre el 2004 y el 2006, tras lo cual se puso al frente del Institute for Ethics and Emerging Technologies.
- Oponiéndose al bioconservadurismo por un lado y al transhumanismo libertario por otro, Hughes propone una tercera vía identificada como transhumanismo democrático, una forma radical de tecnoprogresismo que apuntaría al desarrollo de las tecnologías de mejoramiento humano al tiempo que la intervención estatal al estilo del estado de bienestar las haría accesibles al conjunto de la población, estableciendo a su vez controles estatales a la investigación que certificasen su seguridad.

Yoshihiro Francis Fukuyama (1952): Japonés nacido en EEUU, educado en Hardvard. Politólogo influyente. Humanista conservador arreligioso.
Conocido por su libro "El fin de la Historia y el último hombre" (1992).
- Mmiembro del Consejo Presidencial de Bioética de EEUU y autor de "Nuestro Futuro Posthumano: Consecuencias de la Revolucion Biotecnologica",
Publicó un articulo sobre "El transhumanismo: una de las ideas más peligrosas del mundo" en la prestigiosa revista Foreign Policy.
“El objetivo del presente libro es afirmar que Huxley tenía razón, que la amenaza más significativa planteada por la biotecnología conte mporánea
estriba en la posibilidad de que altere la naturaleza humana y, por consiguiente, nos conduzca a un estadio posthumano de la historia. Esto es importante, alegaré, porque la naturaleza humana existe, es un concepto válido y ha aportado una continuidad estable a nuestra experiencia como especie. Es, junto con la religión, lo que define nuestros valores más básicos. La naturaleza humana determina y limita los posibles modelos de regímenes políticos, de manera que una tecnología lo bastante
poderosa para transformar aquello que somos tendrá, posiblemente, consecuencias nocivas para la democracia liberal y para la naturaleza de la propia política”. “Debemos evitar a toda costa una actitud derrotista con respecto a la biotecnología según la cual pensemos que, ya que nada podemos hacer para impedir o controlar los cambios que no nos gustan, ni siquiera deberíamos molestarnos en intentarlo. Introducir un sistema regulador que permita a las sociedades controlar la biotecnología humana no será fácil; se requerirá que los legisladores de todos los países del mundo salgan a la palestra y tomen decisiones difíciles sobre complejas cuestiones científicas. La estructura y naturaleza de las instituciones concebidas para aplicar las nuevas normativas constituyen una cuestión abierta; diseñarlas de modo que obstruyan mínimamente los avances positivos y, al mismo tiempo, posean competencias para aplicar las leyes con efectividad supondrá un desafío significativo. Mayor aún será el reto de crear leyes comunes a escala internacional, de lograr un consenso entre países con diferentes culturas y criterios sobre las cuestiones éticas subyacentes. No obstante, en el pasado ya se han emprendido con éxito tareas políticas de complejidad similar (…) Lo importante es reconocer que no se trata tan sólo de un desafío ético, sino también político". ("El fin del hombre" Fukuyama - 2002)
“El objetivo del presente libro es afirmar que Huxley tenía razón, que la amenaza más significativa planteada por la biotecnología conte mporánea
estriba en la posibilidad de que altere la naturaleza humana y, por consiguiente, nos conduzca a un estadio posthumano de la historia. Esto es importante, alegaré, porque la naturaleza humana existe, es un concepto válido y ha aportado una continuidad estable a nuestra experiencia como especie. Es, junto con la religión, lo que define nuestros valores más básicos. La naturaleza humana determina y limita los posibles modelos de regímenes políticos, de manera que una tecnología lo bastante
poderosa para transformar aquello que somos tendrá, posiblemente, consecuencias nocivas para la democracia liberal y para la naturaleza de la propia política”. “Debemos evitar a toda costa una actitud derrotista con respecto a la biotecnología según la cual pensemos que, ya que nada podemos hacer para impedir o controlar los cambios que no nos gustan, ni siquiera deberíamos molestarnos en intentarlo. Introducir un sistema regulador que permita a las sociedades controlar la biotecnología humana no será fácil; se requerirá que los legisladores de todos los países del mundo salgan a la palestra y tomen decisiones difíciles sobre complejas cuestiones científicas. La estructura y naturaleza de las instituciones concebidas para aplicar las nuevas normativas constituyen una cuestión abierta; diseñarlas de modo que obstruyan mínimamente los avances positivos y, al mismo tiempo, posean competencias para aplicar las leyes con efectividad supondrá un desafío significativo. Mayor aún será el reto de crear leyes comunes a escala internacional, de lograr un consenso entre países con diferentes culturas y criterios sobre las cuestiones éticas subyacentes. No obstante, en el pasado ya se han emprendido con éxito tareas políticas de complejidad similar (…) Lo importante es reconocer que no se trata tan sólo de un desafío ético, sino también político". ("El fin del hombre" Fukuyama - 2002)

Yuval Noah Harari (1976): Historiador y escritor israelí. Homosexual. Ateo. Dataista (mentalidad, filosofía o religión creada por el significado emergente del big data, la inteligencia artificial y el internet de las cosas). Doctorado en Oxford.
Profesor en la Universidad Hebrea de Jerusalén. Entre sus obras se encuentran "Sapiens: De animales a dioses y Homo Deus: Breve historia del mañana"
“Quizá seamos una de las últimas generaciones de sapiens”
"El Dataismo o venera ni a dioses ni al hombre: adora los datos"

Fundó en 2011 la Iniciativa Avatar 2045 con la participación de especialistas rusos en el campo de las interfaces neuronales, la robótica,y, los órganos y los sistemas artificiales, cuyo objetivo es lograr la inmortalidad cibernética para el año 2045. La Iniciativa 2045 es una organización que desarrolla una red y comunidad de investigadores en el campo de la extensión-vital.
El objetivo de Avatar 2045 "crear tecnologías que
permiten la transferencia de la personalidad de un individuo a un portador no biológico más avanzado, y extienden la vida, incluso hasta el punto de la inmortalidad. Dedicamos especial atención a permitir que el máximo diálogo posible entre las principales tradiciones espirituales del mundo, la ciencia y la sociedad ".
Julian Huxley (1887–1975). Biólogo británico, evolutivo, eugenista.
- Hermano del famoso filósofo y escritor del libro "Mundo feliz", Aldous Huxley.
- Inventó el término "transhumanismo" en 1957, entendiendo que los seres humanos deben mejorarse a través de la ciencia y la tecnología, incluyendo la eugenesia pero también la mejora del ambiente social.
“Si lo desea, la especie humana puede superarse a sí misma, pero no esporádicamente, aquí un individuo, de una manera, allá otro individuo de un modo distinto, sino en su totalidad, como humanidad. Necesitamos un nombre para este nuevo credo. Tal vez sirva transhumanismo, esto es, el hombre permaneciendo hombre, pero yendo más allá, superándose a sí mismo al realizar nuevas posibilidades de su naturaleza humana y para su naturaleza humana. Creo en el transhumanismo. Una vez que haya bastante gente que pueda decir esto sinceramente, la especie humana estará en camino de un nuevo género de existencia, tan diferente del nuestro como lo es el nuestro del género de vida del hombre de Pekín. Entonces, por fin, estará cumpliendo conscientemente su vevrdadero destino" (Julian Huxley. "Nuevos odres para el vino nuevo" - 1959)
Aubrey David Nicholas Jasper de Grey (1963) es un gerontólogo biomédico inglés educado en la Universidad de Cambridge, en el Reino Unido.
Cynthia Jane Kenyon (1955) es una bióloga molecular estadounidense.
Natasha Vita-More (1950) diseñadora estratégica, autora, oradora e innovadora dentro del marco científico y tecnológico de la mejora humana y la extensión de la vida. Sus intereses se encuentran dentro de los usos éticos de la ciencia y la tecnología y las implicaciones sociopolíticas de los avances revolucionarios que afectan el futuro de la humanidad.
David Andrew Sinclair AO (1969) biólogo australiano y profesor de genética más conocido por su defensa del resveratrol como un suplemento dietético antienvejecimiento y fármaco potencial.
Vernor Vinge (1944): Matemático, escritor, informático teórico, novelista, y escritor de ciencia ficción estadounidense.
FM-2030 - antes llamado Fereidoun M. Esfandiary: filósofo y futurólogo transhumanista. Formó un grupo de futuristas "los ascensionistas" (UpWingers).

Humanity+ (Humanity Plus): conocida anteriormente como Asociación Transhumanista Mundial. Organización que trabaja para promover el Transhumanismo a través de las tecnologías basadas en la nanotecnología, en la ingeniería genética y en la cibernética.
Fundada en 1998 por Nick Bostrom y David Pearce.

BLTC Research. "Ingeniería celestial" o "Ingeniería paradisíaca". Organización fundada por David Pearce en 1995 con el objetivo de llegar a abolir el sufrimiento y ofrecer al toda clase de vida terrestre la posibilidad de vivir felices y sin sufrimiento, gracias a la biotecnología.
IEET "Instituto para la Ética y las Tecnologías Emergentes".
Fundado en 2004 por el filósofo Nick Bostrom y el bioético James J. Hughes. "promueve ideas sobre cómo el progreso tecnológico puede aumentar la libertad, la felicidad y el florecimiento humano en sociedades democráticas. Creemos que el progreso tecnológico puede ser un catalizador para el desarrollo humano positivo siempre que garanticemos que las tecnologías se distribuyan de forma segura y equitativa. Llamamos a esto unaorientación 'tecnoprogresiva'".
Iniciativa Avatar 2045: Fundada en 2011 por Dmitry Itskov con la participación de especialistas rusos en el campo de las interfaces neuronales, la robótica,y, los órganos y los sistemas artificiales, cuyo objetivo es lograr la inmortalidad cibernética para el año 2045. La Iniciativa 2045 es una organización que desarrolla una red y comunidad de investigadores en el campo de la extensión-vital. El objetivo de Avatar 2045 "crear tecnologías que permitan la transferencia de la personalidad de un individuo a un portador no biológico más avanzado, y extienden la vida, incluso hasta el punto de la inmortalidad. Dedicamos especial atención a permitir que el máximo diálogo posible entre las principales tradiciones espirituales del mundo, la ciencia y la sociedad ". "el objetivo final (de Avatar 2045) es transferir la personalidad de alguien a la nueva compañía artificial"
Empresa de biotecnología de reciente creación que tiene como objetivo desarrollar fármacos que se dirijan a células senescentes con el objetivo de prolongar la vida útil.
https://unitybiotechnology.com
Future of Humanity Institute
https://www.fhi.ox.ac.uk/
MIRI - Machine Intelligence Research Institute (Instituto de Investigación de la Inteligencia de las Máquinas)
https://intelligence.org/
Compañía Calico ("California Life Company")
Calico es una compañía de biotecnología de investigación y desarrollo fundada el 18 de septiembre de 2013 por Bill Marisy respaldada por Google con el objetivo de combatir el envejecimiento y las enfermedades asociadas . En la Carta de los fundadores de Google de 2013, Larry Page describió a Calico como una empresa centrada en "la salud, el bienestar y la longevidad".
https://www.calicolabs.com/
Lifeboat Foundation
https://lifeboat.com/ex/about
Alcor - Life extension foundation
https://alcor.org/
Extropy Institute
http://www.extropy.org/
Silicon Valley (California, EEUU)
Dataismo
Extropía
Gnosticismo
Universidad de la Singularidad
test de Turing
Chatbots
NBIC
Principio de "proacción". (Proactionary principle). Introducido en 2004 por Max More en oposición al de precaución.
"La libertad de las personas para innovar tecnológicamente es altamente valiosa, incluso crítica, para la humanidad. Esto implica varios imperativos cuando se proponen medidas restrictivas: evaluar riesgos y oportunidades de acuerdo con la ciencia disponible, no con la percepción popular. Tenga en cuenta tanto los costos de las restricciones en sí, como los de oportunidades perdidas. Favorece medidas que son proporcionales a la probabilidad y la magnitud de los impactos, y que tienen un alto valor de expectativa. Proteger la libertad de las personas para experimentar, innovar y progresar".
El principio de proacción se formuló como un punto de vista opuesto al principio de precaución (que se basa en el concepto de que las consecuencias de las acciones en sistemas complejos a menudo son impredecibles e irreversibles y concluye que tales acciones deberían ser generalmente rechazadas). El Principio de proacción se basa en la observación de que, históricamente, las innovaciones tecnológicas más útiles e importantes no fueron ni obvias ni bien entendidas en el momento de su invención.
Concepto "Self-ownership"
La propiedad de uno mismo (también soberanía individual o autopropiedad) es la idea de que el individuo es propietario de su propia persona, o dicho que tiene un derecho natural o moral a controlar su cuerpo y vida. Este concepto es un principio fundamental de ideologías de corte libertario o anarquista.
Mind uploading (Transferencia mental): es una expresión acuñada por la corriente filosófica transhumanista y utilizada en el contexto de la ciencia ficción para referirse al hipotético proceso de codificación de una mente real para su posterior transvase a un sustrato artificial.
Singularidad Tecnológica
La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general (también conocida como "IA fuerte", del inglés "Strong AI"). La singularidad tecnológica implica que un equipo de cómputo, red informática, o un robot podrían ser capaces de auto-mejorarse recursivamente, o en el diseño y construcción de computadoras o robots mejores que él mismo. Se dice que las repeticiones de este ciclo probablemente darían lugar a un efecto fuera de control -una explosión de inteligencia, en donde las máquinas inteligentes podrían diseñar generaciones de máquinas sucesivamente más potentes. La creación de inteligencia sería muy superior al control y la capacidad intelectual humana.
Algunos autores se dedicaron a predecir cuándo esta singularidad ocurrirá. Por un lado el científico e inventor Raymond Kurzweil en su libro "La singularidad esta cerca" (2005), nos advierte que este fenómeno ocurrirá alrededor del año 2045 y predice un ascenso gradual a la singularidad. Aquel momento en donde se espera que las inteligencias basadas en la informática excedan significativamente la suma total de la capacidad intelectual humana, la escritura de los avances en la computación antes de esa fecha "no va a representar a la Singularidad" porque no lo hacen "para corresponder a una profunda expansión de nuestra inteligencia."29 En 2011, Kurzweil le dijo a la revista Time: "Nosotros reveriremos el éxito de la ingeniería del cerebro humano a mediados de la década de 2020. A finales de esa década, los ordenadores serán capaces de tener una inteligencia a nivel humano".30
Por otro lado Vernor Vinge la predice en 15 años menos, en el 2030. Esto difiere completamente con Kurzweil ya que predice un ascenso gradual a la singularidad, en lugar de una auto-mejora rápida de la inteligencia sobrehumana de Vinge. Para él hay cuatro maneras en que la singularidad podría ocurrir:
- El desarrollo de equipos que alcanzan la consciencia ("despiertan") y poseen inteligencia sobrehumana.
- Las grandes redes de ordenadores (y sus usuarios asociados) pueden "despertar" como una entidad sobrehumana inteligente.
- Interfaces humano/computadoras pueden llegar a ser tan íntimas que los usuarios razonablemente pueden considerarse sobrehumanamente inteligentes.
- La ciencia biológica puede encontrar maneras de mejorar el intelecto humano natural.
Vinge continúa prediciendo que las inteligencias sobrehumanas podrán mejorar sus propias mentes más rápido que sus creadores humanos. "Cuando las unidades de mayor inteligencia humana progresen", postula Vinge, "el progreso será mucho más rápido". Predice que este ciclo de retroalimentación de la inteligencia auto-mejorada conllevará grandes cantidades de avances tecnológicos dentro de un corto período de tiempo, y afirma que la creación de la inteligencia sobrehumana representa una ruptura en la capacidad de los humanos para modelar su futuro. Su argumento es que los autores no pueden escribir personajes realistas que superen el intelecto humano, ya que va más allá de la capacidad de expresión humana. En otras palabra: No podemos pensar más allá de nuestra capacidad y forma de pensar. Vinge nombra a este evento como "la Singularidad".
En la Cumbre de la Singularidad del 2012, Stuart Armstrong hizo un estudio sobre las predicciones de la inteligencia artificial general (AGI) de los expertos y se encontró una amplia gama de fechas predichas, con un valor medio de 2040. Discutiendo el nivel de incertidumbre en las estimaciones de AGI, Armstrong dijo en 2012: «No es completamente formal, pero mi estimación actual del 80 % es algo así como a partir de cinco a 100 años».
“La Singularidad nos permitirá trascender estas limitaciones de nuestros cerebros y cuerpos biológicos. Aumentaremos el control sobre nuestros destinos, nuestra mortalidad estará en nuestras propias manos, podremos vivir tanto como queramos (que es un poco diferente a decir que viviremos
para siempre), comprenderemos enteramente el pensamiento humano y expandiremos y aumentaremos enormemente su alcance (…) La Singularidad constituirá la culminación de la fusión entre nuestra existencia y pensamiento biológico con nuestra tecnología, dando lugar a un mundo
que seguirá siendo humano pero que trascenderá nuestras raíces biológicas. En la post-Singularidad no habrá distinción entre humano y máquina o entre realidad física y virtual. Si se pregunta sobre lo que seguirá siendo inequívocamente humano en un mundo así, la respuesta es simplemente esta cualidad: la nuestra es la especie que inherentemente busca expandir su alcance físico y mental más allá de sus limitaciones actuales”1 (Raymond Kurzweil - "La Singularidad está cerca"- 2012)
No hay comentarios:
Publicar un comentario