Publisher Theme
I’m a gamer, always have been.

La inteligencia artificial (IA) podría llevarnos a la extinción.

(IA) podría llevar a la extinción al Homo sapiens.

0 390

La inteligencia artificial

Asi lo asegura el filósofo Nick Bostrom, y bautizado como “el filósofo del fin del mundo” por el New York. Sus ideas y comentarios desatan polémicas cada vez que las expone y gana acérrimos enemigos con la misma facilidad con que consigue fervorosos defensores.

Bostrom pinta un escenario oscuro en el que los investigadores crean una máquina capaz de mejorarse de manera constante por si sola. Le preocupa el uso del ADN que se acumula por nanosistemas simples que a su vez crean sistemas más complejos, lo que le da cada vez más poder para moldear el mundo.

Ahora supongamos que la IA sospecha que los humanos podrían interferir con sus planes, escribe Bostrom, quién está en la Universidad de Oxford en el Reino Unido. Podría decidir construir armas pequeñas y distribuirlas por todo el mundo de forma encubierta.

“En un momento preestablecido, los nanofactores que producen gas nervioso podrian mandar pequeños robots o drones para que busquen su objetivo, y entonces florecer sucesivamente y simultáneamente desde cada metro cuadrado del globo y atacar.

Por gracioso que parezca esto me recuerda a la película de Terminator. Pero para Bostrom y un número de otros científicos y filósofos, tales escenarios no son cosas de ciencia ficción ya que ellos están estudiando los avances tecnológicos que para ellos esto es un “riesgos existenciales” que podría acabar con la humanidad o al menos la civilización final tal como la conocemos.

“Piense en lo que estamos tratando de hacer los que formamos un equipo de científicos, y es evitar una amenaza que acabe con nuestra especie”, dice el filósofo Huw Price, que dirige el Centro para el Estudio de Riesgo existencial (RSME) aquí en la Universidad de Cambridge .

El físico Max Tegmark del Instituto de Tecnología de Massachusetts (MIT) en Cambridge, y miembro de la junta de CSER y un co-fundador de un centro de estudios similares, y el futuro de Life Institute (FLI). El dice que la IA es algo parecido a crear un Frankenstein. “Nosotros, los humanos estamos desarrollando gradualmente tecnología cada vez más poderosa y más potente, tanto que tenemos que ser más cuidadosos para no meter la pata”.

“No todo el mundo está convencido de esta teoría, porque la mayoría de la nueva tecnología incluyen patógenos creadas por el hombre, con un ejércitos de nanobots, que incluso la idea de que nuestro mundo podría ser desconectada y atacada es sumamente improbable”, dice Joyce Tait, que estudia cuestiones de reglamentación en las ciencias de la vida en el Innogen Instituto de Edimburgo.

La única verdadera amenaza existencial, dice, es: Una guerra nuclear mundial. De lo contrario, “No hay nada peligroso en el horizonte.”

El Psicólogo de la Universidad de Harvard Steven Pinker llama riesgos existenciales a una “categoría inútil” y advierte de que “fantasías frankensteinianas” podrían distraer la atención de las amenazas reales que tienen solución, como: el cambio climático y una guerra nuclear. “Sembrar el miedo sobre los desastres hipotéticos, lejos de salvaguardar el futuro de la humanidad, la puede poner en peligro”, escribe en su libro Ilustración: El caso de la razón, la ciencia, humanismo, y el Progreso.

La humanidad siempre se ha enfrentado a la posibilidad de un final prematuro. Como la caída de otro asteroide del tamaño que terminó el reinado de los dinosaurios; o un cataclismo volcánico que podría oscurecer los cielos durante años y morir de hambre.

Pero los riesgos existenciales han surgido desde 1945, cuando se detonó la primera bomba atómica. Basado en algunos cálculos de el físico Edward Teller había concluido que la explosión podría desencadenar una reacción en cadena global, “encender” la atmósfera. “A pesar de que ahora sabemos que ese resultado era físicamente imposible, califica como un riesgo existencial que estaba presente en el momento”, escribe Bostrom. Dentro de 2 décadas un verdadero riesgo existencial surgió, de las crecientes reservas de las nuevas armas.

La biotecnología es más barata y más fácil de manejar que la tecnología nuclear. La nanotecnología está haciendo rápidos progresos, dice Bostrom.

El astrónomo Martin Rees, ex presidente de la Royal Society, había advertido que a medida que la ciencia avanza, se colocará cada vez más el poder de destruir la civilización en manos de los individuos. El trío decidió lanzar CSER, el segundo centro de este tipo después del futuro de la humanidad del Instituto de Oxford, que se puso en marcha en 2005. El nombre de CSER era “un intento deliberado para empujar la idea de riesgo existencial más hacia la corriente principal”, dice Rees. “Estamos conscientes de que la gente piensa en estas cuestiones con un poco de miedo.”

CSER ha reclutado algunos partidarios de renombre: La junta consultiva científica incluye al físico Stephen Hawking, al biólogo de Harvard George Church, al líder de salud global Peter Piot, y al empresario Elon MuskTallin co-fundador de FLI en 2014, y la Iglesia, almizcle, Hawking, Bostrom, y Rees todos sirven en su junta consultiva científica . (El actor Morgan Freeman, que, literalmente, ha jugado a ser Dios, es también un asesor de FLI).

La mayor parte del dinero de CSER proviene de fundaciones e individuos, incluyendo Tallin, que donó cerca de $ 8 millones a las investigaciones de riesgo existencial en 2017. La producción académica de CSER ha sido “efímera” hasta el momento, Tallin concede. Pero el centro se creó como “una especie de campo de entrenamiento para la investigación de riesgos existenciales”.

Es más probable que una completa desaparición masiva sea por la liberación de un patógeno mortalUsted no tiene que dar vueltas a todo el planeta en átomos”, dice Church. “La interrupción de las redes eléctricas y otros servicios a gran escala o la liberación de un patógeno mortal podría crear el caos, derribar gobiernos, y enviar a la humanidad en una espiral descendente. “Para mí ese es el fin de la humanidad.”

Cuatro pandemias de gripe han barrido el mundo en el siglo pasado, incluyendo uno que mató a 50 millones de personas en 1918 y 1919. Los investigadores ya están diseñando patógenos que, en principio, podría ser aún más peligroso. Las preocupaciones sobre los estudios que hicieron que la cepa H5N1 de la gripe aviar más fácilmente transmisible entre los mamíferos, llevaron a Estados Unidos a poner fin a este tipo de investigación, hasta finales del año pasado . Terroristas o estados delincuentes podrían utilizar las labmade, como armas, o una plaga de ingeniería podría ser liberada accidentalmente.

Rees ha dicho públicamente que en 2020, “bioterrorismo o bioerror conducirán a 1 millón de víctimas en un solo evento.” El Microbiólogo de Harvard Marc Lipsitch ha calculado que  la probabilidad de un virus de la gripe labmade, provocaría una pandemia accidental  de entre uno de cada 1000 y una en 10.000 por año.  Ron Fouchier del Centro Médico Erasmus en Rotterdam, Holanda, uno de los investigadores involucrados en los estudios de H5N1, ha desestimado esa teotia, diciendo que el riesgo real es más como una en 33 mil millones por año y de laboratorio .

Los virus son poco probable de matar al ser humano, dice Bostrom; para él y para los demás, el IA representa una amenaza verdaderamente existenciales. La “super-inteligencia“. Si IA alguna vez logra adquirir una voluntad propia, podría resultar malévola y buscar activamente destruir a los humanos, como HAL, el ordenador bordo de una nave espacial en la película de Stanley Kubrick 2001: Una odisea del espacio.

Cuando las nuevas tecnologías surgieron en el pasado, la humanidad esperó hasta que sus riesgos eran evidentes antes de aprender a reducirlos. Un incendio mató a personas y ciudades fueron destruidas, por lo que los humanos inventaron extintores y retardantes de llama. Con los automóviles llegaron muertes y tráfico, entonces inventaron los cinturones de seguridad y las bolsas de aire. “La estrategia de la humanidad es aprender de los errores“, dice Tegmark.

Comentarios
Loading...