Descubre el Instituto para el Futuro de la Humanidad que trata de evitar que nuestra raza desaparezca

416 0
istock 000058043972 medium - Descubre el Instituto para el Futuro de la Humanidad que trata de evitar que nuestra raza desaparezca

 Por:Pedro González

humo19 74 original 300x196 - Descubre el Instituto para el Futuro de la Humanidad que trata de evitar que nuestra raza desaparezca
No solo en el Amazonas, que es donde se tomó la fotografía y se considera el “pulmón del planeta”, se produce una deforestación indiscriminada y agresiva, sino en muchos otros puntos del mundo.//EcoTicias., El Periódico Verde.com

Es evidente que el ritmo al que los humanos consumimos los recursos del planeta hace que el futuro de nuestra raza en la Tierra tenga fecha de caducidad. Además, el maltrato al que sometemos constante y vehementemente a nuestro habitat natural está acelerando el proceso. Sin embargo, valientes científicos e investigadores están encontrando caminos para encontrar soluciones futuras desde el Instituto para el Futuro de la Humanidad, el FHI, ubicado en la Universidad de Oxford.

¿Para qué sirve el FHI?

El FHI es un instituto que, bajo el amparo de la prestigiosa Universidad de Oxford está dirigido por Nick Bostrom, filósofo y especialista en matemáticas, física y neurociencia de la computadores. Junto a él, otros filósofos, economistas, físicos y tecnólogos elucubran sobre posibles eventos que podrían acabar con la vida humana y cómo enfrentarlos.

Bostrom es un reputado miembro de la comunidad científica internacional que cosechó un gran éxito con su libro “Superinteligencia: Caminos, Peligros, Estrategias”. De hecho, esta obra ha sido apoyada por grandes mentes del panorama actual como Elon MuskBill Gates o incluso Stephen Hawking, quien lleva ya algunos años alertando del peligro de una inteligencia artificial excesivamente desarrollada.

istock 000061826284 medium - Descubre el Instituto para el Futuro de la Humanidad que trata de evitar que nuestra raza desaparezca
DOLGACHOV/ISTOCK

Por lo tanto, en las salas del FHI se discute a todas horas sobre hipótesis y análisis de potenciales incidentes y sucesos que podrían acabar con la vida humana en la Tierra de aquí a unos años. Entre ellos, Bostrom siente especial preocupación por el desarrollo de máquinas inteligentes.

Los peligros de la Inteligencia Artificial

Bostrom, al igual que ha reiterado Stephen Hawking, alerta de los peligros de una máquina con exceso de Inteligencia Artificial, cuyos objetivos podrían diferir de los de los humanos. Así mismo, dado que tendrá la capacidad de razonar y evolucionar, podría realizar sus propios planes y anticipar acciones a todo cuanto pudiese imaginar cualquier individuo del planeta.

Es evidente que para Nick Bostrom y otros colegas científicos del FHI, un panorama tan desolador como el que vimos en películas como “Terminator” u obras literarias como “Yo, robot”, no son en absoluto descabellados.

istock 000047668310 medium - Descubre el Instituto para el Futuro de la Humanidad que trata de evitar que nuestra raza desaparezca
ISSAM KHRIJI/ISTOCK

Bostrom y sus colegas pueden desarrollar sus actividades gracias al filántropo millonario James Martin, quien sustenta al FHI dada su preocupación por los riesgos existenciales a los que se enfrenta la humanidad en el futuro más próximo.

Sin embargo, las hipótesis en las que se basan los estudios del FHI no solo se refieren a problemas físicos, sino también éticos y morales, por lo que la aparición de la filosofía moderna es un punto a tener en cuenta en las oficinas del instituto, desde donde se tratan de evitar posibles virus, pandemias e incluso guerras nucleares desde todos los ángulos.

Lo cierto es que da cierta tranquilidad saber que hay mentes brillantes velando por el futuro de la humanidad. Sin embargo, ¿serán estos señores capaces de detener la ambición desmedida que otras personalidades menos humanitarias muestran un día tras otro antes de que nuestra raza y planeta pague las consecuencias?

Tomado de VIX.com

Related Post

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *