¿Necesitas contactar al equipo editorial? Envía tus correos electrónicos a [email protected] o ve a nuestro formulario.
Actualidad

El ex director ejecutivo de Google advierte sobre una catástrofe global de la IA en cinco años

La inteligencia artificial (IA) es un tema que ha capturado la atención del mundo en los últimos años. Con avances significativos en esta tecnología, surgen preguntas y preocupaciones sobre su impacto en la humanidad. Recientemente, el ex CEO de Google, Eric Schmidt, ha expresado su inquietud acerca de los posibles peligros que la IA podría representar para nuestro futuro. En un discurso en un evento organizado por Axios, Schmidt comparó la IA con las bombas atómicas lanzadas sobre Japón en 1945, sugiriendo que la falta de medidas de seguridad adecuadas podría llevar a una catástrofe global. En este artículo, exploraremos las opiniones divergentes sobre el tema y examinaremos si la preocupación de Schmidt es real o simplemente una exageración.

El llamado de alerta de Eric Schmidt

Según Schmidt, existe una falta de medidas de seguridad para controlar y prevenir daños significativos causados por la IA. Haciendo referencia a los tratados internacionales que se establecieron después de los bombardeos atómicos en Japón, Schmidt argumenta que no tenemos el lujo de esperar tanto tiempo para abordar los desafíos de la IA. Él cree que la IA podría volverse lo suficientemente poderosa como para causar daños a la humanidad en tan solo cinco o diez años. Schmidt incluso propone la creación de una organización no gubernamental similar al Grupo Intergubernamental de Expertos sobre el Cambio Climático (GIEC) para ayudar a los responsables políticos a tomar decisiones cuando la IA se vuelva demasiado poderosa.

Photo Freepik

Opiniones Divergentes

Aunque Schmidt plantea una preocupación legítima, hay quienes argumentan que su perspectiva es prematura y exagerada. Yann Le Cun, director en Meta y experto en IA, ha declarado que el debate sobre el riesgo existencial de la IA es prematuro, ya que la tecnología aún no ha alcanzado la capacidad de rivalizar con las habilidades de aprendizaje de un gato. Le Cun sugiere que antes de preocuparnos por una catástrofe global, debemos centrarnos en desarrollar sistemas de IA más avanzados.

El equilibrio en la preocupación

En última instancia, la preocupación sobre el impacto de la IA en la humanidad se encuentra en algún punto intermedio entre las opiniones extremas. Es importante reconocer que la IA tiene el potencial de generar avances significativos en diversos campos, como la medicina, la industria y la investigación científica. Sin embargo, también debemos ser conscientes de los posibles riesgos asociados con la falta de regulación y medidas de seguridad adecuadas. Es esencial encontrar un equilibrio entre el desarrollo de la IA y la implementación de salvaguardias para proteger a la humanidad.

Referencias

3/5 - (2 votos) ¿Le resultó útil este artículo?
Lee también:
Lidia Baldomero