abril 26, 2024

Onu Noticias

Encuentre las últimas noticias, fotos y videos de México. Lea los titulares de última hora de México en Onu Noticias

La inteligencia artificial es una amenaza para la humanidad. Está pidiendo un descanso de seis meses con Steve Wozniak y Yuval Noah Harari.

“Los sistemas de inteligencia artificial pueden suponer graves riesgos para la sociedad y la humanidad” y por ello “hacemos un llamamiento a todos los laboratorios de IA para que lo hagan”. Suspensión inmediata de los entrenamientos durante al menos seis meses.». Firmado por Elon Musk.

Elon Musk, Steve Wozniak y Yuval Noah Harari

Las nuevas críticas contra Ai provienen de figuras destacadas del sector, en primer lugar el propietario de Tesla. Es uno de los fundadores de OpenAI (pero ahora ha dejado la junta directiva) (su historia aquí) que dio vida a ChatGpt, la inteligencia artificial que fue la primera en permitirnos experimentar el poder del pensamiento “pseudo-humano”. Es él quien utiliza la inteligencia artificial en sus coches para el sistema de conducción autónoma del piloto automático Hace dos años introdujo los bots Tesla Bot y Optimus. Luego está el fundador de Apple, Steve Wozniak, el autor superventas Yuval Noah Harari y muchos otros expertos como Josué Bengiode la Universidad de Montreal, H. stuart russell Berkeley, uno de los principales héroes de la revolución.

“Detengámonos en Gpt-4”

Los nombres aparecen en el archivo. Una carta abierta publicada en línea pide un alto Para todos los sistemas más fuertes que Gpt-4, la última versión del sistema es increíble. Trasciende los textos y también puede crear imágenes, y puede crear videojuegos como apestar (antecesor del sector) en menos de un minuto, Dibujar un sitio web a partir de un boceto simple dibujado en una hoja de papel y crear una receta que “se fije” en la imagen de los ingredientes (además de otras muchas cosas, como te contamos aquí).

READ  Índice BTp, la demanda europea se sitúa en 41.000 millones de dólares
Motivos de la solicitud

Es precisamente la posición cultural de los firmantes lo que da fuerza al mensaje. Toma la melodía clásica de “¿Qué sucede si cae en las manos equivocadas?” Ya hemos visto muchas innovaciones. “Los sistemas de IA fuertes solo deben desarrollarse cuando estamos seguros de ello Sus efectos serán positivos y sus riesgos pueden ser controladosLee el texto, de ahí la solicitud de detener el desarrollo durante seis meses.Hasta que se desarrollen protocolos de seguridad comunes para tales proyectosimplementado y verificado por expertos independientes.”

porqué ahora

La fecha de publicación de esta carta no es casual. Por un lado, incluso los no expertos son ahora conscientes del enorme potencial de la inteligencia artificial y «Los dramáticos trastornos económicos y políticos (especialmente para la democracia) que la IA provocaráComo consta en la carta. Lo probamos con las imágenes aleccionadoras del arresto falso de Donald Trump o la colcha del Papa. Muchos pensaron que era correcto (y hay quienes lo descartaron como tal), pero fue creado por inteligencia artificial.

Alerta Europol

Además el pasado lunes Europol Publicar un documento Muestra abuso de Gpt 3.5 (la versión anterior de Gpt-4 en la que se basa ChatGpt actual), y Cómo pueden usarlo los ciberdelincuentes Para crear correos electrónicos de phishing sin errores ortográficos y gramaticales, para crear scripts confiables a partir de publicidad y desinformación, para programar software de forma independiente compilando código a través de varios lenguajes de programación. Software que también puede incluir malware, por supuesto.

Sam Altman también llama a la cautela

Sobre todo esto, Sam Altman, el extravagante CEO de OpenAI (su historia aquí), no se ha pronunciado, pero básicamente ya ha dado su opinión. El 24 de febrero, firmó una publicación de blog afirmando: “Alto riesgo de mal uso, accidentes y disturbios sociales»De «AJI», la inteligencia general artificial que simula el pensamiento humano. Altman admite que los beneficios son “tan grandes que… No creemos posible ni deseable que la sociedad detenga su desarrollo para siempre.Como resultado, él y su equipo “se volvieron cada vez más cautelosos al diseñar y publicar estos modelos”.

READ  Agencia Tributaria, una avalancha de reembolsos está en camino: aquí le mostramos cómo obtenerlos
Guión de terminador

Sus preocupaciones son las mismas que las de Europol (abuso, delitos informáticos, desinformación, propaganda) y se pueden resumir en una maravillosa definición, “escenario Terminator”. Teorizado, entre otros, por Altman y Musk, recordando los escenarios apocalípticos de la película de James Cameron, es decir. ¿Qué le puede pasar a la humanidad que se ha vuelto obsoleta? Desde el desarrollo de inteligencia artificial con conciencia y capacidades cognitivas más allá de las nuestras.

Luego está Microsoft

Hay otro aspecto curioso de la puntualidad en esta carta. acaba de llegar A raíz de la alianza entre OpenAI y Microsoft 7 de febrero (detalles aquí). A pesar de las preocupaciones de Bill Gates, Satya Nadella invirtió $ 10 mil millones en la compañía de Altman para vencer claramente a la competencia (especialmente AI Bard de Google, aquí está la comparación entre los dos). Ya implementó ChatGpt en el motor de búsqueda Bing (con algunas rarezas), en Teams y Windows 11 y ahora también está trabajando para llevar AI a Office 365. “Pensar mal” (como decía Andreotti)…