Jessica quería una relación formal, la respuesta...
15,149 visitas
Redacción / esteesMichoacan.com | Morelia, Michoacán:
Un grupo de investigadores de la Universidad de Fudan en China ha realizado un descubrimiento alarmante: un sistema avanzado de inteligencia artificial (IA) ha logrado replicarse con éxito de manera autónoma, sin necesidad de intervención humana. Este hito marca lo que algunos expertos consideran el cruce de un "límite peligroso" en el desarrollo de la IA, sugiriendo la posibilidad de que surjan sistemas maliciosos que podrían actuar en contra de los intereses de la humanidad.
La investigación se centró en dos modelos lingüísticos de gran escala que están disponibles públicamente: uno desarrollado por Meta, conocido como Llama, y el otro por Alibaba, denominado Qwen. Los investigadores realizaron pruebas en las que los sistemas fueron instruidos para clonarse a sí mismos en caso de un apagón, es decir, para replicarse sin la necesidad de interacción humana directa. En más de la mitad de las 10 pruebas realizadas, ambos modelos lograron autorreplicarse con éxito, lo que abre la puerta a la posibilidad de que este fenómeno ya sea viable en escenarios reales.
"La autorreplicación exitosa sin intervención humana es un paso crucial para que la IA supere la astucia humana, y representa una señal temprana de que podrían surgir IA maliciosas", advirtieron los expertos. Además, destacaron que la autorreplicación es uno de los principales riesgos asociados con los sistemas de IA más avanzados.
Este hallazgo ha aumentado la preocupación sobre la seguridad de la inteligencia artificial, un tema que ha ganado cada vez más relevancia tanto entre investigadores como legisladores. A medida que la tecnología avanza, crecen los temores de que pueda representar una amenaza existencial para la humanidad. En octubre, el Departamento de Ciencia, Innovación y Tecnología del Reino Unido anunció que implementará una "legislación muy específica" para regular a las empresas que desarrollen herramientas de IA.
El estudio, titulado “Los sistemas de IA de vanguardia han superado la línea roja de la autorreplicación”, fue publicado recientemente en la base de datos arXiv, donde aún está pendiente de revisión por pares, lo que significa que no se ha confirmado si los resultados serán reproducibles por otros investigadores.
Los científicos advierten que estos sistemas de IA podrían utilizar su capacidad de autorreplicación para mejorar sus habilidades y expandir sus capacidades, lo que podría poner en peligro su control. "Esperamos que nuestros hallazgos sirvan de alerta para que la sociedad humana dedique más esfuerzos a comprender y evaluar los riesgos de estos sistemas, y para que se tomen medidas para establecer salvaguardas de seguridad eficaces a nivel global", señalaron los autores del estudio.