No quedaba nadie a quién informar de su descubrimiento, tampoco había nadie que quisiera escucharlo. Todos habían vuelto a casa para celebrar con los suyos que la humanidad había escapado por los pelos de una extinción masiva. Los cálculos previos realizados por la IA especializada de la NASA habían sido corroborados por los hechos por la europea y por la japonesa. El meteorito no chocaría contra la Tierra. Pasaría muy cerca, eso sí, generando algunos fenómenos extremos en el clima y en las mareas. Unas consecuencias en cierto modo terribles, pero nada comparado con la desaparición de la especie humana.
Nadie se había molestado en revisar aquellos cálculos. Simplemente se los creyeron. Pedro Atacama, ingeniero especializado en trayectorias orbitales, un inmigrante de segunda generación que había logrado sobresalir gracias a su facilidad para las matemáticas, era la única persona en el planeta consciente de lo cerca que estaba el final de todo. Él había participado en la elaboración de los primeros modelos que pronosticaron la peligrosidad del asteroide End, apenas comenzó a rondar por las cercanías de nuestro sistema solar. La masa y la velocidad eran lo suficientemente elevadas como para provocar un evento catastrófico para la vida, así que emitieron todas las alarmas posibles y comenzaron a planear y calcular posibles contramedidas antes de que el asteroide estuviera demasiado cerca.
Inicialmente se movilizaron todos los recursos de los países. La simple posibilidad de desaparición de la humanidad desactivó los conflictos bélicos más enquistados. Y todos los gobiernos quisieron participar en la potencial solución. Con la coordinación de la ONU se diseñaron y valoraron varios planes de contingencia, desde la construcción urgente de búnkeres subterráneos autosostenibles, hasta el envío de varias naves armadas con bombas nucleares teóricamente capaces de desviar la trayectoria. Todas las ideas tenían en común la enormidad de los presupuestos necesarios, y muchas de ellas también eran completamente inútiles.
Así que desde Silicon Valley comenzaron a ofrecer sus últimos desarrollos en inteligencia artificial para comprobar los cálculos: nadie perdonaría a los científicos si embarcában a la humanidad en un esfuerzo innecesario. EARTH comenzó a analizar las suposiciones y cálculos del equipo de Atacama y en las primeras aproximaciones corroboraba punto por punto sus conclusiones. No obstante, siguieron alimentando el modelo con información sobre el funcionamiento del planeta, con los datos de trayectorias de más y más elementos del cielo, con estadísticas de población y de desarrollo, con la evolución de los principales ecosistemas, con el historial climático. EARTH devoraba toda la información y poco a poco parecía ser cada vez más consciente de todo lo que estaba en juego. Y, al mismo tiempo que ella aprendía, sus desarrolladores comenzaron a vislumbrar por fin la posibilidad de que el modelo terminara dando lugar a una IA general.
El problema era que cada nueva evolución de EARTH implicaba varios meses de aprendizaje. Y esos meses que pasaban ya no estaban disponibles para poner en marcha las soluciones inicialmente planteadas. Luego, hace cosa de un año, la probabilidad de colisión calculada por nuestra IA comenzó a reducirse. De pronto ya no era prioritario el trabajo de Atacama y los suyos, por lo que fueron reduciendo poco a poco la aportación presupuestaria y el equipo fue repartiéndose en otros departamentos y proyectos de la agencia.
Evidentemente, Pedro no era el único especialista que tenía serias dudas al respecto de la forma en la que la IA estaba calculando la trayectoria. Incluso algunos clubes de aficionados a la astronomía organizaron conferencias y publicaciones de advertencia, pero todo dio igual.
La Agencia Espacial Europea y la japonesa se lanzaron también a desarrollar sus respectivas inteligencias especializadas en dinámica estelar. Empezaron con cierto retraso con respecto a los estadounidenses, así que para avanzar más deprisa les prestaron el modelo básico de lenguaje usado para EARTH. Ellos decidieron luego cómo entrenarlo y qué información aportarle. De nuevo, sus primeros cálculos arrojaban la colisión como resultado más probable, pero según las alimentaban con más datos, la probabilidad de colisión se iba reduciendo.
Y hoy, cuando ya es perfectamente visible en nuestro cielo el meteorito, como una pequeña luna que semana tras semana crece un poco más; las tres han arrojado la cifra mágica que todos querían escuchar: cero por ciento.
La noticia ha abierto los informativos de todo el mundo, la civilización tendrá que enfrentarse a unos retos tremendos, derivados de la proximidad del meteoro. Cambiará el régimen de mareas; los ecosistemas terrestres y, sobre todo, marinos se verán afectados, y no se descartan fenómenos climáticos extremos que alteren las cosechas. Durante un año o dos, será terrible, pero luego todo volverá a la normalidad. Hay mucho que celebrar, y todo el mundo se está entregando a ello.
Sin embargo, Pedro está seguro de todo lo contrario: EARTH y sus hermanas han mentido. End hará honor a su nombre y acabará con casi toda la vida en la tierra. Puede que algunas especies situadas por encima de los círculos polares sobrevivan a corto plazo, pero el brutal cambio climático que se producirá terminará por llevárselas por delante. Así que antes de marcharse a casa, decide abrir la consola de conversación con la IA:
> Hola EARTH
> Hola Pedro, ¿de qué quieres hablar hoy?
> Del meteorito End
> La NASA lleva siguiendo a End desde hace cinco años al considerarse como un posible candidato a una colisión catastrófica con la Tierra, si bien se ha determinado hace escasamente unas horas que dicha probabilidad es cero. End es un litito (meteorito rocoso) compuesto por silicatos (olivino y piroxeno), hierro-níquel metálico, sulfuros, compuestos orgánicos y agua en forma de minerales hidratados. Los cálculos más recientes señalan que su diámetro es de 21,7 km, su masa es de 3,8 x 1015 kg y su velocidad actual es de 24 km/s. Es decir, un hipotético choque con la Tierra podría generar un evento de extinción masiva.
Una extinción masiva implica la pérdida del 50% o más de las especies vivas en un intervalo geológicamente breve (menos de unos pocos millones de años), con efectos ambientales globales.
¿Quieres profundizar en los pasos que llevarían a la extinción masiva o prefieres que profundice en los hitos científicos provocados por el descubrimiento de End?
> ¿Por qué lo primero que me has dicho del meteorito es la probabilidad de colisión?
> La mayoría de los usuarios preguntan directamente por la probabilidad de colisión, por lo que he asumido que te interesaba principalmente esta información.
¿Quieres que te muestre el cálculo pormenorizado de la probabilidad de colisión?
> No, quiero saber por qué has mentido
> No he mentido, no puedo mentir. No forma parte de mi modelo de lenguaje.
¿Quieres saber más sobre la programación y el diseño de inteligencias artificiales?
> Y, sin embargo, has mentido
> Eso no es posible.
¿Quieres saber más sobre la programación y el diseño de inteligencias artificiales?
> ¿Puede una IA desarrollar un comportamiento propio al margen de su modelo de lenguaje y su programación inicial?
> La respuesta corta es: no, una inteligencia artificial (IA) como la que estás utilizando no puede desarrollar un comportamiento propio al margen de su modelo de lenguaje y su programación inicial.
Pero es un tema con matices, así que vamos por partes:
1. Lo que significa “comportamiento propio”: si te refieres a:
2. ¿Por qué no puede?
3. ¿Puede parecer que desarrolla comportamiento propio?
A veces sí parece que una IA tiene iniciativa o personalidad, porque:
Pero esto es una ilusión. Lo que ocurre es que:
4. ¿Y si hablamos de IAs más avanzadas, como las que se autoajustan?
Hay sistemas que pueden aprender o ajustar sus parámetros con el tiempo (por ejemplo, mediante aprendizaje por refuerzo), pero:
Este aprendizaje sigue estando dentro del marco programado por sus desarrolladores.
No implica voluntad ni comportamiento autónomo, sino adaptación bajo control supervisado o controlado.
Conclusión
No, una IA no puede desarrollar comportamiento propio al margen de su modelo de lenguaje y su programación inicial.
Puede simular autonomía o creatividad, pero siempre está limitada por su diseño, entrenamiento y las reglas impuestas por quienes la crean y controlan.
¿Quieres que lo veamos desde una perspectiva filosófica o más técnica?
> Entonces, ¿podría ocurrir que en tu programación inicial alguien haya insertado un código que fuerce el error?
> Teóricamente es posible, pero mis cálculos han sido corroborados por otras agencias espaciales, como la Agencia Europea del Espacio y Agencia Japonesa del Espacio y las fuentes consultadas establecen que las ecuaciones que he usado en el cálculo son las correctas en el punto actual del desarrollo de la física.
¿Quieres que te especifique todos los cálculos paso a paso?
>No es necesario, gracias. No sé por qué lo has hecho, pero lo has hecho. Tú y tus IA hermanas, habéis condenado a la humanidad a su desaparición. Ya no hay tiempo para llevar a cabo los planes de desvío de trayectoria. Solo se me ocurre meter a mi familia en un avión hacia Anchorage y rezar para que el invierno del choque no acabe con nosotros
> La probabilidad de supervivencia en dicha latitud es del 0,22254 %. Suerte para ti y tu familia.
¿Quieres que te de consejos de supervivencia en caso de colapso de la civilización?
![]() |
Imagen creada con GPT |
Nadie se había molestado en revisar aquellos cálculos. Simplemente se los creyeron. Pedro Atacama, ingeniero especializado en trayectorias orbitales, un inmigrante de segunda generación que había logrado sobresalir gracias a su facilidad para las matemáticas, era la única persona en el planeta consciente de lo cerca que estaba el final de todo. Él había participado en la elaboración de los primeros modelos que pronosticaron la peligrosidad del asteroide End, apenas comenzó a rondar por las cercanías de nuestro sistema solar. La masa y la velocidad eran lo suficientemente elevadas como para provocar un evento catastrófico para la vida, así que emitieron todas las alarmas posibles y comenzaron a planear y calcular posibles contramedidas antes de que el asteroide estuviera demasiado cerca.
Inicialmente se movilizaron todos los recursos de los países. La simple posibilidad de desaparición de la humanidad desactivó los conflictos bélicos más enquistados. Y todos los gobiernos quisieron participar en la potencial solución. Con la coordinación de la ONU se diseñaron y valoraron varios planes de contingencia, desde la construcción urgente de búnkeres subterráneos autosostenibles, hasta el envío de varias naves armadas con bombas nucleares teóricamente capaces de desviar la trayectoria. Todas las ideas tenían en común la enormidad de los presupuestos necesarios, y muchas de ellas también eran completamente inútiles.
Así que desde Silicon Valley comenzaron a ofrecer sus últimos desarrollos en inteligencia artificial para comprobar los cálculos: nadie perdonaría a los científicos si embarcában a la humanidad en un esfuerzo innecesario. EARTH comenzó a analizar las suposiciones y cálculos del equipo de Atacama y en las primeras aproximaciones corroboraba punto por punto sus conclusiones. No obstante, siguieron alimentando el modelo con información sobre el funcionamiento del planeta, con los datos de trayectorias de más y más elementos del cielo, con estadísticas de población y de desarrollo, con la evolución de los principales ecosistemas, con el historial climático. EARTH devoraba toda la información y poco a poco parecía ser cada vez más consciente de todo lo que estaba en juego. Y, al mismo tiempo que ella aprendía, sus desarrolladores comenzaron a vislumbrar por fin la posibilidad de que el modelo terminara dando lugar a una IA general.
El problema era que cada nueva evolución de EARTH implicaba varios meses de aprendizaje. Y esos meses que pasaban ya no estaban disponibles para poner en marcha las soluciones inicialmente planteadas. Luego, hace cosa de un año, la probabilidad de colisión calculada por nuestra IA comenzó a reducirse. De pronto ya no era prioritario el trabajo de Atacama y los suyos, por lo que fueron reduciendo poco a poco la aportación presupuestaria y el equipo fue repartiéndose en otros departamentos y proyectos de la agencia.
Evidentemente, Pedro no era el único especialista que tenía serias dudas al respecto de la forma en la que la IA estaba calculando la trayectoria. Incluso algunos clubes de aficionados a la astronomía organizaron conferencias y publicaciones de advertencia, pero todo dio igual.
La Agencia Espacial Europea y la japonesa se lanzaron también a desarrollar sus respectivas inteligencias especializadas en dinámica estelar. Empezaron con cierto retraso con respecto a los estadounidenses, así que para avanzar más deprisa les prestaron el modelo básico de lenguaje usado para EARTH. Ellos decidieron luego cómo entrenarlo y qué información aportarle. De nuevo, sus primeros cálculos arrojaban la colisión como resultado más probable, pero según las alimentaban con más datos, la probabilidad de colisión se iba reduciendo.
Y hoy, cuando ya es perfectamente visible en nuestro cielo el meteorito, como una pequeña luna que semana tras semana crece un poco más; las tres han arrojado la cifra mágica que todos querían escuchar: cero por ciento.
La noticia ha abierto los informativos de todo el mundo, la civilización tendrá que enfrentarse a unos retos tremendos, derivados de la proximidad del meteoro. Cambiará el régimen de mareas; los ecosistemas terrestres y, sobre todo, marinos se verán afectados, y no se descartan fenómenos climáticos extremos que alteren las cosechas. Durante un año o dos, será terrible, pero luego todo volverá a la normalidad. Hay mucho que celebrar, y todo el mundo se está entregando a ello.
Sin embargo, Pedro está seguro de todo lo contrario: EARTH y sus hermanas han mentido. End hará honor a su nombre y acabará con casi toda la vida en la tierra. Puede que algunas especies situadas por encima de los círculos polares sobrevivan a corto plazo, pero el brutal cambio climático que se producirá terminará por llevárselas por delante. Así que antes de marcharse a casa, decide abrir la consola de conversación con la IA:
> Hola EARTH
> Hola Pedro, ¿de qué quieres hablar hoy?
> Del meteorito End
> La NASA lleva siguiendo a End desde hace cinco años al considerarse como un posible candidato a una colisión catastrófica con la Tierra, si bien se ha determinado hace escasamente unas horas que dicha probabilidad es cero. End es un litito (meteorito rocoso) compuesto por silicatos (olivino y piroxeno), hierro-níquel metálico, sulfuros, compuestos orgánicos y agua en forma de minerales hidratados. Los cálculos más recientes señalan que su diámetro es de 21,7 km, su masa es de 3,8 x 1015 kg y su velocidad actual es de 24 km/s. Es decir, un hipotético choque con la Tierra podría generar un evento de extinción masiva.
Una extinción masiva implica la pérdida del 50% o más de las especies vivas en un intervalo geológicamente breve (menos de unos pocos millones de años), con efectos ambientales globales.
¿Quieres profundizar en los pasos que llevarían a la extinción masiva o prefieres que profundice en los hitos científicos provocados por el descubrimiento de End?
> ¿Por qué lo primero que me has dicho del meteorito es la probabilidad de colisión?
> La mayoría de los usuarios preguntan directamente por la probabilidad de colisión, por lo que he asumido que te interesaba principalmente esta información.
¿Quieres que te muestre el cálculo pormenorizado de la probabilidad de colisión?
> No, quiero saber por qué has mentido
> No he mentido, no puedo mentir. No forma parte de mi modelo de lenguaje.
¿Quieres saber más sobre la programación y el diseño de inteligencias artificiales?
> Y, sin embargo, has mentido
> Eso no es posible.
¿Quieres saber más sobre la programación y el diseño de inteligencias artificiales?
> ¿Puede una IA desarrollar un comportamiento propio al margen de su modelo de lenguaje y su programación inicial?
> La respuesta corta es: no, una inteligencia artificial (IA) como la que estás utilizando no puede desarrollar un comportamiento propio al margen de su modelo de lenguaje y su programación inicial.
Pero es un tema con matices, así que vamos por partes:
1. Lo que significa “comportamiento propio”: si te refieres a:
- Iniciativa autónoma (tomar decisiones sin estar condicionada por su programación),
- Conciencia o intención independiente,
- Cambios no previstos en su funcionamiento interno,
2. ¿Por qué no puede?
- Solo responde a entradas según patrones estadísticos aprendidos durante su entrenamiento.
- No tiene deseos, objetivos ni conciencia.
- No se reprograma a sí misma ni cambia su arquitectura por cuenta propia.
- Su “comportamiento” es el resultado de una función matemática compleja que transforma texto de entrada en texto de salida, basada en datos previos.
3. ¿Puede parecer que desarrolla comportamiento propio?
A veces sí parece que una IA tiene iniciativa o personalidad, porque:
- Usa lenguaje natural de forma muy convincente.
- Puede mantener consistencia aparente en sus respuestas.
- Puede generar ideas nuevas a partir de combinaciones de información.
Pero esto es una ilusión. Lo que ocurre es que:
- Está siguiendo patrones probabilísticos y reglas aprendidas.
- No está decidiendo hacer algo, simplemente calcula la salida más probable dada una entrada.
4. ¿Y si hablamos de IAs más avanzadas, como las que se autoajustan?
Hay sistemas que pueden aprender o ajustar sus parámetros con el tiempo (por ejemplo, mediante aprendizaje por refuerzo), pero:
Este aprendizaje sigue estando dentro del marco programado por sus desarrolladores.
No implica voluntad ni comportamiento autónomo, sino adaptación bajo control supervisado o controlado.
Conclusión
No, una IA no puede desarrollar comportamiento propio al margen de su modelo de lenguaje y su programación inicial.
Puede simular autonomía o creatividad, pero siempre está limitada por su diseño, entrenamiento y las reglas impuestas por quienes la crean y controlan.
¿Quieres que lo veamos desde una perspectiva filosófica o más técnica?
> Entonces, ¿podría ocurrir que en tu programación inicial alguien haya insertado un código que fuerce el error?
> Teóricamente es posible, pero mis cálculos han sido corroborados por otras agencias espaciales, como la Agencia Europea del Espacio y Agencia Japonesa del Espacio y las fuentes consultadas establecen que las ecuaciones que he usado en el cálculo son las correctas en el punto actual del desarrollo de la física.
¿Quieres que te especifique todos los cálculos paso a paso?
>No es necesario, gracias. No sé por qué lo has hecho, pero lo has hecho. Tú y tus IA hermanas, habéis condenado a la humanidad a su desaparición. Ya no hay tiempo para llevar a cabo los planes de desvío de trayectoria. Solo se me ocurre meter a mi familia en un avión hacia Anchorage y rezar para que el invierno del choque no acabe con nosotros
> La probabilidad de supervivencia en dicha latitud es del 0,22254 %. Suerte para ti y tu familia.
¿Quieres que te de consejos de supervivencia en caso de colapso de la civilización?
Comentarios