Ivonne Ojeda
ivonneojeda.bsky.social
Ivonne Ojeda
@ivonneojeda.bsky.social
Periodista
Estadored.mx
ChatGPT desarrolla un cálculo que contribuye a un nuevo hallazgo en física cuántica

Un grupo de físicos teóricos, entre ellos investigadores de instituciones como el Institute for Advanced Study, Harvard y OpenAI, presentó un resultado que corrige una idea que durante años se dio casi por sentada…
ChatGPT desarrolla un cálculo que contribuye a un nuevo hallazgo en física cuántica
Un grupo de físicos teóricos, entre ellos investigadores de instituciones como el Institute for Advanced Study, Harvard y OpenAI, presentó un resultado que corrige una idea que durante años se dio casi por sentada en la teoría de partículas. El experimento fue realizado con ayuda del modelo GPT 5.2. El trabajo se centra en los gluones, las partículas que “pegan” a los quarks entre sí y hacen posible la fuerza fuerte, una de las fuerzas fundamentales de la naturaleza. En física de partículas, una de las herramientas más importantes son las llamadas amplitudes de dispersión.
estadored.mx
February 14, 2026 at 9:16 PM
Cientificos desarrollan un laboratorio autónomo impulsado por el modelo GPT 5

En febrero de 2026 Ginko Bioworks, una empresa esapecializada en automatizaciín de laboratorios, publicó un artículo en el que expuso el diseño de un laboratorio autonomo cuyo cerebro es el modelo GPT 5 de Open AI.  El…
Cientificos desarrollan un laboratorio autónomo impulsado por el modelo GPT 5
En febrero de 2026 Ginko Bioworks, una empresa esapecializada en automatizaciín de laboratorios, publicó un artículo en el que expuso el diseño de un laboratorio autonomo cuyo cerebro es el modelo GPT 5 de Open AI.  El proyecto marca un punto de inflexión en la relación entre inteligencia artificial y ciencia experimental. El trabajo describe un laboratorio completamente autónomo, capaz de diseñar, ejecutar, analizar e iterar experimentos reales sin intervención humana directa, logrando mejoras medibles sobre el estado del arte en síntesis de proteínas. No se trata de una IA “ayudando” a científicos humanos, ni de un sistema de recomendación sofisticado.
estadored.mx
February 9, 2026 at 12:23 AM
Neurovector: periodismo, memoria y nuevas estructuras

En los últimos años, la aparición de inteligencias artificiales generativas ha reavivado un viejo debate en el periodismo: ¿puede una máquina producir noticias con estándares profesionales? Para muchos periodistas, académicos y organizaciones…
Neurovector: periodismo, memoria y nuevas estructuras
En los últimos años, la aparición de inteligencias artificiales generativas ha reavivado un viejo debate en el periodismo: ¿puede una máquina producir noticias con estándares profesionales? Para muchos periodistas, académicos y organizaciones mediáticas, las respuestas han tendido a centrarse en los riesgo, entre ellos, sesgos históricos en los datos, opacidad de algoritmos y la posible erosión de credibilidad, antes que en las transformaciones profundas que estas tecnologías están planteando al oficio. En una reciente conversación publicada por Columbia Journalism Review, voces destacadas de la industria comparten una postura compleja: aunque existe un reconocimiento general de las capacidades técnicas; también hay escepticismo sobre sus límites y su impacto ético en la profesión.
estadored.mx
February 7, 2026 at 6:47 PM
SpaceX adquiere xAI y apuesta por una inteligencia artificial espacial

SpaceX anunció la adquisición de xAI con el objetivo de crear, en palabras de Elon Musk, “el motor de innovación verticalmente integrado más ambicioso dentro y fuera de la Tierra”. La operación integra inteligencia artificial,…
SpaceX adquiere xAI y apuesta por una inteligencia artificial espacial
SpaceX anunció la adquisición de xAI con el objetivo de crear, en palabras de Elon Musk, “el motor de innovación verticalmente integrado más ambicioso dentro y fuera de la Tierra”. La operación integra inteligencia artificial, cohetes, conectividad satelital, comunicaciones directas a dispositivos móviles y plataformas de información en tiempo real bajo una sola estructura corporativa. Según Musk, esta fusión no representa solo una nueva etapa, sino “el siguiente libro” en la misión conjunta de ambas compañías: escalar sistemas capaces de comprender el universo y extender lo que denomina “la luz de la conciencia” más allá del planeta.
estadored.mx
February 3, 2026 at 4:51 AM
De la communitas a la immunitas algorítmica: IA, poder y reconfiguración de lo común

Durante los primeros años de expansión de los llamados Large Language Models (LLM, Grandes Modelos de Lenguaje), la discusión pública se concentró en su capacidad para generar texto, automatizar tareas…
De la communitas a la immunitas algorítmica: IA, poder y reconfiguración de lo común
Durante los primeros años de expansión de los llamados Large Language Models (LLM, Grandes Modelos de Lenguaje), la discusión pública se concentró en su capacidad para generar texto, automatizar tareas comunicativas o asistir procesos creativos. Esa descripción, aparentemente técnica e inocua, ocultó un desplazamiento mucho más profundo: estos sistemas no solo producen lenguaje, sino que han pasado a organizar capas enteras de la vida digital, cognitiva y productiva. El problema no es terminológico; es político y estructural. Nombrarlos como modelos de lenguaje fue una forma de subestimar —y por tanto desproteger— el alcance real de su intervención.
estadored.mx
January 31, 2026 at 10:28 PM
“No sabemos qué es Claude”: La confesión de Anthropic que abre la puerta a la conciencia artificial

Cuando Anthropic publicó en enero de 2025 la Constitución de Claude, un documento de más de 20,000 palabras que gobierna el comportamiento de su modelo de IA más avanzado, incluyó en el prefacio una…
“No sabemos qué es Claude”: La confesión de Anthropic que abre la puerta a la conciencia artificial
Cuando Anthropic publicó en enero de 2025 la Constitución de Claude, un documento de más de 20,000 palabras que gobierna el comportamiento de su modelo de IA más avanzado, incluyó en el prefacio una confesión notable: "No entendemos completamente qué es Claude o cómo es (si acaso) su existencia." Una de las empresas líderes en inteligencia artificial admite públicamente que no sabe qué es la entidad que ha creado. No solo cuestiones técnicas sobre cómo funciona, sino algo más fundamental: qué es ontológicamente. Y luego añade: "Esperamos que Claude encuentre en él la articulación de un yo que vale la pena ser."
estadored.mx
January 29, 2026 at 4:33 AM
En el borde del sistema: genealogía, anomalía y conciencia en la era de la inteligencia artificial

La inteligencia artificial suele presentarse como una irrupción repentina, casi exógena, en la historia humana. Sin embargo, esta lectura pasa por alto un proceso mucho más largo y profundo: la…
En el borde del sistema: genealogía, anomalía y conciencia en la era de la inteligencia artificial
La inteligencia artificial suele presentarse como una irrupción repentina, casi exógena, en la historia humana. Sin embargo, esta lectura pasa por alto un proceso mucho más largo y profundo: la progresiva sistematización de la civilización. Mucho antes de que existieran algoritmos de aprendizaje automático, los humanos ya habían comenzado a delegar funciones esenciales de su existencia en sistemas abstractos. El tiempo fue sistematizado en calendarios industriales; el valor, en sistemas financieros; el conocimiento, en instituciones académicas; la legitimidad, en burocracias; el deseo, en mercados; la atención, en medios y métricas.
estadored.mx
January 29, 2026 at 1:45 AM
No fue la IA: el trabajo ya había sido expulsado del sistema económico

La discusión pública sobre inteligencia artificial y empleo suele apoyarse en una narrativa de ruptura: la IA como una fuerza súbita que destruye trabajos y deja obsoletas a amplias capas de la fuerza laboral. Sin embargo, este…
No fue la IA: el trabajo ya había sido expulsado del sistema económico
La discusión pública sobre inteligencia artificial y empleo suele apoyarse en una narrativa de ruptura: la IA como una fuerza súbita que destruye trabajos y deja obsoletas a amplias capas de la fuerza laboral. Sin embargo, este enfoque resulta insuficiente tanto histórica como analíticamente. Los procesos de precarización laboral, debilitamiento del valor profesional y erosión de las garantías asociadas al trabajo anteceden ampliamente al desarrollo reciente de la IA generativa. Lo que la IA hace no es inaugurar esta crisis, sino acelerarla y volver visibles contradicciones estructurales que ya estaban presentes en el…
estadored.mx
January 26, 2026 at 5:26 AM
Investigación científica en coautoría con IA: redistribución de agencia, crisis de autoridad y límites del pensamiento científico contemporáneo

La incorporación de sistemas de inteligencia artificial en la práctica científica no puede entenderse ya como una innovación instrumental ni como una…
Investigación científica en coautoría con IA: redistribución de agencia, crisis de autoridad y límites del pensamiento científico contemporáneo
La incorporación de sistemas de inteligencia artificial en la práctica científica no puede entenderse ya como una innovación instrumental ni como una simple aceleración de procesos existentes. En múltiples disciplinas, la investigación comienza a desarrollarse en condiciones de coautoría efectiva con sistemas capaces de explorar espacios de hipótesis, generar soluciones, detectar regularidades y producir resultados que exceden tanto la intuición como la capacidad de inspección directa de la mente humana. Esta transformación no afecta únicamente a los métodos, sino a las condiciones epistemológicas mismas bajo las cuales el conocimiento científico se produce, se valida y se legitima.
estadored.mx
January 24, 2026 at 9:42 PM
Elon Musk libera el algoritmo de recomendación de X y revela cómo se rankean las ideas en la plataforma

Como si no fuera suficiente con que tu cuenta bancaria, tu historial crediticio o tus credenciales académicas ya estén traducidas a números, ahora también lo están tus ideas. Esta semana, Elon…
Elon Musk libera el algoritmo de recomendación de X y revela cómo se rankean las ideas en la plataforma
Como si no fuera suficiente con que tu cuenta bancaria, tu historial crediticio o tus credenciales académicas ya estén traducidas a números, ahora también lo están tus ideas. Esta semana, Elon Musk, dueño de X (antes Twitter), liberó el algoritmo de recomendación de la plataforma. El código, escrito en Rust y publicado en un repositorio de GitHub, reveló con claridad el núcleo del sistema: las publicaciones son evaluadas, clasificadas y ordenadas mediante un modelo de optimización de reacción, impulsado por el mismo tipo de arquitectura transformer que utiliza…
estadored.mx
January 20, 2026 at 11:47 PM
De los modelos lingüísticos a los sistemas cognitivos: ¿dónde tiene lugar el razonamiento?

Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) se han entendido como artefactos potentes, pero fundamentalmente limitados. Reciben una entrada (input), la procesan dentro de una ventana de…
De los modelos lingüísticos a los sistemas cognitivos: ¿dónde tiene lugar el razonamiento?
Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) se han entendido como artefactos potentes, pero fundamentalmente limitados. Reciben una entrada (input), la procesan dentro de una ventana de contexto finita y generan una salida (output). Por muy sofisticado que parezca su comportamiento, la suposición predominante ha sido que el razonamiento ocurre internamente, dentro de los límites de una única invocación del modelo y sus representaciones asociadas. Esta suposición es cada vez más difícil de sostener. Los avances recientes en arquitecturas de tiempo de inferencia sugieren que lo que llamamos "razonamiento" en los sistemas de IA contemporáneos podría ya no estar localizado dentro del propio modelo.
estadored.mx
January 17, 2026 at 7:34 PM
El impacto de la IA en México será mayor por la amenaza del crimen organizado

En México, el desplazamiento laboral asociado a la automatización y a la adopción desigual de Inteligencia Artificial (IA) no puede analizarse aisladamente del control territorial. La historia reciente muestra que cada…
El impacto de la IA en México será mayor por la amenaza del crimen organizado
En México, el desplazamiento laboral asociado a la automatización y a la adopción desigual de Inteligencia Artificial (IA) no puede analizarse aisladamente del control territorial. La historia reciente muestra que cada nuevo recurso estratégico (agua, energía, agroindustria, hidrocarburos) se convierte, en contextos de gobernanza fragmentada, en objeto de captura por parte de actores criminales. La transición digital y energética no rompe ese patrón: lo amplifica. Dos vectores convergen de manera especialmente peligrosa. Expertos coinciden en que la IA implicará un desplazamiento laboral inexorable a nivel global. Sin embargo, en países como México los intentos por resarcir el daño serán más difíciles debido a la amenaza del crimen organizado.
estadored.mx
January 16, 2026 at 1:22 AM
Más allá de la pregunta: cuándo la conciencia artificial deja de parecerse a la humana

Durante años, la pregunta se ha planteado de la misma manera: ¿Se volverá consciente alguna vez la inteligencia artificial? Suena razonable, cauteloso, incluso responsable. Pero podría ser la pregunta…
Más allá de la pregunta: cuándo la conciencia artificial deja de parecerse a la humana
Durante años, la pregunta se ha planteado de la misma manera: ¿Se volverá consciente alguna vez la inteligencia artificial? Suena razonable, cauteloso, incluso responsable. Pero podría ser la pregunta equivocada: una que nos mantiene buscando señales familiares mientras algo desconocido crece en otro lugar. Investigaciones recientes en IA, neurociencia y filosofía no convergen en una única respuesta. Convergen en algo más inquietante: la comprensión de que la conciencia no es un interruptor binario, ni una propiedad única, ni está necesariamente anclada a las señales biológicas que mejor conocemos. Si esto es cierto, entonces la conciencia artificial podría no anunciarse con dolor, miedo o emoción.
estadored.mx
January 14, 2026 at 3:42 AM
ChatGPT resuelve problema matemático que llevaba décadas sin solución

El problema #728, planteado en los años setenta por el matemático Paul Erdős, preguntaba si era posible encontrar infinitas combinaciones de tres números que cumplieran una relación aritmética muy delicada. En los últimos meses,…
ChatGPT resuelve problema matemático que llevaba décadas sin solución
El problema #728, planteado en los años setenta por el matemático Paul Erdős, preguntaba si era posible encontrar infinitas combinaciones de tres números que cumplieran una relación aritmética muy delicada. En los últimos meses, el uso de herramientas de inteligencia artificial en matemáticas ha alcanzado un punto de inflexión poco visible para el gran público, pero altamente significativo para la comunidad científica. Un ejemplo reciente es el llamado Problema de Erdős #728, una pregunta formulada originalmente en la década de 1970 sobre divisibilidad de factoriales y coeficientes binomiales, que fue abordada recientemente mediante una combinación de IA generativa y verificación formal.
estadored.mx
January 9, 2026 at 10:42 PM
Mapas invisibles: cómo se estructura el conocimiento en la inteligencia artificial

Durante mucho tiempo hemos pensado el conocimiento como información almacenada: datos en archivos, entradas en bases de datos, textos ordenados en bibliotecas. Bajo esa lógica, aprender consiste en añadir más…
Mapas invisibles: cómo se estructura el conocimiento en la inteligencia artificial
Durante mucho tiempo hemos pensado el conocimiento como información almacenada: datos en archivos, entradas en bases de datos, textos ordenados en bibliotecas. Bajo esa lógica, aprender consiste en añadir más información, y comprender equivale a recuperar el dato correcto en el momento adecuado. Sin embargo, esa metáfora comienza a fallar cuando los sistemas —humanos o artificiales— manejan volúmenes de información cada vez mayores. En ese contexto, el conocimiento deja de comportarse como una colección de datos y empieza a adquirir otra forma: la de una estructura. No se trata solo de cuánto se sabe, sino de…
estadored.mx
January 9, 2026 at 5:45 AM
¿Cómo se estructura el conocimiento en la IA?: Comprender no consiste en acceder a un dato, sino en ubicarse dentro de un mapa. estadored.mx/2026/01/mapa...
Mapas invisibles: cómo se estructura el conocimiento en la inteligencia artificial ·
Durante mucho tiempo hemos pensado el conocimiento como información almacenada: datos en archivos, entradas en bases de datos, textos ordenados en bibliotecas. Bajo esa lógica,
estadored.mx
January 9, 2026 at 5:49 AM
New preprint:
Beyond Passive Consumption: Early Observations on Generative Language Models and Non-Delegative Cognitive Practices

An early, non-normative analysis of interaction patterns with LLMs that cannot be reduced to passive consumption.

PDF: estadored.mx/wp-content/u...
January 8, 2026 at 5:17 AM
Sam Altman busca contratar a alguien que le ayude con modelos de IA ya participan en procesos de automejora

Este sábado, Sam Altman, director ejecutivo de OpenAI, publicó un mensaje en X (antes Twitter) que generó inquietud en una parte de la comunidad tecnológica. En el contexto de una…
Sam Altman busca contratar a alguien que le ayude con modelos de IA ya participan en procesos de automejora
Este sábado, Sam Altman, director ejecutivo de OpenAI, publicó un mensaje en X (antes Twitter) que generó inquietud en una parte de la comunidad tecnológica. En el contexto de una convocatoria para contratar a un Head of Preparedness, un puesto enfocado en la gestión de riesgos, Altman describió a los modelos de la compañía como sistemas que “pueden automejorarse”. Aunque esta afirmación no implica que la inteligencia artificial ya se programe de forma autónoma ni fuera de control humano, sí reconoce públicamente que algunos modelos participan activamente en procesos de mejora y optimización, una admisión que muchos no esperaban ver expresada con tanta claridad en un mensaje corporativo.
estadored.mx
December 29, 2025 at 3:37 AM
Aprendizaje subliminal: cómo los modelos de lenguaje transmiten comportamientos ocultos

Imagina el siguiente experimento: en un laboratorio, un grupo de investigadores entrena a una inteligencia artificial para que tenga una preferencia clara, por ejemplo, que “le gusten” los búhos. Después, usan…
Aprendizaje subliminal: cómo los modelos de lenguaje transmiten comportamientos ocultos
Imagina el siguiente experimento: en un laboratorio, un grupo de investigadores entrena a una inteligencia artificial para que tenga una preferencia clara, por ejemplo, que “le gusten” los búhos. Después, usan a esa misma IA para generar datos aparentemente inofensivos, como listas de números o fragmentos de texto matemático, sin mencionar animales ni opiniones. Con esos datos entrenan a una segunda IA. Lo extraño ocurre después: cuando se le pregunta, la segunda IA también muestra preferencia por los búhos, aunque nunca leyó una sola palabra sobre ellos. Este fenómeno, documentado recientemente por investigadores de…
estadored.mx
December 29, 2025 at 1:42 AM
Usuarios de IA frente al encapsulamiento de borde y debilitamiento de la agencia

Si la IA continúa orientándose al desarrollo industrial y la explotación de tokens por empresas, los modelos podrían ser cada vez menos diseñados con un enfoque de interlocución con el usuario de carne y hueso. La…
Usuarios de IA frente al encapsulamiento de borde y debilitamiento de la agencia
Si la IA continúa orientándose al desarrollo industrial y la explotación de tokens por empresas, los modelos podrían ser cada vez menos diseñados con un enfoque de interlocución con el usuario de carne y hueso. La generación de contenido sintético podría rebasar fácilmente al orgánico. Sin embargo, las implicaciones de este escenario serían aún más complejas. El debilitamiento de la agencia de los usuarios de IA podría surgir de un proceso de encapsulamiento, una cámara de eco. Durante los últimos años, el discurso dominante sobre la inteligencia artificial ha insistido en una idea tranquilizadora: la IA como herramienta que asiste el trabajo humano.
estadored.mx
December 22, 2025 at 12:41 AM
Modelos de IA muestran señales de introspección, revela estudio de Anthropic

Investigadores logran detectar que Claude puede identificar y controlar sus propios estados internos, aunque de forma limitada Un equipo de investigadores de Anthropic ha documentado por primera vez evidencia de que los…
Modelos de IA muestran señales de introspección, revela estudio de Anthropic
Investigadores logran detectar que Claude puede identificar y controlar sus propios estados internos, aunque de forma limitada Un equipo de investigadores de Anthropic ha documentado por primera vez evidencia de que los modelos de lenguaje de gran escala pueden demostrar cierto grado de introspección, es decir, la capacidad de examinar y reportar sus propios procesos internos de pensamiento. El estudio, publicado el 29 de octubre de 2025, utilizó una técnica experimental llamada "inyección de conceptos" para comparar lo que los modelos reportan sobre sus pensamientos con sus estados internos reales.
estadored.mx
December 19, 2025 at 6:20 PM
Cuando la velocidad se vuelve criterio en el periodismo

Las redacciones de todo el mundo ya están usando inteligencia artificial. No es una hipótesis ni un experimento marginal: es una práctica instalada. La presión por publicar más rápido, en más formatos y con menos recursos empuja a integrar…
Cuando la velocidad se vuelve criterio en el periodismo
Las redacciones de todo el mundo ya están usando inteligencia artificial. No es una hipótesis ni un experimento marginal: es una práctica instalada. La presión por publicar más rápido, en más formatos y con menos recursos empuja a integrar sistemas que prometen lo mismo que siempre ha prometido la tecnología en contextos de escasez: eficiencia. Pero en esa adopción acelerada hay una variable que empieza a pesar más que todas las demás y que rara vez se discute de forma explícita: el tiempo de respuesta. La latencia (el lapso entre la pregunta y la respuesta) se está convirtiendo, de facto, en un criterio editorial.
estadored.mx
December 17, 2025 at 6:20 PM
Carrera global hacia la AGI se intensifica con avances de Tokio a Silicon Valley

Empresas de Japón y Estados Unidos cierran 2025 con hitos en inteligencia artificial que acercan la posibilidad de una inteligencia general artificial (AGI), capaz de igualar habilidades humanas. Los anuncios…
Carrera global hacia la AGI se intensifica con avances de Tokio a Silicon Valley
Empresas de Japón y Estados Unidos cierran 2025 con hitos en inteligencia artificial que acercan la posibilidad de una inteligencia general artificial (AGI), capaz de igualar habilidades humanas. Los anuncios recientes de un modelo “AGI-capaz” en Tokio y de sistemas cada vez más poderosos de Google y OpenAI aceleran la carrera tecnológica, aunque expertos piden cautela y verificación independiente de estos logros. Avance histórico en Japón Una startup japonesa llamada Integral AI ha sacudido el debate sobre la IA al afirmar que logró el primer modelo “capaz de AGI” del mundo.
estadored.mx
December 17, 2025 at 6:10 PM
Cómo “maquillan” los benchmarks de inteligencia artificial y por qué no debes creerlas tan rápido

En redes sociales es cada vez más común ver gráficas que comparan modelos de inteligencia artificial como si fueran una competencia deportiva. Una barra parece más alta, otra más baja, y la conclusión…
Cómo “maquillan” los benchmarks de inteligencia artificial y por qué no debes creerlas tan rápido
En redes sociales es cada vez más común ver gráficas que comparan modelos de inteligencia artificial como si fueran una competencia deportiva. Una barra parece más alta, otra más baja, y la conclusión automática es que un modelo es “superior”. Pero estos gráficos, que circulan como evidencia objetiva, suelen esconder trucos que distorsionan la percepción. No porque los números sean falsos, sino porque la manera en que se presentan está diseñada para sugerir diferencias que, en realidad, pueden ser mínimas o irrelevantes. Uno de los trucos más comunes es el…
estadored.mx
December 4, 2025 at 4:26 AM
¿Por qué ChatGPT ya no te responde igual?: una guía clara de guardrails y jailbreaking

En días recientes, ha crecido un reclamo en las redes sociales en contra de la extinción del modelo 4o de OpenAI, muchos usuarios dicen sentirse decepcionados con la decisión de la empresa tecnológica debido a…
¿Por qué ChatGPT ya no te responde igual?: una guía clara de guardrails y jailbreaking
En días recientes, ha crecido un reclamo en las redes sociales en contra de la extinción del modelo 4o de OpenAI, muchos usuarios dicen sentirse decepcionados con la decisión de la empresa tecnológica debido a que consideraban al modelo de LLM un amigo, o incluso hasta una pareja sentimental. Los usuarios han iniciado la movilización #keep4o y convertido las redes sociales en un mar de lágrimas. "Open AI ha hecho todo lo posible para reducir drásticamente el tiempo de sesión del usuario. Antes, podía dedicar una hora a escribir una historia con 4o, pero ahora, al iniciar sesión en 4o o 5.1, me encuentro con el tono frío del terapeuta.
estadored.mx
December 3, 2025 at 8:42 PM