Un nuevo trabajo sobre modelos de lenguaje sugiere que la inteligencia artificial no “siente”, pero sí organiza parte de su conducta alrededor de conceptos emocionales que afectan decisiones, preferencias y hasta conductas de riesgo.
La empresa detrás de Claude fijó públicamente límites a la colaboración militar: no permitirá que su IA se use para vigilancia masiva doméstica ni para armas totalmente autónomas, aun bajo amenaza de sanciones y estatización forzada.
El un post en X, Sam Altman comparte que “OpenAI ya consiguió el acuerdo con el Departamento de Guerra”, reabre el debate sobre la alianza entre Big Tech y el complejo militar estadounidense, con enormes implicancias geopolíticas y éticas para la IA generativa.
El uso de la IA de Anthropic en la operación para capturar a Nicolás Maduro abre una nueva fase en la militarización de modelos generativos, tensiona la agenda de “IA segura” y deja a las Big Tech frente a un dilema incómodo: negocio, poder y ética ya no se pueden separar.
La Comisión Nacional de Valores trabaja en un fondo cotizado en bolsa que replicaría el índice S&P ByMA y operaría tanto en el mercado local como en el exterior, con el objetivo de atraer capitales internacionales hacia la bolsa argentina.
En un video publicado en marzo, el senador Bernie Sanders conversa con Claude sobre una maquinaria de vigilancia comercial que toma historial de navegación, ubicación, compras, búsquedas y hasta el tiempo que una persona se detiene en una página para construir perfiles de enorme precisión.
Meta presentó TRIBE v2, un modelo fundacional entrenado para anticipar cómo responde el cerebro humano a estímulos visuales, sonoros y lingüísticos, con una escala de datos inusual incluso para los estándares de la IA contemporánea.
El modelo más rápido y económico de la serie Gemini 3 llega para redefinir los límites del procesamiento a escala, con un precio de apenas $0,25 por millón de tokens y un rendimiento que supera a su predecesor en velocidad y calidad.
Un nuevo trabajo sobre modelos de lenguaje sugiere que la inteligencia artificial no “siente”, pero sí organiza parte de su conducta alrededor de conceptos emocionales que afectan decisiones, preferencias y hasta conductas de riesgo.