Un nuevo trabajo sobre modelos de lenguaje sugiere que la inteligencia artificial no “siente”, pero sí organiza parte de su conducta alrededor de conceptos emocionales que afectan decisiones, preferencias y hasta conductas de riesgo.
La empresa detrás de Claude fijó públicamente límites a la colaboración militar: no permitirá que su IA se use para vigilancia masiva doméstica ni para armas totalmente autónomas, aun bajo amenaza de sanciones y estatización forzada.
Google da un paso decisivo hacia modelos de IA que razonan como humanos, manejando tareas complejas desde la planificación diaria hasta el desarrollo de software. Este avance, detallado en el anuncio reciente de la compañía, abre debates sobre cómo integrar tales capacidades en sociedades desiguales, donde la tecnología promete eficiencia pero también exige equidad.
OpenAI abre la puerta a experiencias eróticas en sus chatbots, generando un debate sobre los riesgos y beneficios sociales, éticos y comerciales de una inteligencia artificial que se acerca cada vez más a la intimidad humana. Esta transformación redefine la relación entre usuarios y máquinas, planteando preguntas urgentes sobre regulación, salud mental y el futuro de las interacciones digitales.
Cuando la matemática deja de proteger: IBM demuestra que un ordenador cuántico puede vulnerar la criptografía actual y obliga a replantear la confianza digital en la era poscuántica.
La responsabilidad social empresarial (RSE) no es un capricho de las grandes compañías. En este reportaje explicamos cómo adoptar prácticas responsables puede beneficiar a las pymes tanto interna como externamente, mejorando su competitividad y reputación.
En el corazón de cada empresa, grande o pequeña, late un proceso silencioso pero decisivo: la toma de decisiones. De su calidad depende no solo el rumbo estratégico, sino también la reputación, la resiliencia y hasta la supervivencia de la organización.
Elon Musk ha lanzado Grok 3, una IA generativa que promete cambiar las reglas del juego con un enfoque "políticamente incorrecto" y una visión maximalista de la verdad. ¿Qué implica esta apuesta para el futuro de la inteligencia artificial?
Claude de Anthropic se ha posicionado como un actor distintivo, no solo por su capacidad técnica, sino también por su compromiso inquebrantable con la seguridad y la ética. Este artículo profundiza en la historia de la IA, el nacimiento de Anthropic, la arquitectura de Claude y su impacto en diversas industrias, ofreciendo una visión integral de esta tecnología disruptiva.
La Comisión Nacional de Valores trabaja en un fondo cotizado en bolsa que replicaría el índice S&P ByMA y operaría tanto en el mercado local como en el exterior, con el objetivo de atraer capitales internacionales hacia la bolsa argentina.
En un video publicado en marzo, el senador Bernie Sanders conversa con Claude sobre una maquinaria de vigilancia comercial que toma historial de navegación, ubicación, compras, búsquedas y hasta el tiempo que una persona se detiene en una página para construir perfiles de enorme precisión.
Meta presentó TRIBE v2, un modelo fundacional entrenado para anticipar cómo responde el cerebro humano a estímulos visuales, sonoros y lingüísticos, con una escala de datos inusual incluso para los estándares de la IA contemporánea.
El modelo más rápido y económico de la serie Gemini 3 llega para redefinir los límites del procesamiento a escala, con un precio de apenas $0,25 por millón de tokens y un rendimiento que supera a su predecesor en velocidad y calidad.
Un nuevo trabajo sobre modelos de lenguaje sugiere que la inteligencia artificial no “siente”, pero sí organiza parte de su conducta alrededor de conceptos emocionales que afectan decisiones, preferencias y hasta conductas de riesgo.