En el marco del Mobile World Congress (MWC) 2026, que se realiza en Barcelona, Daniel Zhou, presidente de Huawei Latinoamérica, habló en los micrófonos de BLU Radio para el programa BLU 4.0 y aseguró que la región vive un momento decisivo para el desarrollo de la inteligencia artificial, la conectividad y la economía digital.Durante la conversación, Zhou destacó el enorme potencial de América Latina y el Caribe para acelerar su transformación digital si logra fortalecer su infraestructura tecnológica y ampliar el acceso a nuevas capacidades digitales. En ese sentido, Huawei reiteró su compromiso con el desarrollo de redes y soluciones que permitan a más personas y empresas beneficiarse de la economía digital.El directivo explicó que el despliegue de redes 5G y el desarrollo del cómputo en la nube se encuentran en una etapa clave en la región. Por ello, señaló que la cooperación entre gobiernos, empresas y actores del ecosistema será fundamental para acelerar la innovación tecnológica y la digitalización de los países.Zhou también destacó la importancia de formar talento en la era digital. Según explicó, Huawei impulsa programas de capacitación tecnológica en América Latina y, para 2025, ya había formado en competencias TIC a más de 3.000 estudiantes en la región.La era de los agentes de IAEn el mismo evento, Huawei planteó que el mundo está entrando en la era de los agentes de inteligencia artificial, una etapa en la que interactuar con la IA será tan natural como enviar mensajes a un amigo. Así lo explicó Pedro Romero, oficial de ciberseguridad de Huawei, quien señaló que plataformas como ModelArts permiten acceder a modelos avanzados de lenguaje sin tener que desarrollarlos desde cero, lo que democratiza el uso de la inteligencia artificial.Según Huawei, estos agentes de IA pueden analizar grandes volúmenes de datos, anticipar riesgos y apoyar decisiones en tiempo real en sectores como telecomunicaciones, salud y servicios digitales. Funcionan como asistentes inteligentes que interactúan con las personas en lenguaje natural, sugieren acciones y detectan anomalías, mientras el criterio final sigue en manos de los equipos humanos.
La aplicación de citas Tinder anunció que incorporará más inteligencia artificial (IA) en su plataforma para crear 'matches' "más personalizados" y hacer recomendaciones más inteligentes a los usuarios.En un comunicado, la empresa informó este viernes que lanzó en Estados Unidos y Canadá su función piloto Chemistry, basada en inteligencia artificial, la cual ofrece recomendaciones diarias de perfiles a los usuarios según sus intereses."A través de preguntas y respuestas y funciones opcionales como 'CameraRoll Scan', Tinder puede entender mejor tu personalidad, tu estilo y qué es lo que te importa para ofrecer 'matches' más relevantes", anotó la compañía.Así, Chemistry analiza patrones en los carretes de fotos compartidos por los usuarios de la aplicación y ofrece información a otros internautas sobre sus intereses, su estilo de vida o su personalidad.Por otro lado, Tinder impulsará una nueva iniciativa llamada Tinder Connect que permite integrar más aplicaciones en su perfil, además de Spotify.Por ejemplo, la aplicación permitirá que los usuarios incluyan datos de plataformas como Duolingo para mostrar sus diversos intereses, desde los idiomas hasta la gastronomía, y facilitar así las conversaciones.Además, también incluirá funciones y herramientas impulsadas por IA como Photo Enhance o Visual Interests, que mejorarán la calidad de las fotografías subidas al perfil.La aplicación también rediseñará Music Mode "para facilitar conexiones a través de los gustos musicales compartidos" e incorporará Astrology Mode, una herramienta que permitirá conectar a usuarios según su compatibilidad astrológica.Asimismo, impulsará una nueva función en fase beta para descubrir eventos presenciales "y conectar fuera de la app", comenzando en Los Ángeles, y a los usuarios verificados les permitirá tener citas rápidas por video.La compañía también reforzará sus herramientas de seguridad con mejoras en sus funciones "¿Estás seguro?" y "¿Te molesta esto?", que detectan mensajes inapropiados u ofensivos."Estamos construyendo la experiencia Tinder junto a una generación que quiere que ligar sea más auténtico, sin presión y que realmente merezca su tiempo", anota en el comunicado el director ejecutivo de MatchGroup y Tinder, Spencer Rascoff.Rascoff subraya que la aplicación está "ampliando las formas en que las personas pueden empezar una conexión", con formatos y experiencias en el mundo real y perfiles más personalizados."Utilizamos la IA para descubrir conexiones más relevantes y seguimos elevando el estándar en seguridad", agrega.
A falta de una semana que dé inicio a nueva edición del Festival Estéreo Picnic (FEP) en Bogotá, expertos en ciberseguridad encendieron las alarmas por algunos casos de estafa online por parte de algunos ciberdelicuentes en la compra y venta de boletas para este evento.Especialistas en ciberseguridad advirtieron que los periodos de alta expectativa por eventos musicales suelen convertirse en escenarios propicios para el fraude digital. La urgencia por conseguir entradas, sumada a la escasez de boletas en plataformas oficiales, hace que muchos usuarios recurran a alternativas informales en internet, donde operan redes de estafadores.“Los ciberdelincuentes saben que los conciertos generan urgencia y escasez de boletas. En ese contexto, crean páginas falsas, perfiles fraudulentos o enlaces engañosos para capturar pagos o robar datos personales”, advirtieron especialistas de Oplium, empresa dedicada a la ciberseguridad.Para empresas especializadas en seguridad informática, este fenómeno refleja cómo las dinámicas del entretenimiento y las transacciones en línea se han convertido en nuevos puntos de interés para los ciberdelincuentes.Así operan ciberdelicuentes de cara al Festival Estéreo PicnicUno de los métodos más frecuentes es la creación de páginas falsas de venta de entradas. En estos casos, los delincuentes replican el diseño de plataformas oficiales de boletería para engañar a los usuarios. A través de estos sitios fraudulentos, los estafadores logran capturar pagos o información bancaria de quienes creen estar realizando una compra legítima."El objetivo de estas estafas es captar datos personales —como nombre, cédula, correo o teléfono— y, sobre todo, información financiera. Con frecuencia, el fraude comienza con anuncios en redes sociales, mensajes en grupos o correos electrónicos que llevan a sitios que aparentan ser oficiales. Allí solicitan registros, pagos anticipados o la validación de tarjetas, lo que puede terminar en cargos no autorizados o en el uso de los datos para suplantación de identidad", explicaron de Kaspersky, otro portal especialista en ciberseguridad, que revela que el 40 % de los colombianos no sabe reconocer un sitio web falso, mientras que el 25% admite que no sabría identificar un correo o mensaje fraudulento
Cada vez más empresas en Colombia están adoptando la nube híbrida como alternativa para almacenar y gestionar información. Este modelo combina la flexibilidad de la nube pública y el control que ofrecen los entornos privados. Ante el crecimiento del volumen de datos y las exigencias de seguridad, muchas organizaciones están optando por esta estrategia para equilibrar costos, agilidad tecnológica y protección de información sensible.Según estimaciones de la Asociación Nacional de Empresarios de Colombia, cerca del 80 % de las empresas del país ya utilizaban herramientas de computación en la nube el año pasado. Sin embargo, aún existe debate entre los líderes empresariales sobre cuál modelo conviene más: el público o el privado. Para expertos del sector, la respuesta no está en elegir uno u otro, sino en combinarlos de manera estratégica.Juan Ramón Jaramillo, gerente de Desarrollo y Preventa de Gtd Colombia, explica que la decisión depende de factores como el riesgo del negocio, la variabilidad de la demanda y las exigencias regulatorias. Las nubes públicas, operadas por gigantes tecnológicos como Amazon Web Services, Microsoft Azure o Google Cloud Platform, suelen ser ideales para startups, pymes y empresas digitales que necesitan escalar rápidamente sus operaciones.Mientras las nubes privadas son preferidas por instituciones financieras, hospitales y entidades gubernamentales que manejan datos críticos y requieren mayor control sobre la seguridad y la latencia, como ocurre con JPMorgan Chase.En este escenario, la nube híbrida se posiciona como la opción más equilibrada. Permite que las plataformas más sensibles funcionen en entornos privados, mientras que aplicaciones menos críticas aprovechan la capacidad de las nubes públicas.
La Defensoría del Pueblo emitió la Alerta Temprana de Inminencia 008 de 2026 para el departamento de Guainía, ante los riesgos que enfrentan comunidades indígenas por la disputa territorial entre el Frente José Daniel Pérez Carrero, del ELN y el Frente Acacio Medina, de las disidencias de las Farc.La advertencia se concentra en la zona rural de Inírida y en las áreas no municipalizadas de Puerto Colombia, San Felipe, La Guadalupe y Cacahual, donde habitan los pueblos indígenas Curripako, Yeral, Baniwa, Sikuani y Puinave.Según el análisis, la disputa por el control de rutas del narcotráfico y de la minería ilegal ha derivado en la imposición de regímenes de control social por parte de los grupos armados, lo que está afectando la autonomía de las comunidades y su vida cotidiana en los territorios.Uno de los principales impactos se evidencia en la restricción de la movilidad por los ríos, que constituyen las principales vías de transporte en la selva. De acuerdo con la defensoría, los actores armados han convertido estos corredores fluviales en zonas controladas donde se limita el tránsito de las comunidades para actividades básicas como la pesca o el desplazamiento hacia otras poblaciones, lo que ha generado situaciones de confinamiento que afectan a miles de personas.Señalan que la situación también genera especial preocupación por los riesgos para niñas, niños y adolescentes, debido a la posibilidad de reclutamiento forzado por parte de los grupos armados. Además, se han reportado amenazas contra docentes en los resguardos, lo que ha provocado la suspensión de actividades escolares y la parálisis de procesos educativos en varias comunidades."Ante la gravedad de los hechos, calificando como extremo el nivel de riesgo para la población civil en los territorios focalizados como consecuencia de graves violaciones a los derechos humanos e infracciones al DIH, la Defensoría del Pueblo solicita una respuesta inmediata y coordinada del Estado”.La entidad instó al Ministerio de Defensa y a la fuerza pública a reforzar la seguridad en los ejes fluviales fronterizos, mientras que a la Unidad para las Víctimas le pidió garantizar asistencia humanitaria para atender posibles situaciones de desabastecimiento en las comunidades que puedan quedar confinadas por la intensificación del conflicto.La Defensoría insistió en que la protección de la vida, la autonomía y el territorio de los pueblos indígenas es una obligación del Estado, y advirtió que se requieren acciones urgentes para evitar que la situación derive en una crisis humanitaria de mayores proporciones en esta región del país.
La Jurisdicción Especial para la Paz remitió a la Unidad de Investigación y Acusación el proceso contra el general (r) de la Policía José Leonardo Gallego, luego de que el compareciente negara cualquier responsabilidad en los hechos investigados.La decisión fue adoptada por la Sala de Reconocimiento de Verdad tras valorar el material probatorio existente y los avances de la justicia ordinaria, en relación con los crímenes cometidos contra la periodista Jineth Bedoya Lima el 25 de mayo del año 2000 y con hechos violentos ocurridos en la cárcel La Modelo de Bogotá entre 1999 y 2003.Según la JEP, el caso será tramitado ahora mediante un proceso adversarial ante la UIA. Si esta unidad decide presentar una acusación, el proceso pasará a la Sección de Ausencia de Reconocimiento de Verdad. De ser hallado responsable, el exoficial podría enfrentar hasta 20 años de cárcel.De acuerdo con la Jurisdicción, la remisión del proceso se fundamentó principalmente en la contrastación de pruebas y testimonios recopilados por la justicia ordinaria.“El general (r) Gallego Castrillón solicitó la suspensión de la actuación ante la justicia ordinaria argumentando que se encontraba compareciendo ante la Jurisdicción Especial para la Paz. Por ello, fue llamado a rendir versión voluntaria por la Sala de Reconocimiento de Verdad en los casos 08 y 11. Durante la diligencia, que se llevó a cabo el 3 de febrero y el 5 de marzo de 2026, el compareciente negó cualquier tipo de responsabilidad sobre los hechos”.En esas investigaciones se señala que Gallego Castrillón habría favorecido a internos de grupos paramilitares en la cárcel La Modelo mediante el ingreso de armas y otros elementos prohibidos, lo que habría contribuido a consolidar su control dentro del penal.Aseguran que también existen señalamientos que lo vinculan con los hechos ocurridos contra la periodista Jineth Bedoya Lima, quien investigaba redes criminales y graves violaciones a los derechos humanos dentro de ese centro penitenciario.Bedoya fue secuestrada el 25 de mayo de 2000 cuando esperaba autorización para ingresar a la cárcel La Modelo para realizar un trabajo periodístico. Posteriormente fue trasladada a una bodega y luego a una zona rural en la vía Bogotá Villavicencio, donde fue torturada y víctima de violencia sexual.La justicia ordinaria ya ha condenado a varios paramilitares por estos hechos, entre ellos Mario Jaimes Mejía, conocido como “El Panadero”, así como Alejandro Cárdenas Orozco y Jesús Emiro Pereira Rivera. Sin embargo, la investigación también ha señalado posibles responsabilidades de otros actores.“La JEP recuerda que los casos que involucran violencias basadas en género deben investigarse con especial diligencia, de acuerdo con los estándares del derecho internacional. Por eso, en este caso concreto, y teniendo en cuenta los avances de la justicia ordinaria y la decisión del compareciente de negar responsabilidad ante la JEP frente a los señalamientos que presuntamente lo implican, la sala decidió remitir su proceso a la UIA”.Según la magistratura, el proceso adversarial permitirá definir la situación jurídica del general (r) Gallego Castrillón y garantizar a las víctimas un escenario judicial en el que se determine su eventual responsabilidad penal.
Tras resultados adversos para el Volkswagen Group, ya preparan una de las ofensivas de producto más grandes de los últimos años con la llegada de más de 20 vehículos nuevos o actualizados en 2026, incluyendo modelos eléctricos, híbridos, SUV y compactos urbanos.Las novedades abarcarán varias de sus marcas principales, como Volkswagen, Audi, Cupra, Skoda, además de proyectos en Porsche, Bentley y Lamborghini.La estrategia apunta especialmente a reforzar el portafolio eléctrico y renovar algunos de los modelos más conocidos del grupo.Nuevos carros compactos eléctricos del Grupo VolkswagenUno de los focos principales de la ofensiva será el segmento de autos pequeños, que históricamente ha sido clave para el mercado europeo.Entre los modelos que se preparan para llegar en 2026 se encuentran:Volkswagen ID. Polo, que será la versión eléctrica del conocido Polo.Volkswagen ID. Cross, con dimensiones similares al Volkswagen T-Cross.Skoda Epiq, que se convertirá en el eléctrico más accesible de la marca checa.Cupra Raval, un modelo de aproximadamente cuatro metros de largo.Todos estos vehículos utilizarán la plataforma MEB, diseñada para automóviles eléctricos del grupo.En algunos casos, las versiones destinadas a vehículos más pequeños emplearán una evolución de esta arquitectura pensada para tracción delantera, una configuración distinta a la de los eléctricos actuales del grupo.SUVs que renovarán el portafolio del grupoEl mercado global sigue dominado por los SUV y el grupo alemán también prepara una larga lista de lanzamientos dentro de este segmento.Volkswagen T-Roc, que por primera vez ofrecerá una versión con sistema híbrido completo.Llegará con el sucesor del Volkswagen ID.4, que podría adoptar el nombre Volkswagen ID. Tiguan y presentará cambios en diseño, tecnología y posicionamiento dentro de la gama.Skoda PeaqAudi Q7 (nueva generación)Audi Q9, que pasaría a ser el modelo más grande de la marcaAudi Q4, con una actualización de mitad de cicloSeat Arona, que recibirá un rediseñoEn el caso de Porsche, el grupo planea llevar la electrificación a uno de sus modelos más conocidos: el Porsche Cayenne EV, que podría superar los 1.100 caballos de potencia.Deportivos, eléctricos y modelos icónicos que se actualizaránAdemás de compactos y SUV, la estrategia de lanzamientos del grupo incluye vehículos de alto rendimiento, reinterpretaciones eléctricas y actualizaciones de modelos tradicionales.Entre ellos aparecen:Audi A2, inspirado en el modelo que la marca vendió a comienzos de los años 2000.Audi RS5, recientemente presentado.Audi RS6, que podría mantener el motor V8 combinado con tecnología híbrida enchufable.Nueva versión híbrida del Volkswagen Golf.Actualización del eléctrico Volkswagen ID.3.En la división de lujo y deportivos también se esperan movimientos. Porsche podría presentar finalmente las versiones eléctricas del Porsche 718 Boxster y Porsche 718 Cayman.A esto se suman el futuro SUV eléctrico de Bentley y una nueva variante del Lamborghini Urus, conocida como Urus SE Performante.
El reconocido acordeonero Iván Zuleta, una de las figuras más representativas del vallenato en la actualidad, atraviesa días de profundo dolor tras la muerte de su sobrina Daniela Isabel Zuleta Gnecco, una adolescente de 15 años cuyo fallecimiento ha generado consternación en Valledupar y entre quienes siguen de cerca la música del artista.La tragedia se conoció el pasado 9 de marzo, cuando el colegio Gimnasio del Norte confirmó la noticia a través de un comunicado en el que lamentó la muerte de la estudiante. Según los primeros reportes conocidos por las autoridades y familiares, la menor fue encontrada inconsciente dentro de su habitación.De acuerdo con la información que ha trascendido, Daniela había llegado a su casa y se dirigió a descansar. Minutos después fue hallada por sus familiares en una situación crítica, lo que generó una rápida reacción para intentar auxiliarla. De inmediato fue trasladada a la Clínica Erasmo, en Valledupar, donde el personal médico activó los protocolos de emergencia para tratar de reanimarla.Sin embargo, pese a los esfuerzos del equipo médico, la adolescente llegó al centro asistencial sin signos vitales. Una de las hipótesis preliminares que se ha mencionado es que la menor pudo haber sufrido un episodio de broncoaspiración, aunque las autoridades aclararon que el caso sigue en investigación. El informe definitivo del Instituto Nacional de Medicina Legal y Ciencias Forenses será el que determine con precisión las causas del fallecimiento.El dolor por esta pérdida golpeó fuertemente a la familia Zuleta y a la comunidad estudiantil de la joven, que la recuerda como una estudiante querida por sus compañeros y profesores.El susto durante el velorioEn medio de ese ambiente de tristeza, Iván Zuleta acudió a las honras fúnebres de su sobrina en el municipio de La Paz, Cesar. No obstante, lo que debía ser el último adiós a la menor terminó generando un momento de preocupación entre los asistentes.De acuerdo con Juan Rincón Vanegas, jefe de prensa de la Fundación Festival de la Leyenda Vallenata, el músico sufrió una descompensación poco después de finalizadas las exequias. El artista comenzó a presentar sudoración fría y mareo, hasta que terminó perdiendo el conocimiento por unos instantes.La situación generó alarma entre familiares y amigos que se encontraban en el lugar. Rápidamente fue trasladado a una vivienda cercana al cementerio para recibir atención.Allí fue valorado por un profesional de la salud que logró estabilizarlo en poco tiempo. Tras recuperar la conciencia y presentar signos vitales normales, se determinó que no era necesario trasladarlo a un hospital.Según la evaluación médica inicial, el episodio habría estado relacionado con la fuerte carga emocional del momento, sumada al calor y al estrés propios de la jornada de despedida.Durante el velorio, varias personas habían notado que el acordeonero se encontraba visiblemente afectado por la pérdida. Acompañado por su hermano Fabián Zuleta, el músico compartió momentos de profundo dolor con sus familiares mientras despedían a la joven.Aunque el episodio generó preocupación, finalmente se confirmó que el artista se encuentra fuera de peligro, mientras continúa afrontando junto a su familia el difícil momento que atraviesan tras la inesperada muerte de Daniela.
En un operativo realizado por una unidad especial del Cuerpo de Policía Bolivariana del estado de Zulia, en Venezuela, fue abatido el joven Fabián Nava Díaz, a quien le seguían la pista desde febrero pasado, cuando se vio involucrado en el doble crimen de las hermanas Sheridan Sofía y Keyla Nicolle Fernández Noriega, las adolescentes de 14 y 17 años halladas muertas en el municipio de Malambo, Atlántico.Según los testimonios recopilados durante la investigación, Fabián mantenía una relación sentimental con Keyla y fue quien invitó a ella y a su hermana a una fiesta el pasado martes de Carnaval, un encuentro que se llevó a cabo en la casa de la mamá de él en Malambo y que terminó con el sangriento asesinato de ambas menores.Todo apunta a que horas después del doble crimen, Fabián huyó hacia Venezuela, pero las autoridades de ese país fueron alertadas del caso por las colombiana y lograron ubicarlo en Maracaibo. El procedimiento consistía en establecer el paradero del adolescente, pues este aún no tenía una orden de detención en su contra.Le puede interesar: Revelan confesión de uno de los implicados en la muerte de las hermanas Hernández en MalamboEl joven, según informó la misma Policía de Zulia, fue localizado en inmediaciones de la parroquia Francisco Eugenio Bustamante, del sector El Despertar; sin embargo, al ver la presencia de los uniformados, quienes buscaban establecer su plena identidad, él corrió y se escondió en una vivienda.Cuentan las autoridades que estando en esa casa, al verse rodeado, Fabián sacó un arma y disparó contra los informados, quienes respondieron al ataque y lo hirieron de gravedad. Pese a ser llevado de urgencia al Centro de Diagnóstico Integral La Chamarreta, allí los médicos certificaron su muerte minutos después.Vale mencionar que, según el testimonio de uno de los confesos asesinos de las menores, el crimen se habría cometido en represalia ante un supuesto plan que tenían las víctimas para entregar a Fabián a 'Los Costeños' y que esta banda lo asesinara.
Un hecho poco común en Cundinamarca ha llamado la atención de ciudadanos y de una entidad social del departamento.Se trata de la circulación de correos electrónicos fraudulentos que estarían siendo enviados por personas inescrupulosas con el objetivo de cometer posibles estafas dirigidas a afiliados.Correo fraudulento que pretende suplantar a entidad en CundinamarcaAnte esta situación, la Corporación Social de Cundinamarca (CSC) emitió una alerta este jueves luego de detectar mensajes que usan de manera indebida el nombre y el logotipo de la entidad para intentar obtener información personal de los usuarios.Según explicó la corporación, estos correos están siendo enviados desde el correo: corporacionalmeidas@gmail.com, el cual no tiene ninguna relación con la organización y haría parte de un intento de suplantación digital.La entidad hizo una advertencia a los afiliados de no abrir enlaces incluidos en estos mensajes, evitar ingresar datos personales y no compartir contraseñas o información financiera en formularios o plataformas asociadas a ese correo.Además, pidió que cualquier comunicación sospechosa sea reportada y eliminada de inmediato para reducir riesgos de seguridad.La CSC recordó que toda su información oficial se difunde únicamente a través de sus canales institucionales verificados. Por lo cual, para resolver dudas o confirmar cualquier mensaje, los usuarios pueden comunicarse a través de los siguientes medios oficiales:Teléfono: 601 514 0291WhatsApp: 315 349 2560Correo: atencionalcliente@csc.gov.coAsimismo, la entidad hizo un llamado a la ciudadanía para mantenerse atenta frente a posibles intentos de fraude digital y verificar siempre la autenticidad de los mensajes que lleguen en nombre de instituciones públicas o privadas.
Los resultados financieros de ETB correspondientes a 2025 abrieron un debate sobre la verdadera situación de la empresa de telecomunicaciones. El actual presidente de la compañía, Diego Molano, y el expresidente Sergio González Guzmán dieron lecturas distintas sobre las cifras en entrevistas concedidas en exclusiva a los micrófonos de BLU 4.0 de BLU Radio.Molano habló desde Barcelona, en el marco del Mobile World Congress (MWC), mientras que González analizó los resultados desde Colombia, en medio de una discusión que refleja las diferentes visiones sobre el futuro de la empresa.Por un lado, Molano destacó que la compañía logró un cambio importante en su caja operacional. Según el reporte financiero, ETB pasó de -$26.309 millones en 2024 a $97.714 millones en 2025, lo que representa un incremento del 471 %. Además, los ingresos operacionales crecieron 6 %, alcanzando $1,55 billones, mientras que el EBITDA operacional llegó a $394.869 millones, con un aumento del 50 % frente al año anterior.Desde la administración de la empresa se interpreta este resultado como una señal de mejora en la operación y de mayor disciplina en el control de costos en un mercado de telecomunicaciones cada vez más competitivo.Sin embargo, la lectura no es compartida por todos. El expresidente de ETB, Sergio González Guzmán, advirtió que una mejora en el EBITDA no necesariamente significa que la empresa esté creando valor de manera sostenible.González reconoció que el avance en el indicador es real, pero señaló que el problema de fondo es la escala del negocio frente a los grandes operadores del mercado. Según explicó, ETB factura apenas entre el 9 % y el 10 % de los ingresos de Claro en Colombia y genera cerca del 6 % de su EBITDA, lo que evidencia una brecha importante en capacidad de generación de caja.El exdirectivo también señaló que la pérdida neta de ETB equivale aproximadamente al 30 % de su propio EBITDA, lo que significa que una parte importante del esfuerzo operativo termina absorbida por cargas financieras y obligaciones estructurales.A esto se suma, según su análisis, un deterioro en el pago a proveedores entre 2024 y 2025, lo que podría indicar que la empresa está financiando parte de sus obligaciones a través de proveedores, una práctica que puede aliviar la caja en el corto plazo pero que no necesariamente es sostenible en el largo plazo.Para González, el debate que se abre ahora sobre ETB ya no es únicamente operativo, sino estratégico, en un sector donde la escala y la capacidad de inversión se han convertido en factores determinantes para competir.Así, mientras la actual administración destaca señales de recuperación operativa, voces del sector advierten que el verdadero reto para la empresa sigue siendo lograr una rentabilidad sostenible en el largo plazo.
Durante décadas, la historia sobre el origen del ser humano ha tenido un escenario claro: África. Allí, según el consenso científico, surgieron los primeros antepasados capaces de caminar erguidos sobre dos piernas. Sin embargo, un reciente hallazgo paleontológico en Europa vuelve a abrir el debate y plantea una posibilidad que hasta hace poco parecía improbable: que algunos de los primeros pasos hacia el bipedismo humano se hayan dado fuera del continente africano.El detonante de esta discusión es un fósil descubierto en los Balcanes. Se trata de un fémur de unos 7,2 millones de años de antigüedad hallado en el yacimiento de Azmaka, en Bulgaria. Aunque pueda parecer un simple fragmento óseo, su anatomía ha despertado un enorme interés entre los investigadores, ya que podría ofrecer pistas clave sobre cómo se desplazaban algunos de nuestros ancestros más antiguos.El hueso, catalogado como FM3549AZM6, fue sometido a un análisis detallado por parte del equipo de científicos que lidera el estudio. Los investigadores examinaron minuciosamente su estructura y encontraron características biomecánicas que no suelen aparecer en primates que viven exclusivamente en los árboles. Estas particularidades sugieren que el individuo al que perteneció el fémur podría haber practicado una forma de locomoción parcialmente bípeda.Entre los rasgos más relevantes destaca la longitud inusualmente grande del cuello del fémur. Además, el hueso presenta puntos de inserción muscular específicos que indican una adaptación distinta a la de los primates estrictamente arborícolas. Según los investigadores, estas características podrían señalar que el animal pasaba una parte considerable de su tiempo caminando erguido sobre el suelo.El fósil ha sido vinculado con Graecopithecus freybergi, un primate del Mioceno tardío que ya había protagonizado un intenso debate científico en años anteriores. En 2017, el mismo grupo de investigadores sugirió que la separación evolutiva entre humanos y chimpancés pudo haberse producido en el Mediterráneo oriental, y no en África, como sostiene la visión tradicional.Aquella propuesta se basaba en el análisis de una mandíbula descubierta en Grecia y un diente encontrado en Bulgaria, ambos atribuidos a Graecopithecus. No obstante, en ese momento faltaban pruebas claras relacionadas con la locomoción. El nuevo fémur hallado en Azmaka podría llenar precisamente ese vacío, aportando indicios directos de adaptación al desplazamiento sobre dos piernas.Si la interpretación del equipo resulta correcta, el hallazgo tendría implicaciones importantes para la historia evolutiva humana. Hasta ahora, el hominino más antiguo asociado al bipedismo era Sahelanthropus tchadensis, un fósil de aproximadamente siete millones de años encontrado en África central. Pero las dataciones del fémur búlgaro sugieren que Graecopithecus podría ser incluso ligeramente más antiguo.Este escenario trasladaría el posible origen del bipedismo hacia los Balcanes, situando en Europa uno de los capítulos iniciales de la evolución humana. No obstante, los propios investigadores reconocen que todavía es demasiado pronto para modificar los libros de texto. Nuevos análisis y revisiones independientes serán necesarios antes de que la comunidad científica acepte plenamente esta hipótesis.Más allá del debate geográfico, el estudio también ofrece pistas sobre las condiciones ambientales que pudieron impulsar la evolución del bipedismo. Hace unos siete millones de años, la región mediterránea atravesaba un periodo de cambios climáticos intensos. Sequías severas y transformaciones globales del clima habrían reducido considerablemente las zonas de bosque.En lugares como el valle del río Struma, en Bulgaria, el paisaje habría adoptado características similares a las sabanas africanas. La disminución de los bosques obligó a muchos primates a pasar más tiempo en el suelo, desplazándose por áreas abiertas en busca de alimento.En ese contexto, caminar sobre dos piernas pudo convertirse en una ventaja evolutiva para recorrer mayores distancias y adaptarse a un entorno cambiante. Según esta hipótesis, no habría sido un continente específico el que originó el bipedismo, sino las condiciones ambientales que empujaron a ciertos primates a modificar su forma de desplazarse. El descubrimiento del fémur de Azmaka no cierra el debate sobre nuestros orígenes, pero sí introduce un nuevo protagonista en una historia que durante décadas parecía tener un único escenario. Ahora, el monopolio africano sobre el nacimiento del linaje humano podría enfrentarse a un inesperado competidor europeo.
Una llamada que suena exactamente como la de un gerente, un video que imita con precisión el rostro de un cliente o un audio que reproduce la voz de un familiar solicitando una transferencia urgente. Esto hace pocos años parecía parte de una película de ciencia ficción, pero hoy es una herramienta real para cometer fraudes financieros.En Colombia, los deepfakes, contenidos falsificados mediante inteligencia artificial capaces de replicar voz, rostro o gestos humanos, están comenzando a transformar la forma en que operan los delincuentes digitales y a poner a prueba los sistemas de seguridad del sector bancario.En América Latina, y particularmente en Colombia, el crecimiento de identidades sintéticas, deepfakes de voz y esquemas de ingeniería social automatizados están redefiniendo el perfil del fraude financiero. Según cifras de la Superintendencia Financiera, entre enero y julio de 2025 se registraron 27.000 millones de intentos de ciberataque contra establecimientos bancarios, lo que representa un incremento del 69 % frente al mismo periodo del año anterior.En términos operativos, esto equivale a cerca de 94 intentos de vulneración por segundo y a aproximadamente 1.000 colombianos víctimas diarias de robo de datos personales.“El acceso a herramientas de Inteligencia Artificial generativa ha democratizado la sofisticación del fraude. Hoy adversarios con pocos conocimientos técnicos pueden ejecutar ataques altamente convincentes”, explicó José Javier Prada, CEO de Become Digital.Identidades falsas y fallas en la verificaciónUno de los factores que ha facilitado el crecimiento de este tipo de fraude es la persistencia de sistemas de verificación basados en documentos físicos. En muchos procesos de autenticación todavía se depende principalmente de la cédula amarilla, cuyos elementos pueden ser manipulados mediante edición digital, reimpresión o superposición de capas.Esto significa que los motores tradicionales de Reconocimiento Óptico de Caracteres (OCR) y algunos esquemas básicos de biometría no siempre logran detectar alteraciones sutiles pero críticas. Con la llegada de herramientas de inteligencia artificial capaces de generar imágenes, videos o audios hiperrealistas, estas debilidades se vuelven aún más evidentes.IA contra IAComo consecuencia, el sector financiero y las empresas tecnológicas han comenzado a desarrollar nuevas arquitecturas de inteligencia artificial diseñadas específicamente para detectar manipulación digital y fraudes de identidad.En el caso de Become Digital, su tecnología ha sido entrenada durante años con datos y alteraciones reales del mercado colombiano. “Esto permite que la IA identifique patrones gráficos, microvariaciones e inconsistencias estructurales que pueden pasar desapercibidas para los sistemas tradicionales o incluso para el ojo humano”.El modelo alcanza una tasa de detección de fraude superior al 99 %, mientras mantiene niveles de conversión superiores al 75 %, dependiendo del flujo y del perfil de riesgo. Aproximadamente el 85 % de las transacciones se resuelven automáticamente, mientras que el 15 % restante pasa a revisión de auditores especializados.¿Cómo enfrentar esta nueva generación de fraudes?Ahora, a lo que le apunta la mayoría de bancos es a saber cómo enfrentar esta nueva generación de fraudes. Espacios como el Congreso CAMP de Asobancaria y los encuentros regionales de Fintech Américas servirán para que reguladores, bancos y proveedores tecnológicos analicen el impacto de la inteligencia artificial, tanto en la evolución del delito como en las estrategias para contenerlo.Las proyecciones del sector muestran que el mercado de inteligencia artificial aplicada a la detección de deepfakes crecerá a una tasa anual compuesta del 33,5 % hasta 2030, alcanzando un valor global cercano a US $38.500 millones, según estimaciones citadas por Asobancaria.Un nuevo modelo de confianza digitalMás allá de la adopción de nuevas herramientas tecnológicas, el desafío para Colombia será rediseñar el modelo de confianza digital sobre el cual se sostiene la intermediación financiera. La tendencia apunta a que los sistemas antifraude evolucionen desde la verificación tradicional, basada en foto, voz o documento, hacia modelos de autenticación continua basados en comportamiento, capaces de detectar señales humanas difíciles de replicar por la inteligencia artificial.“Hoy incorporamos señales comportamentales, especialmente en los procesos de prueba de vida. No nos limitamos a verificar que exista un rostro frente a la cámara; analizamos cómo se comporta ese rostro durante la validación”, señala Prada.
Tener una conexión wifi lenta o con interrupciones es un problema frecuente en muchos hogares. Sin embargo, en algunas ocasiones se culpa directamente al proveedor de internet, la causa también podría estar relacionada con algunos factores dentro de la casa que afectan la señal. Uno de los problemas más comunes son las intermitencias que muchas veces pueden llegar a afectar el rendimiento de la señal de wifi, generando desconexiones, problemas al momento de conectar los dispositivos y tener una experiencia de navegación muy mala. Con el paso del tiempo, estas situaciones pueden impactar en el funcionamiento normal de la conexión.En muchos casos, estas fallas ocurren cuando varios dispositivos electrónicos utilizan frecuencias similares al mismo tiempo. Cuando esto sucede, la red puede volverse menos estable, especialmente en lugares donde hay muchos equipos conectados de forma simultánea.Detalles que se debe tener en cuenta para mejorar la calidad del WifiPara evitar estos inconvenientes, el portal Xataka Móvil sugiere seguir algunas recomendaciones que pueden ayudar a mejorar la calidad del wifi y reducir las interferencias en el hogar.Uno de los principales motivos por los que se presentan interferencias o mala calidad del wifi en el hogar es la mala ubicación del router. En algunos casos, la señal puede llegar a debilitarse por la distancia o por las interferencias que generan otros dispositivos, e incluso por obstáculos como paredes o muebles. Sin embargo, recomiendan ubicar el router en una zona central de la casa. Si el dispositivo se encuentra en una esquina o dentro de un cuarto cerrado, la cobertura puede volverse desigual y es más probable que aparezcan áreas con poca señal.Elegir la banda de frecuencia adecuada también es importante para mejorar la señal del wifi. Muchos routers actuales cuentan con dos opciones: 2,4 GHz y 5 GHz, y cada una funciona de manera diferente. La banda 2,4 GHz suele tener mayor alcance dentro de la casa, por lo que la señal puede llegar a más espacios. Sin embargo, también puede ser más lenta debido a las interferencias que generan otros dispositivos. Por otro lado, la banda 5 GHz generalmente ofrece una conexión más rápida, aunque su alcance es menor. Por eso, suele funcionar mejor cuando los dispositivos se encuentran cerca del router.
La Nasa lanzó un nuevo canal que ha cautivado a los amantes del espacio y la tecnología: Space Live, una transmisión en tiempo real que muestra la Tierra desde la Estación Espacial Internacional (EEI) las 24 horas del día, con imágenes en resolución 4K. La experiencia, disponible gratuitamente a través del canal oficial de YouTube de la Nasa, permite observar el planeta como nunca antes, con un nivel de detalle que deja sin palabras a sus espectadores.Una vista privilegiada del planetaEl streaming comenzó el pasado 9 de septiembre y se mantiene activo de forma ininterrumpida. Las imágenes provienen de una cámara instalada en el módulo Harmony de la estación, la cual apunta hacia el Adaptador de Acoplamiento Internacional 2, ofreciendo una panorámica impresionante de los océanos, las cordilleras y la curvatura terrestre.Según explicó la agencia espacial, cuando la cámara no está disponible por mantenimiento o ajustes operativos, se reproducen clips grabados con anterioridad, siempre identificados con la etiqueta “imágenes previamente registradas”.Lo que hace especial a Space LiveA diferencia de otras transmisiones similares, este canal combina tecnología avanzada y una experiencia inmersiva única:Imágenes en ultra alta definición (4K): resultado de una alianza con la empresa británica Sen, que aportó cámaras de última generación.Rastreador orbital en tiempo real: muestra la ubicación exacta de la estación mientras orbita la Tierra.Datos meteorológicos instantáneos: un sistema de inteligencia artificial agrega información sobre clima y regiones.Banda sonora ambiental: música suave diseñada para acompañar la experiencia visual sin distraer al espectador.En cuestión de minutos, la transmisión muestra el paso de la EEI desde Europa hasta Asia o América del Sur, revelando contrastes impresionantes entre mares, desiertos, montañas y tormentas eléctricas. Desde Colombia, cualquier usuario puede acceder al canal y disfrutar del recorrido orbital.Miles de personas ya lo describen como una experiencia hipnótica y relajante, ideal para tener de fondo mientras trabajan, estudian o descansan. Aunque no reproduce el llamado overview effect —esa transformación que sienten los astronautas al ver la Tierra desde el espacio—, sí logra generar una conexión emocional con el planeta y una nueva conciencia sobre su fragilidad.Con Space Live, la NASA no solo acerca el espacio a los hogares, sino que también fomenta la curiosidad científica y la contemplación. La iniciativa demuestra cómo la tecnología puede inspirar a millones al mostrar, en tiempo real, la belleza del planeta que habitamos.
Comprar televisor en 2025 puede ser complejo: entre tantas marcas, tamaños y tecnologías, las opciones que más llaman la atención siguen siendo dos grandes familias: los televisores OLED y los QLED. Ambas ofrecen muy buena calidad de imagen, pero funcionan de manera distinta y cada una tiene ventajas según el tipo de usuario.¿En qué se diferencian OLED y QLED?La elección depende de lo que usted busque y del espacio donde verá televisión:>> Lea también: Científicos por fin revelaron si vale la pena o no comprar un televisor de ultra alta definiciónOLED:Los OLED son ideales si quiere negros profundos y una imagen más cinematográfica. Como cada punto de la pantalla se enciende por separado, logran un contraste muy fuerte y colores que se ven naturales, sobre todo cuando se ve contenido con poca luz. Son perfectos para salas oscuras o para quienes disfrutan ver películas de noche.QLED:Los QLED ofrecen colores más brillantes y mantienen muy buena visibilidad incluso con luz fuerte en la sala. Son una gran opción para ver deportes, contenido HDR o si tiene una sala muy iluminada durante el día.En pocas palabras:¿Sala iluminada o quiere colores muy vivos? QLED.¿Busca negros perfectos y ambiente tipo cine? OLED.Guía rápida de Samsung si decide optar por un QLED en 2025QEF1 – Para quienes buscan su primer televisor con buena calidad: funciona muy bien en habitaciones o espacios pequeños. Ajusta la imagen automáticamente para que todo se vea más nítido.Q7F – La opción equilibrada para la mayoría de hogares: sirve para salas medianas y combina buen brillo, colores balanceados y rendimiento para películas, deportes y videojuegos.Q8F – La experiencia tipo cine en casa: es el modelo más completo, con mejor contraste y un diseño más delgado. Ideal para quienes quieren una experiencia más “premium” en espacios amplios.
En Colombia las temporadas de tiempo seco ocurren en dos ocasiones. De acuerdo con el Ideam, la principal va de diciembre a marzo y se puede extender hasta abril, la segunda es más corta, de julio a agosto.Actualmente, estamos a menos de 30 días del último mes del año, cuando comienza la primera temporada seca. Estos periodos se caracterizan por tener menos lluvias, lo que quiere decir que el calor se irá sintiendo cada vez más.Las olas de calor se han convertido en parte del día a día en muchas regiones del país, principalmente en la costa Caribe, donde la temperatura supera los 32 °C. En los valles, el aire se siente denso y seco; y en ciudades como Bogotá o Medellín, los picos de calor intermitentes empiezan a ser cada vez más frecuentes.Ante este panorama, miles de familias buscan alivio en un aliado que, bien elegido, puede marcar la diferencia entre un ambiente sofocante y un hogar confortable, se trata del aire acondicionado.Pero cómo escoger un equipo que enfríe bien, que sea económico, dure años y no dispare la factura de la luz. Comprar un aire acondicionado no se trata solo de mirar precios o diseños; requiere entender el espacio, la tecnología y la eficiencia del equipo.Claves para elegir el aire acondicionado ideal para su hogarLas altas temperaturas en Colombia han impulsado la demanda de soluciones de climatización más eficientes y sostenibles. Según expertos de Midea, la decisión correcta parte de tres factores esenciales:El tamaño del espacio.La capacidad en British Thermal Units (BTU).La tecnología del equipo.La potencia de un aire acondicionado se mide en British Thermal Units (BTU), una unidad de medida que sirve para calcular la capacidad de calefacción o refrigeración de los equipos. Elegir la capacidad correcta evita el sobreconsumo y el desgaste del elemento.Como referencia general, los expertos recomiendan 600 BTU por metro cuadrado, ajustando el cálculo si hay muchas personas, luz solar directa o aparatos que generen calor en la habitación.Los equipos con tecnología Inverter regulan la velocidad del compresor para mantener una temperatura estable sin apagarse constantemente, lo que reduce el consumo eléctrico. Los modelos más avanzados integran incluso inteligencia artificial.De acuerdo con los expertos, el refrigerante R32 (un tipo de gas refrigerante) es actualmente una de las opciones más ecológicas y eficientes del mercado. Este ofrece hasta 12% más eficiencia energética y contribuye a disminuir la huella de carbono, un detalle que suma un punto adicional para quienes buscan no afectar el medioambiente.Confort y durabilidad más allá del fríoLos nuevos modelos ofrecen funciones inteligentes que mejoran la experiencia del usuario como:Control remoto por wifi.Filtros antialérgicos.Protección contra picos de voltaje.Recubrimientos anticorrosivos.Sistemas de autodiagnóstico. Estas características aumentan la durabilidad del equipo y garantizan un funcionamiento estable en distintas condiciones.Elegir el aire acondicionado correcto no solo mejora la calidad de vida, sino que también se convierte en un ahorro energético significativo. Entonces, la clave está en informarse, comparar y escoger el equipo que se adapte a las necesidades reales de cada hogar, priorizando siempre la eficiencia, la sostenibilidad y el confort que ofrece el aparato.
Una tormenta solar de intensidad fuerte, clasificada como G3 en la escala de fenómenos geomagnéticos, se espera que impacte la Tierra entre la noche de este viernes 7 y la mañana del sábado 8 de noviembre, según informó el Centro de Predicción del Clima Espacial (SWPC) de la Administración Nacional Oceánica y Atmosférica (NOAA) de Estados Unidos.El aviso se emitió tras detectar una eyección de masa coronal (CME), una explosión de plasma solar cargado de radiación electromagnética que viaja a gran velocidad hacia nuestro planeta. Este fenómeno, conocido también como tormenta geomagnética, ocurre cuando el Sol libera enormes cantidades de partículas que interactúan con el campo magnético terrestre, generando posibles alteraciones tecnológicas.De acuerdo con science.nasa.gov, el Sol posee una maraña de campos magnéticos que se entrelazan y retuercen constantemente. Cuando estos campos se rompen y reconectan —proceso conocido como reconexión magnética— liberan grandes cantidades de energía, capaces de afectar los sistemas de comunicación y navegación en la Tierra.¿Cuáles son los efectos de la tormenta solar?Aunque los expertos aclaran que este fenómeno no representa un riesgo directo para las personas, sí puede ocasionar interferencias en las comunicaciones por radio, fluctuaciones en las redes eléctricas y alteraciones en los sistemas GPS.Uno de los efectos más espectaculares, sin embargo, será la posible aparición de auroras boreales visibles en zonas donde normalmente no se observan, como Nebraska, Iowa e Illinois, en Estados Unidos. La intensidad del fenómeno, junto con un cielo despejado y baja contaminación lumínica, serán claves para disfrutar del espectáculo natural.Las auroras se originan cuando las partículas del viento solar chocan con el oxígeno y el nitrógeno de la atmósfera terrestre. El verde se asocia al oxígeno a baja altitud, el rojo al mismo gas en niveles más altos y los tonos azules o violetas al nitrógeno.Escala de intensidad de tormentas geomagnéticasLa NOAA clasifica estos eventos en una escala del G1 al G5, según su intensidad y efectos esperados:G1 – Menor (Kp 5): efectos leves en redes eléctricas y auroras visibles solo en altas latitudes.G2 – Moderada (Kp 6): auroras más extendidas y posibles alteraciones leves en satélites y sistemas de energía.G3 – Fuerte (Kp 7): fluctuaciones en redes eléctricas y fallos temporales en navegación satelital; auroras visibles en latitudes medias.G4 – Severa (Kp 8): interrupciones en comunicaciones y sistemas eléctricos; auroras en regiones más bajas.G5 – Extrema (Kp 9): daños importantes en transformadores, cortes eléctricos y afectaciones graves en comunicaciones.La tormenta esperada pertenece al nivel G3, por lo que, aunque no es extrema, sí tiene el potencial de generar impactos perceptibles y auroras visibles más allá de las zonas polares.Los especialistas subrayan que las tormentas solares son parte del ciclo natural del Sol, que se repite aproximadamente cada 11 años. No obstante, su impacto depende de factores como la velocidad y densidad de las partículas solares, así como de la orientación del campo magnético interplanetario cuando alcanza la Tierra.
Apple ya alista su nueva generación de dispositivos de gama alta que podrían significar un cambio importante en su catálogo y que, además, también podría influir en el futuro desarrollo de la marca.De acuerdo con lo revelado por el periodista especializado en tecnología Mark Gurman, la compañía trabaja en tres productos que apuntan a una categoría superior dentro del ecosistema. Si bien esta tecnología no es nueva y ya se ha visto en otras marcas, Apple incorporaría a su catálogo un iPhone plegable; sumado a ello, una MacBook Pro con pantalla táctil OLED y la cereza en el pastel: AirPods con cámaras integradas.La nueva línea podría debutar este año y estaría pensada para ubicarse por encima de los modelos actuales. Si bien todavía Apple no ha confirmado que lleven el nombre "Ultra", lo cierto es que las características que se han filtrado apuntan a que serían dispositivos con la tecnología más avanzada hasta ahora, por lo que sus precios también serían elevados.Apple prepara iPhone plegable, MacBook Pro OLED y AirPods con sensores visualesUno de los dispositivos que más expectativa ha generado desde que se filtró es la posible llegada del primer iPhone plegable. Luego de varios años de desarrollo, finalmente Apple podría presentar su primer teléfono con pantalla flexible, luego de que marcas como Samsung, Huawei y Motorola ya tengan el suyo.De acuerdo con las filtraciones, el dispositivo tendría un diseño similar al de otros plegables del mercado y contaría con dos pantallas:Pantalla externa de aproximadamente 5,5 pulgadasPantalla interna desplegable de 7,8 pulgadasPaneles OLED con tasa de refresco de 120 HzSin embargo, el equipo contaría con un sistema de bisagra mejorado que permitiría mayor durabilidad y reduciría la marca visible del pliegue. El precio rondaría los 2.000 dólares ($7.400.000 COP), ubicándolo en el segmento premium.MacBook Pro con pantalla táctil OLEDOtro de los lanzamientos que ha generado expectativa es, sin duda, una MacBook Pro con pantalla OLED táctil, algo que por años parecía improbable en la compañía de la manzana y que finalmente se haría realidad.Con el cambio a tecnología OLED, Apple podría fabricar portátiles:Más delgadosCon mayor brilloCon mejor eficiencia energéticaSumado a ello, el equipo incorporaría un chip M6, fabricado con proceso de 2 nanómetros, lo que daría un salto de rendimiento y eficiencia atractivo en comparación con los procesadores M5.El sistema operativo macOS también recibiría ajustes para facilitar el uso táctil, incluyendo íconos más grandes y gestos como ampliar o desplazar contenido con los dedos.AirPods con sensores visuales integradosSin duda, este sería el producto más llamativo de Apple. Los nuevos AirPods tendrían sensores visuales integrados. No son cámaras para tomar fotos, pero sí pequeños sensores capaces de analizar y estudiar el entorno del usuario.Entre las funciones que podrían incorporar están:Mejor interacción con SiriReconocimiento del entornoControl por gestos sin tocar los auricularesAjuste automático del volumen y cancelación de ruidoEste nuevo modelo podría superar los 300 dólares (aprox. $1.110.000 COP) y posicionarse por encima de los AirPods Pro actuales.Según las filtraciones, el lanzamiento de la nueva línea de Apple podría llegar en septiembre, fecha en la que usualmente presentan los nuevos iPhone. Con esto, la empresa de la manzana busca dar un nuevo salto y ponerse a la par de sus competidores. Cabe recordar que los precios de los productos son estimados y en Colombia podrían llegar un poco más costosos.
La compañía tecnológica Motorola anunció la incorporación del arquero David Ospina como nuevo embajador de marca en América Latina de cara a la Copa Mundial de la FIFA 2026. La alianza forma parte de la estrategia de posicionamiento de la empresa en el marco del torneo, del cual su matriz, Lenovo, participa como socio oficial de smartphones.Según informó la compañía, la elección del portero antioqueño responde a su trayectoria en el fútbol profesional y a su reconocimiento como el jugador con más presencias en la historia de la Selección Colombia de fútbol. La marca busca vincular su imagen a valores como la precisión, la confianza y el rendimiento, atributos asociados al desempeño deportivo del guardameta.Luz Elena Muñoz, gerente de marketing de Motorola Colombia, explicó que la incorporación de Ospina es el resultado de un trabajo desarrollado durante varios meses desde el equipo local de la compañía, en coordinación con los lineamientos de la FIFA. “Hoy celebramos la incorporación de un futbolista que inspira seguridad, respeto y confianza dentro y fuera de la cancha”, señaló la directiva al presentar la alianza.Por su parte, Ospina destacó el significado personal de la colaboración y recordó que su primer teléfono móvil fue un modelo de la marca, el Motorola Pebl U6. El arquero señaló que actualmente el celular cumple un papel importante tanto en su vida personal como en su preparación deportiva, al permitirle mantenerse conectado con su familia y analizar información relacionada con sus rivales.Motorola indicó que esta alianza busca acercar la tecnología al público del fútbol en la región y fortalecer su presencia en América Latina durante el Mundial de 2026. Como parte de la campaña, Ospina participará en acciones promocionales vinculadas al torneo, que se disputará en Estados Unidos, México y Canadá.
Durante los últimos meses, el asteroide 2024 YR4 ha estado bajo vigilancia de las principales agencias espaciales del mundo. El objeto generó inquietud cuando los primeros cálculos sugerían una pequeña posibilidad de impacto con la Tierra y posteriormente con la Luna. Sin embargo, nuevas observaciones han permitido aclarar el escenario. Según informó la NASA, los datos más recientes descartan que el asteroide colisione con la Luna el 22 de diciembre de 2032.Las conclusiones se obtuvieron tras analizar información recopilada por el James Webb Space Telescope, cuyas observaciones permitieron mejorar la precisión sobre la trayectoria del objeto.¿Qué pasará realmente con el asteroide 2024 YR4?De acuerdo con los nuevos cálculos orbitales, el asteroide pasará a unos 21.200 kilómetros de la superficie lunar, una distancia suficiente para descartar cualquier colisión.Los datos fueron analizados por el Center for Near-Earth Object Studies, que se encarga de estudiar objetos cercanos a la Tierra y evaluar posibles riesgos de impacto.La actualización no significa que el asteroide haya cambiado su trayectoria de forma repentina, sino que los científicos ahora cuentan con mediciones más precisas gracias a observaciones adicionales.Antes de incorporar estos nuevos datos, algunos modelos indicaban que existía una probabilidad cercana al 4,3 % de impacto con la Luna, lo que motivó el seguimiento detallado del objeto.¿Por qué generó preocupación este asteroide?El asteroide 2024 YR4 fue descubierto a finales de 2024 por una estación del sistema de alerta de impactos de asteroides financiado por la NASA en Chile.En un primer momento, las estimaciones preliminares mostraban una pequeña posibilidad de impacto con la Tierra, lo que llevó a intensificar las observaciones desde distintos observatorios alrededor del mundo.Durante un breve periodo, el objeto llegó a ser considerado uno de los asteroides potencialmente más peligrosos identificados en las últimas dos décadas, aunque los análisis posteriores descartaron ese riesgo.Con el paso de los meses y la recopilación de más datos, los científicos confirmaron que no representa peligro para la Tierra en 2032 ni durante el próximo siglo.¿Cómo se monitorean los asteroides cercanos?Las agencias espaciales mantienen programas permanentes para detectar y rastrear objetos cercanos a la Tierra. Entre las instituciones que participan en este seguimiento se encuentra también la European Space Agency.Estas redes de observación permiten actualizar constantemente los modelos orbitales a medida que se obtienen nuevas mediciones.Según explican los expertos, es normal que los cálculos iniciales cambien con el tiempo, ya que las primeras observaciones suelen tener mayor margen de incertidumbre. A medida que se recopilan más datos, la trayectoria de los objetos se puede determinar con mayor precisión.Por ahora, las agencias espaciales coinciden en que la Luna está a salvo y el asteroide 2024 YR4 no representa una amenaza.
Los cargadores de celular son dispositivos que muchas personas dejan conectados todo el tiempo a la corriente. Sin embargo, expertos advierten que algunos de estos aparatos podrían generar un consumo de energía innecesario e incluso representar riesgos si no cumplen con ciertas normas de seguridad.La Unión Europea implementó una normativa donde establece un cargador único para todos los dispositivos electrónicos vendidos, esta normativa entró en vigencia el 28 de diciembre de 2024 donde requiere que todos los dispositivos móviles, tabletas, cámaras digitales u otros dispositivos empiecen a utilizar un puerto de carga USB tipo-C.Esta medida cuenta con varios beneficios, ya que la unificación de los cargadores ayudará a reducir la cifra de residuos electrónicos: se estima que los cargadores desechados generan alrededor de 11.000 toneladas de residuos electrónicos anuales. Además, los usuarios podrán utilizar un solo cargador para múltiples dispositivos, lo que simplifica la vida diaria y reduce la necesidad de comprar diferentes cargadores.Además la normativa también le permite a los usuarios cargar sus dispositivos a una misma velocidad con cualquier cargador que sea compatible. ¿Cuáles cargadores suben el precio de la factura de luz?El consumo de energía de los cargadores cambia según el modelo y el año de fabricación. Actualmente, la Unión Europea establece que los cargadores que se venden en su mercado no deben superar los 0,10 Wh de consumo en reposo. No obstante, dispositivos más antiguos pueden tener un gasto mayor: algunos modelos de 2011 registran alrededor de 0,30 Wh, mientras que cargadores más viejos pueden alcanzar hasta 0,5 Wh.En otras palabras, en comparación con los modelos modernos, algunos cargadores antiguos pueden consumir hasta cinco veces más energía.¿Cuáles son las recomendaciones que debe seguir para evitar riesgos y alto consumo?Además del consumo de energía, mantener los cargadores enchufados sin que esté cargando puede suponer riesgos de seguridad. Por otro lado, es importante utilizar en la medida de lo posible cargadores certificados y tratar de que no queden conectados cuando no se están utilizando. Ante esta situación, especialistas sugieren tener en cuenta algunas recomendaciones como:Desenchufe el cargador cuando no lo este utilizando, este paso ayudará a prevenir consumos innecesarios y posibles sobrecalentamientos.Evite utilizar regletas con el interruptor, esto facilita la desconexión de varios dispositivos a la vez, ayudando a mejorar la seguridad y la eficiencia energética.No cargue su dispositivo sobre superficies inflamables.Utilice cargadores homologados, garantizando estándares de seguridad y eficiencia, reduciendo de esta manera riesgos de accidentes.Aunque el consumo de un solo cargador puede ser pequeño, adoptar estos hábitos podría ayudar a reducir el gasto de energía en el hogar y mejorar la seguridad eléctrica. También aconsejan revisar periódicamente el estado del cable y del adaptador para prevenir posibles fallas.
La expansión de la inteligencia artificial en el mundo laboral ha sido presentada como una herramienta capaz de aumentar la productividad, agilizar procesos y facilitar tareas complejas. Sin embargo, nuevas investigaciones advierten que su uso intensivo también puede generar un efecto inesperado: un creciente agotamiento mental entre los trabajadores.Un estudio publicado por la Harvard Business Review analizó cómo la incorporación de herramientas de inteligencia artificial está influyendo en la carga cognitiva de los empleados. Los investigadores identificaron un fenómeno al que denominaron “agotamiento cerebral por IA”, definido como la fatiga mental que surge cuando una persona interactúa o supervisa sistemas de inteligencia artificial más allá de su capacidad cognitiva.Para llegar a esta conclusión, los autores realizaron una encuesta a 1.488 trabajadores en Estados Unidos, pertenecientes a distintos sectores y niveles profesionales. En el estudio se analizaron los patrones de uso de estas herramientas, el tiempo dedicado a ellas y los efectos que provocan en el desempeño y el bienestar de los empleados.Antes de realizar la investigación, los expertos observaron testimonios en redes sociales en los que trabajadores describían sensaciones de saturación al interactuar con múltiples plataformas de inteligencia artificial durante su jornada laboral. A partir de esas experiencias, decidieron estudiar con mayor profundidad la relación entre la tecnología y el desgaste psicológico.Entre los síntomas reportados por los participantes aparecen sensaciones de confusión mental, dificultad para concentrarse y lentitud al tomar decisiones. Algunos trabajadores describieron incluso una especie de “zumbido” en la cabeza, acompañado de dolores de cabeza o fatiga persistente.El estudio también encontró que este agotamiento puede tener consecuencias directas en el rendimiento laboral. Las personas que afirmaron experimentar fatiga mental relacionada con el uso de inteligencia artificial mostraron un 33 % más de cansancio al tomar decisiones que aquellos que no reportaron este problema.Además, los investigadores detectaron una relación entre el agotamiento y el aumento de errores en el trabajo. Según los resultados, la intención de renunciar al empleo también crece entre quienes sienten este tipo de desgaste, pasando de un 25 % a un 34 % cuando el trabajador reconoce sufrir saturación mental vinculada a la tecnología.Uno de los factores que más contribuye a este fenómeno es la supervisión constante de sistemas automatizados. De acuerdo con los datos recopilados, las tareas que requieren revisar o monitorear el funcionamiento de herramientas de inteligencia artificial demandan un 14 % más de esfuerzo mental y provocan un 12 % más de fatiga que aquellas en las que la supervisión es menor.Otro elemento clave es la sobrecarga de información. Los investigadores explicaron que cuando los empleados deben procesar grandes volúmenes de datos generados por sistemas automatizados, la sensación de sentirse abrumados aumenta en un 19 %. En ese sentido, señalaron que “cuantitativamente encontramos fuertes correlaciones entre el agotamiento mental por IA y la sobrecarga de información”.El problema se agrava cuando los trabajadores deben manejar varias herramientas simultáneamente. Según el informe, cuando una persona utiliza tres o más plataformas de inteligencia artificial al mismo tiempo, la productividad empieza a disminuir, lo que refuerza la idea de que la multitarea tecnológica puede resultar contraproducente.Pese a estos efectos negativos, el estudio también identifica beneficios claros. Cuando la inteligencia artificial se emplea para reemplazar tareas repetitivas o rutinarias, los niveles de agotamiento mental pueden reducirse hasta en un 15 %. Esto permite a los empleados dedicar más tiempo a actividades creativas, estratégicas o de interacción con sus colegas.En conclusión, los autores señalan que la inteligencia artificial tiene el potencial de mejorar el desempeño laboral. “La IA puede ayudar a los empleados a trabajar más rápido, pensar en grande e innovar más”, afirmaron. No obstante, advirtieron que también puede generar sobrecarga cognitiva si no se implementa adecuadamente.Según los investigadores, la clave no está únicamente en la cantidad de herramientas utilizadas, sino en la forma en que las organizaciones integran la tecnología en sus procesos. “Nuestros hallazgos sugieren que la diferencia entre ambos no radica en la cantidad de IA que utiliza cada individuo, sino en cómo los trabajadores, los equipos, los líderes y las organizaciones configuran su uso”, concluyeron.
En el marco del Mobile World Congress 2026 en Barcelona, la compañía china Huawei presentó SuperPoD, una nueva arquitectura de supercomputación orientada al entrenamiento de modelos de inteligencia artificial a gran escala, con la que busca posicionarse como una alternativa en el mercado global de infraestructura dominado por fabricantes como Nvidia.El anuncio llega en un momento en el que la carrera tecnológica global por la inteligencia artificial se está trasladando desde los modelos de software hacia la infraestructura de cómputo capaz de entrenarlos y ejecutarlos. En ese contexto, Huawei presentó su nueva línea de sistemas de alto rendimiento diseñada para centros de datos y cargas de trabajo intensivas en IA.Una capacidad única para entrenar nuevos modelos de lenguajeLa arquitectura SuperPoD está encabezada por el sistema Atlas 950, especializado en procesamiento de inteligencia artificial, y el TaiShan 950, orientado a cargas de propósito general. Según la compañía, el Atlas 950 puede integrar hasta 8.192 chips Ascend 950, una capacidad pensada para entrenar modelos de lenguaje de billones de parámetros.Uno de los elementos centrales de esta infraestructura es UnifiedBus, una tecnología de interconexión diseñada para soportar procesamiento paralelo a gran escala, una condición clave para los sistemas modernos de inteligencia artificial que requieren distribuir tareas entre miles de procesadores.La compañía señaló que este tipo de infraestructura no solo apunta a centros de datos tradicionales, sino también a sectores industriales que demandan procesamiento intensivo en tiempo real, como la conducción autónoma de nivel avanzado o aplicaciones de automatización industrial.Una estrategia enmarcada por altas capacidades de conectividadEl lanzamiento también se enmarca en la estrategia tecnológica de Huawei alrededor de 5G-Advanced (5G-A) y la futura transición hacia 6G, donde la conectividad y el cómputo de alto rendimiento estarán cada vez más integrados.Con este movimiento, Huawei busca reforzar su papel en el mercado de infraestructura para inteligencia artificial, un segmento estratégico donde el acceso a capacidad de cómputo se ha convertido en uno de los principales factores de competencia tecnológica entre empresas y países.