DiarioTI

Suscribirse a canal de noticias DiarioTI DiarioTI
El diario del profesional TI
Actualizado: hace 2 horas 21 mins

Grave fallo en procesadores de Intel puede ser corregido con software

Jue, 01/04/2018 - 15:59

Expertos de Google han detectado un error fundamental del diseño en los procesadores de Intel que no puede ser corregido en el micro código de los procesadores. En lugar de ello, es necesario realizar significativos modificaciones en numerosos sistemas operativos.

En el peor de los escenarios descritos, el error haría posible para un software maligno, o intrusos, tener acceso los datos almacenados en la memoria del kernel, que al contar con una separación lógica, debería estar, en principio, protegido de intrusiones. La información almacenada en el kernel puede incluir, entre otras cosas, contraseñas y claves de cifrado. Esta situación puede conllevar un considerable riesgo en entornos compartidos por varios usuarios; por ejemplo en servicios en la nube o plataformas de hospedaje de sitios web.

Varios afectados

La vulnerabilidad afecta a los procesadores y sistemas operativos en las principales plataformas de hardware, incluidas las de la familia x86 (Intel y AMD), POWER 8, POWER 9, System z y ARM.

El exploit tiene tres rutas de ataque únicas que podrían permitir a un atacante ejecutar una modalidad de ataque identificada como “canal lateral” para eludir las protecciones y así leer la memoria del dispositivo.

Las tres vulnerabilidades y exposiciones comunes para este problema son:

· CVE-2017-5754 (Meltdown). Es el más grave ya que permite a los atacantes leer la memoria del chip.

· CVE-2017-5753 (Spectre) es un exploit de menor intensidad que puede ser corregido parcheando el kernel.

· CVE-2017-5715 (Spectre) es ataque de tipo “branching poisoning” que puede ocasionear pérdida de datos. El ataque permite que recurso virtualizado lea la memoria del sistema. La vulnerabilidad puede ser corregida con microcódigo.

El problema afecta principalmente a los procesadores de Intel fabricados durante la última década.

Intel: “No es cierto que sea error o fallo”

Intel ha hecho llegar el siguiente comunicado a nuestra redacción, que por su interés transcribimos textualmente:

“Intel y otras compañías tecnológicas han conocido los resultados de unas investigaciones sobre seguridad que describen unos métodos de análisis que, cuando se usan para fines malintencionados, podrían apropiarse indebidamente de datos confidenciales en dispositivos informáticos que funcionan tal y como fueron diseñados. Intel cree que estas vulnerabilidades no tienen potencial para corromper, modificar o eliminar datos.

No es cierto lo que indican unos informes recientes que afirman que estas vulnerabilidades son fruto de un “error” o de un “fallo” y que sólo aparecen en productos de Intel. Basándonos en estudios realizados hasta la fecha, muchos tipos de dispositivos informáticos -con procesadores y sistemas operativos de numerosos y diferentes suministradores- son susceptibles de verse afectados por estas vulnerabilidades.

Intel se compromete a proporcionar la máxima seguridad a sus productos y a sus clientes, y está colaborando estrechamente con muchas otras compañías tecnológicas –incluyendo AMD, ARM Holdings y varios suministradores de sistemas operativos–, para desarrollar un mecanismo para resolver este problema en todo el sector de forma inmediata y constructiva. Intel ha comenzado a proporcionar actualizaciones de software y firmware para minimizar estas vulnerabilidades. Al contrario de lo que afirman algunos informes, cualquier impacto en el rendimiento dependerá de la carga de trabajo que se realice y, para el usuario medio de ordenadores, no debería ser considerable y se mitigará con el tiempo.

Intel se compromete con las buenas prácticas del sector, dando a conocer de manera responsable cualquier problema potencial de seguridad y, con este fin, Intel y otros fabricantes han decidido informar sobre este asunto la próxima semana, cuando se encuentren disponibles más actualizaciones de software y firmware. Sin embargo, Intel ha decidido dar a conocer ya esta declaración debido a los artículos incorrectos que han aparecido en los medios de comunicación.

Consulta con tu proveedor del sistema operativo o con tu fabricante del sistema y realiza las actualizaciones disponibles lo antes posible. El cumplimiento de buenas prácticas en seguridad para proteger los sistemas contra cualquier malware en general también ayudará a proteger a los usuarios contra una posible vulnerabilidad hasta que se encuentren disponibles las actualizaciones correspondientes.

Intel cree que sus productos son los más seguros del mundo y que, con el apoyo de sus partners, las soluciones actuales para este problema proporcionan a sus clientes la máxima seguridad posible”.

Intel lanza nueva versión de los chips que estropearon hardware de Cisco

Falla en equipos de Cisco los inutiliza en 18 meses

El chip defectuoso de Intel está instalado en numerosos productos

Categorías: Noticias

Análisis | La criptografía cuántica, la tecnología edge computing y las infraestructuras de escritorio virtual serán claves en 2018

Mar, 01/02/2018 - 18:01

Según la compañía, estas tendencias obedecen a la necesidad de las organizaciones de reforzar sus políticas de ciberseguridad ante el crecimiento de los ciberataques y las nuevas organizaciones que están surgiendo como consecuencia de un puesto de trabajo cada vez más móvil.

Respecto a la primera de ellas, la criptografía cuántica, Toshiba señala que comenzará a consolidarse en el mercado a partir de 2018, al tratarse de uno de los métodos de encriptación y transmisión de información más seguros actualmente. Según Global Industry Analysts, esta tecnología generará un volumen de negocio global de más de 1.700 millones de euros en 2024. Dicha tecnología genera una clave de código único, sólo compartida por emisor y receptor del mensaje, de tal manera que el contenido se hace ilegible en caso de acceso de un tercero.

Toshiba, que trabaja desde 2003 para incrementar la velocidad de transmisión de información encriptada, ha conseguido este año llegar a los 13,7 Mbps, multiplicando por siete el récord de 1,9 Mbps que ella misma ostentaba, desde 2016.

Según Toshiba, 2018 también traerá nuevas estrategias en lo que se refiere a producción y tratamiento de datos, debido a la entrada en escena de tecnologías como Internet de las Cosas (IoT) en numerosos ámbitos. Según la empresa, el más destacable será la denominada tecnología edge computing.

A grandes rasgos, esta tecnología traslada el procesamiento de la información a las propias fuentes de generación de datos, descargando así al servidor central. El edge computing permite determinar qué información debe almacenarse localmente y cuál necesita ser enviada a la nube para ser usada posteriormente. Ello se traduce en una mayor eficiencia de la infraestructura tecnológica de cualquier organización, al proporcionar procesamiento de datos en tiempo real, reducción del tráfico, menores costes operativos y mejor rendimiento de las aplicaciones.

Por último, Toshiba señala la generalización de infraestructuras de escritorio virtual basadas en la nube, como otra de las tendencias de 2018. Esta tecnología evita que los usuarios almacenen información sensible para el negocio en sus dispositivos, lo cual facilita su protección contra el malware o los problemas de seguridad derivados de la pérdida o robo del equipo.

Según Emilio Dumas, director general de Toshiba Iberia, “sin duda, una de las fechas clave para el próximo año es la aplicación obligatoria, el 25 de mayo, de la nueva normativa de Protección de Datos (GDPR). Nunca ha sido tan importante para las organizaciones europeas identificar la mejor manera de gestionar sus datos. Sin embargo, frente a los riesgos de las sanciones e incluso de las acciones judiciales, el 50% de las empresas no podrán cumplir la normativa antes de finales de 2018, según Gartner. Estas tres tecnologías, pueden ayudar, y de manera decisiva a su consecución”.

Fotografía: Emilio Dumas, Director de Toshiba Iberia

T-E-S-T

Científicos de IBM alcanzan logros clave para construir la primera computadora cuántica práctica

Cuidad china protegerá sus redes con cifrado cuántico

Categorías: Noticias

AWS envía alertas erróneas a usuarios – tanto activos como inactivos

Mar, 01/02/2018 - 04:28

Nuestra publicación, usuaria de algunos servicios de AWS, también recibió la advertencia, a pesar de no utilizar servicios de acceso gratuito. Por lo tanto, en Diario TI nos consta que las alertas han sido enviadas a usuarios no activos de servicios gratuitos en AWS.

Las notificaciones son enviadas por AWS Budgets, una herramienta de Amazon que permite planificar costos del servicio. En su e-mail, AWS Budgets advierte que los niveles gratuitos de los servicios utilizados por el cliente se acercan al límite. El renglón de asunto del correo electrónico es titulado “Alerta de límite de nivel gratuito en AWS” y muestra el supuesto uso real y, con base en tal indicador, el uso mensual previsto. “Con base en su utilización de AWS este mes, prevemos que alcanzará el límite de los servicios gratuitos abajo descritos. Alcanzado ese límite, facturaremos a usted la tarifa estándar aplicable, de pago por uso efectivo. Para evitar exceder el límite gratuito, inicie sesión en su cuenta de AWS para revisar su uso y, si lo estima necesario, ajustarlo”, escribe la empresa en el mensaje recibido en la redacción de Diario TI (ver ilustración). En nuestro caso, el uso previsto excede en 31 veces el nivel gratuito.

Situaciones similares son descritas por usuarios de AWS en distintos foros, entre ellos Reddit.

Ilustración: captura de pantalla, correo electrónico enviado por AWS a Diario TI.

Microsoft y Google doblan su facturación por servicios Cloud, pero AWS continúa liderando

Oracle: “No necesitamos tantos centros de datos porque tenemos mejor hardware y software”; AWS: “Tonterías”

Categorías: Noticias

3GPP aprueba el primer estándar de 5G: Non-Standalone 5G New Radio

Mar, 01/02/2018 - 02:15

El 3rd Generation Partnership Program (3GPP) aprobó recientemente en Lisboa, Portugal, las especificaciones de Nueva Radio 5G No Autónoma (NSA 5G NR, o Non-Standalone 5G New Radio). Con ello, el 3GPP ha aprobado oficialmente el primer estándar de Quinta Generación (5G) de redes móviles.

La especificación Nueva Radio 5G No Autónoma se apoyará en el uso de las redes LTE (4G) existentes para ofrecer portadoras de 5G en la interfaz aérea, ofreciendo así mayores velocidades de transferencia y menor latencia que su antecesora de 4G.

Este antecedente permitirá continuar desarrollando los futuros estándares de 5G, para contar en los próximos años con una nueva generación de tecnologías móviles autónoma y completamente estandarizada.

“La aprobación por el 3GPP de las especificaciones técnicas para la operación no autónoma de 5G New Radio (NR) es un logro histórico, en tanto sienta las bases para un futuro con redes inalámbricas 5G. Este logro en las reuniones del 3GPP en Lisboa (Portugal) constituye un significativo avance para la industria móvil. Ahora que la 5G se encuentra en el horizonte en muchas partes del mundo, la aprobación del estándar para NSA 5G NR representa los primeros pasos hacia los despliegues comerciales de una 5G estandarizada”, indicó Chris Pearson, Presidente de 5G Americas.

“El anuncio del 3GPP tiene implicaciones muy positivas para los operadores de América Latina y el Caribe. Primero, al utilizar como base de lanzamiento las redes de LTE se acortan los tiempos de llegada de 5G en la región, pues contrario a lo sucedido con generaciones anteriores, no se tiene que desplegar una nueva red completamente de la nada. Ahora, los operadores pueden ver en qué localidades en las que poseen en estos momentos servicios de LTE o LTE Avanzado y seleccionar aquellas en las que sería viable a corto plazo un incremento en velocidad, mayor eficiencia en uso de espectro y una menor latencia a las disponibles en la actualidad”, explicó José Otero, Director de 5G Americas para América Latina y el Caribe.

Ilustración (c) Rittis vía Shutterstock

Informe de 5G Americas detalla las normas 3GPP Release 13 a Release 15

5G Americas aplaude esfuerzos regulatorios para impulsar desarrollo de IoT en América Latina

Categorías: Noticias

Opinión | El mundo Always-On: el verdadero poder de las nubes múltiples

Mar, 01/02/2018 - 02:00

En general, es seguro decir que la computación en la nube realmente nació hace más de diez años cuando las empresas comenzaron a implementar entornos altamente virtualizados y aprovechar el exceso de poder de cómputo. Después de algunos tropiezos y correcciones tempranas, el ritmo de la innovación en la historia reciente de la nube se está acelerando dramáticamente.

Las empresas que dependen cada vez más de las plataformas en la nube para ofrecer soluciones a sus clientes y socios exigen que la protección de datos y la disponibilidad se conviertan en consideraciones críticas para todas las empresas. Cualquier compañía puede tener la mejor plataforma de inteligencia de clientes basada en inteligencia artificial en el mundo, pero si no está disponible durante días, se pierde su valor.

Garantizar la disponibilidad seguirá siendo cada vez más difícil a medida que el panorama de la computación en la nube continúe evolucionando rápidamente. Estos son los que creemos en Veeam que serán los cuatro temas clave para 2018:

– Los entornos multi-nube se convertirán en la norma ya que ninguna plataforma en la nube es perfecta para cada carga de trabajo. Las herramientas y plataformas para gestionarlas continuarán madurando e impulsarán una integración más fluida en las nubes. Ya no se trata de “si” una organización moverá algunos o todos sus activos a la nube, sino cuándo y cómo. Hay una gran cantidad de formas en que las empresas pueden aprovechar las plataformas en la nube y ahora se trata de “¿a cuáles debo aprovechar?” A pesar de los deseos contrarios, resolver de manera óptima el paso a la nube requiere cada vez más un enfoque de múltiples nubes y una cartera correspondiente de herramientas de gestión y operativas. Los proveedores de software entienden esto y continuarán mejorando sus ofertas para hacer realidad una integración perfecta en todo el entorno de la nube.

– Las aplicaciones nativas de la nube aumentarán a medida que las empresas de todos los tamaños e ISV (proveedores independientes de software) maduren su capacidad para definir y entregar aplicaciones y soluciones concebidas y diseñadas para aprovechar las plataformas en la nube. Los beneficios de costo, escala y eficiencia de las aplicaciones nativas de la nube ahora son demasiado convincentes para ignorarlos y con rápidos avances en tecnologías esenciales como micro servicios y herramientas de desarrollo de apoyo, las aplicaciones nativas de la nube se acelerarán.

– Los servicios de base de datos a escala de nube (por ejemplo, Azure Cosmos, Google Cloud Spanner y servicios de AWS) permitirán que las aplicaciones a gran escala, altamente distribuidas y de misión crítica se hagan realidad y aumentarán el apetito por infundir datos y análisis en cada aplicación entregada en las nubes. Las características convincentes, como baja latencia, escalado horizontal y distribución geográfica, proporcionarán el tipo de potencia que IOT y muchas otras aplicaciones a escala global requieren.

La Inteligencia Artificial (IA) habilitada a través de plataformas en la nube comenzará a penetrar en las empresas, industrias y aplicaciones. Si bien no estamos del todo al nivel de HAL de “2001: una odisea del espacio”, tecnologías como Alexa, Cortana y Siri están demostrando el poder y el posible impacto de la IA en la vida cotidiana. Para las empresas, las capacidades de aprendizaje automático, impulsadas por petabytes de datos y recursos informáticos increíblemente rápidos, tendrán un impacto en las experiencias del consumidor, la investigación biotecnológica, el modelado financiero y una miríada de otras aplicaciones.

Entonces, ¿qué significa todo esto para nosotros en los próximos 12 meses? ¿Si un ciclón o una tormenta, un ataque de denegación de servicio distribuido (DDoS) u otra violación importante y luego una falla de energía regional catastrófica, todos atacan a la vez? A los clientes y usuarios de todo el mundo no les importará cuáles son sus problemas: esperan que la información y la capacidad de realizar transacciones estén allí cuando lo deseen, y es terriblemente fácil pasar de una empresa a su competidor si no lo ofrece.

Ni siquiera hemos arañado la superficie de las tecnologías que cambiarán la computación en la nube. La inteligencia artificial y el aprendizaje automático ya influyen en el marketing y las ventas al sintetizar Big Data y analytics. Pronto será responsable de saltar espontáneamente entre las nubes para garantizar la entrega continua de sus datos o servicios.

Pero la disponibilidad es mucho más que consumidores y comercio electrónico. Los colegas lejanos, más automatización y la nueva flexibilidad que permiten cambiarán aún más el mundo en el que trabajamos y vivimos, y esperamos que nuestros activos y servicios de trabajo sean las 24 horas del día, 7 días a la semana, como lo somos nosotros.

La disponibilidad no es una opción, es un requisito básico y el momento es ahora.

Por Veeam

Ilustración (c) Sergey Nivens vía Shutterstock
Categorías: Noticias

Análisis | Oportunidades del sector TI para 2018

Lun, 01/01/2018 - 20:03

1. Machine learning e Inteligencia Artificial

“El rápido crecimiento en el machine learning (aprendizaje automático) continuará a medida que las empresas se esfuerzan por obtener el mayor valor comercial y la ventaja competitiva de sus datos. A medida que el marchine learning se popularice, veremos un número creciente de mercados de datos a medida que los diferentes equipos interpreten los datos del data lake de forma diferente y generen nuevos datos desde esa perspectiva”, asegura Kim Palko, Principal Product Manager, Red Hat JBoss Middleware.

“En el espacio de la inteligencia artificial y el machine learning, en 2018 veremos el surgimiento de las aplicaciones inteligente. Una sorpresa del 2017 ha sido la constatación de que, si bien estas aplicaciones están comenzando a ser más habituales, en realidad ya están entre nosotros y solo van a seguir aumentando su presencia en nuestros procesos de trabajo. También en 2018 habrá una adopción empresarial generalizada de un flujo de trabajo estándar para la desarrollo de aplicaciones de inteligencia artificial. Esto continuará impulsando las aplicaciones habilitadas para IA hacia modelos dominantes”, añade Matthew Farrellee, Emerging Technology & Strategy, CTO Office de Red Hat.

2. Bases de Datos

“Habrá un enfoque renovado en cuanto a la seguridad de los datos, particularmente en la nube pública, impulsado por el Reglamento General de Protección de Datos de la Unión Europea (GDPR). A medida que el volumen de datos continúa aumentando, estimulados en parte por los datos generados por el Internet de las cosas, las empresas continuarán trasladando más datos a la nube para aprovechar los beneficios de la escalabilidad, la recuperación ante desastres, la flexibilidad, etc., y este movimiento requerirá más garantías de seguridad”, indica Kim Palko, Principal Product Manager de Red Hat JBoss Middleware.

3. DevOps

“Después de años de publicidad y cobertura positiva, veremos una serie de ejemplos de alto perfil de “fallos DevOps” que tendrán dos efectos paralelos. En algunas organizaciones, habrá un enfriamiento y una reevaluación de la emoción inicial. Sin embargo, las organizaciones que tengan una visión más avanzada verán estos fallos como experiencias de aprendizaje y tomarán más en serio los cambios en la cultura y el proceso, así como los requisitos sobre plataformas subyacentes y arquitecturas de software necesarias para beneficiarse de DevOps. Los vendedores que puedan trabajar con sus clientes en todo este espectro de necesidades se beneficiarán”, asegura Stephanos Bacon, Senior Director, Portfolio Strategy de Red Hat.

4. Virtualización de Servidores

“En 2018, esperamos ver el mercado de soluciones de virtualización interrumpido, ya que los clientes estarán menos dispuestos a pagar un suplemento por la virtualización y esperan que sea parte de la infraestructura que actualmente ejecutan o que planean ejecutar. La automatización, administración y coordinador de despliegues de aplicaciones basadas en la nube, remotas y en local también se convertirán en un imperativo comercial para las empresas. Veremos que los usuarios con aplicaciones heredadas de Modo 1 cambiarán algunas cargas de trabajo existentes, así como nuevas inversiones de desarrollo, a las infraestructuras de Modo 2, piense en VM híbridas que se ejecute dentro de contenedores”, indica Rob Young, manager, Virtualization Product and Strategy de Red Hat.

“Los contenedores serán protagonistas en 2018, y las máquinas virtuales que se ejecutan en contenedores ganarán impulso en el nuevo año a medida que Kubernetes continúe evolucionando. Sin embargo, es importante recordar que la virtualización y los contenedores no son competitivos, sino que se complementan entre sí. Continuaremos viendo la gran mayoría de las infraestructuras contenerizadas operando en hipervisores, y los primeros usuarios fusionarán los dos con Kubernetes”, añade Gunnar Hellekson, Director, Product Management, Linux and Virtualization de Red Hat.

5. Movilidad

“En 2018, espero que veamos empresas que adopten por completo la convergencia de la inteligencia artificial, los dispositivos móviles y el IoT. En muchos aspectos, la tecnología móvil es la más madura y muchas de estas organizaciones encontrarán que se enfrentan a desafíos similares en el desarrollo de aplicaciones para IoT e IA, como lo hicieron con los dispositivos móviles, como la integración y la seguridad. Muchas de las lecciones aprendidas con dispositivos móviles serán valiosas en términos de ayudar a las organizaciones a reconocer y superar los desafíos más rápidamente”, comenta Clare Grant, General Manager, Mobile de Red Hat.

6. Internet de las Cosas (IoT)

“En mi opinión, el mayor hecho en 2017 fue que el IoT alcanzó un pico publicitario, dando paso a nuevos ciclos de sobreexpectación para machine learning (en realidad, una rama de IoT) y para la inteligencia artificial (un área temática familiar y que requiere de datos de IoT como combustible para su inteligencia). Hemos visto una combinación de varias compañías que han realizado grandes inversiones en IoT, mientras que otras están reduciendo o reorganizando sus equipos de IoT. Esta combinación de inversiones significa que estamos en un punto de inflexión. Para el IoT, esto significa que ahora estamos en un punto donde los proyectos tienen que entregar resultados. Los proveedores de IoT invirtieron antes de la demanda, con todo tipo de reclamos. Con más oferta en el sector que demanda, veremos algunos jugadores abandonar o cambiar su enfoque”, opina James Kirkland, Chief Architect, IoT de Red Hat.

¿Qué podemos esperar del IoT en 2018?

– Resultados cuantificables. En 2018, escucharemos a las organizaciones que han implementado IoT (los primeros en adoptar), proyectos reales y que han obtenido un ROI demostrable. Hablarán de resultados exitosos y mejoras en los procesos. Hasta ahora, la mayoría de los beneficios expresados han sido teóricos, basados en los resultados deseados más que en los éxitos mensurables.

– Necesidad de un ecosistema. Los usuarios están aprendiendo que el IoT no es una tecnología; es una solución compleja de varias partes que no puede ser entregada por un único proveedor. Los proveedores con ofertas de IoT que han tratado de ir solos y no se han comprometido con socios complementarios están teniendo problemas. Se espera que los usuarios con proyectos que dependen de un solo proveedor continúen experimentando los efectos negativos del bloqueo del proveedor.

– Tenemos los datos. Ahora necesitamos el conocimiento. Muchas de las organizaciones que han comenzado proyectos de IoT descubren que no están seguros de cómo obtener valor de los datos que están recopilando. Han desarrollado la infraestructura y están recopilando datos, pero no tienen la tecnología adecuada, las habilidades (científicos de datos, por ejemplo) o el conocimiento para completar todo el ciclo de vida de la información.

– Seguir las necesidades del negocio. En el horizonte, veremos aumentar el interés en el IoT, especialmente en las industrias que necesitan reducir el costo de sus negocios. Por ejemplo, los precios más bajos de la energía están impulsando la mayor demanda de soluciones IoT en la industria del petróleo y el gas. Además, los negocios tradicionalmente de bajo margen, como el minorista, seguirán buscando formas de aumentar la eficiencia y reinventar la experiencia del cliente para aumentar la demanda. Las empresas con grandes bienes de capital que requieren mantenimiento también buscan mejoras en los procesos mediante el mantenimiento predictivo y las soluciones de aprendizaje automático.

– Transferencia de conocimiento humano al machine learning. Se verán cada vez más casos prácticos en los que el conocimiento humano se utiliza para crear modelos predictivos. Por ejemplo, un operador de maquinaria que ha sido responsable de los equipos durante muchos años puede identificar el sonido único generado por cada parte de la maquinaria. Esos identificadores de audio pueden agregarse a los modelos predictivos y usarse para activar alertas de que una parte está a punto de fallar.

– Nuevos modelos económicos. La entrega de los servicios de IoT tendrá una nueva dimensión a medida que cambien las expectativas de seguimiento, facturación, pago y contabilidad de las transacciones a medida que crezca la cantidad de dispositivos conectados.

– Seguridad y privacidad. Con cada nuevo dispositivo IoT, los vectores de ataque aumentan. Deje de buscar la perfecta seguridad (ningún proveedor ofrece una solución única) y adopte una defensa en profundidad, una estrategia de seguridad en capas para enfrentar las amenazas. Los problemas de privacidad, como el uso de tecnología de reconocimiento facial por parte de los minoristas para identificar y orientar las ofertas, seguirán aumentando.

7. Java

“Este ha sido un gran año para Java, con varios desarrollos importantes que contribuyen a la evolución continua de la tecnología. El evento más notable en 2017 fue el anuncio de Oracle de abrir más completamente Java EE moviéndolo a una base de código abierto, y el posterior anuncio de que había seleccionado a Eclipse Foundation para alojar la iniciativa como un proyecto de alto nivel llamado Eclipse Enterprise for Java (EE4J). Avanzando desde Java EE 8 (lanzado en septiembre y que ha sido otro desarrollo notable de Java este año), se espera que continúe el desarrollo de la plataforma bajo EE4J. Además, vimos un progreso continuo en el proyecto MicroProfile con las versiones v1.1 y 1.2 en 2017, avanzando aún más la evolución de Java empresarial para el desarrollo de microservicios.”, asegura Mark Little, Vice President, Engineering, Red Hat.

“Los esfuerzos alrededor de EE4J representan un cambio monumental y no sucederán de la noche a la mañana. Todavía hay muchos detalles que deben ser resueltos, sin embargo, el ritmo de desarrollo de la plataforma actualmente en comparación con el de hace un año es una como el día y noche. La comunidad ha sido revitalizada por la perspectiva de estos cambios y las partes interesadas clave participan activamente. Es un signo alentador, y anticipo que esta energía continuará cobrando impulso a medida que avanzamos hacia 2018. Red Hat ha sido durante mucho tiempo un defensor de una empresa más abierta, y estábamos desde el comienzo en conversaciones con Oracle, junto con compañeros de IBM. Juntos, y con la comunidad Java EE en general, creo que veremos que Java seguirá siendo una tecnología dominante en la empresa en los próximos años.”

8. Cloud

“En 2018, el debate sobre la nube híbrida ganarán en sofisticación en torno a la portabilidad de las cargas de trabajo. Tenemos muchas herramientas útiles en cuanto a herramientas de portabilidad: almacenamiento definido por software, administración de nube híbrida, estandarización de contenedores a través de Open Container Initiative, amplio soporte para Kubernetes y, por supuesto, Linux. Sin embargo, también debemos apreciar que los grandes conjuntos de datos creados y utilizados por el IoT, EL Machine Learning y otras cargas de trabajo nuevas pueden limitar la portabilidad “sin interrupciones”. Comprender las mejores arquitecturas y prácticas para los distintos tipos de aplicaciones emergentes debe ser una prioridad”, indica Gordon Haff, Technology Evangelist, Red Hat.

9. Contenedores en OpenStack (Cloud)


“El mundo de los contenedores y OpenStack se combinarán: una mayor colaboración entre OpenStack, Kubernetes y otros proyectos clave de open source, impulsados por la necesidad del cliente de llegar a un tejido unificado para contenedores físicos y virtuales, lo que traerá beneficios al reducir las redundancias y aprovechar el ecosistema”, comenta Radhesh Balakrishnan, General Manager, OpenStack, Red Hat.

10. La Nube Híbrida se convertirá en norma


“En 2018, los esfuerzos de la nube privada ganarán un impulso adicional impulsado por los esfuerzos de modernización de la aplicación, lo que dará lugar a que la “nube híbrida por defecto” se convierta en el procedimiento operativo estándar para las empresas”, asegura Radhesh Balakrishnan, General Manager, OpenStack, Red Hat.

11. El futuro de las Telco: Network Function Virtualization (NFV)

Veremos que la virtualización de funciones de red (NFV) se moverá hacia el Edge en 2018. Habiendo probado el valor en los sistemas centrales, el esfuerzo de NFV comenzará a centrarse en los casos de uso Edge Computing, ayudado por la comunidad de open source para abordar la latencia, el rendimiento y requisitos de manejabilidad, indica Radhesh Balakrishnan, General Manager, OpenStack, Red Hat.

12. Seguridad

“Las empresas comenzarán a prestar más atención sobre la ubicación de las cargas de trabajo y qué controles tienen sobre ellas. Esos pueden ser contractuales (SLA), arquitectónicos (colocación) o tecnológicos (controles de software o hardware). Los ejemplos podrían ser: SLA y política de privacidad, o verificación de antecedentes de los empleados (contractuales); Políticas de colocación de cargas de trabajo de Openstack u Openshift o requisitos de autenticación API (arquitectónicos); uso de HSM o entornos de ejecución de confianza como SGX o SEV (tecnológico). Ninguno de estos es suficiente por sí solo, y no sirven de nada a menos que estén coordinados. El camino a seguir es la asignación de la gobernanza a las políticas, y su incorporación a los procesos, pero incluso esto es insuficiente a menos que se pueda registrar, supervisar y auditar lo que realmente está sucediendo”.

“Los departamentos de seguridad de TI van a pasar menos tiempo diciendo “no” (y siendo ineficaces para detener los despliegues que seguirán adelante de todos modos), y más tiempo aprendiendo cómo explicar el riesgo a los dueños de negocios, desarrolladores y operaciones. Ser “nadie” no ayuda a los departamentos de seguridad ni a aquellos con quienes trabajan. Las empresas quieren opciones como “podríamos cerrar los servidores y estar totalmente seguros o podríamos correr al 75% de manera eficiente, con un uno por ciento de posibilidades de perder algunos datos”. Las herramientas para este nivel de detalle no siempre están disponibles, pero tenemos que empezar a pensar sobre lo que realmente es útil: aunque fuimos entrenados que “fail-closed es a prueba de fallos”, un sistema cerrado es un sistema inútil para el negocio. Del mismo modo, es más probable que un desarrollador acepte controles de seguridad si decimos “¿Qué pasaría si alguien usara incorrectamente esta interfaz y corrompiera sus datos?”, en lugar de “debes usar autenticación y autorización en esta API o no se podrá iniciar”, comenta Mike Bursell, Chief Security Architect, Red Hat.

Fotografía (c) Zimmytws vía Shutterstock
Categorías: Noticias

Opinión | Seguridad, Conectividad e Interoperabilidad: las claves para la innovación del ecosistema del sector salud

Jue, 12/21/2017 - 01:00

En Latinoamérica, la transformación digital está impactando fuertemente en todos los sectores de la economía. Según datos de IDC, las verticales que más están cambiando y apostando por tecnologías innovadoras son las que tienen mayor contacto con usuarios (“de cara al cliente”), como salud, banca y hotelería. En concreto para el sector salud, 30% de las redes permitirá recopilar datos y capacidades cognitivas para hacer pre-diagnósticos, reduciendo 30% del tiempo de consulta de los médicos hacia 2020. No obstante, la inversión en este sector a nivel innovación todavía tiene mucho potencial, sobre todo referente a las tecnologías para facilitar el intercambio de información entre pacientes y personal médico que mejoraría la experiencia entre ambos.

Si analizamos el sistema de salud desde la perspectiva de los flujos de información contamos con una gran variedad de actores: médicos, hospitales, compañías de seguros, empleadores, el gobierno y los investigadores, todos los que operan en un ecosistema médico necesitan establecer procesos y modelos de negocio transparentes que permitan la colaboración. Esto no está exento de retos. Hoy en día, existe una gran combinación de procesos manuales y automatizados de la información de los pacientes de un centro de atención a otro (por ejemplo, formas de admisión, resúmenes de alta, facturación y resultados de pruebas). Por otro lado, conviven diferentes sistemas de registros médicos que son utilizados por las unidades de hospitalización y clínicas ambulatorias.

La situación final es que, muchas veces, la información vital se extravía en todo el ecosistema. Por ello, la innovación y la mejora de la experiencia de todo el ecosistema del sector salud debe centrarse en acelerar los flujos de trabajo, mejorar el acceso a documentos, simplificar procesos, brindando menores costos y mejor calidad de atención, mejora en la dirección en requisitos reglamentarios y aseguramiento de la privacidad y seguridad de los datos de los pacientes.

Empoderando los espacios de trabajo digitales

Actualmente, los espacios de trabajo digitales requieren de tecnologías que permiten la colaboración y los flujos de trabajo dentro de todos los departamentos. Éstas incluyen:

– Acceso a conferencias web para los empleados: Las consultas son una práctica común entre los médicos y se utilizan a menudo para buscar el consejo de un especialista acerca de pruebas de diagnóstico apropiadas o planes de tratamiento. La capacidad de iniciar una conferencia web con facilidad para discutir el caso de un paciente a menudo puede resolver los problemas relacionados con el cuidado de un paciente con mayor rapidez que otros modos de comunicación.

– Automatización/flujos de trabajo optimizados a través de los departamentos: Registros médicos de entrada, admisión de pacientes, y pagos son los principales flujos de trabajo. Existen oportunidades e iniciativas para la mejora de la coordinación en la atención y gestión de la transición del alta del paciente.

– Búsqueda de información a través de repositorios centrales: Los médicos y el personal del hospital acceden a múltiples sistemas en todo el curso de su día. Los hospitales han dependido históricamente de motores de integración y tecnologías de intercambio de información de salud para acceder a los datos que se encuentran al otro lado de la empresa.

– Captura y Digitalización Inteligente: La captura y digitalización inteligente son herramientas importantes para la conversión del papel a los registros electrónicos de salud. Los hospitales más grandes han invertido tempranamente en herramientas para digitalizar los registros de pacientes.

– Acceso por celular / tableta a las aplicaciones y la impresión: Los médicos están utilizando cada vez más los dispositivos móviles, ya sea personales o corporativos, para el cuidado de sus pacientes. La posibilidad de acceder a las aplicaciones básicas e impresión desde dispositivos móviles mejora los flujos de trabajo clínicos y la eficiencia de los empleados, por lo tanto, mejora la satisfacción del empleado y del paciente.

El uso de aplicaciones cloud y la impresión desde la nube: Los hospitales están en las primeras etapas de la adopción de la tecnología cloud en comparación con otras industrias, y prefieren las nubes privadas e híbridas sobre las nubes públicas. El uso de soluciones basadas en la nube debe ser tan fácil como otras soluciones.

Orientación esencial – el camino hacia la colaboración integral

Otras industrias han abordado los retos de comunicación y colaboración, y han hecho las inversiones necesarias en contenido, comunicación, colaboración y plataformas sociales. Ahora más que nunca, las organizaciones del sector salud necesitan información móvil para capacitar a los médicos y equipos de atención para innovar conjuntamente, descubrir nuevas formas de aumentar los ingresos, prevenir los retrasos, la atención ineficaz, y las ineficiencias operativas. Todo con el objetivo de ofrecer una atención de calidad consistente. Para lograrlo, las organizaciones de salud deben:

– Evaluar y mapear los flujos de trabajo actuales: Comenzando por la identificación de los principales procesos que rodean un paciente que está siendo ingresado en el hospital, diagnosticado y tratado, luego dado de alta a otro centro de atención. Se tienen que analizar los procesos clínicos y los procesos administrativos relacionados a la facturación por los servicios prestados. La información debe estar fácilmente disponible para el personal para realizar su trabajo con eficacia.

– Identificar dónde existen lagunas en el flujo de información: Como los flujos de trabajo están siendo analizados, qué información se requiere, cuando y donde se almacena (por ejemplo, qué sistema, digital o en papel).

– Hacer que la información esté disponible de forma segura en cualquier momento y en cualquier lugar para aquellos autorizados: El uso de soluciones basadas en la nube hace que sea más fácil proporcionar acceso en cualquier momento a la información, pero con las medidas de seguridad necesarias para asegurar la privacidad y mitigar infracciones. Otras consideraciones incluyen si el personal tiene las credenciales apropiadas para el acceso de esta información TI, mientras esté en el trabajo o en casa.

Reflexiones

El entorno optimizado de la comunicación en la salud, combinada con una gran movilidad de la fuerza de trabajo, mejorará la colaboración entre el personal médico y los pacientes. También permite que una gran cantidad de flujos de trabajo administrativos, operativos y clínicos puedan cruzar dispositivos y plataformas. Los profesionales pueden tener acceso a la información usando su canal preferido y el dispositivo, independientemente de dónde se encuentren – en el hospital o ambulatorio, en casa, o en la calle.

En conclusión, el efectivo uso de la información y las soluciones de TI, impulsarán muchas mejoras en los procesos en la asistencia sanitaria y en particular, de los resultados de la seguridad de pacientes y la reducción de costos a través de la productividad y el aumento de la eficiencia.

Por Jesús Santiago, Strategic Sales en Ricoh Latin America

Categorías: Noticias

España | Huawei lanza en Europa Occidental una nueva solución Cloud para gobiernos

Mié, 12/20/2017 - 14:34

Huawei ha presentado su última solución Cloud para gobiernos. Se trata de una solución, para Europa Occidental, que proporciona un marco unificado que integra, en una sola plataforma de fuente abierta, nubes privadas y públicas.

La solución tiene como objetivo impulsar la innovación de la administración de las ciudades y satisfacer las necesidades de servicio de los clientes del gobierno. De esta manera, cuando se conecta a una red de Internet de las Cosas (IoT, por sus siglas en inglés), la solución mejora la operación, la administración y el mantenimiento de la ciudad (OAM, por sus siglas en inglés). Además, con el soporte de la tecnología Big Data, la solución también permite comandos en tiempo real, así como una gestión inteligente del tráfico y evita proactivamente los incidentes de seguridad pública.

Asimismo, la nueva solución Cloud de Huawei para gobiernos permite intercambiar información entre departamentos gubernamentales y ofrecer servicios públicos a los residentes. En este sentido, Huawei utiliza sus ventajas únicas en el sistema operativo de kernel y el hardware de Cloud para proporcionar el mejor rendimiento de la solución y confiabilidad. A la vez, la solución desacopla las aplicaciones de los datos, lo que permite que múltiples departamentos compartan datos actualizados en tiempo real. Bajo estas premisas, se han sentado las bases para las aplicaciones inteligentes del gobierno, tales como la planificación unificada, la protección proactiva, el comando en tiempo real, la operación precisa e innovación de administración colaborativa.

Otras soluciones gubernamentales

En la actualidad, la nueva solución Cloud de Huawei ocupa el primer lugar en el mercado de China, según el informe de evaluación IDC MarketScape sobre el mercado y los proveedores Cloud del gobierno chino. Fuera del este territorio, la compañía trabaja con más de 100 clientes gubernamentales en más de 80 países.

Recientemente, Huawei ha lanzado una plataforma de servicios Cloud y ha implementado OpenLabs en varias regiones de todo el mundo. En este sentido, la compañía está comprometida con proporcionar una plataforma de Tecnologías de la Información y Comunicación (TIC, por sus siglas en inglés) innovadora para los clientes del gobierno y promover la construcción de gobiernos orientados a los servicios. Asimismo, los gobiernos y los proveedores de servicios en la nube del gobierno necesitan plataformas Cloud y Big Data estables, colaborativas e innovadoras.

En el futuro, estas plataformas integrarán gradualmente la tecnología TI con la experiencia operativa de la ciudad. Las nubes del gobierno no sólo soportarán los servicios internos de TIC de los departamentos gubernamentales, sino que también soportarán los servicios digitales de toda la ciudad. Huawei se unirá con sus clientes y socios para crear una nueva ciudad inteligente con justicia, una administración óptima y un desarrollo sostenible.

Fotografía (c) Songchai vía Shutterstock

Huawei España desplegará la red de acceso fijo de Vodafone España

Categorías: Noticias

Pronóstico | Los ciberdelincuentes preferirán Android y el sector sanitario en 2018

Mié, 12/20/2017 - 13:40

Desde los juegos online, pasando por los dispositivos portátiles, hasta las apps de los móviles, la tecnología se está utilizando prácticamente en todos y cada uno de los momentos de la vida cotidiana de la gente. Sin embargo, la desventaja de vivir en la actual sociedad hiperconectada reside en que las personas también se encuentran en una situación de extrema vulnerabilidad frente a los ciberataques.

El Informe SophosLabs 2018 Malware Forecast revela cómo se está extendiendo el malware en las tecnologías de uso cotidiano y cómo cada año los ciberdelincuentes se vuelven más inteligentes en sus ataques, lo que hace que cada vez sea de mayor importancia que los usuarios sean más precavidos y estén más atentos a los posibles peligros que implican este tipo de amenazas.

Mientras que muchos usuarios pueden pensar que este tipo de ataques nunca les afectarán, la investigación realizada por Sophos, líder global en seguridad para protección de redes y endpoints, revela todo lo contrario. Ricardo Maté, director general de Sophos Iberia, desgrana los riesgos más destacados de 2017 señalados en el informe y matiza qué podemos esperar para 2018:

El ransomware puede estar en cualquier plataforma: móviles y tablets no se escapan

Este año, WannaCry sacudió al mundo entero ya que el cybersecuestro representó más del 45% de todo el ransomware rastreado, seguido muy de cerca por Cerber con un 44.2%, según el último Informe de Malware de Sophos. Tan solo en septiembre, el 30,4% del malware malicioso de Android procesado por SophosLabs fue ransomware. Estando la mayoría de estos ataques dirigidos a usuarios de Windows, pero viéndose aumentada la cantidad de ataques en otras plataformas, incluidas Android, Mac y Linux.

Los ataques de ransomware han reorientado su atención en los últimos dos años hacia los sectores con mayor probabilidad de pagar, como la sanidad, el gobierno, la infraestructura crítica y las pequeñas empresas. Debido a que el sector sanitario es una de las industrias más lucrativas por pagos de ransomware o venta de los registros médicos, la sanidad ha sido un gran objetivo en 2017 y sin duda continuará siéndolo en 2018.

El malware se esconde en las aplicaciones de Android

Al revisar Google Play, Sophos ha descubierto que la cantidad de las diferentes amenazas se había duplicado desde el año pasado. Un tipo de malware, apodado ‘GhostClicker’, estuvo en Google Play durante casi un año, disfrazándose como parte de la biblioteca de servicios. Este malware solicitaba permiso de administración del dispositivo y simulaba activamente los anuncios de clic para obtener ingresos.

Otro de los hallazgos fue Lipizzan, un spyware que infectó hasta 100 dispositivos. Aunque no parezca un gran número, resulta que se trataba de un malware específico diseñado concretamente para controlar la actividad del teléfono y extraer datos de aplicaciones populares, como el correo electrónico, el SMS, la ubicación o las llamadas de voz.

Los ataques de malware como éste no muestran signos de reducirse en un futuro, ya que los cibercriminales saben que funcionan. Por lo tanto, para evitar ser una víctima de malware para Android, Sophos sugiere a los consumidores que tengan en cuenta estos aspectos:

• Recurrir solamente a Google Play: aunque no sea perfecto, realiza un gran esfuerzo para evitar que el malware llegue en un primer momento.

• Evitar las aplicaciones con poca reputación y ser especialmente cauteloso al usar un dispositivo de la empresa.

• Parchear los dispositivos a menudo. Es necesario verificar la actitud de los proveedores ante las actualizaciones.

El número de aplicaciones maliciosas ha aumentado de manera constante en los últimos cuatro años, alcanzando casi los 3,5 millones en 2017, por lo tanto, es probable que veamos un nuevo aumento en 2018, incluidas trampas en juegos online aún más traicioneras.

Las filtraciones de datos no desaparecerán

La sociedad hiperconectada tiene su contra en que las personas son extremadamente vulnerables a los ciberataques, como quedó claro recientemente con el hackeo de Uber, que afectó a 57 millones de clientes y conductores. Lamentablemente, no hay motivos para creer que estas filtraciones de datos vayan a disminuir en 2018, y con la entrada en vigor del GDPR en mayo, continuará siendo un tema candente y que continuaremos viendo.

Es imposible predecir con total exactitud todo lo que sucederá en 2018, sin embargo, es bastante probable que Android y Windows continúen siendo fuertemente atacados con ransomware y otros tipos de malware. El correo electrónico también seguirá siendo el principal vector de ataque que amenace la seguridad cibernética corporativa, especialmente en el caso de ataques dirigidos.

Cuatro son las tendencias que han destacado en 2017 y que probablemente dominarán 2018:

1. Una oleada de ataques ransomware alimentados por el RaaS, y amplificados por el resurgimiento de gusanos.

2. Una explosión de malware de Android en Google Play y en otras plataformas.

3. Continuos esfuerzos para infectar ordenadores Mac.

4. Las amenazas en Windows, alimentadas por exploit-kits DIY (Do It Yourself), harán muy sencillo atacar las vulnerabilidades de Microsoft Office.

Ilustración (c) Shutter M vía Shutterstock
Categorías: Noticias

Opinión | Facebook anuncia nuevas herramientas para prevenir el acoso

Mié, 12/20/2017 - 13:02

Basándonos en los comentarios de las personas que usan Facebook, así como en las organizaciones que representan a grupos que sufren acoso de manera desproporcionada, como mujeres y periodistas, presentamos nuevas herramientas que:

– Proactivamente reconocen y ayudan a prevenir contactos no deseados -como solicitudes de amistad y mensajes- cuando alguien que has bloqueado crea una nueva cuenta o trata de contactarte desde otra cuenta que controla.

– Proveen la opción de ignorar una conversación de Messenger y automáticamente borrarla de la bandeja de entrada de una persona, sin tener que bloquear al remitente

Prohibimos la intimidación y el acoso en Facebook. Las personas pueden informarnos cuando ven algo que les preocupa o tienen una mala experiencia. Revisamos los informes y tomamos medidas contra abusos, como eliminar contenido, inhabilitar cuentas y limitar ciertas funciones, como la posibilidad de publicar comentarios a personas que han violado nuestras normas de comunidad. Las personas también pueden controlar lo que comparten, con quién lo comparten y quién puede comunicarse con ellos.

Prevenir contactos no deseados

Hemos escuchado historias de personas que han bloqueado cuentas sólo para encontrarse después con el mismo acosador usando una cuenta diferente. Con el objetivo de ayudar a prevenir esos encuentros no deseados, estamos optimizando funciones existentes para prevenir cuentas falsas en Facebook.

Estas herramientas automatizadas nos ayudan a diario a desactivar cuentas con mayor rapidez y bloquear millones de cuentas falsas antes de que logren registrarse. Sin embargo, una nueva cuenta creada por alguien que ya ha sido bloqueado puede ser más difícil de detectar a través de estas herramientas. Por ello, incorporamos diferentes índices (como una dirección de IP) que nos ayudan a detectar proactivamente este tipo de cuentas y prevenir que su dueño envíe un mensaje o solicitud de amistad a la persona que lo ha bloqueado originalmente. La persona que ha bloqueado la cuenta original se encuentra en control y debe iniciar el contacto con la nueva cuenta si desea interactuar con ella regularmente.

Ignorar mensajes

Si alguien está siendo hostigado, el hecho de bloquear al perpetrador puede provocar acoso adicional, particularmente de manera offline. También hemos escuchado de grupos que trabajan con sobrevivientes de violencia doméstica que la posibilidad de ver mensajes a menudo es una herramienta valiosa para evaluar si existe un riesgo de abuso adicional.

Esta nueva herramienta fue creada para abordar esta problemática, removiendo las notificaciones de los mensajes recibidos sin necesidad de efectuar un bloqueo. Cuando ignoras una conversación en Messenger, el hilo se guardará en la sección de conversaciones archivadas en lugar de permanecer en tu bandeja de entrada. Puedes acceder a esta función presionando en el hilo de una conversación y seleccionando la opción “Más”. Al activarla, la función te permitirá leer los mensajes sin que la otra persona pueda corroborar que han sido vistos o leídos. Esta herramienta también ocultará las notificaciones de nuevos mensajes recibidos en esa conversación. La herramienta está disponible para mensajes 1 a 1 y pronto estará disponible también para conversaciones grupales.

Trabajando con expertos

Facebook trabaja con expertos en una variedad de campos para proveer recursos seguros para nuestra comunidad. Durante el último año hemos trabajado con más de 150 expertos en seguridad en India, Irlanda, Kenia, Países Bajos, España, Turquía, Suecia y Estado Unidos para obtener retroalimentación sobre cómo podemos seguir mejorando.

También hemos organizado mesas redondas en el marco del Facebook Journalism Project con el objetivo de aprender más a partir de las experiencias únicas de la comunidad de periodistas en Facebook. Esto derivó en recursos para que ellos puedan protegerse a sí mismos y a sus cuentas en Facebook, además de las herramientas anunciadas hoy.

Por Antigone Davis, Directora Global de Seguridad

Fotografía de Antigone Davis: Facebook Press

Facebook vende datos personales de sus usuarios a 47 empresas externas

El País: “Facebook es un escaparate para quienes rentabilizan la miseria humana”

Mark Zuckerberg se está convirtiendo en el redactor jefe del mundo

Categorías: Noticias

Próxima versión de Chrome bloqueará la publicidad intrusiva

Mié, 12/20/2017 - 12:50

Los preparativos y programación de esta funcionalidad comenzó en enero pasado, luego que Google se sumase a la Coalition for Better Ads, grupo industrial dedicado a promover mejores prácticas en la publicidad online. Esta coalición publicó una serie de directrices denominadas “estándares para mejores anuncios”. En estas directrices, la entidad agrupa una serie de formatos en una categoría que considera inaceptable para los consumidores. Estos formatos serían aquellos anuncios especialmente invasivos o que impiden al usuario ver el contenido que le interesa.

La coalición ha elaborado un sistema de puntuación para cada formato; mientras menor la puntuación, menos aceptación tiene la pieza. Las ventanas emergentes, anuncios que automáticamente reproducen vídeo con sonido, o aquellos que ocupan la mayor parte de la pantalla y que sólo es posible cerrar al cabo de algunos segundos, reciben la menor puntuación, convirtiéndose así en candidatos a ser bloqueados.

El 19 de diciembre, la coalición anunció que el estándar será plenamente implementado por las organizaciones afiliadas a partir de enero de 2018. Esto implica que las compañías publicitarias que se sumaron a la iniciativa bloquearán los anuncios que no cumplan con los estándares del caso.

Google, que es una empresa de publicidad, también dará cumplimiento a las directrices, tanto en su plataforma publicitaria como en Chrome.

Implementación severa por parte de Google

El navegador Chrome bloqueará todos los anuncios en sitios que no cumplan con las directrices, incluso cuando el incumplimiento ocurra con un sólo formato. Es decir, el navegador bloqueará la cartera completa de anuncios del sitio cuando este muestre, por ejemplo, un solo anuncio de autoreproducción de video.

La empresa ha elaborado además una funcionalidad denominada “Ad Experience Report”, que escaneará sitios web creando listas de aquellos que presenten publicidad intrusiva.

Una vez activado, el bloqueador de anuncios de Chrome no cargará anuncios de sitios incluidos por más de 30 días en la lista negra de Ad Experience Report. Los propietarios de sitios web tendrán la posibilidad de acceder al informe y constatar si su sitio ha sido incorporado a la lista de infractores. La empresa les dará un plazo de 30 días para corregir la situación.

La intención subyacente de Google es forzar a los propietarios de sitios web a desistir de la publicidad intrusiva e invasiva. Con ello, espera que los usuarios de navegadores estén dispuestos a aceptar algunos anuncios pasivos en lugar de utilizar bloqueadores especializados que bloquean todos los anuncios, sin excepción.

Considerando el calendario de distribución de Chrome, lo más probable es que el bloqueador nativo de publicidad sea incorporado en la versión Chrome 64, con lanzamiento previsto para fines de enero de 2018.

 

Google bloqueará publicidad invasiva en Chrome

“Windows 10 ha dejado de ser un sistema operativo”

Categorías: Noticias

Navegadores | Microsoft ha perdido 400 millones de usuarios en 23 meses

Mié, 12/20/2017 - 11:18

Actualmente, Edge e Internet Explorer tienen una cuota conjunta del 16,81%, lo que refleja el serio declive experimentado desde enero de 2016. Las estadísticas, publicadas por la empresa NetApplications, muestran, por otra parte, que Google Chrome es el navegador preferido por los usuarios, con una cuota del 59%.

En segundo lugar se sitúa Firefox, con un 14%, mientras que el tercer puesto corresponde a Safari, con un 3%.

Cabe señalar que NetApplications anteriormente ha admitido que sus estadísticas pueden tener un considerable margen de error, principalmente debido a las grandes redes de bots utilizadas para el denominado fraude de clics para redes de anuncios online.

En un comunicado, la empresa escribe: “hemos hecho todo lo posible por filtrar nuestros datos, excluyendo estas fuentes de error. Por ejemplo, hemos reescrito todo el código que hace posible recabar datos infraestructurales”.

En julio pasado, la empresas StatCounter y NetMarketShare llegaron a conclusiones similares a las de NetApplications respecto a la posición líder de Chrome en el mercado de los navegadores.

Mozilla: “Microsoft socava la libre competencia con su política para navegadores en Modern UI”

W3C anuncia nuevo estándar para la gestión de pagos en navegadores

Categorías: Noticias

Akamai | Las expectativas aún superan a la realidad en el comercio móvil global

Mié, 12/20/2017 - 04:41

A pesar de la larga trayectoria de los eventos masivos de eCommerce en el mundo y países de la región como Brasil, Argentina, Colombia y Chile, la experiencia del usuario móvil en la compra retail, aún presenta falencias. Según el primer reporte State of Online Retail Performance de Akamai, medido en 10 mil millones de usuarios, un 47.42% de las visitas totales a sitios web de retail se hicieron desde teléfonos móvil, sin embargo un 68.46% de las compras se realizaron desde desktop.

El estudio de Akamai Technologies, representado en Latinoamérica por EXCEDA, socio tecnológico en Chile de la Cámara de Comercio de Santiago en los eventos Cyber Day y Cyber Monday desde 2010; demuestra una deuda no resulta con las plataformas móviles. El reporte añade que un 42.15% de las visitas fueron desde desktop y 10.43% desde tabletas; mientras que un 21.87% de las compras corresponden a móviles y 9.67% a tabletas. Es más: el 53% de los usuarios móviles abandona un sitio que demora más de 3 segundos en responder.

Para Karin Lublin, gerente de plataformas móviles de EXCEDA para Las Américas, los indicadores muestran una enorme cantidad de usuarios móviles con altas expectativas al ingresar a los sitios de retail, y un gran segmento frustrado sin concretar una compra. “Este resultado no responde a razones de desconfianza ante ciberataques, sino a la alta cantidad de pasos por cumplir antes de comprar online y la ausencia de estrategias de performance exclusivas para los canales móviles”.

Aún persisten las complicaciones par navegar en todas las páginas de un sitio web desde un móvil. Lublin señala que demora entre 16 y 19 segundos abrir todas las páginas de un sitio, no obstante solo 5.6 segundos representan el tiempo de contacto o interacción con el usuario. Si bien las métricas de performance son importantes, hay otros aspectos que considerar, partiendo por la compatibilidad de las restricciones bancarias, que habiliten compras más rápidas y amigables, ojalá en un solo paso.

En Latinoamérica aún resta plazo para el cierre de las tiendas físicas y la supremacía de los negocios exclusivamente virtuales, pero claramente es una tendencia hacia la que se avanza y que cambia la estrategia del retail hacia el 2020, para atender a un comprador bajo los criterios de rapidez, amigabilidad y seguridad.

Si bien la inversión en seguridad web ha aumentado en los últimos 3 a 4 años, no muchas empresas tienen una estrategia de web performance y optimización. “Todos saben que es importante, pero no tiene recursos ni técnicas para mejorarla”, añade Lublin.

Para la experta, hasta hace algún tiempo la idea era reducir más y más los tiempos de respuesta para el usuario web, pero ahora es momento de trabajar en la experiencia del usuario. Finalmente, es él quien decide cuándo la optimización de un sitio está concluida.

Sitios como Amazon nos han dado provechosas lecciones en este sentido, de cómo el usuario interactúa de forma eficiente con el sitio, en aspectos cualitativos y cuantitativos; cobrando sentido otras herramientas como diseño, apps, videos, que actúan como aceleradores de una mejor experiencia.

Entre otros hallazgos del reporte State of Online Retail Performance de Akamai, destaca que evaluar el rendimiento de una web no puede centrarse en la tasa de conversión únicamente; la reducción de hasta 10 milésimas de segundo en el tiempo de respuesta impacta positivamente en los resultados de conversión de un sitio; mientras que la demora en solo dos segundos disminuye entre un 38 y 51% la permanencia de usuarios según el tipo de dispositivo, confirmando la alta exigencia de los compradores web y la labilidad de su fidelidad a una marca tras una deficiente experiencia.

Akamai Technologies también emite cada trimestre el reporte State of Internet Security, gracias a una red golbal con más de 220.000 servidores distribuidos en 125 países. Más detalles del Reporte State of Online Retail Performance de Akamai en este enlace.

Akamai propone alternativa para TCP, tecnología clave de Internet

Akamai propone “buenas prácticas” para entrega de contenidos multimedia

Categorías: Noticias

Oracle adquiere la solución de colaboración en la nube Aconex

Mar, 12/19/2017 - 12:13

Oracle (NYSE: ORCL) anunció el 18 de diciembre un acuerdo con Aconex Limited (ASX: ACX), una solución basada en la nube que administra la colaboración del equipo para proyectos de construcción, por 7.80 dólares por acción. La transacción fue avaluada en aproximadamente $1,200 millones de dólares, neto de efectivo de Aconex.

Aconex es una solución de colaboración para proyectos de construcción que conecta digitalmente a todas las partes involucradas en un proyecto: propietarios, constructores y demás equipos, brindándoles visibilidad y administración completas de datos, documentos y costos en todas las etapas del ciclo de vida de un proyecto de construcción. Aconex ha sido utilizado en más de $1 billón de dólares en proyectos sobre 70,000 organizaciones de usuarios en más de 70 países.

Oracle Construction and Engineering Cloud ya ofrece las soluciones más avanzadas de la industria para la planificación, programación y entrega de proyectos a gran escala. Juntos, Oracle y Aconex proporcionarán una oferta integral para la administración y entrega de proyectos que permitirá a los clientes planificar, construir y operar proyectos de construcción de manera efectiva.

“Entregar los proyectos a tiempo y dentro del presupuesto son los mayores desafíos para cualquier organización de construcción e ingeniería”, dijo Mike Sicilia, Vicepresidente Senior y Gerente General de la Unidad de Negocio Global de Construcción e Ingeniería de Oracle. “Con la incorporación de Aconex, mejoramos significativamente nuestra visión de ofrecer una solución de gestión de proyectos basada en la Nube, la más completa para esta industria, con un valor de $14 mil millones de dólares”.

“Las soluciones de Aconex y Oracle se complementan naturalmente en términos de excelencia, visión, producto, personas y geografía”, dijo Leigh Jasper, Fundador y Director Ejecutivo de Aconex. “Como co-fundadores de Aconex, tanto Rob Phillpot como yo estamos comprometidos y entusiasmados con el negocio y la oportunidad de avanzar colectivamente en nuestra visión y en los beneficios que esta combinación ofrecerá a nuestros clientes”.

El Consejo de Administración de Aconex recomienda por unanimidad la transacción. Se espera que la transacción se cierre en la primera mitad de 2018, sujeto a la aprobación de los accionistas de Aconex y a ciertas aprobaciones regulatorias y otras condiciones de cierre habituales.

Fotografía (c) MaxHPhoto vía Shutterstock
Categorías: Noticias

Twitter actualiza reglas para combatir contenidos de odio y violencia

Mar, 12/19/2017 - 11:44

Twitter comenzó el 18 de diciembre la implementación de actualizaciones a sus reglas, con el fin de reducir el contenido ofensivo y abusivo en la red social. “A través de nuestro proceso de desarrollo de políticas, hemos adoptado un enfoque de colaboración para desarrollar e implementar estos cambios, que incluye el trabajo en estrecha coordinación con expertos en nuestro Consejo de Confianza y Seguridad”, escribe la empresa.

La empresa bloqueará contenidos en los siguientes casos:

• Las cuentas que se afilian a organizaciones que utilizan o promueven la violencia contra civiles para promover sus causas. Entre los grupos incluidos en esta política se encuentran aquellos que se identifiquen como tales o realicen actividades – tanto dentro como fuera de la plataforma- que promuevan la violencia. Esta política no se aplica a entidades militares o gubernamentales, y consideraremos excepciones para los grupos que actualmente participan (o han participado) en una solución pacífica.

• El contenido que glorifica la violencia o a los perpetradores de un acto violento. Esto incluye realizar cualquier acto violento de una manera que pueda inspirar a otros a replicarlo o cualquier tipo de violencia donde las personas fueron atacadas por ser miembros de un grupo protegido. Exigiremos que los Tweets ofensivos se eliminen y si se repiten las infracciones, esto podrá llevar a una suspensión permanente.

Expansión de nuestras reglas para incluir contenido relacionado

La política de Twitter sobre conducta de odio y las normas contra el comportamiento abusivo prohíben promover la violencia o atacar o amenazar directamente a otras personas en función de las características de su grupo, así como comportarse de manera abusiva en acoso, intimidación o usa el miedo para silenciar la voz de otra persona. Estamos ampliando estas políticas para incluir tipos adicionales de contenido relacionado y conducta que incluyendo:

• Cualquier cuenta que abuse o amenace a otros a través de la información de su perfil, incluyendo su nombre de usuario, nombre en pantalla o biografía de perfil. Si la información de perfil de una cuenta incluye una amenaza violenta o insultos múltiples, epítetos, tropos racistas o sexistas, incita al miedo o reduce a alguien a algo menos que un ser humano, se suspenderá permanentemente. Planeamos desarrollar herramientas internas que nos ayuden a identificar cuentas infractoras para complementar los reportes de los usuarios.

• Las imágenes de odio ahora se considerarán como contenido sensible bajo nuestra política de contenido. Consideramos como imágenes de odio los logotipos, símbolos o imágenes cuyo propósito es promover la hostilidad y la malicia contra otros en función de su raza, religión, discapacidad, orientación sexual u origen étnico o nacional. Si este tipo de contenido aparece en las imágenes de encabezado o perfil, ahora aceptaremos informes a nivel de perfil y exigiremos a los propietarios de la cuenta que eliminen cualquier contenido infractor.

Ilustración (c) Michael Wick vía Shutterstock

Facebook, Microsoft, Twitter y YouTube bloquearán contenidos relacionados con terrorismo

Hacking Team advierte que terroristas pueden ahora utilizar su software de espionaje

Categorías: Noticias

La Casa Blanca responsabiliza oficialmente a Corea del Norte por WannaCry

Mar, 12/19/2017 - 10:07

El funcionario comentó: “Por más de una década, Corea del Norte ha actuado de mala forma, en general sin ser responsabilizada. Este comportamiento maligno adquiere ribetes cada vez más peligrosos y WannaCry es un ejemplo en tal sentido. Sus consecuencias y repercusiones excedieron el ámbito económico. El software maligno perjudicó de manera especial las computadoras del servicio de salud pública del Reino Unido, dañando así sistemas dedicados a tareas de importancia crítica. Estas disrupciones pusieron en riesgo las vidas de las personas”.

Con ello, Estados Unidos secunda al Reino Unido, que en octubre acusó formalmente al régimen de Pyongyang de haber creado y distribuido WannaCry. Corea del Norte desmintió las acusaciones británicas, que calificó de especulaciones infundadas.

Las semanas posteriores al devastador incidente de WannaCry, tres empresas de seguridad informática, Kaspersky Lab, Symantec, y BAE Systems coincidieron en vincular a WannaCry con Lazarus Group, unidad de ciberespionaje norcoreana responsable de ataques contra Sony, el gobierno surcoreano y numerosas entidades bancarias de todo el mundo.

Bossert no aportó nuevas pruebas o información forense sobre la participación o responsabilidad de Corea del Norte en la orquestación del ataque.

Cabe señalar que WannaCry fue posible mediante la utilización de una ciberarma sustraída a la NSA, denominada EternalBlue.

La Casa Blanca complementó los comentarios de Bossert con declaraciones donde atribuye WannaCry a Corea del Norte. Las declaraciones sobre el tema comienzan en el minuto 40 de la siguiente grabación.

Más información sobre WannaCry en Diario TI.

El FBI detiene al experto que frustró la propagación de WannaCry

WannaCry o la nueva era de los ransomworms

Las empresas no han sufrido lo suficiente – y el dolor intenso es parte de la solución

Ilustración: Fotograma, YouTube
Categorías: Noticias

Kaspersky Lab apela al boicot estadounidense

Lun, 12/18/2017 - 10:58

Kaspersky Lab ha presentado un recurso de apelación en virtud de la Ley estadounidense de Procedimiento Administrativo (Administrative Procedure Act) a efectos de exigir sus derechos al debido proceso constitucional e impugnar la Directiva Operativa Vinculante que prohíbe a las agencias del gobierno estadounidense el uso de los productos y soluciones de la compañía. La compañía afirma que la decisión del DHS es inconstitucional y se sustenta en fuentes públicas subjetivas y no técnicas, tales como artículos de prensa, declaraciones y rumores no corroborados y a menudo anónimos. Además, el DHS no ha proporcionado a Kaspersky Lab el debido proceso legal para refutar las alegaciones no demostradas de la Directiva y no ha aportado ninguna prueba de delito por parte de la compañía.

La disposición de Kaspersky Lab para colaborar con la revisión del DHS ha sido ampliamente documentada. Dados los principios de compromiso de la compañía con la transparencia, el desarrollo fiable de sus tecnologías y servicios, así como la cooperación con diferentes gobiernos y la industria de la seguridad TI para combatir las ciberamenazas, Kaspersky Lab se puso en contacto con el Departamento de Seguridad Nacional (DHS) a mediados del mes de julio para ofrecer cualquier información o ayuda relacionada con la compañía, sus operaciones y productos. A mediados del mes de agosto, el DHS confirmó la recepción de la carta enviada por Kaspersky Lab, agradeciendo su ofrecimiento para proporcionar más información y expresando su interés en mantener futuras comunicaciones con Kaspersky Lab sobre estas cuestiones. Sin embargo, la siguiente comunicación del DHS a Kaspersky Lab fue la notificación de la emisión de la Directiva Operativa Vinculante 17-01 el 13 de septiembre de 2017.

Como resultado, las medidas tomadas por el DHS han causado daños indebidos tanto en la reputación de la compañía en la industria de la seguridad TI como en sus ventas en Estados Unidos. Se han cuestionado injustamente los principios fundamentales de Kaspersky Lab de proteger a sus clientes y combatir las ciberamenazas, independientemente de su origen o propósito. Mediante la presentación de este recurso, la compañía espera poder proteger sus derechos al debido proceso con arreglo a la Constitución de los Estados Unidos y a la legislación federal, y reparar el daño causado en sus operaciones comerciales, sus empleados en Estados Unidos y a sus socios comerciales con sede en Estados Unidos.

“Puesto que Kaspersky Lab no ha tenido una oportunidad justa para rebatir estas alegaciones y no se ha proporcionado ninguna prueba técnica que aporte validez a las acciones del DHS, la c compañía tiene interés en poder defenderse en esta cuestión. Independientemente de la decisión del DHS, continuaremos haciendo lo que realmente importa: hacer un mundo más seguro contra el cibercrimen”, afirma Eugene Kaspersky, CEO y fundador de Kaspersky Lab.

Como evidencia de su compromiso con la fiabilidad, transparencia y responsabilidad, el pasado 23 de octubre, Kaspersky Lab anunció su Iniciativa Global de Transparencia. Esta iniciativa incluye análisis independiente de su código fuente, actualizaciones de software y las reglas de detección de amenazas de la compañía; análisis independiente de los procesos internos para verificar la integridad de las soluciones y procesos de la compañía; tres Centros de Transparencia en 2020 (Asia, Europa y USA); y el incremento de las recompensas –hasta 100.000 dólares- por el descubrimiento de “vulnerabilidades” (Bug Bounty) en los productos de Kaspersky Lab.

Fotografía de Eugene Kaspersky WebSummit vía Flickr (licencia Creative Commons)

Kaspersky abre su código al escrutinio de terceros

Estados Unidos prohíbe oficialmente los productos Kaspersky en sistemas gubernamentales

Categorías: Noticias

Nueva campaña utiliza exploits de la NSA para minería de Monero

Lun, 12/18/2017 - 05:59

La campaña sido detectada por F5 Networks, que la ha denominado Zealot, debido a zealot.zip, uno de los archivos malignos unidos a los servidores objeto de los ataques. Según se indica, el ataque ha sido posible mediante el mismo exploit utilizado en el hack de Equifax.

Los investigadores Maxim Zavodchik y Liron Segal, de F5 Networks, los atacantes escanean Internet en busca de servidores vulnerables; es decir, no parcheados, utilizando dos exploits, CVE-2017-5638 y CVE-2017-9822, para Apache Struts y DotNetNuke ASP.NET CMS, respectivamente.

La vulnerabilidad de Apache Struts es la misma que otros atacantes utilizaron en meses pasados para vulnerar los sistemas de gigante financiero estadounidense Equifax. Paralelamente, otro grupo de delincuentes utilizó la misma vulnerabilidad en abril para atacar servidores Struts, donde instalaron ransomware.

Al encontrar un servidor Windows vulnerable, los atacantes instalan EternalBlue y EternalSynergy, dos exploits de la NSA filtrados a Internet por el grupo autodenominado Shadow Brokers. En algunos casos, también utilizaron PowerShell de Windows para descargar e instalar una aplicación de malware utilizada para la minería de Monero.

Los investigadores de F5 recalcan que los atacantes pudieron haber utilizado la última etapa del proceso; es decir, la instalación de malware, para instalar a su antojo virus y troyanos, aparte de ransomware. Cabe señalar que los atacantes sólo descargaron US$8500 en algunos monederos dispersos, lo que lleva a preguntarse si acaso el objetivo era más bien probar un concepto de ataque, en el lugar de procurar un botín económico. Esta perspectiva se ve refrendada por los expertos Zavodchik y Segal, quienes comentaron: “el nivel de sofisticación que hemos visto en la campaña Zealot nos lleva a creer que esta fue desarrollada y ejecutada por actores con conocimientos muy superiores a los de quienes normalmente operan botnets”. Con ellos se referían a la capacidad de instalar y activar una cadena de infección de varios niveles, para luego instalar malware avanzado y especialmente adaptado, y finalmente la capacidad de desplazarse lateralmente entre distintas capas de una red.

Ilustración (c) Carsten Reisinger vía Shutterstock

Herramienta de la NSA puede afectar versiones más recientes de Windows

Para la NSA, EternalBlue equivalía a pescar con dinamita

Centenar de países afectados por ransomware habilitado por la NSA

Categorías: Noticias

¿Qué tan inteligente es tu ciudad?

Vie, 12/15/2017 - 11:06

Todos quieren ir a las grandes ciudades pues están llenas de sueños, mayores oportunidades, diversidad, entretenimiento, más medios de transporte y, por supuesto, vida cultural y nocturna. La mayor parte de la población mundial deseará poblar las ciudades en menos de cuatro décadas a partir de hoy, el mayor éxodo masivo en la historia de la humanidad.

Las áreas urbanas crecen a gran velocidad: más de la mitad de la población mundial vive ya en ciudades y de acuerdo con la Organización de las Naciones Unidas, en 2050 el 70% de los seres humanos habitarán en centros urbanos.

Las ciudades tienen muchos retos, problemas y ámbitos de trabajo, desde los que se puede prestar una mejor atención al ciudadano y una mejor calidad en sus servicios. El diseño de ciudades inteligentes es una de las soluciones para afrontar el reto de manejar y vivir en ciudades cada vez más grandes y complejas, como la mayoría de la población parece desear.

Se puede decir que una ciudad inteligente es aquella que hace uso de los avances tecnológicos para mejorar la calidad de vida de sus habitantes, sin embargo, este concepto tiene una gran variedad de matices y múltiples interpretaciones.

Una ciudad es conocida por su eficiencia, por la manera en que administra la energía y la disponibilidad de esta en todo momento, se distingue por la garantía de que todos tengan agua, la forma en la que administra sus servicios públicos, en la que mantiene sus edificios y en la que opera el sistema de transporte.

Así, la tecnología juega un papel fundamental para que las ciudades sean inteligentes mediante las soluciones que ofrece para una gestión eficiente de los diversos sistemas operativos de las mismas. No obstante, tiene que estar dirigida y orientada por un gobierno alineado con estos objetivos.

¿Cómo se evalúa una ciudad inteligente?

· Servicios eléctricos con soluciones de red inteligente, para administrar la demanda, distribución, medición, consumo, datos operativos, etcétera.

· El número de edificios públicos que cuenten con una eficiencia energética y hayan implementado una solución de contratación de desempeño para la gestión energética en el sitio.

· Soluciones de la red inteligente para administrar la infraestructura de agua.

· Soluciones integradas de movilidad inteligente mediante la red, como el tráfico, peaje, túneles, etcétera.

· La operación de los servicios municipales, utilizando soluciones inteligentes para administrar los servicios, tales como salubridad, educación, alimentos y salud, la paz pública, pronósticos del clima, estacionamiento, alumbrado público, etcétera.

· La correcta integración y funcionalidad de todos los sistemas de las ciudades para trabajar mejor entre sí.

Las nuevas tecnologías pueden mejorar la calidad de vida en las urbes, pero es necesaria una buena gestión de los recursos para mantener esa calidad en los servicios. Las ciudades tienen que ser súper modelos de facilidad de uso y alistamiento a una escala masiva. Conforme las poblaciones migran de manera irreversible hacia aglomeraciones urbanas, las ciudades deben equiparse de manera inteligente y visible para hacer frente a la creciente demanda.

Por: Tania Cerda, gerente de soluciones de energía para Schneider Electric

Preparando la red para las ciudades inteligentes en todo Latinoamérica

Ciudades inteligentes del futuro: muchos proveedores intentan engañar al mercado

Ciudades inteligentes: desafío para el mundo TI

Categorías: Noticias

Los delincuentes también utilizan Inteligencia Artificial y aprendizaje automático

Vie, 12/15/2017 - 10:58

El futuro nos alcanza, no debe temer

La tecnología actual nace, crece y se desarrolla a velocidades sorprendentes. Cada año son producidos chips más potentes, dispositivos con mayor capacidad de operación y almacenamiento, algoritmos más complejos que engloban actividades específicas, aplicaciones más funcionales y todo un universo de posibilidades. Todo este panorama resultaría en una época llena de beneficios, de no ser por el creciente conflicto entre tecnologías que luchan constantemente entre ellas.

Seguramente ha escuchado premisas en películas y novelas de ciencia ficción en las que Inteligencias Artificiales han tomado conciencia, generando conflictos contra el hombre, y que, a pesar del desarrollo y esfuerzo tecnológico, la humanidad es incapaz de hacer frente ante esta amenaza, sea cual sea, debido al desarrollo veloz de tecnología. Esta situación los hace confiar en máquinas que sean capaces de enfrentarse entre ellas.

Suena a cliché, pero nada más cercano a la realidad. Durante este año, y en menos de seis meses, se registraron tres ataques que tomaron por sorpresa a usuarios y empresas a nivel mundial: Wanna Cry, NoPetya y BadRabbit; y tan sólo en el mes de octubre fueron filtrados 55,488,818[i] registros por distintas actividades delictivas. Poco a poco, el crecimiento y desarrollo de estas tendencias criminales ha hecho que las empresas comprendan que es necesario apoyarse de la tecnología para defenderse de la tecnología.

En la industria de la seguridad cada día aparecen vulnerabilidades y maneras novedosas de atacar a individuos y organizaciones usando sus herramientas de trabajo. Es tal la cantidad de distintos tipos de programación maliciosa que el hombre ha tenido que redoblar esfuerzos para hacer frente a la mayoría de estas amenazas. Sin embargo, en un futuro cercano será superado y su capacidad de respuesta será casi nula debido a la velocidad de propagación y a la complejidad que los archivos maliciosos demuestran día con día.

¿Cómo hacer frente a ello? Machine Learning e Inteligencia Artificial son tecnologías que poco a poco toman mayor presencia en el panorama de la seguridad, una paquetería que es capaz de aprender y adaptarse de forma natural ante las futuras tendencias, evolucionando a la par, entendiendo a una velocidad mucho mayor de qué manera contener actuales y futuros ataques digitales. De acuerdo con una encuesta de seguridad que realizamos a 300 profesionales de seguridad y TI, un 70% ha contemplado el uso de Machine Learning para su protección en los últimos 12 meses.

El uso de estas tecnologías evolutivas ha resultado en la contención de amenazas mucho antes de que sean ejecutadas; el hecho de que estos programas sean capaces de analizar el código que compone a cada uno de los archivos que entren a nuestros dispositivos es una muestra de su capacidad y velocidad de respuesta, lo cual por el momento nos ha otorgado una etapa de confianza y tranquilidad.

Sin embargo, así como la tecnología benigna crece, también el desarrollo de tecnologías criminales basadas en los principios de Inteligencia Artificial y Machine Learning comenzarán a surgir, lo que generará un conflicto entre máquinas, las cuales se adaptarán para superar a sus contrapartes. Esto creará un bando enfocado en la protección y otro en el ataque y daños a la información empresarial o personal.

Este desarrollo de tecnologías nos convertirá de participantes activos ante las tendencias de seguridad a observadores pasivos, ya que el nivel de complejidad superará la capacidad humana, por lo que confiaremos y nos apoyaremos en la capacidad de procesamiento de máquinas para defendernos de tecnologías similares.

Aunque esto suene a ciencia ficción, no lo es. Esto ya está ocurriendo. Y debemos tener este entendimiento de que, así como la tecnología se desarrolla, nuestra confianza en la misma debe crecer para poder aceptar su cobijo ante un futuro no muy lejano.

Por Héctor Díaz, Sr. Product Marketing Manager, Latin America & Caribbean en Cylance

Cylance recibe US$ 100 millones en financiamiento y anuncia disrupción total en seguridad informática

Cylance realiza la primera presentación mundial de neutralización de ransomware en tiempo real

Categorías: Noticias

Páginas