DiarioTI

Suscribirse a canal de noticias DiarioTI DiarioTI
El diario del profesional TI
Actualizado: hace 2 horas 22 mins

El sector financiero requiere de una reingeniería tecnológica

Mar, 11/07/2017 - 01:34

La Asociación Mexicana de la Industria de Tecnologías de Información (AMITI) señala que los consumidores actuales están adoptando la tecnología a paso veloz en su vida diaria, por lo que las grandes instituciones financieras en México y a nivel mundial se están quedando atrás en procesos complejos de desarrollo de tecnología y oferta de servicios bancarios.

De acuerdo con el Foro Económico Mundial, 87% de los internautas mexicanos usan tecnología financiera en su hogar; 52% mediante dispositivos móviles y 38%, en sus lugares de trabajo.

Dado lo anterior, es que las Fintech están tomando gran parte del mercado financiero gracias a su capacidad de erosionar el valor de las marcas de los intermediarios tradicionales, de absorber su mercado y de multiplicar su impacto al volver accesibles los servicios financieros para sectores rezagados.

“Las Fintech se están consolidando como una alternativa innovadora y ágil, que promueve el desarrollo de soluciones novedosas que se ajustan rápidamente a la necesidad del consumidor del servicio financiero. Accenture encontró que el 78% de los usuarios buscan servicios a la medida, y el 76% busca experiencias autodirigidas utilizando nuevas experiencias digitales, lo que representa un gran reto para la banca actual”, afirmó Luiz Ferezin, Consejero de AMITI y Director General de Accenture México.

Por lo tanto, las Instituciones financieras deben sacar mayor provecho a su base de datos, a la información que reciben de sus clientes y crear soluciones integrales tecnológicas que combine servicios con una amplia gama de ofertas digitales, lo que asegurará su permanencia en el mercado.

Algunas de las tendencias tecnológicas que están evolucionando y transformando el sector Financiero son Inteligencia Artificial y Robótica que cambiará la forma de interactuar con los clientes en los servicios financieros, haciendo que algunos departamentos de atención al cliente sean casi completamente virtuales. Cryptocurrencies o divisas digitales como el Bitcoin, Plataformas de crowdfounding y las Wallets o billeteras electrónicas, son algunas de ellas.

Por otro lado, las entidades financieras deben de realizar una reingeniería tecnológica para agilizar su proceso de transformación digital que, de acuerdo con la consultora KPMG les ayudará a:

– Redefinir la organización y las soluciones ofertadas con enfoque Customer Centric que garantice una experiencia personalizada e inmediata al cliente, que le haga sentirse único, y que el banco se anticipe a sus necesidades.

– Optimizar la experiencia del cliente, desde la oferta digital, canales digitales, data&analytics para obtener conocimiento del cliente y sus necesidades para ofrecer nuevos productos y servicios.

– Adoptar aquellas soluciones tecnológicas que les permitan avanzar en el proceso de transformación digital como Cloud Computing, ciberseguridad, medios de pago (Blockchain/Criptomonedas) y las Interfaces de Programación de Aplicaciones (APIs).

Un reporte de Accenture señala que actualmente el 9% de los ingresos de las grandes instituciones financieras proviene de alianzas con startups y de servicios digitales, cifra que se elevará hasta 20% en los próximos cinco años, de acuerdo con sus estimaciones.

“La innovación disruptiva que desarrollan las Fintech, será vista en cinco años como el origen de servicios bancarios más seguros, transparentes, eficaces y sensibles, adaptados a los intereses tanto de los clientes como de las empresas. Los bancos que puedan evaluar, adoptar y adaptar estos nuevos modelos financieros, estarán más preparados para reinventarse de manera constante como lo exige la industria”, concluyó el consejero.

Fotografía: Tyler Olson vía Shutterstock

Sólo 13 startups apuestan por blockchain en Fintech

Bancos y Fintech: ‘Fintegration’, la integración más esperada para 2017

Fintech vs. empresas tradicionales de servicios financieros: ¿amenaza u oportunidad?

Más información sobre Fintech en Diario TI.

Categorías: Noticias

Solo el 5% de las compañías son consideradas “inteligentes”

Vie, 11/03/2017 - 17:36

Zebra Technologies Corporation (NASDAQ: ZBRA), proveedor global en ordenadores móviles, escáneres e impresoras de código de barras mejoradas con software y servicios para hacer posible las soluciones de visibilidad empresarial en tiempo real, ha dado a conocer los resultados de su primer “Intelligent Enterprise Index”. El estudio realizado mundialmente analiza la situación de las compañías en su camino para convertirse en una Empresa Inteligente y cómo están conectando los mundos digital y físico para incrementar la visibilidad, eficiencia y crecimiento. El 48% de las compañías se encuentra en el proceso de ser inteligentes, situándose entre el 50-75 puntos del índice total, mientras que únicamente el 5% de ellas supera los 75 puntos.

Intelligent Enterprise Index mide hasta qué punto se cumplen los criterios de la Empresa Inteligente. Entre ellos, se encuentran la visión y adopción del Internet of Things (IoT) y el desarrollo de un plan de rentabilidad. Los criterios fueron determinados por directivos, expertos del sector y legisladores de distintas industrias durante el 2016 Strategic Innovation Symposium: The intelligent Enterprise, que fue organizado por Zebra en colaboración con el Technology and Entrepreneurship Center at Harvard (TECH).

La estructura de una Empresa Inteligente se basa en soluciones que integran cloud computing, movilidad e IoT para “detectar” automáticamente la información de los activos empresariales. Los datos operacionales, incluyendo estado, localización, uso o preferencias, son “analizados” para ofrecer información que puede trasladarse a la persona correspondiente para que “actúe” en consecuencia y, por consiguiente, se tomen mejores decisiones en cualquier momento.

Resultados clave del informe

– La visión de IoT es fuerte y se incrementará la inversión. El 42% de las compañías gasta más de 1 millón de dólares en IoT anualmente, con una media de 3,1 millones al año, y el 75% espera que esa cifra aumente en los próximos años. De hecho, el 42% prevé que su inversión en IoT aumente entre un 11% y un 20%. Como dato destacado, el 57% tiene una visión IoT o está llevando a cabo sus planes. A pesar de que solo el 36% lo ha implementado en toda la compañía, se espera que el 62% lo haga en el futuro.

– La experiencia del cliente está impulsando el IoT. El 70% de las empresas afirma que el mayor impulsor de la inversión IoT es la mejora de la experiencia del cliente. En el futuro, se prevé que los mayores impulsores sean el crecimiento de los ingresos (53%) y la expansión a nuevos mercados (51%).

– El compromiso de negocio es prioritario, pero se debe considerar más la cultura. 77% de las compañías tiene un método para medir el ROI de su plan IoT y el 71% tiene planes de IoT que abordan tanto los cambios culturales como de procesos necesarios para implementarlo.

– Muchas compañías no cuentan con un plan de adopción. Más del 50% espera cierta oposición para adoptar su solución IoT y solo el 21% de los que esperan oposición tiene plan para cambiarlo.

– Las empresas mantienen informados a los empleados. Aproximadamente el 70% de las compañías comparte información de sus soluciones IoT con sus empleados más de una vez al día, de los cuales más de dos terceras partes lo comparten en tiempo real o casi. Sin embargo, solo el 32% proporciona información útil y ésta es a través de email (69%) o con datos sin procesar (62%).

Metodología del estudio

– La encuesta online fue realizada entre el 3 y el 23 de agosto de 2017 en sectores como salud, fabricación, retail y transporte y logística.
– En total, 908 personas de 9 países fueron entrevistadas, incluyendo Estados Unidos, Reino Unido, Francia, Alemania, México, Brasil, China, India y Australia/Nueva Zelanda.
– Se emplearon once métricas para saber dónde se encuentran las empresas en el camino a convertirse en Empresa Inteligente, incluyendo Visión IoT, Compromiso de Negocio, Partner de Solución Tecnológica, Plan de Adopción, Plan de Gestión de Cambio, Aplicación del Punto de uso, Seguridad & Criterios, Plan de Vida, Arquitectura/Infraestructura, Plan de Datos y Analítica Inteligente.

Tom Bianculli, Chief Technology Officer, Zebra, comentó: “Una ‘Empresa inteligente’ aprovecha el mundo digital y físico para obtener mayor visibilidad e información útil que crea mejores experiencias de cliente, impulsa la eficiencia operacional y permite nuevos modelos de negocio. Se trata de un recorrido para las organizaciones, por lo que queremos ver en qué punto se encuentran. Está claro que muchas todavía están formando sus estrategias IoT, pero vemos que algunos sectores ya han identificado casos de éxito y están implementando las soluciones muy activamente”.

Categorías: Noticias

La Transformación del CIO

Vie, 10/27/2017 - 05:18

Hace no muchos años, el gerente de sistemas o de informática –como se denominaban entonces en la mayoría de las empresas al encargado de TI–, era visto como un profesional responsable sólo de su área y casi “aislado” de la gestión del negocio. Su misión se entendía, por parte de la dirección, como tener los sistemas “funcionando” para proveer los servicios tecnológicos que habilitaran o soportaran al negocio. Aun cuando eso suena y es relevante, lo cierto es que con el advenimiento de la “Transformación Digital” (DX) el antiguo gerente del área de TI ha escalado varios peldaños en las organizaciones para convertirse en un elemento vinculado directamente con la estrategia de negocios.

En efecto, el rol del “CIO” (Chief Information Officer) actual no sólo es un cambio nominal, decorativo, sino trascendental. Es el actor principal que impulsa la aceleración de la innovación de las empresas buscando convertirlas en organizaciones centradas en la información. En tal sentido, el CIO ya no es aquel personaje aislado, sin relación directa con la alta gerencia como acontecía antaño, puesto que hoy de su visión y capacidad depende la posibilidad de aprovechar las oportunidades que abre la era de la DX.

Ciertamente la necesidad de reducir costos y optimizar las operaciones siguen siendo temáticas recurrentes para el CIO, pero hoy las exigencias son muchísimo más altas y las metas más agresivas. Afortunadamente, también son mayores las posibilidades de mejora cuando la empresa se centra en los datos y usa las herramientas de Big Data, adopta las plataformas móviles y los servicios basados en la nube, entre otras tecnologías.

Por otro lado, la disponibilidad, en la Era del “Always-On”, como la han denominado algunos, es fundamental. En la actualidad, las nuevas generaciones de usuarios demandan información 7x24x365 y desde cualquier lugar o dispositivo para cumplir sus tareas, mientras los socios de negocios exigen la mayor integración tecnológica para operar de la mejor manera posible. Ni hablar de los clientes, que no sólo son más “digitalizados” e informados, sino que simplemente no toleran fallas de disponibilidad de sistemas para ser atendidos o realizar compras por canales basados en la Web.

Además existe otro concepto fundamental: la experiencia interactiva, sea ésta del cliente, los usuarios internos o pertenecientes a los partners. El CIO debe ser capaz de impulsar las transformaciones necesarias para que dicha experiencia sea mejor en términos de la disponibilidad de la información, de la velocidad de respuesta y que tenga, además, el mayor nivel de personalización posible.

Todo esto nos permite hablar de un “Nuevo CIO”, un profesional empoderado, cuya labor es estratégica y cuyo trabajo apunta a tres conceptos: confiabilidad, adaptabilidad y agilidad.

La confiabilidad se relaciona tanto con el “uptime” y alta disponibilidad demandada para los sistemas, plataformas y datos como con las nuevas exigencias en materia de seguridad de la información, considerando el fuerte flujo de información y el aumento de transacciones electrónicas, aspectos clave en la era de la DX. Mejorar el rendimiento financiero de la empresa y reducir los riesgos de la operación son, desde esta perspectiva, dos tareas básicas del CIO.

La adaptabilidad, en tanto, nos habla de un CIO preocupado de proveer tecnologías que respondan a las mencionadas necesidades y experiencias de toda la cadena de valor, desde los usuarios hasta los clientes. Mientras que la agilidad apunta a la capacidad que debe tener la organización para moverse y cambiar ante los nuevos modelos o ciclos de negocios, en un contexto en donde los “time to market” deben ser cada vez más cortos.

Como vemos, este “Súper CIO” tiene una labor crucial en nuestros días para cualquier empresa, ya que de su capacidad depende, como está dicho el nivel de innovación, en donde la creatividad es esencial. La DX se refiere en buena medida a buscar nuevas formas de generar ingresos, a crear nuevos productos y servicios, a adaptarse y ser más competitivo ante las start-ups. Es por ello que este nuevo CIO es, por definición, un agente de cambio, pero no sólo en el sentido de impulsar las nuevas herramientas y plataformas tecnológicas, sino por el cambio que requiere hoy todo negocio. Eso significa que debe impulsar también cambios culturales y responder rápidamente ante las demandas basadas en nuevas formas hacer las cosas, la transformación de procesos e incluso ante cambios en la manera de pensar el negocio por parte de la gerencia.

Hoy, como nunca, el CIO tiene el poder para transformar el negocio y cruza con sus respuestas a toda la organización. Ya no debe “entender” del negocio porque eso no es un plus, sino una condición mínima. Debe ser capaz de impulsarlo, incrementar su valor y mejorarlo. La gerencia, por su parte, debe entender el nuevo estatus de este CIO y darle el poder que le corresponde, entendiendo que la digitalización cambió, está cambiando y seguirá cambiando todos los modelos o paradigma que conocimos.

Por Luis Piccolo, Vice Presidente de Ventas, Level 3 Communications, Cluster Sur

Categorías: Noticias

Bad Rabbit: el ransomware Not-Petya está de vuelta y con algunas mejoras

Vie, 10/27/2017 - 04:07

Uno de los métodos de distribución de Bad Rabbit es un drive-by download. Algunos sitios populares son comprometidos usando la técnica watering hole y se les inyecta JavaScript en su HTML o en uno de sus archivos .js.
Este script reporta los siguientes componentes a 185.149.120[.]3, que no parece responder en este momento.

-User-Agent del navegador
-Referrer
-Cookie del sitio visitado
-Nombre de dominio del sitio visitado

La lógica de programación del lado del servidor puede determinar si el visitante es un blanco de interés y luego añadir contenido en la página. Hemos visto, por ejemplo, cómo aparece una ventana emergente pidiendo descargar una actualización de Flash Player en el medio de la página.
Al hacer clic en el botón “Instalar”, se inicia la descarga de un archivo ejecutable desde 1dnscontrol[.]com. Este ejecutable, install_flash_player.exe, es el dropper de Win32/Filecoder.D.
Luego, la computadora finalmente se bloquea y aparece el pedido de rescate típico del ransomware Win32/Diskcoder.D, que tiene la habilidad de propagarse a través del protocolo Server Message Block (SMB). A diferencia de algunos reportes que han estado circulando, no explota la vulnerabilidad EternalBlue como era el caso en el brote de Win32/Diskcoder.C (Not-Petya).

Primero, escanea la red interna en busca de estos componentes abiertos de SMB:

admin
atsvc
browser
eventlog
lsarpc
netlogon
ntsvcs
spoolss
samr
srvsvc
scerpc
svcctl
wkssvc

Se ejecuta Mimikatz en el equipo comprometido para recolectar credenciales. También hay una lista hardcodeada de nombres de usuario y contraseñas.
Cuando se encuentran las credenciales funcionales, se descarga el archivo infpub.dat en el directorio de Windows y se ejecuta a través de SCManager y rundll.exe.

Win32/Diskcoder.D es una versión modificada de Win32/Diskcoder.C, para la que se corrigieron algunos bugs en el cifrado de archivos. Ahora usa DiskCryptor, un software open source legítimo usado para hacer cifrado de unidades completas.

Las claves se generan usando CryptGenRandom y luego se protegen con una clave pública RSA 2048 hardcodeada. Los archivos cifrados tienen la extensión .encrypted. Al igual que antes, se usa AES-128-CBC.
La telemetría de ESET muestra que Ucrania solo tiene el 12,2% del total de casos en que vimos el dropper. Estas son las estadísticas:

Rusia: 65%
Ucrania: 12.2%
Bulgaria: 10.2%
Turquía: 6.4%
Japón: 3.8%
Otros: 2.4%

Esto coincide bastante con la distribución de sitios comprometidos que incluyen el JavaScript malicioso. Entonces, ¿por qué Ucrania parece ser más atacada que el resto?

Es interesante señalar que todos los blancos fueron atacados al mismo tiempo. Es posible que el grupo ya tuviese un pie adentro de sus redes y ejecutase el ataque watering hole en simultáneo como señuelo. Nada indica que hayan caído por la falsa actualización de Flash.

Más información en el portal WeLiveSecurity de ESET.

Fotografía (c) Ton Snoei vía Shutterstock
Categorías: Noticias

La seguridad de las redes WI-FI ha sido vulnerada. ¿Y ahora?

Mar, 10/24/2017 - 02:29

En la mañana del 16 de octubre, investigadores revelaron al mundo un nuevo “exploit” llamado KRACK que aprovecha las vulnerabilidades de seguridad de WI-FI y permite a los invasores leer y modificar los datos en redes inalámbricas. Las vulnerabilidades son en el protocolo de seguridad más utilizado actualmente en las redes WI-FI, el WPA2, y con ellas se pueden descifrar los datos, hacer ataques de repetición de paquetes, secuestrar conexiones TCP e inyectar tráfico HTTP, entre otras acciones.

El problema afecta a prácticamente todos los dispositivos con conexión WI-FI, ya sean ordenadores con diferentes sistemas operativos, enrutadores, dispositivos móviles o de Internet de las Cosas. Lamentablemente, no está claro todavía si las vulnerabilidades ya están siendo explotadas por los delincuentes cibernéticos alrededor del mundo.

Cambiar la contraseña de los dispositivos o redes no se hace ninguna diferencia en el momento, así como cambiar a otros protocolos de seguridad WI-FI (WPA o WEP) también no ayudará. Después de todo, el WPA también es vulnerable a estos ataques, y el WEP tiene seguridad aún más débil.

De todos modos, la pregunta más importante ahora es: ¿Qué hacer? Las siguientes recomendaciones a los Administradores de Seguridad poden ayudar a mitigar los riesgos asociados con las nuevas vulnerabilidades encontradas:

Análisis de la situación actual: En este momento, es vital buscar información de los fabricantes de cada uno de los productos utilizados en la red para entender si son vulnerables o no, así como para identificar si el fabricante ha publicado una actualización para solucionar el problema. Un grupo de trabajo es necesario para garantizar que dicha información esté rápidamente a la mano y ayude en la toma de las decisiones siguientes. Además, también es fundamental mantenerse atento a las actualizaciones de los diferentes productos y asegurar que las vulnerabilidades se corrigen tan pronto como sea posible.

Cifrado integral: En sistemas críticos, el uso de una capa adicional de cifrado integral entre los ordenadores de usuarios y servidores es una alternativa a considerar. Hay soluciones en el mercado que ofrecen cifrado integral a través de agentes de software que se pueden instalar de modo automático y remoto, cuya gestión está asociada a la identidad de los usuarios en la red, facilitando la administración y la reduciendo costos.

Micro-segmentación: Prepárese para lo peor y tenga en cuenta que el invasor puede tener éxito al infiltrar un malware fuera del alcance de sus líneas de defensa tradicionales. Trabajar con el llamado Campo Reducido de Confianza (Reduced Scope of Trust o RSOT), según Gartner, es la mejor alternativa para aislar sistemas sensibles. Un principio similar es defendido por Forrester con su concepto de “Zero Trust”. Actualmente, esta metodología puede ser fácilmente implementada por soluciones avanzadas de micro-segmentación, que es la seguridad definida por software. Ella también puede incluir el uso de cifrado integral y técnicas para hacer los sistemas “invisibles” a análisis utilizados por los invasores. El resultado final es que, si un sistema crítico cualquiera (por ejemplo, una base de datos de tarjetas de crédito, sistemas de pago, sistemas de relacionamiento con clientes, etc.) es aislado mediante micro-segmentación, seguirá aislado y protegido contra malware infiltrado en la red.

Seguridad de aplicaciones móviles: Con los ataques mencionados anteriormente, se aumentan los riesgos de la contaminación por malware en dispositivos móviles causar incidentes de seguridad. El consumidor de una empresa es el empleado de otra – y el malware que inadvertidamente se instaló en su smartphone, en empresas que adoptan modelos BYOD (Bring Your Own Device o “Traiga su Propio Dispositivo, es el malware “traído” a la empresa – y esto tiene un gran potencial para generar un incidente de seguridad de grandes proporciones. Educar a los usuarios internos es fundamental, pero también esencial es garantizar que las aplicaciones móviles y los recursos de la empresa estén debidamente protegidos. Soluciones de seguridad para aplicaciones móviles que utilizan conceptos de Application Wrapping (Envoltorio de Aplicaciones) son capaces de proporcionar seguridad a los datos confidenciales almacenados, transmitidos y procesados por las aplicaciones de negocio, incluso en ambientes hostiles como un smartphone infectado con malware.

Monitoreo de incidentes: Mantenga procesos de monitoreo de incidentes e inteligencia de amenazas para asegurar que solamente alertas pertinentes sean emitidas, ya que hoy la complejidad de los entornos tecnológicos genera una gran cantidad de eventos y hace difícil mantener el foco sobre lo que es realmente pertinente, algo como buscar una aguja en un pajar. Herramientas de correlación de eventos y plataformas SIEM (Security Incident & Event Management o Gestión de Incidentes y Eventos de Seguridad) son cruciales para hacer frente a este y otros futuros retos de seguridad cibernética. Técnicas de Análisis de Seguridad – seguridad a través de análisis avanzado de datos -, que identifican comportamientos anómalos y generan alertas independientemente de firmas de ataques conocidos, son una capa adicional para SIEM e igualmente importante. Añada a eso profesionales calificados en operaciones 24×7, bases de reglas de correlación y análisis robusto de datos, así como mecanismos para mejora continua de estas bases, procesos maduros para análisis, confirmación y priorización de incidentes para asegurar tratamiento adecuado, además de respuesta ante incidentes a través de procesos, herramientas y profesionales de alta calidad.

Seguridad con análisis avanzado de datos: Herramientas de análisis están siendo utilizadas por departamentos de marketing y negocios para evaluar el comportamiento y la experiencia que los consumidores comparten en redes sociales. La misma tecnología puede utilizarse para monitorear las diferentes redes sociales en búsqueda de actividades delictivas, no sólo identificar comentarios relacionados con exploits, pero también ofertas de venta de datos robados, divulgación de dispositivos de red vulnerables, contraseñas y otra información sensible. Es común delincuentes inexpertos también utilizan las redes para vanagloriarse de sus logros. Equipos de seguridad pueden contar con soluciones que hacen el monitoreo por palabras clave en modo 24×7 y en diferentes idiomas para ser notificadas cuando este tipo de mensajes es compartido. Información sobre el perfil, la hora y la ubicación del usuario que publicó la información puede ayudar en la identificación y la sanción del criminal.

Gestión de riesgos: Asegúrese de que su proceso de Gestión de Riesgos evalúe constantemente como las nuevas amenazas, tecnologías y cambios en el entorno empresarial se reflejan el nivel de los riesgos organizacionales. Dichos procesos deben garantizar que los riesgos serán identificados y, evaluados y apoyarán la toma de decisiones sobre cuales controles de seguridad son necesarios para mantenerlos siempre dentro de niveles aceptables para la organización.

El reciente estudio Unisys Security Index 2017 reveló que el ciudadano mexicano está más preocupado por la seguridad en Internet que por su capacidad de cumplir compromisos financieros. La preocupación por temas del mundo virtual, como ataques de hackers y virus cibernéticos, fue apuntada por un 77% de los encuestados, y las transacciones en línea fueron citadas por un 72% – ambos consideradas grandes preocupaciones. De otro lado, temas del mundo “físico”, como la seguridad personal o la seguridad financiera, se destacaron por un 77% y un 90% de los encuestados, respectivamente.

Es importante tener en cuenta que las entrevistas para la realización del Unisys Security Index 2017 se llevaron a cabo antes de los recientes incidentes de seguridad cibernética divulgados en gran escala, como WannaCry y Petya. De esta manera, es posible que la preocupación acerca de los problemas en línea sea actualmente aún mayor que la identificada en el periodo de la realización de la encuesta.

Estos datos son bastante reveladores, ya que Brasil es conocido por alarmantes estadísticas de violencia y actualmente enfrentamos una tasa de desempleo récord, viviendo el tercer año de crisis política y económica sin precedentes que afecta la seguridad financiera de todos. Si las preocupaciones por la seguridad en el uso de Internet es aún mayor que la preocupación por estos otros temas, tenemos un mensaje claro: hay una crisis de confianza de los usuarios de Internet en los servicios en línea.

El ciudadano que utiliza servicios públicos digitales así como el consumidor que compra productos y servicios digitales de las empresas no acredita que sus datos estén protegidos. Con los datos del estudio, no es posible determinar o inferir cuál es el impacto de la falta de confianza en el uso de los servicios digitales, pero es razonable asumir que él existe y es importante. Es decir, hay miles de organizaciones públicas y privadas que están invirtiendo miles de millones en tecnología y adoptando la Transformación Digital para ofrecer servicios innovadores y beneficios para ciudadanos y consumidores. Sin embargo, muchas no están cosechando los resultados esperados, y la razón – al menos en parte – proviene de la desconfianza de los brasileños relacionada a la seguridad de sus datos.

¿Cómo revertir esta percepción de inseguridad? ¿Cómo recuperar la confianza?

En primer lugar, hay el aspecto de cómo se percibe la seguridad. Deben adoptarse acciones de comunicación y mecanismos visibles (pero que no sean inconvenientes para la experiencia del usuario). Sin embargo, el más importante es asegurar que la confianza sea bien merecida y que la seguridad percibida no sea ilusoria. Esto es posible a través de medidas adecuadas que tengan por objetivo el aumento de la seguridad real.

Desde el punto de vista estratégico, es importante garantizar que elementos de seguridad sean una parte integral de las decisiones de negocios y de nuevos proyectos desde la concepción, lo que consiste en dar voz al departamento de seguridad de la información y no limitarlos a decisiones operacionales en el campo tecnológico.

Desde un punto de vista táctico, es crucial adoptar medidas de prevención (por ejemplo, la tecnología de micro-segmentación), pero es relevante no limitarse sólo a ellas. Es necesario ampliar la seguridad para predicción, detección y respuesta ante incidentes. Un reciente estudio de Gartner estima que los presupuestos de seguridad deben pasar por una transformación en los próximos años, con una fuerte aceleración las inversiones en herramientas de predicción, detección y respuesta. Esas herramientas representarán en 2020 el 60% del presupuesto total de seguridad, superando así el presupuesto de prevención. Esto sucede en un mundo de amenazas cada vez más sofisticados. Prevenir seguirá siendo imprescindible, pero no será suficiente.

Algunos ejemplos de tecnologías de predicción e incluso detección incluso son Análisis de Seguridad, Aprendizaje Automático e Inteligencia de Amenazas Cibernéticas (Security Analytics, Machine Learning y Cyber Threat Intelligence). Para respuesta ante incidentes, hay enfoques innovadores muy eficaces, como Arquitectura Adaptable de Seguridad, que dinámicamente cambia la arquitectura de red para reaccionar (aislase) a amenazas.

Desarrollar la confianza de ciudadanos y consumidores es un punto clave en el proceso de Transformación Digital. En ese escenario, la seguridad funciona como un facilitador de la innovación, y no como una barrera.

Acciones en el nivel estratégico, como la aproximación entre las áreas de seguridad y de negocios, así como en el nivel táctico, favoreciendo la predicción o detección y respuesta ante incidentes, proporcionarán más seguridad real y, en última instancia, apoyarán el aumento de la confianza y de la adhesión a plataformas digitales en todo el país, un beneficio para el conjunto del mercado, la población y el desarrollo tecnológico.

Por Leonardo Carissimi es Director de Soluciones de Seguridad de Unisys en América Latina

Categorías: Noticias

Kaspersky abre su código al escrutinio de terceros

Mar, 10/24/2017 - 02:22

Esta auditoría de código fuente forma parte de una iniciativa a gran escala anunciada por Kaspersky, denominada Iniciativa Global de Transparencia, que también incluye el escrutinio de su infraestructura y ciclo de desarrollo de productos.

Para la ejecución de su plan, la empresa contratará los servicios de una empresa externa de auditorías de seguridad y análisis forense. Kaspersky ofrecerá los resultados de la investigación a gobiernos y organizaciones que requieran garantías en el sentido que sus productos “no espían a sus usuarios, para entregar posteriormente los datos a FSB [organismo estatal de inteligencia rusa, sucesor de la KGB]”. Con ello, la empresa alude las acusaciones en las que el organismo estadounidense Departamento de Seguridad Nacional basó su reciente decisión de eliminar a Kaspersky Lab de la lista de proveedores de la administración pública de ese país.

La empresa anuncia que el proceso de revisión de su código comenzará durante el primer trimestre de 2018. Por ahora no está confirmado en que empresa delegará la auditoría de su código fuente. “Estamos evaluando a contratistas que pudieran realizar una evaluación externa de nuestro código”, comentó Eugene Kaspersky, CEO de Kaspersky Lab, quien anunció además los planes de la empresa de abrir tres “centros de transparencia” en Europa, Asia y Estados Unidos, donde empresas y gobiernos tendrán acceso al código fuente en un ambiente protegido. El primer centro será abierto el próximo año, y el tercero en 2020.

Nuevas recompensas

La tercera medida anunciada por Kaspersky Lab es el pago de recompensas por un máximo de US$ 100.000 a quienes detecten vulnerabilidades en sus productos.

“Firmas silenciosas”
Según un reciente informe, Kaspersky habría utilizado una técnica denominada “firmas silenciosas” para buscar datos en las computadoras de sus usuarios. Esta técnica es utilizada por la mayoría de los antivirus modernos, y permite a su fabricante buscar “secuencias de datos” en los archivos de los usuarios. La teoría planteada es que FSB, con o sin el conocimiento o complicidad de Kaspersky, habría utilizado el procedimiento de firmas silenciosas para buscar material relacionado con los organismos de seguridad estadounidenses.

“La balcanización de Internet beneficia únicamente a los ciberdelincuentes. La ciberseguridad no tiene fronteras, por lo que los intentos de aplicar delimitaciones nacionales en el ciberespacio es un despropósito, que es preciso abandonar. Necesitamos restablecer la confianza en la relaciones entre empresas, gobiernos y ciudadanos”, declaró Kaspersky Lab en un comunicado.

Fotografía de Eugene KasperskyWebSummit vía Flickr (licencia Creative Commons)
Categorías: Noticias

Intel y Mobileye crean fórmula para demostrar la seguridad de los vehículos autónomos

Vie, 10/20/2017 - 05:37

En un discurso impartido en el World Knowledge Forum celebrado en Seúl, Corea del Sur, el catedrático Amnon Shashua, CEO de Mobileye y vicepresidente primero de Intel, ofreció al sector de los vehículos de conducción autónoma un mecanismo para demostrar la seguridad de este tipo de automóviles. Su solución, publicada en un artículo académico y en un resumen general, proporciona una fórmula formal y matemática para asegurar que los vehículos de conducción autónoma pueden funcionar de manera responsable y que no causan accidentes por los que pueden ser culpabilizados.

Mobileye es una compañía de Intel líder en tecnología para automatización y el mayor suministrador del mundo de cámaras para sistemas avanzados de asistencia al conductor (ADAS). Shashua y su colega Shai Shalev-Shwartz cuentan con muchos años de éxito en automatización de vehículos y en la evolución desde ADAS a la autonomía completa, y han desarrollado una fórmula matemática para ofrecer certeza a las preguntas abiertas sobre responsabilidad y culpabilidad en caso de accidentes en donde se ven involucrados vehículos sin conductor humano.

El modelo propuesto se denomina Responsibility Sensitive Safety y ofrece unos parámetros específicos y evaluables para los conceptos humanos de responsabilidad y precaución, además de definir un “estado seguro”, en donde los vehículos autónomos no pueden ser la causa de un accidente, independientemente de las acciones que lleven a cabo los otros vehículos.

En su discurso, Shashua solicitó al sector y a las personas encargadas de elaborar políticas el “desarrollo de forma colaborativa de unos estándares para asignar definitivamente la culpabilidad en los accidentes” cuando exista un choque entre un vehículo conducido por una persona y otro automóvil de conducción autónoma. Explicó que todas las reglas y regulaciones actuales se basan en la idea de la existencia de un conductor al control de un vehículo y que se necesitan nuevos parámetros para los automóviles autónomos.

Shashua explicó: “La capacidad para saber quién tiene culpa es la clave. Lo mismo que ocurre con los mejores conductores humanos del mundo, los vehículos de conducción autónoma no pueden evitar accidentes debidos a acciones más allá de su control. Pero es muy improbable que el conductor más responsable, consciente y precavido sea el responsable de un accidente, especialmente si tiene una visión de 360º y unos tiempos de reacción rapidísimos, como los que van a tener los vehículos autónomos”.

El modelo RSS formalizó esto de manera que garantiza que los vehículos de conducción autónoma van a funcionar sólo dentro del marco definido como “seguro”, siguiendo unas definiciones calaras de culpabilidad acordadas por el sector y los reguladores.

“A medida que los reguladores y las personas encargas de la elaboración de políticas de todo el mundo se esfuercen en gestionar el desarrollo de la conducción autónoma sin que esto afecte a la innovación, la posibilidad de contar con un método abierto para evaluar la eficacia de la tecnología parece ser un buen punto de inicio. El modelo Responsibility Sensitive Safety propuesto por Mobileye puede ser un buen lugar para comenzar la conversación. Al menos, como método de evaluación, no obliga a nadie a utilizar en exclusiva una tecnología específica y proporciona un marco apropiado para la toma de decisiones dentro de los sistemas de control”, afirmó Sam Abuelsamid, analista de investigación que colabora en el programa Transportation Efficiencies de Navigant Research.

Ilustración: Fotograma, presentación de Intel en YouTube

Los vehículos autónomos pueden ser inducidos a errores alterando la señalética

El nuevo chip de autoaprendizaje de Intel promete acelerar la inteligencia artificial

Dragon Drive de Nuance incorpora infoentretenimiento conversacional en vehículos

Intel incentiva la innovación dentro de vehículos para el Internet de las Cosas

Intel y Toyota investigan sobre el entretenimiento del futuro en vehículos

Categorías: Noticias

Google pagará US$ 1.000 por hackear apps de Play Store

Vie, 10/20/2017 - 04:14

La iniciativa, denominada Play Security Reward Program -o programa de recompensas para la seguridad de Play [Store]- estará disponible mediante la plataforma HackerOne, y no incluye las apps para Android desarrolladas por la propia Google.

Con ello, Google recompensará empresas de seguridad informática e investigadores independientes que logren vulnerar la seguridad de las aplicaciones desarrolladas por terceros, y distribuidas mediante la plataforma Play Store. La empresa recalca que sólo participan en el programa las apps más populares.

Las recompensas, por hackeo aprobado tendrán un importe máximo de US$ 1.000 y serán pagadas por la propia Google, es decir, no por los desarrolladores o propietarios de las apps. Inicialmente, el programa de recompensas sólo está disponible para un número reducido de desarrolladores, pero la empresa considerará nuevas ap dependiendo del desarrollo del programa.

Para su lanzamiento, el programa incluye 13 apps , distribuidas por ocho desarrolladores: Alibaba, Dropbox, Dulingo, Headspace, Line, Mail.ru, Snapchat y Tinder.

El programa de recompensas no afecta el procedimiento estándar de Play Store, mediante el cual se analizan todas las apps oficiales, en búsqueda de vulnerabilidades.

Limitaciones
Google aclara que el programa está limitado a vulnerabilidades de tipo RCE (remote-code-execution) y sus correspondientes pruebas de concepto. Asimismo, sólo se considerarán incidencias que afectan a dispositivos operados con Android 4.4 y versiones posteriores del sistema operativo móvil. Tampoco se aceptarán vulnerabilidades habilitadas por colusión; es decir, brechas creadas o facilitadas deliberadamente por los creadores de las apps.

Para acceder a las recompensas no será necesario eludir las protecciones de san nivel de sistema operativo para demostrar de funcionamiento de la vulnerabilidad RCE.

Los detalles del programa están disponibles en el portal Hacker One de Google.

Fotografía (c) Bloomua vía Shutterstock

Microsoft y Google reajustan las recompensas por detección de malware en sus productos y servicios

Google ofrece cuantiosa recompensa por hackear su smartphone Nexus

Categorías: Noticias

Cuando la Inteligencia Artificial, el Internet de las Cosas y el Blockchain convergen

Jue, 10/19/2017 - 09:31

Tuve el placer de asistir y brindar una conferencia en el reciente evento Smart City Buenos Aires. En este primer evento realizado en el nuevo centro de convenciones de la ciudad, muchos expertos en tecnología y la industria dialogaron sobre cómo acelerar la adopción de los servicios digitales y transformar las experiencias de los clientes y los ciudadanos. Durante mi sesión abordé tres tópicos: la Inteligencia Artificial (IA), el Internet de las Cosas (IoT) y Blockchain. Por lo general, estos temas se abordan por separado, pero hablé acerca de cómo la rápida convergencia de estas tecnologías está aportando un gran valor a las empresas y las personas que utilizan estos nuevos servicios.

Claramente se habla mucho sobre la IA, mientras que la automatización es una prioridad para brindar mejores experiencias conforme se elevan los niveles de eficiencia para las empresas. El IoT, por otro lado, ha sido un tema recurrente en los últimos años y su función es llevar el análisis en tiempo real a los procesos automatizados (de los cuales la AI forma parte). El IoT genera un flujo de trabajo sofisticado para personalizar las experiencias que las empresas ofrecen a sus clientes y usuarios.

¿Y Blockchain? Cuando empiezas a ofrecer servicios personalizados es probable que necesites acceder o almacenar cantidades grandes de información personal, lo que requiere una arquitectura de seguridad mucho más fuerte a la que hemos visto en el pasado con el modelo centralizado. Debido a que Blockchain es una arquitectura distribuida que utiliza criptografía y un concepto de “escribe un registro una sola vez”, brinda un valor enorme a los casos de uso que se requieren como parte de las transformaciones digitales para mejorar la validación de algunos de esos datos sin alterar las bases de datos existentes, las cuales cumplen con varios requerimientos de cumplimiento. Todos esos factores combinados proporcionan una solución muy potente y pienso que estos se implementarán juntos de manera mucho más frecuente en el futuro cercano.

Un caso de uso muestra el beneficio de converger la IA, el IoT y el Blockchain

Imagine llevar puesto un dispositivo que monitoree su ritmo cardiaco y nivel de ejercicio todos los días. El dispositivo contiene toda su información personal (identidad, incluyendo reconocimiento facial y de huella digital; información de contacto; datos sobre su médico, medicamentos, alergias, etc.). Por motivos de seguridad, las funciones biométricas cifradas se almacenarían en una arquitectura de base de datos Blockchain, sin alterar las bases de datos que se utilizan para las cantidades grandes de datos y el cumplimiento regulativo necesario para los propios datos. Su aseguradora médica asume con seriedad su salud y constantemente monitorea los diferentes aspectos de esta a lo largo del día por medio de los dispositivos wearable que usted ha registrado con ellos.

Mientras asiste a un evento, su dispositivo wearable reporta un ritmo cardiaco anormal. La AI, a través del análisis, determina que esa anormalidad es un precursor de un ataque cardiaco. Un evento se activa de inmediato para notificar a su médico y proporcionarle todos los datos relevantes de los últimos días. Su médico observa un suceso grave y envía a una ambulancia por usted para que lo lleve al hospital.

Sus dispositivos wearable indican su ubicación exacta que se envía al equipo de respuesta de emergencia con todos los datos necesarios para que lo atiendan. Cuando llega al hospital, el sistema enlazado a su divisa digital personal (digamos, el bitcoin), que también utiliza Blockchain, le permite ingresar y pagar por una habitación privada.

El proceso activado por la IA brindó una experiencia completamente automatizada que le salvó la vida.

Casos de uso infinitos en desarrollo

A medida que la gente continúa vislumbrando escenarios como este me doy cuenta de cómo la IA, el IoT y Blockchain convergerán rápidamente para brindar experiencias sumamente valiosas a los clientes y los ciudadanos. No se trata de algo futurista. Todo esto ya es técnicamente posible hoy —existen casos de uso infinitos que se están desarrollando en este momento y que cambiarán la manera en que vivimos—.

Por Jean Turgeon, Vicepresidente y Director Tecnológico de Avaya

Categorías: Noticias

Microsoft contraataca a Project Zero de Google y expone vulnerabilidades de Chrome

Jue, 10/19/2017 - 00:00

El primer golpe, o en realidad golpes, fueron asestados por Google, cuando su equipo Project Zero comenzó en 2016 a revelar una serie de vulnerabilidades en productos como Internet Explorer, Edge, el paquete de seguridad Windows Defender, e incluso el sistema operativo Windows (ver artículos relacionados).

En dos oportunidades, Google optó por revelar vulnerabilidades que aún no habían sido parcheadas por Microsoft, cuando esta última no ofreció soluciones dentro del plazo de 90 días con que opera Project Zero. Éstas decisiones, que causaron molestia en Microsoft, fueron explicadas por Google señalando que iba en el interés público advertir sobre estos problemas una vez finalizado el plazo de gracia.

Este mes, Google fue incluso más lejos, cuando uno de los integrantes de Project Zero criticó la metodología utilizada por Microsoft para parchear su software. Según el empleado de Google, la política de Microsoft de distribuir parches diferentes para cada versión de Windows resulta en nuevas vulnerabilidades en las versiones obsoletas, debido a que los atacantes pueden inferir la fuente de la vulnerabilidad y así diseñar nuevos vectores de ataque.

Llega el turno a Microsoft
El 18 de octubre, Microsoft reveló en su blog deficiencias en el navegador Chrome, que fueron comunicadas Google en septiembre pasado. En particular, Microsoft cuestiona la predilección de Google por utilizar sandboxing para aislar procedimientos maliciosos. En un artículo titulado “La seguridad de los navegadores, más allá de sandboxing”, la empresa escribe que la seguridad es actualmente un fuerte diferenciador para los usuarios al momento de elegir el navegador adecuado. “Todos usamos los navegadores para actividades cotidianas como mantenernos en contacto con nuestros seres queridos, pero también para redactar y editar documentos confidenciales, personales y laborales, e incluso para manejar nuestros activos financieros. Una brecha ocurrida mediante un navegador, puede tener resultados catastróficos”.

Luego, describe un análisis del navegador Chrome, planteando la siguiente pregunta: “¿Es suficiente tener un fuerte modelo de sandboxing para crear un navegador seguro?”. La pregunta es retórica ya que el procedimiento empleado por Microsoft incluye la respuesta: no. En particular, Microsoft concluye que la ejecución remota de código (RCE) es posible en Chrome, debido a “la relativa falta de mitigaciones que incorpora para tales vectores de ataque”, mismos que acortan la distancia entre la corrupción de memoria producto de errores de código, a un exploit. “Varios controles de seguridad realizados dentro del sandbox hacen posible que los exploits de RCE eludan la política del mismo origen (SOP), dando a los atacantes acceso a los servicios online de las víctimas, como correo electrónico, documentos y sesiones online de banca, aparte de sus credenciales”.

Esta situación, atribuible a un error de código, o bug, fue reportada a Google por el equipo Offensive Security Research (OSR) de Microsoft. La incidencia tiene el identificador CVE-2017-5121 y es clasificada por Microsoft como “vulnerabilidad de alta severidad, ya que hace posible la ejecución de código remoto dentro del navegador de un usuario”. La vulnerabilidad fue solucionada por Google en Chrome 61, y premiada mediante un cheque por 15.000 dólares, girado a nombre de OSR. Microsoft agradeció el gesto pero anunció que donará el dinero a beneficencia.

Cabe tener presente que Google solucionó la vulnerabilidad dentro de tres días, mientras que Microsoft no solucionó las suyas dentro del plazo de tres meses con que opera Project Zero de Google. Para que la comparación sea justa, también es importante considerar que Google puede actuar con mucha mayor celeridad, debido a que parchear un navegador no es lo mismo que parchear un sistema operativo. Para el caso de un navegador, la actualización de seguridad es expedita y se instala cuando el usuario inicia el software. Edge, en comparación, debe ser actualizado desde Windows Update.

Ilustración: Rocketace vía Flickr (Licencia Creative Commons)

Google revela vulnerabilidad de Windows aún no resuelta por Microsoft

Google revela nuevamente vulnerabilidad de Windows

Microsoft reprende a Google

Categorías: Noticias

LG y Qualcomm desarrollan tecnología celular 5G para vehículos conectados

Mié, 10/18/2017 - 23:59

Las dos compañías también establecerán un centro de investigación conjunta en Corea del Sur para desarrollar tecnología celular 5G para vehículos, así como tecnologías C-V2X (vehículo conectado celular) esenciales para el éxito de vehículos autónomos de próxima generación.

Como los respectivos líderes en innovación móvil, LG y Qualcomm aportan décadas de experiencia en investigación y desarrollo a la colaboración, incluyendo el conocimiento de la tecnología móvil 5G. Ésta es vital para el despliegue de una plataforma de automóviles completamente conectada. Con velocidades de conexión hasta 5 veces más rápidas con una latencia 10 veces menor que la tecnología LTE más veloz, la tecnología 5G será capaz de entregar datos a las velocidades necesarias en una situación de conducción en la vida real.

C-V2X utiliza la red de comunicación móvil para entregar el doble de tiempo de operación a un costo menor que DSRC (comunicaciones dedicadas de corto alcance). En algunas partes de Europa y Asia, las pruebas de campo y actividades de estandarización se llevan a cabo teniendo enfocadas a un lanzamiento para 2020. Esta tecnología también está incluida en la versión 14 de 3GPP (proyecto de asociación de tercera generación).

El acuerdo entre ambas empresas se finalizó en el Campus Science Park de LG Electronics en Seúl entre Kim Jin-yong, vicepresidente de la Unidad de Negocio Inteligente de Componentes de Vehículos de LG, y Nakul Duggal, vicepresidente de Qualcomm Product Management. Las dos compañías comenzarán a trabajar juntas de manera inmediata.

“LG planea liderar el mercado de los componentes de vehículos de próxima generación al combinar nuestra experiencia en tecnologías de comunicación automotriz con las soluciones avanzadas conectadas de Qualcomm que van de LTE a 5G”, dijo el señor Kim de LG. “Tenemos confianza en que la solidez de la investigación combinada de Qualcomm y LG ofrecerá beneficios que no serían posibles de manera independiente”.

Microsoft creará infraestructura para vehículos conectados

Los vehículos conectados ya son una realidad pero, ¿son seguros?

Coches conectados, ¿quién controla tu vehículo?

Categorías: Noticias

Empresa que capitaliza con el infortunio de Equifax obtiene sus datos de… Equifax

Mié, 10/18/2017 - 05:08

LifeLock es una de las numerosas empresas que capitaliza con el formidable perjuicio causado por Equifax a 143 millones de estadounidenses al exponer, por simple negligencia, sus datos personales como fechas de nacimiento, número nacional de identidad, domicilio, etc.

Aprovechando esta situación, LifeLock ha iniciado una intensa campaña de marketing, donde recalca sus servicios de protección frente a robos de identidad. “Recientemente, una importante empresa de valoración de crédito y riesgo experimentó una brecha de seguridad que, potencialmente, afecta a 143 millones de personas. No postergue más la contratación de protección frente a robos de identidad”, escribe la empresa en su sitio web.

Al respecto, la publicación Bloomberg cita a un ejecutivo de Symantec, propietaria de LifeLock, quien confirma un fuerte repunte en las ventas como resultado de la campaña. “Muchos están pagando la tarifa completa, en lugar de buscar descuentos. Ha sido una respuesta verdaderamente increíble por parte del mercado”.

Sin embargo, la publicación Phoenix New Times, escribe que LifeLock ha obviado mencionar a sus clientes que desde diciembre de 2015 tiene un contrato de cuatro años de duración con Equifax, mediante el cual le compra sus servicios de monitoreo de crédito. Comentando esta revelación, LifeLock explicó que “compra algunos productos y servicios de crédito a Equifax, que forman parte de los servicios de protección de identidad de LifeLock ofrecidos a los consumidores”.

Consultado por Phoenix New Times si la empresa considera reevaluar su relación con Equifax como resultado de la brecha de datos, un de LifeLock portavoz respondió: “continuaremos trabajando con todas las agencias de crédito debido a que el monitoreo es parte importante de la protección de identidad”.

Según la publicación, el CEO de Equifax, Richard Smith, intentó ocultar la relación de su empresa con LifeLock durante una reciente audiencia realizada en el congreso estadounidense.

El sitio de Equifax distribuyó malware esta semana

Hackers acceden al correo electrónico de Deloitte

Equifax explica brecha de seguridad y despide a dos gerentes

Sustraen a Equifax datos personales de 143 millones de personas

Categorías: Noticias

Commvault presenta infraestructura de protección de datos que escala horizontalmente

Mié, 10/18/2017 - 04:20

Ambas soluciones están disponibles como un appliance todo en uno o como un modelo de arquitectura de referencia que permitirá a las organizaciones elegir libremente su proveedor de hardware, con el fin de satisfacer sus requisitos específicos según vayan creciendo en el futuro.

“Las soluciones Commvault HyperScale Software aportan la capacidad de escalar horizontalmente a Commvault Data Platform y se integran sin problemas con cabinas de almacenamiento, hipervisores, aplicaciones y la gama completa de soluciones de proveedores cloud para dar soporte a los entornos más diversos y dinámicos”, escribe la empresa en un comunicado, agregando que los clientes pueden utilizar las soluciones Commvault HyperScale Software de dos maneras: Commvault HyperScale Appliance y Commvault HyperScale Software.

En un comunicado, Commvault señala que Commvault HiperScale Software protege y asegura el movimiento de las cargas de trabajo en entornos híbridos, a través de cualquier tipo de infraestructura, incluyendo la nube pública, la nube privada e instalaciones on-premise. La tecnología Commvault HyperScale aprovecha un entorno operativo integrado, así como las tecnologías de virtualización y almacenamiento de Red Hat para proporcionar una base robusta y de nivel empresarial.

“Como parte de nuestra impecable trayectoria de innovación en protección de datos, estamos muy satisfechos de presentar al mercado esta infraestructura única y altamente diferenciada para reemplazar arquitecturas obsoletas y productos puntuales que han probado ser ineficientes y estar desfasados”, comentó N. Robert Hammer, presidente y CEO de Commvault. Commvault HyperScale Appliance y Commvault HyperScale Software son opciones de infraestructura que proporcionan modelos de consumo flexibles mientras ayudan a los clientes a reemplazar hardware heredado costoso, evitando la dependencia de un fabricante en particular obteniendo agilidad, flexibilidad y ahorros en la nube que antes no eran posibles”.

Modernizando las arquitecturas de datos

El lanzamiento de Commvault HyperScale Appliance y Commvault HyperScale Software aborda el cambio continuo que las empresas están haciendo respecto al almacenamiento secundario, como un medio para impulsar las iniciativas clave de transformación de negocio y de TI. Commvault cree que aproximadamente el 70% de los datos de los clientes se consumen como copia secundaria y, por lo tanto, las soluciones HyperScale pueden satisfacer las crecientes demandas del mercado de almacenamiento secundario al ofrecer a las empresas una plataforma unificada y moderna de protección y gestión de datos que ofrece servicios similares a la nube en instalaciones on-premise.

Las demandas de almacenamiento secundario y la necesidad de encontrar un nuevo valor a partir de los datos de copias secundarias están impulsando a los clientes a buscar alternativas para almacenar y administrar cargas de trabajo de datos cada vez mayores y alejarse de los appliances tradicionales construidos con el propósito de escalar de forma vertical. Commvault está en una posición única para ofrecer a los clientes una verdadera cobertura a nivel empresarial, con un enfoque moderno de escalado horizontal, para satisfacer estas demandas, al tiempo que aporta un software de gestión de datos líder en el mercado totalmente integrado en la estrategia.

“Las arquitecturas de antes para la protección de datos empresariales son simplemente inadecuadas para el tipo de agilidad y eficiencia que las organizaciones modernas de todos los tamaños demandan”, afirma Jason Buffington, analista principal de protección de datos de ESG. “Commvault cuenta con un largo historial de innovación continua, y ha ido adelantándose a las demandas del mercado en respuesta al panorama de protección de datos altamente cambiante. Como tal, no es sorprendente ver a Commvault alterando el status quo de los dispositivos heredados y los enfoques anticuados, así como alejándose de las alternativas de nicho, con sus ofertas HyperScale”.

Commvault HyperScale Appliance, en tanto, es una solución de infraestructura de datos diferenciada que integra computación, almacenamiento, networking, virtualización, backup y recuperación, gestión del ciclo de vida completo de los datos y analíticas en una única plataforma tanto para el centro de datos como la nube. Basada en la tecnología líder de Commvault, permite a los usuarios disminuir la complejidad y el coste mientras incrementa tanto la escalabilidad como la agilidad de las TI. Debido a que esta solución está pre-diseñada, construida, vendida y soportada por Commvault, los clientes ahorran tiempo en la adquisición de hardware, la instalación e integración, así como en la gestión diaria, solución de problemas y actualizaciones.

Commvault HyperScale Appliance protege y gestiona los datos a través de múltiples oficinas remotas, delegaciones y centros de datos con una única y potente solución que permite escalar de forma horizontal. Como resultado, Commvault ofrece un appliance con capacidades de datos desde los 32tbs hasta los 80tbs (de almacenamiento utilizable), con la posibilidad de escalar horizontalmente en cualquier número de configuraciones para satisfacer las necesidades de los clientes y en el rango de múltiples PBs. Los clientes obtienen una solución sencilla y fácil de utilizar para la gestión y el almacenamiento de los datos con un soporte simplificado y con una sola llamada para toda la solución.

Categorías: Noticias

Chrome incorporará motor antivirus

Mar, 10/17/2017 - 23:50

Chrome Cleanup utilizará ahora el motor de análisis con tecnología NOD32 para eliminar de forma transparente para el usuario cualquier amenaza potencial en Chrome. La información ha sido proporcionada por ESET, que describe la herramienta como resultado del trabajo conjunto con Google. “Es una versión mejorada de Chrome Cleanup, que analiza y limpia cualquier tipo de malware en el navegador de Google con el objetivo de que sus usuarios puedan disfrutar de Internet de forma segura y sin interrupciones”. Chrome Cleanup combina el motor de detección de ESET con la tecnología sandbox de Google.

“Los ciberataques son cada vez más complejos y difíciles de prever, por lo que cualquier usuario puede convertirse en una víctima cuando visita sitios peligrosos desde los que se descarga software malicioso y no deseado”, comenta ESET, agregando que Chrome Cleanup alerta a los usuarios de Google Chrome de amenazas potenciales cuando detecta la presencia de software no deseado. En tal caso, ofrece la opción de eliminarlo automáticamente. La herramienta de ESET trabaja en segundo plano sin que el usuario lo note y sin interrumpir la navegación. Además, elimina el software malicioso y notifica al usuario una vez que el sistema está limpio de aplicaciones o herramientas peligrosas.

“Usar Internet debería ser siempre una experiencia segura para cualquiera”, afirma Juraj Malcho, director de tecnología de ESET. “Desde hace 30 años, ESET ha desarrollado numerosas soluciones que permiten a los usuarios disfrutar de la tecnología eliminando las ciberamenazas que nos rodean. Chrome Cleanup elimina el software no deseado que puede influir de forma negativa en los usuarios que están disfrutando de Internet”.

Categorías: Noticias

David Cheriton, el académico impulsor de la revolución de redes autoadaptables

Lun, 10/16/2017 - 13:34

En septiembre, Cheriton fue galardonado como “Ídolo en Innovación Tecnológica” por NetEvents, por su aporte formidable y sostenido, en los últimos 36 años, a la industria de las redes informáticas. En 2016, Cheriton aportó su capital personal al Sistema Operativo Apstra (AOS) y así, en cuestión de meses, las redes autoadaptables se convertirían en la palabra de moda en TI.

Así, mientras AOS se perfila como la nueva revolución en redes para centros de datos, el analista Alan Zeichick entrevistó a David Cheriton, actualmente director del Grupo de Sistemas Distribuidos de la Universidad de Stanford.

¿Qué lo atrajo a este trabajo?
“Siempre me ha interesado el desafío máximo; es decir, cómo construir estos complejos sistemas distribuidos. Tuve la suerte de que las redes ganaran relevancia en informática justo cuando me sumé a la investigación científica sobre al tema. Ethernet estaba en sus inicios cuando llegué a Stanford”.

Gigabit Ethernet fue el punto de partida de su carrera empresarial, cuando junto a Andy Bechtolsheim fundó en 1995 Granite Systems, que un año después venderían a Cisco: “Hubo quienes creyeron que yo sabía de negocios”. Entre esos admiradores estaban Sergey Brin y Larry Page, quienes en 1998 acudieron a él y a Andy en búsqueda de asesoramiento. En ese entonces, los fundadores de Google se interesaban por licenciar su tecnología de búsquedas fuera de Stanford. En realidad, fue Andy quien les firmó el primer cheque, antes de que Sergey y Larry siquiera hubieran abierto una cuenta bancaria para su proyecto. Posteriormente, David firmó el segundo cheque, por US$ 100.000.

Cheriton ha invertido más de US$ 50 millones de su propio bolsillo, en al menos 20 empresas, incluidas VMware y Arista Networks. Confiesa que nunca se dio cuenta de cuán disruptiva sería la tecnología de VMWare: “Pensé que era una tecnología genial y de utilidad, lo que me inspiró confianza en que crearían un buen producto. Por lo tanto, concluí que sería una buena inversión”. Mayor fue su intuición al entender que las redes definidas por software (SDN) pronto impulsarían un crecimiento masivo en las redes de centros de datos, junto a una demanda por mayor rendimiento y funcionalidad. Para el caso de Arista, un factor a su favor fue el uso de silicio comercial: “lo que significó que pudimos crear una empresa de redes sin tener que crear ASICs (circuitos integrados de aplicaciones específicas). Identifiqué una oportunidad de desarrollar software mucho mejor que el disponible hasta entonces, ejecutándose en switches”.

Con una trayectoria como la suya, la atención se concentra en su última apuesta, Apstra. Para empezar, ¿por qué financió Cheriton la compañía con fondos propios en lugar de conseguir capital de riesgo? Al respecto, pone de relieve que “cuando los inversores de capital de riesgo saben que tú tienes la capacidad de financiar el proyecto, lógicamente preguntarán por qué no lo haces. Por cierto, algo que creo haber aprendido de Andy Bechtolsheim es lo genial que resulta crear un producto realmente bueno, que prácticamente se venda solo; eso requiere un poco más de tiempo, un poco más de paciencia. Los fondos de capital de riesgo, en tanto, se basan en una especie de cronograma más rígido en cuanto al retorno de su inversión. Por lo tanto, ejecutar la idea de la forma que te parece realmente correcto te da un poco más de libertad”.

¿Qué significa “realmente correcto” en este caso?
El Sistema Operativo Apstra (AOS) es un sistema operativo distribuido para redes de centros de datos, que no depende de fabricantes específicos. Esto permite cualquier combinación de hardware de marca propia o de caja blanca, desacoplando el diseño de la red y las operaciones de los niveles inferiores. Para el caso de hardware de proveedores específicos, estas operaciones requieren un flujo de trabajo manual que las hace más propensas a errores. A nivel de servicio de red, AOS hace posible especificar “intención” en lugar de una especificación detallada; luego generará automáticamente configuraciones para las diversas opciones de hardware y auto-validará el estado de la red con respecto a la intención original, con una agilidad de servicio y confiabilidad drásticamente mejoradas.

Mansour Karam, CEO y cofundador de Apstra, compara este enfoque “impulsado por la intención” con un coche sin conductor. Una simple intención, como “encuentre un espacio disponible y estacione”, representa un conjunto altamente complejo de observaciones individuales, mediciones, decisiones y acciones combinadas con monitoreo y correcciones continuas, hasta completar la tarea. Indudablemente, un automóvil sin conductor cumplirá automáticamente esa intención en tiempo real, sin necesidad de una larga secuencia de comandos. En el contexto de AOS, la intención puede ser bastante compleja. Consideremos, como ejemplo, este breve texto tomado del sitio web de Apstra: “Proporcionar conectividad a 1000 servidores, usando acceso en del borde de las capas 2 y 3, con sobresuscripción 1:1 en el núcleo (es decir, sin sobresuscripción), con endpoints como hosts, máquinas virtuales o contenedores agrupados en dominios de aislamiento (incluyendo tráfico y aislamiento de direcciones) … ” y así sucesivamente. Cualquier cambio en una intención solo requiere unos pocos clics del mouse, y AOS elaborará automáticamente nuevas configuraciones para cualquier equipo, de cualquier proveedor.

No hay nada parecido en el mercado. Aunque hay algunas herramientas que automatizan procesos específicos, ninguna de ella ofrece un todo integrado, con validación continua en tiempo real. Nada se compara a esta capacidad de expresar una intención comercial, y verla directamente incorporada al diseño y validada para el ciclo de vida. Esto beneficia directamente a todo interesado en reducir drásticamente el esfuerzo de diseño, creación, despliegue y operación de una red de centros de datos.

“Apstra podría convertirse en una compañía de redes de gran relevancia en la industria”, asegura David Cheriton. “AOS se convierte en el sistema operativo de la red del centro de datos y, en ese contexto, tendrás conmutadores o dispositivos que se conectan a ella como los controladores de un sistema operativo convencional. También se convierte en una base para automatizar el resto del centro de datos, habiendo muchas áreas de automatización que se requieren a nivel de servidor y de aplicaciones. Un factor fundamental para esa automatización es poder entender la red y controlarla. Entonces, creo que estamos excelentemente posicionados para crecer en tal sentido y convertirnos en el sistema operativo del centro de datos”.

Consultado sobre la relevancia que AOS tiene para el floreciente Internet de las Cosas (IoT), Cheriton reconoció la creciente presión que está enfrentando la red, en cuanto a tolerancia frente a errores, y alta disponibilidad y desempeño. En cuanto a “velocidades y avances”, AOS está habilitando un crecimiento increíble. “El límite real de la tecnología radica en la solidez de nuestras aplicaciones, sumada a la solidez que logremos dar a las comunicaciones. Todo esto está directamente vinculado a la oportunidad que trae Apstra: necesitamos automatizar estos sistemas para que funcionen con la confiabilidad y la flexibilidad que se espera de las nuevas aplicaciones del ámbito IoT “.

“Con ello, Apstra está abordando un problema realmente fundamental … el problema del sistema operativo. ¿Cómo operas sistemas complejos basados en computadoras? La respuesta no puede ser ‘manualmente’. Simplemente no funciona. Las cosas están sucediendo a un ritmo vertiginoso, y con un alto grado de complejidad. Es muy difícil determinar, con la celeridad suficiente, qué está ocurriendo en la red, por lo que el procedimiento tiene que ser automatizado. Apstra está abordando exactamente ese problema con las redes de centros de datos, automatizando la administración de estas redes. La administración es una funcionalidad clave”.

“En mi opinión, la gerencia necesita saber cuando se están dando pasos en falso, para poder corregir las situaciones antes que estas se descontrolen. Esta perspectiva es absolutamente crítica. En Google, Amazon o Facebook, si un servidor individual falla, el usuario no lo notará. Si la red tiene un problema, todos lo notan. Esto es algo absolutamente fundamental para todas las empresas que aplican las TI, en cualquiera de sus formas”.

Entonces, ¿qué es lo que realmente impulsa a David Cheriton?
¿Es solo encontrar soluciones a los problemas – problemas complejos, problemas distribuidos? ¿Es acaso cambiar las redes, las comunicaciones y dar así una nueva forma a los negocios mundiales? En retrospectiva, al considerar sus numerosas inversiones y proyectos exitosos, ¿qué es lo que más le enorgullece?

“Creo que lo que más me ha gustado ha sido todas las personas con las que he trabajado. Una de las cosas que realmente me fascinan de la informática es que hay muchas personas inteligentes y trabajadoras apasionadas por la tecnología, por lo que es muy emocionante crear un equipo y constatar, cuando logras algo, que nadie pudo haberlo hecho individualmente, y que el resultado es fruto del trabajo colectivo. Entonces, creo que personalmente disfruto mucho de eso.

“El segundo elemento sería que … muchas personas se han beneficiado en su carrera y en su situación financiera en las empresas con las que he estado involucrado. Es agradable ver a que las personas tienen una vida mejor después de haber participado en empresas a cuya formación he contribuido”.

Entrevista completa

Ilustración: fotograma, entrevista (c) NetEvents

Apstra anuncia sistema operativo integrado para redes en centros de datos

Categorías: Noticias

El sitio de Equifax distribuyó malware esta semana

Vie, 10/13/2017 - 06:16

La publicación Ars Technica escribe que los días miércoles y jueves de esta semana, los visitantes al sitio web de Equifax corrieron el riesgo de sufrir una infección de malware.

Equifax ha sido noticia últimamente después que desconocidos sustrajesen los datos de 145,5 millones de estadounidenses desde sus sistemas, aparentemente debido a rutinas deficientes de actualización de software y parches de seguridad.

Respecto del incidente de esta semana, Ars Technica escribe que el experto en seguridad Randy Abrahams reportó que durante una visita al sitio de Equifax realizada el miércoles 11 por la tarde, hora de Estados Unidos, su navegador repentinamente abrió una pestaña con el dominio centerbluray.info. Este sitio procedió a ejecutar un script que intentaba inducir al usuario a instalar una actualización falsa de Adobe Flash. En lugar de Flash, el script instalaba un archivo maligno denominado MediaDownloaderIron.exe.

Según el portal de detección de malware VirusTotal, el código maligno sólo fue detectado por Panda, Symantec y Webroot.

En un correo electrónico dirigido a Ars Technica, un representante no identificado de Equifax explicó que la empresa ha sido informada de la situación, y que está realizando las investigaciones correspondientes. La fuente agregó que el recurso que enlazaba al sitio maligno ha sido desconectado de su sitio web.

Fotografía Whatleydude vía Flickr (con licencia de Creative Commons). El individuo fotografiado no tiene relación alguna con Equifax

Sustraen a Equifax datos personales de 143 millones de personas

Equifax explica brecha de seguridad y despide a dos gerentes

Categorías: Noticias

Internet de las Cosas y la seguridad: un desafío permanente

Vie, 10/13/2017 - 05:14

Gartner estima que para el año 2020 más de la mitad de los nuevos sistemas y procesos de negocios tendrán ya algún elemento vinculado con la Internet de las Cosas (IoT). De hecho, para este año 2017, la consultora prevé que el gasto en IoT de las empresas corresponda al 57 por ciento de los ingresos totales del sector en este año. Asimismo, su informe apunta a que las zonas geográficas con mayor impulso del tema serán China, América del Norte y Europa Occidental, ya que albergarían el 67 por ciento del total de dispositivos instalados en este año.

Todo esto trae nuevos desafíos para las empresas; uno de los de mayor impacto se relaciona con la seguridad dada la integración de soluciones basadas en Internet de las Cosas.

Básicamente porque es una de las plataformas más buscadas para comprometer y tomar el control y desde donde luego se generarán ataques de diferentes tipos, lo que sucede ya que la mayor cantidad de dispositivos que componen estas redes, no han sido creadas teniendo en cuenta la seguridad, quedando esta parte relegada y más a cargo del cliente que, en algunos casos, poco puede hacer.

Otro factor determinante en este tema es la rapidez, pues si un hacker encuentra una vulnerabilidad, se pueden infectar cientos de miles de dispositivos muy rápidamente, debido a que no siempre hay una monitorización activa de parte del usuario. Un ejemplo de esto son las botnets como Mirai y Bashlite, que están formadas por dispositivos IoT y a fines de 2016 fueron fuente de ataques de denegación de servicio (DDoS) con volúmenes que han superado los 600 Gbps de tráfico de ataque.

Por lo anteriormente mencionado y si consideramos que la consultora Gartner pronostica que para el año 2020, el sector llegará a los 20.400 millones de objetos conectados; debemos tomar conciencia que nos exponemos a una serie de peligros y vulnerabilidades que pueden afectar a nuestra infraestructura digital, y por consiguiente al acceso y disponibilidad de la información estratégica.

De allí que la estrategia de seguridad para proteger el ecosistema informático y las operaciones de las empresas y organizaciones debe abordarse de manera integral, colaborativa y en tiempo real.

Por Pablo Dubois, Gerente Regional de Productos, Data Center y Seguridad Level 3 Communications, América Latina

Factor Humano: ¿El Eslabón Más Débil en la Seguridad?

Categorías: Noticias

Por qué la tecnología multiespectral está revolucionando la industria de la seguridad

Vie, 10/13/2017 - 04:47

Verificar la identidad de un usuario con total seguridad y fiabilidad no es posible utilizando solo un documento de identidad y una fotografía. En esos días ni los nombres de usuario con las contraseñas son funcionales al momento de identificarse de forma segura. Lo ideal es tener la posibilidad de contrastar esta información con la real identidad biométrica del usuario.

En ese sentido, uno de los más sofisticados sistemas es la tecnología multiespectral, que comenzó su desarrollo hace más de quince años durante una investigación médica en la que se buscaba un método más rápido, efectivo y sin dolor para detectar los niveles de azúcar en sangre de las personas diabéticas.

Durante el estudio se encontró, que al leer la primera capa visible de piel (epidermis) y la segunda capa no visible de piel (dermis) era posible crear una imagen perfecta de la huella digital humana, con lo que el uso médico de este sistema migró a un uso comercial, más exactamente en el segmento de la seguridad.

Para su funcionamiento, los sensores de tecnología multiespectral usan diferentes longitudes de onda de luz para capturar una imagen tanto de la huella digital externa de la persona como de su “huella digital interna” idéntica, es decir, el patrón vascular que se encuentra en la capa sub dérmica. La tecnología multiespectral va más allá de la piel, de lo que se ve, y entrega una identidad exacta y confiable.

Ventajas únicas

Una de las principales ventajas de esta tecnología en comparación a otras tecnologías de lectura de huellas digitales, es la posibilidad de capturar imágenes de alta calidad incluso cuando los valles y las crestas del dedo son difíciles de leer debido a múltiples factores: dedos secos, húmedos, con polvo, grasa, cicatrices, dedos muy maltratados o con poca calidad, por ejemplo, los dedos de adultos mayores, los cuales al perder colágeno sus huellas no son leídas fácilmente. De esta manera se supera el principal problema de operación de otras tecnologías de lectura de huellas digitales.

Una de las ventajas del uso de la tecnología Multiespectral es la detección de huellas falsas, fabricadas con goma, gel, silicón o plástico. Con todo lo anterior, las posibilidades de fraude, robo de identidad o uso de huella falsificada se disminuyen sustancialmente, fenómenos que anualmente causan pérdidas cuantiosas de dinero en distintas industrias, sobre todo en la financiera.

Precisamente, han sido las entidades financieras y las del sector gobierno las más rápidas en adoptar el uso de la tecnología multiespectral, dados sus evidentes resultados en protección de identidad, disminución de fraude externo e interno, fuga de capital por robos, rendimiento y capacidad de lectura en ambientes difíciles.

Esta tecnología al usar estándares internacionales de interoperabilidad, hace que las huellas tomadas en estos equipos puedan ser leídos en equipos de otras marcas, o bases de datos biométricos tomados con otras tecnologías de lectura de huella digital puedan ser leídos por estos equipos.

Otra ventaja importante de la tecnología multiespectral es la capacidad de operar eficazmente con cualquier usuario, a cualquier hora, con cualquier tipo de piel y enfrentando cualquier situación climática: lluvia, ambientes fríos, secos o calientes. Asimismo, permite una alta productividad en las empresas, requiere un mantenimiento mínimo y reduce dramáticamente el costo de operación del sistema. En suma, incrementa la rentabilidad de la inversión.

Casos exitosos en el mundo

La tecnología multiespectral tiene múltiples usos en distintas industrias. Sobre su implementación existen en el contexto global diversos casos de éxito en sectores como el financiero, gobierno, salud y ocio.

En ese sentido, vale la pena mencionar el caso de un parque de atracciones ubicado en Estados Unidos al que anualmente ingresa un promedio de ochenta millones de usuarios mediante pasaporte de acceso. Antes de la instalación de esta tecnología había fraudes en la compra del pasaporte por parte de la persona que lo usaba. Esta situación se eliminó gracias a la implementación de tecnología de biometría multiespectral.

Otro ejemplo muy relevante en tanto que tiene relación directa con la vida humana es la de diversos hospitales en Estados Unidos que utilizan este sistema para dispensar medicamentos controlados, tener acceso a historias clínicas de los pacientes y hacer un seguimiento personalizado. El personal médico puede verificar su identidad sin necesidad de quitarse los guantes de látex, lo cual agiliza los procesos y hace el sistema más amigable.

El sistema financiero brasileño usa la tecnología multiespectral en la mayoría de los bancos, teniendo a la fecha 85 millones de clientes enrolados, 120,000 cajeros automáticos habilitados con biometría y realizando 4 billones de operaciones biométricas al año.

Por Juan Carlos Tejedor, Director de Ventas de HID Biometrics – Lumidigm® para América Latina

Categorías: Noticias

Cisco afina su oferta de redes auto-adaptables para centros de datos y nubes privadas

Vie, 10/13/2017 - 04:11

Cisco ha presentado la última versión de su solución de redes definidas por software (SDN, Software-Defined Networking). Application Centric Infrastructure (Cisco ACI) 3.0 incluye importantes mejoras que facilitan a las organizaciones la adopción de redes para los centros de datos capaces de auto-adaptarse a las necesidades de negocio (intent-based networking).

Con esta actualización, más de 4.000 clientes de ACI pueden incrementar su agilidad de negocio mediante las capacidades de automatización de red, gestión simplificada y seguridad reforzada. Estas funcionalidades pueden aplicarse a cualquier combinación de cargas de trabajo en contenedores, máquinas virtuales o entornos bare-metal tanto en data centers on-premise como en nubes privadas.

“Los centros de datos están sufriendo importantes transiciones. A pesar de la creciente complejidad de los data centers y entornos multi-Cloud, las empresas deben mejorar su velocidad, flexibilidad, seguridad y escalabilidad”, escribe la empresa, explicando que ACI 3.0 responde a estas demandas con funcionalidad que incluye:

Gestión multi-site: permite conectar y gestionar con gran facilidad múltiples fabrics ACI geográficamente distribuidos, mejorando la disponibilidad al aislar dominios que fallan y proporcionando una visión global de las políticas de red a través de un único portal de gestión. Esto simplifica enormemente la recuperación frente a desastres y la capacidad de escalar las aplicaciones horizontalmente.

Integración de Kubernetes: los clientes pueden desplegar sus cargas de trabajo como micro-servicios en contenedores, definir las políticas de red mediante este sistema open-source y obtener modelos de red unificados para contenedores, máquinas virtuales y entornos bare-metal. Esta capacidad traslada a los contenedores el profundo nivel de integración que ACI ha mantenido con numerosos hypervisores.

Flexibilidad operativa y visibilidad mejoradas: la Interfaz de Usuario de próxima generación simplifica el uso de ACI con nuevas y consistentes plantillas, vistas topológicas y asistentes para la resolución de problemas. Además, ACI incluye ahora capacidades mejoradas de inserción y eliminación, soporte de sistemas operativos combinados y gestión de cuotas, así como medición de latencia a través de terminales fabric para la resolución de problemas.

Seguridad: ACI 3.0 refuerza la protección de las redes mitigando ataques de simulación de IP/MAC con la integración de First Hop Security, autenticando cargas de trabajo in-band de forma automática y ubicándolas en grupos de seguridad contrastados, además de facilitar un reforzamiento de políticas granular para terminales integrados en el mismo grupo de seguridad.

Ish Limkakeng, vicepresidente senior de Redes para Data Centers en Cisco declaró: “A medida que las organizaciones adoptan estrategias multi-cloud, demandan una mayor sencillez a la hora de gestionar y escalar sus entornos. Al automatizar operaciones básicas de TI con políticas centralizadas a través de múltiples data centers y geografías, la nueva capacidad de gestión multi-site de ACI ayuda a los responsables de red a mover y gestionar cargas de trabajo con mayor facilidad y desde una única consola. Esto refuerza aún más la intención de Cisco de facilitar ACI en cualquier entorno (ACI Anywhere)”.

En tanto, Dan Conde, analista de Enterprise Strategy Group, señaló: “Con ‘ACI Anywhere’, Cisco ofrece una solución escalable para ayudar a los clientes a optimizar sus entornos multi-cloud y multi-site. Su integración con gestores de clústeres de contenedores y sus mejoras de seguridad zero-trust convierten la solución en una innovadora oferta para el mercado, tanto para grandes proveedores de servicios como para grandes empresas y pymes”.

Por su parte, Raúl Tomás, responsable de Redes IaaS en la división de Arquitectura y Despliegue Global de BBVA, añadió: “Hemos implementado Red Hat Virtualization y Cisco ACI, y la próxima integración entre ambas soluciones nos permitirá trasladar los beneficios de la virtualización de red y de la simplificación de operaciones a nuestras granjas virtuales, tal y como hemos logrado para nuestra Infraestructura como Servicio (IaaS) OpenStack”.

Apstra anuncia sistema operativo integrado para redes en centros de datos

Cisco anuncia una red capaz de aprender, adaptarse y evolucionar

Categorías: Noticias

Los dispositivos inteligentes utilizados en los hospitales, objetivo de los ciberdelincuentes

Jue, 10/12/2017 - 10:22

El sector de la salud ha adoptado ampliamente el IoT. Los objetos conectados tienen un enorme potencial para salvar vidas: recopilan y analizan grandes cantidades de datos clínicos, y permiten a los profesionales ofrecer un tratamiento personalizado a cada paciente de forma rápida y remota. Sin embargo, estos dispositivos también ponen en riesgo los datos sensibles de los pacientes y el buen funcionamiento de las organizaciones médicas. El IoT de atención médica debe ser capaz de proteger toda la información que compila, transmite y almacena de los ciberdelincuentes. Y los que no incluyen medidas de seguridad avanzada de fábrica –la mayoría– están completamente expuestos.

Entonces, ¿cómo de vulnerable es el IoT utilizado en el sector sanitario? Para evaluarlo, es importante distinguir entre los diferentes tipos de objetos inteligentes. Por un lado, tenemos dispositivos médicos portátiles, que van desde una bomba de insulina a un marcapasos. Un ciberataque directo contra ellos podría servir para chantajear al paciente con dejar de hacerlo funcionar. Y, por otro lado, existen máquinas como dispensadores de farmacia inteligentes o estaciones de quimioterapia conectadas. Las posibilidades de que los ciberdelincuentes puedan poner en peligro la vida de las personas del hospital haciéndose con el control es realmente preocupante: los mismos datos que permiten a los médicos hacer ajustes en el funcionamiento de los objetos también pueden utilizarse de forma maliciosa al hackearlos.

Los diseñadores y fabricantes de IoT para el sector médico, así como las empresas y los pacientes que utilizan los dispositivos, tienen que tomar una serie de precauciones para minimizar los riesgos:

– Implementar un modelo de privacidad desde el diseño. Esta medida también es necesaria para cualquier empresa sujeta a la futura GDPR de la UE, y debería ser parte integrante del diseño de todo el IoT sanitarios.

– Asegurarse de que tienen un sistema de seguridad móvil y de endpoints avanzado. Un enfoque de protección integral, que garantiza que todos los equipos están protegidos con una sola arquitectura, es la mejor estrategia. Esta solución debe cubrir aspectos como la segmentación de red. Para ser capaz de mitigar los múltiples vectores de ataque avanzados, se deben incluir soluciones de prevención de amenazas.

– El Internet de las Cosas puede revolucionar la industria médica, pero también puede ser una invitación abierta a los ciberdelincuentes que quieran chantajear a hospitales y pacientes, robar datos y causar daño real. Los diseñadores, fabricantes, profesionales sanitarios y pacientes necesitan trabajar juntos para mantener este nuevo paisaje a salvo.

Por CheckPoint

Fotografía (c) Tyler Olson vía Shutterstock
Categorías: Noticias

Páginas