DiarioTI

Suscribirse a canal de noticias DiarioTI DiarioTI
El diario del profesional TI
Actualizado: hace 2 horas 22 mins

Siguiendo el ejemplo de China, Rusia prohibirá comercializar bitcoin

Jue, 10/12/2017 - 06:57

La publicación CNBC escribe que Rusia ha iniciado un proceso administrativo y judicial tendiente a prohibir el comercio de Bitcoin en ese país. El subdirector del Banco Central de Rusia, Sergey Chvetsov, habría declarado que es imposible seguir autorizando el acceso a una moneda tan sospechosa como bitcoin. “Estamos convencidos de que el uso de criptomonedas como bitcoin por parte de nuestros conciudadanos conlleva un riesgo desproporcionado”.

Las declaraciones del funcionario se suman a opiniones similares vertidas anteriormente por el Presidente Vladimir Putin. En caso de aplicarse, la medida implicaría el cierre de sitios de compra y venta de bitcoin, como asimismo de lugares que acepten pagos en esa criptomoneda.

En septiembre, China decidió aplicar una prohibición nacional al intercambio de bitcoin. En la oportunidad, el analista Jens Nordvik restó importancia al anuncio chino, señalando que la relevancia de China en el ámbito de bitcoin había disminuido significativamente ya que, en realidad, sólo llegó a representar entre el 10 y el 13 por ciento del comercio global en esa criptomoneda.

En la práctica, las decisiones de los gobiernos chino y ruso no impedirán a sus ciudadanos realizar transacciones en bitcoin, solo las dificultarán considerablemente. Sin embargo, la cotización de bitcoin podría verse resentida con el anuncio ruso, al igual que ocurrió en septiembre para el caso de China,

La publicación rusa RBC complementa la información señalando que el Banco Central y el gobierno ruso procederán ahora a diseñar un procedimiento para implementar la prohibición. La agencia TASS, en tanto, precisa que el Kremlin presentará un proyecto de ley específico para criptomonedas antes de fin de mes.

Fotografía (c) Vladimir Pimakhov vía Shutterstock

Lecciones que el bitcoin puede aprender de la fiebre del oro

Las transacciones bursátiles de Bitcoin superarán a las demás acciones

Bitcoin es un fraude condenado al fracaso, según el CEO de JP Morgan

Empresario aseguró haber creado bitcoin, pero ahora se niega a probarlo

Categorías: Noticias

Metamorfosis empresarial: Las tres etapas de una Transformación Digital exitosa

Mié, 10/11/2017 - 05:59

Cuando el término Transformación Digital se utilizó por primera vez para describir la trayectoria de una empresa moderna, muchos consultores y especialistas de la industria descartaron su relevancia como sólo una nomenclatura o una evolución de las prácticas de negocio actuales. El tiempo ha demostrado que es real: los ejecutivos reconocen la gran necesidad de ofrecer al usuario final servicios digitales relevantes que se conviertan en valor agregado, comunicación y colaboración continua.

Waze, Uber y Airbnb son ejemplos de esta Transformación Digital. Hace 10 años no hubiéramos pensado hacer viajes con un mapa, subirnos al auto con un extraño o dormir en casa de un desconocido. Hoy son prácticas normales. Las personas se enfocan tanto en el valor que otorgan estos servicios digitales que sus expectativas han cambiado, y ahora lo impensable es no tenerlos disponibles.

Lo primero que cada CEO y ejecutivo debe preguntarse es cómo brindar valor a sus usuarios a través de un medio digital (sean aplicaciones móviles, herramientas en la nube o servicios basados en Internet), pero es indispensable entender, diseñar y desarrollar esa capacidad digital para sobrevivir y prosperar. Aun así, aunque conformar servicios digitales es esencial, no basta para asegurar el éxito y la diferenciación a largo plazo. El proceso de la Transformación Digital también se debe planear y realizar cuidadosamente en tres etapas sucesivas: continuidad de negocios, agilidad en los servicios y visibilidad.

Continuidad de negocios
El enfoque primordial es asegurar que cuando el servicio se solicite, esté disponible y presente de inmediato. Esta etapa se compone de dos elementos: alta disponibilidad y disponibilidad de los negocios.

La alta disponibilidad consiste en diseñar el servicio de tal manera que ninguna falla esperada cause interrupción. Por lo general se asocia con la virtualización —abstraer una carga de trabajo informática del servidor físico y equilibrar el servicio en varios componentes también físicos—. Sin embargo, la alta disponibilidad también abarca el agrupamiento de software en elementos comunes como bases de datos y servidores web.

La disponibilidad de los negocios, en tanto, consiste en diseñar el servicio de forma que no se vea afectado por las acciones humanas accidentales o intencionales. Los errores de configuración accidentales en la nube pública han producido horas de tiempo de inactividad, y la explosión de malware y ransomware han ocasionado la indisponibilidad de los servicios. Las repercusiones financieras y empresariales de esos eventos son tan significativas que es difícil incluso enumerarlas.

Las acciones maliciosas también suponen un problema. Los empleados insatisfechos borran datos o deshabilitan sistemas intencionalmente, de ahí que sea necesario planear e implementar métodos que mitiguen estos problemas. Con frecuencia se relacionan con el respaldo y la replicación de los datos, pero también con la validación continua de que tales prácticas sean suficientes y puedan aplicarse para restaurar la disponibilidad bajo presión. La automatización y coordinación son esenciales en este esfuerzo de recuperación.

Agilidad en los servicios
La llegada de los servicios en la nube y el modelo de servicio basado en consumo significan que las empresas pueden utilizar planes contra fallas en caso del colapso total del ambiente.

Planear y automatizar esta agilidad conduce a una entrega de servicios permanente. No obstante, la agilidad en la entrega de servicios no debe considerarse sólo desde una perspectiva de recuperación ante desastres, pues posee un importante valor empresarial conforme las compañías se expanden hacia regiones geográficas donde se requiere soberanía de datos, o para optimizar costos cada vez que los precios asociados con los servicios en la nube presentan una ventaja para la entrega a través de ese medio.

La agilidad también ayuda a las empresas que manejan picos en la demanda de servicios, como las instituciones de educación superior y las tiendas minoristas. Sus picos de demanda son, en ocasiones, insostenibles, ya que administrar el servicio en el pico de demanda más alto no es rentable. Un modelo de consumo para capacidad máxima sólo se puede utilizar de manera eficaz con la agilidad en los servicios digitales.

Visibilidad
La última etapa de la Transformación Digital tiene lugar después de que una compañía cuenta con una completa continuidad de negocios a través del respaldo y la replicación, una agilidad en los servicios mediante automatización y coordinación, y cuando avanza hacia la activación de un autoservicio completo a nivel de departamento o línea de negocio. Esto requiere visibilidad en toda la empresa.

El departamento de TI ya no desempeña el papel de soportar o habilitar activamente el servicio digital, sino que se vuelve totalmente transparente debido a que las decisiones se toman vía una visibilidad orientada a políticas y datos.

La Transformación Digital es un imperativo para la empresa, pero lo mejor es seguir una estrategia metódica para llevarla a cabo. La experiencia ha demostrado que la mejor forma de realizar esta metamorfosis es enfocándose en estas tres etapas, en su orden preciso.

Por Danny Allan, vicepresidente de Estrategia de Producto en Veeam Software

Categorías: Noticias

Detectan sobregiro fraudulento mediante hackeo en cajeros automáticos

Mié, 10/11/2017 - 05:42

La modalidad de ataque, que pone de relieve un alto grado de sofisticación, ha sido detectada por SpiderLabs de Trustware. Según la empresa, los ataques han estado ocurriendo desde marzo de este año.

Los atacantes dirigen sus ataques hacia bancos con escasas medidas de seguridad. En un informe disponible en el sitio de SpiderLabs (requiere registro), la empresa señala que los ataques no son obra de hackers solitarios, sino de un bien organizado sindicato internacional de delincuentes.

La empresa investigó robos en cinco bancos de Europa del Este. En cada incursión, los atacantes obtuvieron botines de entre US$ 3 millones y US$ 10 millones. Los bancos afectados han sumado pérdidas superiores a los US$ 40 millones.

La empresa recalca que las estimaciones corresponden únicamente a los bancos que la han contactado solicitando asistencia, por lo que otros potenciales afectados podrían estar guardando silencio, o quizás ni siquiera hayan detectado el fraude.

El modus operandi
Según Trustwave, cada ataque se desarrolló en múltiples etapas. La primera de ellas consistía en reclutar a individuos conocidos en jerga de hackers como “mulas”; es decir, personas que acudieron a los bancos para abrir cuentas bajo identidades falsas.

Los hackers procedieron luego a infectar las computadoras de los empleados del banco, moviéndose lateralmente dentro de la red del banco e identificando las estaciones de trabajo que tenían acceso a los sistemas internos de la entidad. Cuando estimaron necesario, los hackers incluso tuvieron la capacidad de comprometer a los proveedores del banco, encargados de proporcionar soluciones de administración de tarjetas de pago.

Al obtener acceso completo a todos los sistemas necesarios para perpetrar su fraude, los hackers coordinaron ataques a gran escala con las llamadas “mulas de retiro en efectivo” en uno o varios días.

Durante la noche, los hackers modificaron el límite de sobregiro en las tarjetas de débito creadas fraudulentamente, permitiendo que las “mulas” retirasen dinero de cajeros automáticos con límites más altos.

Cuando pudieron, los piratas informáticos también desactivaron los sistemas de detección de fraudes de tarjetas del banco. En caso contrario, enviaron a las “mulas” a países vecinos, retrasando la posibilidad de que el banco emisor detectara las transacciones fraudulentas.

Trustwave señala que los retiros de dinero ocurrieron minutos después de que el límite de sobregiro había sido modificado, mostrando un alto nivel de coordinación entre los diferentes integrantes de la pandilla cibernética y las mulas operativas.

Una vez retirado el dinero, los hackers iniciaron ataques con malware que destruiría el MBR (registro de arranque principal) de las computadoras infectadas, dañando su sistema de almacenamiento y obstaculizando así la investigación subsiguiente.

Los ataques son detallados en el informe de Trustwave SpiderLabs denominado “Post-Soviet Bank Heists: A Hybrid Cybercrime Study”, disponible para descarga desde su sitio (requiere registro). También sacamos los gráficos del informe en la infografía a continuación.

Fotografía (c) vía Shutterstock
Categorías: Noticias

W3C anuncia nuevo estándar para la gestión de pagos en navegadores

Mar, 10/10/2017 - 02:47

De manera gradual, la organización W3C está impulsando un nuevo estándar que simplificará los procedimientos para hacer pagos online. Para tal efecto, una API denominada Payment Request (solicitud de pago) delegará en los consumidores la responsabilidad de guardar los datos de sus tarjetas de crédito en los navegadores, al igual que ocurre actualmente con las contraseñas. Es decir, se eliminará la necesidad de contar con intermediarios como PayPal o Amazon.

Mediante el nuevo estándar, los sitios web podrán crear botones de un solo clic que permitirán comprar productos sin necesidad de introducir los datos de pago en todos y cada uno de los sitios de comercio electrónico, facilitando así considerablemente los procesos de compra online.

Al activar el botón, el navegador generará una ventana emergente que incluirá los detalles de pago y envío. El usuario puede seleccionar el método de pago y despacho de su preferencia, junto con una dirección de entrega, ambas previamente almacenadas en el navegador.

Chrome y Edge ya son compatibles con el nuevo estándar
Los navegadores compatibles con la API de solicitud de pago incluyen Google Chrome, que añadió soporte para la versión Android y desktop de su navegador en agosto de 2016 y septiemmbre de 2017, respectivamente.

Microsoft, en tanto, incorporó soporte para la API en Edge en septiembre de 2016, con la salvedad de requerir a los usuarios registrar una cuenta de Microsoft Wallet antes de utilizarla.

Firefox y Safari siguen trabajando en el soporte de la API, así como las implementaciones de navegadores propietarios de Facebook y Samsung.

Según W3C, la API de solicitud de pago funciona proporcionando un sistema que funciona indistintamente del navegador utilizado, para manejar transacciones financieras.

Cuando un usuario hace un pedido, el sitio web hace una llamada a la API, previamente conectada al navegador, enviando detalles sobre el pedido. A partir de ese momento, el navegador asume el resto de la transferencia, generando una ventana emergente que solicita detalles de la tarjeta cuando no exista un registro previo, como asimismo una dirección de entrega/envío que también se almacena en la sección de relleno automático del navegador.

Con estos detalles seleccionados, el navegador, y no el sitio web, contacta al controlador de pagos del usuario, que puede ser Visa, Mastercard o cualquiera de los otros proveedores de tarjetas de crédito.

Una vez que el pago ha sido autorizado, el navegador devuelve una respuesta a la tienda online, que registra la transacción y procede al envío del producto, al contar ya con una garantía de que el pago haa sido autorizado.

Mayor seguridad en caso de hackeo de tiendas
La API evita que los propietarios de tiendas tengan que almacenar datos de tarjetas de pago en sus servidores, reduciéndose así las posibilidades de que una tienda online exponga los datos de sus usuarios en caso de ser hackeada. Al trasladar el almacenamiento de los datos de la tarjeta de pago al navegador, la responsabilidad de mantener estos datos seguros es transferida al usuario.

Paralelamente, surge un nuevo reto de seguridad, por la nueva motivación que surge para delincuentes, interesados en apropiarse de la información financiera, que mediante el nuevo estándar quedará almacenada en los navegadores.

Se espera que el trabajo sobre el API de solicitud de pago finalice a finales de año, por lo que la implementación definitiva del estándar podría realizarse en el primer semestre de 2018.

Google Chrome Developers presenta, a grandes rasgos, la API en su canal de YouTube

Ilustración: fotograma, presentación de la API en YouTube
Categorías: Noticias

Programar, la alfabetización del siglo 21

Mar, 10/10/2017 - 01:04

En tiempos donde la tecnología forma cada vez más parte de la vida cotidiana, a todas las personas les resultará útil tener algunas nociones básicas de programación. Incluso, saber escribir código es un diferencial muy valorado por las empresas que tienen que seleccionar a sus próximos candidatos más allá de la carrera que hayan desarrollado.

Vale decir que no estamos hablando de tener la habilidad de desarmar una computadora, ni de desarrollar aplicaciones complejas, sino de contar con conocimientos adecuados para saber cómo aplicar la tecnología en cualquier ámbito.

Para esto, el primer paso consiste en perderle el miedo al acto de programar. Lejos de tratarse de una actividad sumamente difícil, está al alcance de cualquiera, ya que consiste en una actividad que, como cualquier otra, solo requiere de estudio y práctica (¡y ganas!), no de habilidades especiales o innatas.

Actualmente, existen propuestas como Scratch, los niños a partir de los 6 años ya están dando sus primeros pasos en el mundo de la programación. Cada vez más se va incorporando en las escuelas, de la misma manera que se aprende un segundo idioma, un deporte o un instrumento musical. Asimismo, organizaciones como la Fundación Sadosky impulsa “Estudiar Computación”, una web que ayuda a que los jóvenes descubran las oportunidades y beneficios que implica estudiar una carrera relacionada con las TIC.

En muchas partes del mundo se están llevando a cabo iniciativas para que todas las personas sea cual fuese su profesión y su edad, puedan aprender nociones de programación para ayudarlas a insertarse en el mercado laboral actual.

Programar es darle instrucciones a una máquina sobre qué debe hacer frente a determinadas condiciones. Para eso, hay que conocer lenguajes de programación, que son como los idiomas con los cuales las personas nos comunicamos a diario. En esta línea, un médico, un abogado o un estudiante secundario podrían empezar ya mismo a tomar cursos de programación, incluso a distancia, y sin costo, para incorporar conocimientos de manera autodidacta. Para esto, hay varias plataformas, como Coursera o Mumuki, así como también iniciativas públicas o privadas, como ProgramáTuFuturo o #yopuedoprogramar, que están especialmente preparadas para que los interesados den sus primeros pasos en el mundo de la programación, mediante lecciones y ejercicios en español.

Hoy las aplicaciones no sólo son parte de cualquier empresa sino también de nuestro día a día. Sólo se trata de integrar conceptos que antes funcionaban por separado y hoy se desarrollan de manera complementaria. En el marco de la transformación digital que estamos atravesando, las compañías tecnológicas en particular, y cualquier organización en general requieren de talentos integrales Por eso, los jóvenes deben estar atentos a esta tendencia para crecer en el ámbito laboral.

Por Leandro Balboni, Solutions Architect en Softtek Sudamérica Hispana

Categorías: Noticias

Microsoft y Softtek anuncian alianza para impulsar la transformación digital en Latinoamérica

Lun, 10/09/2017 - 13:08

Las tecnologías digitales ayudan a las empresas en cuatro áreas clave: interacción con los clientes, promoción de la participación de los empleados, optimización de los procesos y transformación de los productos. Esta alianza más amplia con Microsoft mejorará la capacidad de Softtek para brindar valor en esas áreas clave.

“La alianza con Softtek es un ejemplo más de nuestro profundo compromiso con las empresas de promover el cambio en la manera cómo integran a las personas, los datos y los procesos en plataformas digitales seguras e inteligentes”, dijo César Cernuda, Presidente de Microsoft Latinoamérica. “Es una medida que estamos tomando para apoyar la transformación digital de las compañías en nuestra región”.

El desarrollo económico y social de Latinoamérica se relaciona profundamente con su adopción de la transformación digital, que ya se considera una prioridad para las compañías líderes en la región. De acuerdo con IDC, el 86% de los CEO consideran la transformación digital su prioridad principal para cumplir sus objetivos empresariales.

Softtek, Socio Certificado de Microsoft desde hace 14 años, ofrece soluciones de integración de sistemas tanto a compañías grandes como empresas pequeñas y medianas en más de 20 países. Una de sus líneas de negocio más fuertes es la implementación de soluciones SAP bajo el modelo SaaS (Software como Servicio).

“Estamos mejorando nuestra capacidad de ayudar aún más a los clientes a cerrar la brecha digital y desarrollar aplicaciones y servicios a través de la completa plataforma en la nube de Microsoft”, dijo Blanca Treviño, presidenta y CEO de Softtek. “La tecnología de Microsoft y su sólido compromiso con Latinoamérica, combinados con nuestra presencia y conocimiento único de la región, es un gran activo que nuestros clientes también podrán aprovechar por medio de ofertas sumamente personalizadas”.

Softtek ofrecerá al mercado latinoamericano una serie de servicios y soluciones basados en la tecnología de Microsoft, incluyendo soluciones industriales del Internet de las Cosas, migración a la nube y soluciones SAP en la plataforma Azure.

Fotografía (c) Ken Wolter vía Shutterstock
Categorías: Noticias

SAS designa a Kleber Wedemann Director de Marketing para América Latina y Caribe

Lun, 10/09/2017 - 13:05

A lo largo de 2017, Kleber tuvo como uno de sus principales desafíos la implementación de proyectos de Account Based Marketing, la cual se basó en cuatro pilares fundamentales: relacionamiento con clientes, Marketing Digital, Eventos, y Contenido basado en Inbound Marketing.

Los resultados generados fueron significativos en lo que al aumento de métricas relevantes para la compañía se refiere, es decir, 437% sobre los resultados de los dos últimos años. Entre éstos se destacan la conversión de Adwords en leads, el aumento en el número de visitantes únicos al sitio y la ampliación del Share of Voice de SAS por medio de “Me Gusta” en Facebook y suscripciones en el canal de la empresa en Youtube, resultado de las iniciativas de Social Selling.

Con el éxito del trabajo realizado en el mercado brasileño, su objetivo ahora es replicar las mismas estrategias en los nuevos países bajo su gestión, así como la sinergia alcanzada junto a los equipos de ventas. “Contribuiré en que los profesionales de los demás países de la región latinoamericana trabajen de forma alineada, como lo han hecho los equipos de ventas en Brasil, que pasaron de tener un perfil ejecutor a uno estratégico”, afirmó Wedemann.

El ejecutivo también señaló que otro punto clave de su nueva etapa de trabajo serán los canales indirectos, con el objetivo de maximizar los resultados en toda a América Latina.

“Estamos muy felices en anunciar a Kleber como director de Marketing para América Latina. Él replicará en la región la metodología de trabajo y la eficiencia lograda en tan poco tiempo al frente de Marketing de SAS Brasil, para mejorar así la experiencia de nuestros clientes”, apuntó Andrew Dixon, vicepresidente de Marketing de SAS Canadá y América Latina.

Kleber estudió Publicidad en la Escuela de Comunicación y Artes de la Universidad de São Paulo (ECA USP), donde también cursó una maestría en Economía. Cuanta además con una maestría de la Northwestern University, Kellogg School of Management. Antes de incorporarse a SAS, colaboró con empresas como Verizon, Google, Oracle y HP, donde incluso despachó desde unidades ubicadas en Estados Unidos y Singapur. A lo largo de su carrera de más de diez años ha acumulado experiencia en disciplinas como Branding, Trade Marketing, y Marketing de Canales, entre otras.

Categorías: Noticias

Tecnologías para la salud y las claves para su éxito en Chile

Lun, 10/09/2017 - 12:56

Un reporte reciente de Forrester Research reveló que casi el 40% de analistas y tomadores de decisiones de datos globales ya están implementando y expandiendo su tecnología digital y de big data, y que el 30% planificó hacerlo en este año.

Si bien desarrollar e implementar la digitalización puede resultar un trabajo difícil, hay aspectos importantes que deben ser considerados, como integrar los componentes múltiples y sincronizar los distintos sistemas para que las soluciones hablen un idioma común, para lograr una visión integral de la empresa.

Así, las claves para el éxito de la incorporación de la tecnología en el sector de la salud van de la mano con la implementación de un ERP flexible y en la nube, que utilice el lenguaje de internet y la tecnología de código abierto para lograr los beneficios esperados. Que se pueda implementar on premise, en la nube o en forma híbrida. La movilidad también es indispensable, debe tener capacidad para análisis de big data, internet de las cosas, colaboración social, inteligencia artificial y machine learning.

Esta incorporación de la tecnología es muy evidente en el lado clínico del hospital. Beckers Healthcare recientemente publicó varias estadísticas de la ONC acerca de por qué los hospitales no usan la información electrónica sobre la salud de los pacientes, mostrando los siguientes resultados:

– El 53% de los hospitales reportan raramente usar la información electrónica de la salud del paciente porque no está en su DSE.

– 45% reportan dificultad para integrar la información de salud del paciente en su DSE.

– La información del informe del 40% no está disponible cuando es necesario.

– 29% de información no se presenta en un formato útil.

– 11% reportan desconfianza en la precisión de la información.

La ciencia de los datos es un componente fundamental para cualquier transformación digital, y es importante que se realice a través de un proveedor especializado con tecnología de vanguardia para conocer la problemática de la zona y ser un socio presente. Muchas veces las empresas adquieren sólo software de empresas generales que no cuentan con el respaldo de la industria o especialidad necesarias, principalmente por cuestión de costos que, dada la ineficiencia de los mismos, resultan ser más costosos a mediano y largo plazo.

La incorporación de soluciones tecnológicas para la salud mejora la toma de decisiones para responder a tiempo y de forma efectiva a las necesidades de un sector cada vez más demandado.

Por Joel Rydbeck, director Infor Healthcare América Latina

Categorías: Noticias

Aumentan ataques a sitios y servicios web seguros (HTTPS)

Lun, 10/09/2017 - 12:45

Los servicios en línea como la banca y el comercio electrónico sólo pueden tener éxito si los usuarios confían en que sus transacciones y sus datos personales confidenciales son verdaderamente seguros. El cifrado es lo que hace posible esos servicios. Sin embargo, es lógico pensar que los servicios cifrados están entre los principales objetivos de los ataques DDoS.

¿Qué podría ser más atractivo para un atacante que aquellos activos que son los más difíciles de alcanzar? El hecho de que algo esté encerrado en un poderoso resguardo denota el valor de la información. Además, los atacantes usan a menudo el cifrado para infiltrarse en el tráfico cifrado, haciendo sus ataques extremadamente difíciles de detectar.

SSL (Secure Sockets Layer) y TLS (Transport Layer Security) son los protocolos criptográficos más utilizados para asegurar transferencias de dinero, compras en línea y otras transacciones financieras, así como correo electrónico y acceso remoto. Las plataformas de medios sociales como Facebook y Twitter también utilizan SSL para proteger la privacidad del usuario. El aumento de los servicios dependientes del cifrado SSL ha detonado también el crecimiento de los ataques DDoS dirigidos a estos servicios cifrados. En el 12º Informe Anual Mundial de Seguridad de Infraestructura de Arbor Networks, el 52% de los profesionales de seguridad encuestados dijeron que habían experimentado ataques a servicios web seguros (HTTPS) en 2016, frente al 47% del año anterior.

En general, los ataques a la encriptación SSL simplemente intentan superar la capacidad de los servidores SSL para autenticar los intentos de comunicación, aunque existe una variedad de métodos que Arbor Networks ha detectado. Esto subraya la necesidad de medidas de seguridad que cubran el espectro de los tipos de ataque actuales, desde las inundaciones de fuerza bruta hasta los ataques de nivel de aplicación más precisos e insidiosos que se deslizan a través de las defensas y esperan su tiempo antes de golpear.

¿Qué ocultas en tu tráfico cifrado?

El desafío de los ataques a SSL se agrava cuando los propios ataques están encriptados. El cifrado SSL funciona recodificando datos de usuario para que los usuarios o dispositivos no autorizados no puedan leerlo mientras se mueve entre servidores. Esto es lo que garantiza la seguridad y la integridad de las transacciones comerciales en línea y las comunicaciones confidenciales. Sin embargo, también plantea riesgos. Los dispositivos de seguridad de red como firewalls e IPS normalmente no inspeccionan el tráfico cifrado. Un alto volumen de tráfico de Internet simplemente se mueve a la red sin ser visto. ¿Qué mejor lugar para malware o botnets para ocultarse, esperando desencadenar ataques devastadores? Esto permite a los hackers aprovechar las ventajas de SSL y aprovechar las herramientas maliciosas basadas en navegador para dirigir ataques a servicios HTTPS, esencialmente ocultos de la detección.

La forma más eficaz de inspeccionar el tráfico SSL es descifrarlo, lo que, por supuesto, pone a los servicios legítimos en riesgo de verse comprometidos o, como mínimo, interrumpidos. Esto requiere una solución que pueda inspeccionar el tráfico cifrado de forma segura y dar fe de su autenticidad sin ralentizar la cola de tráfico ni exponer el tráfico autorizado a los intrusos.

Sin duda, el cifrado es un componente esencial y fundamental de la seguridad en línea. Pero el trabajo de asegurar los servicios críticos no termina con el cifrado, ya que los actores maliciosos diseñarán métodos cada vez más inteligentes para tratar de romperlo. Para garantizar la integridad y la disponibilidad sin obstáculos de los servicios seguros, se necesitan capacidades integrales y completas que abarquen inteligencia, detección y mitigación de amenazas.

Por Carlos Ayala, Solution Architect LATAM, Arbor Networks

Categorías: Noticias

Los retos en la calidad de las aplicaciones móviles

Lun, 10/09/2017 - 12:42

Es un hecho que uno de los desafíos fundamentales al que tienen que hacer frente las organizaciones en la actualidad es el de la Movilidad. No en vano, según afirma Gartner en su estudio Market Guide for Mobile Application Testing Services, el 70% de las interacciones que se llevarán a cabo en 2022 tendrán lugar sobre un dispositivo móvil, y en 2020 ya habrá 21.000 millones de dispositivos conectados.

Si esa previsión se cumple, gran parte del negocio de cualquier tipo de empresa dependerá del correcto funcionamiento de sus aplicaciones móviles, por lo que garantizar la calidad de las mismas se convierte en un factor prioritario a la hora de asegurar la competitividad de la organización. La actividad de testing es uno de los factores más relevantes dentro del proceso de desarrollo de software, sin embargo, la actividad de pruebas en un entorno móvil presenta ciertas singularidades. Así, en el mencionado estudio de Gartner se dice que:

Los servicios de pruebas en entornos móviles son substancialmente diferentes a los servicios de testing de aplicaciones tradicionales, al aparecer una complejidad añadida en cuanto a múltiples plataformas, redes, sistemas operativos, así como por la variedad de dispositivos y sensores.

La experiencia de usuario resulta clave al hablar de movilidad, ya que puede generar unos requisitos específicos relacionados con el proceso de pruebas, así como consideraciones especiales que tienen que ver con el aspecto geográfico y con el de seguridad.

El uso de Agile y DevOps para lograr resultados con la rapidez que el negocio necesita, requiere diferentes enfoques y habilidades en las pruebas móviles, incluyendo una mayor automatización y un enfoque más colaborativo.

A los puntos anteriores, habría que añadir, además, la complejidad del nuevo entorno digital, con unos time-to-market cada vez más cortos, unos presupuestos cada vez más ajustados, unos usuarios con un alto nivel de exigencia y una normativa que hay que cumplir y que afecta a múltiples funcionalidades de la aplicación: contenidos, accesibilidad, protección de datos, etc.

Con este panorama, el testing incrementa, si cabe, su protagonismo en el desarrollo de aplicaciones móviles, comenzando en las fases más tempranas y extendiéndose a lo largo de todo el proceso. La ejecución de pruebas de forma continua es la única fórmula posible para poder asegurar la calidad de la aplicación teniendo en cuenta, precisamente, su contexto móvil y considerando el cumplimiento de las características de funcionalidad, usabilidad, seguridad y rendimiento que garanticen el resto de requisitos. No olvidemos que finalmente el objetivo que debemos tener siempre en mente es desarrollar una aplicación móvil que permita a la empresa propietaria incrementar sus ventas, mejorar la reputación de marca, cumplir las expectativas de los usuarios y minimizar el tiempo de aprobación de la aplicación en las diferentes market stores.

Pruebas y Métodos para Asegurar la Calidad de las Aplicaciones Móviles

Esta actividad de aseguramiento de la calidad debe incorporar, en primer lugar, una serie de pruebas funcionales, que se llevan a cabo considerando las características propias de los diferentes dispositivos. Asimismo, es necesario observar el comportamiento y los posibles fallos de la aplicación cuando la transacción u operación pueda verse afectada por una situación de batería baja, entrada de llamadas o mensajes mientras se lleva a cabo una operación con la misma o corte en la comunicación.

Por otra parte, la característica de usabilidad adquiere especial relevancia cuando se dirige a dispositivos móviles. Aquí, las pruebas deben orientarse a comprobar que su diseño e interfaz resulten sencillos e intuitivos, así como que el flujo de comunicación entre la aplicación y el usuario se establezca de forma natural y lógica. También es conveniente prestar atención a los caracteres especiales de escritura de los diferentes idiomas, las monedas de cada país, los formatos de códigos postales, fechas, direcciones, números de teléfonos…, asegurando su correcta visualización dependiendo de la zona geográfica en la que se encuentre el usuario en cada momento.

Por otra parte, con el fin de prevenir errores que causen el abandono de la aplicación debido a caídas o a un tiempo excesivo en su ejecución, lo más apropiado es acudir a las pruebas de rendimiento. Un alto consumo de batería, la velocidad a la que se desarrolla la aplicación dependiendo del navegador utilizado o las características de cada sistema operativo, pueden ser factores que influyan de forma decisiva en este apartado.

El comportamiento de una aplicación móvil también preocupa al usuario desde el punto de vista de la seguridad, ya que estarán disponibles en dispositivos que pueden ser susceptibles de robo o de uso fraudulento. En este sentido, resulta imprescindible asegurar, entre otros factores, que la app mantenga la confidencialidad de los datos privados facilitados, la verificación de que el usuario es quien dice ser, los diferentes perfiles que puede tener un usuario dentro de la misma aplicación o el autoguardado de un histórico de operaciones o actividades realizadas.

Finalmente, en lo que al desarrollo de aplicaciones móviles se refiere, aún queda un factor a tener en cuenta. En su informe, Gartner dice que “Dado que las aplicaciones móviles impulsan el negocio digital y el éxito está determinado por la experiencia del usuario, las aplicaciones móviles suelen estar lideradas por las unidades de negocio en lugar de por los departamentos de TI”. Esta realidad supone un cambio en las estrategias tradicionales de desarrollo, en las que los equipos implicados venían trabajando de forma aislada. La solución pasaría por la incorporación de nuevos modelos y técnicas de trabajo, como DevOps y Agile, que faciliten la colaboración de todos las partes implicadas, agilicen y flexibilicen los procesos y garanticen la calidad final del aplicativo.

La necesidad de un Especialista en Testing

Gartner concluye en su estudio diciendo que “este mercado está evolucionando con rapidez. Actualmente, sigue estando bastante fragmentado y desestructurado, lo que supone añadir más confusión a las empresas. No existe una única herramienta que sea capaz de abordar todas las necesidades relacionadas con las pruebas, y las organizaciones no suelen contar con las capacidades necesarias para gestionar las pruebas internamente”.

Con el fin de facilitar la búsqueda de un especialista de servicios de testing de aplicaciones móviles, el informe de Gartner ofrece una lista de proveedores clasificados en tres categorías: “Global Full-Service Providers”, “Midtier, Full or Subset IT Services Providers”, y “Pure-play testing service providers”. MTP aparece mencionada dentro de esta última categoría.

Por Raquel Jiménez, Head of Applications Services de MTP, MTP International. Digital Business Assurance

Categorías: Noticias

Los cibercriminales lanzan ciberataques complejos de bajo coste

Lun, 10/09/2017 - 12:32

Los analistas de Kaspersky Lab han identificado una nueva e importante tendencia en la forma en la que operan los cibercriminales más sofisticados. Es cada vez más inusual que estos actores utilicen técnicas de ataques sofisticadas o costosas, como las vulnerabilidades zero-day, encontrándose más cómodos usando campañas de ingeniería social combinadas con técnicas maliciosas. Como resultado, son capaces de lanzar campañas dañinas que son extremadamente difíciles de detectar con soluciones de seguridad para empresas.

Este cambio en cómo trabajan demuestra que, en general, la infraestructura TI de las organizaciones modernas están llenas de puntos débiles que, potencialmente, permiten a los atacantes conseguir sus objetivos cibercriminales con unas herramientas relativamente poco costosas. Microcin, una campaña maliciosa recientemente investigada por los analistas de Kaspersky Lab, es un ejemplo de ataque económico y, también, peligroso.

Todo empezó cuando la plataforma KATA (Kaspersky Anti Targeted Attack Platform) descubrió un archivo RTF sospechoso. El archivo incluía un exploit (malware que aprovecha las vulnerabilidades en un software de uso común para instalar componentes peligrosos adicionales) a una vulnerabilidad conocida y ya parcheada en Microsoft Office. No es raro que los ciberdelincuentes habituales utilicen estos exploits de vulnerabilidades conocidas para infectar a las víctimas con un malware general y de distribución masiva, pero como se ha demostrado en investigaciones más en profundidad, este archivo RTF en concreto no pertenecía a otra gran oleada de infección, pero sí mucho más sofisticada y dirigida.

Este documento de phishing se distribuyó utilizando unos sitios orientados a un grupo de personas muy concreto: foros en los que se discutían asuntos relacionados con la obtención de viviendas subvencionadas, un privilegio disponible principalmente para empleados de organizaciones gubernamentales y militares en Rusia y en algunos países vecinos.

Cuando el exploit se dispara, el malware con una estructura modular se instala en el ordenador objetivo. La instalación del módulo se lleva a cabo mediante inyección malintencionada en iexplorer.exe, y la ejecución automática de este módulo se completa mediante el secuestro del archivo dll. Ambas técnicas son muy conocidas y utilizadas muy ampliamente.

Finalmente, cuando el módulo principal está instalado, otros módulos adicionales se descargan desde el servidor de comando y control. Al menos uno de ellos utiliza la estenografía, que es la práctica de ocultar información dentro de archivos aparentemente inofensivos, como imágenes, otra técnica malintencionada conocida para la transferencia de datos robados.
Una vez que se ha implementado toda la plataforma maliciosa, el malware busca archivos con extensiones como .doc, .ppt, .xls, .docx, .pptx, .xlsx, .pdf, .txt y .rtf., que luego se envían en un archivo protegido con contraseña y transferido a los operadores del ataque. Además de utilizar conocidas técnicas de infección y movimientos laterales, al realizar la operación los atacantes usan activamente puertas traseras conocidas que ya se han visto en ataques anteriores, y también usan herramientas legítimas creadas para pruebas de penetración y que generalmente no se detectan como peligrosas por las soluciones de seguridad.

“Si nos fijamos en este ataque y lo analizamos las partes individualmente, veremos que no es nada serio. Casi cualquier componente ha sido bien documentado por la industria de seguridad y es algo relativamente fácil de detectar. Sin embargo, se combinan de una forma que hace que el ataque sea difícil de detectar. Además, esta campaña no es única. Al parecer algunos actores del mundo del ciberespionaje cambian su modus operandi, pasando de desarrollar herramientas maliciosas difíciles de detectar a la planificación y entrega de sofisticadas operaciones que quizás no impliquen el uso de malware complejo, pero que sigue siendo peligrosas”, dijo Alexey Shulmin, analista jefe de malware de Kaspersky Lab.

Fotografía (c) Photographee EU vía Shutterstock
Categorías: Noticias

Microsoft y NetApp anuncian el primer servicio NFS empresarial de Azure

Lun, 10/09/2017 - 12:20

Según IDC, el mercado de archivos actual ha alcanzado los 28 mil millones de dólares, con un crecimiento más rápido del cloud frente a las instalaciones de un 24.9 % hasta 2021. Las empresas centradas en datos que se enfocan hacia estrategias principalmente de cloud o de cloud híbrido necesitan métodos de alto rendimiento para impulsar las aplicaciones críticas para la misión en el cloud utilizando el mismo NFS empresarial en el que ya confían. Estas empresas visionarias saben que aprovechar los datos mediante el potencial del cloud híbrido es clave para convertirse en empresas donde realmente los datos cuentan como su principal activo.

“Las organizaciones están adoptando el cloud a una velocidad cada vez mayor, pero los servicios de datos a nivel empresarial todavía necesitan llevar sus cargas de trabajo como los análisis de bases de datos, correo electrónico, DevOPs y recuperación de desastres al cloud”, declara Amita Potnis, directora de investigación de IDC. “Con este anuncio, NetApp y Microsoft pueden ampliar el mismo NFS empresarial en el que las empresas confían sin las complejidades y carga administrativa que normalmente se asocia a los protocolos basados en archivos”.

“Estamos encantados de colaborar con NetApp para incorporar los servicios NFS empresariales de forma nativa a Azure. Los clientes pueden traer sus aplicaciones a Azure y continuar consiguiendo el escalado, rendimiento y fiabilidad que ofrecen los mejores servicios de datos de NetApp”, afirmó Tad Brockway, gerente general para Microsoft Azure Storage en Microsoft Corp. “Esta colaboración es un significativo paso para hacer posibles los servicios de datos en el cloud híbrido para nuestros clientes mutuos”.

Los usuarios podrán acceder a este servicio directamente a través de la consola de Azure, que ofrecerá un rendimiento excelente y facilidad de uso. Los líderes tecnológicos tendrán acceso sin problemas a los primeros servicios de datos en el cloud con la tecnología de NetApp.

“NetApp y Microsoft entienden que las empresas necesitan un enfoque integral para gestionar los datos de un modo seguro, eficiente y a prueba de futuro, y que además ofrezca libertad de elección”, expuso Anthony Lye, vicepresidente senior de la unidad de negocio de cloud en NetApp. “Esta solución primera en su clase utiliza NFS para transformar el modo en que las compañías usan el cloud, ofreciendo visibilidad y control en todo Azure, en las instalaciones y en cargas de trabajo NFS alojadas”.

Los arquitectos del cloud y administradores de sistemas podrán ahora aprovisionar, automatizar y escalar servicios de NFS mediante el uso de las API RESTful. También se ofrecerán otros servicios de protección de datos, comenzando con snapshots automatizadas bajo demanda. El servicio admitirá cargas de trabajo V3 y V4 a clientes que operen en el cloud y en el cloud híbrido. También se integrará con un host de servicios de Azure que incluye análisis, SQL Server y SAP Hana para Azure.

Categorías: Noticias

Oracle anuncia la primera suite mundial de gestión y seguridad inteligente nativa de la Nube

Lun, 10/09/2017 - 12:08

Al utilizar inteligencia artificial tanto para analizar un conjunto de datos unificado que consiste de una gama completa de telemetría operativa y de seguridad, como para proporcionar soluciones automatizadas, la suite integrada de Oracle le permite a los clientes adaptar rápidamente su posición operativa y de seguridad, a medida que cambia su panorama de riesgo. Acción que es posible porque la aplicación de aprendizaje automático puede ayudar a impedir ataques, reducir los tiempos de detección de meses a minutos y responder rápidamente a violaciones de seguridad e interrupciones de rendimiento.

“En los últimos años, hemos presenciado un crecimiento explosivo en la tasa de cambio de aplicación, así como en la sofisticación de las amenazas de seguridad, lo que en conjunto, ha sobrepasado completamente los enfoques tradicionales basados en reglas de empresas aisladas a la gestión y la seguridad”, señaló Prakash Ramamurthy, vicepresidente senior de Gestión de Sistemas y Seguridad de Oracle. “Las organizaciones deben evaluar nuevamente su gestión y seguridad desde cero o arriesgarse a sufrir violaciones e interrupciones cada vez más costosas. Nuestro objetivo era hacer este proceso lo más fluido posible para los clientes, al crear una suite poderosa nativa de la Nube que fusiona un nivel de datos extenso y unificado con la inteligencia proporcionada por aprendizaje automático construido expresamente para esta función. La suite proporciona valor en minutos, y puede incrementarse para convertirse en el centro neurálgico de los esfuerzos de gestión y seguridad de la empresa”.

Combinación única de datos unificados de gestión y seguridad con aprendizaje automático

Los servicios de gestión de sistemas y seguridad inteligente y adaptivos de Oracle se diseñaron para profesionales de seguridad y operaciones. Los usuarios también podrán acceder a conclusiones analíticas de aprendizaje automático altamente ajustado – sustentado por un extenso conjunto de datos operativos y de seguridad – sin requerir de ningún trabajo adicional. Además, al ser un servicio que se ofrece a través de Oracle Cloud, los usuarios pueden aprovechar motores analíticos en constante evolución basados en datos del mundo real.

Con el fin de garantizar que el algoritmo de aprendizaje automático tenga calidad y amplitud de datos para ofrecer perspectivas viables, la Nube de Gestión de Oracle proporciona un solo modelo unificado que permite una entrada masiva de datos sin procesar y enriquecimiento basado en el contexto, así como capacidades de solución automatizada. Esto hace a la Nube de Gestión de Oracle la solución ideal para las empresas de gestión y seguridad habilitadas para aprendizaje automático de última generación.

Las nuevas capacidades empoderan al Centro de Operaciones de Seguridad de Identidad
La base de la oferta de SOC de Identidad de Oracle es el Servicio de Nube de Analítica y Monitoreo de Seguridad de Oracle. Esto proporciona gestión de eventos e incidentes de seguridad (SIEM), así como analítica conductual de entidad y usuario (UEBA), impulsada por el monitoreo de actividad de la Nube y la detección de amenazas del Servicio de Nube CASB de Oracle, el contexto de identidad del Servicio de Nube de Identidad de Oracle y toda la gama de registros y telemetría operativa de la Nube de Gestión de Oracle. Dado que SIEM tiene acceso a toda la gama de telemetría operativa y de seguridad, los clientes se benefician de un único panel consciente del contexto para garantizar entornos de Nube heterogéneos, públicos e híbridos.

También está disponible el nuevo Servicio de Nube de Cumplimiento y Configuración de Oracle para ayudar a los clientes a garantizar una operación continua plenamente integrada con DevOps y alineado con entornos normativos como el Reglamento General de Protección de Datos de la UE (RGPD).

Para ayudar a las organizaciones a seguir protegiendo sus patrimonios en la Nube, Oracle expandió también las capacidades de detección de amenazas y protección de datos del Servicio de Nube CASB de Oracle, el cual ahora ofrece seguridad de datos mejorada tanto para datos estructurados como no estructurados con características de Prevención de Pérdidas de Datos integradas, prevención de amenazas mejorada y nuevas capacidades antimalware y antiransomware, así como la opción para compartir sus conclusiones analíticas a través de la cartera de SOC de Identidad de Oracle.

Oracle también continúa construyendo sobre su largo liderazgo en el área de Gestión de Acceso e Identidad, una parte clave de la cartera de SOC de Identidad. Como parte de su compromiso de impulsar la industria de la identidad hacia adelante, Oracle se convirtió en miembro fundador de IDPro, una organización profesional para practicantes de la identidad que refleja su creciente importancia para el tejido de seguridad y coloca a la identidad a la par de organizaciones profesionales de seguridad y privacidad. Adicionalmente, Oracle está trabajando con otros proveedores de la industria para impulsar el grupo de trabajo de RISC de OpenID con el fin de definir estándares para canales de riesgo de uso colaborativo entre las principales CSP.

Servicios de Plataforma de Gestión Inteligentes y Adaptivos
Basándose en la explosión de crecimiento y adopción que ha tenido desde la introducción de la Nube de Gestión de Oracle en 2015, Oracle mejoró sus ofertas con el lanzamiento de dos nuevas suites y un servicio completamente nuevo, todo lo cual aprovecha la plataforma adaptiva, inteligente y unificada.

La nueva suite de Nube de Gestión de Oracle combina la Nube de Gestión de Oracle, el Servicio de Monitoreo de Rendimiento de Aplicación de Oracle y el Servicio de Nube de Monitoreo de Infraestructura de Oracle. La combinación de estos dos servicios permite monitoreo proactivo y prevención de interrupciones en tiempo real para aplicaciones heterogéneas ya sea que se hayan implementado entre Nubes o en instalaciones con visibilidad, diagnósticos y soluciones de usuarios finales de internet o dispositivos móviles, hasta las líneas de código o SQL.

La nueva suite de Nube de Gestión de Oracle incluye los servicios de la Edición Estándar, más el Servicio de Nube Analítica de TI de Oracle para planificación de patrimonio de Nube completo y el Servicio de Nube de Orquestación de Oracle. Este último tiene la funcionalidad de ejecutar tareas a escala de hypercloud automatizando cualquier proceso al llamar a REST, comandos o marcos de automatización de terceros. Además, permite aplicar automatización en infraestructura tanto en las instalaciones como en la Nube, y aprovecha la plataforma unificada de la Nube de Gestión de Oracle para su motor de toma de decisiones y analítica. Con el nuevo Servicio de Nube de Orquestación de Oracle, los clientes pueden elegir automatizar el proceso entero de identificación y resolución de problemas utilizando aprendizaje automático.

Por último, en el área crucial de gestión de registros, Oracle expandió su Servicio de Nube de Analítica de Registros para permitir a las organizaciones monitorear, agregar y analizar registros tanto de seguridad como operativos desde una amplia variedad de tecnologías en las instalaciones y en la Nube, garantizando que los esfuerzos de gestión de registros de cada cliente produzcan el máximo valor para equipos tanto de seguridad como de operaciones.

“El mayor beneficio de la Nube de Gestión de Oracle es el monitoreo de la infraestructura, la experiencia de usuario, la utilización de nuestra capacidad y el procesamiento central desde una sola ubicación; previamente debíamos monitorear desde 13 ubicaciones”, comentó Pavan Tsunduru, Director de Informática en Adani Ports. “La Nube de Gestión de Oracle, con sus capacidades de aprendizaje automático, mejorará los esfuerzos de notificarnos de manera proactiva cuando hay algún problema que esté por suceder. Ahora también hemos iniciado un piloto del Servicio de Nube de Analítica y Monitoreo de Seguridad de Oracle, y el piloto inicial ha mostrado excelentes resultados, mucho mejores que lo humanamente posible”.

Fotografía (c) Katherine Welles vía Shutterstock
Categorías: Noticias

Avaya lanza concepto Happiness Index on Blockchain

Lun, 10/09/2017 - 12:02

Happiness Blockchain, desarrollada en sociedad con Avanza Solutions, permite a las organizaciones gestionar en forma dinámica las interacciones con el cliente para lograr una mayor satisfacción. “Para muchas personas la cadena de bloques es una solución que busca resolver un problema. El Happiness Index on Blockchain destaca cómo Avaya ha transformado sus plataformas unificadas de comunicaciones y centros de contactos para integrar tendencias tecnológicas disruptivas emergentes y la experiencia del cliente con agilidad y velocidad”, comentó Laurent Philonenko, responsable de Tecnología de Avaya, en GITEX. “Relacionar los enormes volúmenes de datos históricos en tiempo real para comprender la satisfacción del cliente significa un gran desafío para nuestros clientes. Al aplicar cadenas de bloques, la analítica de datos e inteligencia artificial en distintos perfiles y fuentes de datos, construimos una solución única a nivel global que permite que grandes organizaciones midan y gestionen el sentimiento de cada uno de sus clientes individuales”.

Con Happiness Index on Blockchain, Avaya muestra la forma en que las compañías y organizaciones gubernamentales pueden aprovechar las cadenas de bloques para recopilar e integrar en forma segura datos procedentes de múltiples fuentes, tales como centros de contacto, correos electrónicos, redes sociales, plataformas Web y mensajería instantánea. A través del filtrado selectivo de datos offline y la monitorización de fuentes de datos en tiempo real, las organizaciones pueden medir dinámicamente los niveles de satisfacción de los clientes y transformar sus experiencias a fin de cumplir sus objetivos de nivel de satisfacción.

Actualmente muchas organizaciones trabajan para convertir los enormes volúmenes de datos que tienen sobre sus clientes en acciones concretas. Mientras una investigación de Gartner muestra que el 89% de las compañías espera competir principalmente en la experiencia del cliente, solo un 6% de ellas manifestó, en una encuesta de Aberdeen Group, estar extremadamente satisfechas con su capacidad para utilizar los datos para mejorar la experiencia del cliente.

“La innovación es parte del ADN de Avanza – siempre buscamos la manera de resolver los problemas que nuestros clientes enfrentan hoy y de brindar las soluciones que respondan a los desafíos de mañana. Al trabajar con Avaya logramos una vez más que las cadenas de bloques se transformen de una tecnología conceptual a una herramienta empresarial que aborda problemas del mundo real”, comentó Waqas Mirza, Director en Jefe de Marketing y Director Gerente de Avanza Solutions.

Fotografía (c) Olga Donskaya vía Shutterstock
Categorías: Noticias

Red Hat presenta almacenamiento versátil definido por software para aplicaciones nativas cloud

Lun, 10/09/2017 - 03:00

Red Hat anuncia el lanzamiento de Red Hat Container-Native Storage 3.6, con soporte para aplicaciones e infraestructuras basadas en contenedores en clústers de Red Hat OpenShift Container Platform. Red Hat Container-Native Storage 3.6 llega poco después de Red Hat OpenShift Container Platform 3.6, la última versión de la plataforma empresarial de aplicaciones de contenedores Kubernetes de Red Hat, anunciada en agosto.

El almacenamiento nativo de contenedores de Red Hat, desarrollado sobre Red Hat Gluster Storage, está integrado con Red Hat OpenShift Container Platform y sirve exclusivamente para el almacenamiento de contenedores. Red Hat Gluster Storage es de clase empresarial, duradero, más seguro y adecuado para la nube híbrida, ya que admite despliegues en la nube pública o en las instalaciones. Estos atributos lo convierten en la solución ideal para las implementaciones de Red Hat Openshift Container Platform. Red Hat Container-Native Storage puede eliminar la necesidad de tener una plataforma de almacenamiento independiente, permitiendo a los clientes alcanzar una plataforma integrada de contenedores que puede abarcar la nube híbrida con mayor eficiencia, menor coste y una experiencia de usuario simplificada, con un único plano de control y un único punto de soporte.

Red Hat Container-Native Storage 3.6

“El paso a aplicaciones basadas en contenedores puede plantear desafíos a las arquitecturas de almacenamiento tradicionales existentes, retrasando el impulso hacia la innovación y el progreso. El almacenamiento nativo de contenedores definido por software resuelve los desafíos con la capacidad de combinar los servicios de almacenamiento con la plataforma de contenedores como cualquier otro servicio de contenedores y se ejecuta en nube física, virtual, pública e incluso en la parte superior de los dispositivos de almacenamiento tradicionales”, comenta Red Hat, a cuyo juicio las arquitecturas de almacenamiento tradicionales existentes no siempre ofrecen este nivel de escalabilidad y flexibilidad inherentes y, como resultado, no pueden aprovechar todo el potencial de las plataformas de aplicación de contenedores como Red Hat OpenShift Container Platform.

Con Red Hat Container-Native Storage 3.6 presenta siguientes nuevas características:

● Plataforma de almacenamiento versátil para contenedores que permite a los clientes gestionar, escalar y actualizar sus necesidades de almacenamiento utilizando un único plano de control que ayuda a los clientes a lograr una mayor eficiencia de almacenamiento y ahorro de costes. Red Hat Container-Native Storage ahora ofrece soporte para interfaces de archivos, bloques y objetos, permitiendo la portabilidad de las aplicaciones de contenedores a la plataforma de contenedores sin cambios. La incorporación de almacenamiento en bloques (a través de iSCSI) proporciona soporte para bases de datos distribuidas y otras cargas de trabajo de baja latencia como Elasticsearch, mientras que la incorporación de almacenamiento de objetos (en Technology Preview) proporciona un almacén de objetos integrado en Red Hat OpenShift Container Platform para aplicaciones nativas de la nube siendo necesario Amazon Simple Storage Service (Amazon S3) como soporte de protocolo.

● Soporte para todos los elementos básicos de infraestructura de Red Hat OpenShift Container Platform, incluyendo su registro y métricas. El soporte para estos componentes básicos permite a los administradores tener Red Hat Container-Native Storage para la infraestructura lista para usar, sin necesidad de utilizar diversos sistemas de almacenamiento para diferentes aspectos de infraestructura y disponer de una plataforma integrada con una gestión sencilla y soporte.

● Tres veces más el número de aplicaciones y microservicios desplegados en un solo clúster de almacenamiento. [1] El aumento de la densidad de volumen persistente ofrece a los clientes un mayor uso de los recursos.

Test Drive de Red Hat OpenShift Container Platform con Red Hat Container-Native Storage Red Hat también ha lanzado un nuevo Test Drive de OpenShift Container Platform con Container-Native Storage, permitiendo a los clientes simular la implementación de Red Hat OpenShift a través de la nube pública. Este Test Drive tiene como objetivo proporcionar un administrador con un clúster multi-nodo Red Hat OpenShift Container Platform, que se ejecuta en la nube. Los clientes podrán explorar ejercicios prácticos diseñados para exponerlos a diferentes tareas administrativas y operativas tanto con Red Hat OpenShift como con Red Hat Container-Native Storage.

Se espera que Red Hat Container-Native Storage 3.6 esté disponible a finales de este mes.

Fotografía (c) Zimmytws vía Shutterstock
Categorías: Noticias

Is Apstra SDN 2.0?

Mié, 10/04/2017 - 05:35

Responding to customer requests in this area, Apstra is announcing AOS 2.0. Leveraging the recent advances in network operating system APIs and switch silicon support for VXLAN, AOS 2.0 delivers the first intent-based integrated underlay and overlay solution for the data center network.

Around a decade ago when SDN discussions first began, switches had no APIs, and to deliver dynamic policy there was no choice but to bypass networking engineering teams and extend an overlay on top of the physical network. This approach created a number of problems that limited the adoption of the technology:

1. Underlays and overlays are opaque to each other. Because the underlay and overlay are totally decoupled, it is that much harder for IT teams to debug networking problems. Was it caused by the overlay? The underlay? Through which links or interfaces do the packets pertaining to this particular overlay tunnel flow?

2. Organizational processes break with decoupled underlays and overlays. Overlays made it unclear who was really responsible for network services. The network engineering team? The compute team? The cloud team? Compute teams are often driven to buy and operate an overlay without the participation of network teams. That could mean that two network operators in the same data center don’t really work together. Or even acknowledge each other. Worse, the networking team is often finger-pointed, often without evidence. The network is the most critical asset in the data center; one operational team should be empowered and responsible – not two.

3. Overlays don’t easily work with bare metal devices. While most workloads are virtualized, there is a lot of bare metal out there; storage, database, and many devices and appliances. The common solution is to build a gateway which generally encaps/decaps flows between the overlay and a bare metal segment. I am bullish on the use of an overlay, but quite honestly, a gateway for bare metal is a hack which only became necessary because of the unnatural fracture between underlay and overlay.

Introducing AOS 2.0:

1. Integrated overlay/underlay: Leveraging the patent-pending, innovative AOS state repository and intent modeling technology, all the state pertaining to the physical underlay, its topology, its logical entities, virtual networks, and all related telemetry are stored in the AOS distributed data store, and represented in a graph that captures all the pertinent relationships. As a result, AOS 2.0 provides powerful visibility into network state, including the physical and virtual, through its process of closed-loop, continuous validation of state against intent. In short, with AOS 2.0, the underlay/overlay correlation problem that has plagued first generation SDN solutions becomes a thing of the past.

2. All under the control of the network engineering team! AOS 2.0 enables network engineering teams to implement a network infrastructure that leverages a modern Leaf/Spine L3 underlay network architecture using multi-vendor state-of-the-art equipment, that features an L3 underlay and stitches L2 services on top — within the rack, and across racks. Organizations can then deliver L2 connectivity for their Applications, and enforce policies and security zones across their various Application services Tiers — all under the control of network teams.

3. Natural support for bare metal servers. With AOS 2.0, configuring a virtual network spanning two separate racks generally involves a two step approach: (1) configuring VLANs connecting end points to Top of Rack (TOR) switches, and (2) configuring VXLAN tunnels between TOR switches that belong to different racks. This approach applies to both virtual and bare-metal end points and never requires gateways.

In addition, AOS 2.0 leverages the same AOS core to provide the same unique AOS advantages:

1. Intent-Based and Vendor-agnostic: the vendor-independent approach of AOS is taken to another level with our multi-vendor implementation of VXLAN-based virtual networks. Owing to the Intent-Based approach of AOS, arcane vendor-specific configurations of VXLAN are abstracted away from network users, as are complicated vendor-specific troubleshooting procedures. The result is unprecedented hardware vendor choice and interoperability.

2. Fully Automated: AOS 2.0 gets us closer to the vision of a self- operating or autonomous network infrastructure. It leverages the extensible foundation of AOS to deliver end-to-end automation of all phases in the life cycle of network services across the underlay and the overlay: design, build, deploy, and validate. This includes Day 0 Initial Provisioning, Day 1 Builds and Day 2 Operational Changes and Troubleshooting capabilities. With unique system-wide commit capabilities for change operations and sophisticated continued validation and root-cause analysis capabilities through intent-based analytics, AOS 2.0 delivers the most powerful autonomous operation capabilities available today.

Adding AOS 2.0’s new enterprise-class features (including RBAC, HTTPS, and Headless Operations), organizations can confidently start the process of migrating from legacy L2 data center infrastructures to modern Leaf-Spine infrastructures with fully automated and integrated L3 underlay and L2 overlay — all under the control of networking teams.

And we’re just getting started. Customer-driven feature velocity is a key part of our vision, enabled by the extensible AOS architecture. This brings our customers expanded device support, and advanced intent-based analytics — which are coming as part of turn-key applications in future releases. Stay tuned for more to come from Apstra in the coming months. Indeed, a new era has begun, and we’re not looking back!

By Mansour Karam, CEO and Founder, Apstra

Categorías: Noticias

Oracle presenta la primera base de datos cloud autónoma del mundo

Mié, 10/04/2017 - 05:03

El Director de Tecnología y Presidente de la Mesa Directiva de Oracle, Larry Ellison, presentó en Oracle OpenWorld 2017 lo que denomina “la primera base de datos cloud autónoma del mundo”.

“Esto es lo más importante que hemos hecho en los últimos tiempos”, indicó Ellison. “La automatización lo hace todo. Podemos garantizar una disponibilidad de 99.995%, con menos de 30 minutos de tiempo de inactividad, ya sea planeada o no planeada”.

Oracle Autonomous Database Cloud elimina el trabajo humano asociado con los ajustes, instalación de parches, actualizaciones y mantenimiento de las bases de datos e incluye las siguientes capacidades:

Autogestión: proporciona ajustes de rendimiento continuos con base en el aprendizaje automático. Ésta diseñada para realizar actualizaciones e instalar parches automáticamente sin dejar de operar, al mismo tiempo que se pueden realizar up dates de seguridad sin detener operaciones para protegerse de ciberataques.

Autoescalabilidad: redimensiona el procesamiento y almacenamiento de forma instantánea sin tiempo de inactividad. Los ahorros se multiplican gracias a que Oracle Autonomous Database Cloud consume menos capacidad procesamiento y almacenamiento que el utilizado por Amazon, con menores costos de administración.

Autoreparación: proporciona protección automatizada del tiempo de inactividad. Los acuerdos en niveles de servicio (Service Level Agreement) garantizan 99.995% de confiabilidad y disponibilidad, lo que reduce el costoso tiempo de inactividad, tanto planeado como no planeado, a menos de 30 minutos por año.

Oracle Autonomous Database Cloud maneja diversos estilos de carga de trabajo, que incluyen transacciones, cargas de trabajo mixtas, almacenes de datos, analítica de gráficos, aplicaciones departamentales, almacenes de documentos y de Internet de las Cosas (IoT). Se espera que el primer producto de Nube de Base de Datos Autónoma, para cargas de trabajo de almacén de datos, esté disponible en el último trimestre de 2017.

Oracle Autonomous Data Warehouse Cloud

Oracle Autonomous Data Warehouse Cloud es un servicio de Nube de última generación, creado con tecnología de Base de Datos Autónoma de Oracle autogestionada que utiliza el aprendizaje automático para ofrecer rendimiento, confiabilidad y facilidad de implementación para almacenes de datos. Al ser un servicio autónomo de Nube, elimina las tareas de gestión manual, propensas a errores y libera recursos de DBA, que ahora pueden aplicarse a la implementación de proyectos empresariales más estratégicos.

“Todas las organizaciones intentan aprovechar la abrumadora cantidad de datos que genera nuestra economía digital”, comentó Carl Olofson, vicepresidente de Investigación en IDC. “Con su trayectoria de liderazgo consolidado en el segmento de mercado de software de base de datos, no resulta sorprendente que Oracle abra camino con una plataforma de gestión de datos de última generación. Oracle Autonomous Data Warehouse Cloud se diseñó para entregar un rendimiento de tecnología de base de datos líder en la industria, con flexibilidad, escala empresarial y simplicidad. La intención es garantizar que las empresas obtengan más valor de sus datos y modernicen la forma en la que éstos se gestionan”.

Los puntos más destacados de la Oracle Autonomous Data Warehouse Cloud incluyen:

Simplicidad: a diferencia de los servicios de Nube tradicionales con configuraciones manuales complejas que requieren de un experto en bases de datos que especifique claves de distribución de datos y claves de asignación específicas, desarrolle índices, reconozca datos o ajuste la compresión, Oracle Autonomous Data Warehouse Cloud es un sencillo servicio de “cargar e iniciar”. Los usuarios especifican tablas, cargan datos y posteriormente ejecutan sus cargas de trabajo en segundos, sin necesidad de ajustes manuales.

Rendimiento: Oracle Autonomous Data Warehouse Cloud se construyó sobre la plataforma de alto rendimiento Exadata de Oracle. El rendimiento es aún mejor gracias a los algoritmos de aprendizaje automático completamente integrados que impulsan un caché automático, indexación adaptiva y compresión avanzada.

Escalable: Oracle Autonomous Data Warehouse Cloud asigna nuevos almacenes de datos de cualquier tamaño en segundos y escala los recursos de procesamiento y almacenamiento de manera independiente, sin tiempo de inactividad. Esta característica le permitirá a los clientes pagar únicamente por los recursos exactos que requieren las cargas de trabajo de base de datos a medida que crecen y se reducen.

Oracle Database 18c
Oracle Autonomous Database Cloud es impulsada por la última generación de la base de datos #1 a nivel mundial, Oracle Database 18c. Oracle Database 18c ofrece nuevas capacidades de automatización, así como tecnologías de OLTP, analítica y consolidación mejoradas.

Fotografía (c) Maxphoto vía Shutterstock
Categorías: Noticias

Javelin Networks Signs-On with Exclusive Networks; Europe’s Leading Cybersecurity Solutions Distributor

Mié, 10/04/2017 - 04:01

Javelin Networks today signed a master agreement with Exclusive Networks (London England), the premier security solutions distribution company that partners with market leading and emerging cybersecurity and infrastructure vendors, and supports hundreds of IT solution resellers in Europe.

Today’s announcement enables leading European reseller specialists access to Javelin’s credential theft and lateral movement prevention technology, which uses deception and post breach containment technology on the endpoint, to address cybersecurity challenges within the enterprise.

Barrie Desmond, Chief Operating Officer, Exclusive Group: “Exclusive Networks chooses the most effective solutions for a dangerous world of hacks and exploits. Javelin Networks, under the Exclusive Networks family of cybersecurity solutions, will offer innovative products and services throughout Western Europe, enabling enterprises to measurably improve their stance against threats, network breaches and data loss.”

Greg Fitzgerald, Chief Operating Officer, Javelin Networks: “Exclusive Networks has earned its name as the disruptive distributor and they appreciate the problems enterprises face, in addition to the depth and differentiation Javelin’s cybersecurity solutions bring to the table,” said Greg Fitzgerald, COO for Javelin Networks. “We are proud to further our growth and visibility by working with Exclusive Networks.”

Javelin Networks was founded in 2014 by three intelligence experts from the Israeli Defense Forces. During their time in the military, they were taught to attack organizations through Windows Active Directory, which enabled them to compromise an entire organization undetected, indefinitely. The problem Javelin’s founders encountered was that the security industry is focused on defending endpoints, servers, applications, and the network individually without taking into consideration how they are joined to and authenticated with each other. When resources are managed in a Corporate Domain environment, the rules of security change. Individual device security is insufficient when the central heart of corporate IT management—the Active Directory—remains unprotected.

The core of Javelin’s technology is authentic resource deception derived from the organization’s Active Directory structure. It autonomously learns the organization’s Active Directory structure in its entirety (servers, endpoints, applications, users, branches, naming conventions, configurations, etc.) and applies Artificial Intelligence to create a dynamic, authentic and unlimited obfuscation of the environment. It then projects this information on the domain-connected assets in an agentless, undetectable fashion to the attacker. The moment an attacker attempts to move on an endpoint, an alert is triggered, IT personnel are notified, and automated mitigation, response and forensics are initiated.

Javelin Networks has two primary product offerings for the Corporate Domain:

Javelin AD|Protect defends the Active Directory while providing autonomous breach detection, containment, incident response, and threat hunting capabilities. It combines technologies such as Native Language Processing, obfuscation, and advanced forensics methodologies to stop the attacker at the point of breach. The platform will also show the defender and AD Admin the domain from the attackers’ perspective, allowing for immediate and autonomous risk mitigation to reduce the attack surface.

Javelin AD|Assess leverages unique algorithms to gather in-depth information about the configuration of the domain, privileged accounts, security settings, GPO, endpoints, domain controller, and Kerberos. Then, it will autonomously analyze every component of the Corporate Domain and Active Directory structure for Dark Corners and backdoors attackers may have left behind.

Javelin Networks receives innovation award
On September 28, 2017, Javelin Networks received the “Hot Start Up ­– Cybersecurity Award”. The jury explained: “We selected Javelin because of the root problem that they are solving. Most enterprises are still heavily dependent on Active Directory and once it’s compromised none of the other solutions could prevent further attacks. We are hopeful that Javelin could solve this root problem by their next-gen deception technology around Active Directory. It’s not complete but we believe their “innovative” approach has a great potential to evolve further.” The finalists were short-listed by the media judges and then required to give a short elevator pitch in ‘Shark Tank’ style at the NetEvents Global Press & Analyst Summit before an audience of technology leaders, press and analysts representing over 35+ countries around the world. The finalist judging panel included Silicon Valley VCs and business angels.

Greg Fitzgerald, Javelin Networks COO, receives the award in San Jose, California, on September 28, 2017 (photo: NetEvents).

Javelin announces artificial intelligence to prevent malicious movement inside organizations

Categorías: Noticias

Javelin Networks firma acuerdo con Exclusive Networks, distribuidor líder de ciberseguridad

Mié, 10/04/2017 - 04:00

Javelin Networks firmó el 4 de octubre un acuerdo marco con Exclusive Networks en Londres, Inglaterra, empresa líder en distribución de soluciones de ciberseguridad en Europa. Con ello, los distribuidores del continente podrán llevar a sus clientes la tecnología de prevención de movimiento lateral y robo de credenciales desarrollada por Javelin, que utiliza técnicas de enmascaramiento y ofuscación de datos, como asimismo contención de brechas en endpoints, para abordar los retos de ciberseguridad dentro de la empresa.

Barrie Desmond, Director de Operaciones, Exclusive Group, declaró: “Exclusive Networks elige las soluciones más eficaces frente al peligroso mundo de hacks y exploits. Javelin Networks pasará a formar parte de la familia de soluciones de seguridad cibernética de Exclusive Networks, ofreciendo así sus productos y servicios innovadores en toda Europa Occidental. Con ello, las empresas podrán fortalecer su posición ante las amenazas, las brechas en la red y la pérdida de datos.

Greg Fitzgerald, Director de Operaciones de Javelin Networks, comentó: “Exclusive Networks tiene bien ganada su reputación como distribuidor disruptivo, ya que entiende los problemas de seguridad que enfrentan las empresas. En este caso, la empresa ha valorado la profundidad y diferenciación que aportan las soluciones de ciberseguridad de Javelin”, dijo Greg Fitzgerald, COO de Javelin Networks. “Estamos orgullosos de incrementar nuestro crecimiento y visibilidad al suscribir este acuerdo con Exclusive Networks”.

Javelin Networks fue fundada en 2014 por tres expertos en inteligencia de la Fuerzas de Defensa de Israel. Durante su trayectoria en el ejército, se les enseñó a atacar a las organizaciones a través de Windows Active Directory, lo que les permitió comprometer a organizaciones sin ser detectados, indefinidamente. El problema que encontraron los fundadores de Javelin fue que la industria de seguridad se concentra en defender endpoints, servidores, aplicaciones y la red individualmente, sin tener en cuenta cómo estos dispositivos se unen y autentican entre sí. Cuando los recursos se administran en un entorno de dominio corporativo, las reglas de seguridad cambian. La seguridad individual del dispositivo es insuficiente cuando el elemento fundamental de administración corporativa de TI -Active Directory- permanece desprotegido.

El núcleo de la tecnología de Javelin es ofuscar los recursos de la organización, visibles en la estructura de Active Directory de la organización. Javelin aprende de forma autónoma la estructura de Active Directory de la organización en su totalidad (servidores, endpoints, aplicaciones, usuarios, filiales, convenciones de nomenclatura, configuraciones, etc.) y aplica la Inteligencia Artificial para crear una ofuscación dinámica, auténtica e ilimitada del entorno. A continuación, proyecta esta información en los activos conectados al dominio sin recurrir a un agente, de una forma indetectable para el atacante. En el momento en que un atacante intenta moverse en un endpoint se activa una alerta, se notifica al personal de TI y se inicia la mitigación automatizada, respuesta e investigación forense.

Javelin Networks tiene dos ofertas de productos principales para el Dominio Corporativo:

Javelin AD|Protect defiende el Active Directory al mismo tiempo que proporciona detección autónoma de brechas, contención, respuesta a incidentes y capacidades de búsqueda de amenazas. Combina tecnologías como procesamiento del lenguaje nativo, ofuscación y metodologías forenses avanzadas para detener al atacante en el punto donde se produce la brecha. La plataforma también muestra al personal de seguridad informática y al administrador de Active Directory el dominio desde la perspectiva de los atacantes, permitiendo una mitigación inmediata y autónoma para reducir el alcance del ataque.

Javelin AD|Assess utiliza algoritmos únicos para recopilar información en profundidad sobre la configuración del dominio, cuentas privilegiadas, configuración de seguridad, GPO, endpoints, controlador de dominio y Kerberos. Luego, analiza de forma autónoma todos los componentes del dominio corporativo y la estructura de Active Directory en búsqueda de puertas traseras y dark corners que los atacantes puedan haber instalado durante su intrusión.

Premio a la innovación en ciberseguridad
La semana pasada, la solución de Javelin Networks fue premiada como el mejor emprendimiento en la categoría de ciberseguridad en el evento global de NetEvents sobre innovación tecnológica. En su veredicto, el panel de jueces comentó: “Seleccionamos a Javelin debido al problema fundamental que está resolviendo. La mayoría de las empresas siguen dependiendo en gran medida de Active Directory, pero cada vez que este se ve comprometido, ninguna de las otras soluciones pueden impedir nuevos ataques. Confiamos en que Javelin podría resolver este problema clave mediante su próxima generación de tecnología de ofuscación en torno a Active Directory. Creemos que su enfoque innovador tiene un gran potencial para evolucionar aún más”.

Greg Fitzgerald, COO de Javelin Networks, recibe el premio a la innovación tecnológica en la categoría de ciberseguridad de NetEvents, en Silicon Valley, el 28 de septiembre de 2017 (Fotografía: NetEvents).

Categorías: Noticias

Apstra, Cohesity, Darktrace, Javelin Networks, NetFoundry, OnDot and Prof. David Cheriton triumph at NetEvents 2017 Innovation Awards

Mar, 10/03/2017 - 18:28

The winners of the IoT, Cloud & Cybersecurity Innovation Awards 2017 were announced at the NetEvents Global Press & Analyst Summit in San Jose, California, USA. These prestigious awards celebrate the year’s most significantly innovative start-ups and established companies in the fast-growing Internet of Things (IoT), Cloud/Datacenter and Cybersecurity arenas.

Six company categories were awarded this year, plus one special award: The three “Hot Start Up awards” categories, judged by the Shark Tank panel of venture capitalists, included newcomers in Cybersecurity, IoT & Cloud/Datacenter.

The three “Innovation Leader awards” included the same categories for established organizations and were judged by an independent panel of 40+ leading technology press and industry analysts representing 35+ countries across the globe.

There was an additional special category – the “Innovation Idol Award” – presented for an individual who, in the judges’ opinion, had made an outstanding and inspirational contributions to the industry.

All money raised by this years’ awards, including profits and donations from the gala dinner evening, is being shared between three charities: Prostate Cancer Research, STEM and UNICEF. This year’s charitable contributions brought the total raised to-date to over $125,000.

INNOVATION LEADERS

The winner of the Innovation Leader – IoT Award – presented by Erin Dunne, Director of Research Services, Vertical Systems Group – was NetFoundry, which offers technology for building application-specific networks. The judges’ opinion liked NetFoundry’s approach to solving a set of problems in a practical way — over the top of the world’s existing networks — with an on-demand, intent based network, secure, instant SDN creating virtual “slices” for a variety of applications/uses which gave it the edge over the other finalists: Cloudera, GE (General Electric), and Zebra Technologies

The Innovation Leader – Cloud/Datacentre Award – presented by Mike Sapien, Principal Analyst, Enterprise Services, Ovum – went to Cohesity, which helps enterprises manage their growing secondary-storage challenges. The judges remarked that web-scale operations will be driven by storage. Cohesity helps to optimize this task and enable customers to take better advantage of the mounds of data that they are collecting. With storage often being a “race to the bottom” on cost, these economic factors are important.’ Cohesity faced strong competition from the other finalists Apstra, Infinera, Ravello Systems (Oracle), and Skuid.

The Innovation Leader – Cybersecurity Award – presented by Mike Spanbauer, VP of Research Strategy, NSS Labs – went to Darktrace who, in the judges’ opinion had the ability to detect ‘unknown’ threats using unsupervised machine learning shines a secure light into previously shadowy parts of the network. Darktrace adds core security value through the use of innovative AI-based technology, while at the same time reducing security solutions complexity. Darktrace had faced strong competition from the other finalists: Palo Alto Networks, Vectra, and Ziften.

HOT START-UPS
For the three Hot Start Up categories, the finalists were short-listed by the media judges and then required to give a short elevator pitch in ‘Shark Tank’ style at the NetEvents Global Press & Analyst Summit before an audience of technology leaders, press and analysts representing over 35+ countries around the world. The finalist judging panel included Silicon Valley VCs and business angels.

For the Hot Start-Up – Cloud/Datacenter – Apstra was chosen to receive the award presented by Rajesh Ghai, Research Director, Telecom Network Infrastructure, IDC. Janice Roberts, Partner, Benhamou Global Venture Partners commented, on behalf of the VC judging panel: “It is time that CIOs change the way they think about networks given universal digital transformation…. we like the fact that Apstra is a pioneer – intent- based networking … It’s a hard problem and they are relatively early, but they have an exceptional team….”

For the Hot Start-Up – IoT Award – presented by Robert Haim, Principal Analyst – Business Analysis & IoT, ACG Research – OnDot Systems was chosen as the winner. Janice Roberts, Partner, Benhamou Global Venture Partners commented, “OnDot was chosen as the winner of the Hot Start-Up IoT award as a company with a global market opportunity with clear value propositions in a ‘mobile first’ world for both financial institutions and individual customers. In addition to enabling increased customer engagement, the advantages of personalized management and control of payments is both compelling and essential.”

For the Hot Start Up ­– Cybersecurity Award presented by Jason Bloomberg, President, Intellyx and Forbes contributor – Javelin Networks were chosen to receive the award. Hiro Rio Maeda, Managing Director, Draper Nexus commented, “We selected Javelin because of the root problem that they are solving. Most enterprises are still heavily dependent on Active Directory and once it’s compromised none of the other solutions could prevent further attacks. We are hopeful that Javelin could solve this root problem by their next-gen deception technology around Active Directory. It’s not complete but we believe their “innovative” approach has a great potential to evolve further.”

THE INNOVATION IDOL
The special Innovation Idol Award – presented by Mark Fox, CEO of NetEvents – went to Professor David Cheriton, who commented: “David has made a tremendous contribution to the computer networking industry since arriving in Silicon Valley 36 years ago. David is a distributed systems and networking expert with keen insight into identifying big market opportunities and building the architectures needed to address these opportunities. David has inspired many of his Stanford University students to progress and achieve great success – perhaps the most notable are Sergey Brin and Larry Page who, with guidance and initial seed funding from David went on to form Google. David also met Mendel Rosenblum at Stanford who in turn introduced him to Diane Greene, and went on to become the first investor and an early advisor to VMWare. David has funded more than 20 companies. His latest venture is Apstra where he is developing an intent-based self-operating network for the Datacenter – his vision is gaining considerable attention from the international media community. As Innovation Idol, David joins an elite club of past winners which includes Ethernet inventor Bob Metcalfe, OpenFlow inventor Martin Casado, who can also be attributed with setting the industry down the SDN path, Silicon Valley entrepreneur Andy Bechtolsheim, plus last years winner Stuart McClure for his work in successfully leading the industry in applying Artificial Intelligence in security applications”.

The NetEvents Global press and Analyst Summit offers a stimulating and topical two-day conference program of hot debates, head-to-heads and presentations by visionaries and industry analysts. For vendors it provides an exceptional opportunity to meet these networking and communications industry gatekeepers and spend quality time together in an informal yet focused environment. For full details of the NetEvents program of events and awards visit: www.netevents.org

Picture: Tech Idol 2017 Award to David Cheriton. Mark Fox, NetEvents CEO and Mansour Karam Accepting on Behalf of David Cheriton
Categorías: Noticias

Páginas