Como se usa #machinelearning en Google. Me ha llegado este vídeo vía O’reilly y quería compartirlo con vosotros.
Como se usa #machinelearning en Google. Me ha llegado este vídeo vía O’reilly y quería compartirlo con vosotros.
Lo hemos publicado en GDG Cloud Madrid. Por cierto, ¿te has apuntado al meetup de presentación del grupo?
]]>GDE (Google Developer Expert) es todo un honor. Ser reconocido por Google y formar parte de este grupo de profesionales es una oportunidad y un privilegio que no suele ocurrir muchas veces en la vida. Es obvio que pienso vivirlo con la intensidad que se merece 😉 Por supuesto esto no habría sido posible sin todo lo que me ha enseñado tanta gente por el camino, por los que confiaron en mi y por supuesto por los que me recomendaron e hicieron de mentores en este proceso. Muchas gracias a todos. ]]>
El siguiente meetup será el día 20 de diciembre (martes) a las 18:30h en Campus Madrid. Tenemos dos charlas aplicadas a sectores realmente interesantes: la primera relacionada con modelos aplicados a la publicidad y la segunda sobre el Hackaton Pythonhack organizado por Cajamar (aplicación real sobre banca). La agenda será la siguiente. 18:30 – Acceso al auditorio. Calle de Manzanares, 1. 18:40 – «Medición de impacto de la actividad publicitaria» Esta charla se enfoca en el uso de los modelos de ML en el sector de la publicidad, con especial atención al uso de series temporales. Con un enfoque práctico, hablarán del impacto que tienen las campañas publicitarias sobre los resultados del negocio, así como de algunos efectos importantes, como estacionalidad, festivos, promociones, etc… Ponentes: •Alfonso Salafranca.Director de Data Science en Havas. 15 años de experiencia en Modelización y Análisis de datos. Matemático por la Universidad Autónoma de Madrid y Profesor asociado a la Universidad Carlos III. Inicio su carrera en analítica en consultoría primero en Bayes Forecast y posteriormente en Neo-Metrics. En BBVA ocupó las posiciones corporativas de Analytic Consumer Insights y Head of Innovación en Global Risk Managment. Desde el año 2011 su principal actividad ha estado relacionada con el mundo de la publicidad, primero con el Lanzamiento de YPerform y la construcción de un departamento de Marketing Intelligence para Ymedia y desde 2016 como Director de Data Science en el grupo Havas. Ha trabajado para anunciantes como Recoletos grupo editorial, Movistar, Bankinter, BBVA, VIvus, Ing Direct, Jazztel y Rastreator. Conferenciante en Universidades y Escuelas de Negocio, ha publicado diferentes artículos de Analytics y Modelización. • Andriy Tkachenko.Data Scientist con 3 años de experiencia en Modelización y Análisis de datos en Havas. Licenciado en Ciencias Económicas y Empresariales por la Universidad Complutense de Madrid. Experiencia en el sector de la publicidad como analista de datos en departamentos de investigación/modelling. Trabajando en varios proyectos de modelling para clientes como Jazztel, Gas Natural, Prosegur, Ikea, La Nevera Roja. R Enthusiast, desarrollando herramientas propias de modelización y visualización de datos con el lenguaje de programación R. Participa activamente en las conferencias, locales y nacionales, relacionadas con el análisis de datos y programación en R. 19:30 – «Presentación mejores trabajos Cajamar PythonHack 2016». Presentación de los dos proyectos ganadores en la PythonHack 2016 (más información aquí) organizada por el Grupo Cajamar a través datos reales de la entidad. Los proyectos presentados cubren dos retos: uno de modelado (Predictive Modelling) y otro de análisis exploratorio/storytelling (Credit Card Analytics). Los proyectos Big Data son uno de los núcleos de la estrategia de innovación del Grupo Cooperativo Cajamar. Es por ello que impulsan la creación del Cajamar Data Lab, un equipo de especialistas dedicado a maximizar el potencial de los datos. En Cajamar Data Lab estamos convencidos de que la analítica avanzada es el ingrediente clave para la creación de productos y servicios del futuro. Cajamar PythonHack 2016 es la competición online de analítica de datos en base a datos bancarios reales del Grupo Cajamar organizada con motivo de la PyConES. La PyConES es un evento de tres días de duración que se celebró los días 7,8 y 9 de octubre de 2016 en Almería, en el que se dieron cita profesionales del lenguaje de programación Python que difunden su experiencia en varias sesiones de charlas técnicas. Ponentes equipo 1: • Javier Abadía. Lead Developer, más de 15 años liderando equipos de desarrollo y ‘predicando’ sobre desarrollo de software. Firme convencido de que el software debe tener 0 bugs, y de que lo que funciona son los métodos ágiles, las pruebas en modo paranoico, la automatización y sobre todo el trabajo en equipo. Esquiador y corredor, ha decidido divertirse desarrollando la mejor plataforma de analíticas que se haya visto nunca. Ingeniero en Informática por la Universidad de Zaragoza y MBA por el Instituto de Empresa. • Alicia Pérez. Backend Developer, Ingeniera informática por la Universidad Complutense de Madrid y Máster en Data Science por la escuela MBIT. En sus 9 años de experiencia ha trabajado para varias empresas y con numerosas tecnologías, pero desde 2015 disfruta trabajando en la parte back-end de StyleSage, donde la moda y el Big Data se unen para dar lugar a una increíble plataforma de analíticas. Amante de los datos (sobre todo geográficos), del trabajo en equipo, del patinaje y del queso. • Jose Mª Álvarez. Comenzó su carrera hace más de 15 años en grandes compañías como Motorola o Telefónica, después de terminar Ing. Informática en la URJC de Madrid. En los últimos años, ha participado en numerosos proyectos de Startups en campos como la ciberseguridad, la educación y la sanidad enfocada al envejecimiento activo. Hace 2 años, se unió a Stylesage donde trabaja como Backend Developer en la parte extracción y análisis de datos. Ponente del equipo 2: • Óscar González. Doctor Ingeniero de Telecomunicación. Data scientist en ETS Asset Management Factory. 20:30 – ¡Cervezas y networking! Tomaremos unas cervezas y podremos seguir charlando sobre los temas de interés que salgan en esta jornada. Nos vemos pronto, el 20 de diciembre en Campus Madrid.]]>
George Hotz es un crack y ha decidido abrir su proyecto openpilot para desarrollarlo en comunidad. Voy a seguirlo de cerca por que no todos los días tienes la posibilidad de ver como se desarrolla un proyecto de conducción autónoma que pretende competir con los grandes. Si tenemos en cuenta que el proyecto de google empezó con la compra una empresa que tenía 5 empleados y habían desarrollado un prototipo muy alfa, todo es posible 😉 El código de openpilot esta disponible en GitHub y en la web en la parte de research de comma.ai empiezan a publicar los primeros videos de como empieza a entender la cámara frontal. Además están disponibles vídeos y datasets. Muy alfa pero muy prometedor y sobre todo me encanta que George sean tan audaces. ]]>
brew tap spotify/public brew install scio scio-repl La primera linea instala el tap de spotify con las herramientas para mac/homebrew la gente de spotify y con la segunda se instala la versión compilada de scio REPL. Podéis encontrar algunos ejemplos de uso de Scio/REPL en la página de GitHub del proyecto Scio. ]]>
arquitectura kappa y prácticamente todos los proyectos en los que he estado implicado, se han desarrollado usando esta arquitectura. [caption id="attachment_2887" align="alignleft" width="150"] Apache Beam[/caption] Desde hace un tiempo he empezado a estudiar y usar Apache Beam. El punto de inflexión ha sido las charlas que vi durante la apachecon big data europe que se celebró en Sevilla y en la que di una charla sobre arquitectura kappa. La conversación que tuve con Sergio Fernandez (@wikier) fue decisiva. Cuando un crack como Sergio te cuenta como está trabajando con Apache Beam y por es una tecnología es killer es muy difícil no investigar más 😉 En resumen, Apache Beam es un framework para crear arquitecturas que trabajen con datos muy al estilo de la arquitectura kappa. Si hubiera que definir una sola característica por la que es interesante sería la capacidad de abstracción en la definición de la arquitectura con un DAG que se puede ejecutar contra distintos frameworks: Apache Spark, Storm, Flink, Google Dataflow o con un Local Runner en tu máquina. Ahora mismo está en el incubator de la fundación apache y debe estar a punto de ser aprobado para que se convierta en un proyecto oficial. Ya hay empresas usándolo en producción y las pruebas que he hecho no me han dado ningún problema. También hay una mala y una buena noticia. La mala es que apache beam esta escrito en java y se programa en java. No soy un fan de java y menos de como resuelven las API/SDKs. La buena noticia es que la gente de spotify que usa a tope Apache Beam se ha programado un binding para scala. Además son unos cracks y se nota en lo bien que han resuelto el binding. Han conseguido DSL funcional, bello y casi un clon de spark/cascading. Vamos que no pienso usar java y si scala con el proyecto Scio que es como se llama el proyecto de spotify. Que por cierto tiene licencia apache y está en proceso de merging con Apache Beam. No son los únicos dos proyectos que incluyo para el 2017, ya os contaré más en otros posts 😉 ]]>
https://research.googleblog.com/2016/11/zero-shot-translation-with-googles.html?m=1 ¿Ha aprendido Google translate a traducir lenguajes en los que no estaba entrenado? ]]>
Powered by WordPress