Best Recipes Ever Just another WordPress site

octubre 5, 2017

Ya está anunciado el cuarto meetup de GDG Cloud Madrid

Paola García que nos dará un taller de Firebase y google cloud functions. Podéis apuntaros en la página del meetup de GDG Cloud Madrid. ¿no conocéis GDG Cloud Madrid a que esperáis?  ]]>

marzo 23, 2017

Participaré en el meetup de Big Data y Machine Learning que organiza IBM

meetup de big data y machine learning que organiza IBM. Hablaré sobre el proyecto personal que estoy empezando: Boosterme La idea básica es explorar como generar gráficos de conocimiento personalizados. Uno de mis problemas es que veo/leo mucha información y por supuesto me desborda. Por otro lado es imposible, para mi, organizarla y luego poder usarla adecuadamente. La idea de Boosterme es generar un gráfico de conocimiento que luego me permita extraer la información que me interesa. De esto es de lo que hablaré en el meetup y estará enfocado sobre todo al proceso de ideación y como estoy organizando la arquitectura que por supuesto va a estar basada en el modelo propuesto por Jay Kreps: Kappa. Ahh y ya se que google y otras empresas tienen gráficos de conocimiento super potentes pero a mi me interesa solo lo que me interesa no todo el conocimiento y determinado por un espacio temporal 😉 Por otro lado la posibilidad de fusionar gráficos de conocimiento con otras personas puede ser muy interesante. Generación de inteligencia colectiva como bien enseñó Felipe Knowler. Poco a poco ire compartiendo más detalles y más información que da para unos cuantos posts.  ]]>

febrero 14, 2017

Google me ha nombrado GDE para cloud

Filed under: Open Sistemas,Personal,Proyectos — admin @ 1:26 pm

GDE (Google Developer Expert) es todo un honor. Ser reconocido por Google y formar parte de este grupo de profesionales es una oportunidad y un privilegio que no suele ocurrir muchas veces en la vida. Es obvio que pienso vivirlo con la intensidad que se merece 😉 Por supuesto esto no habría sido posible sin todo lo que me ha enseñado tanta gente por el camino, por los que confiaron en mi y por supuesto por los que me recomendaron e hicieron de mentores en este proceso. Muchas gracias a todos. ]]>

diciembre 20, 2016

Machine Learning Spain XVI

El siguiente meetup será el día 20 de diciembre (martes) a las 18:30h en Campus Madrid. Tenemos dos charlas aplicadas a sectores realmente interesantes: la primera relacionada con modelos aplicados a la publicidad y la segunda sobre el Hackaton Pythonhack organizado por Cajamar (aplicación real sobre banca). La agenda será la siguiente. 18:30 – Acceso al auditorio. Calle de Manzanares, 1. 18:40 – «Medición de impacto de la actividad publicitaria» Esta charla se enfoca en el uso de los modelos de ML en el sector de la publicidad, con especial atención al uso de series temporales. Con un enfoque práctico, hablarán del impacto que tienen las campañas publicitarias sobre los resultados del negocio, así como de algunos efectos importantes, como estacionalidad, festivos, promociones, etc… Ponentes: •Alfonso Salafranca.Director de Data Science en Havas. 15 años de experiencia en Modelización y Análisis de datos. Matemático por la Universidad Autónoma de Madrid y Profesor asociado a la Universidad Carlos III. Inicio su carrera en analítica en consultoría primero en Bayes Forecast y posteriormente en Neo-Metrics.  En BBVA ocupó las posiciones corporativas de Analytic Consumer Insights y Head of Innovación en Global Risk Managment. Desde el año 2011 su principal actividad ha estado relacionada con el mundo de la publicidad, primero con el Lanzamiento de YPerform y la construcción de un departamento de Marketing Intelligence para Ymedia y desde 2016 como Director de Data Science en el grupo Havas. Ha trabajado para anunciantes como Recoletos grupo editorial, Movistar, Bankinter, BBVA, VIvus, Ing Direct, Jazztel y Rastreator. Conferenciante en Universidades y  Escuelas de Negocio, ha publicado diferentes artículos de Analytics y Modelización. • Andriy Tkachenko.Data Scientist con 3 años de experiencia en Modelización y Análisis de datos en Havas. Licenciado en Ciencias Económicas y Empresariales por la Universidad Complutense de Madrid. Experiencia en el sector de la publicidad como analista de datos en departamentos de investigación/modelling. Trabajando en varios proyectos de modelling para clientes como Jazztel, Gas Natural, Prosegur, Ikea, La Nevera Roja. R Enthusiast, desarrollando herramientas propias de modelización y visualización de datos con el lenguaje de programación R. Participa activamente en las conferencias, locales y nacionales, relacionadas con el análisis de datos y programación en R. 19:30 – «Presentación mejores trabajos Cajamar PythonHack 2016». Presentación de los dos proyectos ganadores en la PythonHack 2016 (más información aquí) organizada por el Grupo Cajamar a través datos reales de la entidad. Los proyectos presentados cubren dos retos: uno de modelado (Predictive Modelling) y otro de análisis exploratorio/storytelling (Credit Card Analytics). Los proyectos Big Data son uno de los núcleos de la estrategia de innovación del Grupo Cooperativo Cajamar. Es por ello que impulsan la creación del Cajamar Data Lab, un equipo de especialistas dedicado a maximizar el potencial de los datos. En Cajamar Data Lab estamos convencidos de que la analítica avanzada es el ingrediente clave para la creación de productos y servicios del futuro. Cajamar PythonHack 2016 es la competición online de analítica de datos en base a datos bancarios reales del Grupo Cajamar organizada con motivo de la PyConES. La PyConES es un evento de tres días de duración que se celebró los días 7,8 y 9 de octubre de 2016 en Almería, en el que se dieron cita profesionales del lenguaje de programación Python que difunden su experiencia en varias sesiones de charlas técnicas. Ponentes equipo 1: • Javier Abadía. Lead Developer, más de 15 años liderando equipos de desarrollo y ‘predicando’ sobre desarrollo de software. Firme convencido de que el software debe tener 0 bugs, y de que lo que funciona son los métodos ágiles, las pruebas en modo paranoico, la automatización y sobre todo el trabajo en equipo. Esquiador y corredor, ha decidido divertirse desarrollando la mejor plataforma de analíticas que se haya visto nunca. Ingeniero en Informática por la Universidad de Zaragoza y MBA por el Instituto de Empresa. • Alicia Pérez. Backend Developer, Ingeniera informática por la Universidad Complutense de Madrid y Máster en Data Science por la escuela MBIT. En sus 9 años de experiencia ha trabajado para varias empresas y con numerosas tecnologías, pero desde 2015 disfruta trabajando en la parte back-end de StyleSage, donde la moda y el Big Data se unen para dar lugar a una increíble plataforma de analíticas. Amante de los datos (sobre todo geográficos), del trabajo en equipo, del patinaje y del queso. • Jose Mª Álvarez. Comenzó su carrera hace más de 15 años en grandes compañías como Motorola o Telefónica, después de terminar Ing. Informática en la URJC de Madrid. En los últimos años, ha participado en numerosos proyectos de Startups en campos como la ciberseguridad, la educación y la sanidad enfocada al envejecimiento activo. Hace 2 años, se unió a Stylesage donde trabaja como Backend Developer en la parte extracción y análisis de datos. Ponente del equipo 2: • Óscar González. Doctor Ingeniero de Telecomunicación. Data scientist en ETS Asset Management Factory. 20:30 – ¡Cervezas y networking! Tomaremos unas cervezas y podremos seguir charlando sobre los temas de interés que salgan en esta jornada. Nos vemos pronto, el 20 de diciembre en Campus Madrid.]]>

diciembre 14, 2016

Proyectos que molan: autopilot de comma.ai

George Hotz es un crack y ha decidido abrir su proyecto openpilot para desarrollarlo en comunidad. Voy a seguirlo de cerca por que no todos los días tienes la posibilidad de ver como se desarrolla un proyecto de conducción autónoma que pretende competir con los grandes. Si tenemos en cuenta que el proyecto de google empezó con la compra una empresa que tenía 5 empleados y habían desarrollado un prototipo muy alfa, todo es posible 😉 El código de openpilot esta disponible en GitHub y en la web en la parte de research de comma.ai empiezan a publicar los primeros videos de como empieza a entender la cámara frontal. Además están disponibles vídeos y datasets. Muy alfa pero muy prometedor y sobre todo me encanta que George sean tan audaces. ]]>

diciembre 12, 2016

Andrew Ng esta escribiendo un nuevo libro: Machine Learning Yearning

Machine Learning Yearning«.   ]]>

diciembre 10, 2016

SCIO: como instalar la consola en Mac OSX

Filed under: big data,google bigquery,Open Sistemas,Proyectos — Etiquetas: , , — admin @ 8:00 am

brew tap spotify/public brew install scio scio-repl La primera linea instala el tap de spotify con las herramientas para mac/homebrew la gente de spotify y con la segunda se instala la versión compilada de scio REPL. Podéis encontrar algunos ejemplos de uso de Scio/REPL en la página de GitHub del proyecto Scio.    ]]>

diciembre 9, 2016

Google libera el embedding Projector

Filed under: Open Sistemas,Proyectos,tensorflow — Etiquetas: , , — admin @ 9:11 am

tensorflow es fundamental para poder entender la información que se genera en los distintos procesos. Nos ayuda a comprender que está pasando dentro de nuestras arquitecturas deep learning. Además embedding projector se ofrece como servicio online y no te fuerza a que se tenga que instalar en tu máquina local. Merece la pena echarle un vistazo.      ]]>

diciembre 8, 2016

Mis proyectos favoritos para el 2017

arquitectura kappa y prácticamente todos los proyectos en los que he estado implicado, se han desarrollado usando esta arquitectura. [caption id="attachment_2887" align="alignleft" width="150"]Apache Beam Apache Beam[/caption] Desde hace un tiempo he empezado a estudiar y usar Apache Beam. El punto de inflexión ha sido las charlas que vi durante la apachecon big data europe que se celebró en Sevilla y en la que di una charla sobre arquitectura kappa. La conversación que tuve con Sergio Fernandez (@wikier) fue decisiva. Cuando un crack como Sergio te cuenta como está trabajando con Apache Beam y por es una tecnología es killer es muy difícil no investigar más 😉 En resumen, Apache Beam es un framework para crear arquitecturas que trabajen con datos muy al estilo de la arquitectura kappa. Si hubiera que definir una sola característica por la que es interesante sería la capacidad de abstracción en la definición de la arquitectura con un DAG que se puede ejecutar contra distintos frameworks: Apache Spark, Storm, Flink, Google Dataflow o con un Local Runner en tu máquina. Ahora mismo está en el incubator de la fundación apache y debe estar a punto de ser aprobado para que se convierta en un proyecto oficial. Ya hay empresas usándolo en producción y las pruebas que he hecho no me han dado ningún problema. También hay una mala y una buena noticia. La mala es que apache beam esta escrito en java y se programa en java. No soy un fan de java y menos de como resuelven las API/SDKs. La buena noticia es que la gente de spotify que usa a tope Apache Beam se ha programado un binding para scala. Además son unos cracks y se nota en lo bien que han resuelto el binding. Han conseguido DSL funcional, bello y casi un clon de spark/cascading. Vamos que no pienso usar java y si scala con el proyecto Scio que es como se llama el proyecto de spotify. Que por cierto tiene licencia apache y está en proceso de merging con Apache Beam. No son los únicos dos proyectos que incluyo para el 2017,  ya os contaré más en otros posts 😉  ]]>

noviembre 5, 2016

Nuevo curso online de Scala

Filed under: Personal,Proyectos,scala — Etiquetas: , — admin @ 10:38 am

curso de scala que está muy bien. Si quieres empezar con scala o quieres reforzar algunos temas es muy recomendable.        ]]>

Older Posts »

Powered by WordPress