Vea el ENVIVO del Analytics Forum 2020 acá: https://youtu.be/EW-1ROHzatc

Conferencistas

Diego Klabjan, PhD
Director y fundador del Programa Master of Science in Analytics de la Universidad de Northwestern, Estados Unidos.
 
 


Curriculum Vitae

Diego Klabjan is a professor at Northwestern University, Department of Industrial Engineering and Management Sciences. He is also Founding Director, Master of Science in Analytics and Director, Center for Deep Learning. After obtaining his doctorate from the School of Industrial and Systems Engineering of the Georgia Institute of Technology in 1999 in Algorithms, Combinatorics, and Optimization, in the same year he joined the University of Illinois at Urbana-Champaign. In 2007 he became an associate professor at Northwestern and in 2012 he was promoted to a full professor. His research is focused on machine learning, deep learning and analytics (modeling, methodologies, theoretical results) with concentration in finance, insurance, sports, and bioinformatics. Professor Klabjan has led projects with large companies such as Intel, Baxter, Allstate, AbbVie, FedEx Express, General Motors, United Continental, and many others, and he is also assisting numerous start-ups with their analytics needs. He is also a co-founder of Opex Analytics LLC, a LLamasoft company.

Conferencia: Taking Artificial Intelligence to the next level

There are abundant stories about deep learning creating a new revolution. Nevertheless, general artificial intelligence is currently out of reach and yet we seem to attack every data-related problem through the lenses of deep learning and artificial intelligence. We discuss traditional and ‘contemporary’ use cases of artificial intelligence and the

underlying modeling concepts, and when to use old-fashion linear regression. Even well-known use cases can easily end up in a rut due to the immense difference between model training and model serving which is the process of deploying machine learning models. We will articulate the challenges of model serving for deep learning and offer some suggestions.

Descargar presentación Aquí. 

Nohora Diaz
Director II, Data Science, East & West Predictive Modeling Liberty Mutual

 


Curriculum Vitae

Leader in Data Science, with the passion and experience to give strategic solutions to make proactive decisions in the business. 13 years of experience, mainly in the insurance market, leading product, data science and actuarial teams. She has learnt that predictive models are not the solution for all the questions, but in those that can be used, haven been possible to achieve competitive advantages, keeping profitable results and increasing the market share.

 

Líder en ciencia de datos, con la pasión y experiencia de dar soluciones estratégicas para tomar decisiones de manera proactiva en el negocio. Con 13 años de experiencia, principalmente en el sector asegurador, liderando equipos de producto, ciencia de datos y actuaría . Ella ha aprendido que los modelos predictivos no son una solución para todas las preguntas, pero en ellas que puede usarse, ha sido posible lograr ventajas competitivas, mantener resultados rentables y aumentar la participación en el mercado.

Conferencia: Global Data Science teams. Make it happen

Existen factores claves que marcan la diferencia entre construir modelos predictivos y hacer que estos realmente generen impacto positivo. Los desafíos no se limitan a construir un modelo lo suficientemente preciso. Esto ya son parte del reto que sabemos vamos a enfrentar. En un proyecto global toman relevancia otros desafíos, la comunicación, cultura y el construir equipo a pesar de no estar en una misma ubicación. Al igual que los primeros desafíos, el que existan hace más interesante el proceso y cuando llegamos a la solución, obtenemos un nuevo aprendizaje, para ser utilizado en un mundo cambiante que requiere cada día nuevas respuestas. Todo está en hacer que pase.

Ronaldo Menezes
Universidad de Exeter

Professor of Data and Network
Science Director of the Biocomplex
Laboratory Head of Computer Science


Curriculum Vitae

Ronaldo Menezes is a Professor of Data and Network Science and head of the Computer Science department at the University of Exeter, and Director of the BioComplex Laboratory.  His research interests include Network Science, Human Dynamics and Mobility, Complex Systems, and Urban Systems. He has spent 18 years in academia in the USA before moving to the University of Exeter in late 2018. His lab has received funding from the National Science Foundation (USA), Army Research Office (USA), CAPES (Brazil), FUNCAP (Brazil), to name a few.  He has relevant skills in modelling human mobility and spatiotemporal data analysis, as evidenced by several publications including an extensive survey  entitled “Human mobility: Models and applications”, a new model to capture human patterns called “The Effect of Recency to Human Mobility” and several other works in which human mobility modelling is used as a framework for solving real-world applications such as “social influence”,  “sensor networks”, and “crime prediction”. He’s deeply involved with the research community in Human Mobility and Network Science as a founding member of the steering committee of CompleNet and a board member of NetSci Society and the Latin American Conference on Complex Networks (LANET). He is also the co-editor-in-chief of one of the main journals in the field: Applied Network Science published by Springer Nature. He has published more than 100 peer-reviewed publications in these fields and has collaborated with more than 30 researchers worldwide.

Conferencia: Using Data Analytics to Understand Human Mobility Patterns in Cities

In this talk we’ll show how one can use traces of human activity in cities to understand regularities in human mobility. Many of the problems in cities such as traffic, landscape usage, planning, and even spread of diseases, are intrinsically linked to how people move. We’ll demonstrate how humans have a preference for certain kinds of locations leading to predictability at the spatial and temporal levels. We’ll discuss also how such patterns have are being used to improve what we call mobility inequality based on gender and social economic factors.

Álvaro Mendoza 
Líder Regional de Analytics en EY

Consultoría para el sector Financiero en Latam North


Curriculum Vitae

Álvaro es el socio líder en EY de consultoría en analytics para las empresas del sector financiero en la región Latam North (desde Perú hasta México). Cuenta con más de 15 años de experiencia mejorando la toma de decisiones y transformando procesos en organizaciones de diferentes sectores por medio de modelos y herramientas analíticas. Ha desempeñado roles de consultoría y liderazgo en áreas de estrategia, operaciones y gestión de riesgos. Álvaro tiene un Ph.D. en Decision Sciences de la Universidad de Duke y una Maestría en Ingeniería Industrial, con énfasis en investigación de operaciones, de la Universidad de los Andes.

Conferencia: The Analytics-Driven Organization

Muchas organizaciones reconocen el potencial de analytics como elemento transformador y generador de ventaja competitiva, pero siguen enfrentando retos para pasar de la intención a la acción y para generar impacto. En esta charla, discutiremos la estrategia y los elementos clave que una organización debe considerar para desarrollar capacidades analíticas de una manera estructurada, efectiva y sostenible, y convertirse así en una Analytics-Driven Organization.

Patrocinadores

Workshops


Workshop 1 - Introduction to Predictive Modeling






Instructor del Workshop: Felipe Ramirez

Este curso es un abre bocas de conceptos y métodos estadísticos para el análisis de datos bajo el enfoque de modelamiento predictivo (“machine learning”). Incluye problemas de regresión , clasificación, y aprendizaje no-supervisado.

Workshop 2 - Modelo de Scorecards con Knowledge Studio




Instructor del Workshop: Mariana Osorio Olvera

Las decisiones de otorgamiento de crédito son cruciales en la administración de riesgo de las instituciones financieras. Estas instituciones tradicionalmente han utilizado los scorecards para estandarizar y automatizar las decisiones de crédito. Hoy en día estos modelos analíticos se utilizan en una amplia gama de sectores para mitigar el riesgo operativo y minimizar pérdidas. Los scorecards son modelos analíticos que evalúan a clientes nuevos y existentes para determinar si aceptar o rechazar sus aplicaciones a productos disponibles. A los aplicantes se les asigna una calificación (score) y, basado en un umbral especificado, se aceptan o rechazan. En el workshop Modelo de Scorecards con Knowledge Studio los participantes aprenderán a utilizar Knowledge Studio, la plataforma de Altair para analítica predictiva, para crear un modelo de scorecard que permita predecir la probabilidad de incumplimiento de un préstamo.

Workshop 3 - Machine Learning Automation | Inteligencia Artificial Hecho Realidad con DataRobot



Instructor del Workshop: Andrea Ruiz Guerrero y Orlando Díaz Benito

El aprendizaje automático es la ciencia que permite a las computadoras aprender a través de diversos algoritmos y realizar así predicciones, encontrar patrones y ejecutar un sin fin de tareas que de otro manera no serian posibles. En la última década, el aprendizaje automático nos ha brindado vehículos autónomos, reconocimiento de voz práctico, búsqueda efectiva en la web y una comprensión enormemente mejorada del genoma humano. El objetivo de este workshop es iniciarlos en esta ciencia y su aplicabilidad en el mundo laboral para ser así mas competitivos y efectivos en la toma de decisiones.

Workshop 4 - Credit Risk Scoring. ¡Cómo incrementar colocaciones mitigando el riesgo! con Timi Suite.








Instructor del Workshop: Daniel Soto Zeevaert, Director Ejecutivo Timi Américas SAS

El impacto de las iniciativas de parte del Gobierno para incrementar el porcentaje de la población bancarizada, así como todo el desarrollo a nivel global en términos de analytics y transformación digital, han desencadenado que cada vez más compañías del sector inviertan en procesos de data analytics, entregando capacidad para el desarrollo de modelos analíticos automatizados en pro de mejorar sus porcentajes de colocaciones sin sacrificar los ínidices de rentabilidad y cobranzas. Timi Américas la sucursal de Timi para la región de Latino América, nos muestra como medir y mitigar el riesgo a través de la analítica de datos y el desarrollo de modelos predictivos de Credit Risk Scoring, con altos niveles de estabilidad y precisión, replicables y sustentables hacía las entidades reguladoras, disminuyendo los tiempos de desarrollo (pasando de meses a días). En este contexto el workshop, aporta a través de un marco práctico los skills para el desarrollo de un Modelo de Score Crediticio en Timi. Con Timi serás capaz de procesar grandes volúmenes de datos en tiempo record, capaz de agilizar y automatizar los procesos de data analytics.

Tracks

Track 1 - Crime Investigation with Analytics

A lo largo de la historia, la criminología busca comprender el crimen; por qué ocurre, dónde y cuándo. En la mayoría de los casos, este ejercicio científico se ha centrado en comprender mejor quién comete un delito permite diseñar mejores políticas de prevención, mitigar los riesgos y gestionar la asignación eficiente de recursos. El avance en la analítica de datos ha permitido el desarrollo de nuevas formas de predecir la incidencia del delito y comprender los impactos de las características sociales e individuales en el comportamiento delictivo; en este track se presentaran algunos de los proyectos implementados en Colombia.


Presentación 1

 

 

  • Empresa: Fiscalía General de la Nación
  • Título: PRiSMA: Perfil de Riesgo para Solicitud de Medida de Aseguramiento
  • Expositores: Andrés Felipe Camacho y Lina Patricia Navas
  • Descripción: En el sistema penal colombiano, fiscales y jueces enfrentan diariamente en el ejercicio de su función, la obligación de solicitar y ordenar medidas que restringen el derecho a la libertad. La argumentación del fiscal para solicitar esta medida, que será evaluada por el juez, debe centrarse en probar que la finalidad de esta restricción es la de asegurar: i) la comparecencia del imputado al proceso; ii) la protección de la comunidad y de las víctimas del riesgo de que el procesado cometa otro delito; iii) el cumplimiento de la pena; y iv) evitar la obstrucción a la justicia. En este proceso, las decisiones frecuentemente dependen de la experiencia del fiscal y del juez, de su estimación subjetiva del riesgo del indiciado y de la capacidad del fiscal para argumentar la necesidad de la imposición de la medida restrictiva de la libertad. Sin embargo, en la mayoría de los casos estas decisiones se toman a partir de información incompleta y en un tiempo limitado.

    En ese orden de ideas, la Fiscalía General de Colombia desarrolló PRiSMA (siglas de ‘Perfil de Riesgo para la Solicitud de Medidas de Aseguramiento’), una herramienta que busca reducir la falta de información para apoyar la toma de decisiones sobre medidas de aseguramiento. Con este fin, la herramienta aplica algoritmos de machine learning, que predicen de manera objetiva la probabilidad de que una persona procesada por la comisión de un delito pueda continuar con la actividad delictiva, representando un peligro para las víctimas y/o la sociedad.

    El uso de esta herramienta busca facilitar que los fiscales soliciten medidas de aseguramiento intramural a los indiciados que representen un mayor riesgo de reincidencia, al igual que evita que personas con bajo riesgo resulten privadas de la libertad. A su vez, PRiSMA busca homogeneizar la información disponible ante los fiscales y jueces al momento de tomar la decisión de solicitar u otorgar medidas de aseguramiento.

    El desarrollo y la aplicación de una herramienta como esta no tiene precedentes en países de la región, siendo la primera vez que se aplicará en Suramérica, en un Estado que presenta unas características delictuales muy particulares, pues se trata de un país en post conflicto, con presencia de organizaciones criminales, altas tasas de homicidio y de reincidencia y con altos niveles de hacinamiento en los establecimientos carcelarios. Estas características hacen sumamente innovador este proyecto y se espera que el mismo se convierta en un gran insumo para aunar esfuerzos en la prevención del delito y en la descongestión del sistema carcelario y penitenciario al identificar a los indiciados más riesgosos.

Presentación 2

  • Empresa: Quantil

  • Título: Predicción de homicidios a través de modelos adversariales generativos

  • Expositor: Juan Sebastian Moreno

  • Descripción: La predicción de homicidios, al igual que la de otros crímenes, presenta múltiples retos, en particular la baja frecuencia de ocurrencia de los mismos. Utilizamos redes adversariales generativas (GANs) para construir distribuciones de crimen para Bogotá. Estás redes son particularmente interesantes ya que su entrenamiento parte de una "competencia" (juego de suma cero) entre dos redes neuronales, una generadora cuyo objetivo es hacer pasar como realista su creación frente a otra red que busca discriminar entre la realidad y lo fabricado por la primera. Está metodología permite lidiar con variables de baja frecuencia. Además, añadimos a las GANs capas convolucionales y recurrentes para capturar patrones espaciales y temporales en la ocurrencia de homicidios. También se incluyen en el análisis variables como distancias a la estación de policía más cercana, presencia de infraestructuras educativas y clínicas, entre otras para capturar el contexto y sus efectos sobre la ocurrencia de homicidios.

 
Presentación 3

  • Empresa: Grupo Alto
  • Título: Computer vision: más allá de un análisis de video
  • Expositor: Daniel López
  • Descripción: La pérdida operativa, especialmente la pérdida desconocida producida por sustracción o hurto, es un problema que afecta a múltiples industrias a nivel mundial. ALTO, empresa multinacional líder en la creación de soluciones integrales e innovadoras para prevenir y disminuir las pérdidas patrimoniales, enmarca su actuar en tres pilares: inteligencia de información, persecución penal inteligente y comunicación disuasiva. 

Track 2 - Customer Analytics

Diariamente las empresas producen, reciben y procesan millones de datos. Se puede entender, entonces, que la toma de decisiones a partir del análisis de datos hace parte fundamental de todas las áreas organizacionales de las empresas para garantizar su buen funcionamiento. En este Track encontrará panelistas que compartirán su experiencia en la aplicación de técnicas de análisis de datos en áreas como finanzas, mercadeo, emprendimiento para que actualice sus conocimientos y se entere como las compañías están aplicando el análisis de datos.


Presentación 1

  • Empresa: Uniandes
  • Título: Atención al cliente por medio de reconocimiento facial
  • Expositor: Adelaida Zuluaga
  • Descripción: La robótica social se ha convertido en uno de los avances tecnológicos más importantes a los que se ha llegado hoy en día. Aun así, el reto más grande es como integrar los robots a los ambientes humanos. Por este motivo, la investigación en la interacción natural humano robot está creciendo significativamente. Hoy en día los robots tienen un rol de asistentes en aplicaciones del da a día de las personas como por ejemplo en la educación, en temas de la salud, atención al cliente, entre otros. En este orden de ideas, una de las metas actuales es permitir que los robots sociales tengan una buena relación con las personas y alcancen un papel beneficioso en la cotidianidad. Para ello se requiere desarrollar habilidades cognitivas y sociales que sean aplicadas al comportamiento de los robots, dentro de las cuales se encuentran la identificación y el reconocimiento facial; mediante este proyecto se busca trabajar alrededor de este tema.

    El proyecto consiste en la implementación y desarrollo de un sistema que pueda ser de gran utilidad para oficinas, hoteles, universidades, entre otros, pues es una aplicación que permitirá brindar atención al cliente. La aplicación sería implementada en un robot semi-humanoide, con el fin de apropiarse del contexto de interacción entre el robot y los clientes. Se utilizó el robot semi-humanoide Pepper creado por Softbank Robotics, el cual se encuentra en uno de los laboratorios de la Universidad de los Andes. El prototipo se desarrolló utilizando modelos pre-entrenados y técnicas de Machine Learning. Adicionalmente, se creó una base de datos con imágenes de estudiantes de la Universidad de los Andes, con la cual se realizaron las pruebas necesarias. El modelo de reconocimiento facial se entrenó con la base de datos para que así fuera capaz de reconocer la persona con la cual interactúa. En caso de que el robot no conozca a la persona, es decir que no se encuentre en la base de datos, el robot toma una serie de imágenes de la persona y se re-entrena el modelo, de manera tal que esta persona pueda ser reconocida por el robot en futuras interacciones.

    El producto final es una prueba en tiempo real con el robot, el cual detecta a una persona, interactúa con ella y después puede saber si es conocida o desconocida. La aplicación de atención al cliente de manera satisfactoria, la cual incluye un sistema de detección facial de alta precisión y un sistema de reconocimiento facial cuyas predicciones dependen directamente de las condiciones de luz. Así, el robot es capaz de identificar a una persona en el momento en el que se le acerca, y a partir de la base de datos puede saber si es conocida o desconocida, bajo buenas condiciones de luz. Ante altas variaciones de luz tiende a fallar el reconocimiento del usuario. Por esto, a futuro se busca utilizar una solución más efectiva y robusta para la etapa de reconocimiento facial, para poder garantizar una atención de alta calidad a los usuarios.

Descargar presentación Aquí. 

Presentación 2

  • Empresa: Mondelez International

  • Título: IA en el Punto de Venta: Retos y Oportunidades

  • Expositor: Francisco Ortiz

  • Descripción: Durante años, los grandes fabricantes de consumo masivo han enfocado su estrategia en ofrecer productos que satisfagan las necesidades de grandes segmentos de la población, en donde la forma tradicional de segmentar el portafolio es por canal: Canal Moderno y Canal Tradicional. En países tan diversos y desiguales como los de América Latina y con tendencias demográficas cambiantes y una presión constante por mejorar la ecuación de valor y reducir el precio, las compañías de Consumo Masivo se enfrentan al reto de crecer y de innovar, sabiendo que más del 90% de las innovaciones fracasan. El reto es cómo a través de Analytics podemos encontrar la escala suficiente para crecer e innovar, logrando una visión integrada de Consumidor y Canal a través de Inteligencia Artificial y entendimiento de las misiones de compra. Traducir a variables la experiencia de compra del Shopper y diseñar estrategias de precio microsegmentadas entendiendo la oportunidad de crecimiento a nivel de punto de venta. En la presentación proponemos una integración de 1. Experiencia de compra convirtiendo lo que ocurre en la góndola en variables a través de Image Recognition y entendiendo la experiencia de compra a través de Computer Vision. 2. Información de Consumidor a través de Georeferenciación y Mapas de Calor. 3. Machine learning integrando 1 y 2 con Información de Venta Interna buscando maximizar el retorno a la inversión en el Punto de Venta. De esto se desprenden varios proyectos que se complementan: A) New Retail Data, basado en Image Recognition, cómo convertir lo que el Shopper ve en la tienda en variables de negocio impactando la forma de trabajo de la fuerza de ventas. B) Shopper Lab, basado en Computer Vision, cómo transformar tiendas del Canal Tradicional en laboratorios para entender el impacto en rotación de variables como: Publicidad microsegmentada, Elasticidad Precio, Impacto del surtido y la planometria en la rotación y comunicación en el punto de venta. C). Motor de decisión de Promociones: como unir información de Consumidor, Información de Canal y Data Interna buscando optimizar la estrategia de descuento logrando aumentar la distribución numérica en los puntos de venta con mayor oportunidad de volumen. Cerramos la presentación con nuevas oportunidades de uso de AI en el punto de venta: Meta Visión, Publicidad Personalizada, Descuentos Personalizados, Shopper Journey e Innovation Lab: como transformar el punto de venta en un laboratorio.
    Mondelez International es la compañía líder en el mundo en el segmento de Snacks como marcas icónicas como Oreo, Chips Ahoy!, Belvita, Club Social, Milka, Côte d'Or, Toblerone, Cadbury, Trident, Chiclets, Halls, Tang entre otras.

Presentación 3

  • Empresa: Infometrix
  • Título: ¿Cómo pasar de tener insights analíticos a la acción?
  • Expositor: Natalia Barrero
  • Descripción: De los retos más grandes que enfrentamos en ésta área es lograr convertir los insights que obtenemos de nuestros modelos en acciones reales y tangibles en las organizaciones. Desplegar una estrategia en acciones tácticas en campo es siempre un gran desafío. En esta charla conoceremos cómo hemos logrado operacionalizar los resultados de modelos analíticos y disponibilizarlos para que estén a la mano de cualquier tipo de usuario en las compañías.

Track 3 - Prescriptive analytics for decision making

 

La identificación del uso de los datos y las oportunidades de implementación de proyectos permite aprovechar las ventajas que ofrecen las herramientas de inteligencia analítica. Por lo cual es de suma importancia diseñar, correctamente, metodologías para convertir en conocimiento accionable los datos que existen en las organizaciones. Por eso en este track podrá evidenciar como en diferentes  entidades han logrado pasar desde datos a acciones estratégicas y tácticas.


Presentación 1

  • Empresa: Grupo Meiko Latam
  • Título: Analytics en la Industria de Consumo Masivo: Optimizando Mediciones del Retail a través de metodología de Machine Learning
  • Expositor: Juan Pablo García
  • Descripción: En Latino américa, a diferencia de otras regiones del mundo, la tienda de barrio tradicionalmente ha sido y continúa siendo el principal canal de compra de bienes de consumo. A pesar del surgimiento de nuevos canales como el Hard Discount en Colombia (D1, Justo y Bueno, Ara) o el Comercio Electrónico, la tienda de barrio no ha perdido su relevancia y ha entrado en una fase de transformación.
  • Grupo Meiko Latam se especializa en medir y entender el ecosistema de las tiendas tradicionales de Latino américa para apoyar la toma de decisiones de los grandes actores de la industria de consumo masivo. Para lograr esto, es importante entender qué pasa alrededor de una tienda de barrio. Cuáles son los factores que hacen que una tienda esté presente en una zona determinada. Qué diferentes factores pueden incidir sobre la presencia de una tienda tradicional vs. la presencia de un autoservicio. Para descubrir estos factores, Grupo Meiko cuenta con una gran cantidad de información de geo-localización como malla vial, NSE de un área determinada, o presencia de puntos de interés como parques o centros comerciales. El objetivo de esta presentación es mostrar cómo a partir de metodologías de Machine Learning, grupo Meiko ha logrado entender qué factores inciden sobre la presencia de una tienda en un sector determinado. Estimar un universo de tiendas y lograr predecir, en línea con las obras de planificación urbana, cómo se espera que se adapte el comercio. Adicionalmente, este entendimiento del ecosistema de Retail le ha permitido a Grupo Meiko optimizar sus metodologías de captura física de información aplicando modelos de optimización de flujo en redes, llevando a reducción de costos y mejoramiento en la data capturada.
Presentación 2

  • Empresa: Stybo Systems 
  • Título: La evolución de los modelos de negocios a partir de los datos
  • Expositor: Robby Vega
  • Descripción: La digitalización, la omnicanalidad como pilar para la construcción de relaciones con los clientes y la exigencia de consumidores más informados y conectados, son solo algunas de las razones que hacen indispensable que las compañías sean cada día más competitivas digitalmente. Las estrategias basadas en datos permiten anticiparse a lo que los consumidores esperan logrando crear experiencias extraordinarias.
Presentación 3

  • Empresa: IBM + MENTe
  • Título: Analitica de Comportamiento Humano
  • Expositor: Mauricio Arevalo
  • Descripción: MENTe es un sistema de analitica de Comportamiento Humano capaz de ayudar a las personas a conocer su huella digital en la Red y  mejorar el contenido que está publicando. MENTe utiliza técnicas de Inteligencia Artificial (Ai) , Big Data y Analitica para vrear perfiles digitales produndos.

Descargar presentación Aquí. 


Track 4 - Analytics for Public Sector 

 

Las políticas públicas no son ajenas a los avances en área de análisis de datos. Diariamente las instituciones públicas y otras organizaciones con intereses públicos reciben millones de datos sobre sus ciudadanos, y los utilizan en muchos casos para generar nuevos programas y políticas de beneficio social. En este Track, de la mano con expertos, podrá conocer cómo las técnicas para el análisis de datos se pueden utilizar para formular políticas públicas.


Presentación 1

  • Empresa: DIAN
  • Título: La democratización de la ciencia de datos: revolucionando la administración de impuestos y aduanas nacionales  
  • Expositor: María Fernanda Osorio
  • Descripción: Dentro de su proceso actual de transformación y modernización, la DIAN ha definido como uno de sus objetivos estratégicos incorporar la analítica para mejorar sus procesos, en especial, aquellos relacionados con riesgos de incumplimiento e inteligencia en materia tributaria, aduanera y cambiaria.
Presentación 2

  • Empresa: Hospital Militar
  • Título: Analítica en el Hospital Militar Central
  • Expositor: Adriana Beltrán
  • Descripción: A pesar de los esfuerzos y recursos invertidos en mejorar las tecnologías con el fin de optimizar la prestación de los servicios de salud, para las instituciones y particularmente los Hospitales, aún persisten grandes dificultades las cuales llevan a ineficiencias, altos costos y en ocasiones calidad subóptima en la prestación de los servicios de salud; mejorar la toma de decisiones basada en los datos disponibles podría mitigar estas dificultades.
    Desde hace varios años el Hospital Militar Central ha invertido recursos importantes en mejorar el sistema de captura de información con el fin dar trazabilidad a todo el funcionamiento del Hospital, desde la prestación del servicio de salud hasta todos los procesos administrativos, generando grandes volúmenes de datos, a través de la conformación de un centro de innovación y por medio de una alianza con la Universidad de los Andes y del análisis de esta información se han desarrollado herramientas y técnicas para extraer conocimiento a partir de estos datos con el fin ayudar en la toma de decisiones en el Hospital.
    Respecto a herramientas para apoyar la toma de decisiones y utilizando analítica predictiva, se han desarrollado algoritmos que permiten identificar pacientes en mayor riesgo de sufrir eventos hospitalarios no deseados, los cuales, pueden significar peores desenlaces en los pacientes como por ejemplo mayor mortalidad y además mayores costos para el sistema de salud, como por ejemplo, los reingresos hospitalarios, respecto a herramientas para mejorar la toma de decisiones a nivel administrativo, y utilizando analítica descriptiva se han desarrollado herramientas para medir de forma semiautomática indicadores de los procesos de atención en los servicios de urgencias y de hospitalizaciones, además, que permiten monitorear la frecuencia de eventos no deseados como las reintervenciones quirúrgicas, en menor tiempo, adicionalmente, utilizando técnicas de analítica visual se ha facilitado la generación de conocimiento nuevo por parte de los usuarios finales partir de estos datos, en el ámbito de salud pública y utilizando modelos de regresión y bases de datos nacionales se han realizado proyectos que han permitido abordar problemas en algunas enfermedades como son el Lúpus eritematoso sistémico y la artritis reumatoide con el fin de identificar desenlaces como la utilización de recursos en salud, los costos de estas enfermedades e inequidades en salud, resultados que podrían ser de gran utilidad para apoyar la generación de políticas públicas a nivel nacional, adicionalmente, se han desarrollado herramientas de utilidad en el área de farmacovigilancia dos en particular la primera a través de dos sistemas de monitoreo de la política de prescripción de antibióticos y de medicamentos de alto costo, utilizando analítica descriptiva.
    Para el Hospital Militar Central, este es un proceso nuevo que requiere de infraestructura, conocimiento de los datos, alianzas estratégicas y un trabajo interdisciplinario entre los expertos en ingeniería y los expertos en el tema en salud, además, es fundamental desarrollar herramientas que permitan a los usuarios finales, que usualmente no son expertos en analítica, interpretar los datos para generar nuevos conocimientos y nuevas preguntas a partir de esta información.
Presentación 3

  • Empresa:  DNP
  • Título: Detección de infraestructura y ocupación dentro de rondas hídricas a partir de imágenes satelitales.
  • Expositor: David Insuasti
  • Descripción: La Unidad de Científicos de Datos del DNP está incursionando en el desarrollo de herramientas para el análisis de información cartográfica e interpretación de imágenes satelitales para identificar ocupación o infraestructura construida dentro de las zonas demarcadas como ronda hídrica, como apoyo a la toma de decisiones en la planificación territorial y del desarrollo, considerando las realidades territoriales para generar intervenciones más seguras que propendan por la eficiencia en la inversión y ejecución del gasto público.

Casos de Éxito

Casos de Éxito 1


Uniandes+ Superfinanciera

  • Título:Analytics para detectar soborno transnacional – Caso aplicado SIS 
  • Expositor: Juan Diego Aristizabal y Daniela Azumendi 
  • Descripción: En conjunto con la Superintendencia de Sociedades se desarrolló una metodología basada en Investigación de Operaciones para identificar compañías que podrían tener un riesgo alto de cometer soborno transnacional. La corrupción, en este caso el soborno, no puede ser medido por una sola variable, por lo que se utilizaron diferentes fuentes para componer cuatro núcleos de información: las características generales de la compañía, el riesgo asociado a los países donde tiene actividades comerciales, su riesgo de caer en una situación de estrés financiero en el corto plazo y la probabilidad de que haya alterado sus Estados Financieros. Basados en estos datos, se construyeron modelos descriptivos y predictivos para caracterizar y evaluar el estado actual y futuro de la compañía, buscando detectar posibles conductas ilegales. Como resultado de esta metodología, se construye un índice de riesgo que permite a la Superintendencia priorizar los casos de investigación, asignando sus recursos de una forma más eficiente. El índice de riesgo es alimentado por un modelo de clustering K-Medias Factorial para establecer el nivel de riesgo asociado a tener negocios en un determinado país, un modelo de clasificación Random Forest para determinar si una compañía tiene riesgo de estrés financiero en el corto plazo y los modelos de Beneish y de Jones (modificado) para calcular la probabilidad de alteración de los Estados Financieros. 
TIMI + Formato Banco Retail Perú

  • Título: Beneficios de la industrialización de modelos en un banco retail en Perú
  • Expositores: Manuel Valdivia Carbajal y Daniel Soto
  • Descripción: En Perú, el impacto de las iniciativas de parte del Gobierno para incrementar el porcentaje de la población bancarizada, así como todo el desarrollo a nivel global en términos de analytics y transformación digital, han desencadenado que cada vez más compañías del sector inviertan en procesos de data analytics; capaces de desarrollar modelos analíticos en pro de mejorar sus colocaciones, rentabilidad, índices de cobranzas, eficiencia entre otras.

    La cantidad de modelos analíticos en las empresas en Perú se ha incrementado de manera sustancial, con lo cual se presentan nuevos retos a la hora de trabajarlos y gestionarlos, por ejemplo: Óptimos tiempos de ejecución, mayor precisión y estabilidad del modelo, gobierno y seguimiento. En este contexto las herramientas open source no brindan necesariamente entornos que den solución a la necesidad de administrar grandes cantidades de modelos, en la presente ponencia les compartiré como un banco retail en Perú industrializó su fábrica de modelos, logrando impacto en ventas y mejor time to market.

Altair + Empresa

  • Título: Data Analytics para bancos y uniones de crédito
  • Expositores: Mariana Osorio- Ricardo Garza
  • Descripción: Altair Knowledge Works ayuda a bancos y uniones de crédito a lograr sus objetivos operativos y estratégicos para que puedan ofrecer más valor a sus clientes.

Casos de Éxito 2


GPStrategy + Alpina

  • Título: Analítica Descriptiva para Gestión de Distribuidores 
  • Expositor: Edison Figueroa
  • Descripción: Expondremos cómo a partir de un modelo descriptivo que incluye análisis georeferenciado, se activan tareas diarias para lograr los objetivos comerciales de una cadena de distribución.
DATA knowledge + Datacrédito Experian

  • Título: Data Intelligence
  • Expositor: Juan Pablo Gómez
  • Descripción:  
MOCA Platform

  • Título: Crecimiento Exponencial para Empresas usando Inteligencia Artificial y Geolocalización.
  • Expositor: Maria Fernanda González Gutierrez
  • Descripción: Explicaremos la importancia de la inteligencia artificial y la geolocalización para construir empresas exponenciales. Mostraremos diferentes casos de negocio y de éxito donde ayudamos a proporcionar conocimiento del cliente on-off, impulsar el engagement, los ingresos y el ROI.

Casos de Éxito 3


It Performa + Aval Digital Labs

  • Expositor: Tito Pablo Neira Avila
  • Cargo: Chief Data Strategy Officer
  • Título: Estrategia de datos, un nuevo Capitulo hacía la Analítica Avanzada
  • Descripción: Dentro de la estrategia de datos de una compañía existen cinco verticales básicas, tales como la estrategia negocio, estrategia tecnológica , consolidación de datos, uso de los datos y la ultima la estrategia analítica; esta sesión se enfocará en la estrategia analítica para ser competitivos en sus entorno laboral facilitando así el proceso de tomas de decisiones oportunas.
Experian

  • Expositor: Diego García
MANAR + Empresa

  • Título: ANALYTICS: Los mitos que nos alejan de la simplicidad del éxito.
  • Expositor: Julio Cortés
  • Descripción: El exceso de información, las megatendencias y casos de uso de mercados y economías lejanos a nuestra realidad, nos crean paradigmas y mitos que nos ponen en posición de riesgo para afrontar proyectos de innovación que transformarían positivamente las organizaciones. El gran reto estaría en la posibilidad de hacer confluir de manera sencilla los artefactos y mecanismos que nos ofrece el mundo de la analítica en pro transformarnos en corto tiempo y con gran impacto.

Lightning Talks


1. Google

           

                                                                                                              

  • Expositor: Crispin Velez
  • Título: Mas Alla de la Analitica: ML y AI Empresarial
  • Descripción: Muchas empresas tienen Claro que hoy tomar decisions basadas en datos es fundamental para incrementar ventas y reducir costos ayudando a mejorar eficiencias y rentabilidad. Que sucede luego de una implementation adecuada de Analitica de diagnostico y descriptive? Como predigo, como infiero? Y Como opero Los modelos de ML y AI. Es la caps de mas alto valor de Los datos.

Descargar presentación Aquí. 

2. Moca

  • Expositor: María Fernanda González
  • Título: Crecimiento Exponencial para Empresas usando Inteligencia Artificial y Geolocalización
  • Descripción: Como enfocarme en mi negocio sin tener tecnología propietaria para convertir la organización en una EXO (Exponential Organization)

Descargar presentación Aquí. 

3. AI Akademie


  • Expositor: William Florez
  • Título: Deep learning for internet advertising: Click-through rate prediction
  • Descripción: Estructura: Conceptos básicos, análisis exploratorio y features engineering para diseñar y evaluar la predicción del CTR, cómo implementar modelos de machine learning para optimizar mejor la publicidad. Porque es importante? La publicidad en Internet se ha convertido en una de las más eficaces gracias al impacto dirigido a audiencias más específica, lo que se traduce en tasas de conversión de clientes más altas, impulsando los ingresos de las empresas. Por lo tanto, cualquier eficiencia en la optimización de esta estrategia es altamente apetecida por las compañías.
4. Infórmese

  • Expositor: Julían David Escobar
  • Título: ¿Cómo conocer el nivel de madurez analítica de tu organización?
  • Descripción:Como enfocarme en mi negocio sin tener tecnología propietaria para convertir la organización en una EXO (Exponential Organization)”
5. Rappi

 

  • Expositor: Miguel Diaz
  • Título: How success looks like : not only in AI
  • Descripción: Una presentación completa que inicia con una contextualización y casos famosos de uso de inteligencia artificial, un caso de uso aplicado al negocio, analogías para poner en contexto a personas que desconocen el tema, presentación de una metodología de trabajo, sección "cómo luce el éxito, no sólo en AI", conclusiones y cómo seguir aprendiendo.


6. Altair

  • Expositor: Ricardo Garza
  • Título: Altair Data Analytics
  • Descripción: En esta charla se darán a conocer de manera general las principales aplicaciones de Altair para Data Anlaytics y las diversas industrias de uso.

Descargar presentación Aquí. 

7. Internodes

 

  • Expositor: Alejandro Cardona Jaramillo
  • Título: El Laberinto de las Decisiones Basadas en Datos: ¿Dónde pongo un colegio?
  • Descripción: Aunque la rigurosidad metodológica y las competencias técnicas de los científicos de datos son indispensables para cualquier proyecto de analítica, es fundamental lograr que ese conocimiento y habilidades se pongan a disposición de necesidades reales que generen valor a personas y empresas. En esta charla quisiéramos compartir nuestra experiencia en el diseño y ejecución de proyectos de analítica con un caso que consideramos particularmente interesante por su aparente inocencia. ¿Dónde pongo un colegio? Esa fue la pregunta de nuestro cliente. Darle respuesta nos tomó 6 meses de trabajo combinando distintos métodos de recolección y análisis de datos. En las principales ciudades del país, ¿dónde hay gran cantidad de niños en edad escolar y poca densidad de colegios cercanos? (Modelo de optimización geográfica - análisis de redes y modelos de redes neuronales para limpieza e imputación de datos socio-demográficos) En esas zonas identificadas, ¿cuál es la propuesta de colegios existentes? (estudio de mystery shopper en colegios de la zona) ¿Los padres de la zona que esperan de un colegio? (estudios etnográficos con padres, niños y educadores) Dadas esas características esperadas, ¿cuánto están dispuestos a pagar? Y al precio que podemos ofrecer ese producto, ¿cuál sería el mercado dispuesto a escucharme (intención de compra)? (BPTO: Brand price trade-off) Además de hacer un barrido general sobre cada uno de los pasos que seguimos para resolver la pregunta y las dificultades que encontramos, quisiéramos reflexionar sobre el abismo que existe entre las necesidades de los clientes y sus expectativas por un lado, y la complejidad de las soluciones de analítica por el otro, que si bien prometen la toma de mejores decisiones corren el riesgo de perderse en sus propios laberintos metodológicos. El gran valor de la analítica no está en su músculo científico y tecnológico únicamente sino en lograr crear puentes entre las posibilidades que permite y las necesidades reales del mercado.
8. It Performa

  • Expositor: Carlos Díaz
  • Título: ENABLING THE AI'DRIVEN ENTERPRISE
  • Descripción: Estamos en un momento muy emocionante para de transformación de todas las industrias. Las reglas de negocio están siendo replanteadas. Las compañías se encuentran en una carrera para adoptar la Inteligencia Artificial y Machine Learning. Estas tecnologías tienen su complejidad, pero en esta charla se les dará a conocer cómo su organización puede volverse AI-Driven, con plataformas como DataRobot de Machine Learning Automatizado.
9. AKOUNTGO

 

  • Expositor: Andrés Suarez
  • Título: Contabilidad para el analisis predictivo.
  • Descripción: Sabemos que la analítica predictiva ha estado entre nosotros por décadas, es una tecnología cuyo momento ha llegado. Cada vez más organizaciones recurren a la analítica predictiva para mejorar su base de operación y lograr una ventaja competitiva. ¿Por qué ahora? Volúmenes y tipos de datos cada vez mayores, además de un mayor interés en el uso de datos para producir insights valiosos. Computadoras más rápidas y económicas. Condiciones económicas más difíciles y la necesidad de tener una diferenciación competitiva. La analítica predictiva ya no es sólo del dominio de matemáticos y estadísticos. Analistas de negocios y expertos en línea de negocios utilizan también estas tecnologías. Por eso nace AkountGo analitycs usando la contabilidad historica como base de datos que nos ayuda a entender el negocio de una manera exacta. Usando modelos econometricos, modelos de analiticas predictivas y modelos financieros y estrategicos existentes generamos una combinación poderosa para predecir ventas, cantidades de inventario. Las decisiones deben ser en un momento de oportunidad con nuestra solución las decisiones se toman en minutos optimizando operaciones y reduciendo costos. Implementando esta solución los modelos analíticos, no sólo son para informar, sino también para innovar en el modelo operativo básico de Finanzas y en la gestión del rendimiento de procesos.

Descargar presentación Aquí. 


Pósters


1. Uniandes (Departamento de Ingeniería Industrial)

  • Expositor: Diana Catalina Solano Beltrán
  • Título: Evaluación de la calidad en la prestación de servicios de salud para enfermedades crónicas en el régimen contributivo en Colombia
  • Descripción: Con el objetivo de determinar el impacto de la prestación de servicios de salud mínimos aceptables para enfermedades crónicas, se desarrolló una herramienta de software que parte de la base de datos construida a partir de los estudios de sufi- ciencia y del ajuste de riesgo para el cálculo de la Unidad de Pago por Capitación (UPC) en el SGSSS colombiano, ejecuta el preprocesamiento de los datos, genera un conjunto de datos para el periodo de reclutamiento (2010-2011) y de seguimiento (2012-2016) de los pacientes de una enfermedad crónica específicada por el usuario y, a partir de los conjutos de datos generados, se realiza un estudio de análisis de impacto sobre desenlaces en salud y utilización de recursos del sistema de salud.
2. Uniandes (Departamento de Ingeniería Eléctrica)

Póster A

 

  • Expositor: César Daniel Garrido Urbano
  • Título: Sistema de navegación para robot móvil basado en aprendizaje por refuerzo
  • Descripción: En este proyecto se aborda el problema de navegación para robots móviles utilizando una de las implementaciones de aprendizaje por refuerzo más populares: Q-Learning. Esta técnica permite que un agente se entrene a partir de experiencias (episodios) y determine el comportamiento (política) adecuado con base en su estado actual dentro del entorno. Adicionalmente el proyecto se desarrolla sobre un caso de estudio particular: el robot Pepper de Softbank Robotics.

Póster B

 

  • Expositor: Juan David García Hernández
  • Título: Comparación del desempeño de algoritmos de pruning y destilación en redes neuronales profundas
  • Descripción: En este proyecto se propone una comparación de diferentes algoritmos de pruning y destilación y los efectos de cada uno de ellos en redes neuronales profundas entrenadas para diferentes tareas. Esto con el fin de poder hacer uso de redes profundas en dispositivos de recursos computaciones reducidos. Para el caso del presente proyecto se consideran una tarjeta NVIDIA Jetson Nano y un robot tipo Pepper.

Póster C

  • Expositor: Juan José García Cárdenas
  • Título: Deep learning for internet advertising: Click-through rate prediction
  • Descripción: El proyecto presentado es un proyecto realizado como parte de un proyecto de grado para el titulo de Ingeniería electrónica a lo largo del segundo semestre de 2019. Este consistía en enseñarle al robot Ópera a través de la interacción con humanos y aprendizaje por refuerzo a jugar diferentes juegos de mesa clásicos como por ejemplo, Linea 4.

    El aprendizaje por refuerzo es un área de Machine Learning que, enfocada a la interacción humano robot, ha sido poco explorada. Basados en este se decidió adoptar esa técnica para poder enseñarle a un algoritmo aprender a ganarle a cualquier oponente después de varios episodios o experiencias con el mismo. Para esto se tomo como marco de prueba el caso del juego de mesa Linea 4.

    Como interfaz para el proyecto se tomó al robot Ópera con el que cuenta la Universidad de los Andes. En la tablet del mismo, se diseñó una aplicación web para que fuera utilizada como interfaz de interacción con el usuario. En esta, se proyecta el juego de mesa elegido por el usuario y el mismo se dispone a jugar.

3. Quantil

Póster A

 

  • Expositor: Mateo Dulce Rubio
  • Título: Sesgos en modelos de predicción de crimen: retos y soluciones.
  • Descripción: La retroalimentación circular ocurre cuando el resultado de un modelo de aprendizaje automático está correlacionado con la captura de nuevos datos que luego se utilizan para reentrenar el modelo. Para el caso de algoritmos de predicción de crimen este fenómeno ocurre cuando el modelo se usa para asignar el patrullaje policial, y los delitos observados, que se utilizan nuevamente en la recalibración del algoritmo, son consecuencia de tal asignación de recursos. El ciclo de retroalimentación provoca el refuerzo de potenciales sesgos de los datos utilizados inicialmente para el entrenamiento del modelo, y el no recuperar la distribución subyacente de los datos. La charla presenta una corrección a este problema, en particular para la predicción de crimen, utilizando teoría de urnas y técnicas de muestreo, junto con sus ventajas y limitaciones. Se discutirán otros problemas potenciales del uso de algoritmos como la no-diferenciación entre correlación y causalidad, sesgos de selección, subreporte, y la no inclusión de interacción estratégica entre los agentes.

Póster B

 

  • Expositor: Paula Rodriguez Diaz
  • Título: Uso de imágenes para la estimación de hurtos violentos en Bogotá
  • Descripción: Los fenómenos de criminalidad que atentan contra la convivencia y la seguridad ciudadana han sido objeto de estudio académico durante décadas y desde diversas aproximaciones. El estado del arte en el estudio de este fenómeno consiste en utilizar modelos que explotan las características espacio-temporales y la naturaleza de auto-excitación de los crímenes para determinar las áreas más vulnerables a la criminalidad. Sin embargo, omitir las características espaciales de un lugar puede sesgar los parámetros estimados que capturan el efecto de propagación del crimen. Por lo tanto, esta investigación extiende los modelos de procesos puntuales de auto-excitación para incluir variables espaciales. El objetivo al incluir estas nuevas variables es explicar explícitamente el efecto del entorno urbano en la ocurrencia de delitos y así evitar el sesgo por variable omitida. Nuestro modelo que utiliza características de imágenes como variables para capturar características especiales supera un proceso estándar de puntos auto-excitantes.
4. Libertadores

  • Expositores: Luis Felipe Piñeros Sanchez - Ricardo Andres Martín Mayorga
  • Título: Propuesta de un Modelo con Redes Neuronales y Metodología Box & Jenkins para el Pronóstico del Precio de Bolsa de la Energía en Colombia
  • Descripción: El presente trabajo se ha desarrollado haciendo uso de información del sector de la energía eléctrica generada por hidroeléctricas, donde se tomo principalmente de Xm información inteligente. Dentro de los datos obtenidos se busca realiza el pronostico del precio de la bolsa de la energía.
5. IT Performa
  • Expositor: Andrea Ruiz Guerrero
  • Título: Aprendizaje Automático Hecho Realidad con DataRobot
  • Descripción: Presentación de caso de éxito de implementación en DataRobot utilizando modelos para el manejo de los clientes a nivel de retención y oferta de productos.


6. Altair

  • Expositor: Ricardo Garza
  • Título: Data Analytics - Casos de Marketing
  • Descripción: 
8. Manar

 

 


Universidad de los Andes
Vigilada MINEDUCACIÓN
Reconocimiento como Universidad. Decreto 1297 del 30 de Mayo de 1964
Reconocimiento personería jurídica Resolución 28 del 23 de Febrero de 1949 Min. Justicia.