Conferencistas
Diego Klabjan
Director y fundador del Programa Master of Science in Analytics de la Universidad de Northwestern, Estados Unidos.
Diego Klabjan is a professor at Northwestern University, Department of Industrial Engineering and Management Sciences. He is also Founding Director, Master of Science in Analytics and Director, Center for Deep Learning. After obtaining his doctorate from the School of Industrial and Systems Engineering of the Georgia Institute of Technology in 1999 in Algorithms, Combinatorics, and Optimization, in the same year he joined the University of Illinois at Urbana-Champaign. In 2007 he became an associate professor at Northwestern and in 2012 he was promoted to a full professor. His research is focused on machine learning, deep learning and analytics (modeling, methodologies, theoretical results) with concentration in finance, insurance, sports, and bioinformatics. Professor Klabjan has led projects with large companies such as Intel, Baxter, Allstate, AbbVie, FedEx Express, General Motors, United Continental, and many others, and he is also assisting numerous start-ups with their analytics needs. He is also a co-founder of Opex Analytics LLC, a LLamasoft company.
There are abundant stories about deep learning creating a new revolution. Nevertheless, general artificial intelligence is currently out of reach and yet we seem to attack every data-related problem through the lenses of deep learning and artificial intelligence. We discuss traditional and ‘contemporary’ use cases of artificial intelligence and the
underlying modeling concepts, and when to use old-fashion linear regression. Even well-known use cases can easily end up in a rut due to the immense difference between model training and model serving which is the process of deploying machine learning models. We will articulate the challenges of model serving for deep learning and offer some suggestions.
Descarga la presentación Aquí.
Nohora Diaz
Director II, Data Science, East & West Predictive Modeling Liberty Mutual
Leader in Data Science, with the passion and experience to give strategic solutions to make proactive decisions in the business. 13 years of experience, mainly in the insurance market, leading product, data science and actuarial teams. She has learnt that predictive models are not the solution for all the questions, but in those that can be used, haven been possible to achieve competitive advantages, keeping profitable results and increasing the market share. Líder en ciencia de datos, con la pasión y experiencia de dar soluciones estratégicas para tomar decisiones de manera proactiva en el negocio. Con 13 años de experiencia, principalmente en el sector asegurador, liderando equipos de producto, ciencia de datos y actuaría . Ella ha aprendido que los modelos predictivos no son una solución para todas las preguntas, pero en ellas que puede usarse, ha sido posible lograr ventajas competitivas, mantener resultados rentables y aumentar la participación en el mercado.
Existen factores claves que marcan la diferencia entre construir modelos predictivos y hacer que estos realmente generen impacto positivo. Los desafíos no se limitan a construir un modelo lo suficientemente preciso. Esto ya son parte del reto que sabemos vamos a enfrentar. En un proyecto global toman relevancia otros desafíos, la comunicación, cultura y el construir equipo a pesar de no estar en una misma ubicación. Al igual que los primeros desafíos, el que existan hace más interesante el proceso y cuando llegamos a la solución, obtenemos un nuevo aprendizaje, para ser utilizado en un mundo cambiante que requiere cada día nuevas respuestas. Todo está en hacer que pase.
Ronaldo Menezes
Professor of Data and Network
Science Director of the Biocomplex
Laboratory Head of Computer Science
Ronaldo Menezes is a Professor of Data and Network Science and head of the Computer Science department at the University of Exeter, and Director of the BioComplex Laboratory. His research interests include Network Science, Human Dynamics and Mobility, Complex Systems, and Urban Systems. He has spent 18 years in academia in the USA before moving to the University of Exeter in late 2018. His lab has received funding from the National Science Foundation (USA), Army Research Office (USA), CAPES (Brazil), FUNCAP (Brazil), to name a few. He has relevant skills in modelling human mobility and spatiotemporal data analysis, as evidenced by several publications including an extensive survey entitled “Human mobility: Models and applications”, a new model to capture human patterns called “The Effect of Recency to Human Mobility” and several other works in which human mobility modelling is used as a framework for solving real-world applications such as “social influence”, “sensor networks”, and “crime prediction”. He’s deeply involved with the research community in Human Mobility and Network Science as a founding member of the steering committee of CompleNet and a board member of NetSci Society and the Latin American Conference on Complex Networks (LANET). He is also the co-editor-in-chief of one of the main journals in the field: Applied Network Science published by Springer Nature. He has published more than 100 peer-reviewed publications in these fields and has collaborated with more than 30 researchers worldwide.
In this talk we’ll show how one can use traces of human activity in cities to understand regularities in human mobility. Many of the problems in cities such as traffic, landscape usage, planning, and even spread of diseases, are intrinsically linked to how people move. We’ll demonstrate how humans have a preference for certain kinds of locations leading to predictability at the spatial and temporal levels. We’ll discuss also how such patterns have are being used to improve what we call mobility inequality based on gender and social economic factors.
Álvaro Mendoza
Consultoría para el sector Financiero en Latam North
Álvaro es el socio líder en EY de consultoría en analytics para las empresas del sector financiero en la región Latam North (desde Perú hasta México). Cuenta con más de 15 años de experiencia mejorando la toma de decisiones y transformando procesos en organizaciones de diferentes sectores por medio de modelos y herramientas analíticas. Ha desempeñado roles de consultoría y liderazgo en áreas de estrategia, operaciones y gestión de riesgos. Álvaro tiene un Ph.D. en Decision Sciences de la Universidad de Duke y una Maestría en Ingeniería Industrial, con énfasis en investigación de operaciones, de la Universidad de los Andes.
Muchas organizaciones reconocen el potencial de analytics como elemento transformador y generador de ventaja competitiva, pero siguen enfrentando retos para pasar de la intención a la acción y para generar impacto. En esta charla, discutiremos la estrategia y los elementos clave que una organización debe considerar para desarrollar capacidades analíticas de una manera estructurada, efectiva y sostenible, y convertirse así en una Analytics-Driven Organization.
Workshops
Workshop 1 – Introduction to Predictive Modeling
Instructor del Workshop: Felipe Ramirez
Este curso es un abre bocas de conceptos y métodos estadísticos para el análisis de datos bajo el enfoque de modelamiento predictivo (“machine learning”). Incluye problemas de regresión , clasificación, y aprendizaje no-supervisado.
Workshop 2 – Modelo de Scorecards con Knowledge Studio
Instructor del Workshop: Mariana Osorio Olvera
Las decisiones de otorgamiento de crédito son cruciales en la administración de riesgo de las instituciones financieras. Estas instituciones tradicionalmente han utilizado los scorecards para estandarizar y automatizar las decisiones de crédito. Hoy en día estos modelos analíticos se utilizan en una amplia gama de sectores para mitigar el riesgo operativo y minimizar pérdidas. Los scorecards son modelos analíticos que evalúan a clientes nuevos y existentes para determinar si aceptar o rechazar sus aplicaciones a productos disponibles. A los aplicantes se les asigna una calificación (score) y, basado en un umbral especificado, se aceptan o rechazan. En el workshop Modelo de Scorecards con Knowledge Studio los participantes aprenderán a utilizar Knowledge Studio, la plataforma de Altair para analítica predictiva, para crear un modelo de scorecard que permita predecir la probabilidad de incumplimiento de un préstamo.
Workshop 3 – Machine Learning Automation | Inteligencia Artificial Hecho Realidad con DataRobot
Instructor del Workshop: Andrea Ruiz Guerrero y Orlando Díaz Benito
El aprendizaje automático es la ciencia que permite a las computadoras aprender a través de diversos algoritmos y realizar así predicciones, encontrar patrones y ejecutar un sin fin de tareas que de otro manera no serian posibles. En la última década, el aprendizaje automático nos ha brindado vehículos autónomos, reconocimiento de voz práctico, búsqueda efectiva en la web y una comprensión enormemente mejorada del genoma humano. El objetivo de este workshop es iniciarlos en esta ciencia y su aplicabilidad en el mundo laboral para ser así mas competitivos y efectivos en la toma de decisiones.
Workshop 4 – Credit Risk Scoring. ¡Cómo incrementar colocaciones mitigando el riesgo! con Timi Suite.
Instructor del Workshop: Daniel Soto Zeevaert, Director Ejecutivo Timi Américas SAS
El impacto de las iniciativas de parte del Gobierno para incrementar el porcentaje de la población bancarizada, así como todo el desarrollo a nivel global en términos de analytics y transformación digital, han desencadenado que cada vez más compañías del sector inviertan en procesos de data analytics, entregando capacidad para el desarrollo de modelos analíticos automatizados en pro de mejorar sus porcentajes de colocaciones sin sacrificar los ínidices de rentabilidad y cobranzas. Timi Américas la sucursal de Timi para la región de Latino América, nos muestra como medir y mitigar el riesgo a través de la analítica de datos y el desarrollo de modelos predictivos de Credit Risk Scoring, con altos niveles de estabilidad y precisión, replicables y sustentables hacía las entidades reguladoras, disminuyendo los tiempos de desarrollo (pasando de meses a días). En este contexto el workshop, aporta a través de un marco práctico los skills para el desarrollo de un Modelo de Score Crediticio en Timi. Con Timi serás capaz de procesar grandes volúmenes de datos en tiempo record, capaz de agilizar y automatizar los procesos de data analytics.
Workshops
Track 1 – Crime Investigation with Analytics
A lo largo de la historia, la criminología busca comprender el crimen; por qué ocurre, dónde y cuándo. En la mayoría de los casos, este ejercicio científico se ha centrado en comprender mejor quién comete un delito permite diseñar mejores políticas de prevención, mitigar los riesgos y gestionar la asignación eficiente de recursos. El avance en la analítica de datos ha permitido el desarrollo de nuevas formas de predecir la incidencia del delito y comprender los impactos de las características sociales e individuales en el comportamiento delictivo; en este track se presentaran algunos de los proyectos implementados en Colombia.
- Empresa: Fiscalía General de la Nación
- Título: PRiSMA: Perfil de Riesgo para Solicitud de Medida de Aseguramiento
- Expositores: Andrés Felipe Camacho y Lina Patricia Navas
-
Descripción: En el sistema penal colombiano, fiscales y jueces enfrentan diariamente en el ejercicio de su función, la obligación de solicitar y ordenar medidas que restringen el derecho a la libertad. La argumentación del fiscal para solicitar esta medida, que será evaluada por el juez, debe centrarse en probar que la finalidad de esta restricción es la de asegurar: i) la comparecencia del imputado al proceso; ii) la protección de la comunidad y de las víctimas del riesgo de que el procesado cometa otro delito; iii) el cumplimiento de la pena; y iv) evitar la obstrucción a la justicia. En este proceso, las decisiones frecuentemente dependen de la experiencia del fiscal y del juez, de su estimación subjetiva del riesgo del indiciado y de la capacidad del fiscal para argumentar la necesidad de la imposición de la medida restrictiva de la libertad. Sin embargo, en la mayoría de los casos estas decisiones se toman a partir de información incompleta y en un tiempo limitado.
En ese orden de ideas, la Fiscalía General de Colombia desarrolló PRiSMA (siglas de ‘Perfil de Riesgo para la Solicitud de Medidas de Aseguramiento’), una herramienta que busca reducir la falta de información para apoyar la toma de decisiones sobre medidas de aseguramiento. Con este fin, la herramienta aplica algoritmos de machine learning, que predicen de manera objetiva la probabilidad de que una persona procesada por la comisión de un delito pueda continuar con la actividad delictiva, representando un peligro para las víctimas y/o la sociedad.
El uso de esta herramienta busca facilitar que los fiscales soliciten medidas de aseguramiento intramural a los indiciados que representen un mayor riesgo de reincidencia, al igual que evita que personas con bajo riesgo resulten privadas de la libertad. A su vez, PRiSMA busca homogeneizar la información disponible ante los fiscales y jueces al momento de tomar la decisión de solicitar u otorgar medidas de aseguramiento.
El desarrollo y la aplicación de una herramienta como esta no tiene precedentes en países de la región, siendo la primera vez que se aplicará en Suramérica, en un Estado que presenta unas características delictuales muy particulares, pues se trata de un país en post conflicto, con presencia de organizaciones criminales, altas tasas de homicidio y de reincidencia y con altos niveles de hacinamiento en los establecimientos carcelarios. Estas características hacen sumamente innovador este proyecto y se espera que el mismo se convierta en un gran insumo para aunar esfuerzos en la prevención del delito y en la descongestión del sistema carcelario y penitenciario al identificar a los indiciados más riesgosos.
-
Empresa: Quantil
-
Título: Predicción de homicidios a través de modelos adversariales generativos
-
Expositor: Juan Sebastian Moreno
-
Descripción: La predicción de homicidios, al igual que la de otros crímenes, presenta múltiples retos, en particular la baja frecuencia de ocurrencia de los mismos. Utilizamos redes adversariales generativas (GANs) para construir distribuciones de crimen para Bogotá. Estás redes son particularmente interesantes ya que su entrenamiento parte de una “competencia” (juego de suma cero) entre dos redes neuronales, una generadora cuyo objetivo es hacer pasar como realista su creación frente a otra red que busca discriminar entre la realidad y lo fabricado por la primera. Está metodología permite lidiar con variables de baja frecuencia. Además, añadimos a las GANs capas convolucionales y recurrentes para capturar patrones espaciales y temporales en la ocurrencia de homicidios. También se incluyen en el análisis variables como distancias a la estación de policía más cercana, presencia de infraestructuras educativas y clínicas, entre otras para capturar el contexto y sus efectos sobre la ocurrencia de homicidios.
- Empresa: Grupo Alto
- Título: Computer vision: más allá de un análisis de video
- Expositor: Daniel López
- Descripción: La pérdida operativa, especialmente la pérdida desconocida producida por sustracción o hurto, es un problema que afecta a múltiples industrias a nivel mundial. ALTO, empresa multinacional líder en la creación de soluciones integrales e innovadoras para prevenir y disminuir las pérdidas patrimoniales, enmarca su actuar en tres pilares: inteligencia de información, persecución penal inteligente y comunicación disuasiva.
Track 2 – Customer Analytics
Diariamente las empresas producen, reciben y procesan millones de datos. Se puede entender, entonces, que la toma de decisiones a partir del análisis de datos hace parte fundamental de todas las áreas organizacionales de las empresas para garantizar su buen funcionamiento. En este Track encontrará panelistas que compartirán su experiencia en la aplicación de técnicas de análisis de datos en áreas como finanzas, mercadeo, emprendimiento para que actualice sus conocimientos y se entere como las compañías están aplicando el análisis de datos.
- Empresa: Uniandes
- Título: Atención al cliente por medio de reconocimiento facial
- Expositor: Adelaida Zuluaga
- Descripción: La robótica social se ha convertido en uno de los avances tecnológicos más importantes a los que se ha llegado hoy en día. Aun así, el reto más grande es como integrar los robots a los ambientes humanos. Por este motivo, la investigación en la interacción natural humano robot está creciendo significativamente. Hoy en día los robots tienen un rol de asistentes en aplicaciones del da a día de las personas como por ejemplo en la educación, en temas de la salud, atención al cliente, entre otros. En este orden de ideas, una de las metas actuales es permitir que los robots sociales tengan una buena relación con las personas y alcancen un papel beneficioso en la cotidianidad. Para ello se requiere desarrollar habilidades cognitivas y sociales que sean aplicadas al comportamiento de los robots, dentro de las cuales se encuentran la identificación y el reconocimiento facial; mediante este proyecto se busca trabajar alrededor de este tema.
El proyecto consiste en la implementación y desarrollo de un sistema que pueda ser de gran utilidad para oficinas, hoteles, universidades, entre otros, pues es una aplicación que permitirá brindar atención al cliente. La aplicación sería implementada en un robot semi-humanoide, con el fin de apropiarse del contexto de interacción entre el robot y los clientes. Se utilizó el robot semi-humanoide Pepper creado por Softbank Robotics, el cual se encuentra en uno de los laboratorios de la Universidad de los Andes. El prototipo se desarrolló utilizando modelos pre-entrenados y técnicas de Machine Learning. Adicionalmente, se creó una base de datos con imágenes de estudiantes de la Universidad de los Andes, con la cual se realizaron las pruebas necesarias. El modelo de reconocimiento facial se entrenó con la base de datos para que así fuera capaz de reconocer la persona con la cual interactúa. En caso de que el robot no conozca a la persona, es decir que no se encuentre en la base de datos, el robot toma una serie de imágenes de la persona y se re-entrena el modelo, de manera tal que esta persona pueda ser reconocida por el robot en futuras interacciones.
El producto final es una prueba en tiempo real con el robot, el cual detecta a una persona, interactúa con ella y después puede saber si es conocida o desconocida. La aplicación de atención al cliente de manera satisfactoria, la cual incluye un sistema de detección facial de alta precisión y un sistema de reconocimiento facial cuyas predicciones dependen directamente de las condiciones de luz. Así, el robot es capaz de identificar a una persona en el momento en el que se le acerca, y a partir de la base de datos puede saber si es conocida o desconocida, bajo buenas condiciones de luz. Ante altas variaciones de luz tiende a fallar el reconocimiento del usuario. Por esto, a futuro se busca utilizar una solución más efectiva y robusta para la etapa de reconocimiento facial, para poder garantizar una atención de alta calidad a los usuarios.
- Empresa: Mondelez International
- Título: IA en el Punto de Venta: Retos y Oportunidades
- Expositor: Francisco Ortiz
- Descripción: Durante años, los grandes fabricantes de consumo masivo han enfocado su estrategia en ofrecer productos que satisfagan las necesidades de grandes segmentos de la población, en donde la forma tradicional de segmentar el portafolio es por canal: Canal Moderno y Canal Tradicional. En países tan diversos y desiguales como los de América Latina y con tendencias demográficas cambiantes y una presión constante por mejorar la ecuación de valor y reducir el precio, las compañías de Consumo Masivo se enfrentan al reto de crecer y de innovar, sabiendo que más del 90% de las innovaciones fracasan. El reto es cómo a través de Analytics podemos encontrar la escala suficiente para crecer e innovar, logrando una visión integrada de Consumidor y Canal a través de Inteligencia Artificial y entendimiento de las misiones de compra. Traducir a variables la experiencia de compra del Shopper y diseñar estrategias de precio microsegmentadas entendiendo la oportunidad de crecimiento a nivel de punto de venta. En la presentación proponemos una integración de 1. Experiencia de compra convirtiendo lo que ocurre en la góndola en variables a través de Image Recognition y entendiendo la experiencia de compra a través de Computer Vision. 2. Información de Consumidor a través de Georeferenciación y Mapas de Calor. 3. Machine learning integrando 1 y 2 con Información de Venta Interna buscando maximizar el retorno a la inversión en el Punto de Venta. De esto se desprenden varios proyectos que se complementan: A) New Retail Data, basado en Image Recognition, cómo convertir lo que el Shopper ve en la tienda en variables de negocio impactando la forma de trabajo de la fuerza de ventas. B) Shopper Lab, basado en Computer Vision, cómo transformar tiendas del Canal Tradicional en laboratorios para entender el impacto en rotación de variables como: Publicidad microsegmentada, Elasticidad Precio, Impacto del surtido y la planometria en la rotación y comunicación en el punto de venta. C). Motor de decisión de Promociones: como unir información de Consumidor, Información de Canal y Data Interna buscando optimizar la estrategia de descuento logrando aumentar la distribución numérica en los puntos de venta con mayor oportunidad de volumen. Cerramos la presentación con nuevas oportunidades de uso de AI en el punto de venta: Meta Visión, Publicidad Personalizada, Descuentos Personalizados, Shopper Journey e Innovation Lab: como transformar el punto de venta en un laboratorio.
Mondelez International es la compañía líder en el mundo en el segmento de Snacks como marcas icónicas como Oreo, Chips Ahoy!, Belvita, Club Social, Milka, Côte d’Or, Toblerone, Cadbury, Trident, Chiclets, Halls, Tang entre otras. -
- Empresa: Infometrix
- Título: ¿Cómo pasar de tener insights analíticos a la acción?
- Expositor: Natalia Barrero
- Descripción: De los retos más grandes que enfrentamos en ésta área es lograr convertir los insights que obtenemos de nuestros modelos en acciones reales y tangibles en las organizaciones. Desplegar una estrategia en acciones tácticas en campo es siempre un gran desafío. En esta charla conoceremos cómo hemos logrado operacionalizar los resultados de modelos analíticos y disponibilizarlos para que estén a la mano de cualquier tipo de usuario en las compañías.
Track 3 – Prescriptive analytics for decision making
La identificación del uso de los datos y las oportunidades de implementación de proyectos permite aprovechar las ventajas que ofrecen las herramientas de inteligencia analítica. Por lo cual es de suma importancia diseñar, correctamente, metodologías para convertir en conocimiento accionable los datos que existen en las organizaciones. Por eso en este track podrá evidenciar como en diferentes entidades han logrado pasar desde datos a acciones estratégicas y tácticas.
- Empresa: Grupo Meiko Latam
- Título: Analytics en la Industria de Consumo Masivo: Optimizando Mediciones del Retail a través de metodología de Machine Learning
- Expositor: Juan Pablo García
- Descripción: En Latino américa, a diferencia de otras regiones del mundo, la tienda de barrio tradicionalmente ha sido y continúa siendo el principal canal de compra de bienes de consumo. A pesar del surgimiento de nuevos canales como el Hard Discount en Colombia (D1, Justo y Bueno, Ara) o el Comercio Electrónico, la tienda de barrio no ha perdido su relevancia y ha entrado en una fase de transformación.
- Empresa: Stybo Systems
- Título: La evolución de los modelos de negocios a partir de los datos
- Expositor: Robby Vega
- Descripción: La digitalización, la omnicanalidad como pilar para la construcción de relaciones con los clientes y la exigencia de consumidores más informados y conectados, son solo algunas de las razones que hacen indispensable que las compañías sean cada día más competitivas digitalmente. Las estrategias basadas en datos permiten anticiparse a lo que los consumidores esperan logrando crear experiencias extraordinarias.
-
- Empresa: IBM + MENTe
- Título: Analitica de Comportamiento Humano
- Expositor: Mauricio Arevalo
- Descripción: MENTe es un sistema de analitica de Comportamiento Humano capaz de ayudar a las personas a conocer su huella digital en la Red y mejorar el contenido que está publicando. MENTe utiliza técnicas de Inteligencia Artificial (Ai) , Big Data y Analitica para vrear perfiles digitales produndos.
Track 4 – Analytics for Public Sector
Las políticas públicas no son ajenas a los avances en área de análisis de datos. Diariamente las instituciones públicas y otras organizaciones con intereses públicos reciben millones de datos sobre sus ciudadanos, y los utilizan en muchos casos para generar nuevos programas y políticas de beneficio social. En este Track, de la mano con expertos, podrá conocer cómo las técnicas para el análisis de datos se pueden utilizar para formular políticas públicas.
- Empresa: DIAN
- Título: La democratización de la ciencia de datos: revolucionando la administración de impuestos y aduanas nacionales
- Expositor: María Fernanda Osorio
- Descripción: Dentro de su proceso actual de transformación y modernización, la DIAN ha definido como uno de sus objetivos estratégicos incorporar la analítica para mejorar sus procesos, en especial, aquellos relacionados con riesgos de incumplimiento e inteligencia en materia tributaria, aduanera y cambiaria.
- Empresa: Hospital Militar
- Título: Analítica en el Hospital Militar Central
- Expositor: Adriana Beltrán
- Descripción: A pesar de los esfuerzos y recursos invertidos en mejorar las tecnologías con el fin de optimizar la prestación de los servicios de salud, para las instituciones y particularmente los Hospitales, aún persisten grandes dificultades las cuales llevan a ineficiencias, altos costos y en ocasiones calidad subóptima en la prestación de los servicios de salud; mejorar la toma de decisiones basada en los datos disponibles podría mitigar estas dificultades.
Desde hace varios años el Hospital Militar Central ha invertido recursos importantes en mejorar el sistema de captura de información con el fin dar trazabilidad a todo el funcionamiento del Hospital, desde la prestación del servicio de salud hasta todos los procesos administrativos, generando grandes volúmenes de datos, a través de la conformación de un centro de innovación y por medio de una alianza con la Universidad de los Andes y del análisis de esta información se han desarrollado herramientas y técnicas para extraer conocimiento a partir de estos datos con el fin ayudar en la toma de decisiones en el Hospital.
Respecto a herramientas para apoyar la toma de decisiones y utilizando analítica predictiva, se han desarrollado algoritmos que permiten identificar pacientes en mayor riesgo de sufrir eventos hospitalarios no deseados, los cuales, pueden significar peores desenlaces en los pacientes como por ejemplo mayor mortalidad y además mayores costos para el sistema de salud, como por ejemplo, los reingresos hospitalarios, respecto a herramientas para mejorar la toma de decisiones a nivel administrativo, y utilizando analítica descriptiva se han desarrollado herramientas para medir de forma semiautomática indicadores de los procesos de atención en los servicios de urgencias y de hospitalizaciones, además, que permiten monitorear la frecuencia de eventos no deseados como las reintervenciones quirúrgicas, en menor tiempo, adicionalmente, utilizando técnicas de analítica visual se ha facilitado la generación de conocimiento nuevo por parte de los usuarios finales partir de estos datos, en el ámbito de salud pública y utilizando modelos de regresión y bases de datos nacionales se han realizado proyectos que han permitido abordar problemas en algunas enfermedades como son el Lúpus eritematoso sistémico y la artritis reumatoide con el fin de identificar desenlaces como la utilización de recursos en salud, los costos de estas enfermedades e inequidades en salud, resultados que podrían ser de gran utilidad para apoyar la generación de políticas públicas a nivel nacional, adicionalmente, se han desarrollado herramientas de utilidad en el área de farmacovigilancia dos en particular la primera a través de dos sistemas de monitoreo de la política de prescripción de antibióticos y de medicamentos de alto costo, utilizando analítica descriptiva.
Para el Hospital Militar Central, este es un proceso nuevo que requiere de infraestructura, conocimiento de los datos, alianzas estratégicas y un trabajo interdisciplinario entre los expertos en ingeniería y los expertos en el tema en salud, además, es fundamental desarrollar herramientas que permitan a los usuarios finales, que usualmente no son expertos en analítica, interpretar los datos para generar nuevos conocimientos y nuevas preguntas a partir de esta información. -
- Empresa: DNP
- Título: Detección de infraestructura y ocupación dentro de rondas hídricas a partir de imágenes satelitales.
- Expositor: David Insuasti
- Descripción: La Unidad de Científicos de Datos del DNP está incursionando en el desarrollo de herramientas para el análisis de información cartográfica e interpretación de imágenes satelitales para identificar ocupación o infraestructura construida dentro de las zonas demarcadas como ronda hídrica, como apoyo a la toma de decisiones en la planificación territorial y del desarrollo, considerando las realidades territoriales para generar intervenciones más seguras que propendan por la eficiencia en la inversión y ejecución del gasto público.
Casos de Éxito
- Título:Analytics para detectar soborno transnacional – Caso aplicado SIS
- Expositor: Juan Diego Aristizabal y Daniela Azumendi
- Descripción: En conjunto con la Superintendencia de Sociedades se desarrolló una metodología basada en Investigación de Operaciones para identificar compañías que podrían tener un riesgo alto de cometer soborno transnacional. La corrupción, en este caso el soborno, no puede ser medido por una sola variable, por lo que se utilizaron diferentes fuentes para componer cuatro núcleos de información: las características generales de la compañía, el riesgo asociado a los países donde tiene actividades comerciales, su riesgo de caer en una situación de estrés financiero en el corto plazo y la probabilidad de que haya alterado sus Estados Financieros. Basados en estos datos, se construyeron modelos descriptivos y predictivos para caracterizar y evaluar el estado actual y futuro de la compañía, buscando detectar posibles conductas ilegales. Como resultado de esta metodología, se construye un índice de riesgo que permite a la Superintendencia priorizar los casos de investigación, asignando sus recursos de una forma más eficiente. El índice de riesgo es alimentado por un modelo de clustering K-Medias Factorial para establecer el nivel de riesgo asociado a tener negocios en un determinado país, un modelo de clasificación Random Forest para determinar si una compañía tiene riesgo de estrés financiero en el corto plazo y los modelos de Beneish y de Jones (modificado) para calcular la probabilidad de alteración de los Estados Financieros.
- Título: Beneficios de la industrialización de modelos en un banco retail en Perú
- Expositores: Manuel Valdivia Carbajal y Daniel Soto
- Descripción: En Perú, el impacto de las iniciativas de parte del Gobierno para incrementar el porcentaje de la población bancarizada, así como todo el desarrollo a nivel global en términos de analytics y transformación digital, han desencadenado que cada vez más compañías del sector inviertan en procesos de data analytics; capaces de desarrollar modelos analíticos en pro de mejorar sus colocaciones, rentabilidad, índices de cobranzas, eficiencia entre otras.
La cantidad de modelos analíticos en las empresas en Perú se ha incrementado de manera sustancial, con lo cual se presentan nuevos retos a la hora de trabajarlos y gestionarlos, por ejemplo: Óptimos tiempos de ejecución, mayor precisión y estabilidad del modelo, gobierno y seguimiento. En este contexto las herramientas open source no brindan necesariamente entornos que den solución a la necesidad de administrar grandes cantidades de modelos, en la presente ponencia les compartiré como un banco retail en Perú industrializó su fábrica de modelos, logrando impacto en ventas y mejor time to market.
- Título: Data Analytics para bancos y uniones de crédito
- Expositores: Mariana Osorio- Ricardo Garza
- Descripción: Altair Knowledge Works ayuda a bancos y uniones de crédito a lograr sus objetivos operativos y estratégicos para que puedan ofrecer más valor a sus clientes.
- Título: Data Intelligence
- Expositor: Juan Pablo Gómez
- Descripción:
- Título: Beneficios de la industrialización de modelos en un banco retail en Perú
- Expositores: Manuel Valdivia Carbajal y Daniel Soto
- Descripción: En Perú, el impacto de las iniciativas de parte del Gobierno para incrementar el porcentaje de la población bancarizada, así como todo el desarrollo a nivel global en términos de analytics y transformación digital, han desencadenado que cada vez más compañías del sector inviertan en procesos de data analytics; capaces de desarrollar modelos analíticos en pro de mejorar sus colocaciones, rentabilidad, índices de cobranzas, eficiencia entre otras.
La cantidad de modelos analíticos en las empresas en Perú se ha incrementado de manera sustancial, con lo cual se presentan nuevos retos a la hora de trabajarlos y gestionarlos, por ejemplo: Óptimos tiempos de ejecución, mayor precisión y estabilidad del modelo, gobierno y seguimiento. En este contexto las herramientas open source no brindan necesariamente entornos que den solución a la necesidad de administrar grandes cantidades de modelos, en la presente ponencia les compartiré como un banco retail en Perú industrializó su fábrica de modelos, logrando impacto en ventas y mejor time to market.
- Título: Crecimiento Exponencial para Empresas usando Inteligencia Artificial y Geolocalización.
- Expositor: Maria Fernanda González Gutierrez
- Descripción: Explicaremos la importancia de la inteligencia artificial y la geolocalización para construir empresas exponenciales. Mostraremos diferentes casos de negocio y de éxito donde ayudamos a proporcionar conocimiento del cliente on-off, impulsar el engagement, los ingresos y el ROI.
- Expositor: Tito Pablo Neira Avila
- Cargo: Chief Data Strategy Officer
- Título: Estrategia de datos, un nuevo Capitulo hacía la Analítica Avanzada
- Descripción: Dentro de la estrategia de datos de una compañía existen cinco verticales básicas, tales como la estrategia negocio, estrategia tecnológica , consolidación de datos, uso de los datos y la ultima la estrategia analítica; esta sesión se enfocará en la estrategia analítica para ser competitivos en sus entorno laboral facilitando así el proceso de tomas de decisiones oportunas.
- Expositor: Diego García
- Título: ANALYTICS: Los mitos que nos alejan de la simplicidad del éxito.
- Expositor: Julio Cortés
- Descripción: El exceso de información, las megatendencias y casos de uso de mercados y economías lejanos a nuestra realidad, nos crean paradigmas y mitos que nos ponen en posición de riesgo para afrontar proyectos de innovación que transformarían positivamente las organizaciones. El gran reto estaría en la posibilidad de hacer confluir de manera sencilla los artefactos y mecanismos que nos ofrece el mundo de la analítica en pro transformarnos en corto tiempo y con gran impacto.
Lightning Talks
-
- Expositor: Crispin Velez
- Título: Mas Alla de la Analitica: ML y AI Empresarial
- Descripción: Muchas empresas tienen Claro que hoy tomar decisions basadas en datos es fundamental para incrementar ventas y reducir costos ayudando a mejorar eficiencias y rentabilidad. Que sucede luego de una implementation adecuada de Analitica de diagnostico y descriptive? Como predigo, como infiero? Y Como opero Los modelos de ML y AI. Es la caps de mas alto valor de Los datos.
Descargar presentación Aquí.
-
- Expositor: María Fernanda González
- Título: Crecimiento Exponencial para Empresas usando Inteligencia Artificial y Geolocalización
- Descripción: Como enfocarme en mi negocio sin tener tecnología propietaria para convertir la organización en una EXO (Exponential Organization)
Descargar presentación Aquí.
- Expositor: William Florez
- Título: Deep learning for internet advertising: Click-through rate prediction
- Descripción: Estructura: Conceptos básicos, análisis exploratorio y features engineering para diseñar y evaluar la predicción del CTR, cómo implementar modelos de machine learning para optimizar mejor la publicidad. Porque es importante? La publicidad en Internet se ha convertido en una de las más eficaces gracias al impacto dirigido a audiencias más específica, lo que se traduce en tasas de conversión de clientes más altas, impulsando los ingresos de las empresas. Por lo tanto, cualquier eficiencia en la optimización de esta estrategia es altamente apetecida por las compañías.
- Expositor: Julían David Escobar
- Título: ¿Cómo conocer el nivel de madurez analítica de tu organización?
- Descripción:Como enfocarme en mi negocio sin tener tecnología propietaria para convertir la organización en una EXO (Exponential Organization)”
- Expositor: Miguel Diaz
- Título: How success looks like : not only in AI
- Descripción: Una presentación completa que inicia con una contextualización y casos famosos de uso de inteligencia artificial, un caso de uso aplicado al negocio, analogías para poner en contexto a personas que desconocen el tema, presentación de una metodología de trabajo, sección “cómo luce el éxito, no sólo en AI”, conclusiones y cómo seguir aprendiendo.
- Expositor: Ricardo Garza
- Título: Altair Data Analytics
- Descripción: En esta charla se darán a conocer de manera general las principales aplicaciones de Altair para Data Anlaytics y las diversas industrias de uso.
Descargar presentación Aquí.
- Expositor: Alejandro Cardona Jaramillo
- Título: El Laberinto de las Decisiones Basadas en Datos: ¿Dónde pongo un colegio?
- Descripción: Aunque la rigurosidad metodológica y las competencias técnicas de los científicos de datos son indispensables para cualquier proyecto de analítica, es fundamental lograr que ese conocimiento y habilidades se pongan a disposición de necesidades reales que generen valor a personas y empresas. En esta charla quisiéramos compartir nuestra experiencia en el diseño y ejecución de proyectos de analítica con un caso que consideramos particularmente interesante por su aparente inocencia. ¿Dónde pongo un colegio? Esa fue la pregunta de nuestro cliente. Darle respuesta nos tomó 6 meses de trabajo combinando distintos métodos de recolección y análisis de datos. En las principales ciudades del país, ¿dónde hay gran cantidad de niños en edad escolar y poca densidad de colegios cercanos? (Modelo de optimización geográfica – análisis de redes y modelos de redes neuronales para limpieza e imputación de datos socio-demográficos) En esas zonas identificadas, ¿cuál es la propuesta de colegios existentes? (estudio de mystery shopper en colegios de la zona) ¿Los padres de la zona que esperan de un colegio? (estudios etnográficos con padres, niños y educadores) Dadas esas características esperadas, ¿cuánto están dispuestos a pagar? Y al precio que podemos ofrecer ese producto, ¿cuál sería el mercado dispuesto a escucharme (intención de compra)? (BPTO: Brand price trade-off) Además de hacer un barrido general sobre cada uno de los pasos que seguimos para resolver la pregunta y las dificultades que encontramos, quisiéramos reflexionar sobre el abismo que existe entre las necesidades de los clientes y sus expectativas por un lado, y la complejidad de las soluciones de analítica por el otro, que si bien prometen la toma de mejores decisiones corren el riesgo de perderse en sus propios laberintos metodológicos. El gran valor de la analítica no está en su músculo científico y tecnológico únicamente sino en lograr crear puentes entre las posibilidades que permite y las necesidades reales del mercado.
- Expositor: Carlos Díaz
- Título: ENABLING THE AI’DRIVEN ENTERPRISE
- Descripción: Estamos en un momento muy emocionante para de transformación de todas las industrias. Las reglas de negocio están siendo replanteadas. Las compañías se encuentran en una carrera para adoptar la Inteligencia Artificial y Machine Learning. Estas tecnologías tienen su complejidad, pero en esta charla se les dará a conocer cómo su organización puede volverse AI-Driven, con plataformas como DataRobot de Machine Learning Automatizado.
- Expositor: Andrés Suarez
- Título: Contabilidad para el analisis predictivo.
- Descripción: Sabemos que la analítica predictiva ha estado entre nosotros por décadas, es una tecnología cuyo momento ha llegado. Cada vez más organizaciones recurren a la analítica predictiva para mejorar su base de operación y lograr una ventaja competitiva. ¿Por qué ahora? Volúmenes y tipos de datos cada vez mayores, además de un mayor interés en el uso de datos para producir insights valiosos. Computadoras más rápidas y económicas. Condiciones económicas más difíciles y la necesidad de tener una diferenciación competitiva. La analítica predictiva ya no es sólo del dominio de matemáticos y estadísticos. Analistas de negocios y expertos en línea de negocios utilizan también estas tecnologías. Por eso nace AkountGo analitycs usando la contabilidad historica como base de datos que nos ayuda a entender el negocio de una manera exacta. Usando modelos econometricos, modelos de analiticas predictivas y modelos financieros y estrategicos existentes generamos una combinación poderosa para predecir ventas, cantidades de inventario. Las decisiones deben ser en un momento de oportunidad con nuestra solución las decisiones se toman en minutos optimizando operaciones y reduciendo costos. Implementando esta solución los modelos analíticos, no sólo son para informar, sino también para innovar en el modelo operativo básico de Finanzas y en la gestión del rendimiento de procesos.
Descargar presentación Aquí.