Descargar agenda Analytics Forum 2021 Aquí.

Keynotes

Juan Gorricho
Data & Analytics Executive, Chief Data Officer en VISA Global.
 
 


Curriculum Vitae

Actualmente, Juan es vicepresidente global de data en Visa. En este rol, Juan lidera el uso de datos y analítica en Visa con el fin de crear una cultura basada datos. Antes de ser parte de Visa, Juan fue parte de The Walt Disney Company por casi 10 años donde lidero diferentes equipos e iniciativas para el uso de datos y analítica. Juan tiene más de 20 años de experiencia en el espacio de datos y analítica, y es ingeniero industrial de la Universidad de los Andes. Además, tiene un MBA de Darden Graduate School of Business Administration de la Universidad de Virginia.

Conferencia: La (¿dura?) realidad de avanzar en analítica

No cabe dudad que el uso de analítica llego para quedarse en las empresas. Es más, el uso de analítica paso de ser una actividad opcional a ser algo obligatorio para casi todas las organizaciones si quieren sobrevivir. Sin embargo, muchas organizaciones aun no logran cosechar los logros deseados y prometidos. Durante esta sesión, me enfocaré en compartir algunas lecciones que he aprendido a lo largo de mi experiencia en múltiples organizaciones liderando iniciativas analíticas. Concretamente, el rol que deben jugar los líderes del negocio en el impacto de analítica, la cada día más crítica relevancia del gobierno de datos, y la importancia de tener un enfoque disciplinado en los elementos fundamentales de la ejecución de iniciativas analíticas en las organizaciones.

Hora de presentación

8:20 - 9:00 UTC-5. Más información sobre la agenda Aquí

Lugar

C.E San Andrés

 

Alex ‘Sandy’ Pentland, PhD
Data & MIT Professor, co-creator of the MIT Media Lab, member of the US National Academies, and Board member of the UN Global Partnership for Sustainable Development Data.
 
 

Keynotes


Curriculum Vitae

MIT Professor Alex Pentland is one of most-cited computational scientists in the world and named by Forbes magazine as one of the "7 most powerful data scientists". He is co-creator of the MIT Media Lab, member of the US National Academies, and Board member of the UN Global Partnership for Sustainable Development Data. He has helped create more than a dozen companies, which today serve roughly 1/3 of humanity.

Conferencia: Rebuilding the Economy: Data as Capital

Data is increasingly key to the economy, but there are real worries about privacy and security, and the data is in too few hands. I will talk about how communities can take control of data about themselves and use this to improve their future.

Hora de presentación

9:00 - 9:40 UTC-5. Más información sobre la agenda Aquí

Lugar

C.E San Andrés

Qiaozhu Mei, PhD
Professor, Director of Master of Applied Data Science at University of Michigan.
 
 


Curriculum Vitae

Qiaozhu Mei is a professor in the School of Information and the College of Engineering at the University of Michigan. His research focuses on large-scale data mining, machine learning, information retrieval, and natural language processing, with broad applications to social media, Web, and health informatics. Qiaozhu is an ACM distinguished member (2017) and a recipient of the NSF Career Award (2011). His work has received multiple best paper awards at top computer science venues. He is the founding director of the online master degree of applied data science at the University of Michigan.

Conferencia: Emoji Analytics: Decoding the New World Language

Emojis have become a universal language that is used by worldwide users, for everyday tasks, across language and cultural barriers, and in different apps and platforms. The prevalence of emojis has attracted increasing attention not only from various fields of computing and data science, but also from broader disciplines including social sciences, arts, psychology, and linguistics.  This talk summarizes the recent efforts made by my research group and collaborators on analyzing large-scale emoji data, including a recent best paper award at the Web conference 2019.  In general, emojis have evolved from visual ideograms to a brand-new world language in the era of AI and a new Web.  The popularity, roles, and utility of emojis have all gone beyond people’s original intentions, which have created a huge opportunity for future research that calls for joint efforts from multiple disciplines.

Hora de presentación

14:05 - 14:45 UTC-5. Más información sobre la agenda Aquí

Lugar

C.E San Andrés

Patrocinadores

TIMI + GPStrategy

Participa en el sorteo de un cupo en “Predictive Lab” en: https://gpstrategy.com.co/analytics-forum/

ITPerforma + Keyrus

Participa por una subscripción GRATIS de Café Juan Valdez por 6 meses: https://landing.itperforma.com/contact-us.  Daremos a conocer el ganador en nuestro stand (India Catalina -B10) a las 5:30 pm.

Tracks

Track 1 - Analytics for the Public Sector

 

Las políticas públicas no son ajenas a los avances en área de análisis de datos. Diariamente las instituciones públicas y otras organizaciones con intereses públicos reciben millones de datos sobre sus ciudadanos, y los utilizan en muchos casos para generar nuevos programas y políticas de beneficio social. En este Track, de la mano con expertos, podrá conocer cómo las técnicas para el análisis de datos se pueden utilizar para formular políticas públicas.

 

 

1. DNP

  • Empresa: Departamento Nacional de Planeación-Unidad de Científicos de Datos
  • Título: Identificación y Análisis de Palabras Clave Asociadas a Documentos CONPES por Periodo de Gobierno
  • Expositor: Mariana Quevedo Hernández
  • Descripción: Un análisis histórico de los documentos CONPES de tipo “lineamientos de política”, desde 1967 hasta 2019, a través de minería de texto permite determinar los términos y temas más relevantes en cada uno de ellos y su cambio de relevancia a través del tiempo.
2. Universidad de los Andes

  • Empresa: Universidad de los Andes
  • Título: Aprendizaje por Refuerzo Multiagente aplicado a control de semaforización
  • Expositor: Carolina Higuera Arias
  • Descripción: En este trabajo se presenta la aplicación del aprendizaje por refuerzo multiagente al problema del control de la semaforización para disminuir tiempos de viaje. La malla vial se modela como una colección de agentes para cada intersección semaforizada. Los agentes, por medio de la experimentación con el entorno, aprenden a establecer fases que maximizan una función objetivo que fomenta disminuir los tiempos de espera de vehículos detenidos y la longitud de las colas en todos los cruces. El primer enfoque que se puso a prueba aprovecha el hecho de que el objetivo se puede dividir en contribuciones por agente. Las intersecciones se modelan como vértices en un gráfico de coordinación y la mejor acción conjunta se encuentra con el algoritmo de eliminación de variables. El segundo método explota el principio de localidad para calcular la mejor acción de un agente como su best response para un juego de dos jugadores con cada miembro de su vecindario. Estos métodos de aprendizaje fueron puestos a prueba en una red simulada de 6 intersecciones semaforizada, utilizando datos del Departamento de Tránsito de Bogotá, Colombia. Con ambos métodos se obtuvieron reducciones significativas en los tiempos de espera con respecto al control por tiempos fijos para cada fase y, en general, se lograron tiempos de viaje más cortos en comparación con otros métodos basados ​​en aprendizaje por refuerzo que se encuentran en la literatura para el mismo problema de control de semaforización.
3. Ernst & Young

  • Empresa: Ernst & Young

  • Título: Modelo de Detección de Conflictos de Interés

  • Expositor: Daniel Fernando Cantor Báez

  • Descripción: Para el adecuado ejercicio de las funciones de las entidades de control estatal, es importante detectar de forma preventiva posibles casos de conflictos de interés y anticipar actos de corrupción en la contratación pública. Gracias a la tecnología de Azure, específicamente al uso de sus componentes de datos, analítica e inteligencia artificial, fue posible la construcción de una solución que apoya la transparencia en los procesos de contratación estatal. EY Colombia fue la firma encargada del diseño, implementación y soporte de una solución de analítica que permite detectar posibles conflictos de interés entre actores estatales y civiles, a partir de fuentes de datos diversas (datos estructurados, no estructurados y binarios o semiestructurados).

Track 2 - Bussines Analytics

Diariamente las empresas producen, reciben y procesan millones de datos. Se puede entender, entonces, que la toma de decisiones a partir del análisis de datos hace parte fundamental de todas las áreas organizacionales de las empresas para garantizar su buen funcionamiento. En este Track encontrará panelistas que compartirán su experiencia en la aplicación de técnicas de análisis de datos en áreas como finanzas, mercadeo, emprendimiento para que actualice sus conocimientos y se entere como las compañías están aplicando el análisis de datos. 

1. Rappi

  • Empresa: Rappi - Universidad de los Andes
  • Título: Graph Machine Learning: The Next Frontier in Artificial Intelligence
  • Expositor: Alejandro Correa Bahnsen
  • Descripción: It is expected that by 2023, 30% of the organizations worldwide will already be using graph technologies to facilitate rapid contextualization for decision making, and that application of graph processing and graph databases will grow at 100% annually according to Gartner. Graphs offer a novel source of information since they accurately and adequately capture the interactions of different entities of interest such as organizations, people, devices, and transactions. In fact, it has been discovered that connections in data are as valuable as the data itself, as these provide context allowing algorithms to learn not only from the datapoint itself but also from the structure created and the flow of information. The interest in these technologies and algorithms have made the field of graph machine learning the fastest growing field in the major AI conferences. In this talk, we will briefly describe the concepts needed to understand Graph Machine Learning, describe the evolution it has taken in its methodologies, give a brief overview of the field, and finally, show real use cases of graph machine learning algorithms to detect fraudulent activities, identify potential influencers, and to enhance credit risk scores.
 
2. Grupo Dot

  • Empresa: Grupodot
  • Título: Ciencia del Comportamiento en conjunto con Inteligencia Artificial: Aplicaciones con Impacto Real en diferentes Industrias
  • Expositor: Diego Ibagón
  • Descripción: La inclusión de ciencia del comportamiento, como parte de los procesos de diseño y construcción de soluciones que emplean Inteligencia Artificial, es una tendencia en crecimiento pues, entre otros beneficios, permite tanto facilitar o acercarse a una mejor “explicabilidad” de los modelos, así como obtener modelos que involucran mayores conjuntos de variables, es decir, no solamente aquellas centradas en “ quien es el usuario” (Típicamente socio-demografía), si no también datos sobre el “contexto” (clima, noticias, tendencias de búsqueda, etc.), variables cognitivas, que dan cuenta de su experiencia en la plataforma y/o oferta de interacciones que se le brinda al usuario y finalmente, “Variables motivacionales”, normalmente vinculadas a datos de opiniones y conversaciones en diferentes espacios digitales. Durante los últimos 4 años, hemos trabajado en Grupodot tanto en investigación como en la aplicación de modelos de comportamiento a problemáticas comunes, en las que se trata de comprender, clasificar y predecir la forma en que usuarios de diferentes tipos de industrias, a gran escala, se comportan. El objetivo de la ponencia es presentar, de forma resumida, el background teórico y metodológico de ambos mundos (Ciencia de Datos y Ciencia del Comportamiento), para luego presentar, 2 casos prácticos, y en operación hoy día a gran escala, que emplean modelos comportamentales de Inteligencia Artificial: El primero, para recomendar productos/servicios y el segundo para segmentar grupos dispersos de usuarios y predecir la siguiente acción a ejecutar, dentro de un conjunto posible.
3. Metanoiia
  • Empresa: Metanoiia
  • Título: Data Science for Sustainable Business
  • Expositor: Natalia Barrero, Co-Founder
  • Descripción: Durante los últimos años ha habido avances importantes en diferentes disciplinas respecto a la extracción de valor a los datos. Las empresas privadas han percibido el valor de obtener insights de sus datos optimizando e incrementando beneficios económicos. Sin embargo, las soluciones basadas en IA y ciencia de datos aplicada, no solo modifica la manera en la que se hacen negocios, sino que cambia la forma en que las empresas y personas se relacionan, interactúan y aportan a la sostenibilidad. En esta charla veremos casos de éxito de cómo la ciencia de datos y la tecnología han tomado un papel protagónico en la transformación de las organizaciones para satisfacer la cambiante demanda de los consumidores y aumentar el valor de inversiones responsables y de impacto.

Track 3 - Supply Chain Analytics

 

La identificación del uso de los datos y las oportunidades de implementación de proyectos permite aprovechar las ventajas que ofrecen las herramientas de inteligencia analítica. Por lo cual es de suma importancia diseñar, correctamente, metodologías para convertir en conocimiento accionable los datos que existen en las organizaciones. Por eso en este track podrá evidenciar como en diferentes entidades han logrado pasar desde datos a acciones estratégicas y tácticas. 

 

 

1. Tigo

  • Empresa: Tigo
  • Título: Modelo analítico para la identificación de anomalías en el consumo de energía eléctrica en tres provincias de Chile
  • Expositor: Juan Andrés Cabal
  • Descripción: El hurto de energía es un problema al que se enfrentan la gran mayoría de empresas prestadores del servicio eléctrico, lo que ha ocasionado que estas busquen mecanismos eficientes y costo-efectivos que les permita identificar o por lo menos generar una alerta temprana sobre un posible hurtador de energía eléctrica. En Chile, a pesar de estar constituido como un delito, siguen existiendo casos penales contra usuarios que han presentado irregularidades en su consumo, lo cual trae grandes consecuencias para la empresa ya que se pueden evidenciar variaciones de voltaje, sobrecarga en el suministro eléctrico y cortes de energía. Lo anterior es el objetivo principal del presente estudio, el cual, mediante el uso de información de medidores tradicionales, desarrolló un modelo de redes neuronales recurrentes con el fin de mejorar el proceso de identificación de hurtadores ya que actualmente la empresa chilena que presta el servicio de energía eléctrica lo hace de manera manual mediante visitas de campo sorpresas a usuarios con grandes desviaciones en su voltaje. El modelo propuesto es de gran interés para la empresa ya que le permite reducir los costos logísticos asociados con las visitas de campo, tener una mejor identificación sobre cuáles son los posibles hurtadores e identificar los patrones de un consumidor anómalo.
2. Smart BP

  • Empresa: SmartBP

  • Título: Optimización de Programación de Trabajadores para Puerto

  • Expositor: Juan David Zambrano Losada

  • Descripción: Con la finalidad de balancear las cargas de trabajo, disminuir el pago de horas extra y los costos de transporte para el área encargada del pesado mediante básculas de una sociedad portuaria, es imperativo contar con planes adecuados para la programación de turnos de operarios. Para resolver este problema, se planteó un modelo de optimización lineal entera mixta basado en generación de columnas. La metodología consiste en recibir una estimación de la demanda para un horizonte de un mes en cada una de las básculas con las que cuenta la sociedad portuaria y posteriormente, generar mediante un modelo auxiliar un conjunto inicial de planes de trabajo, que son asignados a la planta de trabajadores del puerto mediante un modelo maestro tiendo en cuenta las siguientes restricciones: demanda en cada una de las básculas, tiempo máximo por trabajadores, numero máximo de horas extra, tiempos de descanso mínimos entre turnos y máximo de jornadas laborales en horarios nocturnos por trabajador. Luego de una primera asignación hecha con los planes generados por el modelo auxiliar, las variables duales del modelo maestro son utilizadas para generar nuevos planes de trabajo, proceso que se repite iterativamente hasta cumplir con un criterio de terminación. De esta manera, se determinan los planes de trabajo óptimos para los trabajadores de la sociedad portuaria teniendo en cuenta las restricciones mencionadas anteriormente. Finalmente, los resultados son sometidos a un post procesamiento que busca minimizar los costos de transporte de los trabajadores por medio de un algoritmo heurístico que respeta los planes de trabajo asignados a cada trabajador en el modelo de optimización.

3. Georgia Institute of Technology

  • Empresa: Georgia Institute of Technology
  • Título: Estrategia de muestreo adaptativa para monitorear en tiempo real flujos de datos de alta dimensión
  • Expositor: Ana Maria Estrada
  • Descripción: Monitorear flujos de datos de alta dimensión, en tiempo real, es fundamental para detectar anomalías y fallas en un sistema. Sin embargo, en algunas aplicaciones, como el monitoreo ambiental, el sistema de recolección de datos solo proporciona información parcial, debido a restricciones en los recursos. En estos casos, se necesita una estrategia de muestreo adaptativa para detectar fallas en el sistema. La investigación contesta las siguientes preguntas: (1) ¿cómo seleccionar de manera adaptativa las variables a observar en cada instante del tiempo?, (2) ¿cómo usar la información incompleta para detectar una falla en el sistema?, y (3) ¿cómo determinar dónde ocurrió la falla?. La estrategia de muestreo propuesta se utilizó para monitorear la temperatura de agua, almacenada en el subsuelo, para el riego de un campo agrícola, con el objetivo de garantizar la calidad de los cultivos.

Casos de Éxito

C.E San Andrés

Casos I

1. ItPerforma + Keyrus

Juan Diego Torrado - CDO Juan Valdez

Fredy Cabra - Coordinador de Data Analytics en Procafecol

  • Título: Data&Analytics Journey en Juan Valdez
  • Expositores: Juan Diego Torrado - CDO - Director de Transformación Digital y Tecnología en Juan Valdez Café - Freddy Cabra - Coordinador de Data Analytics en Juan Valdez Café.
  • Descripción: Conozca el Journey de Data& Analytics de Juan Valdez desde el punto de partida, la visión, los principales retos y oportunidades, las formas de resolverlo y el roadmap a futuro de la estrategia analítica de una de las empresas más representativas del país a nivel nacional e internacional.
2. GPStrategy

  • Título: Business Analytics para Comunicación Digital.
  • Expositor: Mateo Restrepo Higuita, Estadístico de la Universidad Nacional de Colombia.
  • Descripción: Buena parte del éxito de una estrategia de comunicación digital por email se determina por la relevancia del contenido enviado, la oportunidad (el momento) en que se envía y la pertinencia para el receptor. El análisis de estas tres variables y su posterior optimización guardan una correlación directa con el incremento en las tasas de conversión de cualquier campaña digital. Procesamos más de 340 millones de datos de emails, que representan todas las campañas lanzadas por un cliente en los 2 últimos años. Analizamos el comportamiento de cada una de las categorías de envío, emails enviados, campañas, aperturas, cantidad de clicks, rebotes, desuscritos y similares. Nos permitirá concluir horas de envío, días, remitente, formatos, mensajes, imágenes para incrementar la efectividad de las campañas.
3. Davivienda

  • Título: La importancia del contexto de vida de nuestros clientes en la construcción de modelos analíticos para growth marketing
  • Expositor: Daniel Rojas, Jefe de Inteligencia de Mercadeo del Banco Davivienda y consultor independiente de growth marketing y ciencia de Datos.
  • Descripción:

C.E La Aduana

Casos II

1. Infórmese

  • Título: Recursos bajo la lupa con Analítica Avanzada.
  • Expositor: Juan Carlos Olarte, Gerente de Conocimiento.
  • Descripción: Una compañía latinoamericana con más de 1.200 clientes y con una trayectoria de más de 3.750 proyectos ejecutados, que acompaña a sus clientes/aliados en su Analytical Journey para descubrir con ellos el poder de los datos para cada organización.
2. DataKnowledge

  • Título: Catálogo de Datos – El primer paso hacia el modelo de Self-Service Analytics.
  • Expositor: Juan Pablo Gomez Gomez, Máster en Data Management e Innovación Tecnológica de la Universidad de Barcelona.
  • Descripción: Los catálogos de datos permiten a los usuarios comerciales comprar rápida y fácilmente datos confiables. Y con datos confiables , las organizaciones pueden tomar mejores decisiones comerciales que impulsan el crecimiento y el valor comercial.
3. Manar

  • Título: Tendencias de Business Intelligence para el 2021 
  • Expositores: Olga Liscano, Consultora Comercial Cuentas Estratégicas
  • Descripción: ¿Cuáles son los cambios más relevantes que han surgido gracias a los datos y la analítica y cómo influirán en el futuro y en la nueva normalidad? Si sabemos las respuestas, y actuamos en consecuencia, estaremos mucho más preparados para la actual conversión digital y los próximos cambios.

S.C Buenaventura

Casos III

1. Smart-BP

Liliana Aponte - SmartBP

  • Título: Cómo Smurfit Kappa usa Modelos de Optimización para su Planeación Forestal
  • Expositores:Liliana Aponte - SmartBP y Jose Fernando Giraldo - Smurfit Kappa
  • Descripción: Este proyecto busca ayudar a nuestro cliente en la toma de decisiones automatizada por medio de la analítica prescriptiva. Para este caso, explicaremos cómo se implementó un modelo de optimización para la planificación estratégica forestal de Smurfit Kappa. Lo que buscamos por medio del uso de modelos de optimización es lograr un mejor uso de sus lotes para maximizar el cubrimiento de la demanda, minimizar las compras externas de madera o adquisición de nuevos terrenos.
2. Timi

  • Título: Machine Learning y Deep Learning, herramientas para superar retos del 2020. 
  • Expositores: David Allende Quintana
  • Descripción: Dentro del escenario de incertidumbre ante la pandemia por la propagación del Covid19 y la medidas restrictivas de movilidad impuestas por los Gobiernos, los supermercados se vieron impactados por una alta demanda a través del canal online y con ello el desabastecimiento de sus proveedores, tiempo de entrega de períodos muy extensos, entregas incompletas, insatisfacción de parte de los usuarios, etc., generando grandes retos que pudieron ser mitigados a través del uso de algoritmos de machine learning y deep learning que predicen oportunamente el desabastecimiento y generan alternativas de sustitución.

Lightning Talks

1. Aleph Mind

  • Expositor: Juan Pablo Gomez & Juan Esteban Cepeda
  • Título: The witness
  • Descripción: El equipo de Aleph Mind, los desarrolladores del proyecto ganador de la competencia internacional Datajam 2020, organizada por IBM y la Fundación Pasos Libres, nos hablan sobre cómo están utilizando la Inteligencia Artificial para combatir la segunda industria delictiva más lucrativa del mundo.
2. Universidad de los Andes

  • Expositor: Jorge Sebastián Mora
  • Título: Reconocimiento de ordenes multimodales en interacción humano robot
  • Descripción: El proyecto busca en darle la capacidad al robot tipo pepper de ser un apoyo en un laboratorio de ingeniería de la Universidad, en donde hará funciones como el seguimiento de las normas de los laboratorios, la navegación segura dentro del laboratorio y la capacidad de acercarse a quienes tienen dudas. Para esto se implementaron múltiples modelos y arquitecturas de machine learning para resolver los múltiples retos que esto implicaba, en donde se utilizaron arquitecturas basadas en redes convolucionales profundas para realizar el reconocimientos de objetos, la reconstrucción de poses humanas sobre videos 2D, y la clasificación de dichas poses, esto ultimo con el fin de darle la capacidad al robot de determinar cuando es requerido, finalmente por medio de aprendizaje por refuerzo, se integro toda la información recopilada por los diferentes modelos, así como información de otros sensores del robot como los sensores infrarrojos y la cámaras de profundidad, esto con el fin de generar una política capaz de navegar por el laboratorio con seguridad, acercarse a quienes estén preguntando, alejarse de quienes no quieren que se acerquen, verificar las normas de seguridad del laboratorio. Adicionalmente todo fue implementado en un simulador hecho a la medida utilizando el motor grafico Unity 5.

 

3. Grupo CMC

  • Expositor: Juan Francisco García
  • Título: SMART RISK 360
  • Descripción: Un completo análisis de riesgos de empresas en tiempo real con fuentes 360º actualizadas en tiempo real usando técnicas de IA
4. Grupo Alto

  • Expositor: Lida Sandoval
  • Título: El COVID-19 en Colombia: Impacto del confinamiento en la actividad delictiva
  • Descripción: La pandemia derivada de la enfermedad por coronavirus (COVID-19) ha generado un impacto drástico, no solo en la salud de la población, sino a nivel económico y social. Dicha disrupción en la cotidianidad de las personas plantea múltiples desafíos, los cuales deben ser abordados desde diferentes frentes. Por medio de esta investigación se busca analizar si existe una relación entre la imposición de medidas de restricción a la movilidad, como mecanismo preventivo para frenar los contagios y la cantidad de delitos cometidos en Colombia durante los diferentes periodos de confinamiento. A través de análisis estadísticos y econométricos de intervalos de confianza y modelos de series de tiempo bayesianas, y utilizando datos de movilidad y delincuencia a nivel país y de municipio, fue posible comparar la situación en términos del número de delitos cometidos antes y después de la imposición de la cuarentena. Los resultados señalan una reducción significativa en la cantidad de hurtos a personas y hurtos a comercios, tras el decreto de confinamiento a nivel nacional, mientras que la cantidad de homicidios y hurto a residencias también se redujo, pero en una proporción mucho menor y, por lo tanto, no significativa. Respecto a los delitos de violencia intrafamiliar y abuso sexual, se observó una tendencia creciente en el volumen de casos denunciados por la ciudadanía. Se exponen una serie de hallazgos relevantes acerca del comportamiento de la actividad criminal en Colombia durante el periodo de pandemia, con el fin de orientar a las autoridades e instituciones competentes, en dónde deben centrar sus esfuerzos y recursos para la lucha contra la delincuencia en el país. Finalmente, la investigación recalca los grandes retos que se avecinan como consecuencia de la crisis que está enfrentando el mundo actualmente.
5. Mckinsey & Company

 

  • Expositor: Ivan Torroledo Peña
  • Título: Taking your data science code to production level using Kedro
  • Descripción: Have you had problems taking your machine learning model to production level? or has collaborative work been a nightmare in your data science projects? Over time, machine learning models have advanced with a dramatical speed, creating complex solutions to almost any data science problem. However, good practices and standards on how to take models to production level have been underestimated. Kedro, the first open-source tool created by QuantumBlack labs, implements a quick and simple solution to solve these problems. Kedro is a framework to make it easy to deploy machine learning models in production because apply software engineering principles to data science and data engineering. Some of its key features are structured data pipelines using software engineering principles, modular units of code easily tested, code reproducibility in different environments, and production of well-documented code.

 

6. Universidad de los Andes

  • Expositor: Cesar Garrido
  • Título: Sistema de Gestión de la Energía para Microrredes basado en Aprendizaje por Refuerzo
  • Descripción:En este trabajo se busca implementar (en simulación) un sistema de gestión de la energía (EMS) para microrredes, utilizando inteligencia artificial. Específicamente el EMS se construye utilizando algoritmos del estado del arte de aprendizaje por refuerzo. En este caso, no solo se evalúa el desempeño de estos algoritmos sino que se validan en distintas configuraciones de microrred y sus resultados se contrastan con los de algunas de las metodologías tradicionales que buscan solucionar el mismo problema.
7. Centro Nacional de Consultoría

 

  • Expositor:  Nelson Leonardo Lammoglia Hoyos
  • Título: ¿Qué dicen BI y BA del 2020 en Colombia?  
  • Descripción: En el estudio que hemos realizado, hemos encontrado resultados muy interesantes en los cambios de hábitos de las personas antes, durante y después del COVID. Gracias a los distintos algoritmos de Machine Learning en estudios anteriores, hemos sido capaces de llegar a una base imputada en una linea de tiempo que nos permita estudiar, analizar y, en un futuro cercano, predecir los hábitos de las personas (desde hábitos de compra, intenciones y usos del internet en la cotidianidad, uso del tiempo, entre otros), por medio de distintas estrategias dentro de las diferentes librerías y herramientas que nos ofrece la ciencia de datos.

 

8. SmartBP

  • Expositor: Liliana Aponte Rueda
  • Título:Analítica Prescriptiva
  • Descripción:Este proyecto busca ayudar a nuestro cliente en la toma de decisiones automatizada por medio de la analítica prescriptiva. Por medio de la proyección de demanda para un horizonte a largo plazo (~40 años), se optimiza el uso de suelos para la plantación y cosecha de árboles de pino y eucalipto. Por medio del uso un modelo de optimización matemática, definimos las variables de decisión y modelamos las reglas de decisión (o restricciones) para entregar a Smurfit Kappa un plan de acción año a año para cada uno de los lotes a intervenir. Los beneficios que obtiene nuestro cliente por medio de la analítica prescriptiva son: un mejor uso de sus lotes para maximizar el cubrimiento de la demanda, minimizar las compras externas de madera o adquisición de nuevos terrenos. Este proyecto es de interés para una amplia audiencia ya que, en muchos casos, las empresas utilizan la analítica predictiva obteniendo resultado que no saben cómo utilizar. La analítica prescriptiva es el siguiente paso para tener una toma de decisiones automatizada con resultados de alto impacto y con valor agregado para las empresas.
9. DATA 360

  • Expositor:  Natalia Raffo
  • Título: Reconocimiento y extracción de texto a través de algoritmos de Deep Learning.
  • Descripción:Según la revisión de estudios bibliográficos el reconocimiento y extracción de texto de documentos pre- impresos de forma automática tiene un rol importante en la economía, dado el aporte en generar información relevante de documentos en los sectores: Financiero, Energético, Petróleo, Salud, entre otros, para detectar hallazgos de forma rápida y ser un apalancador en la solución de retos de negocio generando herramientas sólidas para tomar decisiones efectivas, reduciendo largos tiempos operativos que se invierten actualmente recursos en trascribir los campos de interés de los documentos de forma manual, generando altos costos producidos por procesos operativos desgastantes y produciendo resultados tardíamente, requiriendo herramientas automáticas que logren hacer esta extracción de forma efectiva en tiempos muy cortos. Ante la necesidad identificada se pretende presentar la charla enfocada a mostrar el reconocimiento y extracción de texto de Documentos de campos específicos a través de algoritmos de Deep Learning con altas precisiones en la extracción. reduciendo tiempos operativos y costos.

 

Pósters

Tecnológico de Monterrey

  • Expositor: Pedro Olaya
  • Título: Ecosistema y generación de valor en el HUB de IA del Tec de Monterrey
  • Descripción: Se indicará como un pensamiento integrado permite generar valor a través de sinergias concretas al involucrar a la academia, el sector real, emprendimiento, gobierno y otros actores.
DATA 360

  • Expositor:  Natalia Raffo
  • Título: Reconocimiento y extracción de texto a través de algoritmos de Deep Learning.
  • Descripción:Según la revisión de estudios bibliográficos el reconocimiento y extracción de texto de documentos pre- impresos de forma automática tiene un rol importante en la economía, dado el aporte en generar información relevante de documentos en los sectores: Financiero, Energético, Petróleo, Salud, entre otros, para detectar hallazgos de forma rápida y ser un apalancador en la solución de retos de negocio generando herramientas sólidas para tomar decisiones efectivas, reduciendo largos tiempos operativos que se invierten actualmente recursos en trascribir los campos de interés de los documentos de forma manual, generando altos costos producidos por procesos operativos desgastantes y produciendo resultados tardíamente, requiriendo herramientas automáticas que logren hacer esta extracción de forma efectiva en tiempos muy cortos. Ante la necesidad identificada se pretende presentar la charla enfocada a mostrar el reconocimiento y extracción de texto de Documentos de campos específicos a través de algoritmos de Deep Learning con altas precisiones en la extracción. reduciendo tiempos operativos y costos.

 

Unicaja Banco (Banco Español)

Póster A

  • Expositor: Javier Porras Castaño, Experto en Inteligencia Artificial.
  • Título: Sistemas Conversacionales Cognitivos. Caso de uso: Banca Conversacional Inteligente
  • Descripción: Los Sistemas Conversacionales Cognitivos (Chatbots y Asistentes Virtuales) van a revolucionar la forma que tienen las empresas de relacionarse con sus consumidores permitiéndoles interactuar mediante la interfaz más sencilla, natural y sin curva de aprendizaje: el lenguaje natural con su propia forma de expresión. Conseguirán reducir la brecha digital acercando la empresa a los clientes incluyendo a los que habitualmente tienen mayores dificultades con la tecnología y discapacitados. Lograrán el reto de la omnicanalidad real permitiendo integrar la empresa en los canales que utilizan y dominan los clientes a diario (por ejemplo, WhatsApp, Telegram, Alexa o Google Assistant), originando un punto de inflexión importante: pasando de las ‘apps’ a las ‘skills’ para posicionar a la empresa donde están sus clientes. En conclusión, ofrecen un servicio al cliente personalizado 24×7, omnicanal, en lenguaje natural y proactivo para mejorar su día a día (Salud Financiera) y lograr su satisfacción.

Póster B

  • Expositor: Javier Porras Castaño, Experto en Inteligencia Artificial.
  • Título: De las Apps a las Skills: Posiciona a tu Empresa donde están los clientes
  • Descripción:  
Universidad de los Andes

 

  • Expositor: Karen Sofia Gutierrez Rodriguez
  • Título: Predicción de radiación solar usando Machine Learning
  • Descripción: El objetivo de este proyecto fue predecir la radiación solar con el objetivo de una posterior implementación de paneles solares como fuentes de energía renovable. Para esto se solicitaron datos al IDEAM y al Laboratorio Nacional de energías renovables estadounidense (NREL) por sus siglas en inglés. En primer lugar, se realizó una adaptación de los datos satelitales a los datos in situ, ya que estos estaban incompletos y abarcaban menos tiempo. Para estos, se realizó la comparación entre regresión lineal y Random Forest, obteniendo un mejor desempeño con el último. Posteriormente, se implementó una red neuronal para series de tiempo con neuronas tipo LSTM. Para lo que obtuvo un coeficiente de correlación mayor a 0.8 en todos los puntos de la ciudad evaluados.

Universidad de los Andes - CinfonIA

  • Expositor: Jonathan Steven Roncancio Pinzón
  • Título: DeepMAP: Deep Modular Attention for Air Quality Prediction
  • Descripción:La contaminación del aire se ha convertido en uno de los problemas ambientales más importantes para las grandes ciudades debido a sus graves efectos en la salud pública. Por lo tanto, en las últimas décadas se ha realizado un gran esfuerzo para desarrollar sistemas de predicción de los contaminantes más nocivos para la salud de los seres humanos. Sin embargo, a pesar de que la mayoría de las redes de monitoreo en el mundo poseen múltiples estaciones de medición, una gran parte de los estudios actuales utilizan mediciones de una única estación. Nuestra hipótesis es que fusionar la información de varias estaciones de forma inteligente puede mejorar el desempeño de los modelos de predicción de la calidad del aire. Por lo tanto, proponemos una arquitectura de red neuronal modular que utiliza la información de N estaciones para predecir la concentración de material particulado de 10 micras (PM10) en un sitio expecífico. Este marco se puede utilizar tanto en regímenes temporales como espaciales, y proporciona una forma de interpretar el comportamiento del modelo en términos de la importancia que se le da a cada una de las estaciones en la red. El desempeño de la metodología propuesta se confirmó con datos del mundo real proporcionados por la red de monitoreo de la calidad del aire de Bogotá, y los resultados sugieren que el uso de un método de fusión inteligente mejora efectivamente la predicción de los modelos temporales y espaciales.
Colegio Anglo Colombiano

  • Expositor: Álvaro Herrera Ramírez
  • Título: Diseño de la estrategia Data-Driven School
  • Descripción:Esta muestra ilustrará, con algunos ejemplos, los retos frecuentes de un colegio al emprender el diseño de una estrategia de transformación digital hacia la implementación de un modelo de análisis de datos para la toma de decisiones, y cuáles herramientas analíticas y de administración de la información han resultado prometedoras para superarlos. Aunque los sistemas de Business Analytics han estado presentes en una multitud de industrias y contextos desde hace varios años, en la educación básica y media las herramientas de este tipo están llegando con no pocos obstáculos. El principal, la dificultad del diseño de una implementación pertinente para el entorno escolar, debido a los retos para la transferencia del know-how adquirido en otras industrias con mayor bagaje en este campo.
Universidad de los Andes

  • Expositor: Alejandro Reyes Muñoz
  • Título: Combinando Machine Learning y Big Data en la nueva era de la biología.
  • Descripción:Las ciencias de la vida son ahora muy diferentes a lo que eran hace 30 años. Con la globalización, incluso de las enfermedades, volviéndose pandemias, es necesario responder y adaptarse a las nuevas tecnologías y estrategias de investigación. En la era del Big Data, las Ciencias Biológicas no son ajenas a este cambio y en particular en el campo de secuenciación y caracterización de secuencias genéticas se ha visto un incremento exponencial en la generación y disponibilidad de estos datos. Las bases de datos públicas ya sobrepasaron la barrera de los Petabatyes y se acerca rápidamente a los Exabytes de almacenamiento y la pregunta que surge es si tenemos los métodos y conocimientos para afrontar y extraer insights biológicos de esta cantidad de datos. Desde la Universidad de los Andes, en el Departamento de Ciencias Biológicas, el grupo de Biología Computacional y Ecología Microbiana realiza investigaciones buscando usar, desarrollar e implementar métodos computacionales para el análisis de datos de secuenciación de nueva generación, estos datos provienen de diversas fuentes, desde analizar la diversidad de genes de resistencia a antibióticos presentes en los afluentes del Río Bogotá, a entender como la diversidad de bacterias del intestino en el Oso de Anteojos se convierte en un componente esencial con miras a su conservación, pasando por la caracterización y optimización de la fermentación del cacao para obtener un producto más homogéneo que se caracteriza por su calidad y aroma. Todos los campos, desde la agricultura, la medicina, la conservación hasta la industria farmacéutica se benefician de las posibles aplicaciones de métodos de Machine Learning y Visual Analytics a los datos generados por métodos de secuenciación masiva.
Mercado Libre

  • Expositor: Melissa Montes Martin
  • Título: qexpert: question classifier with NLP
  • Descripción:En Mercado Libre, los vendedores de productos reciben decenas de preguntas diarias por parte de los compradores de los productos. Muchas veces, las preguntas tienen la misma respuesta de acuerdo al tema que abordan. La clasificación y potencial automatización de algunas respuestas ahorraría tiempo de respuesta por parte de los vendedores, y mejoraría la experiencia del usuario. Con nuestro proyecto buscamos validar que con Transfer Learning podemos clasificar preguntas de los usuarios en varias categorías, con un dataset pequeño y obteniendo un performance alto. Confirmamos que un modelo pre-entrenado en un corpus grande, con la misma distribución que nuestro dataset de clasificación, puede aprender a clasificar ejemplos no triviales con un dataset etiquetado pequeño (~600 ejemplos de cada categoría). Compartiremos el camino que recorrimos, los learnings que nos llevamos y los resultados que obtuvimos.
Mercado Libre

  • Expositor: Andres Madrigal Castrillón
  • Título: De ideas a modelos funcionales. Caso de aplicación de Machine Learning en Mercado Libre.
  • Descripción:MercadoLibre es una empresa dedicada al comercio electrónico, que ofrece un conjunto de servicios adicionales que lo posicionan como el marketplace y empresa tech más grande de Latinoamérica. Con operación en 18 países, durante el 2020 tuvimos crecimientos superiores al 100% en la mayoría de países, con transacciones que superaron los $14.5 billones de dólares a una tasa de 24 compras por segundo a través de +63M de usuarios. Lo anterior ha desencadenado retos gigantescos relacionados con la infraestructura tecnológica y la toma de decisiones ágiles. Entre los retos más relevantes se encuentra el de mantener actualizados los catálogos de productos ofrecidos a los clientes dentro del marketplace. Mediante el uso de Machine Learning hemos creado una solución que permite crear productos de manera automática en el catálogo interno a partir de fuentes externas, propendiendo por la calidad de los datos y la información, evitando agregar productos que ya existen, así como la intervención manual para la verificación de los productos agregados. En la solución al reto anterior, se han presentado varios desafíos tales como: Procesamiento de lenguaje natural, donde se debe resolver la pregunta de ¿cómo transformar el texto en números? Encontrar métricas adecuadas para decidir automáticamente cuándo dos productos son el mismo. Crear un conjunto de datos robusto que permita entrenar, testear y validar el modelo. Reducir la dimensionalidad de posibles combinaciones de fuentes externas e internas de los catálogos con el fin de encontrar nuevos productos de manera confiable. Afrontar restricciones de arquitectura en la operación de los modelos tales como su tamaño al momento de ejecutarlos y el tiempo de respuesta adecuado a la hora de identificar nuevos productos. Cada uno de los desafíos nos ha implicado la ejecución y evaluación de múltiples modelos, cumpliendo el reto de creación automática de productos para el catálogo. Durante el foro contaremos detalles relevantes sobre cómo lo logramos a través de la aplicación de la ciencia de datos y la analítica, así como las oportunidades de aplicación en otros retos similares.
BOAlliance

  • Expositor: Jose Alejandro Jacome
  • Título: Rastreo de Volumen Institucional en el Mercado de Valores
  • Descripción: El movimiento de los mercados de valores se explica por la capacidad que tienen grandes flujos de dinero para crear variaciones en los precios de los activos, si se identifica esta actividad mediante el rastreo de los volúmenes operados, se puede desarrollar una técnica de trading y gestión de portafolio asertiva.
AI Turing

 

  • Expositor: John Ruiz Hernandez
  • Título: La inteligencia artificial en la ejecución del punto de venta
  • Descripción: AI Turing es una compañía especializada en el desarrollo de soluciones basadas en inteligencia artificial. Actualmente, en nuestra principal línea de negocio nos encargamos de revisar el cumplimiento de las estrategias de las empresas de consumo masivo en sus puntos de venta mediante el uso de algoritmos que evalúan fotos de los establecimientos y con un 95 % de acierto, determinan qué tanto se están cumpliendo los lineamientos para alcanzar mayores ventas. Todo mediante la aplicación AITrade. en la presentación hablaremos sobre nuestra evolución, aprendizajes y perspectivas

 

Mckinsey & Company

 

  • Expositor: Ivan Torroledo Peña
  • Título: Taking your data science code to production level using Kedro
  • Descripción: Have you had problems taking your machine learning model to production level? or has collaborative work been a nightmare in your data science projects? Over time, machine learning models have advanced with a dramatical speed, creating complex solutions to almost any data science problem. However, good practices and standards on how to take models to production level have been underestimated. Kedro, the first open-source tool created by QuantumBlack labs, implements a quick and simple solution to solve these problems. Kedro is a framework to make it easy to deploy machine learning models in production because apply software engineering principles to data science and data engineering. Some of its key features are structured data pipelines using software engineering principles, modular units of code easily tested, code reproducibility in different environments, and production of well-documented code.

 

Grupo CMC

  • Expositor: Juan Francisco García
  • Título: SMART RISK 360
  • Descripción: Un completo análisis de riesgos de empresas en tiempo real con fuentes 360º actualizadas en tiempo real usando técnicas de IA

Universidad de los Andes

  • Expositor: Jorge Sebastian Mora Lara
  • Título: Reconocimiento de ordenes multimodales en interacción humano robot, para un asistente de laboratorio
  • Descripción:El proyecto busca en darle la capacidad al robot tipo pepper de ser un apoyo en un laboratorio de ingeniería de la Universidad, en donde hará funciones como el seguimiento de las normas de los laboratorios, la navegación segura dentro del laboratorio y la capacidad de acercarse a quienes tienen dudas. Para esto se implementaron múltiples modelos y arquitecturas de machine learning para resolver los múltiples retos que esto implicaba, en donde se utilizaron arquitecturas basadas en redes convolucionales profundas para realizar el reconocimientos de objetos, la reconstrucción de poses humanas sobre videos 2D, y la clasificación de dichas poses, esto ultimo con el fin de darle la capacidad al robot de determinar cuando es requerido, finalmente por medio de aprendizaje por refuerzo, se integro toda la información recopilada por los diferentes modelos, así como información de otros sensores del robot como los sensores infrarrojos y la cámaras de profundidad, esto con el fin de generar una política capaz de navegar por el laboratorio con seguridad, acercarse a quienes estén preguntando, alejarse de quienes no quieren que se acerquen, verificar las normas de seguridad del laboratorio. Adicionalmente todo fue implementado en un simulador hecho a la medida utilizando el motor grafico Unity 5.
Aleph Mind

  • Expositor: Juan Pablo Gomez & Juan Esteban Cepeda
  • Título: The witness
  • Descripción: El equipo de Aleph Mind, los desarrolladores del proyecto ganador de la competencia internacional Datajam 2020, organizada por IBM y la Fundación Pasos Libres, nos hablan sobre cómo están utilizando la Inteligencia Artificial para combatir la segunda industria delictiva más lucrativa del mundo.
Smart BP

  • Expositor: Carlos Socorrás
  • Título: Proyecto de optimización de palletizado para una empresa de retail de Suramérica
  • Descripción:Proyecto de optimización de palletizado para una empresa de retail de Suramérica Este proyecto busca ayudar a una empresa de retail, con presencia en varios países de Suramérica, en la toma de decisiones automatizada por medio de la analítica prescriptiva. Por medio de datos de pedidos establecidos para cada uno de sus locales, se busca optimizar la agrupación de pedidos en pallets para su envío. Por medio del uso de un modelo de optimización matemática, definimos cómo deben construirse los diferentes pallets basado en los volúmenes, pesos y resistencias de los diferentes productos con el fin de minimizar el número de pallets necesarios para el envío de todos los productos solicitados. Los beneficios que obtiene nuestro cliente por medio de la analítica prescriptiva es una reducción en costo operacionales dentro del centro de distribución al utilizar mejor sus recursos. Este proyecto es de interés para una amplia audiencia ya que, en muchos casos, las empresas utilizan la analítica predictiva obteniendo resultado que no saben cómo utilizar. La analítica prescriptiva es el siguiente paso para tener una toma de decisiones automatizada con resultados de alto impacto y con valor agregado para las empresas

Universidad de los Andes
Vigilada MINEDUCACIÓN
Reconocimiento como Universidad. Decreto 1297 del 30 de Mayo de 1964
Reconocimiento personería jurídica Resolución 28 del 23 de Febrero de 1949 Min. Justicia.