Pósters


Descargar agenda Analytics Forum 2021 Aquí.

Tecnológico de Monterrey

  • Expositor: Pedro Olaya
  • Título: Ecosistema y generación de valor en el HUB de IA del Tec de Monterrey
  • Descripción: Se indicará como un pensamiento integrado permite generar valor a través de sinergias concretas al involucrar a la academia, el sector real, emprendimiento, gobierno y otros actores.
DATA 360

  • Expositor:  Natalia Raffo
  • Título: Reconocimiento y extracción de texto a través de algoritmos de Deep Learning.
  • Descripción:Según la revisión de estudios bibliográficos el reconocimiento y extracción de texto de documentos pre- impresos de forma automática tiene un rol importante en la economía, dado el aporte en generar información relevante de documentos en los sectores: Financiero, Energético, Petróleo, Salud, entre otros, para detectar hallazgos de forma rápida y ser un apalancador en la solución de retos de negocio generando herramientas sólidas para tomar decisiones efectivas, reduciendo largos tiempos operativos que se invierten actualmente recursos en trascribir los campos de interés de los documentos de forma manual, generando altos costos producidos por procesos operativos desgastantes y produciendo resultados tardíamente, requiriendo herramientas automáticas que logren hacer esta extracción de forma efectiva en tiempos muy cortos. Ante la necesidad identificada se pretende presentar la charla enfocada a mostrar el reconocimiento y extracción de texto de Documentos de campos específicos a través de algoritmos de Deep Learning con altas precisiones en la extracción. reduciendo tiempos operativos y costos.

 

Unicaja Banco (Banco Español)

Póster A

  • Expositor: Javier Porras Castaño, Experto en Inteligencia Artificial.
  • Título: Sistemas Conversacionales Cognitivos. Caso de uso: Banca Conversacional Inteligente
  • Descripción: Los Sistemas Conversacionales Cognitivos (Chatbots y Asistentes Virtuales) van a revolucionar la forma que tienen las empresas de relacionarse con sus consumidores permitiéndoles interactuar mediante la interfaz más sencilla, natural y sin curva de aprendizaje: el lenguaje natural con su propia forma de expresión. Conseguirán reducir la brecha digital acercando la empresa a los clientes incluyendo a los que habitualmente tienen mayores dificultades con la tecnología y discapacitados. Lograrán el reto de la omnicanalidad real permitiendo integrar la empresa en los canales que utilizan y dominan los clientes a diario (por ejemplo, WhatsApp, Telegram, Alexa o Google Assistant), originando un punto de inflexión importante: pasando de las ‘apps’ a las ‘skills’ para posicionar a la empresa donde están sus clientes. En conclusión, ofrecen un servicio al cliente personalizado 24×7, omnicanal, en lenguaje natural y proactivo para mejorar su día a día (Salud Financiera) y lograr su satisfacción.

Póster B

  • Expositor: Javier Porras Castaño, Experto en Inteligencia Artificial.
  • Título: De las Apps a las Skills: Posiciona a tu Empresa donde están los clientes
  • Descripción:  
Universidad de los Andes

 

  • Expositor: Karen Sofia Gutierrez Rodriguez
  • Título: Predicción de radiación solar usando Machine Learning
  • Descripción: El objetivo de este proyecto fue predecir la radiación solar con el objetivo de una posterior implementación de paneles solares como fuentes de energía renovable. Para esto se solicitaron datos al IDEAM y al Laboratorio Nacional de energías renovables estadounidense (NREL) por sus siglas en inglés. En primer lugar, se realizó una adaptación de los datos satelitales a los datos in situ, ya que estos estaban incompletos y abarcaban menos tiempo. Para estos, se realizó la comparación entre regresión lineal y Random Forest, obteniendo un mejor desempeño con el último. Posteriormente, se implementó una red neuronal para series de tiempo con neuronas tipo LSTM. Para lo que obtuvo un coeficiente de correlación mayor a 0.8 en todos los puntos de la ciudad evaluados.

Universidad de los Andes - CinfonIA

  • Expositor: Jonathan Steven Roncancio Pinzón
  • Título: DeepMAP: Deep Modular Attention for Air Quality Prediction
  • Descripción:La contaminación del aire se ha convertido en uno de los problemas ambientales más importantes para las grandes ciudades debido a sus graves efectos en la salud pública. Por lo tanto, en las últimas décadas se ha realizado un gran esfuerzo para desarrollar sistemas de predicción de los contaminantes más nocivos para la salud de los seres humanos. Sin embargo, a pesar de que la mayoría de las redes de monitoreo en el mundo poseen múltiples estaciones de medición, una gran parte de los estudios actuales utilizan mediciones de una única estación. Nuestra hipótesis es que fusionar la información de varias estaciones de forma inteligente puede mejorar el desempeño de los modelos de predicción de la calidad del aire. Por lo tanto, proponemos una arquitectura de red neuronal modular que utiliza la información de N estaciones para predecir la concentración de material particulado de 10 micras (PM10) en un sitio expecífico. Este marco se puede utilizar tanto en regímenes temporales como espaciales, y proporciona una forma de interpretar el comportamiento del modelo en términos de la importancia que se le da a cada una de las estaciones en la red. El desempeño de la metodología propuesta se confirmó con datos del mundo real proporcionados por la red de monitoreo de la calidad del aire de Bogotá, y los resultados sugieren que el uso de un método de fusión inteligente mejora efectivamente la predicción de los modelos temporales y espaciales.
Colegio Anglo Colombiano

  • Expositor: Álvaro Herrera Ramírez
  • Título: Diseño de la estrategia Data-Driven School
  • Descripción:Esta muestra ilustrará, con algunos ejemplos, los retos frecuentes de un colegio al emprender el diseño de una estrategia de transformación digital hacia la implementación de un modelo de análisis de datos para la toma de decisiones, y cuáles herramientas analíticas y de administración de la información han resultado prometedoras para superarlos. Aunque los sistemas de Business Analytics han estado presentes en una multitud de industrias y contextos desde hace varios años, en la educación básica y media las herramientas de este tipo están llegando con no pocos obstáculos. El principal, la dificultad del diseño de una implementación pertinente para el entorno escolar, debido a los retos para la transferencia del know-how adquirido en otras industrias con mayor bagaje en este campo.
Universidad de los Andes

  • Expositor: Alejandro Reyes Muñoz
  • Título: Combinando Machine Learning y Big Data en la nueva era de la biología.
  • Descripción:Las ciencias de la vida son ahora muy diferentes a lo que eran hace 30 años. Con la globalización, incluso de las enfermedades, volviéndose pandemias, es necesario responder y adaptarse a las nuevas tecnologías y estrategias de investigación. En la era del Big Data, las Ciencias Biológicas no son ajenas a este cambio y en particular en el campo de secuenciación y caracterización de secuencias genéticas se ha visto un incremento exponencial en la generación y disponibilidad de estos datos. Las bases de datos públicas ya sobrepasaron la barrera de los Petabatyes y se acerca rápidamente a los Exabytes de almacenamiento y la pregunta que surge es si tenemos los métodos y conocimientos para afrontar y extraer insights biológicos de esta cantidad de datos. Desde la Universidad de los Andes, en el Departamento de Ciencias Biológicas, el grupo de Biología Computacional y Ecología Microbiana realiza investigaciones buscando usar, desarrollar e implementar métodos computacionales para el análisis de datos de secuenciación de nueva generación, estos datos provienen de diversas fuentes, desde analizar la diversidad de genes de resistencia a antibióticos presentes en los afluentes del Río Bogotá, a entender como la diversidad de bacterias del intestino en el Oso de Anteojos se convierte en un componente esencial con miras a su conservación, pasando por la caracterización y optimización de la fermentación del cacao para obtener un producto más homogéneo que se caracteriza por su calidad y aroma. Todos los campos, desde la agricultura, la medicina, la conservación hasta la industria farmacéutica se benefician de las posibles aplicaciones de métodos de Machine Learning y Visual Analytics a los datos generados por métodos de secuenciación masiva.
Mercado Libre

  • Expositor: Melissa Montes Martin
  • Título: qexpert: question classifier with NLP
  • Descripción:En Mercado Libre, los vendedores de productos reciben decenas de preguntas diarias por parte de los compradores de los productos. Muchas veces, las preguntas tienen la misma respuesta de acuerdo al tema que abordan. La clasificación y potencial automatización de algunas respuestas ahorraría tiempo de respuesta por parte de los vendedores, y mejoraría la experiencia del usuario. Con nuestro proyecto buscamos validar que con Transfer Learning podemos clasificar preguntas de los usuarios en varias categorías, con un dataset pequeño y obteniendo un performance alto. Confirmamos que un modelo pre-entrenado en un corpus grande, con la misma distribución que nuestro dataset de clasificación, puede aprender a clasificar ejemplos no triviales con un dataset etiquetado pequeño (~600 ejemplos de cada categoría). Compartiremos el camino que recorrimos, los learnings que nos llevamos y los resultados que obtuvimos.
Mercado Libre

  • Expositor: Andres Madrigal Castrillón
  • Título: De ideas a modelos funcionales. Caso de aplicación de Machine Learning en Mercado Libre.
  • Descripción:MercadoLibre es una empresa dedicada al comercio electrónico, que ofrece un conjunto de servicios adicionales que lo posicionan como el marketplace y empresa tech más grande de Latinoamérica. Con operación en 18 países, durante el 2020 tuvimos crecimientos superiores al 100% en la mayoría de países, con transacciones que superaron los $14.5 billones de dólares a una tasa de 24 compras por segundo a través de +63M de usuarios. Lo anterior ha desencadenado retos gigantescos relacionados con la infraestructura tecnológica y la toma de decisiones ágiles. Entre los retos más relevantes se encuentra el de mantener actualizados los catálogos de productos ofrecidos a los clientes dentro del marketplace. Mediante el uso de Machine Learning hemos creado una solución que permite crear productos de manera automática en el catálogo interno a partir de fuentes externas, propendiendo por la calidad de los datos y la información, evitando agregar productos que ya existen, así como la intervención manual para la verificación de los productos agregados. En la solución al reto anterior, se han presentado varios desafíos tales como: Procesamiento de lenguaje natural, donde se debe resolver la pregunta de ¿cómo transformar el texto en números? Encontrar métricas adecuadas para decidir automáticamente cuándo dos productos son el mismo. Crear un conjunto de datos robusto que permita entrenar, testear y validar el modelo. Reducir la dimensionalidad de posibles combinaciones de fuentes externas e internas de los catálogos con el fin de encontrar nuevos productos de manera confiable. Afrontar restricciones de arquitectura en la operación de los modelos tales como su tamaño al momento de ejecutarlos y el tiempo de respuesta adecuado a la hora de identificar nuevos productos. Cada uno de los desafíos nos ha implicado la ejecución y evaluación de múltiples modelos, cumpliendo el reto de creación automática de productos para el catálogo. Durante el foro contaremos detalles relevantes sobre cómo lo logramos a través de la aplicación de la ciencia de datos y la analítica, así como las oportunidades de aplicación en otros retos similares.
BOAlliance

  • Expositor: Jose Alejandro Jacome
  • Título: Rastreo de Volumen Institucional en el Mercado de Valores
  • Descripción: El movimiento de los mercados de valores se explica por la capacidad que tienen grandes flujos de dinero para crear variaciones en los precios de los activos, si se identifica esta actividad mediante el rastreo de los volúmenes operados, se puede desarrollar una técnica de trading y gestión de portafolio asertiva.
AI Turing

 

  • Expositor: John Ruiz Hernandez
  • Título: La inteligencia artificial en la ejecución del punto de venta
  • Descripción: AI Turing es una compañía especializada en el desarrollo de soluciones basadas en inteligencia artificial. Actualmente, en nuestra principal línea de negocio nos encargamos de revisar el cumplimiento de las estrategias de las empresas de consumo masivo en sus puntos de venta mediante el uso de algoritmos que evalúan fotos de los establecimientos y con un 95 % de acierto, determinan qué tanto se están cumpliendo los lineamientos para alcanzar mayores ventas. Todo mediante la aplicación AITrade. en la presentación hablaremos sobre nuestra evolución, aprendizajes y perspectivas

 

Mckinsey & Company

 

  • Expositor: Ivan Torroledo Peña
  • Título: Taking your data science code to production level using Kedro
  • Descripción: Have you had problems taking your machine learning model to production level? or has collaborative work been a nightmare in your data science projects? Over time, machine learning models have advanced with a dramatical speed, creating complex solutions to almost any data science problem. However, good practices and standards on how to take models to production level have been underestimated. Kedro, the first open-source tool created by QuantumBlack labs, implements a quick and simple solution to solve these problems. Kedro is a framework to make it easy to deploy machine learning models in production because apply software engineering principles to data science and data engineering. Some of its key features are structured data pipelines using software engineering principles, modular units of code easily tested, code reproducibility in different environments, and production of well-documented code.

 

Grupo CMC

  • Expositor: Juan Francisco García
  • Título: SMART RISK 360
  • Descripción: Un completo análisis de riesgos de empresas en tiempo real con fuentes 360º actualizadas en tiempo real usando técnicas de IA

Universidad de los Andes

  • Expositor: Jorge Sebastian Mora Lara
  • Título: Reconocimiento de ordenes multimodales en interacción humano robot, para un asistente de laboratorio
  • Descripción:El proyecto busca en darle la capacidad al robot tipo pepper de ser un apoyo en un laboratorio de ingeniería de la Universidad, en donde hará funciones como el seguimiento de las normas de los laboratorios, la navegación segura dentro del laboratorio y la capacidad de acercarse a quienes tienen dudas. Para esto se implementaron múltiples modelos y arquitecturas de machine learning para resolver los múltiples retos que esto implicaba, en donde se utilizaron arquitecturas basadas en redes convolucionales profundas para realizar el reconocimientos de objetos, la reconstrucción de poses humanas sobre videos 2D, y la clasificación de dichas poses, esto ultimo con el fin de darle la capacidad al robot de determinar cuando es requerido, finalmente por medio de aprendizaje por refuerzo, se integro toda la información recopilada por los diferentes modelos, así como información de otros sensores del robot como los sensores infrarrojos y la cámaras de profundidad, esto con el fin de generar una política capaz de navegar por el laboratorio con seguridad, acercarse a quienes estén preguntando, alejarse de quienes no quieren que se acerquen, verificar las normas de seguridad del laboratorio. Adicionalmente todo fue implementado en un simulador hecho a la medida utilizando el motor grafico Unity 5.
Aleph Mind

  • Expositor: Juan Pablo Gomez & Juan Esteban Cepeda
  • Título: The witness
  • Descripción: El equipo de Aleph Mind, los desarrolladores del proyecto ganador de la competencia internacional Datajam 2020, organizada por IBM y la Fundación Pasos Libres, nos hablan sobre cómo están utilizando la Inteligencia Artificial para combatir la segunda industria delictiva más lucrativa del mundo.
Smart BP

  • Expositor: Carlos Socorrás
  • Título: Proyecto de optimización de palletizado para una empresa de retail de Suramérica
  • Descripción:Proyecto de optimización de palletizado para una empresa de retail de Suramérica Este proyecto busca ayudar a una empresa de retail, con presencia en varios países de Suramérica, en la toma de decisiones automatizada por medio de la analítica prescriptiva. Por medio de datos de pedidos establecidos para cada uno de sus locales, se busca optimizar la agrupación de pedidos en pallets para su envío. Por medio del uso de un modelo de optimización matemática, definimos cómo deben construirse los diferentes pallets basado en los volúmenes, pesos y resistencias de los diferentes productos con el fin de minimizar el número de pallets necesarios para el envío de todos los productos solicitados. Los beneficios que obtiene nuestro cliente por medio de la analítica prescriptiva es una reducción en costo operacionales dentro del centro de distribución al utilizar mejor sus recursos. Este proyecto es de interés para una amplia audiencia ya que, en muchos casos, las empresas utilizan la analítica predictiva obteniendo resultado que no saben cómo utilizar. La analítica prescriptiva es el siguiente paso para tener una toma de decisiones automatizada con resultados de alto impacto y con valor agregado para las empresas

¿Tienes problemas con la instalación de la plataforma? Contáctanos, alguien te ayudará SOLO hasta el 12 de marzo a medio día.

Soporte Analytics

Soporte técnico

 

 

¿Quieres saber dónde se realizará cada charla? A continuación encuentras el mapa de la isla. En la Agenda encuentras el nombre del salón donde se realizará cada actividad. ¡No lo dejes para última hora!

 

Universidad de los Andes
Vigilada MINEDUCACIÓN
Reconocimiento como Universidad. Decreto 1297 del 30 de Mayo de 1964
Reconocimiento personería jurídica Resolución 28 del 23 de Febrero de 1949 Min. Justicia.