Keynotes
Juan Gorricho
Data & Analytics Executive, Chief Data Officer en VISA Global.
Actualmente, Juan es vicepresidente global de data en Visa. En este rol, Juan lidera el uso de datos y analítica en Visa con el fin de crear una cultura basada datos. Antes de ser parte de Visa, Juan fue parte de The Walt Disney Company por casi 10 años donde lidero diferentes equipos e iniciativas para el uso de datos y analítica. Juan tiene más de 20 años de experiencia en el espacio de datos y analítica, y es ingeniero industrial de la Universidad de los Andes. Además, tiene un MBA de Darden Graduate School of Business Administration de la Universidad de Virginia.
No cabe dudad que el uso de analítica llego para quedarse en las empresas. Es más, el uso de analítica paso de ser una actividad opcional a ser algo obligatorio para casi todas las organizaciones si quieren sobrevivir. Sin embargo, muchas organizaciones aun no logran cosechar los logros deseados y prometidos. Durante esta sesión, me enfocaré en compartir algunas lecciones que he aprendido a lo largo de mi experiencia en múltiples organizaciones liderando iniciativas analíticas. Concretamente, el rol que deben jugar los líderes del negocio en el impacto de analítica, la cada día más crítica relevancia del gobierno de datos, y la importancia de tener un enfoque disciplinado en los elementos fundamentales de la ejecución de iniciativas analíticas en las organizaciones.
Alex ‘Sandy’ Pentland, PhD
Data & MIT Professor, co-creator of the MIT Media Lab, member of the US National Academies, and Board member of the UN Global Partnership for Sustainable Development Data.
MIT Professor Alex Pentland is one of most-cited computational scientists in the world and named by Forbes magazine as one of the “7 most powerful data scientists”. He is co-creator of the MIT Media Lab, member of the US National Academies, and Board member of the UN Global Partnership for Sustainable Development Data. He has helped create more than a dozen companies, which today serve roughly 1/3 of humanity.
Data is increasingly key to the economy, but there are real worries about privacy and security, and the data is in too few hands. I will talk about how communities can take control of data about themselves and use this to improve their future.
Qiaozhu Mei, PhD
Professor, Director of Master of Applied Data Science at University of Michigan.
Qiaozhu Mei is a professor in the School of Information and the College of Engineering at the University of Michigan. His research focuses on large-scale data mining, machine learning, information retrieval, and natural language processing, with broad applications to social media, Web, and health informatics. Qiaozhu is an ACM distinguished member (2017) and a recipient of the NSF Career Award (2011). His work has received multiple best paper awards at top computer science venues. He is the founding director of the online master degree of applied data science at the University of Michigan.
Emojis have become a universal language that is used by worldwide users, for everyday tasks, across language and cultural barriers, and in different apps and platforms. The prevalence of emojis has attracted increasing attention not only from various fields of computing and data science, but also from broader disciplines including social sciences, arts, psychology, and linguistics. This talk summarizes the recent efforts made by my research group and collaborators on analyzing large-scale emoji data, including a recent best paper award at the Web conference 2019. In general, emojis have evolved from visual ideograms to a brand-new world language in the era of AI and a new Web. The popularity, roles, and utility of emojis have all gone beyond people’s original intentions, which have created a huge opportunity for future research that calls for joint efforts from multiple disciplines.
Tracks
Track 1 – Analytics for the Public Sector
Las políticas públicas no son ajenas a los avances en área de análisis de datos. Diariamente las instituciones públicas y otras organizaciones con intereses públicos reciben millones de datos sobre sus ciudadanos, y los utilizan en muchos casos para generar nuevos programas y políticas de beneficio social. En este Track, de la mano con expertos, podrá conocer cómo las técnicas para el análisis de datos se pueden utilizar para formular políticas públicas.
- Empresa: Departamento Nacional de Planeación-Unidad de Científicos de Datos
- Título: Identificación y Análisis de Palabras Clave Asociadas a Documentos CONPES por Periodo de Gobierno
- Expositor: Mariana Quevedo Hernández
- Descripción: Un análisis histórico de los documentos CONPES de tipo “lineamientos de política”, desde 1967 hasta 2019, a través de minería de texto permite determinar los términos y temas más relevantes en cada uno de ellos y su cambio de relevancia a través del tiempo.
- Empresa: Universidad de los Andes
- Título: Aprendizaje por Refuerzo Multiagente aplicado a control de semaforización
- Expositor: Carolina Higuera Arias
- Descripción: En este trabajo se presenta la aplicación del aprendizaje por refuerzo multiagente al problema del control de la semaforización para disminuir tiempos de viaje. La malla vial se modela como una colección de agentes para cada intersección semaforizada. Los agentes, por medio de la experimentación con el entorno, aprenden a establecer fases que maximizan una función objetivo que fomenta disminuir los tiempos de espera de vehículos detenidos y la longitud de las colas en todos los cruces. El primer enfoque que se puso a prueba aprovecha el hecho de que el objetivo se puede dividir en contribuciones por agente. Las intersecciones se modelan como vértices en un gráfico de coordinación y la mejor acción conjunta se encuentra con el algoritmo de eliminación de variables. El segundo método explota el principio de localidad para calcular la mejor acción de un agente como su best response para un juego de dos jugadores con cada miembro de su vecindario. Estos métodos de aprendizaje fueron puestos a prueba en una red simulada de 6 intersecciones semaforizada, utilizando datos del Departamento de Tránsito de Bogotá, Colombia. Con ambos métodos se obtuvieron reducciones significativas en los tiempos de espera con respecto al control por tiempos fijos para cada fase y, en general, se lograron tiempos de viaje más cortos en comparación con otros métodos basados en aprendizaje por refuerzo que se encuentran en la literatura para el mismo problema de control de semaforización.
-
Empresa: Ernst & Young
-
Título: Modelo de Detección de Conflictos de Interés
-
Expositor: Daniel Fernando Cantor Báez
-
Descripción: Para el adecuado ejercicio de las funciones de las entidades de control estatal, es importante detectar de forma preventiva posibles casos de conflictos de interés y anticipar actos de corrupción en la contratación pública. Gracias a la tecnología de Azure, específicamente al uso de sus componentes de datos, analítica e inteligencia artificial, fue posible la construcción de una solución que apoya la transparencia en los procesos de contratación estatal. EY Colombia fue la firma encargada del diseño, implementación y soporte de una solución de analítica que permite detectar posibles conflictos de interés entre actores estatales y civiles, a partir de fuentes de datos diversas (datos estructurados, no estructurados y binarios o semiestructurados).
Track 2 – Bussines Analytics
Diariamente las empresas producen, reciben y procesan millones de datos. Se puede entender, entonces, que la toma de decisiones a partir del análisis de datos hace parte fundamental de todas las áreas organizacionales de las empresas para garantizar su buen funcionamiento. En este Track encontrará panelistas que compartirán su experiencia en la aplicación de técnicas de análisis de datos en áreas como finanzas, mercadeo, emprendimiento para que actualice sus conocimientos y se entere como las compañías están aplicando el análisis de datos.
- Empresa: Rappi – Universidad de los Andes
- Título: Graph Machine Learning: The Next Frontier in Artificial Intelligence
- Expositor: Alejandro Correa Bahnsen
- Descripción: It is expected that by 2023, 30% of the organizations worldwide will already be using graph technologies to facilitate rapid contextualization for decision making, and that application of graph processing and graph databases will grow at 100% annually according to Gartner. Graphs offer a novel source of information since they accurately and adequately capture the interactions of different entities of interest such as organizations, people, devices, and transactions. In fact, it has been discovered that connections in data are as valuable as the data itself, as these provide context allowing algorithms to learn not only from the datapoint itself but also from the structure created and the flow of information. The interest in these technologies and algorithms have made the field of graph machine learning the fastest growing field in the major AI conferences. In this talk, we will briefly describe the concepts needed to understand Graph Machine Learning, describe the evolution it has taken in its methodologies, give a brief overview of the field, and finally, show real use cases of graph machine learning algorithms to detect fraudulent activities, identify potential influencers, and to enhance credit risk scores.
- Empresa: Grupodot
- Título: Ciencia del Comportamiento en conjunto con Inteligencia Artificial: Aplicaciones con Impacto Real en diferentes Industrias
- Expositor: Diego Ibagón
- Descripción: La inclusión de ciencia del comportamiento, como parte de los procesos de diseño y construcción de soluciones que emplean Inteligencia Artificial, es una tendencia en crecimiento pues, entre otros beneficios, permite tanto facilitar o acercarse a una mejor “explicabilidad” de los modelos, así como obtener modelos que involucran mayores conjuntos de variables, es decir, no solamente aquellas centradas en “ quien es el usuario” (Típicamente socio-demografía), si no también datos sobre el “contexto” (clima, noticias, tendencias de búsqueda, etc.), variables cognitivas, que dan cuenta de su experiencia en la plataforma y/o oferta de interacciones que se le brinda al usuario y finalmente, “Variables motivacionales”, normalmente vinculadas a datos de opiniones y conversaciones en diferentes espacios digitales. Durante los últimos 4 años, hemos trabajado en Grupodot tanto en investigación como en la aplicación de modelos de comportamiento a problemáticas comunes, en las que se trata de comprender, clasificar y predecir la forma en que usuarios de diferentes tipos de industrias, a gran escala, se comportan. El objetivo de la ponencia es presentar, de forma resumida, el background teórico y metodológico de ambos mundos (Ciencia de Datos y Ciencia del Comportamiento), para luego presentar, 2 casos prácticos, y en operación hoy día a gran escala, que emplean modelos comportamentales de Inteligencia Artificial: El primero, para recomendar productos/servicios y el segundo para segmentar grupos dispersos de usuarios y predecir la siguiente acción a ejecutar, dentro de un conjunto posible.
- Empresa: Metanoiia
- Título: Data Science for Sustainable Business
- Expositor: Natalia Barrero, Co-Founder
- Descripción: Durante los últimos años ha habido avances importantes en diferentes disciplinas respecto a la extracción de valor a los datos. Las empresas privadas han percibido el valor de obtener insights de sus datos optimizando e incrementando beneficios económicos. Sin embargo, las soluciones basadas en IA y ciencia de datos aplicada, no solo modifica la manera en la que se hacen negocios, sino que cambia la forma en que las empresas y personas se relacionan, interactúan y aportan a la sostenibilidad. En esta charla veremos casos de éxito de cómo la ciencia de datos y la tecnología han tomado un papel protagónico en la transformación de las organizaciones para satisfacer la cambiante demanda de los consumidores y aumentar el valor de inversiones responsables y de impacto.
Track 1 – Analytics for the Public Sector
Las políticas públicas no son ajenas a los avances en área de análisis de datos. Diariamente las instituciones públicas y otras organizaciones con intereses públicos reciben millones de datos sobre sus ciudadanos, y los utilizan en muchos casos para generar nuevos programas y políticas de beneficio social. En este Track, de la mano con expertos, podrá conocer cómo las técnicas para el análisis de datos se pueden utilizar para formular políticas públicas.
- Empresa: Tigo
- Título: Modelo analítico para la identificación de anomalías en el consumo de energía eléctrica en tres provincias de Chile
- Expositor: Juan Andrés Cabal
- Descripción: El hurto de energía es un problema al que se enfrentan la gran mayoría de empresas prestadores del servicio eléctrico, lo que ha ocasionado que estas busquen mecanismos eficientes y costo-efectivos que les permita identificar o por lo menos generar una alerta temprana sobre un posible hurtador de energía eléctrica. En Chile, a pesar de estar constituido como un delito, siguen existiendo casos penales contra usuarios que han presentado irregularidades en su consumo, lo cual trae grandes consecuencias para la empresa ya que se pueden evidenciar variaciones de voltaje, sobrecarga en el suministro eléctrico y cortes de energía. Lo anterior es el objetivo principal del presente estudio, el cual, mediante el uso de información de medidores tradicionales, desarrolló un modelo de redes neuronales recurrentes con el fin de mejorar el proceso de identificación de hurtadores ya que actualmente la empresa chilena que presta el servicio de energía eléctrica lo hace de manera manual mediante visitas de campo sorpresas a usuarios con grandes desviaciones en su voltaje. El modelo propuesto es de gran interés para la empresa ya que le permite reducir los costos logísticos asociados con las visitas de campo, tener una mejor identificación sobre cuáles son los posibles hurtadores e identificar los patrones de un consumidor anómalo.
-
Empresa: SmartBP
-
Título: Optimización de Programación de Trabajadores para Puerto
-
Expositor: Juan David Zambrano Losada
-
Descripción: Con la finalidad de balancear las cargas de trabajo, disminuir el pago de horas extra y los costos de transporte para el área encargada del pesado mediante básculas de una sociedad portuaria, es imperativo contar con planes adecuados para la programación de turnos de operarios. Para resolver este problema, se planteó un modelo de optimización lineal entera mixta basado en generación de columnas. La metodología consiste en recibir una estimación de la demanda para un horizonte de un mes en cada una de las básculas con las que cuenta la sociedad portuaria y posteriormente, generar mediante un modelo auxiliar un conjunto inicial de planes de trabajo, que son asignados a la planta de trabajadores del puerto mediante un modelo maestro tiendo en cuenta las siguientes restricciones: demanda en cada una de las básculas, tiempo máximo por trabajadores, numero máximo de horas extra, tiempos de descanso mínimos entre turnos y máximo de jornadas laborales en horarios nocturnos por trabajador. Luego de una primera asignación hecha con los planes generados por el modelo auxiliar, las variables duales del modelo maestro son utilizadas para generar nuevos planes de trabajo, proceso que se repite iterativamente hasta cumplir con un criterio de terminación. De esta manera, se determinan los planes de trabajo óptimos para los trabajadores de la sociedad portuaria teniendo en cuenta las restricciones mencionadas anteriormente. Finalmente, los resultados son sometidos a un post procesamiento que busca minimizar los costos de transporte de los trabajadores por medio de un algoritmo heurístico que respeta los planes de trabajo asignados a cada trabajador en el modelo de optimización.
- Empresa: Georgia Institute of Technology
- Título: Estrategia de muestreo adaptativa para monitorear en tiempo real flujos de datos de alta dimensión
- Expositor: Ana Maria Estrada
- Descripción: Monitorear flujos de datos de alta dimensión, en tiempo real, es fundamental para detectar anomalías y fallas en un sistema. Sin embargo, en algunas aplicaciones, como el monitoreo ambiental, el sistema de recolección de datos solo proporciona información parcial, debido a restricciones en los recursos. En estos casos, se necesita una estrategia de muestreo adaptativa para detectar fallas en el sistema. La investigación contesta las siguientes preguntas: (1) ¿cómo seleccionar de manera adaptativa las variables a observar en cada instante del tiempo?, (2) ¿cómo usar la información incompleta para detectar una falla en el sistema?, y (3) ¿cómo determinar dónde ocurrió la falla?. La estrategia de muestreo propuesta se utilizó para monitorear la temperatura de agua, almacenada en el subsuelo, para el riego de un campo agrícola, con el objetivo de garantizar la calidad de los cultivos.
Casos de éxito
C.E San Andrés
Juan Diego Torrado – CDO Juan Valdez
Fredy Cabra – Coordinador de Data Analytics en Procafecol
- Título: Data&Analytics Journey en Juan Valdez
- Expositores: Juan Diego Torrado – CDO – Director de Transformación Digital y Tecnología en Juan Valdez Café – Freddy Cabra – Coordinador de Data Analytics en Juan Valdez Café.
- Descripción: Conozca el Journey de Data& Analytics de Juan Valdez desde el punto de partida, la visión, los principales retos y oportunidades, las formas de resolverlo y el roadmap a futuro de la estrategia analítica de una de las empresas más representativas del país a nivel nacional e internacional.
- Título: Business Analytics para Comunicación Digital.
- Expositor: Mateo Restrepo Higuita, Estadístico de la Universidad Nacional de Colombia.
- Descripción: Buena parte del éxito de una estrategia de comunicación digital por email se determina por la relevancia del contenido enviado, la oportunidad (el momento) en que se envía y la pertinencia para el receptor. El análisis de estas tres variables y su posterior optimización guardan una correlación directa con el incremento en las tasas de conversión de cualquier campaña digital. Procesamos más de 340 millones de datos de emails, que representan todas las campañas lanzadas por un cliente en los 2 últimos años. Analizamos el comportamiento de cada una de las categorías de envío, emails enviados, campañas, aperturas, cantidad de clicks, rebotes, desuscritos y similares. Nos permitirá concluir horas de envío, días, remitente, formatos, mensajes, imágenes para incrementar la efectividad de las campañas.
- Título: La importancia del contexto de vida de nuestros clientes en la construcción de modelos analíticos para growth marketing
- Expositor: Daniel Rojas, Jefe de Inteligencia de Mercadeo del Banco Davivienda y consultor independiente de growth marketing y ciencia de Datos.
C.E La Aduana
- Título: Recursos bajo la lupa con Analítica Avanzada.
- Expositor: Juan Carlos Olarte, Gerente de Conocimiento.
- Descripción: Una compañía latinoamericana con más de 1.200 clientes y con una trayectoria de más de 3.750 proyectos ejecutados, que acompaña a sus clientes/aliados en su Analytical Journey para descubrir con ellos el poder de los datos para cada organización.
- Título: Catálogo de Datos – El primer paso hacia el modelo de Self-Service Analytics.
- Expositor: Juan Pablo Gomez Gomez, Máster en Data Management e Innovación Tecnológica de la Universidad de Barcelona.
- Descripción: Los catálogos de datos permiten a los usuarios comerciales comprar rápida y fácilmente datos confiables. Y con datos confiables , las organizaciones pueden tomar mejores decisiones comerciales que impulsan el crecimiento y el valor comercial.
- Empresa: Metanoiia
- Título: Data Science for Sustainable Business
- Expositor: Natalia Barrero, Co-Founder
- Descripción: Durante los últimos años ha habido avances importantes en diferentes disciplinas respecto a la extracción de valor a los datos. Las empresas privadas han percibido el valor de obtener insights de sus datos optimizando e incrementando beneficios económicos. Sin embargo, las soluciones basadas en IA y ciencia de datos aplicada, no solo modifica la manera en la que se hacen negocios, sino que cambia la forma en que las empresas y personas se relacionan, interactúan y aportan a la sostenibilidad. En esta charla veremos casos de éxito de cómo la ciencia de datos y la tecnología han tomado un papel protagónico en la transformación de las organizaciones para satisfacer la cambiante demanda de los consumidores y aumentar el valor de inversiones responsables y de impacto.
S.C Buenaventura
- Título: Cómo Smurfit Kappa usa Modelos de Optimización para su Planeación Forestal
- Expositores:Liliana Aponte – SmartBP y Jose Fernando Giraldo – Smurfit Kappa
- Descripción: Este proyecto busca ayudar a nuestro cliente en la toma de decisiones automatizada por medio de la analítica prescriptiva. Para este caso, explicaremos cómo se implementó un modelo de optimización para la planificación estratégica forestal de Smurfit Kappa. Lo que buscamos por medio del uso de modelos de optimización es lograr un mejor uso de sus lotes para maximizar el cubrimiento de la demanda, minimizar las compras externas de madera o adquisición de nuevos terrenos.
- Título: Machine Learning y Deep Learning, herramientas para superar retos del 2020.
- Expositores: David Allende Quintana
- Descripción: Dentro del escenario de incertidumbre ante la pandemia por la propagación del Covid19 y la medidas restrictivas de movilidad impuestas por los Gobiernos, los supermercados se vieron impactados por una alta demanda a través del canal online y con ello el desabastecimiento de sus proveedores, tiempo de entrega de períodos muy extensos, entregas incompletas, insatisfacción de parte de los usuarios, etc., generando grandes retos que pudieron ser mitigados a través del uso de algoritmos de machine learning y deep learning que predicen oportunamente el desabastecimiento y generan alternativas de sustitución.
-
Lightning talks
- Expositor: Juan Pablo Gomez & Juan Esteban Cepeda
- Título: The witness
- Descripción: El equipo de Aleph Mind, los desarrolladores del proyecto ganador de la competencia internacional Datajam 2020, organizada por IBM y la Fundación Pasos Libres, nos hablan sobre cómo están utilizando la Inteligencia Artificial para combatir la segunda industria delictiva más lucrativa del mundo.
- Expositor: Jorge Sebastián Mora
- Título: Reconocimiento de ordenes multimodales en interacción humano robot
- Descripción: El proyecto busca en darle la capacidad al robot tipo pepper de ser un apoyo en un laboratorio de ingeniería de la Universidad, en donde hará funciones como el seguimiento de las normas de los laboratorios, la navegación segura dentro del laboratorio y la capacidad de acercarse a quienes tienen dudas. Para esto se implementaron múltiples modelos y arquitecturas de machine learning para resolver los múltiples retos que esto implicaba, en donde se utilizaron arquitecturas basadas en redes convolucionales profundas para realizar el reconocimientos de objetos, la reconstrucción de poses humanas sobre videos 2D, y la clasificación de dichas poses, esto ultimo con el fin de darle la capacidad al robot de determinar cuando es requerido, finalmente por medio de aprendizaje por refuerzo, se integro toda la información recopilada por los diferentes modelos, así como información de otros sensores del robot como los sensores infrarrojos y la cámaras de profundidad, esto con el fin de generar una política capaz de navegar por el laboratorio con seguridad, acercarse a quienes estén preguntando, alejarse de quienes no quieren que se acerquen, verificar las normas de seguridad del laboratorio. Adicionalmente todo fue implementado en un simulador hecho a la medida utilizando el motor grafico Unity 5.
- Expositor: Juan Francisco García
- Título: SMART RISK 360
- Descripción: Un completo análisis de riesgos de empresas en tiempo real con fuentes 360º actualizadas en tiempo real usando técnicas de IA
- Expositor: Juan Francisco García
- Título: SMART RISK 360
- Descripción: Un completo análisis de riesgos de empresas en tiempo real con fuentes 360º actualizadas en tiempo real usando técnicas de IA
- Expositor: Ivan Torroledo Peña
- Título: Taking your data science code to production level using Kedro
- Descripción: Have you had problems taking your machine learning model to production level? or has collaborative work been a nightmare in your data science projects? Over time, machine learning models have advanced with a dramatical speed, creating complex solutions to almost any data science problem. However, good practices and standards on how to take models to production level have been underestimated. Kedro, the first open-source tool created by QuantumBlack labs, implements a quick and simple solution to solve these problems. Kedro is a framework to make it easy to deploy machine learning models in production because apply software engineering principles to data science and data engineering. Some of its key features are structured data pipelines using software engineering principles, modular units of code easily tested, code reproducibility in different environments, and production of well-documented code.
- Expositor: Cesar Garrido
- Título: Sistema de Gestión de la Energía para Microrredes basado en Aprendizaje por Refuerzo
- Descripción:En este trabajo se busca implementar (en simulación) un sistema de gestión de la energía (EMS) para microrredes, utilizando inteligencia artificial. Específicamente el EMS se construye utilizando algoritmos del estado del arte de aprendizaje por refuerzo. En este caso, no solo se evalúa el desempeño de estos algoritmos sino que se validan en distintas configuraciones de microrred y sus resultados se contrastan con los de algunas de las metodologías tradicionales que buscan solucionar el mismo problema.
- Expositor: Nelson Leonardo Lammoglia Hoyos
- Título: ¿Qué dicen BI y BA del 2020 en Colombia?
- Descripción: En el estudio que hemos realizado, hemos encontrado resultados muy interesantes en los cambios de hábitos de las personas antes, durante y después del COVID. Gracias a los distintos algoritmos de Machine Learning en estudios anteriores, hemos sido capaces de llegar a una base imputada en una linea de tiempo que nos permita estudiar, analizar y, en un futuro cercano, predecir los hábitos de las personas (desde hábitos de compra, intenciones y usos del internet en la cotidianidad, uso del tiempo, entre otros), por medio de distintas estrategias dentro de las diferentes librerías y herramientas que nos ofrece la ciencia de datos.
- Expositor: Liliana Aponte Rueda
- Título:Analítica Prescriptiva
- Descripción:Este proyecto busca ayudar a nuestro cliente en la toma de decisiones automatizada por medio de la analítica prescriptiva. Por medio de la proyección de demanda para un horizonte a largo plazo (~40 años), se optimiza el uso de suelos para la plantación y cosecha de árboles de pino y eucalipto. Por medio del uso un modelo de optimización matemática, definimos las variables de decisión y modelamos las reglas de decisión (o restricciones) para entregar a Smurfit Kappa un plan de acción año a año para cada uno de los lotes a intervenir. Los beneficios que obtiene nuestro cliente por medio de la analítica prescriptiva son: un mejor uso de sus lotes para maximizar el cubrimiento de la demanda, minimizar las compras externas de madera o adquisición de nuevos terrenos. Este proyecto es de interés para una amplia audiencia ya que, en muchos casos, las empresas utilizan la analítica predictiva obteniendo resultado que no saben cómo utilizar. La analítica prescriptiva es el siguiente paso para tener una toma de decisiones automatizada con resultados de alto impacto y con valor agregado para las empresas.
- Expositor: Natalia Raffo
- Título: Reconocimiento y extracción de texto a través de algoritmos de Deep Learning.
- Descripción:Según la revisión de estudios bibliográficos el reconocimiento y extracción de texto de documentos pre- impresos de forma automática tiene un rol importante en la economía, dado el aporte en generar información relevante de documentos en los sectores: Financiero, Energético, Petróleo, Salud, entre otros, para detectar hallazgos de forma rápida y ser un apalancador en la solución de retos de negocio generando herramientas sólidas para tomar decisiones efectivas, reduciendo largos tiempos operativos que se invierten actualmente recursos en trascribir los campos de interés de los documentos de forma manual, generando altos costos producidos por procesos operativos desgastantes y produciendo resultados tardíamente, requiriendo herramientas automáticas que logren hacer esta extracción de forma efectiva en tiempos muy cortos. Ante la necesidad identificada se pretende presentar la charla enfocada a mostrar el reconocimiento y extracción de texto de Documentos de campos específicos a través de algoritmos de Deep Learning con altas precisiones en la extracción. reduciendo tiempos operativos y costos.