Anticipos de programa

Escuela Argentina de Inteligencia Artificial

(Auspiciada por el Artificial Intelligence Journal)


Tema de esta edición

Deep Learning

Profesor Matthias Gallé

Introducción a Deep Learning

Session 1: basic introduction to supervised learning. definition of loss function, derivation of logistic regression, SGD. Focus on the importance of the representation. Vector Space Model (Salton). Feature extraction for NLP. application to toy problem (NER without structured prediction?, synonym prediction?, TBD)

Session 2: Hands-on. Code logistic regression from scratch, in sklearn format (transform_fit & predict_proba). Code some basic features extractors (using sklearn.pipeline)

Session 3: distributional representation of words. Firth 1963, Harris 1954. co-occurence matrix, point-wise mutual information. Bengio et al 2003, Mikolov et al 2013, Pennington et al 2014, Levy et al 2015.

Session 4: advanced topics. supervised-fine tuning of word embeddings, the problem of homonyms, counter-fitting word-embedings (using prior knowledge), multi-lingual embedddings

Session 5: Hands-on. Change feature extractors to embeddings (gensim library).


Desarrollo
lunes 4
13:30 - 15:30 Introducción a Deep Learning -- Matthias Gallé
15:30 - 17:30 Aprendizaje con pocos ejemplos -- Jorge Sánchez
martes 5
13:30 - 15:30 Introducción a Deep Learning -- Matthias Gallé
15:30 - 17:30 Tagging y Parsing en Procesamiento del Lenguaje Natural -- Franco Luque
miércoles 6
13:30 - 15:30 Introducción a Deep Learning -- Matthias Gallé
15:30 - 17:30 Express Deep Learning con Python -- Cristian Cardellino y Milagro Teruel
jueves 7
13:30 - 15:30 Introducción a Deep Learning -- Matthias Gallé
15:30 - 17:30 Data Mining en Redes Sociales con Python -- Pablo Celayes y Gabriel Miretti
viernes 8
13:30 - 15:30 Introducción a Deep Learning -- Matthias Gallé
15:30 - 17:30 Planning -- Carlos Areces

 

 


Conferencias invitadas

 

 

The spread of misinformation in social media

(Desplácese hacia abajo para la versión en español)

Filippo Menczer

As social media become major channels for the diffusion of news and information, they are also increasingly attractive and targeted for abuse and manipulation. This talk overviews ongoing network analytics, data mining, and modeling efforts to understand the spread of misinformation online and offline. I present machine learning methods to detect astroturf and social bots, and outline initial steps toward computational fact-checking, as well as theoretical models to study how truthful and truthy facts compete for our collective attention. These efforts will be framed by a case study in which, ironically, our own research became the target of a coordinated disinformation campaign.

 

Joint work with many members and collaborators of the Center for Complex Networks and Systems Research at Indiana University (cnets.indiana.edu). This research is supported by the National Science Foundation, McDonnell Foundation, and DARPA. Any opinions, findings, and conclusions or recommendations expressed in this material are those of the authors and do not necessarily reflect the views of these funding agencies.

 

Bio-sketch: http://cnets.indiana.edu/fil/bio/sketch/

 

La diseminación de información falsa en redes sociales

Filippo Menczer

Formado en física en la Univ Sapienza, de Roma y con un PhD en CS y Ciencia Cognitiva de la UC de San Diego, es Profesor de Informática y Ciencia de la Computación en la Universidad de Indiana, en Bloomington. Es Científico Distinguido de ACM y Senior Research Fellow del Kinsey Institute. Su trabajo ha sido apoyado por la NSF, DARPA y la Fundación McDonnell, focalizándose en Web y ciencia de datos.

 

En la medida que las redes sociales se han convertido en grandes canales para la difusión de noticias e información, se vuelven crecientemente atractivas y blancos para su abuso y manipulación. Esta conferencia brinda un panorama del análisis de redes, minería de datos y esfuerzos de modelización para comprender la diseminación de información falsa o dudosa en línea y fuera de línea. Se presentan métodos de aprendizaje automático para detectar astroturfing y social bots, y planificar pasos iniciales sobre la verificación computacional de hechos, así como modelos teóricos para estudiar cómo hechos veraces y consistentes con la realidad compiten por nuestra atención colectiva. Estos esfuerzos serán ejemplificados por un caso de estudio en el cual, irónicamente, nuestra propia investigación resultó objeto de una campaña coordinada de desinformación.

 

Programación preliminar: Martes 05/09/2017 a las 17:30 hs.

 

 


 

Distribución en cooperativas de viviendas atendiendo preferencias personales

Héctor Cancela

Ing. de Sistemas de Computación de la Univ. de la República y Doctor en Informática de la Univ. de Rennes 1/INRIA, es Profesor del Dpto. de Investigación Operativa, INCO, Fac. de Ingeniería, Univ. de la República, Uruguay, dedicado a modelos de procesos estocásticos y Presidente actual de CLEI

 

En Uruguay, existe una larga tradición de cooperativismo en la construcción de viviendas. Usualmente las viviendas se asignan por un sistema de sorteo clásico (bolillero). En esta charla se presenta un proyecto llevado adelante por estudiantes, egresados y docentes de la Universidad de la República para desarrollar un sistema basado en modelos de programación matemática con una componente aleatoria, para mejorar la distribución de viviendas teniendo en cuenta las preferencias de los cooperativistas, optimizando criterios de equidad y de satisfacción promedio. Se discutirán  también experiencias para promover el  uso de estos modelos en cooperativas uruguayas, resultados obtenidos y desafíos que quedan por delante.

 

Programación preliminar: Miércoles 06/09/2017 a las 17:30 hs.

 

 


 

Privacidad: La Tensión entre las Capacidades Tecnológicas y las
Expectativas de la Sociedad Cívica

Ernst L. Leiss

Graduado en Ingeniería y en Matemática en la TU de Viena y en computación en Waterloo, donde realizó un post doc, fue profesor en la Univ de Chile para incorporarse luego en el Dept. of Computer Science de la Univ. de Houston. Es autor de seis libros y más de 170 trabajos publicados en conferencias y revistas. Ha participado de las conferencias de CLEI desde 1992, habiendo sido Chair de Programa de la de Quito, en la cual se utilizó por primera vez el modelo de simposios. También ha dado numerosos cursos en 32 países diferentes y participado en la acreditación de carreras de informática, habiendo sido ACM Distinguished Lecturer desde 1991 hasta 2015. Ha ocupado cargos administrativos en la Univ. de Houston, entre ellos la presidencia de su Senado y en 2014 fue premiado con la Distinción CLEI al Mérito Latinoamericano en Informática.

 

La sociedad cívica tiene expectativas básicas: Gente e instituciones, incluyendo gobiernos, deben comportarse según las leyes y la ética de la sociedad. Sin embargo, la tecnología presta capacidades inesperadas y no bien conocidas, las que pueden chocar con la ética y las leyes de la sociedad. En particular, en sociedades modernas existe una expectativa de privacidad de individuos y organizaciones.

En esta charla se examinan varias tecnologías que en muchos casos contradicen esas expectativas en cuanto a la privacidad. Se observan bases de datos estadísticos donde las consultas deberían guardar la privacidad de los datos de individuos y varias tecnologías que permiten el monitoreo de la ubicación o el comportamiento de una persona o de las comunicaciones de la misma. También se examinan problemas relacionados con el uso de criptografía y de marcas de agua, entre otras. En muchos casos, la tecnología compromete la privacidad, pero en algunos, brinda más privacidad de lo deseable.

 

Programación preliminar: Miércoles 06/09/2017 a las 17:30 hs.

 

 


 

Pymes de software: tratar de sobrevivir en la corriente o buscar en el remanso?

Sergio Ochoa

Ing, de Sistemas de UNICEN, se doctoró en la PUC de Chile y realizó un post-doc en la Univ. de Illinois, Urbana Champaign, ahora es subdirector del Depto. de Cs. de la Computación de la Universidad de Chile. Cuenta con una vasta experiencia de trabajo en la industria del software y la academia. Sus líneas de investigación actuales son: el desarrollo de software en pymes Latinoamericanas y en la academia (por ej., estimación del esfuerzo, definición de procesos de software, diseño de equipos de desarrollo, evaluación de equipos y proyectos, etc.).

 

Las pymes representan más del 80% de la fuerza laboral de la industria del software a nivel mundial. Sin embargo, su tasa de mortalidad es muy alta, debido a que sus condiciones de operación son usualmente frágiles. Esta situación conduce a altas tasas de recambio de pymes, y frena la evolución de la industria de software de un país. En esta charla se analizarán las dos caras de una misma moneda, considerando los aspectos de negocio y de ingeniería que deben abordar las pymes, en su intento por mantenerse vivas en un mercado sumamente hostil. Se discute qué tanto influye la estrategia de negocio de las pymes en su propia supervivencia, consolidación y crecimiento. Particularmente, se contrasta la realidad de la pymes orientadas al mercado general del software, versus aquellas especializadas en nichos particulares de mercado. También se aborda cómo la decisión anterior afecta la factibilidad de uso de buenas prácticas de ingeniería de software en los proyectos, así como también la identificación de prácticas que son claves para la supervivencia de una pyme.

 

Programación preliminar: Jueves 07/09/2017 a las 17:30 hs.

 

 


 

Tight bounds and symbolic execution: more efficient, distributed, and effective

Marcelo Frias

Lic. en Ciencias de la Computación from the Dept of Computer Science at FCEyN, UBA, he obtained his doctoral degree from the PUC at Rio de Janeiro and he was awarded the Houssay Award as young researcher in Computer Science, as well as he was a Fulbright Scholar, visiting MIT. He is currently a Principal Researcher at CONICET and Full Professor at ITBA, been a member of IFIP Woking Groups 2.2 and 1.9. He has wrote 60 papers in journals and conferences, and a book, been a member of the Program Committee of dozens of conferences and has reviewed articles for the most significant journals in the field.

 

It is introduced the notion of tight field bound, and use it in the context of symbolic execution. It is shown that tight field bounds allow to speed up symbolic execution in a dramatic way. Also, using tight field bounds, a natural parallelization schema can be introduced, whose distributed implementation produces important speedups. Finally, it is shown that bounds can be used to reduce the size of test suites generated using symbolic execution, while retaining the effectiveness in terms of achieved coverage and mutation score.

 


 

Parque Tecnológico TIC de Mendoza

Ejemplo de asociación público-privada: un Parque que nació lleno

Cristina Párraga

Es Doctora en Ingeniería. Formada como Ingeniera en Electrónica y Electricidad por la Universidad de Mendoza y ha completado su formación pedagógica como Especialista en Docencia Universitaria en la Universidad Nacional de Cuyo. Dirige la Secretaría de Extensión Universitaria desde el Rectorado de la Universidad de Mendoza, donde se desempeña también como Profesor Titular Ordinario de Computación. En el campo disciplinar trabaja en sistemas de control, con aplicaciones de Computación Evolutiva y programación de Algoritmos Genéticos. Directora de Tesis de Postgrado en Doctorado y Maestrías y de Trabajos Finales de grado. Ha actuado como Jurado de diversos Concursos: CONICMEN e INNOVA, de Selección de Jefaturas y Comités Académicos en eventos de la especialidad. Presidió el Polo TIC Mendoza, asociación mixta Estado-Universidad-Empresa del 2014 a 2016 y ahora es Vicepresidente del área Educación. Conforma la Comisión Directiva del Instituto de Desarrollo Industrial, Tecnológico y de Servicios (IDITS) como representante del Sector de Ciencia y Tecnología.

 

Los Parques Industriales, en sintonía con la tendencia mundial, representan el eje del desarrollo para Mendoza. El Mendoza TIC, Parque Tecnológico es una iniciativa impulsada por el Polo TIC Mendoza que supo ser concretada merced a una decidida acción de gobierno y al invalorable compromiso del IDITS. Es un parque industrial científico y tecnológico exclusivo de TIC al que empresas y universidades mendocinas han apostado como enclave de confluencia para la innovación y el desarrollo de tendencias en la industria del software y los servicios informáticos; un espacio que propicia la generación permanente de proyectos que articulan actores públicos, privados y académicos-de investigación para transferir eficiencia, diversificación y valor agregado a todos los demás sectores de la Provincia, ampliando su matriz productiva. Así como Mendoza es el destino indiscutido para el turismo vitivinícola, el Mendoza TIC, Parque Tecnológico, espera ser la visita por antonomasia del desarrollo tecnológico en Argentina.

El objetivo de la presentación es compartir con todos los convocados a esta Jornada, empresarios, profesionales, emprendedores, docentes, esta experiencia que tiene como misión insertar Mendoza en el Nuevo Paradigma de la Revolución Digital.

 

Programación preliminar: Martes 05/09/2017 a las 17:30 hs.

 

 


 

Aplicación de sistemas de información en ambientes industriales: una experiencia en una fábrica de colchones

Marcelo Montagna

INGAR (CONICET-UTN), Santa Fe, Argentina

El Dr. Jorge Marcelo Montagna es investigador principal del CONICET con lugar de trabajo en INGAR, instituto de doble dependencia CONICET-UTN. Además es profesor titular en la Facultad Regional Santa Fe de la UTN. El Dr. Montagna es Licenciado en Matemática Aplicada egresado de la Facultad de Ingeniería Química de la UNL y Doctor en Tecnología Química egresado de la misma casa de estudios. Sus principales áreas de investigación han estado enfocadas en el desarrollo de modelos de programación matemática a diversos problemas en ambientes productivos, ya sea sobre plantas específicas, como asimismo sobre cadenas de suministro. Tiene diversos trabajos en aplicaciones para diseño, retrofit, planificación de la producción, scheduling, etc. Además ha realizado acciones de asesoría en diversas empresas (Limansky, Cartocor, Carsa, Celpack, Celcor, etc.).

 

En esta presentación se describe una sucesión de acciones de transferencia realizadas por INGAR (CONICET-UTN) en la empresa Limansky, dedicada a la producción de colchones, almohadas, sommiers y muebles, ubicada en la ciudad de Rafaela, provincia de Santa Fe.

En primer lugar se describen los principales aspectos de los distintos modelos generados para esta empresa. Básicamente se trata de modelos de programación mixta entera lineal que se utilizan para resolver problemas de scheduling y planificación de la producción. Se describirán aplicaciones para la planificación de la producción de espuma de poliuretano, para el scheduling del corte de bloques de goma espuma y, finalmente, para la planificación diaria de la producción y logística de la empresa. En esta última se enfatizará la descripción del modelo en el cual se está trabajando actualmente, teniendo en cuenta sus dificultades, básicamente a partir de la integración de cuestiones comerciales, producción (las cinco plantas de la empresa) y logística.

En segundo lugar, se abordarán, en cada caso, aquellos aspectos que si bien exceden cuestiones puramente técnicas, han permitido alcanzar una implementación exitosa de los distintos modelos propuestos. Además se describirá como se ha evolucionado en las características de los problemas abordados, para enfocarse en el último caso en problemas que abarcan a varias áreas de la empresa y los futuros problemas a tratar.

 


 

Core Vocabularies for Public Administration - A European Perspective

Adegboyega Ojo

Graduado y Doctorado en la Univ. de Lagos, Nigeria, fue profesor de Computer Science en dicha Universidad y realizó un posdoc en el Programa de Gobierno Electrónico del Inst. de Tecnología de Software de la Univ. de Naciones Unidas en Macao. Actualmente es Senior Rearch Fellow y Lider del E-Government Group en el Insight Centre for Data Analytics de la Univ. Nacional de Irlanda, en Galway. Sus áreas de investigación se desarrollan en torno a web semántica y datos relacionados al desarrollo de una nueva generación de Infraestructura de Servicio Público Electrónico, como la obtención de información relevante de redes sociales y la gobenanza de Smart Cities.

 

Se brinda un panorama general de las Perspectivas Europeas sobre Interoperabilidad entre las administraciones públicas de los estados miembro de la Unión Europea. También se incluye una discusión sobre el CPPV –el núcleo de vocabulario sobre política pública- desarrollado en Insight y cómo se desea explotarlo para la coherencia e integración de estas políticas a lo largo de Europa.

 

Programación preliminar: Jueves 07/09/2017 a las 17:30 hs.

 

 


 

 

Tutoriales

 

 

Seguridad de la Web, con Énfasis en Aspectos Blandos

 Ernst L. Leiss

Department of Computer Science
University of Houston
Houston Texas 77204-3010
USA

 

Generalmente, cuando los informáticos hablan de seguridad de la web, se refieren as aspectos duros, como seguridad de redes y encriptación. En este tutorial el foco se pone en los aspectos más blandos, es decir, relacionados a la sociología. Específicamente, comienza con una dicotomía de la seguridad en la web, de la seguridad de datos que forma la base en este contexto, hasta fishing y spoofing. Se considera el problema de control de inferencia que surge en el ambiente de bases de datos estadísticos y tiene mucho que ver con la privacidad de estos datos. Después se extiende a delitos en el ambiente web, principalmente crímenes que dependen de este ambiente y existen fundamentalmente por la tecnología de la computación. Finalmente se abordan controles de acceso, por vía de contraseñas o biométrica, y se señala que la pérdida de datos biométricos tiene consecuencias más serias que la de contraseñas.

 


 

Técnicas de Minería en la Analítica de Datos Sociales

Jose L. Aguilar C

Prof. Titular del Departamento de Computación de la Universidad de los Andes (ULA), Mérida. Está Doctorado en Ciencias Computacionales en la Universidad Rene Descartes-Paris-France. Postdoc en el Departamento de Ciencias de la Computación de la Universidad de Houston, y en el Laboratorie d’Automatique et Analyses de Systemes-CNRS, Toulouse-France. Ha publicado más de 500 artículos científicos en revistas, libros y actas de congresos internacionales, en los campos de Sistemas Paralelos y Distribuidos, Computación Inteligente, Optimización Combinatoria, Reconocimiento de Patrones, Sistemas de Automatización Industrial.

 

La analítica de datos sociales, que consiste en hacer análisis sobre datos externos a una organización, con el fin de extraer conocimiento, ha venido convirtiéndose en una herramienta fundamental de decisión, por el uso intensivo del Internet, y en particular, de las redes sociales. Para la realización de esas tareas, se requieren de nuevas herramientas computacionales que van más allá de la minería de datos. En particular, en este tutorial se presentaran las técnicas de minería de mayor uso en la actualidad, para desarrollar tareas de Analítica de Datos Sociales, tales como la minería semántica, la minería de grafos, entre otros. Además, se presentara la relación con conceptos vecinos, tales como Big data, y la Computación autonómica.

 

Contenidos

1. Introducción a la Analítica de Datos Sociales: concepto y metodologías
2. Técnicas de Analítica de Datos Sociales: Minería semántica, Minería de texto, Minería de Grafos, enlazado de datos, etc.
3. Conceptos Vecinos: Ciclos Autonómicos, Datos Masivos (BigData), Inteligencia de Negocios

 


 

GAN: La idea más cool en Machine Learning en los últimos 20 años

Lucas C. Uzal

Físico egresado del Instituto Balseiro pasó de los experimentos en sonoluminiscencia en su Tesis de Maestría al modelado de series temporales caóticas en su Tesis Doctoral en la Univ. Nac. de Rosario. Investigador de CONICET, su trabajo de investigación actual en el CIFASIS está orientado al desarrollo y aplicación de técnicas de Deep Learning. Es Profesor de Física I en la Facultad de Cs. Exactas, Ingeniería y Agrimensura de la UNR. En los últimos años ha dedicado parte de su tiempo al dictado de cursos sobre Deep Learning para eventos e instituciones tales como ECI 2014 (UBA), RIO 2016 (UNRC), Doctorado en Informática y Licenciatura en Cs. de la Computación (UNR) en 2016 y Polo Tecnológico Rosario en 2017.

 

Las Redes Adversarias Generativas (GAN) constituyen un tipo de aprendizaje no supervisado que ha despertado un gran interés en los últimos años en el área de Deep Learning. Por ejemplo, la posibilidad de generar imágenes foto-realistas a partir del aprendizaje automático sin ninguna intervención humana, ha pasado, a partir de la irrupción de las GAN en 2014, de estar en un futuro lejano a ser una inminente realidad. Se ofrecerá una breve introducción a las Redes Neuronales Convolucionales (CNN) que son el elemento fundamental del éxito de Deep Learning en Computer Vision. Se mostrará cómo a partir del esquema de GAN se puede entrenar una CNN en forma completamente no supervisada. Se verán las potencialidades que ofrece esta técnica y sus limitaciones actuales. Finalmente se mostrarán algunos ejemplos concretos de aplicación de GAN para aprendizaje semi supervisado que han sido abordados en el CIFASIS.

 


 

Revisión y análisis de índices de estado hídrico de cultivos bajo riego utilizando termografía. Casos de uso en olivos y almendros

Flavio Capraro

8 de septiembre a las 9 hs en el marco de CAI

Se realiza una reseña sobre los últimos avances en termografía empleados para determinar el índice de estrés hídrico en cultivos, presentando casos de estudio en olivos y almendros como experiencias de identificación de zonas con problemas de riego o enfermedades. Los sistemas de análisis de información basados en termografía, como ser imágenes termográficas, sensores de temperatura, sensores infrarrojo, imágenes satelitales; son empleados hoy en día para determinar problemas de estrés hídrico asociados al mal funcionamiento de los equipos de riego, a la heterogenidad del suelo o a la incorrecta programación de las operaciones de riego. En este sentido, los nuevos desarrollos y tecnologías en termografías brindan una solución al problema de identificación de estos eventos y la rápida toma de decisiones. También se presentará un ensayo de manejo de estrés hídrico controlado en olivos en la provincia de San Juan.

 


 

GeoAvisos: Plataforma de distribución de información derivada de datos satelitales

Mariana Horlent y Pablo Tomas

7 de Septiembre a las 9:15 en el marco de CAI

La Comisión Nacional de Actividades Espaciales (CONAE) distribuye información espacial obtenida de diferentes satélites, Esta información se encuentra en formato raster y los archivos suelen ser de gran tamaño y tradicionalmente la forma de acceso y descarga es mediante el sitio web. Adicionalmente cierta información se distribuye mediante servicios WMS y WFS, lo que permite mayor versatilidad para su uso.

En los últimos años la masividad de aplicaciones de base geográfica, especialmente en dispositivos móviles y con utilización de GPS, ha hecho que los usuarios consuman y demanden información derivada de datos satelitales de fácil acceso relacionada a su localización geográfica o área de interés.

En sintonía con eta tendencia, el proyecto GeoAvisos tiene como propósito establecer un nuevo canal de distribución, poir el cual el usuario solicita esta información para su región de interés y recibe las novedades por correo electrónico en formatos que pueden ser consumidos desde cualquier dispositivo. La información de valor agregado inicialmente distribuida por este canal son los focos de calor de MODIS y NPP.

 


 

Bugs de corrupción de memoria: ¿Por qué todavía son una de las fuentes más comunes de vulnerabilidades de seguridad?

Marcos Oviedo

7 de septiembre a las 16:30

Los sistemas complejos escritos en lenguajes de bajo nivel, como C/C++, son todavía muy populares. La falta de seguridad en estos lenguajes contribuye a que los ataques por corrupción de memoria sean todavía una amenaza muy seria. Se discutirá por qué esto es todavía un problema y se revisará el juego de ataque-defensa en el que el conferenciante y su equipo de trabajo ha estado involucrado durante estos últimos años.

 


 

How to check if your software is on doping

Pedro R. D’Argenio

Martes 5, de 8:30 a 9:30

He studied at the Universidad Nacional de La Plata, where he obtained his Master degree (1994), and the University of Twente, where he obtained his Doctoral degree (1999), both in Computer Science. He was also Visiting Researcher at the University of Twente (2005-2006) and Associate Researcher at the Université de Provence (2003-2004). Currently, he is a Full Professor at the Universidad Nacional de Córdoba, Argentina, heading the Dependable System Group since 2006. He is also Researcher of CONICET, Argentina, and Visiting Professor at Saarland University, Germany. His research interests include modeling and verification of concurrent systems, performance and dependability evaluation, and the mathematical foundations

 

Usually, it is the software manufacturer who employs verification or testing to ensure that the software embedded in a device meets its main objectives. However, these days we are confronted with the situation that economical or technological reasons might make a manufacturer become interested in the software slightly deviating from its main objective for dubious reasons. Examples include lock-in strategies and the NOx emission scandals in automotive industry. This phenomenon is what we call software doping. It is turning more widespread as software is embedded in ever more devices of daily use.

The primary contributions of the presentation is to provide a hierarchy of simple but solid formal definitions that enable to distinguish whether a program is clean or doped. Moreover, we show that these characterisations provide an immediate framework for analysis by using already existing verification techniques. We exemplify this by applying self-composition on sequential programs and model checking of HyperLTL formulas on reactive models.

 


 

 

Talleres

 

 

Cómo trabajar en (grandes) grafos sociales con Spark

Andrés Tobelem y Esteban Donato

Andrés Tobelem estudio Ciencias de la Computación en la FCEN de la UBA y fue docente en el Colegio Nacional de Bs As. Desarrolló el algoritmo de recorridos del Mapa Interactivo de Buenos Aires y “Cómo Llego”. Actualmente se desempeña como data engineer en Grandata trabajando en grafos sociales. Esteban Donato es Ing. en Sistemas de Información de la UTN y Magister en Data Mining & Knowledte Discovery de la FCEN, UBA. Posee más de 15 años de experiencia en la industria y 6 liderando y desarrollan soluciones tecnológicas para el procesamiento de grandes volúmenes de datos. Actualmente se desempeña liderando el procesamiento de grafos en Grandata.

 

El taller consistirá en una introducción al estudio de grandes grafos. En el mismo se impartirán conceptos de minería de datos en grafos y su implementación en Spark.

El taller incluirá una clase magistral de una hora aproximadamente y luego la realización de ejercicios prácticos en Laboratorio, guiados por los docentes. Se presentan ejercicios para conocer la tecnología, usar ambientes de experimentación y concluir resolviendo un problema de negocio real con grandes datos.

 

VACANTES LIMITADAS

Los inscriptos que deseen participar deben reservar su lugar escribiendo a informacion@sadio.org.ar.

Por favor en el Asunto del mail colocar "Apellido y nombre - Nombre del Taller"

 

 


 

Modelado de datos semánticos

María Laura Caliusco

Profesora Adjunta Exclusiva de la UTN-FRSF e investigadora Adjunta de CONICET. Obtuvo su doctorado en Ingeniería mención Sistemas de Información en la UTN-FRSF en el 2005 y desde entonces viene trabajando en el tema de aplicar tecnologías semánticas a gobierno electrónico y abierto, modelado de procesos de negocio, inteligencia de negocios, modelado de datos geográficos y datos enlazados. Actualmente, la Dra. Caliusco es co-directora del Centro de Investigación CIDISI y directora de Posgrado de la UTN-FRSF.

 

Un modelo de datos semántico es un modelo conceptual de datos en el que se incluye información semántica, es decir, que el modelo describe el significado de sus instancias. Un modelo de datos semánticos puede servir para la construcción de bases de datos compartibles o para la integración de bases de datos existentes; entre otras cosas. Una ontología es un artefacto de representación que permite construir modelos de datos semánticos. El objetivo principal del taller es introducir a los alumnos en el modelado de datos semánticos a través ontologías haciendo uso del editor de ontologías Protégé.

 

VACANTES LIMITADAS

Los inscriptos que deseen participar deben reservar su lugar escribiendo a informacion@sadio.org.ar.

Por favor en el Asunto del mail colocar "Apellido y nombre - Nombre del Taller"