Diplomatura en Data Analytics con R y Python
La Diplomatura en Data Analytics con R y Python es un programa educativo de formación avanzada que aborda los principales fundamentos, métodos y técnicas del análisis de datos, con énfasis en su aplicación práctica mediante los lenguajes R y Python.
Esta diplomatura está diseñada para brindar una comprensión sólida de los procesos, herramientas y flujos de trabajo utilizados en Data Analytics, desde la adquisición y preparación de datos, hasta la exploración, visualización y explotación de información para apoyar la toma de decisiones en contextos reales. Instituto Data Science Argentina
A través de un enfoque que combina contenidos conceptuales, prácticas guiadas y el análisis de casos reales de negocio, el programa permite al estudiante desarrollar competencias técnicas y analíticas centradas en la interpretación y comunicación de datos, integrando estadística, programación, visualización y métodos cuantitativos.
EDICIÓN 2026

CERTIFICACIÓN ACADÉMICA
Universidad Tecnológica Nacional
+ Instituto Data Science
Resolución Nro. 290/20 · UTN FRRQ
Tu mejor certificado es tu proyecto público.
Garantía de Satisfacción: 30 días
Próximo inicio: 11 de Mayo 2026
(Máximo 20 estudiantes)
Clases en vivo: Lunes 21:30 Horas, Martes 20:30 Horas, Miércoles 21:30 Horas y Jueves 20:30 Horas.
Vacantes Disponibles
$903.000,00INSCRIBIRME AHORA
6 cuotas sin interés de ARS $150.500 o 20% OFF por transferencia en 1 pago = ARS $722.400
¿Por qué elegir esta diplomatura?
📈 Orientada a la toma de decisiones con datos reales
📊 Aprendé a usar R, Python, Power BI y SQL
👥 Aplicación práctica en entornos empresariales
🧠 Entrenamiento en storytelling y visualización efectiva
📜 Certificación UTN + Portfolio de proyectos
Consultas
WhatsApp: +541139148021
Mail: info@institutodatascience.org
Programa Académico
Etapa de Nivelación
Programación lógica
Introducción a la Programación Lógica. Tipos de Variables. Ejecución condicional. Ciclos. Funciones. Conceptos generales.
Bases de datos relacionales
Introducción a Bases de Datos. Relaciones. Formas normales. Operaciones sobre tablas. Joins. Objetos de las bases de datos. Optimización de consultas. Arquitectura de las bases de datos. SQL Server.
Probabilidad y Estadística
Introducción a Estadística.
Curso Experto en Power BI (On-demand)
Introducción al Power BI como herramienta clave. Los datos dentro de la administración empresarial con BI. Cargar datos a Power BI utilizando Power Query. Generación de columnas y tabla calendario para lograr una buena gestión de los datos. Utilizar Dax para gestionar datos. Diseño de informes / gráficos. Proyecto final. (6 clases grabadas).
Etapa de Introducción
Introducción Conceptual
Introducción a la Ciencia de Datos. Niveles a los que opera la ciencia de datos. Introducción a Data Warehouse. Introducción a Data Mining. Introducción a Knowledge Discovery. Introducción a Herramientas OLAP y Tableros de comando. Repaso de herramientas disponibles. Taxonomía de las competencias de un científico de datos.
Introducción a Python
Descarga e instalación. Principales librerías. Variables y tipos de datos. Listas, tuplas y diccionarios. Ejecución condicional. Ciclos definidos e indefinidos. Manejo de Excepciones. Funciones y Generadores. Clases y objetos. Manejo de archivos y directorios. Conexión a archivos planos. Conexión a Excel. Conexión a Bases de Datos.
Introducción a R
Variables, vectores y matrices. Dataframes. Paquetes y librerías. Manejo de archivos csv. Conversiones de tipos. Conexión a bases de datos. Ejecución condicional. Bucles. Funciones en R. Medidas estadísticas. Correlaciones. Funciones estadísticas.
Taller de Programación
Talleres prácticos en vivo de programación, para seguir reforzando sus conocimientos.
Análisis Exploratorio
Uso de NumPy. Uso de Pandas. Uso de MatPlotLib. Módulo matplotlib. Módulo math. Módulo numpy. Módulo yt. Módulo mayavi.
Tests básicos
Repaso de conceptos de probabilidad y estadística. Test de Hipótesis. Correlaciones. AB Test. Cálculo de correlaciones en R con cor. Funciones de distribución en R. Histogramas en R. Gráficos de líneas en R. Gráficos de áreas en R. Uso de NumPy. Uso de Pandas. Uso de MatPlotLib. Módulo matplotlib. Módulo math. Módulo numpy. Módulo yt. Módulo mayavi.
Arboles de decisión
Algoritmo básico en Excel. División en entrenamiento y prueba. Uso de Rpart y cp. Predicción y valoración de la solución. Uso de Party. Aplicación al problema del call center. Instalación y uso del paquete en Python. Ejemplo en Python. Principales parámetros de ajuste y control.
Clusters
Algoritmo básico en Excel. Uso de kmeans en R. Ejemplo de aplicación real en R. Otros algoritmos de agrupamiento en R. Ejercicio de aplicación de agrupamiento de mascotas. Uso de Scikit-Learn en Python. Análisis de componentes principales en Python. K-Medias en Python. Clustering jerárquico en Python.
Reglas de Asociación
Algoritmo básico en Access. División en entrenamiento y prueba en R. Uso de arules en R. Ejemplo de una aplicación real votación de reglas en R. Ejemplo de una aplicación real a datos de ventas en supermercados en R. Instalación y uso del paquete en Python. Ejemplo en Python. Principales parámetros de ajuste y control. Esquema de votación de reglas en Python.
Redes Neuronales
Algoritmo básico en Excel. División en entrenamiento y prueba en R. Uso de neuralnet. Predicción y valoración de la solución en R. Discusión del problema de legibilidad de los resultados desde el negocio. Competencia entre árboles y redes en un caso concreto en R. Instalación y uso del paquete en Python. Ejemplo en Python. Principales parámetros de ajuste y control en Python. Problema concreto en Python.
Series temporales
Taxonomía. Separación de componentes. Predicciones. ARIMA implementado en R. Predicción en series con un único período. Predicción en series con múltiples períodos. Predicción en series con períodos variables: renormalización. Implementación en Python.
Minería de textos
Clasificación supervisada de piezas de texto. Construcción de una red semántica. Discusión de las posibilidades de reconocimiento de voz. Ejemplos de aplicación real del algoritmo de clasificación. Aplicación a la detección de sentimientos. Ejemplo de implementación en Python.
Vecinos Cercanos (Knn)
Instalación y uso del paquete en R. Ejemplo conceptual en Excel. Ejemplo en R. Instalación y uso del paquete en Python. Ejemplo en Python. Principales parámetros de ajuste y control.
Bayes Ingenuo
Implementación en Excel. Ejemplo de aplicación en R. Comparación de 4 algoritmos predictivos (Bayes ingenuo, árboles, redes neuronales y regression logística). Ejemplo de aplicación en Python.
Random Forest
Bootstrap y bagging. Descripción conceptual del método random forest. Paquete randomForest para R. Ejemplo de aplicación. Comparación con otras técnicas. Implementación en Python.
Métodos bayesianos avanzados
Descripción conceptual del método. Regresión lineal bayesiana. Regresión logística bayesiana. Inferencia bayesiana. Red bayesiana. Ejemplos de aplicación en R. Paquete BAS. Paquete brms. Paquete arm. Paquete bnlearnd. Comparación con otras técnicas. Ejemplos de aplicación en Python.
Máquina de soporte vectorial
Descripción conceptual del método. Paquete e1071 para R. Ejemplo de aplicación en R. Ejemplo de aplicación en Python. Comparación con otras técnicas.
Discriminante lineal y cuadrático
Instalación y uso del paquete. Ejemplo conceptual en Excel. Ejemplo en R. Ejemplo en Python. Principales parámetros de ajuste y control en R. Principales parámetros de ajuste y control en Python. Problema concreto.
Diseño de Datawarehouses
Diferencias entre los DW y los OLTP. Tipos de datos y soportes. Dimensiones y jerarquías. Estimación de recursos y tiempos según tipos de datos. Ejemplos de staging. Interacción entre equipos (DB-ETL-Soporte-FrontEnd-Usuarios). Ejercicios de diseño de DW.
Diseño y construcción de ETL
Procesos ETL: generalidades, buenas prácticas, esquemas de ETL. Detalles de cada etapa: extracción, limpieza, normalización, transformación, carga. Estrategias de update. Ejercicios de diseño de ETL para la carga inicial. Ejercicios de diseño de ETL para la actualización. Licencia, descarga e instalación de Open Refine. Uso general como herramienta de limpieza de datos. Pre-procesado de los datos. Casos de interés y ejemplos. Licencias, descarga e instalación de Pentaho-Kettle. Pentaho Kettle: funciones, características, utilización. Auditoría y documentación. Ejemplos de uso.
Tutorías Proyecto Final
En esta etapa los estudiantes realizaran su proyecto final de cursada con tutoría docente. Pueden ver algunos proyectos finales de cursada de nuestros egresados en Nuestro Canal de YouTube.
INSCRIPCIONES ABIERTAS
Próximas cohortes 2026
Cada comisión está limitada a 20 estudiantes para preservar la dinámica de tutoría individual y los foros activos. Reservá tu vacante con tu inscripción.
11 de Mayo 2026
(Máximo 20 estudiantes, últimas vacantes)
Clases en vivo: Lunes 21:30 Horas, Martes 20:30 Horas, Miércoles 21:30 Horas y Jueves 20:30 Horas.
$903.000,00INSCRIBIRME AHORA
25 de Mayo 2026
(Máximo 20 estudiantes, últimas vacantes)
Clases en vivo: Clases en vivo: Lunes 19:00 Horas, Lunes 21:30 Horas, Martes y Jueves 19:00 Horas.
$903.000,00INSCRIBIRME AHORA
08 de Junio 2026
(Máximo 20 estudiantes, últimas vacantes)
Clases en vivo: Lunes 21:30 Horas, Martes 20:30 Horas, Miércoles 21:30 Horas y Jueves 20:30 Horas.
$903.000,00INSCRIBIRME AHORA
PROYECTO FINAL
Tu mejor certificado es lo que vas a construir.
Cada egresado defiende un proyecto aplicado a un caso de negocio real, tutoriado por un docente especializado. Quedan publicados en YouTube y son la evidencia técnica que las empresas evalúan al momento de contratar.
Predicción de Churn
Maximizando Ventas y Estrategias de Marketing en el Sector Editorial
Predicción de Cosechas de Yerba Mate con Machine Learning
EQUIPO DOCENTE
Profesionales activos en industria y academia.
Quienes te van a acompañar en la cursada combinan investigación, docencia universitaria y aplicación real de AI, Data Science y Data Analytics en empresas del sector privado y público.

Ignacio Urteaga
Director del Programa
MBA en Dirección de Sistemas de Información. Físico, (Tesis en física nuclear) Investigador, Premiado en 2001 por sus trabajos en Ciencia de Datos. Más de 30 años de experiencia docente en Universidades y en la aplicación de Datos y BI como Director, Gerente o Consultor en el ámbito público y privado.
¿Quieres saber mas sobre Ignacio?

Anahí Romo
Docente
Licenciada en Ciencias Físicas de la Universidad de Buenos Aires. Maestría en gestión de la energía en la Universidad Nacional de Lanús. Maestría de energías renovables Universidad Nacional de Salta. Desarrolladora Python.
¿Quieres saber mas sobre Anahí?
VOZ DE LOS EGRESADOS
Lo que dicen quienes ya pasaron por acá.
Sus contenidos exhiben una vasta amplitud, y la profundidad con la cual se aborda cada uno de ellos, subdividido en Unidades Temáticas, es más que adecuada para alcanzar en nivel de suficiencia requerido para su aprobación, dejando un margen muy interesante para que cada alumno profundice, aún más, uno o varios ejes temáticos, cuestión que puede observarse en los excelentes trabajos finales que son presentados y defendidos por los aspirantes al diplomado, como parte de los requisitos para certificar la diplomatura como egresado.
El cuerpo de docentes es de excelencia, compuesto por investigadores y profesionales de vasta experiencia en los diferentes dominios del conocimiento que integran los contenidos. Personas, además muy amables, siempre dispuestas para atender cualquier duda.
Para todos los interesados en introducirse, ampliar sus conocimientos, o incorporar nuevos elementos relacionados con la Ciencia de Datos de un modo sistemático, recomiendo con énfasis esta propuesta que, no de modo excluyente, ofrece el Instituto Data Science Argentina.
FAQ’s
Preguntas Frecuentes
¿Qué es Data Analytics y por qué es importante aprenderlo hoy?
La ciencia de datos es el campo que combina programación, estadística y análisis para transformar datos en decisiones. Es clave en sectores como salud, finanzas, marketing, gobierno y tecnología.
¿Cuál es la diferencia entre Data Analytics y Ciencia de Datos?
Data Analytics se centra en analizar datos históricos para generar insights y reportes. Ciencia de Datos incluye además modelos predictivos, machine learning y técnicas avanzadas, brindándote más herramientas para resolver problemas complejos.
¿Necesito experiencia previa en programación o estadísticas?
No es necesario. Nuestra metodología está diseñada para principiantes. Comenzamos desde cero, enseñando herramientas como Power BI, SQL y Python básico, junto con conceptos fundamentales de estadística aplicados al análisis de datos.
¿Cuál es el roadmap para aprender Data Analytics?
La cursada se divide en 4 etapas:
- Nivelación: Bases de Datos, Programación Lógica y Estadística.
- Introducción: Conceptos básicos de Data Analytics + Introducción a Python + Introducción a R.
- Especialización: Principales librerías para Data Analytics.
- Tutoría del proyecto final: Desarrollo guiado por docentes de un proyecto aplicado.
4. ¿Qué herramientas y plataformas voy a usar?
Utilizarás herramientas como SQL, Power BI, Python, R y Google Data Studio, entre otras, que son ampliamente utilizadas en la industria para el análisis y visualización de datos.
¿Cuánto tiempo lleva aprender Data Analytics?
La diplomatura dura 8 meses. Se recomienda dedicar entre 6 y 8 horas semanales entre clases y práctica. La cursada se divide en etapas, las distintas etapas van reiniciando de forma constante, para que también puedas ir realizando cada etapa a tu ritmo aprovechando las clases en vivo.
¿Es necesario saber inglés para estudiar Data Analytics?
No es obligatorio. Todos los contenidos están en español, incluyendo videos, ejercicios y tutorías del proyecto final. Conocer inglés puede ser útil para acceder a recursos adicionales, pero no es un requisito para completar la diplomatura.
¿Qué salidas laborales ofrece esta diplomatura?
Podrás desempeñarte como Data Analyst, Business Analyst, Reporting Analyst o aplicar los conocimientos adquiridos en tu sector actual para tomar decisiones basadas en datos.
¿Qué certificación obtengo al finalizar?
A lo largo del cursado, vas a aplicar lo aprendido mediante ejercicios prácticos, actividades integradoras y foros. Al finalizar, deberás presentar un proyecto final integrador y rendir un examen teórico, que requiere al menos un 60% de respuestas correctas para aprobar.
Al aprobar el programa, recibirás una certificación académica avalada por la Universidad Tecnológica Nacional (UTN) y el Instituto Data Science.

¿Cómo puedo inscribirme y qué formas de pago están disponibles?
Haz clic en inscribirme ahora y completa tus datos o escribinos por WhatsApp: +541139148021 o Mail: info@institutodatascience.org. Nuestro equipo te va a asesorar personalmente.
$903.000,00INSCRIBIRME AHORA

6 cuotas sin interés de ARS $150.500 o 20% OFF por transferencia en 1 pago = ARS $ 722.400
Comunidad de egresados del Instituto Data Science Argentina, 10% de descuento adicional.
El mejor momento fue ayer.
El segundo mejor, hoy.
Reservá tu vacante con seis cuotas sin interés. Si dentro de los primeros treinta días la cursada no te convence, te devolvemos el dinero por el mismo medio de pago.
Para hablar con un asesor
WhatsApp: +541139148021
Mail: info@institutodatascience.org
Podés formarte y certificarte con UTN + Instituto Data Science en:

