Curso de Almacenamiento y Consultas de Datos

Descripción

Bienvenido a la tercera y última semana de este curso. En las semanas anteriores, aprendimos sobre el almacenamiento de datos en sistemas como bases de datos y almacenamiento óptico, así como las abstracciones que añaden capas de administración a estos sistemas. Esta semana, nos enfocaremos en cómo el almacenamiento y la gestión de datos impactan la velocidad de recuperación de datos y el rendimiento de las consultas.

Contenido

Impacto del Almacenamiento en la Velocidad de Consultas

Consultas en Sistemas de Almacenamiento

Lenguajes de Consulta

Importancia de Comprender el Proceso de Consultas

Proceso de Ejecución de Consultas

  1. Escritura de la Consulta: El usuario escribe la consulta en el lenguaje correspondiente.
  2. Análisis: El DBMS analiza la consulta.
  3. Creación de un Plan de Ejecución: Se elabora un plan para ejecutar la consulta.
  4. Ejecución: Se ejecuta el plan y se devuelven los resultados o se realiza la acción deseada.

Técnicas para Mejorar el Rendimiento de Consultas SQL

Laboratorios de la Semana

Conclusión

Acompáñame en el siguiente vídeo para examinar la vida útil de una consulta y profundizar en estos conceptos.


Ejecución de Consultas en Sistemas de Bases de Datos

Descripción

La ejecución de una consulta en un sistema de administración de bases de datos (SGBD) es un proceso complejo que involucra varios componentes trabajando en conjunto. Este documento resume el proceso de ejecución de una consulta, desde su envío hasta la obtención de resultados, y detalla los roles de los diferentes componentes involucrados.

Proceso de Ejecución de una Consulta

  1. Envío de la Consulta
  2. La consulta es enviada a través del sistema de transporte al procesador de consultas.

  3. Procesador de Consultas

  4. Componentes Principales:

  5. Motor de Ejecución

  6. Lleva a cabo la secuencia de operaciones del plan de ejecución y produce los resultados de la consulta.

Acceso al Plan de Ejecución

Ejemplo Práctico

Tabla de Clientes

Supongamos que tenemos una tabla de clientes en una base de datos de alquiler de DVD. A continuación, se presentan dos ejemplos de consultas:

Consulta SQL Descripción
SELECT * FROM clientes; Selecciona todos los registros de la tabla de clientes.
EXPLAIN SELECT * FROM clientes; Muestra el plan de ejecución para la consulta anterior.

Resultados del Plan de Ejecución

Conclusiones

Próximos Pasos

Acompáñame en el siguiente video para una introducción rápida al primer laboratorio de esta semana.


Resumen del Laboratorio de SQL

Descripción

En este laboratorio, se revisan las operaciones básicas y avanzadas en SQL aplicadas a una base de datos relacional. Se abordan conceptos como la creación, lectura, actualización y eliminación de registros, así como el uso de funciones avanzadas para manipular datos.

Contenido

Operaciones Básicas en SQL

Operaciones Avanzadas en SQL

En el siguiente laboratorio, se trabajará con sentencias SQL más avanzadas, que incluyen:

Diagrama de Relaciones entre Entidades (ERD)

El laboratorio utiliza un esquema estelar basado en la base de datos de alquiler de DVD. La tabla intermedia Fact Rental contiene información sobre cada transacción de alquiler, incluyendo:

Campo Descripción
Fecha de Alquiler Fecha en que se realizó el alquiler
Fecha de Devolución Fecha en que se devolvió el DVD
Importe Pagado Monto pagado por el alquiler
Identificador de Empresa ID de la empresa alquilada
Identificador de Categoría ID de la categoría de la película
ID del Personal ID del personal que atendió al cliente

Ejemplo de Consulta

Para obtener información sobre qué miembro del personal atendió a qué cliente, se puede realizar la siguiente consulta:

SELECT DISTINCT 
    r.ID_Personal, 
    r.ID_Cliente 
FROM 
    Fact_Rental r;

Para incluir el nombre y apellidos del personal, se puede unir la tabla de alquiler con la tabla de personal:

SELECT 
    r.ID_Personal, 
    CONCAT(p.Nombre, ' ', p.Apellido) AS Nombre_Personal 
FROM 
    Fact_Rental r 
JOIN 
    Dim_Personal p ON r.ID_Personal = p.ID_Personal;

Manipulación de Cadenas

Se pueden aplicar funciones de manipulación de cadenas, como:

Ejemplo de Condición de Pago Puntual

Para verificar si un cliente realizó un pago puntual, se puede usar la sentencia CASE:

SELECT 
    r.ID_Cliente, 
    r.ID_Alquiler, 
    CASE 
        WHEN r.Fecha_Pago < r.Fecha_Devolucion THEN 1 
        ELSE 0 
    END AS Pago_Puntual 
FROM 
    Fact_Rental r;

Filtrado de Resultados

Para filtrar los resultados por país y fecha, se puede usar la cláusula WHERE:

SELECT 
    r.ID_Cliente, 
    r.ID_Alquiler 
FROM 
    Fact_Rental r 
JOIN 
    Dim_Cliente c ON r.ID_Cliente = c.ID_Cliente 
WHERE 
    c.Pais IN ('Estados Unidos', 'Canadá') 
    AND r.Fecha_Alquiler BETWEEN '2005-05-24' AND '2005-07-26';

Conclusión

Este laboratorio proporciona una base sólida en el uso de SQL para manipular y consultar datos en bases de datos relacionales. Se revisan tanto las operaciones básicas como las avanzadas, preparando a los estudiantes para el siguiente nivel en el manejo de datos.


Curso de SQL Avanzado: Técnicas y Funciones

Descripción

En este curso, se exploran técnicas avanzadas de SQL, incluyendo expresiones de tabla comunes (CTE), subconsultas, funciones de ventana y funciones de fecha. Se presentan ejemplos prácticos para calcular datos temporales sin necesidad de almacenar resultados en tablas separadas.

Contenido

1. Introducción a las Expresiones de Tabla Comunes (CTE)

2. Ejemplo de CTE: Clientes Atendidos por Empleado

3. Ejemplo de CTE: Porcentaje de Pagos Puntuales

4. Subconsultas

5. Funciones de Ventana

6. Ejemplo de Funciones de Ventana

7. Conclusiones

Ejercicios Prácticos

Próximos Pasos


Resumen sobre Índices en Bases de Datos Relacionales

Descripción

En este documento se resumen los conceptos clave sobre la implementación y el uso de índices en bases de datos relacionales, así como su impacto en el rendimiento de las consultas SQL. Se explican las estructuras de datos que componen los índices y se presentan ejemplos prácticos para ilustrar su funcionamiento.

Contenido

1. Introducción a los Índices

2. Estructura de un Índice

3. Implementación de Índices

Ejemplo de Búsqueda

4. Estrategias para Crear Índices

5. Ejemplo Práctico

6. Índices en Almacenamiento en Columnas

7. Conclusiones

Tabla Resumen de Conceptos Clave

Concepto Descripción
Índice Estructura de datos que acelera las consultas en bases de datos.
Árbol B Estructura que organiza los bloques de índice en nodos hoja y nodos internos.
Nodos Hoja Bloques de índice que contienen los datos ordenados.
Nodos Internos Agrupan nodos hoja y facilitan la búsqueda.
Clave de Clasificación Método de ordenación de filas en almacenamiento en columnas.

Lista de Recomendaciones

Recursos Adicionales


Este documento proporciona una visión general sobre la importancia de los índices en bases de datos relacionales y su implementación efectiva para optimizar el rendimiento de las consultas SQL.


Optimización de Consultas en Bases de Datos

Descripción

En este documento se resumen las mejores prácticas para optimizar consultas en bases de datos, evitando el uso ineficiente de recursos y mejorando el rendimiento general. Se discuten técnicas de poda y la importancia de filtrar datos relevantes.

Problemas Comunes con Consultas

Recomendaciones Generales

  1. Filtrar Resultados:
  2. Siempre que sea posible, utiliza cláusulas WHERE para limitar los resultados.
  3. Consulta solo los datos que realmente necesitas.

  4. Técnicas de Poda:

  5. Poda en Hileras: Filtrar filas que no cumplen con las condiciones.
  6. Poda Basada en Columnas: Especificar solo las columnas necesarias en la consulta.
  7. Eliminación de Particiones: Escanear solo particiones específicas que contienen datos relevantes.

Ejemplo de Poda en Hileras

Columna Descripción
ID de Cliente Identificador único del cliente
ID de Alquiler Identificador único del alquiler
Fecha de Pedido Fecha en que se realizó el pedido
País País del cliente

Consulta de Ejemplo

SELECT ID_cliente, ID_alquiler 
FROM pagos 
WHERE ID_alquiler IN (1, 2, 3);

Importancia de la Unión de Tablas

El rendimiento de las consultas también se ve afectado por la forma en que se unen los datos de diferentes tablas. En el siguiente video se abordarán los desafíos relacionados con la unión de tablas.

Conclusión

Para evitar gastos inesperados y mejorar el rendimiento de las consultas en bases de datos, es crucial leer solo los datos necesarios y aplicar técnicas de poda adecuadas.


Resumen sobre el Uso de Uniones en Conjuntos de Datos

Descripción

Las uniones son una técnica fundamental en la combinación de conjuntos de datos, permitiendo la transformación y creación de nuevos conjuntos dentro de una canalización de datos. Este documento resume los conceptos clave sobre el uso de uniones, su funcionamiento, y los métodos comunes para implementarlas.

Conceptos Clave

Ejemplo de Tablas

Tabla de Pedidos Tabla de Clientes
ID_Pedido ID_Cliente
ID_Cliente Nombre
Fecha Dirección
Monto

Proceso de Unión

Para combinar las tablas de pedidos y clientes, se utiliza una instrucción SQL JOIN que une las filas basándose en el ID_Cliente.

SELECT *
FROM Pedidos
JOIN Clientes ON Pedidos.ID_Cliente = Clientes.ID_Cliente;

Métodos Comunes para Implementar Uniones

  1. Unión de Bucles Anidados:
  2. Funciona como un bucle for anidado.
  3. Escanea cada fila de la tabla de pedidos y busca coincidencias en la tabla de clientes.

  4. Bucle Anidado Basado en Índices:

  5. Utiliza un índice para optimizar la búsqueda.
  6. Permite localizar filas coincidentes más rápidamente.

  7. Método Hash Join:

  8. Asigna filas a grupos (buckets) basándose en el valor del atributo de unión.
  9. Escanea primero la tabla más pequeña y luego combina los datos de ambas tablas en los grupos.

Desafíos en el Uso de Uniones

Ejemplo de Explosión de Filas

ID_Pago ID_Cliente ID_Pedido
1 1 1
1 1 2
1 1 3
2 1 1
2 1 2
2 1 3

Estrategias para Evitar Problemas

Conclusión

Comprender cómo funcionan las uniones y los métodos para implementarlas es crucial para diseñar consultas eficientes y modelar datos de manera efectiva para los usuarios finales. En el próximo curso, se explorarán más detalles sobre el modelado de datos y sus implicaciones.


Resumen del Curso: Sistemas para Cargas de Trabajo Analíticas

Descripción

Este documento resume los conceptos clave sobre la creación de sistemas para cargas de trabajo analíticas, centrándose en la agregación de grandes conjuntos de datos y la eficiencia de las consultas en bases de datos orientadas a filas y columnas.

Conceptos Clave

Consultas Agregadas

Las consultas agregadas permiten calcular valores de resumen de una columna, tales como: - Suma - Promedio - Máximo - Mínimo - Recuento

Ejemplo de Consulta Agregada:

SELECT MIN(precio) FROM pedidos;

Métodos de Cálculo

  1. Escaneo Completo de Tabla:
  2. Se escanean todas las filas para encontrar el valor mínimo.

  3. Uso de Índices:

  4. Se puede utilizar un índice (por ejemplo, un índice de árbol B) para acelerar la consulta.
  5. El optimizador de consultas puede recorrer el árbol para encontrar el nodo de hoja más a la izquierda y obtener el precio mínimo.

Agrupación de Resultados

Ejemplo de Agrupación:

SELECT MIN(precio) FROM pedidos GROUP BY país;

Almacenamiento en Filas vs. Almacenamiento en Columnas

Comparación de Rendimiento

En el próximo laboratorio, se comparará el rendimiento de las consultas entre: - Base de Datos Orientada a Filas: Amazon RDS - Base de Datos Orientada a Columnas: Amazon Redshift

Objetivo del Laboratorio

Conclusión

El almacenamiento en columnas ofrece ventajas significativas para consultas analíticas, especialmente con grandes conjuntos de datos. En el siguiente video, se explorarán más detalles sobre Amazon Redshift y se dará un recorrido por el laboratorio.


Este documento proporciona una visión general de los conceptos discutidos en el curso sobre sistemas para cargas de trabajo analíticas, destacando la importancia de las consultas agregadas y la eficiencia del almacenamiento en columnas.


Resumen del Curso: Sistemas para Cargas de Trabajo Analíticas

Descripción

Este documento resume los conceptos clave sobre la creación de sistemas para cargas de trabajo analíticas, centrándose en la agregación de grandes conjuntos de datos y la eficiencia de las consultas en bases de datos orientadas a filas y columnas.

Conceptos Clave

Consultas Agregadas

Las consultas agregadas permiten calcular valores de resumen de una columna, tales como: - Suma - Promedio - Máximo - Mínimo - Recuento

Ejemplo de Consulta Agregada:

SELECT MIN(precio) FROM pedidos;

Métodos de Cálculo

  1. Escaneo Completo de Tabla:
  2. Se escanean todas las filas para encontrar el valor mínimo.

  3. Uso de Índices:

  4. Se puede utilizar un índice (por ejemplo, un índice de árbol B) para acelerar la consulta, accediendo directamente al nodo de hoja más a la izquierda.

Agrupación de Resultados

Ejemplo de Agrupación:

SELECT MIN(precio) FROM pedidos GROUP BY país;

Almacenamiento de Datos

Comparación de Rendimiento

En el próximo laboratorio, se comparará el rendimiento de las consultas entre: - Base de Datos Orientada a Filas (Amazon RDS) - Almacenamiento en Columnas (Amazon Redshift)

Objetivos del Laboratorio

Conclusión

El almacenamiento en columnas ofrece ventajas significativas para consultas analíticas, especialmente con grandes conjuntos de datos. En el siguiente video, se explorarán más detalles sobre Amazon Redshift y se proporcionará un recorrido por el laboratorio.


Optimización de Consultas en Amazon Redshift

Descripción

Este documento resume los conceptos clave sobre la optimización del rendimiento de las consultas en Amazon Redshift, centrándose en factores arquitectónicos, estrategias de diseño de tablas y consideraciones para mejorar la eficiencia en el almacenamiento de datos.

Contenido

1. Arquitectura de Amazon Redshift

Amazon Redshift es una solución de almacenamiento de datos altamente eficiente que utiliza varias funciones arquitectónicas internas:

2. Procesamiento de Consultas

Cuando se envía una consulta a Redshift:

  1. El nodo líder analiza la consulta y genera un plan de ejecución.
  2. Distribuye el trabajo a los nodos de procesamiento.
  3. Cada segmento de un nodo procesa su parte de los datos en paralelo.
  4. Los resultados se envían de vuelta al nodo líder para ser agregados.

3. Diseño de Tablas

Para optimizar el rendimiento de las consultas, es crucial considerar el diseño de las tablas. Dos aspectos importantes son:

3.1 Estilos de Distribución

Existen varios estilos de distribución que se pueden elegir al crear una tabla:

Estilo de Distribución Descripción
Automático Redshift elige el estilo óptimo.
Clave Distribuye filas basadas en una columna específica.
Uniforme Distribuye filas de manera uniforme entre nodos.
Todos Copia completa de la tabla en cada nodo.

3.2 Clave de Clasificación

La clave de clasificación afecta el rendimiento de las consultas al determinar cómo se organizan los datos en el disco. Elegir una clave adecuada puede:

Ejemplo: Si se consulta frecuentemente por fecha de pedido, establecer la fecha como clave de clasificación optimiza el acceso a esos datos.

4. Consideraciones Finales

Para maximizar el rendimiento de las consultas en Amazon Redshift, es fundamental:

5. Próximos Pasos

En el próximo laboratorio, se comparará el rendimiento entre bases de datos de fila y columna, proporcionando una comprensión más profunda de las ventajas de cada enfoque.


Este documento proporciona una visión general de cómo optimizar consultas en Amazon Redshift, destacando la importancia de la arquitectura, el diseño de tablas y las estrategias de distribución y clasificación.


Comparación de Rendimiento entre Bases de Datos Basadas en Filas y Columnas

Descripción

En este laboratorio, se explorarán las diferencias de rendimiento entre bases de datos basadas en filas y en columnas a través de la ejecución de consultas analíticas, así como la actualización y eliminación de datos en ambos tipos de almacenamiento. Se compararán los tiempos de ejecución de estas operaciones para evaluar el rendimiento de cada tipo de base de datos.

Conjuntos de Datos

Los datos utilizados en este laboratorio provienen de un conjunto de evaluación comparativa que se basa en un diagrama de relaciones entre entidades. Este conjunto de datos incluye información sobre:

Los datos se almacenan en dos tipos de bases de datos: - PostgreSQL: Base de datos basada en filas. - Redshift: Almacén de datos basado en columnas.

Consultas Analíticas

Se ejecutarán cinco consultas analíticas, conocidas como el punto de referencia TPCH, que simulan escenarios básicos para examinar un conjunto de datos grande y responder a preguntas empresariales. El objetivo es evaluar el rendimiento de varios sistemas de bases de datos en la ejecución de consultas complejas.

Experimentos a Realizar

  1. Generación de Datos: Crear 50 filas con entradas aleatorias y escribirlas en una tabla de líneas de artículos.
  2. Comparación de Tiempos de Ejecución:
  3. Medir el tiempo de ejecución para insertar las filas en ambas bases de datos.
  4. Eliminar las filas de ambas bases de datos y comparar los tiempos de ejecución de esta operación.

Resultados de Ejecución

Los resultados de las consultas analíticas en ambas bases de datos son los siguientes:

Tipo de Base de Datos Tiempo de Ejecución (Consultas Analíticas) Tiempo de Ejecución (Escritura/Eliminación)
PostgreSQL (Filas) Minutos Rápido
Redshift (Columnas) Milisegundos a Segundos Más Lento

Observaciones

Conclusiones

Este laboratorio demuestra que, aunque las bases de datos basadas en columnas son más eficientes para consultas analíticas, las bases de datos basadas en filas son más rápidas para operaciones de escritura y eliminación. Se recomienda realizar pruebas adicionales para obtener un promedio de los resultados y validar las observaciones.

Próximos Pasos

Se invita a los participantes a ejecutar los experimentos en las bases de datos PostgreSQL y Redshift. En el siguiente video, se explorarán más estrategias para trabajar con consultas complejas.


Optimización de Consultas en Bases de Datos

Descripción

Este documento resume las estrategias y técnicas para mejorar el rendimiento de las consultas en bases de datos, centrándose en el uso de almacenamiento en caché, expresiones de tablas comunes (CTE) y el proceso de aspiración para mantener la eficiencia en el manejo de datos.

Contenido

1. Procesamiento de Consultas

2. Ejemplo Práctico: Cálculo de Gastos en Películas

Supongamos que trabajamos con una base de datos de alquiler de DVD y queremos calcular el total gastado en tres categorías de películas: familia, drama y comedia.

Pasos para la Consulta

  1. Seleccionar la suma de los importes de pago de la tabla de pagos.
  2. Unir tablas:
  3. Tabla de pagos con tabla de alquileres (basado en rental_id).
  4. Resultados con tabla de inventario (basado en inventory_id).
  5. Unir con tabla de películas (basado en film_id).
  6. Unir con tabla de categorías de películas (basado en film_id).
  7. Finalmente, unir con tabla de categorías (basado en category_id).
  8. Filtrar resultados para incluir solo las categorías de interés.
  9. Agrupar resultados por nombre de categoría para calcular el gasto total.
  10. Ordenar resultados por importe de menor a mayor.

3. Almacenamiento en Caché

4. Legibilidad de Consultas

Ejemplo de CTE

Para obtener los nombres de los actores de la película "Rocky War": 1. Crear un CTE llamado selected_film para seleccionar el film_id. 2. Crear otro CTE llamado film_actors_id para seleccionar los actor_ids. 3. Escribir una consulta principal para seleccionar los nombres y apellidos de los actores.

5. Optimización de Recursos del DBMS

6. Proceso de Aspiración

Beneficios de la Aspiración

Conclusión

Con estas estrategias, se puede optimizar el rendimiento de las consultas en bases de datos, asegurando un manejo eficiente de los datos y mejorando la experiencia del usuario. En la próxima lección, se abordará cómo consultar y transmitir datos.


Resumen del Curso sobre Procesamiento de Datos de Streaming

Descripción

En este curso, se exploran las técnicas y patrones necesarios para consultar y procesar datos de streaming en tiempo real. Se discuten diferentes tipos de ventanas para agregar y unir datos, así como el uso de sistemas de procesamiento como Apache Flink y Spark Streaming.

Contenido

1. Introducción al Procesamiento de Datos de Streaming

2. Sistemas de Procesamiento de Streaming

3. Tipos de Ventanas en el Procesamiento de Streaming

Las ventanas permiten agrupar y procesar datos en intervalos de tiempo específicos. Existen tres tipos comunes:

Tipo de Ventana Descripción
Ventanas de Sesión Agrupan eventos que ocurren en momentos similares, filtrando períodos de inactividad.
Ventanas de Tiempo Fijo Ventanas de tamaño fijo que procesan datos en intervalos regulares (ej. cada 20 segundos).
Ventanas Deslizantes Ventanas de duración fija que pueden superponerse, útiles para cálculos como medias móviles.

3.1 Ventanas de Sesión

3.2 Ventanas de Tiempo Fijo

3.3 Ventanas Deslizantes

4. Unión de Flujos de Datos

5. Enriquecimiento de Eventos

6. Aplicación Práctica

Conclusión

El procesamiento de datos de streaming es esencial para manejar la creciente cantidad de datos en tiempo real. Con el uso de ventanas y uniones, se pueden realizar análisis significativos y enriquecer los datos para obtener información valiosa.

Próximos Pasos


Introducción a Apache Flink en AWS

En este documento se presenta un resumen sobre el uso de Apache Flink en Amazon Web Services (AWS), incluyendo las opciones de implementación y una demostración de cómo configurar el servicio gestionado de Amazon para Apache Flink.

Descripción

Apache Flink es una herramienta poderosa para el procesamiento de datos en streaming. En el contexto de AWS, existen varias maneras de implementar Flink, desde opciones de "hágalo usted mismo" hasta servicios gestionados que simplifican la infraestructura y la administración.

Opciones de Implementación de Apache Flink en AWS

Opción de Implementación Descripción
Amazon EMR Ejecuta Flink como una aplicación YARN.
Amazon Elastic Kubernetes Service (EKS) Hospeda Flink en un entorno contenerizado.
Amazon Elastic Container Service (ECS) Otra opción para ejecutar Flink en contenedores.
Servicio gestionado de Amazon para Apache Flink Proporciona un entorno hospedado y sin servidor, gestionando la infraestructura y la escalabilidad.

Servicio Gestionado de Amazon para Apache Flink

El servicio gestionado de Amazon para Apache Flink permite a los usuarios ejecutar aplicaciones de Flink sin preocuparse por la infraestructura subyacente. Este servicio se encarga de:

Proceso de Configuración

  1. Acceso a la Consola de AWS: Ingresar a la consola de administración de AWS y buscar "Flink".
  2. Seleccionar el Servicio: Elegir "Amazon Managed Service for Apache Flink".
  3. Crear una Aplicación o Usar Studio Notebooks:
  4. Aplicación: Para producción, definiendo recursos y configuraciones.
  5. Studio Notebooks: Para desarrollo y exploración interactiva de datos.

Creación de una Aplicación de Streaming

Ejemplo de Aplicación

La aplicación de demostración envía datos de cotizaciones bursátiles a través de Kinesis, realiza transformaciones y almacena los resultados en S3. El código de la aplicación incluye:

Visualización de Resultados

En el panel de control de Apache Flink, se puede observar el flujo de datos y el procesamiento en tiempo real. Se pueden ver detalles como:

Conclusión

Apache Flink en AWS ofrece una solución robusta para el procesamiento de datos en streaming, con múltiples opciones de implementación y un servicio gestionado que simplifica la experiencia del usuario. En el próximo laboratorio, se explorará la creación de cuadernos de estudio para análisis de datos ad hoc.

Próximos Pasos

Acompáñame en el siguiente video para implementar un cuaderno de estudio con el servicio gestionado de Amazon para Apache Flink.


Resumen del Curso de Especialización en Ingeniería de Datos

Descripción

Este documento resume los aspectos clave del tercer curso de la especialización en ingeniería de datos, donde se abordaron temas relacionados con el almacenamiento de datos, sus jerarquías y técnicas avanzadas de consulta.

Contenido del Curso

Semana 1: Jerarquía de Almacenamiento

Semana 2: Evolución de las Abstracciones de Almacenamiento

Semana 3: Consultas y Procesamiento de Datos

Conclusiones

Con la finalización de tres cursos, los participantes han adquirido habilidades fundamentales para convertirse en ingenieros de datos exitosos. El curso final se centrará en el modelado y servicio de datos para análisis y aprendizaje automático.

Próximos Pasos

¡Enhorabuena por completar este curso y mucho éxito en el siguiente!