Inicio
Tras un par de años escribiendo apuntes para el curso de especialización en Inteligencia Artificial y Big Data (IABD) impartido en el IES Severo Ochoa de Elche, he decidido agrupar todos los materiales en un único lugar que sirva como repositorio central de todo el contenido generado.
En vez de agrupar los bloques dentro de módulos profesionales, en el centro hemos definido diferentes unidades de trabajo repartidas a lo largo del curso, las cuales he organizado en los bloques que puedes consultar tanto con el menú de la izquierda o en el apartado de Materiales que encontrarás más abajo.
También puedes consultar el material de los otros años (curso 21/22 y curso 22/23), así como el curriculum del curso de especialización que viene fijado por el Real Decreto 279/2021.
En cambio, si estás interesado en la organización del curso, te recomiendo consultar la planificación 24/25 (o la del pasado 23/24).
Últimas entradas del blog
- 17/11/24 De cero a cien
- 01/10/24 Y vuelta a empezar
- 01/09/24 Pilas cargadas
Finalmente, si quieres saber cómo voy actualizando los apuntes y en qué centro mis esfuerzos, te recomiendo que le eches un vistazo al Blog. Con una periodicidad mensual, intento resumir a qué le dedico el tiempo, cómo planifico y organizo las clases, así como en qué materiales estoy trabajando. Además, siempre aderezado con un poquito de frikismo de ocio digital.
Materiales¶
Los diferentes bloques que trabajamos en el aula y los recursos empleados son:
-
Sistemas de almacenamiento NoSQL
Centrado en mostrar un enfoque de almacenamiento de datos mediante soluciones NoSQL, en concreto mediante la base de datos documental MongoDB:
-
Soluciones cloud
El almacenamiento de datos ha pasado de propuestas on-premise a despliegues en la nube, por lo que debemos conocer en qué consiste la nube y los servicios relacionados con el dato que ofrece un proveedor cloud como AWS:
-
Ingeniería de Datos
Repasamos los conceptos básicos asociados al Big Data y la ingeniería de datos:
-
Ecosistema Hadoop
Se puede decir que el concepto de Big Data nació de la mano del ecosistema Hadoop y sus herramientas más utilizadas:
-
Ecosistema Spark
Spark es, posiblemente, la herramienta más empleada para el procesamiento de datos en Big Data, ya sea mediante procesos batch o streaming:
-
Transferencia de conocimiento
En la gran mayoría de ocasiones no vamos a necesitar un modelo de IA desde cero y podemos re-entrenar a partir de modelos previos, siendo Hugging Face la plataforma líder:
- Aprovechando el conocimiento
- Hugging Face
- Gradio
- Librería Datasets
- Tratamiento de audio
- Audio en Hugging Face
- Tratamiento de imágenes
-
Flujos de datos
El procesamiento y orquestación de flujos de datos y la ingesta en streaming terminan de cerrar el círculo: