Este código permite realizar la ejecución de un DAG de Airflow llamado obtener_datos_dag
.
- Extrae datos de la API de TMDB.
- Guarda esos datos en una Base de Datos de Airflow (simulando un Data Warehouse).
Para poder correr el DAG, sera necesario crear un archivo .env en la carpeta raíz del proyecto con la siguiente estructura:
API_KEY=mi_key_tmdb
DB_HOST=mi_host_redshift
DB_NAME=mi_db_redshift
DB_USER=mi_schema_redshift
DB_PASS=mi_pass_redshift
DB_PORT=mi_nro_puerto
-
docker-compose -f docker-compose.yaml build
-
docker-compose -f docker-compose.yaml up
- Entrar a localhost:8080 en el navegador que quiera.
- Introduce como usuario y contraseña:
airflow
. - Una vez dentro, ejecute el DAG.
- Cuando el DAG queda en color verde oscuro indica que fue ejecutado satisfactoriamente, puede corrobar esto ingresando a Redshift y validando que dentro del esquema correspondiente, en la tabla fact_table esten los nuevos registros.
- Finalmente, cuando haya terminado, podrá liberar los recursos utilizados mediante el siguiente comando:
docker-compose -f docker-compose.yaml down