-
Notifications
You must be signed in to change notification settings - Fork 12
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Archivage des données AIS #199
Comments
format d'archivage moins consommateur des données brutes de SPIRE. régler la base de données pour qu'elle revienne à 20g |
@marthevienne j'ai créé le traitement d'archivage. Pour l'instant l'archivage se fait au format parquet, il faudrait prévoir un stockage en ligne (S3 ?). |
Pas de souci pour un stockage sur un S3, on peut faire ça sur clevercloud. |
Hello, @njouanin as-tu déjà des fichiers à héberger sur un S3 ? |
Si la PR #303 est intégrée je pense qu'il faudrait réfléchi à comment intégrer tout ou partie des données de task execution au mécanisme d'archivage |
La création des vessel_positions est trop permissive actuellement (plusieurs messages AIS pour un même timestamp, transfert de MMSI) : malheureusement, il n'y a pas suffisamment d'informations dans la table vessel_positions il va falloir repartir des données spire_ais_data pour recréer les positions. => On devrait mettre en place un système de restauration des données Spire archivées. |
Résumé :
Actuellement, les données AIS récupérées par l'API SPIRE sont stockées dans la table
spire_ais_data
toutes les 15 minutes. Ces données sont ensuite consommées par les traitements de l'ETL, mais ne sont jamais supprimées.La table
spire_ais_data
a donc vocation à grossir jusqu'à l'infini et l'au-delà ...Il faudrait donc créer un traitement d'export des données (par exemple toutes les semaines) pour extraire les données anciennes dans un fichier et purger la table. Le fichier généré pourrait ensuite être envoyé vers un stockage en ligne.
BONUS: créer un traitement permettant de ré-importer un fichier archivé.
The text was updated successfully, but these errors were encountered: