Rapports de test
Les rapports de test renseignent sur la couverture et l'exécution des tests sur ce projet. Pour l'instant, tous les tests de ce projet sont automatisés. À ce stade du prototypage de l'application, j'ai estimé que les tests manuels ne justifient pas l'effort de documentation.
🗃️ Rapport de couverture
Taux global de couverture des tests :
Ce taux global inclut les cas de test documentés pour les fonctionnalités de l'application et pour la gouvernance de la documentation : 59 tests actifs sur 79 définis = 75 %.
À titre de repère, la couverture du code applicatif seul est de 67.31 % (code_source_simule/*).
Cliquez sur les liens pour voir le niveau de couverture de chaque fonctionnalité majeure.
| Fonctionnalité | Rapport | Notes |
|---|---|---|
| Authentification | Voir la couverture | ✅ Cas de test login + contrôle d’accès |
| Tableau de bord de l'application | Voir la couverture | ✅ Cas de test UI / actualisation de données |
| Démo | Voir la couverture | ✅ Scénarios de démonstration + CTA principaux couverts |
| Pipeline | Voir la couverture | ✅ Flux d’import / traitement de données |
| Détail d’un titre | Voir la couverture | ✅ Couverture des détails du titre |
| Documentation | Voir la couverture | ✅ Configuration, gouvernance et navigation de la documentation |
▶️ Rapport d’exécution
La validation d'exécution combine Pytest (logique backend/applicative) et Playwright E2E (parcours utilisateurs critiques).
Les artefacts ci-dessous sont générés via pytest et stockés à côté du code.
Dernier instantané d'exécution validé : 134 réussis, 3 avertissements.
Taux d'exécution réussi : 100 % (134/134 tests réussis).