Exemple dans ce projet — cadrage
Au début, le tableau de bord projet sert surtout à comparer les cas d’usage, à vérifier l’alignement sponsor et à détecter les dépendances critiques avant de mobiliser trop d’équipes.
Cockpit de pilotage : KPI, dashboards, strike zone, signaux de réaction et supervision sécurité continue.
Le portail reprend les KPI existants, y ajoute une logique renforcée sur le reporting, la valeur acquise, les buffers, la strike zone et la visualisation des tendances. La page sert de cockpit central de pilotage.
Ces graphes réinterprètent des concepts centraux de pilotage : heatmap de risques, zone de tir projet et lecture graphique des signaux sous tension. Ils rendent immédiatement visibles les tensions avant que le retard ou le surcoût ne deviennent irréversibles.
Cette visualisation relie Planned Value, Earned Value et Actual Cost pour préparer l’arbitrage sponsor sans attendre la dérive finale.
| Phase | KPI | Cible |
|---|---|---|
| Découverte | Couverture des cas d’usage priorisés | >= 80% de la liste critique |
| Synthèse | Décisions ADRArchitecture Decision Record · trace de décision d’architecture validées | 100% des décisions critiques tracées |
| Ontologie | Couverture des concepts métier | >= 90% des concepts critiques |
| JSON-LD | Conformité du schéma / contexte | >= 98% |
| Concept | Score utilité métier (UATUser Acceptance Testing · validation utilisateur métier) | >= 4 / 5 |
| Production | Disponibilité du service | >= 99.5% |
| Maintenance | MTTRMean Time To Resolve · temps moyen de résolution incident prioritaire | <= 60 min |
| Validation | Taux de régression détectée avant production | >= 95% |
| KPI | Définition | Cible |
|---|---|---|
| SLOService Level Objective · objectif de niveau de service latence p95 | Temps de réponse p95 du service | <= 3 s |
| Taux d’erreurs | Pourcentage de réponses en échec | < 1% |
| MTTRMean Time To Resolve · temps moyen de résolution | Temps moyen de remédiation | <= 60 min |
| Taux d’échec des changements | Mises en production causant incident | < 15% |
| Dérive données / modèles | Variation de distribution ou de performance | Alerte active + revue hebdo |
| KPI | Définition | Cible |
|---|---|---|
| WAUWeekly Active Users · utilisateurs actifs hebdomadaires / MAUMonthly Active Users · utilisateurs actifs mensuels | Utilisateurs actifs hebdo / mensuel | > 0.45 |
| Rétention J+30 | Utilisateurs restant actifs à J+30 | >= 60% |
| Task success rate | Tâches complétées sans aide | >= 75% |
| CSATCustomer Satisfaction Score · score de satisfaction utilisateur | Satisfaction utilisateur | >= 4 / 5 |
| Escalade support | Tendance des tickets escaladés | Tendance baissière |
| KPI | Définition | Cible |
|---|---|---|
| Coût / requête | Infra + modèle par requête utile | Conforme au budget cible |
| Coût / utilisateur actif | Coût mensuel rapporté à l’usage | Tendance stable |
| Taux de cache hit | Part des requêtes servies par cache | > 35% |
| Utilisation GPUGraphics Processing Unit · unité de calcul graphique | Occupation utile | 55% à 80% |
| Waste ratio | Ressources payées non utilisées | < 20% |
| KPI | Définition | Cible |
|---|---|---|
| MTTDMean Time To Detect · temps moyen de détection sécurité | Temps moyen de détection incident | <= 15 min (P1) |
| MTTRMean Time To Resolve · temps moyen de résolution sécurité | Temps moyen de remédiation critique | <= 60 min (P1) |
| Taux conformité durcissement | Nœuds conformes à la référence | >= 95% |
| Couverture logs SIEMSecurity Information and Event Management · plateforme centralisée de journaux et d’alertes | Sources critiques connectées | 100% |
| Coût sécurité / requête | Part du coût sécurité par transaction utile | Tendance stable ou optimisée |
| Cockpit | Cadence | Mesures | Usage décisionnel |
|---|---|---|---|
| Project Dashboard (tableau de bord projet) | Hebdomadaire | Statut global, top risques, coût, délai, adoption | Vision synthétique pour PM, sponsor et direction |
| Risk Dashboard (tableau de bord risque) | Hebdomadaire | Exposition, tendance, nouveaux / clos, top 10 risques | Détecter l’accélération du risque |
| Budget Consumption + EVAEarned Value Analysis · analyse de la valeur acquise | Hebdo / mensuel | PV, EV, AC, CPICost Performance Index · indice de performance coût, SPISchedule Performance Index · indice de performance délai, burn rate, reste à faire | Relier dépenses, avancement et prévision |
| Project Strike Zone (zone de tir projet) | Mensuel + jalon | Bénéfices, coût, délai, qualité, adoption | Stopper ou replanifier avant la casse |
| Summary Status Report (rapport de statut) | Hebdomadaire | Faits saillants, décisions, écarts, actions | Communication stable et courte |
Les cockpits ne servent pas tous à la même chose. Ensemble, ils forment une chaîne : lire la santé globale, isoler le risque, relier dépenses et valeur, vérifier les seuils d’arrêt, puis produire un message stable et court.
Au début, le tableau de bord projet sert surtout à comparer les cas d’usage, à vérifier l’alignement sponsor et à détecter les dépendances critiques avant de mobiliser trop d’équipes.
Au moment du prototype, le cockpit risque et les indicateurs d’évaluation prennent plus de poids : on surveille la qualité des sources, la traçabilité des réponses et les risques d’acceptation métier.
Au lancement, le cockpit coût / valeur, la strike zone et le rapport de statut servent à arbitrer vite : hypercare, capacité, adoption, incidents, sécurité et soutenabilité.
Ce tableau sert à concevoir les cockpits comme de vrais outils de travail : owner, sources, question de décision, sortie et exemple d’usage dans ce projet.
| Cockpit | Owner | Entrées majeures | Question de décision | Sortie attendue | Exemple dans ce projet |
|---|---|---|---|---|---|
| Project Dashboard (tableau de bord projet) | PM / sponsor | KPI consolidés, top risques, décisions, points de dérive | Le projet reste-t-il pilotable cette semaine ? | Statut global, points rouges, arbitrages attendus | Exemple : décider de renforcer la préparation run sans attendre la revue mensuelle. |
| Risk Dashboard (tableau de bord risque) | PM + sécurité + owner risque | Registre des risques, tendances, nouveaux / clos, risque critique | Quels risques accélèrent vraiment ? | Top risques, tendance, propriétaires, date de réponse | Exemple : faire remonter immédiatement un risque ACL en hausse avant la mise en service. |
| Budget Consumption + EVAEarned Value Analysis · analyse de la valeur acquise | PM + finance | PV, EV, AC, burn rate, reste à faire, buffers | La valeur produite suit-elle les dépenses engagées ? | Lecture coût / valeur / délai et décision de replanification | Exemple : geler un lot secondaire pour absorber une dérive sécurité sur le lot principal. |
| Project Strike Zone (zone de tir projet) | Sponsor / direction | Seuils coût, délai, qualité, adoption, sécurité | Faut-il stopper, descoper ou renforcer ? | Décision stop / go / replan / renfort | Exemple : déclencher un arbitrage sponsor si le coût par requête dépasse durablement le seuil fixé. |
| Summary Status Report (rapport de statut) | PM / PMO | Faits saillants, décisions, écarts, actions, points ouverts | Quel message court et stable doit être partagé ? | Rapport court hebdo, lisible en 3 minutes | Exemple : envoyer un statut clair à la direction sans lui imposer les détails du backlog. |
Les graphes ci-dessous servent à rendre lisibles les tensions et les rythmes. Ils doivent être lus ensemble : santé globale, risques, trajectoire budgétaire, cadence des revues, couverture des sujets et message de pilotage.
Un cockpit reste décoratif si ses sources ne sont pas préparées. Les lignes ci-dessous rendent explicite ce qu’il faut consolider avant la revue.
| Source à préparer | Cockpits concernés | Ce qu’il faut vérifier |
|---|---|---|
| Registre des risques | Risk Dashboard, Project Dashboard, Project Strike Zone | Préserver owner, tendance, exposition, date de réponse et preuve attendue |
| Planning / dépendances | Project Dashboard, Budget Consumption + EVAEarned Value Analysis · analyse de la valeur acquise | Relire les jalons sous tension et les dépendances bloquantes |
| Charges / coûts / burn rate | Budget Consumption + EVAEarned Value Analysis · analyse de la valeur acquise, Project Strike Zone | Rapprocher charge restante, coût réel, consommation buffer et prix cible |
| Adoption / usage | Project Dashboard, Project Strike Zone, Summary Status Report | Croiser usage réel, satisfaction, irritants et formation |
| Sécurité / conformité | Risk Dashboard, Project Strike Zone, Summary Status Report | Suivre incidents, CAPA, contrôles, exceptions et preuves |
| Décisions / arbitrages | Summary Status Report, Project Dashboard | Conserver qui décide, sous quel délai et avec quelle conséquence |
Chaque cockpit doit être lu avec sa cadence, son audience, son paquet de sources et sa décision typique. C’est ce tableau qui permet ensuite de fabriquer les revues, les rapports et les routines d’arbitrage.
| Cockpit | Cadence | Audience | Entrées | Décision typique |
|---|---|---|---|---|
| Project Dashboard (tableau de bord projet) | Hebdomadaire | PM, sponsor, direction | Registre risques, KPI, planning, coûts, adoption | Rouge sur coût + adoption faible = arbitrage de priorités ou renfort change |
| Risk Dashboard (tableau de bord risque) | Hebdomadaire | PM, SSI, architecte, owners risques | Registre risques, incidents, écarts sécurité, qualité corpus | Risque rouge en hausse = plan de réponse, owner, date et preuve attendue |
| Budget Consumption + EVAEarned Value Analysis · analyse de la valeur acquise | Hebdo / mensuel | PM, finance, sponsor | Charges, dépenses, avancement, valeur acquise | CPI / SPI sous seuil = analyse cause, replanification ou descoping |
| Project Strike Zone (zone de tir projet) | Mensuel + jalon | Sponsor, direction, PM | Seuils de tolérance, KPI de service, budget, adoption | Sortie de zone = stop, replan, renfort ou réduction de périmètre |
| Summary Status Report (rapport de statut) | Hebdomadaire | Direction, sponsor, PMO | Décisions, écarts, points chauds, actions | Lecture courte = message stable + décisions attendues |
| Signal | Question à poser | Réaction attendue |
|---|---|---|
| CPICost Performance Index · indice de performance coût / SPISchedule Performance Index · indice de performance délai dégradés | Le projet consomme-t-il plus qu’il ne déréférentiel ? | Analyser la cause, rebaseliner ou réduire le périmètre. |
| Buffer consommé trop vite | Le chemin critique est-il sous tension structurelle ? | Renforcer, décaler, re-séquencer ou protéger le lot critique. |
| Strike zone franchie | Le projet est-il sorti de sa zone de tolérance ? | Arbitrage sponsor immédiat : stop, replan, renfort ou descoping. |
| Adoption sous cible | Le service crée-t-il réellement de la valeur en usage ? | Relancer formation, UX, communication ou cadrage métier. |
| Coût / requête hors budget | Le modèle reste-t-il soutenable ? | Optimiser, cacher, réarchitecturer ou réviser la cible de service. |
Les cockpits doivent ensuite être traduits en documents de travail : registre d’indicateurs, rythme des revues, pack de reporting et suivi des seuils.
Page de travail avec tableaux éditables pour owners, métriques, seuils, sources et sorties de revue.
Relier les signaux de pilotage aux preuves, décideurs et critères de validation.
Conserver les codes, charges et lignes de reprise quand un indicateur déclenche une évolution de périmètre ou de coût.
Le cadrage initial insistait déjà sur la supervision continue, les critères de passage sécurité et les KPI de cybersécurité. Le portail les place dans la tour de contrôle : la sécurité n’est pas un audit annexe, c’est une dimension de santé projet et service.
| Risque | Impact | Contrôles | Évidence |
|---|---|---|---|
| Hallucinations | Décision métier erronée, perte de confiance, incident réglementaire | Seuil de confiance, refus explicite, citations source, jeu de vérité, tests de factualité | Rapport d’évaluation avec exemples critiques |
| Prompt injection | Contournement de consignes, appel outil non prévu, fuite de données | Sanitisation, allowlist outils, journalisation complète, politique d’isolement | Rapport d’attaque + remédiations |
| Jailbreak | Sortie interdite, rupture de garde-fous, atteinte réputationnelle | Campagnes red team, corpus d’attaque, blocage des patterns de contournement | Résultats offensive IA |
| Model / corpus poisoning | Sabotage de la base de connaissance, dégradation silencieuse | Contrôle de provenance, quarantaine, validation humaine pour corpus critique | Chaîne de provenance et contrôles de validation |
| Data leakage | Exfiltration, incident contractuel ou RGPD | Classification, masking, chiffrement, ACL, alertes SIEM | Matrice de classification + tests ACL |
| Isolement multi-client | Fuite inter-clients, rupture contractuelle | Séparation namespaces, stockage, index, RBAC, audit multi-tenant | Schéma de cloisonnement + preuves de test |