SMACL Assurances initie une démarche de qualité de ses données

Pour être en conformité avec la contrainte réglementaire Solvabilité II pour le secteur de l’assurance, SMACL Assurances instaure une démarche qualité pour une traçabilité de ses données. Le témoignage de Philippe Guiraud, responsable du domaine fonctionnel décisionnel de SMACL Assurances.

« La nouvelle directive Solvabilité II est un projet de réforme européenne s’appliquant aux organismes d’assurance et dont l’objectif est d’encourager ces derniers à mieux connaître et évaluer leurs risques, notamment en adaptant les exigences réglementaires aux risques que les entreprises encourent dans leurs activités. Solvabilité II contrôle la qualité des données selon des critères d’exactitude, d’exhaustivité et de pertinence, mais s’intéresse également aux processus de l’entreprise », rapporte Philippe Guiraud, responsable du domaine fonctionnel décisionnel de SMACL Assurances, spécialisée dans les collectivités territoriales (600 personnes).

Et c’est l’ACPR (Autorité de contrôle prudentiel et de résolution), chargée de l’agrément et du contrôle des organismes d’assurance, qui collecte, contrôle les reportings réglementaires remis par les assureurs et juge si l’analyse effectuée est bien fidèle à la réalité. « Il est essentiel pour tout assureur d’être capable de fournir des informations fiables et vérifiables, précise Philippe Guiraud, c’est pourquoi nous avons décidé de mettre en œuvre une démarche d’optimisation de la qualité de données. »

La direction de SMACL Assurances décide de lancer un projet de politique de qualité des données, allant plus loin que la simple conformité à la réglementation, en « impulsant une dynamique positive : mieux gérer la qualité des données va en effet améliorer la qualité de service et le pilotage de l’entreprise », souligne Philippe Guiraud. Impliquant à la fois la direction générale, les fournisseurs de données, les responsables de la réglementation, les consommateurs de données et l’informatique, le projet est piloté par Philippe Guiraud. « Le domaine dédié au décisionnel était déjà fortement sensibilisé aux problèmes de non-qualité des données avec l’entrepôt de données », précise-t-il. De plus, en 2011, son équipe avait généré en interne des tableaux de bord pour le compte de la branche service assurance risques statutaires.

Un focus sur la traçabilité des données

Ces tableaux de bord décisionnels permettaient de mettre en évidence les anomalies détectées ; l’utilisateur pouvant alors lui-même les modifier. Ce processus de contrôle interne est une réussite et conforte les dirigeants dans leur choix. « Plutôt que de mettre en place des règles de correction dans l’ETL permettant juste d’afficher des données rectifiées dans le décisionnel, il est plus intéressant de générer la liste des anomalies ayant conduit à la non-qualité et de les corriger dans l’application métier pour que la correction bénéficie à tous », explique Philippe Guiraud.
Reste à évaluer les solutions technologiques. Commence alors, en juin 2012, la rédaction du cahier des charges qui nécessitera quatre mois. « Les points majeurs de notre consultation étaient la traçabilité, la restitution et la mise en évidence des anomalies, complète Philippe Guiraud, même si le prix de la solution allait également peser sur le choix final. »

Pour l’aider aussi dans la sélection de l’outil, le responsable décisionnel constitue, en amont du projet, une équipe mixte métier et informatique composée de trois référents métiers qui représentent les directions des départements de gestion des contrats, de gestion des sinistres et de la comptabilité/finance et de deux personnes de l’informatique. « Le choix des référents métier était primordial. Dans notre cas, il s’agissait d’utilisateurs manipulant quotidiennement des données, et donc forcément plus réceptifs aux problèmes de qualité », commente Philippe Guiraud.

S’ajoute également une sixième personne, du département contrôle de gestion, qui joue, pour sa part, le rôle de prescripteur de règles de contrôle. Après soumission et validation par le directoire, Philippe Guiraud envoie le cahier des charges à quatre candidats potentiels. Après analyse de ces offres, Information Builders est retenu en décembre avec la solution iWay Data Quality Center. Cet éditeur est déjà présent chez SMACL Assurances avec iWay DataMigrator et la solution de reporting WebFOCUS.

Créer des flux de contrôle type

Dès janvier 2013, Information Builders et SMACL Assurances définissent les caractéristiques et les règles d’évaluation et de contrôle de la qualité des données. Cette première étape, qui aura nécessité une semaine, permet d’identifier les différentes typologies de contrôle (donnée non renseignée, abréviation erronée, types de champs). « C’est une étape importante », selon Philippe Guiraud qui, à ce jour, dénombre quatorze typologies de contrôle. Puis de mars à juin, l’équipe se lance dans l’écriture d’un traitement standard. « Notre objectif était d’intégrer un maximum d’informations paramétrées pour créer un flux de contrôle type, ce qui nous fera gagner du temps en nous focalisant uniquement sur le développement de la règle de contrôle », indique Philippe Guiraud. Ce traitement a d’ailleurs permis de réduire de moitié le temps de ce type de développement. « Certes, cinquante jours auront été nécessaires pour réaliser ce développement, mais nous considérons cet investissement rentable », poursuit Philippe Guiraud.

Les dernières phases de test de la solution ont été menées fin 2013 et se sont opérées en collaboration avec les référents et la DSI. « Le processus est en place, mais l’aspect organisationnel reste à développer par les référents eux-mêmes, et ce dans chacun de leurs domaines d’expertise », explique Philippe Guiraud. A charge pour eux de définir et de surveiller les mesures et indicateurs de qualité des données de leur domaine, et de coordonner les plans d’actions d’amélioration de la qualité. Car, même si un certain nombre de règles de contrôle sont intégrées, Philippe Guiraud constate, à l’usage, que celles-ci doivent être affinées afin de mieux répondre à la réalité. Le responsable décisionnel choisit ensuite de réaliser des tests via un outil de profilage, lui permettant de faire des précontrôles et ainsi de réduire cette phase.

« Ce même outil de profilage est également utilisé pour réaliser une analyse à priori du niveau de qualité général des données. Nous constatons aujourd’hui que la définition des règles de contrôle est une étape un peu plus longue que ce que nous avions imaginé, observe Philippe Guiraud, chaque département devra intégrer cette nouvelle dimension de contrôle et de correction au sein de son organisation. »

Aujourd’hui, SMACL Assurances reste concentrée sur la qualité des données. « C’est un programme permanent », explique Philippe Guiraud. L’assureur poursuit en parallèle d’autres projets autour du décisionnel, dont notamment le contrôle de gestion et le suivi des contrats et des appels d’offres.


Les bonnes pratiques de SMACL Assurances

  • Définir clairement les objectifs de qualité des données afin de répondre aux besoins des utilisateurs.
  • S’assurer de l’adhésion de la direction générale.
  • Choisir judicieusement les référents métier.
  • Impliquer les utilisateurs en amont du projet et tout au long du processus.
  • Définir précisément les règles et les rôles de chaque partie prenante.
  • Choisir une solution qui s’adapte à l’organisation.
  • Prendre le temps de communiquer régulièrement avec les utilisateurs.
  • Prendre conscience qu’il s’agit davantage d’un projet organisationnel que technologique.

Les neuf dimensions de la qualité des données

  1. Précision : les données représentent-elles correctement l’entité ou les événements qu’elles mesurent ?
  2. Disponibilité : les données sont-elles accessibles en permanence ?
  3. Exhaustivité : les données comprennent-elles tous les éléments d’information représentant l’entité ou un événement ?
  4. Conformité : les données suivent-elles les normes en vigueur ?
  5. Cohérence : les données ne contiennent-elles pas de contradictions ?
  6. Crédibilité : les données sont-elles basées sur des sources dignes de confiance ?
  7. Exploitation : les données sont-elles lisibles automatiquement ?
  8. Pertinence : les données comprennent-elles une quantité suffisante d’information ?
  9. Ponctualité : les données sont-elles représentatives de la situation actuelle et sont-elles publiées assez vite ?

Source : Pwc, Open data support.


Solvabilité II : les trois critères de mesure de la qualité des données

  • L’exactitude : la donnée est fiable, enregistrée de façon adéquate et cohérente dans le temps.
  • L’exhaustivité : la donnée est historisée, avec une disponibilité et une granularité suffisante pour comprendre les risques.
  • La pertinence : les données reflètent les facteurs de risques et sont adaptées à leur utilisation (évaluation des provisions, détermination des hypothèses de risque…).