Articles

Le Moteur de Recherche, première étape de la Gouvernance de l’Information d’Entreprise

La gouvernance de l’information est un objectif ambitieux qui conduit à repenser les pratiques, l’organisation, les responsabilités et les outils logiciels. C’est un processus long mais nécessaire pour s’assurer une utilisation optimale et sans – ou en limitant au mieux – les risques.

Qu’est-ce-que le contenu ROT et que devons-nous en faire ?

Tout le monde a déjà entendu parler du contenu “ROT” (ROT contents), c’est-à-dire le contenu redondant, obsolète ou inutile (en anglais « ROT », Redundant, Obsolete, Trivial) soit du contenu sans réel intérêt stratégique. Vous avez peut-être déjà entendu dire que ce dernier devait être identifié et assaini. Mais qu’est-ce au juste que le contenu ROT et pourquoi faut-il s’en soucier ? Comment le débusquer et qu’en faire ensuite ? 

Le ROT est du contenu superflu associé à l’infrastructure (partages de fichiers, SharePoint, etc.). Il s’agit de contenu inutile et qui peut être supprimé, mais de manière justifiée légalement. Voir aussi la définition de l’AIIM (Association for Information and Image Management) ici (http://community.aiim.org/blogs/kevin-parker/2016/05/05/defining-information-rot).

Qu’est-ce qui est ROT et qu’est-ce qui ne l’est pas ?

La définition de ce qui est et n’est pas du contenu ROT peut varier selon l’entreprise, mais pour faire court, ce contenu peut être défini comme suit :

  • Tout contenu réactif à un litige ou un processus d’e-discovery « Legal eDiscovery » (ESI) n’est pas du contenu ROT (par définition)
  • Parmi ce qu’il reste, le ROT est le contenu inutile pour l’activité de l’entreprise et pour le respect de la conformité, le contenu qui n’a pas été consulté depuis longtemps ou encore qui est un doublon exact ou presque, etc.

Souvent, l’entreprise sous-estime le volume de ROT qu’elle stocke. Certaines entreprises figurant dans le classement Fortune des 500 premières entreprises mondiales rapportent que plus de 30% de leur contenu (en volume) est du contenu ROT.

Qui se soucie réellement du contenu ROT ?

On peut aussi se demander pourquoi se soucier du contenu ROT. Le stockage n’est-il pas bon marché ?

Mais trop de contenu ROT, c’est un peu comme avoir un indice de masse corporelle (IMC) important avec les risques et problèmes que cela entraîne pour la santé :

  • Ce contenu ROT augmente les coûts de stockage… le coût total du stockage peut représenter plusieurs milliers d’euros /To par an dont les coûts de gestion, de sauvegarde, d’infrastructure, de DR, etc.
  • Le contenu ROT stocké sur des systèmes devenus obsolètes peut entraîner des dépenses d’exploitation et de maintenance élevées (ressources, renouvellement de licences, maintenance, etc.), et peut aussi interférer avec les stratégies de mise hors service d’applications planifiées par l’équipe IT
  • Le contenu ROT peut entraîner des risques au niveau juridique ainsi que des coûts d’e-discovery (« Legal e-Discovery ») indésirables et potentiellement élevés
  • Le contenu ROT peut aussi comporter des risques pour la conformité à la réglementation, dont les informations protégées par le règlement général sur la protection des données (RGPD) de l’Union Européenne, règlement que nous évoquons déjà sur notre blog

L’équivalent pour le contenu ROT d’un régime associé à de l’exercice physique est le déploiement d’une stratégie de nettoyage ou d’assainissement du contenu ROT :

  • Définir une stratégie de remédiation du contenu ROT
  • Spécifier des politiques qui définissent les caractéristiques du ROT et les actions à mener pour y remédier après l’avoir découvert
  • Déployer des outils de « File Analysis » ou « File Analytics »  pour trouver le contenu ROT et appliquer ou aider à appliquer les actions spécifiées par les politiques 
  • Mettre le contenu ROT hors ligne
  • Le mettre en quarantaine pendant un certain temps
  • Le supprimer directement
  • Etc.

La nécessité d’un outil de File Analytics adapté pour gérer votre contenu ROT

Le composant technologique File Analysis doit être en mesure de fournir les fonctionnalités suivantes :

  • Connexion à des sources de contenu variées au sein de l’infrastructure [partages de fichiers, SharePoint, systèmes de gestion de contenus d’entreprise (ECM), etc.]
  • Indexation des métadonnées et du contenu
  • Application d’une analyse sur cet index : caractéristiques des métadonnées, entités nommées, classifications, champs sémantiques, etc.
  • Identification du futur contenu ROT d’après les paramètres de configuration des politiques
  • Exécution par les utilisateurs autorisés des actions recommandées par les politiques pour ce contenu
  • Génération d’un journal d’audit à valeur légale concernant ces activités

Le nettoyage du contenu ROT n’est pas une opération ponctuelle. L’analyse des fichiers (File Analysis) doit être configurée pour nettoyer l’infrastructure régulièrement et traiter le delta ROT récurrent.

N’oubliez pas …

Pour conclure, j’aimerais souligner deux points importants :

Lors de la découverte de nombreux doublons d’un même document, l’un d’entre eux peut être d’une importance toute particulière pour l’activité de l’entreprise et valoir son pesant d’or en raison de son emplacement, de la nature de son dépositaire ou encore de son statut d’archive gelée pour des raisons légales, etc. Cette copie précieuse (Copie d’or ou Golden copy en anglais) n’est donc bien entendu pas du contenu ROT, même s’il s’agit d’un doublon. L’outil File Analysis doit participer à l’identification et au traitement de ces copies de grande valeur.

Ce même outil doit également contribuer à l’identification du contenu IPI, PCI et PHI au sein des documents, un élément indispensable pour se conformer aux réglementations sur la confidentialité, par exemple le règlement RGPD qui fera l’objet d’un prochain article sur mon blog.

Le plus grand obstacle au décommissionnement

Lorsque je parle à des directeurs informatiques du décommissionnement et de l’archivage, j’ai parfois le sentiment d’être dans une impasse.

Selon moi, le fait de décommissionner des applications qui n’ont plus aucune utilité pour l’entreprise devrait être la chose la plus évidente et simple que n’importe quel CTO pourrait faire dans le but de réduire les coûts et la complexité au sein de son organisation. Pourquoi ne pas décommissionner une application qui vous coûte des dizaines de milliers d’euros–voire plus– si vous ne vous en servez plus ? Qu’est ce qui empêcherait quiconque d’aller de l’avant en faisant l’effort de décommissionner ?

Cette question devient de plus en plus pointue, si vous y ajoutez un autre bénéfice -la réduction du risque- sans compter les économies réalisées et la réduction de la complexité que le décommissionnement permet. Une bonne solution d’archivage permet de réduire les risques légaux et juridiques grâce à des fonctionnalités de conservation et de gestion (en cas de mise en suspens à des fins juridiques par exemple) et permet également d’être conforme aux exigences en termes de conservation d’archives.

Mais quelque chose se met en travers des projets de décommissionnement. Dans une enquête récente que nous avons mené chez Everteam, plus de la moitié des répondants indiquent qu’ils ont au moins une application en place qui n’est plus utilisée. Ces dernières pourraient être décommissionnées, mais non, elles sont toujours bel et bien là.

Dans cette enquête nous avons aussi tenté de comprendre les raisons pour lesquelles les principaux intéressés n’avaient pas initié de projet de décommissionnement de leurs applications. Les réponses ont été révélatrices. Elles ont en effet mis en lumière le seul et plus grand obstacle qui bloquait les initiatives de projets d’archivage et de décommissionnement : l’absence de leadership

En réalité, le département IT et les fonctions métiers partagent le leadership et la responsabilité des applications et ces deux fonctions sont parties prenantes dans toutes les discussions liées au décommissionnement. Dans un scénario classique, l’IT peut sentir qu’une application devrait clairement être stoppée, mais serait bloqué par les métiers. Et la raison à cela est typiquement que les utilisateurs métiers ne sont pas à l’aise avec l’idée de perdre l’accès aux données stockées dans l’application. En dépit des efforts pour les rassurer, ils s’inquiètent de ne plus pouvoir être capable de rechercher et récupérer les documents, archives et autres contenus stockés dans le système précédent.

Puisqu’il est difficile pour l’IT d’initier le projet décommissionnement en raison des objections d’un responsable métier, et qu’il est plus simple d’ “attendre encore 6 mois” plutôt que de risquer la perte d’accès aux informations indispensables, et bien c’est exactement comme cela que ça se passe.

Le décommissionnement est donc repoussé à plus tard, mais au prix du budget et des ressources qui devraient être alloués à de nouvelles initiatives.

Que faire alors ? Et bien, pour ce challenge il n’y a pas de réponses simples. Le plus ironique dans tout cela, c’est que le contenu correctement archivé sera non seulement accessible mais il sera également beaucoup plus facile et rapide de retrouver l’information utile avec la solution adaptée. Le contenu sera également mieux géré, en s’appuyant sur des politiques de conservation qui seront en accord avec la stratégie de gouvernance de l’information de l’entreprise. Par conséquent, la meilleure approche serait de prouver que le contenu archivé soit rendu disponible pour faire des rapports, être recherché, être accessible, et pour montrer clairement les bénéfices en termes d’économies, et de réduction des risques. Et le meilleur moyen pour le prouver est un “Proof Of Concept” (POC).

C’est ainsi que nous procédons habituellement lorsque nous travaillons avec des clients qui choisissent everteam.archive pour leurs besoins en archivage & records management. Nous sélectionnons une application qui est candidate au décommissionnement, nous la connectons ensuite à everteam.archive, et nous en extrayons une copie du contenu. Ensuite nous démontrons comment l’archivage permet au contenu d’être recherché, trouvé, analysé avec les fonctions d’analytics et géré en s’appuyant sur une politique de conservation d’archives adaptée ! Nous terminons ensuite par une petite session pédagogique sur l’importance de la destruction, et expliquons pourquoi retenir le contenu est définitivement une très — TRÈS — mauvaise idée.

Un projet pilote ou POC réussi permettra aux fonctions métier de se sentir à l’aise avec l’idée d’abandonner leur ancienne application. Ils apprendront qu’ils peuvent aider leur entreprise à économiser de l’argent tout en ayant toujours accès à n’importe quel contenu qui leur est nécessaire, quand ils en ont besoin. C’est le meilleur — peut-être le seul — moyen que j’ai trouvé pour surmonter le plus grand obstacle au décommissionnement, qui se traduit en réalité par la peur de perdre l’accès au contenu indispensable dont on “pourrait” avoir besoin dans le futur.

Échangeons sur ce sujet !

 

Les 4 piliers de la gouvernance de l’information dans l’industrie

Un programme de gouvernance de l’information dans le secteur industriel, cela se structure, s’optimise, se prépare. Mais quels sont les piliers qui permettent de définir une nouvelle politique de gestion des données ? Quels outils et process doivent être mis en place ? Réponse tout de suite, avec le retour d’expérience de Safran, groupe international de haute technologie, équipementier de premier rang dans les domaines de l’Aéronautique, de l’Espace, de la Défense et de la Sécurité, qui emploie plus de 70 000 personnes !

Premier pilier : la stratégie

Le premier pilier de la gouvernance de l’information est le plus évident : la stratégie. Il s’agit en effet de décider, au-delà de la solution d’archivage retenue, des objectifs à atteindre avec la nouvelle politique des données.

Cet enjeu capital doit être impulsé au plus haut niveau, au sein d’un modèle top-down : ce sont les décideurs (dirigeants, managers…) qui en définissent le cadre, via un audit, une initiative pilote, ou encore des réunions de travail. Ce qui permet d’aboutir à répondre à une question simple mais essentielle : qu’attend-on de la gouvernance de l’information ?

Dans le cas de Safran, par exemple, la direction du groupe souhaitait optimiser la gestion de ses archives, en s’appuyant sur un outil d’archivage fluide et simple, à même de répondre aux réglementations, aux défis et aux attentes normatives liés à son activité. Ainsi qu’à anticiper la demande de mise à disposition de documents lors d’éventuels audits !

Deuxième pilier : l’organisation et les processus

Mettre en place une gouvernance de l’information efficace doit se faire de manière concertée, impliquant de fait tous les acteurs de l’entreprise industrielle concernée. Cela passe, tout d’abord, par la construction et la diffusion de règles de classification, de catégorisation et de partage de l’information. Ensuite, la gestion du cycle de vie des informations devra être définie : qu’est-ce qui est concerné par l’obsolescence, à partir de quand ? Quelles actions devront être alors mises en place, et dans quel délai ? Quelles sont les informations les plus importantes, celles à récupérer le plus facilement et le plus rapidement ?

Dans le cas de Safran, un soin particulier a donc été porté à la création des règles permettant, in fine, une réelle valorisation du patrimoine documentaire et une réponse concrète aux obligations légales, réglementaires ou normatives liées à la conservation des documents. L’étape ultime… avant le pilier suivant : le choix des outils !

Troisième pilier : les outils

Bien sûr, les outils constituent un pilier essentiel de la gouvernance de l’information dans le secteur industriel. Ils doivent répondre à plusieurs impératifs. Tout d’abord, une simplicité d’utilisation qui n’empêchera personne, quel que soit son niveau d’acculturation au numérique, de s’en servir au quotidien. Ensuite, une compatibilité totale avec les formats de fichiers et les solutions utilisés précédemment, pour ne perdre aucune information lors du déploiement. Enfin, une personnalisation possible aux enjeux de l’industrie, afin qu’aucune fonctionnalité ne soit manquante.

Ainsi, pour Safran, il s’est agi d’adopter un outil fonctionnant avec les règles de la société, compatible avec les fichiers Excel utilisés précédemment, suffisamment souple pour différencier plusieurs niveaux de règles, et intégrant un suivi simplifié des évolutions et de l’accès aux règles d’ergonomie et de maîtrise des droits. De quoi justifier, largement, l’adoption d’un nouvel outil !

Quatrième pilier : la valeur ajoutée

Ce pilier-là va justifier l’ensemble de la démarche de gouvernance de l’information, et permettra de répondre à la question suivante : “Que peut-on faire maintenant, que l’on ne pouvait pas forcément faire avant ?” L’idée étant, bien sûr, d’atteindre les objectifs fixés dans le premier pilier, mais aussi et surtout de les dépasser !

Illustration chez Safran ? Plus de 200 000 descriptifs de documents sont actuellement gérés avec fluidité et simplicité dans l’application. L’entreprise industrielle peut ainsi :

  • Accéder aux documents réclamés en cas d’audit ou de contentieux ;
  • Valoriser son patrimoine documentaire ;
  • Assurer une conservation optimale des documents.

Vous souhaitez vous faire accompagner dans cette démarche ? Personnaliser ces piliers à vos enjeux industriels propres ? Contactez les experts d’Everteam ou rencontrons-nous lors de notre prochaine matinale dédiée à la gouvernance de l’information

 

 

 

 

 

 

Peut-on sérieusement faire de la gouvernance de l’information avec les drives ?

La réponse est (presque) dans la question : non, il n’est pas possible de faire SÉRIEUSEMENT de la gouvernance de l’information avec les drives grand public. Et ce pour 7 raisons, qui sont autant de fonctionnalités que Google Drive, Microsoft OneDrive ou encore Dropbox ne sont pas en mesure d’offrir.

 

Non, parce que la gouvernance de l’information impose un tri dynamique dans les données

Dans toute entreprise, des données sont créées en continu. En se contentant de passer par un Drive, on stocke toute cette data sans aucune différenciation. Or, faire de la gouvernance de l’information, c’est appréhender ces flux de manière intelligente, selon la nature des données (factures, plans stratégiques, rapports…), le support (papier ou électronique) de celles-ci, ou encore leur valeur (confidentialité, engagement, patrimoine…). C’est également avoir conscience que toutes les informations ne sont pas utiles, que certaines peuvent être supprimées alors que d’autres doivent être protégées.

 

Non, parce que les drives sont limités en interopérabilité

Les drives présentent un défaut majeur : ils “enferment” les entreprises dans un outil, et limitent les possibilités de réversibilité et les migrations massives. Or, la gouvernance de l’information implique une réelle souplesse dans l’archivage des données. Que les drives ne peuvent par conséquent pas offrir.

 

Non, parce que la gouvernance de l’information repose sur une prise en compte de toutes les sources d’information

La gouvernance de l’information implique de prendre en compte diverses sources de données : les différentes solutions de l’entreprise, les anciens systèmes de fichiers, les différents espaces disques… Il faut donc pouvoir chercher les fichiers là où ils sont stockés, de manière transversale. Or, les drives ne peuvent prendre en compte l’information dans tous les espaces où elle se trouve. Limitant, de fait, leur efficacité.

 

Non, parce que les drives ne permettent pas de maîtriser les coûts

Les données s’ajoutant aux données, sans tri intelligent et sans suppression, les besoins en stockage grandissent chaque jour. Entraînant une réelle augmentation des coûts pour les entreprises. Or, faire de la gouvernance de l’information, ce n’est pas empiler les données : c’est en maîtriser le volume pour réduire le budget à consacrer à l’archivage !

 

Non, parce que la gouvernance de l’information impose une véritable sécurisation de l’information

La valeur des données peut changer avec le temps : une information insignifiante hier peut aujourd’hui être incontournable, alors qu’un document référence aujourd’hui peut devenir obsolète. Faire de la gouvernance de l’information efficacement, c’est donc prendre en compte la valeur des données en temps réel et les sécuriser complètement, via un cryptage et un contrôle d’accès réellement efficacement. Autant d’impératifs que les drives ne peuvent véritablement assurer.

 

Non, parce que les drives ne font “que” du stockage de données

Les solutions de gouvernance de l’information dépassent le simple stockage des données. Elles permettent :

– D’analyser et de nettoyer les file sharing ;

– De repérer les documents les plus engageants et de donner du sens aux informations, via le Machine Learning ;

– De réduire les délais et coûts de migration ;

– De respecter les obligations de conservation et/ou de destruction ;

– De maîtriser le capital informationnel…

Bref, faire de la gouvernance de l’information, c’est aller plus loin que l’archivage. C’est apporter une valeur ajoutée aux données exploitées !

 

Non, parce que la gouvernance de l’information repose sur la proactivité

Le capital informationnel de l’entreprise peut constituer un avantage compétitif… à condition que les données soient actualisées et pondérées en fonction de leur valeur et de leurs usages. Ainsi, une gouvernance de l’information s’appuyant sur des outils plus avancés que les drives permettra d’être plus réactif face aux évolutions du marché !

 

Les drives classiques constituent une bonne option pour stocker des fichiers et les partager. Or, ils ne permettent pas d’aller plus loin et de faire de la gouvernance de l’information !

 

B.A.-BA : le Machine Learning

Précieuses pour mettre en place une politique de gouvernance de l’information, les technologies de Machine Learning sont de plus en plus présentes dans notre quotidien. Il faut dire que la numérisation de celui-ci est une tendance de fond, qui n’est pas près de ralentir ! Il est donc temps de faire le point. Qu’est-ce que le Machine Learning ? Comment est-ce que ça fonctionne ? Que peut-on en attendre ? Où en est cet “art numérique”, donnant à l’intelligence artificielle une toute nouvelle dimension ? Voyons cela ensemble, en cinq questions/réponses !

Machine Learning, qu’est-ce que c’est ?

Le Machine Learning, ou apprentissage statistique dans notre langue, est une composante essentielle de l’Intelligence Artificielle. Cette appellation regroupe l’ensemble des technologies qui confèrent aux ordinateurs et aux logiciels la capacité d’apprendre par eux-mêmes, sans avoir besoin d’une intervention humaine via une programmation spécifique, de s’améliorer seuls et d’évoluer. Pour cela, le fonctionnement du Machine Learning va s’approcher de celui du Data Mining : une recherche de schémas récurrents dans les données à disposition va être effectuée, permettant d’en déduire un comportement à adopter, un ajustement du fonctionnement à opérer, ou une action à effectuer.

L’exemple le plus célèbre de Machine Learning dans la vie de tous les jours ? Le fil d’actualité de Facebook. Lorsque l’on interagit régulièrement avec un autre utilisateur (like des publications, commentaires, partages…), l’algorithme du réseau social le “voit” et adapte le newsfeed en conséquence. Il montrera alors plus souvent sur la page d’accueil les actualités de cet ami, au détriment de celles des personnes avec lesquelles les interactions sont plus réduites.

Le concept de Machine Learning peut sembler récent, et pourtant, il est théorisé dès 1959, par l’informaticien Arthur Samuel, qui le décrit comme “le champ d’étude qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés à apprendre”. Ce n’est donc pas depuis hier que nous cherchons à confier aux algorithmes la capacité de faire évoluer les ordinateurs de manière autonome, en fonction des données dont il dispose !

Comment fonctionnent les algorithmes du Machine Learning ?

Les algorithmes du Machine Learning ont un fonctionnement assez proche du cerveau humain — certains parlent même d’approche neuronale. Ils apprennent par entraînement : à partir de données connues, il va faire des prédictions, puis comparer ses prédictions avec des résultats concrets. Plus il a l’occasion d’effectuer cette comparaison, mieux il arrive à “deviner” et à optimiser ses prédictions. De même, plus il a de données à disposition, plus vite il s’entraîne et est efficace !

Il existe ainsi de nombreux modèles d’algorithme en Machine Learning :

– Le Random Forest, qui repose sur de nombreux arbres de décision pour parvenir à une prédiction ;

– Les machines à vecteurs, qui classent des exemples pour créer des modèles et enrichir les données ;

– Les réseaux bayésiens, qui utilisent les probabilités pour analyser les données et créer des relations entre elles ;

– Le clustering, qui regroupe des sous-ensembles de documents par similarité…

Où en est-on de l’adoption des technologies de Machine Learning ?

Le Machine Learning se développe ces dernières années dans le monde professionnel grâce à un allié logique : le Big Data. En effet, quoi de plus normal que de voir l’apprentissage automatique gagner en efficacité par l’apport massif d’exemples et de données ? Résultat, les prédictions du Machine Learning s’améliorent, “touchent” de plus en plus de domaines, et font gagner un temps précieux aux utilisateurs. À condition, bien sûr, de trouver le juste équilibre entre une quantité d’exemples suffisante, et un temps de calcul raisonnable — la volumétrie des masses de données ne faisant qu’augmenter avec les technologies modernes.

Et demain, qu’attendre du Machine Learning ?

Aujourd’hui, le Machine Learning s’appuie sur des exemples, donc des données (décisions, actions…) déjà existantes. Nombre de spécialistes estiment que son futur s’appuiera sur des interactions avec l’environnement qui produit les données, c’est-à-dire sur des trajectoires, sur des phénomènes dynamiques et sur des interactions complexes. Le tout avec une meilleure compréhension du langage naturel (via les technologies de NLP, Natural Language Processing), pour une meilleure efficacité encore dans l’apprentissage dynamique !

Que peut apporter le Machine Learning à la gouvernance de l’information ?

Le Machine Learning constitue un allié précieux de la gouvernance de l’information. Ses technologies permettent en effet de mieux analyser, indexer, catégoriser et extraire les données. Il peut par exemple s’agir de repérer les fichiers les plus engageants, de donner du sens aux informations, de procéder à un nettoyage intelligent des doublons et fichiers obsolètes…

Plein de promesses à ses débuts, le Machine Learning s’enrichit de jour en jour de nouvelles fonctionnalités. À surveiller de près donc, y compris en matière de gouvernance de l’information !

 

 

Le machine learning et NLP, les alliés d’une mise en conformité au RGPD facilitée

Le nouveau Règlement Général sur la Protection des Données (RGPD) va considérablement modifier l’organisation des entreprises et leurs rapports aux données générées notamment par les interactions avec les consommateurs. Applicable dès le mois de mai 2018, le RGPD s’appuie en effet sur la nomination d’un “référent”, sur la tenue d’un référentiel de traitement, et sur un accès direct et aisé aux données sur chaque consommateur. Autant de dimensions qui peuvent être facilitées par les technologies de machine learning. Explications.

Un nouveau rôle dans l’entreprise : le DPO

La gouvernance de l’information est déjà un sujet majeur pour les entreprises. Chaque donnée peut en effet constituer la “clé” de la différenciation, que ce soit face à la concurrence, pour aider à la prise de décision, ou encore pour une meilleure maîtrise des risques. Or, avec le RGPD, entré en vigueur à l’été 2016 et applicable en mai 2018, un nouvel enjeu va accompagner cette dimension incontournable de la stratégie de l’entreprise : être en mesure de redonner le contrôle de leurs données à ceux qu’elles concernent directement.

C’est pour cela que le RGPD exige des entreprises la nomination d’un Délégué à la Protection de la Donnée (ou DPO, pour Data Privacy Officer, en anglais) dans les entreprises et les institutions européennes. C’est lui qui aura pour mission d’orchestrer la nouvelle politique relative aux données dans l’entité avec laquelle il collabore. Il devra notamment tenir un registre de toutes les opérations de traitement, comportant notamment :

  • La finalité du traitement des données (par exemple, “Données traitées pour communiquer mensuellement sur nos actualités d’entreprise”) ;
  • La description des personnes et des données personnelles utilisées (par exemple, “Clients ayant commandé au moins une fois un de nos produits”, et “nom, prénom et email”) ;
  • Les différentes catégories de destinataires des données (par exemple, “envoi par logiciel emailing”, “envoi par courrier” ou encore “appels téléphoniques”) ;
  • Les garanties de sécurité intégrées au traitement des données (certifications obtenues, résultats d’audits ou encore attestations des éditeurs de logiciels)…

De nouveaux droits à faire respecter

Si le DPO doit optimiser la gouvernance de l’information, c’est parce que la maîtrise de ce véritable patrimoine doit permettre de garantir le respect de certains droits des consommateurs via le RGPD. Ainsi, il doit être en mesure d’assurer l’effacement des données dès lors qu’une personne concernée en fait la demande. C’est ce que l’on appelle communément le “droit à l’oubli”, institutionnalisé, donc, dans le RGPD. Les consommateurs doivent aussi pouvoir consulter les informations qu’une entreprise possède sur eux pour, au besoin, les modifier (une adresse incorrecte, un nom mal orthographié, une composition du foyer inexacte ou obsolète…). En limiter les usages également, et les anonymiser. Le tout dans un laps de temps assez court, les entreprises devant satisfaire les demandes “dans les meilleurs délais et, si possible, 72 heures au plus tard après en avoir pris connaissance”, selon les textes officiels !

Toutes ces dimensions posent aussi la question de la portabilité des données. Le DPO doit en effet être en mesure de rendre les informations consultables dans un format couramment utilisé, et lisible par n’importe quel particulier. Sans imposer, donc, le recours à un logiciel peu courant et/ou payant !

Les apports du machine learning pour le RGPD

Autant dire que la tâche peut sembler bien fastidieuse avec des solutions “classiques” et non optimisées. C’est pour cela que le recours à des solutions de gouvernance de l’information intégrant une forte dimension “machine learning” constitue un impératif.

Ce que le machine learning va permettre de faire ? Identifier la donnée, de plus en plus rapidement au fur et à mesure de l’utilisation de la solution, et automatiser les process. Répondre avec plus d’efficacité aux demandes des consommateurs. Leur permettre d’exercer leurs différents droits (limitation, rectification, anonymisation, suppression) prévus dans le RGPD. Enrichir le registre de traitement, que la CNIL doit pouvoir consulter. Assurer, enfin, la portabilité des données, que ce soit en direction des personnes concernées par les données ou d’une autorité de contrôle !

Le machine learning est donc l’allié des futurs DPO (aujourd’hui, simples “correspondants informatique et libertés”) dans la mise en place d’une gouvernance de l’information en accord avec les principes de la nouvelle Réglementation Générale sur la Protection des données. Vous souhaitez en savoir plus sur cette technologie ? Comprendre en quoi une solution d’archivage numérique s’appuyant sur le machine learning peut vous aider à rendre l’utilisation des données plus transparente ? Contactez les experts Everteam !

 

 

Comment BIEN mettre en place un SAE dans des structures multisites ou internationales …

Comment BIEN mettre en place un SAE dans des structures multisites ou internationales…

Si l’archivage numérique est un enjeu stratégique pour les entreprises, d’un point de vue fonctionnel, juridique ou financier, il prend encore plus de valeur dans le cas d’une société multisites, d’un grand groupe filialisé ou d’une activité étendue sur plusieurs continents. Notamment pour sécuriser les informations de l’entreprise, et minimiser les risques, défi majeur des grandes organisations. Cet article vous donnera quelques conseils pour bien mettre en place un SAE …

De la nécessité d’un archivage numérique centralisé

A travers les projets de nos clients, on remarque plusieurs types d’éléments déclencheurs à la mise en place d’un Système d’Archivage Electronique :

  • C’est parfois un audit interne qui met en évidence l’hétérogénéité des systèmes, l’éparpillement de l’information et l’absence de gestion fiable du cycle de vie de l’information. Pour les entreprises qui fonctionnent sur différents sites, il devient vite impératif de disposer d’un socle commun sécurisé pour les archives, avec un point d’accès unique ;

  • La prise de conscience peut également survenir à l’occasion d’un déménagement qui confronte l’entreprise à tous les documents qu’elle doit ou non conserver ;
  • Sans oublier les nombreux projets digitaux que mènent les organisations et qui nécessitent parfois un archivage légal probant. C’est notamment le cas lorsqu’une entreprise décide de dématérialiser complètement une procédure pour des raisons économiques, et qu’elle doit répondre à son obligation de conservation.

Des enjeux structurants pour les grands groupes

Tous les bénéfices avérés des systèmes d’archivage électronique sont démultipliés dans le cas des organisations éclatées géographiquement et fonctionnellement :

  • Préserver la mémoire sur une très longue durée et réexploiter le patrimoine informationnel, sans perte causée par la disparité des entités ou par l’éloignement géographique ;
  • Garantir l’application homogène de la politique de gestion des archives au sein d’un groupe implanté sur plusieurs sites ;
  • Apporter rapidement et de manière fiable des éléments de preuve dans des situations conflictuelles, grâce à la prise en charge de tout type d’archives (données issues d’un ERP, documents électroniques, e-mails, ou encore archives papier) ;
  • Maîtriser les risques et répondre aux exigences légales et réglementaires en intégrant les différentes règles de conservation de chaque pays ;
  • Optimiser les coûts informatiques, de stockage et de maintenance en décommissionnant certaines des multiples applications inadaptées, et archiver les données de manière moins onéreuse ;
  • Gérer efficacement la croissance exponentielle des documents électroniques au sein des grands groupes, et entre leurs filiales.

Les facteurs clés de succès de l’archivage électronique

Mais comment mettre toutes les chances de son côté devant les multiples façons d’aborder le projet SAE ? Les retours d’expérience de plusieurs grands groupes internationaux mettent en évidence les facteurs clés de succès suivants :

  • Analyser finement la production documentaire, les flux et les processus existants, les risques règlementaires et contractuels, les besoins métiers etc. ;
  • Mettre en place une méthodologie éprouvée de conduite de projet jusqu’à l’accompagnement au changement car le déploiement d’un SAE est un travail de fond qui bouscule généralement les usages et les responsabilités au sein des organisations ;
  • Faire en sorte que le projet d’archivage soit appuyé de manière claire et concrète par la Direction et impliquer les équipes informatiques et opérationnelles ;
  • Choisir une solution ouverte alliant performance du socle technique, intégration des applications dans le SI et prise en compte des exigences métier ;
  • Garantir la conformité des pratiques de conservation au regard des engagements, en proposant un référentiel de gouvernance et un cadre de processus maîtrisé.

L’archivage électronique et numérique, déjà puissant levier d’efficacité, est également un levier redoutable de transformation pour les groupes internationaux engagés dans la dématérialisation de leurs processus. A condition de s’assurer de l’implication des collaborateurs, y compris celle de la Direction, d’organiser la conduite du changement auprès des utilisateurs, et bien sûr de veiller à la performance de la solution choisie …

Décommissionnement d’applications : laissez vos déchets derrière vous

Décommissionnement d’applications : laissez vos déchets derrière vous

Lorsque les utilisateurs métier souhaitent adopter un outil de travail “nouvelle génération”, ceci  constitue pour eux un challenge stimulant. Prenez l’exemple du DRH enthousiaste à l’idée de travailler avec une interface moderne et nouvelle capable de supporter, en natif, le mobile et tout un ensemble de nouvelles fonctionnalités innovantes. Pour le département IT, ce changement représente également toute une série défis à relever. Dont notamment, la nécessité de trouver une solution capable de stocker le contenu qui se trouve actuellement dans des applications en passe de disparaître.

Laissez les déchets derrière vous

La quantité d’information en provenance de bases de données, de documents et autres contenus stockés dans une application peut être volumineuse. Mais vous ne pouvez pas, bien évidemment, simplement tout supprimer et recommencer à zéro quand vous décidez de changer d’application. Les informations actives et utiles doivent être déplacés dans une nouvelle application en assurant la prise en compte des règles de cycle de vie, l’enjeux étant d’assurer une conservation de l’information sur la période requise, ni plus, ni moins.

Ce qui signifie que vous avez deux choix principaux lors d’une migration vers une nouvelle application d’entreprise :


1. Déplacer tout le contenu existant dans la nouvelle application, ou
2. Déplacer uniquement le contenu actif et utile dans la nouvelle application.

L’argument qui va à l’encontre de la première alternative est qu’il n’y a aucune raison de conserver “les déchets” avec vous. Pensez à cette migration comme à un déménagement dans une nouvelle maison : quel meilleur moment  pour se débarrasser de ce dont vous n’avez plus besoin ? Souhaitez-vous vraiment encombrer votre nouvel espace tout propre et neuf avec un vélo d’appartement que vous n’utilisez pas ou les trois grille-pains que l’on vous a offert en cadeau de mariage ?

La seconde alternative est bien évidemment le meilleur choix. Il n’y a aucun intérêt à charger du contenu inutile dans le nouvel environnement. Vous ne feriez qu’encombrer et complexifier le nouveau système avec du volume inutile.

Mais qu’en est-il du contenu inactif que vous devez conserver, que ce soit pour des raisons commerciales ou pour répondre aux exigences réglementaires ?

Mettez de côté ce que vous devez conserver

A ce stade, beaucoup d’organisations prennent une décision onéreuse. Elles choisissent de garder l’ancienne application en activité comme un environnement en “lecture seule” pour les cinq, sept ou dix années nécessaires à la conservation d’informations inactives.

Par le biais de mon travail avec des entreprises de toutes industries, je trouve que malgré les coûts impliqués mais le maintien en condition opérationnelle d’application obsolète, la situation évolue peu. Ceci est notamment dû au fait que beaucoup d’entre elles n’ont pas conscience que la mise en place d’une stratégie d’archivage leurs permettraient à la fois de conserver le contenu dont elles ont besoin dans un environnement accessible et organisé, ainsi que de réduire les coûts.

Comment une application d’archivage de masse permet-elle cela ?

  • Elle vous permet d’analyser le contenu de votre système existant, d’identifier ce que vous devez conserver et ce qui a “vieilli” ou encore les doublons.
  • Elle vous aide à extraire et déplacer le contenu vers un nouvel espace de dépôt où celui-ci sera conservé à un coût inférieur de celui de l’application existante.
  • Elle permet de piloter les niveaux de confidentialité et d’accès à l’information.
  • Elle facilite le suivi des durées de conservation, le déclenchement des processus de destruction le moment venu.
  • Une solution d’archivage facilite le processus de migration vers de nouvelles applications d’entreprise. Elle vous permet de dé-commissionner et de délester l’application existante. Il en résulte des économies de coûts de stockage, de licences et de maintenance, ainsi que des économies de temps pour le département IT qui gère et conserve l’ancienne application.

Vers un processus simple, rapide et zéro déchet

Le passage à une nouvelle application ne doit pas nécessairement être un compromis. L’entreprise peut repartir sur une base neuve avec la nouvelle application, désencombrée des archives et des contenus accumulés au cours d’années d’utilisation.  

Les informations “déchets” peuvent être délaissées et la nouvelle application agrémentée du contenu encore actif. Les informations inactives à conserver sont déplacées dans un espace de conservation distinct et resteront disponible si nécessaire et gérées conformément aux règles de conservation.
Exactement comme lorsque vous déménagez, celui-ci est plus simple si vous n’avez pas à prendre avec vous que ce dont vous avez vraiment besoin. C’est plus simple et plus facile, vous faites des économies et votre nouvel espace sera plus agréable sans ces objets dont vous n’avez plus aucune utilité.