Articles

6 erreurs à éviter pour bien catégoriser vos données archivées

L’archivage numérique offre des avantages non-négligeables aux entreprises. Il permet en effet de limiter — voire de supprimer — les coûts liés au stockage du papier, de faciliter la manipulation des documents d’un collaborateur à un autre, et d’optimiser le partage des informations, que ce soit au sein même de l’entreprise ou vers l’extérieur. Mais pour constituer un succès, un projet d’archivage doit reposer sur une catégorisation efficace : Catégoriser c’est ranger … et quand c’est rangé c’est tout de suite plus facile de s’y retrouver !

Voici 6 erreurs à ne pas commettre si l’on veut archiver efficacement

Erreur #1 : Confondre “sauvegarde” et “archivage”

Les normes en matière d’archivage numérique sont nombreuses (comme les normes ISO 14641-1 et ISO 3030X par exemple, et certaines sont même adaptées à votre activité ou à la sensibilité de vos données) et listent les bonnes pratiques à respecter. Il serait donc bon de les avoir en tête au moment de construire un projet d’archivage ? Un conseil : ne les lisez pas ! A moins vraiment d’en avoir envie, mais choisissez plutôt  un système d’archivage certifié (la marque NF 461 garanti par exemple qu’un système est conforme avec la norme ISO 14641-1), c’est la première étape, et ensuite alimentez le …

Mais attention, ne confondez pas “sauvegarde” et “archivage”.

L’archivage doit suivre une méthode : On archive uniquement que les documents importants (ou engageants) et on les décrit précisément pour pouvoir facilement les retrouver et surtout pour savoir combien de temps on doit les conserver.

Sauvegarder c’est beaucoup plus simple : On prend tout en vrac et on croise les doigts pour retrouver ce que l’on cherche le moment venu.

Vous conviendrez que ce n’est pas tout à fait la même chose. L’archivage nécessite de trier et de décrire ou catégoriser … Il faut ranger en somme, mettre tout simplement les bons documents dans les bonnes catégories.

Erreur #2 : un référentiel de conservation absent

Le référentiel de conservation est un véritable « mode d’emploi » de l’archivage numérique, une sorte de dictionnaire des catégories. Par extension, il est autant « de conservation » que… « de destruction » : c’est en effet ce document qui va indiquer aux collaborateurs les durées de conservation de chaque catégorie de documents, explicitant obligatoirement celles-ci par une motivation légale ou réglementaire (une loi imposant, par exemple, de ne conserver certaines données personnelles que 5 ans), un besoin métier défini par le service impliqué dans l’utilisation ou la production du document, ou un consentement limité exprimé par les personnes concernées.

Aucun archivage efficace ne sera donc possible sans un référentiel de conservation précis.

Erreur #3 : trop de catégories de documents

L’archivage est donc une pratique qui nécessite de la précision. L’objectif ? Être capable de retrouver n’importe quel document recherché, le plus rapidement possible et en faisant intervenir le moins de personnes possible. Cela implique de ne pas « surcharger » son système d’archivage numérique, et de ne pas multiplier les catégories. Une bonne gouvernance de l’information ressemble, schématiquement, à un arbre, dont chaque branche (ou catégorie) se divise en branches plus petites (ou sous-catégories). Si ces dernières sont trop nombreuses, il ne vous sera pas possible de vous retrouver efficacement dans votre système. Et vos archives ne vous permettront pas de gagner, véritablement, le temps espéré.

Si catégoriser un document est trop complexe, vos collaborateurs le feront-ils ?

Erreur #4 : pas assez de catégories de documents

Pour autant, ce n’est pas une raison de tomber dans l’excès inverse, et donc de ne n’avoir que quelques catégories de documents (« Administratif », « Supports de communication », « Documents internes » et « Prospects », par exemple). En procédant ainsi, chaque catégorie ressemblerait à une masse non triée de données, de documents et d’informations. Retrouver un fichier précis reviendrait donc à chercher une aiguille dans une botte de foins.

Le nombre de catégories dans un référentiel d’archivage est donc une histoire de dosage.

Si catégoriser un document est trop simple, certes vos collaborateurs le feront aisément mais est-ce que ce sera suffisant  pour retrouver ce document ?

Erreur #5 : un référentiel de conservation mal compris

Le référentiel de conservation va donc constituer le document de base pour bien catégoriser les données archivées. Il pourrait être présenté sous la forme d’un tableau, comportant plusieurs colonnes :

  • Les « documents engageants », qui doivent être conservés pour des raisons juridiques, financières ou de besoins métier ;
  • Les différentes durées de conservation, avec les motivations liées ;
  • Le sort final, que l’on résume généralement avec deux lettres, D pour destruction et C pour conservation historique ;
  • Le prestataire de l’archivage;

et ce … catégorie par catégorie.

Mais êtes-vous certain que ce tableau parle à tous vos collaborateurs ? Ne vont-ils pas systématiquement choisir la catégorie “divers” parce qu’ils ne comprennent pas les autres ?

Ce n’est pas une bonne idée de construire un référentiel dédié pour chacune des populations de vos collaborateurs, trop complexe, trop difficile à maintenir. Mais rien ne vous empêche de simplement renommer certaines catégories pour coller à la terminologie de ces populations. Notez également qu’un effort de pédagogie pourrait ne pas être inutile.

Erreur #6 : oublier que l’informatique est là pour vous aider

Vous serez donc maintenant d’accord avec moi, catégoriser est nécessaire pour archiver. Mais personne ne vous a dit de le faire à la main ! Les technologies de l’information ont énormément progressé ces dernières années, les systèmes d’archivages électroniques modernes sont maintenant capables de catégoriser automatiquement les documents, pour peu que l’on ait pris un peu de temps pour leur expliquer comment faire. Étonnant ? Non ! Je vous rappelle que l’on vit dans un monde où les voitures conduisent toutes seules …

L’archivage numérique est un gage d’efficacité nouvelle pour les entreprises… à condition d’être bien construit et bien préparé. Vous souhaitez en savoir plus, vous faire guider dans ce projet ? Contactez les équipes d’Everteam, qui vous aideront à le mener à bien !

Assainissement des File Systems : que devons-nous faire des archives métier ?

Dans mon article précédentje traitais du contenu ROT (contenu Redondant, Obsolète et Trivial) et j’expliquais de quoi il s’agit et pourquoi il est important d’y remédier (suppression, déplacement hors ligne, mise en quarantaine, etc.). Outre le contenu ROT, l’autre catégorie de contenu majeure à traiter concerne les archives métier. Il s’agit de contenu définis et spécifiés dans ISO 15489, ARMA, DoD 5015.2, NARA, etc. C’est ainsi que la norme ISO 15489 définit les archives métier, ou archives pour faire court, comme des « informations créées, reçues et conservées en tant que preuves et informations par une entreprise ou par une personne dans le cadre des obligations légales ou d’une transaction commerciale ».

business records / archives métier

Les archives métier doivent tout d’abord être identifiées en tant que telles, par exemple, un actif informationnel peut devenir une archive suite à sa publication comme version majeure, cet actif peut devenir une archive lorsque le processus métier impliqué atteint un certain statut, par exemple la signature d’un contrat ou la réalisation d’une mission, …

L’archive métier doit alors être classifiée :

  • Elle doit être associée à une série d’archives (ou classe d’archives) telle que définie dans le référentiel de conservation des archives de l’entreprise
  • Cette association identifie la nature métier de l’archive (exemple : un contrat)
  • Cette association permet aussi de déterminer le cycle de vie et le sort final à appliquer à l’archive
  • Les technologies d’auto classification peuvent faciliter l’automatisation de cette association. Cependant, la précision et, par conséquent, le taux de réussite de l’auto classification dépendra beaucoup du niveau de granularité du référentiel de conservation
  • Les stratégies « Big Bucket » planifiées (moins de 100 entrées par exemple) donnent de meilleurs résultats car le moteur d’auto classification ne doit faire la différence qu’entre un faible nombre de « buckets » (strates) bien distincts.

L’archive métier doit ensuite être soumise à un système d’archivage :

  • L’archive est rendue immuable
  • Son cycle de vie est géré (événement, durée, gel, etc.)
  • À l’issue de son cycle de vie, un sort final sera appliqué à l’archive selon les besoins, cette opération peut par exemple entraîner sa destruction  ou son transfert vers un autre système ou une autre entité

Sans le recours aux outils de File Analysis, les premières tâches d’identification et de classification seront réalisées manuellement, c’est-à-dire en mettant les utilisateurs finaux à contribution. Cependant, l’expérience a prouvé au cours de ces deux dernières décennies que les utilisateurs finaux détestent, et c’est peu dire, ces tâches. Il faut dire que ces derniers ne bénéficient pas de suffisamment de temps et de formation pour les réaliser.

Ceci a d’ailleurs été une source de tensions et l’une des principales raisons pour lesquelles de nombreuses initiatives de Records Management échouent.

Renforcer les compétences des responsables chargés des archives, améliorer leur capacité à communiquer avec l’équipe IT et consolider la formation des utilisateurs finaux peut contribuer à améliorer la situation. Cependant, ces mesures ne permettent pas de résoudre les problèmes de fond :

  • Souvent, les utilisateurs finaux n’aiment pas classifier les archives
  • Le volume d’archives croît de plus en plus et exige au de la de plus d’expertise en records management d’être accompagné par des technologies à forte valeur ajoutée des ressources de RM supplémentaires. Cependant, les ressources de RM sont réduites en raison d’un manque d’appréciation de leur valeur ajoutée

Les responsables chargés des archives doivent commencer à réfléchir autrement. Ils DOIVENT se mettre en quête de solutions qui soustraient davantage les utilisateurs finaux des contraintes liées à l’identification et à la classification des archives. Ces solutions devront intégrer des composants de File Analysis qui contribueront à automatiser et à simplifier le travail des records managers et des utilisateurs finaux.

Si ce sujet vous intéresse, nous vous proposons un webinar le 14 décembre, qui abordera les enjeux liés à la gouvernance de l’information, au RGPD, et les solutions pour y répondre. Cliquez ici pour plus d’information et pour accéder au formulaire d’inscription 

Le plus grand obstacle au décommissionnement

Lorsque je parle à des directeurs informatiques du décommissionnement et de l’archivage, j’ai parfois le sentiment d’être dans une impasse.

Selon moi, le fait de décommissionner des applications qui n’ont plus aucune utilité pour l’entreprise devrait être la chose la plus évidente et simple que n’importe quel CTO pourrait faire dans le but de réduire les coûts et la complexité au sein de son organisation. Pourquoi ne pas décommissionner une application qui vous coûte des dizaines de milliers d’euros–voire plus– si vous ne vous en servez plus ? Qu’est ce qui empêcherait quiconque d’aller de l’avant en faisant l’effort de décommissionner ?

Cette question devient de plus en plus pointue, si vous y ajoutez un autre bénéfice -la réduction du risque- sans compter les économies réalisées et la réduction de la complexité que le décommissionnement permet. Une bonne solution d’archivage permet de réduire les risques légaux et juridiques grâce à des fonctionnalités de conservation et de gestion (en cas de mise en suspens à des fins juridiques par exemple) et permet également d’être conforme aux exigences en termes de conservation d’archives.

Mais quelque chose se met en travers des projets de décommissionnement. Dans une enquête récente que nous avons mené chez Everteam, plus de la moitié des répondants indiquent qu’ils ont au moins une application en place qui n’est plus utilisée. Ces dernières pourraient être décommissionnées, mais non, elles sont toujours bel et bien là.

Dans cette enquête nous avons aussi tenté de comprendre les raisons pour lesquelles les principaux intéressés n’avaient pas initié de projet de décommissionnement de leurs applications. Les réponses ont été révélatrices. Elles ont en effet mis en lumière le seul et plus grand obstacle qui bloquait les initiatives de projets d’archivage et de décommissionnement : l’absence de leadership

En réalité, le département IT et les fonctions métiers partagent le leadership et la responsabilité des applications et ces deux fonctions sont parties prenantes dans toutes les discussions liées au décommissionnement. Dans un scénario classique, l’IT peut sentir qu’une application devrait clairement être stoppée, mais serait bloqué par les métiers. Et la raison à cela est typiquement que les utilisateurs métiers ne sont pas à l’aise avec l’idée de perdre l’accès aux données stockées dans l’application. En dépit des efforts pour les rassurer, ils s’inquiètent de ne plus pouvoir être capable de rechercher et récupérer les documents, archives et autres contenus stockés dans le système précédent.

Puisqu’il est difficile pour l’IT d’initier le projet décommissionnement en raison des objections d’un responsable métier, et qu’il est plus simple d’ “attendre encore 6 mois” plutôt que de risquer la perte d’accès aux informations indispensables, et bien c’est exactement comme cela que ça se passe.

Le décommissionnement est donc repoussé à plus tard, mais au prix du budget et des ressources qui devraient être alloués à de nouvelles initiatives.

Que faire alors ? Et bien, pour ce challenge il n’y a pas de réponses simples. Le plus ironique dans tout cela, c’est que le contenu correctement archivé sera non seulement accessible mais il sera également beaucoup plus facile et rapide de retrouver l’information utile avec la solution adaptée. Le contenu sera également mieux géré, en s’appuyant sur des politiques de conservation qui seront en accord avec la stratégie de gouvernance de l’information de l’entreprise. Par conséquent, la meilleure approche serait de prouver que le contenu archivé soit rendu disponible pour faire des rapports, être recherché, être accessible, et pour montrer clairement les bénéfices en termes d’économies, et de réduction des risques. Et le meilleur moyen pour le prouver est un “Proof Of Concept” (POC).

C’est ainsi que nous procédons habituellement lorsque nous travaillons avec des clients qui choisissent everteam.archive pour leurs besoins en archivage & records management. Nous sélectionnons une application qui est candidate au décommissionnement, nous la connectons ensuite à everteam.archive, et nous en extrayons une copie du contenu. Ensuite nous démontrons comment l’archivage permet au contenu d’être recherché, trouvé, analysé avec les fonctions d’analytics et géré en s’appuyant sur une politique de conservation d’archives adaptée ! Nous terminons ensuite par une petite session pédagogique sur l’importance de la destruction, et expliquons pourquoi retenir le contenu est définitivement une très — TRÈS — mauvaise idée.

Un projet pilote ou POC réussi permettra aux fonctions métier de se sentir à l’aise avec l’idée d’abandonner leur ancienne application. Ils apprendront qu’ils peuvent aider leur entreprise à économiser de l’argent tout en ayant toujours accès à n’importe quel contenu qui leur est nécessaire, quand ils en ont besoin. C’est le meilleur — peut-être le seul — moyen que j’ai trouvé pour surmonter le plus grand obstacle au décommissionnement, qui se traduit en réalité par la peur de perdre l’accès au contenu indispensable dont on “pourrait” avoir besoin dans le futur.

Échangeons sur ce sujet !

 

Les 4 piliers de la gouvernance de l’information dans l’industrie

Un programme de gouvernance de l’information dans le secteur industriel, cela se structure, s’optimise, se prépare. Mais quels sont les piliers qui permettent de définir une nouvelle politique de gestion des données ? Quels outils et process doivent être mis en place ? Réponse tout de suite, avec le retour d’expérience de Safran, groupe international de haute technologie, équipementier de premier rang dans les domaines de l’Aéronautique, de l’Espace, de la Défense et de la Sécurité, qui emploie plus de 70 000 personnes !

Premier pilier : la stratégie

Le premier pilier de la gouvernance de l’information est le plus évident : la stratégie. Il s’agit en effet de décider, au-delà de la solution d’archivage retenue, des objectifs à atteindre avec la nouvelle politique des données.

Cet enjeu capital doit être impulsé au plus haut niveau, au sein d’un modèle top-down : ce sont les décideurs (dirigeants, managers…) qui en définissent le cadre, via un audit, une initiative pilote, ou encore des réunions de travail. Ce qui permet d’aboutir à répondre à une question simple mais essentielle : qu’attend-on de la gouvernance de l’information ?

Dans le cas de Safran, par exemple, la direction du groupe souhaitait optimiser la gestion de ses archives, en s’appuyant sur un outil d’archivage fluide et simple, à même de répondre aux réglementations, aux défis et aux attentes normatives liés à son activité. Ainsi qu’à anticiper la demande de mise à disposition de documents lors d’éventuels audits !

Deuxième pilier : l’organisation et les processus

Mettre en place une gouvernance de l’information efficace doit se faire de manière concertée, impliquant de fait tous les acteurs de l’entreprise industrielle concernée. Cela passe, tout d’abord, par la construction et la diffusion de règles de classification, de catégorisation et de partage de l’information. Ensuite, la gestion du cycle de vie des informations devra être définie : qu’est-ce qui est concerné par l’obsolescence, à partir de quand ? Quelles actions devront être alors mises en place, et dans quel délai ? Quelles sont les informations les plus importantes, celles à récupérer le plus facilement et le plus rapidement ?

Dans le cas de Safran, un soin particulier a donc été porté à la création des règles permettant, in fine, une réelle valorisation du patrimoine documentaire et une réponse concrète aux obligations légales, réglementaires ou normatives liées à la conservation des documents. L’étape ultime… avant le pilier suivant : le choix des outils !

Troisième pilier : les outils

Bien sûr, les outils constituent un pilier essentiel de la gouvernance de l’information dans le secteur industriel. Ils doivent répondre à plusieurs impératifs. Tout d’abord, une simplicité d’utilisation qui n’empêchera personne, quel que soit son niveau d’acculturation au numérique, de s’en servir au quotidien. Ensuite, une compatibilité totale avec les formats de fichiers et les solutions utilisés précédemment, pour ne perdre aucune information lors du déploiement. Enfin, une personnalisation possible aux enjeux de l’industrie, afin qu’aucune fonctionnalité ne soit manquante.

Ainsi, pour Safran, il s’est agi d’adopter un outil fonctionnant avec les règles de la société, compatible avec les fichiers Excel utilisés précédemment, suffisamment souple pour différencier plusieurs niveaux de règles, et intégrant un suivi simplifié des évolutions et de l’accès aux règles d’ergonomie et de maîtrise des droits. De quoi justifier, largement, l’adoption d’un nouvel outil !

Quatrième pilier : la valeur ajoutée

Ce pilier-là va justifier l’ensemble de la démarche de gouvernance de l’information, et permettra de répondre à la question suivante : « Que peut-on faire maintenant, que l’on ne pouvait pas forcément faire avant ? » L’idée étant, bien sûr, d’atteindre les objectifs fixés dans le premier pilier, mais aussi et surtout de les dépasser !

Illustration chez Safran ? Plus de 200 000 descriptifs de documents sont actuellement gérés avec fluidité et simplicité dans l’application. L’entreprise industrielle peut ainsi :

  • Accéder aux documents réclamés en cas d’audit ou de contentieux ;
  • Valoriser son patrimoine documentaire ;
  • Assurer une conservation optimale des documents.

Vous souhaitez vous faire accompagner dans cette démarche ? Personnaliser ces piliers à vos enjeux industriels propres ? Contactez les experts d’Everteam ou rencontrons-nous lors de notre prochaine matinale dédiée à la gouvernance de l’information

 

 

 

 

 

 

Boostez l’archivage avec le Big Data !

Le capital informationnel des entreprises a pris une toute autre valeur depuis quelques années, que ce soit en termes juridiques ou financiers. L’archivage numérique ne peut plus se contenter d’être un simple espace de stockage : il doit « sublimer » les données, apporter une réelle valeur ajoutée à celles-ci et devenir l’outil principal de la gouvernance de l’information. Et pour cela, le Big Data est son meilleur allié.

 

Réduisez les coûts IT avec le Big Data…

L’archivage numérique n’a pas vocation à conserver ad vitam aeternam toutes les informations, tous les logiciels et tous les documents un jour utilisés dans l’entreprise : le cycle de vie de la donnée, qu’elle soit structurée ou documentaire, se caractérise aussi par une « fin », un moment où aucune obligation légale n’impose plus de la conserver. Il convient alors de la supprimer, notamment pour optimiser les espaces de stockage. C’est exactement ce que permet de faire le Big Data, via des fonctionnalités d’analyse de la valeur de la donnée. Ainsi, il est possible :

  • De décommissionner les applications devenues obsolètes, avec extraction et valorisation des données utiles (puis stockage dans un format générique et standard, comme le XML par exemple), avec retrait des systèmes existants ;
  • De détecter et de retirer les doublons, ces fichiers parfois obsolètes présents en plusieurs exemplaires dans le système de partage de fichiers, qui peuvent être vecteurs d’une information erronée et datée, et occupent de l’espace de stockage inutilement ;
  • De détecter les fichiers les plus engageants ;
  • De donner plus de sens et de la valeur aux fichiers via le Machine Learning …

Bref, le Big Data constitue un apport précieux à l’archivage dès lors qu’il accompagne, en plus de la transformation numérique de l’entreprise, la réduction des coûts IT. Le gage d’une efficacité renouvelée et d’une gouvernance de l’information optimisée !

 

… et les pertes de temps !

L’archivage « 3.0 », nouvelle génération et appuyé par le Big Data est aussi celui du gain de temps pour les entreprises. Un outil de recherche transverse et performant sur l’ensemble des partages de fichiers des acteurs économiques, permet ainsi un accès rapide, efficient et fédéré à cette masse de donnée et non plus cloisonné par espace de stockage comme il fallait s’en contenter auparavant.

C’est d’autant plus important que le prochain RGPD, qui entrera en vigueur en mai prochain, impose aux entreprises et aux institutions d’être en mesure d’accéder rapidement aux données personnelles des consommateurs et des particuliers, pour que ceux-ci puissent exercer l’ensemble de leurs nouveaux droits :

  • L’effacement pur et simple des données (le « droit à l’oubli » dans le langage courant) ;
  • La correction d’informations erronées ou datées ;
  • La limitation de l’usage ;
  • L’anonymisation des informations…

Autant dire que dans ces conditions, le Big Data est un allié précieux dans la mise en place d’une politique de gouvernance de l’information en accord avec les exigences du RGPD. Il permet ainsi de donner une dimension stratégique au patrimoine informationnel, source de valeur ajoutée supplémentaire pour l’entreprise !

Vous souhaitez en savoir plus sur ce que le Big Data peut apporter à l’archivage numérique et à la gouvernance de l’information ? Contactez-moi ! 

Peut-on sérieusement faire de la gouvernance de l’information avec les drives ?

La réponse est (presque) dans la question : non, il n’est pas possible de faire SÉRIEUSEMENT de la gouvernance de l’information avec les drives grand public. Et ce pour 7 raisons, qui sont autant de fonctionnalités que Google Drive, Microsoft OneDrive ou encore Dropbox ne sont pas en mesure d’offrir.

 

Non, parce que la gouvernance de l’information impose un tri dynamique dans les données

Dans toute entreprise, des données sont créées en continu. En se contentant de passer par un Drive, on stocke toute cette data sans aucune différenciation. Or, faire de la gouvernance de l’information, c’est appréhender ces flux de manière intelligente, selon la nature des données (factures, plans stratégiques, rapports…), le support (papier ou électronique) de celles-ci, ou encore leur valeur (confidentialité, engagement, patrimoine…). C’est également avoir conscience que toutes les informations ne sont pas utiles, que certaines peuvent être supprimées alors que d’autres doivent être protégées.

 

Non, parce que les drives sont limités en interopérabilité

Les drives présentent un défaut majeur : ils « enferment » les entreprises dans un outil, et limitent les possibilités de réversibilité et les migrations massives. Or, la gouvernance de l’information implique une réelle souplesse dans l’archivage des données. Que les drives ne peuvent par conséquent pas offrir.

 

Non, parce que la gouvernance de l’information repose sur une prise en compte de toutes les sources d’information

La gouvernance de l’information implique de prendre en compte diverses sources de données : les différentes solutions de l’entreprise, les anciens systèmes de fichiers, les différents espaces disques… Il faut donc pouvoir chercher les fichiers là où ils sont stockés, de manière transversale. Or, les drives ne peuvent prendre en compte l’information dans tous les espaces où elle se trouve. Limitant, de fait, leur efficacité.

 

Non, parce que les drives ne permettent pas de maîtriser les coûts

Les données s’ajoutant aux données, sans tri intelligent et sans suppression, les besoins en stockage grandissent chaque jour. Entraînant une réelle augmentation des coûts pour les entreprises. Or, faire de la gouvernance de l’information, ce n’est pas empiler les données : c’est en maîtriser le volume pour réduire le budget à consacrer à l’archivage !

 

Non, parce que la gouvernance de l’information impose une véritable sécurisation de l’information

La valeur des données peut changer avec le temps : une information insignifiante hier peut aujourd’hui être incontournable, alors qu’un document référence aujourd’hui peut devenir obsolète. Faire de la gouvernance de l’information efficacement, c’est donc prendre en compte la valeur des données en temps réel et les sécuriser complètement, via un cryptage et un contrôle d’accès réellement efficacement. Autant d’impératifs que les drives ne peuvent véritablement assurer.

 

Non, parce que les drives ne font « que » du stockage de données

Les solutions de gouvernance de l’information dépassent le simple stockage des données. Elles permettent :

– D’analyser et de nettoyer les file sharing ;

– De repérer les documents les plus engageants et de donner du sens aux informations, via le Machine Learning ;

– De réduire les délais et coûts de migration ;

– De respecter les obligations de conservation et/ou de destruction ;

– De maîtriser le capital informationnel…

Bref, faire de la gouvernance de l’information, c’est aller plus loin que l’archivage. C’est apporter une valeur ajoutée aux données exploitées !

 

Non, parce que la gouvernance de l’information repose sur la proactivité

Le capital informationnel de l’entreprise peut constituer un avantage compétitif… à condition que les données soient actualisées et pondérées en fonction de leur valeur et de leurs usages. Ainsi, une gouvernance de l’information s’appuyant sur des outils plus avancés que les drives permettra d’être plus réactif face aux évolutions du marché !

 

Les drives classiques constituent une bonne option pour stocker des fichiers et les partager. Or, ils ne permettent pas d’aller plus loin et de faire de la gouvernance de l’information !

 

Le machine learning et NLP, les alliés d’une mise en conformité au RGPD facilitée

Le nouveau Règlement Général sur la Protection des Données (RGPD) va considérablement modifier l’organisation des entreprises et leurs rapports aux données générées notamment par les interactions avec les consommateurs. Applicable dès le mois de mai 2018, le RGPD s’appuie en effet sur la nomination d’un « référent », sur la tenue d’un référentiel de traitement, et sur un accès direct et aisé aux données sur chaque consommateur. Autant de dimensions qui peuvent être facilitées par les technologies de machine learning. Explications.

Un nouveau rôle dans l’entreprise : le DPO

La gouvernance de l’information est déjà un sujet majeur pour les entreprises. Chaque donnée peut en effet constituer la « clé » de la différenciation, que ce soit face à la concurrence, pour aider à la prise de décision, ou encore pour une meilleure maîtrise des risques. Or, avec le RGPD, entré en vigueur à l’été 2016 et applicable en mai 2018, un nouvel enjeu va accompagner cette dimension incontournable de la stratégie de l’entreprise : être en mesure de redonner le contrôle de leurs données à ceux qu’elles concernent directement.

C’est pour cela que le RGPD exige des entreprises la nomination d’un Délégué à la Protection de la Donnée (ou DPO, pour Data Privacy Officer, en anglais) dans les entreprises et les institutions européennes. C’est lui qui aura pour mission d’orchestrer la nouvelle politique relative aux données dans l’entité avec laquelle il collabore. Il devra notamment tenir un registre de toutes les opérations de traitement, comportant notamment :

  • La finalité du traitement des données (par exemple, « Données traitées pour communiquer mensuellement sur nos actualités d’entreprise ») ;
  • La description des personnes et des données personnelles utilisées (par exemple, « Clients ayant commandé au moins une fois un de nos produits », et « nom, prénom et email ») ;
  • Les différentes catégories de destinataires des données (par exemple, « envoi par logiciel emailing », « envoi par courrier » ou encore « appels téléphoniques ») ;
  • Les garanties de sécurité intégrées au traitement des données (certifications obtenues, résultats d’audits ou encore attestations des éditeurs de logiciels)…

De nouveaux droits à faire respecter

Si le DPO doit optimiser la gouvernance de l’information, c’est parce que la maîtrise de ce véritable patrimoine doit permettre de garantir le respect de certains droits des consommateurs via le RGPD. Ainsi, il doit être en mesure d’assurer l’effacement des données dès lors qu’une personne concernée en fait la demande. C’est ce que l’on appelle communément le « droit à l’oubli », institutionnalisé, donc, dans le RGPD. Les consommateurs doivent aussi pouvoir consulter les informations qu’une entreprise possède sur eux pour, au besoin, les modifier (une adresse incorrecte, un nom mal orthographié, une composition du foyer inexacte ou obsolète…). En limiter les usages également, et les anonymiser. Le tout dans un laps de temps assez court, les entreprises devant satisfaire les demandes « dans les meilleurs délais et, si possible, 72 heures au plus tard après en avoir pris connaissance », selon les textes officiels !

Toutes ces dimensions posent aussi la question de la portabilité des données. Le DPO doit en effet être en mesure de rendre les informations consultables dans un format couramment utilisé, et lisible par n’importe quel particulier. Sans imposer, donc, le recours à un logiciel peu courant et/ou payant !

Les apports du machine learning pour le RGPD

Autant dire que la tâche peut sembler bien fastidieuse avec des solutions « classiques » et non optimisées. C’est pour cela que le recours à des solutions de gouvernance de l’information intégrant une forte dimension « machine learning » constitue un impératif.

Ce que le machine learning va permettre de faire ? Identifier la donnée, de plus en plus rapidement au fur et à mesure de l’utilisation de la solution, et automatiser les process. Répondre avec plus d’efficacité aux demandes des consommateurs. Leur permettre d’exercer leurs différents droits (limitation, rectification, anonymisation, suppression) prévus dans le RGPD. Enrichir le registre de traitement, que la CNIL doit pouvoir consulter. Assurer, enfin, la portabilité des données, que ce soit en direction des personnes concernées par les données ou d’une autorité de contrôle !

Le machine learning est donc l’allié des futurs DPO (aujourd’hui, simples « correspondants informatique et libertés ») dans la mise en place d’une gouvernance de l’information en accord avec les principes de la nouvelle Réglementation Générale sur la Protection des données. Vous souhaitez en savoir plus sur cette technologie ? Comprendre en quoi une solution d’archivage numérique s’appuyant sur le machine learning peut vous aider à rendre l’utilisation des données plus transparente ? Contactez les experts Everteam !

 

 

RGPD : les 6 étapes de la mise en conformité recommandées par la CNIL et les outils pour y répondre

Dans un monde qui se digitalise, tout devient donnée. Chaque fait, chaque décision, chaque acte devient une information, qui peut être traitée, exploitée, classée. Et ce à des fins commerciales, institutionnelles, réglementaires, statistiques ou encore scientifiques ! C’est pourquoi un nouveau cadre réglementaire, adapté à ces enjeux inédits et au volume de ces données — le fameux Big Data —, est en train de se mettre en place : le Règlement Général sur la Protection des Données, ou RGPD pour les intimes. Il sera entièrement applicable dès le 25 mai 2018, et ce au niveau européen. Comment s’y préparer ? Quels outils mettre en place à chaque étape recommandée par la CNIL ? Décryptons cela ensemble !

  • LE RGPD EN BREF

    Avant de voir en détail les outils qui permettront de satisfaire aux 6 étapes de la mise en conformité établies par la CNIL, commençons par un rapide point sur ce qu’est le Règlement Général sur la Protection des Données. Ce nouveau texte de référence européen, promulgué en avril 2016 et applicable en mai prochain, a pour ambition d’encadrer la protection des données à caractère personnel, et de renforcer les droits des consommateurs en la matière.

    Il repose notamment sur un consentement explicite et positif de ceux dont les informations sont récupérées, sur un droit à l’effacement et à la portabilité, ainsi que sur un cadre (enfin !) harmonisé au niveau européen. Il impose donc aux acteurs économiques de répondre à de nouvelles exigences, à même de renforcer la confiance que les consommateurs peuvent leur accorder.

LES 6 ÉTAPES DE LA MISE EN CONFORMITÉ

Le nouveau RGPD sera prochainement une réalité pour les entreprises, quel que soit le secteur d’activité. Il convient donc de s’y préparer dès maintenant. Pour cela, la CNIL a publié un référentiel de mise en conformité, en 6 étapes, afin d’être en mesure de garantir aux consommateurs que le traitement de leurs données entre parfaitement dans le cadre défini au niveau de l’Union européenne. Voici lesquelles :

  • Étape 1 : désigner un pilote. Sa mission ? Gérer la gouvernance des données personnelles. Il lui reviendra de planifier les actions destinées à appliquer le RGPD. Il deviendra en 2018 le « correspondant informatique et libertés » de l’entreprise ou le DPO (Délégué à la Protection des Données).
  • Étape 2 : cartographier. Il s’agira de recenser le traitement des données personnelles (finalités, sous-traitants, stockage, durée de conservation…), via un « registre des traitements ».
  • Étape 3 : prioriser. Le nouveau RGPD doit entraîner des actions correctrices sur le traitement des données personnelles. Celles-ci doivent être priorisées en fonction des risques qui pèsent sur les droits des consommateurs concernés.
  • Étape 4 : gérer les risques. Cette étape consiste à corriger les défauts constatés dans le traitement des données, via une analyse d’impact sur la protection des données.
  • Étape 5 : organiser les processus internes. Maintenant que les défauts sont corrigés, il convient de réorganiser le traitement des données, en accord avec les obligations du RGPD.
  • Étape 6 : documenter. La mise en conformité doit être démontrée par une documentation complète, actualisée régulièrement et exportable facilement.

QUELS OUTILS POUR RÉPONDRE AUX ÉTAPES DE LA CNIL ?

La CNIL fournit différents outils pour se mettre en conformité avec le RGPD. Ainsi, en premier lieu, un modèle de registre des traitementsest disponible, afin d’aider les entreprises à cartographier leurs pratiques actuelles. Sur le volet « analyse d’impact », des guides « méthodologie »« outillage » et « bonnes pratiques » sont proposés pour apprendre à mieux gérer les risques. Enfin, un exemple de clause de contrat sous-traitant (y compris pour maintenance et télémaintenance) peut être téléchargé.

La bonne mise en place du RGPD dans les entreprises passera aussi par une fine analyse des données  aujourd’hui réparties dans les applications du SI et un archivage efficace possible de celles-ci. En effet, comment garantir l’accès des consommateurs à leurs données personnelles si celles-ci sont irrécupérables, inatteignables et introuvables, dans la masse de data créée et gérée par l’entreprise ?

Pour y répondre, il est idéal d’opter pour une solution d’analyse multi-sources des données dotée de technologies de machine learning permettant d’identifier les données personnelles, complétée par une solution d’archivage en mode Cloud privé, proposant des fonctionnalités de signature électronique, d’horodatage certifié et d’hébergement, en adéquation avec la nouvelle réglementation européenne.

Ainsi, les consommateurs auront l’assurance de pouvoir accéder à leurs données sur demande, de pouvoir demander des modifications ou la suppression ( “droit à l’oubli”) si besoin, et d’en limiter l’usage. Du côté de l’entreprise, c’est l’accès à une meilleure efficacité grâce au machine learning, à une meilleure certification des données et des process, et à un respect complet des impératifs dictés par le RGPD !

Si le RGPD n’est applicable qu’à partir de mai 2018, il convient de prendre dès maintenant toutes les mesures pour en respecter les principes. Vous souhaitez vous faire accompagner dans cette démarche ? Contactez au plus vite les experts de l’équipe Everteam, spécialiste de la gouvernance de l’information !

 

Les 5 questions à se poser lors du choix de votre outil de partage de fichiers (File Sharing)


Google Drive, Microsoft OneDrive, Apple iCloud, Dropbox, ou une solution de Cloud privée aux fonctionnalités plus avancées ? Choisir un outil de partage de fichiers, c’est un moment important dans la vie d’une entreprise. Il va en effet définir, pour les prochaines années, la politique de gouvernance de l’information au sein de la structure, la gestion des données et la valeur ajoutée que l’on peut en attendre ! C’est pourquoi il convient de se poser impérativement certaines questions. 5, plus exactement. Voici lesquelles !


De quel niveau d’interopérabilité ai-je besoin ?

C’est l’un des gros reproches « historiques » fait aux solutions Cloud grand public : l’absence de format de disque virtuel commun, compliquant grandement l’interopérabilité des Clouds. Reproduisant, de fait, les phénomènes de verrouillage, connus dans le passé dans des environnements physiques. Si aujourd’hui, des travaux sont en cours pour corriger ce défaut, le constat est clair : passer d’un Cloud à un autre n’est pas des plus faciles. Les possibilités de réversibilité sont volontairement faibles, afin de limiter les changements d’outils dans les cas de migrations massives. Sauf en confiant ses données à un logiciel de gestion de contenus d’entreprise.

Quel est le niveau de confidentialité de mes données ?

Les outils de File sharing grand public offrent un niveau de confidentialité des données satisfaisant… pour les particuliers. Les professionnels peuvent en effet manipuler des documents sensibles, nécessitant un niveau de protection plus avancé, passant à la fois par l’accès au fichier et par un cryptage avancé des données qu’il contient. Ce qui impose, de fait, de se rapprocher d’autres solutions que les Clouds de Google, Microsoft ou encore Apple.

Quelles sont mes exigences en termes de qualité de service ?

Le Service-Level Agreement (SLA) des solutions Cloud, c’est le document qui va définir la qualité de service que l’on peut attendre du prestataire. Il est capital de prendre le temps d’étudier ce qui est annoncé, et de comparer avec ce que l’on attend pour son entreprise. La capacité du Cloud à consommer et à utiliser les ressources va en effet constituer une donnée incontournable pour s’assurer que l’on n’aura jamais affaire à une interruption totale de service. Laquelle serait source de perte de temps et de chiffre d’affaires potentiel pour l’entreprise !

Comment m’assurer de maîtriser les coûts ?

Le coût de l’archivage numérique peut augmenter au fur et à mesure que les fichiers s’accumulent dans le Cloud… alors même que certains documents pourraient être supprimés, parce qu’ils existent en plusieurs exemplaires, parce qu’ils sont obsolètes, ou encore parce qu’ils concernent des produits, des clients ou des process qui n’ont plus de réalité dans l’entreprise. C’est pourquoi il est capital, au moment de choisir un outil de partage de fichiers, de s’assurer qu’une gestion intelligente et dynamique sera possible tout au long du cycle de vie des documents.

Ai-je besoin de services supplémentaires ?

Une gouvernance de l’information plus « poussée » que le simple stockage des fichiers dans un Cloud grand public offre d’autres services à forte valeur ajoutée :

  • Des recherches fédérées, sur de multiples espaces de File Sharing ;
  • L’identification immédiate des documents les plus engageants via le machine learning ;
  • L’optimisation des espaces en procédant à l’isolation des doublons et des fichiers obsolètes ;
  • L’indexation automatisée des métadonnées liées aux fichiers stockés ;
  • Le cryptage avancé des documents ;
  • Le respect en temps réel des dernières normes et règles de conformité…

Prenez le temps de bien étudier ce que proposent les services de partage de fichiers, en comparant les promesses avec vos attentes. N’oubliez pas que ce choix vous engage pour plusieurs années : autant faire le bon dès le départ !

La Gouvernance de l’information au delà des frontières

La Gouvernance de l’information au delà des frontières

Que vous ayez affaire à des pratiques de gouvernance de l’information et de records management dans plusieurs départements d’une entreprise ou dans des filiales de pays différents, établir des pratiques et outils communs de gouvernance et de records management s’avère être une tâche complexe.

Un de nos clients, une grande entreprise du secteur financier, a fait face à ce problème précis. Possédant des bureaux dans le monde entier, la société souhaitait établir des pratiques de gouvernance de l’information et de records management dans leurs différentes filiales réparties dans sept pays différents.

Mais ils ont vite réalisé qu’il y avait deux facteurs essentiels afin de relever ce défi. En premier lieu, il fallait définir les pratiques qui seraient d’une part, adéquates pour toute l’entreprise, et d’autre part, prendraient en compte les différences géographiques, répondant ainsi aux diverses exigences réglementaires propres à chaque pays. En second lieu, ils avaient besoin d’une solution de records management qui puisse supporter tous les processus, et s’adapter encore une fois aux différences géographiques.

Cette expérience révéla qu’il était difficile d’améliorer efficacement ces processus, et même impossible d’avoir une vue d’ensemble sur l’entreprise et son activité en autorisant les différentes filiales à définir leur propre politique d’archivage. Une approche de records management décentralisée était alors synonyme d’incohérences et de risques de non-conformité, et qui plus est, il était impossible de faire une recherche dans l’ensemble des systèmes à partir d’un seul endroit.

En fin de compte, ils ont compris que même en opérant dans différentes régions avec différentes règles de conformité, ils pouvaient encore tirer profit d’une solution d’entreprise centralisée. Le système qu’ils ont mis en place leur permet aujourd’hui de disposer de politiques de gouvernance de l’information cohérentes et tenant compte de toutes les zones géographiques, même lorsqu’il faut répondre à des exigences locales et relier les systèmes produisant des documents afin de les transformer en un unique système leur permettant la gestion et la recherche d’informations, et ce, quel que soit leur emplacement.

Une visibilité améliorée pour une meilleure efficacité

Parlons maintenant de ce qu’un logiciel de records management peut faire pour vous : vous fournir une interface unique pour gérer vos documents indépendamment du pays ou système d’origine, vous donner une interface pour modifier les règles de conservation et autres règles ou politiques de conformité et faire en sorte que ces normes soient appliquées automatiquement à l’ensemble des documents concernés.

Mais allons plus loin. Ajoutons à cela, une recherche unifiée, combinée à une capacité d’indexation en temps réel liée à ce système d’archivage, qui relie les systèmes utilisés dans les différentes filiales et qui permette de rechercher et retrouver l’information rapidement, d’obtenir des résultats relatifs à l’information et renvoyés vers différents emplacements géographiques.

Bien évidemment, cette fonctionnalité de recherche doit être faite en adéquation avec les normes de sécurité afin que seuls les individus habilités puissent trouver les documents dont ils ont besoin.

En définitive, il s’agit d’améliorer l’accès à l’information et d’être cohérent avec les politiques de gouvernance de l’information définies dans l’ensemble des filiales de l’entreprise. Il s’agit aussi d’augmenter l’efficacité opérationnelle, car essayer de gérer les politiques de conservation de documents et autres règles de conformité en fonction des filiales et des pays de manière manuelle est presque impossible à faire.

Est-ce que l’histoire de cette entreprise est aussi la vôtre ?

Est-ce qu’une partie des défis liés à la gouvernance de l’information et au records management au sein de votre entreprise sont également liés à la problématique de gestion de plusieurs départements, entités, ou pays ?

Créer un modèle universel de gouvernance de l’information qui étend l’envergure de l’organisation est un défi, mais un défi surmontable avec la solution de gestion de contenus adaptée.

Des questions ? Contactez-nous !