Articles

6 erreurs à éviter pour bien catégoriser vos données archivées

L’archivage numérique offre des avantages non-négligeables aux entreprises. Il permet en effet de limiter — voire de supprimer — les coûts liés au stockage du papier, de faciliter la manipulation des documents d’un collaborateur à un autre, et d’optimiser le partage des informations, que ce soit au sein même de l’entreprise ou vers l’extérieur. Mais pour constituer un succès, un projet d’archivage doit reposer sur une catégorisation efficace : Catégoriser c’est ranger … et quand c’est rangé c’est tout de suite plus facile de s’y retrouver !

Voici 6 erreurs à ne pas commettre si l’on veut archiver efficacement

Erreur #1 : Confondre “sauvegarde” et “archivage”

Les normes en matière d’archivage numérique sont nombreuses (comme les normes ISO 14641-1 et ISO 3030X par exemple, et certaines sont même adaptées à votre activité ou à la sensibilité de vos données) et listent les bonnes pratiques à respecter. Il serait donc bon de les avoir en tête au moment de construire un projet d’archivage ? Un conseil : ne les lisez pas ! A moins vraiment d’en avoir envie, mais choisissez plutôt  un système d’archivage certifié (la marque NF 461 garanti par exemple qu’un système est conforme avec la norme ISO 14641-1), c’est la première étape, et ensuite alimentez le …

Mais attention, ne confondez pas “sauvegarde” et “archivage”.

L’archivage doit suivre une méthode : On archive uniquement que les documents importants (ou engageants) et on les décrit précisément pour pouvoir facilement les retrouver et surtout pour savoir combien de temps on doit les conserver.

Sauvegarder c’est beaucoup plus simple : On prend tout en vrac et on croise les doigts pour retrouver ce que l’on cherche le moment venu.

Vous conviendrez que ce n’est pas tout à fait la même chose. L’archivage nécessite de trier et de décrire ou catégoriser … Il faut ranger en somme, mettre tout simplement les bons documents dans les bonnes catégories.

Erreur #2 : un référentiel de conservation absent

Le référentiel de conservation est un véritable « mode d’emploi » de l’archivage numérique, une sorte de dictionnaire des catégories. Par extension, il est autant « de conservation » que… « de destruction » : c’est en effet ce document qui va indiquer aux collaborateurs les durées de conservation de chaque catégorie de documents, explicitant obligatoirement celles-ci par une motivation légale ou réglementaire (une loi imposant, par exemple, de ne conserver certaines données personnelles que 5 ans), un besoin métier défini par le service impliqué dans l’utilisation ou la production du document, ou un consentement limité exprimé par les personnes concernées.

Aucun archivage efficace ne sera donc possible sans un référentiel de conservation précis.

Erreur #3 : trop de catégories de documents

L’archivage est donc une pratique qui nécessite de la précision. L’objectif ? Être capable de retrouver n’importe quel document recherché, le plus rapidement possible et en faisant intervenir le moins de personnes possible. Cela implique de ne pas « surcharger » son système d’archivage numérique, et de ne pas multiplier les catégories. Une bonne gouvernance de l’information ressemble, schématiquement, à un arbre, dont chaque branche (ou catégorie) se divise en branches plus petites (ou sous-catégories). Si ces dernières sont trop nombreuses, il ne vous sera pas possible de vous retrouver efficacement dans votre système. Et vos archives ne vous permettront pas de gagner, véritablement, le temps espéré.

Si catégoriser un document est trop complexe, vos collaborateurs le feront-ils ?

Erreur #4 : pas assez de catégories de documents

Pour autant, ce n’est pas une raison de tomber dans l’excès inverse, et donc de ne n’avoir que quelques catégories de documents (« Administratif », « Supports de communication », « Documents internes » et « Prospects », par exemple). En procédant ainsi, chaque catégorie ressemblerait à une masse non triée de données, de documents et d’informations. Retrouver un fichier précis reviendrait donc à chercher une aiguille dans une botte de foins.

Le nombre de catégories dans un référentiel d’archivage est donc une histoire de dosage.

Si catégoriser un document est trop simple, certes vos collaborateurs le feront aisément mais est-ce que ce sera suffisant  pour retrouver ce document ?

Erreur #5 : un référentiel de conservation mal compris

Le référentiel de conservation va donc constituer le document de base pour bien catégoriser les données archivées. Il pourrait être présenté sous la forme d’un tableau, comportant plusieurs colonnes :

  • Les « documents engageants », qui doivent être conservés pour des raisons juridiques, financières ou de besoins métier ;
  • Les différentes durées de conservation, avec les motivations liées ;
  • Le sort final, que l’on résume généralement avec deux lettres, D pour destruction et C pour conservation historique ;
  • Le prestataire de l’archivage;

et ce … catégorie par catégorie.

Mais êtes-vous certain que ce tableau parle à tous vos collaborateurs ? Ne vont-ils pas systématiquement choisir la catégorie “divers” parce qu’ils ne comprennent pas les autres ?

Ce n’est pas une bonne idée de construire un référentiel dédié pour chacune des populations de vos collaborateurs, trop complexe, trop difficile à maintenir. Mais rien ne vous empêche de simplement renommer certaines catégories pour coller à la terminologie de ces populations. Notez également qu’un effort de pédagogie pourrait ne pas être inutile.

Erreur #6 : oublier que l’informatique est là pour vous aider

Vous serez donc maintenant d’accord avec moi, catégoriser est nécessaire pour archiver. Mais personne ne vous a dit de le faire à la main ! Les technologies de l’information ont énormément progressé ces dernières années, les systèmes d’archivages électroniques modernes sont maintenant capables de catégoriser automatiquement les documents, pour peu que l’on ait pris un peu de temps pour leur expliquer comment faire. Étonnant ? Non ! Je vous rappelle que l’on vit dans un monde où les voitures conduisent toutes seules …

L’archivage numérique est un gage d’efficacité nouvelle pour les entreprises… à condition d’être bien construit et bien préparé. Vous souhaitez en savoir plus, vous faire guider dans ce projet ? Contactez les équipes d’Everteam, qui vous aideront à le mener à bien !

Case Management : 10 exemples inspirants pour les entreprises !

Solution permettant d’instruire les dossiers électroniques en simplifiant tout à la fois la capture des informations et leur circulation au sein des services, le Case Management constitue une promesse inédite d’efficacité pour les entreprises. Il peut ainsi servir dans de nombreux domaines. La preuve avec ces 10 exemples, piochés dans 3 secteurs d’activité différents !

 

Case Management, quèsaco ?
Commençons cependant cet article par bien définir ce dont nous allons parler. Le Case Management allie la gestion documentaire, les processus métier et le travail collaboratif au sein d’un même espace. Ainsi, l’expression « Case Management » peut difficilement être traduite en une seule expression dans notre langue : cette solution regroupe la gestion des demandes, la gestion des dossiers et la gestion d’affaires. Rien que ça ! Le Case Management permet ainsi de s’assurer que l’ensemble des documents concernés par les processus de l’entreprise seront traités par le bon acteur et le bon service. Ses avantages sont non-négligeables :

– Il réduit les délais de traitement des demandes ;

– Il permet de gagner en productivité et en flexibilité ;

– Il lisse les charges de travail ; – Il s’implémente facilement et rapidement au cœur des process ;

– Il permet de disposer d’un ROI rapide et d’une vue d’ensemble sur l’activité grâce à des tableaux de bord dynamiques…


Dans l’assurance

1/ Les sinistres

La gestion des sinistres fait souvent intervenir plusieurs interlocuteurs. Avec le Case Management, chaque dossier est traité efficacement, étant confié au collaborateur le plus à même de le mener à son terme, avec toutes les informations nécessaires immédiatement disponibles.

2/ La fidélisation

Fidéliser ses assurés, c’est nouer une relation solide ceux-ci. Pour cela, il est important d’être en mesure de disposer d’un historique complet des événements liés à son dossier. Avec en ligne de mire, une satisfaction client maximale.

3/ Les demandes clients et réclamations

Les solutions de Case Management vont être capables d’accepter, de charger et de distribuer les flux des demandes, et de les distribuer aux collaborateurs concernés. Le traitement des demandes va donc être réduit au maximum !

Dans les ressources humaines

4/ Les absences

Le Case Management permet de définir des workflows, assignant automatiquement n’importe quelle demande au bon interlocuteur. Ce sera par exemple le cas de la gestion des absences…

5/ Les demandes de formation

… comme des demandes de formation, qui imposent de croiser la demande avec le dossier du salarié concerné — notamment concernant les heures de formation acquises.

6/ Les relevés d’heures

L’emploi de travailleurs intérimaires nécessite de produire, en temps et en heure, certaines pièces. Avec une solution de Case Management, cet impératif peut être automatisé !

7/ Les évolutions contractuelles

Promotions, négociations salariales, conflits avec la direction… le Case management permet de regrouper toutes les informations nécessaires sur les salariés, pour gérer au mieux les dossiers, et ce au quotidien.

Dans l’immobilier

8/ La location d’un bien

Contrôle des pièces des candidats à la location, dématérialisation du dossier, gestion à distance du bail… le Case Management appliqué à l’immobilier permet de gagner un temps précieux, que ce soit pour les gestionnaires ou pour les locataires !

9/ La vente d’un bien

Idem concernant la vente d’un bien : gestion de l’offre, variations sur le prix, historique des visites, relances des personnes intéressées, signature du compromis de vente… Toutes ces questions peuvent être intégrées à une solution de Case Management. Offrant ainsi une vue à 360° sur n’importe quel dossier en cours.

Dans la banque

10/ Les crédits

Les demandes de crédits représentent de véritables opportunités commerciales pour les banques. Or, ne pas s’en occuper en temps et en heure, c’est se priver d’une source potentielle de revenus. Avec le Case Management, le bon dossier est confié au bon collaborateur, lequel dispose des bonnes informations (historique des comptes, taux d’endettement…) pour prendre les meilleures décisions et prodiguer les conseils les plus pertinents.

Le Case Management est un outil passionnant pour aboutir à une satisfaction client optimale. N’hésitez pas à vous rapprocher des équipes d’Everteam pour en savoir plus !

Les 4 piliers de la gouvernance de l’information dans l’industrie

Un programme de gouvernance de l’information dans le secteur industriel, cela se structure, s’optimise, se prépare. Mais quels sont les piliers qui permettent de définir une nouvelle politique de gestion des données ? Quels outils et process doivent être mis en place ? Réponse tout de suite, avec le retour d’expérience de Safran, groupe international de haute technologie, équipementier de premier rang dans les domaines de l’Aéronautique, de l’Espace, de la Défense et de la Sécurité, qui emploie plus de 70 000 personnes !

Premier pilier : la stratégie

Le premier pilier de la gouvernance de l’information est le plus évident : la stratégie. Il s’agit en effet de décider, au-delà de la solution d’archivage retenue, des objectifs à atteindre avec la nouvelle politique des données.

Cet enjeu capital doit être impulsé au plus haut niveau, au sein d’un modèle top-down : ce sont les décideurs (dirigeants, managers…) qui en définissent le cadre, via un audit, une initiative pilote, ou encore des réunions de travail. Ce qui permet d’aboutir à répondre à une question simple mais essentielle : qu’attend-on de la gouvernance de l’information ?

Dans le cas de Safran, par exemple, la direction du groupe souhaitait optimiser la gestion de ses archives, en s’appuyant sur un outil d’archivage fluide et simple, à même de répondre aux réglementations, aux défis et aux attentes normatives liés à son activité. Ainsi qu’à anticiper la demande de mise à disposition de documents lors d’éventuels audits !

Deuxième pilier : l’organisation et les processus

Mettre en place une gouvernance de l’information efficace doit se faire de manière concertée, impliquant de fait tous les acteurs de l’entreprise industrielle concernée. Cela passe, tout d’abord, par la construction et la diffusion de règles de classification, de catégorisation et de partage de l’information. Ensuite, la gestion du cycle de vie des informations devra être définie : qu’est-ce qui est concerné par l’obsolescence, à partir de quand ? Quelles actions devront être alors mises en place, et dans quel délai ? Quelles sont les informations les plus importantes, celles à récupérer le plus facilement et le plus rapidement ?

Dans le cas de Safran, un soin particulier a donc été porté à la création des règles permettant, in fine, une réelle valorisation du patrimoine documentaire et une réponse concrète aux obligations légales, réglementaires ou normatives liées à la conservation des documents. L’étape ultime… avant le pilier suivant : le choix des outils !

Troisième pilier : les outils

Bien sûr, les outils constituent un pilier essentiel de la gouvernance de l’information dans le secteur industriel. Ils doivent répondre à plusieurs impératifs. Tout d’abord, une simplicité d’utilisation qui n’empêchera personne, quel que soit son niveau d’acculturation au numérique, de s’en servir au quotidien. Ensuite, une compatibilité totale avec les formats de fichiers et les solutions utilisés précédemment, pour ne perdre aucune information lors du déploiement. Enfin, une personnalisation possible aux enjeux de l’industrie, afin qu’aucune fonctionnalité ne soit manquante.

Ainsi, pour Safran, il s’est agi d’adopter un outil fonctionnant avec les règles de la société, compatible avec les fichiers Excel utilisés précédemment, suffisamment souple pour différencier plusieurs niveaux de règles, et intégrant un suivi simplifié des évolutions et de l’accès aux règles d’ergonomie et de maîtrise des droits. De quoi justifier, largement, l’adoption d’un nouvel outil !

Quatrième pilier : la valeur ajoutée

Ce pilier-là va justifier l’ensemble de la démarche de gouvernance de l’information, et permettra de répondre à la question suivante : « Que peut-on faire maintenant, que l’on ne pouvait pas forcément faire avant ? » L’idée étant, bien sûr, d’atteindre les objectifs fixés dans le premier pilier, mais aussi et surtout de les dépasser !

Illustration chez Safran ? Plus de 200 000 descriptifs de documents sont actuellement gérés avec fluidité et simplicité dans l’application. L’entreprise industrielle peut ainsi :

  • Accéder aux documents réclamés en cas d’audit ou de contentieux ;
  • Valoriser son patrimoine documentaire ;
  • Assurer une conservation optimale des documents.

Vous souhaitez vous faire accompagner dans cette démarche ? Personnaliser ces piliers à vos enjeux industriels propres ? Contactez les experts d’Everteam ou rencontrons-nous lors de notre prochaine matinale dédiée à la gouvernance de l’information

 

 

 

 

 

 

Le RGPD & Vous : Prêts pour le nouveau règlement européen sur la protection des données ?

Le nouveau règlement de l’UE sur la protection des données (RGPD) pointe le bout de son nez

Le volume de données personnelles stocké par les entreprises et les autorités a littéralement explosé et la valeur de ces mêmes données a augmenté car les activités personnelles faisant l’objet de transactions sur Internet sont toujours plus nombreuses. Le vol d’identité s’est également développé. En plus du chaos pour les entreprises et de l’impact sur la fidélité des clients qu’entraînent les violations de données, de nombreuses juridictions cherchent à aligner leur législation en matière de protection des données sur le nouveau monde basé sur Internet, les deux n’étant malheureusement pas en phase.

Cependant, une transformation de fond est en train de s’opérer. En effet, à l’ère de l’économie numérique, l’information est devenue la monnaie d’échange. Et l’information ne connaît pas de frontières. L’harmonisation des réglementations qui favorise le libre flux de l’information tout en renforçant les droits à la confidentialité et à la sécurité est un impératif pour les décideurs politiques. Prenons l’exemple des blocs commerciaux que sont l’Union européenne d’une part et les États-Unis de l’autre. La valeur totale de l’activité des biens et services entre les deux plus importants blocs est estimée à 5,5 trillions (5000 milliards) de dollars et elle fait vivre 15 millions de personnes. Selon les estimations, les flux transfrontaliers entre l’UE et les USA sont 50% supérieurs à ceux de tout autre bloc commercial. En outre, 65% des investissements des États-Unis dans les technologies de l’information sont réalisés dans l’Union européenne.

Ces tendances troublantes incitent les régulateurs à renforcer la législation sur la sécurité et la confidentialité des données afin d’imposer des obligations plus strictes aux entreprises et aux contrôleurs de données. Le nouveau Règlement Général sur la Protection des Données (RGPD) de l’UE est la preuve la plus flagrante de ce qui sera bientôt un raz de marée règlementaire sur la sécurité et la confidentialité des informations sous la houlette des autorités nationales et du marché.

Historiquement, l’Union européenne a toujours placé la barre haute pour ce qui est de la protection de la vie privée, cette dernière étant considérée comme un droit humain fondamental. L’Article 7 de la Charte des droits fondamentaux de l’Union européenne stipule que « Toute personne a droit au respect de sa vie privée et familiale, de son domicile et de ses communications. »

En réponse aux progrès des technologies numériques telles que le Big Data, le Cloud computing et l’analyse prédictive, ainsi qu’aux révélations de collecte et de profilage des données brutes opérés par les services de renseignements, le Règlement Général pour la Protection des données (RGPD) est une refonte complète de la législation sur la vie privée qui renforce et étend sensiblement le droit à la vie privée.

Il intègre des exigences plus strictes en matière de consentement, l’anonymisation des données, le droit à l’oubli ainsi que la notification des failles, sachant que si ces dernières ne sont pas signalées, elles peuvent entraîner des amendes pouvant atteindre 20 millions d’euros ou 4% du chiffre d’affaires mondial de l’exercice précédent, le montant le plus élevé étant retenu, et qui seront perçues par l’organisme local de contrôle de la protection des données personnelles (la CNIL en France). Concernant les autres failles, les autorités peuvent infliger aux entreprises des amendes d’un montant maximum de 10 millions d’euros ou 2% de leur chiffre d’affaires annuel, le montant le plus élevé étant retenu. Pour une entreprise figurant dans le classement Fortune 500, cela peut représenter des amendes entre 800 et 900 millions de dollars.

Dans notre nouvel e-book intitulé – Information Privacy and Security: GDPR is Just the Tip of the Iceberg (« Confidentialité et sécurité de l’information : le RGPD n’est que la partie émergée de l’iceberg »), nous nous penchons sur cinq questions clés qui devraient faire partie des priorités de chaque cadre dirigeant de l’entreprise, à savoir :

  1. Comment a évolué l’environnement de la confidentialité et de la sécurité de l’information ?
  2. Qu’est-ce que le RGPD, pourquoi faut-il s’en préoccuper et quelles incidences sur votre entreprise ?
  3. Que veut dire « Privacy by Design » ?
  4. Comment l’Internet des Objets (IoT) rend l’équation de la confidentialité encore plus compliquée ?
  5. Comment votre entreprise doit-elle réagir face à tout cela et quel est le rôle du Machine Learning pour résoudre le problème ?

Vous pouvez télécharger l’ebook en cliquant ici et vous inscrire à notre newsletter pour recevoir plus d’informations et de conseils sur le RGPD et la gouvernance de l’information, directement dans votre boîte mail.

Boostez l’archivage avec le Big Data !

Le capital informationnel des entreprises a pris une toute autre valeur depuis quelques années, que ce soit en termes juridiques ou financiers. L’archivage numérique ne peut plus se contenter d’être un simple espace de stockage : il doit « sublimer » les données, apporter une réelle valeur ajoutée à celles-ci et devenir l’outil principal de la gouvernance de l’information. Et pour cela, le Big Data est son meilleur allié.

 

Réduisez les coûts IT avec le Big Data…

L’archivage numérique n’a pas vocation à conserver ad vitam aeternam toutes les informations, tous les logiciels et tous les documents un jour utilisés dans l’entreprise : le cycle de vie de la donnée, qu’elle soit structurée ou documentaire, se caractérise aussi par une « fin », un moment où aucune obligation légale n’impose plus de la conserver. Il convient alors de la supprimer, notamment pour optimiser les espaces de stockage. C’est exactement ce que permet de faire le Big Data, via des fonctionnalités d’analyse de la valeur de la donnée. Ainsi, il est possible :

  • De décommissionner les applications devenues obsolètes, avec extraction et valorisation des données utiles (puis stockage dans un format générique et standard, comme le XML par exemple), avec retrait des systèmes existants ;
  • De détecter et de retirer les doublons, ces fichiers parfois obsolètes présents en plusieurs exemplaires dans le système de partage de fichiers, qui peuvent être vecteurs d’une information erronée et datée, et occupent de l’espace de stockage inutilement ;
  • De détecter les fichiers les plus engageants ;
  • De donner plus de sens et de la valeur aux fichiers via le Machine Learning …

Bref, le Big Data constitue un apport précieux à l’archivage dès lors qu’il accompagne, en plus de la transformation numérique de l’entreprise, la réduction des coûts IT. Le gage d’une efficacité renouvelée et d’une gouvernance de l’information optimisée !

 

… et les pertes de temps !

L’archivage « 3.0 », nouvelle génération et appuyé par le Big Data est aussi celui du gain de temps pour les entreprises. Un outil de recherche transverse et performant sur l’ensemble des partages de fichiers des acteurs économiques, permet ainsi un accès rapide, efficient et fédéré à cette masse de donnée et non plus cloisonné par espace de stockage comme il fallait s’en contenter auparavant.

C’est d’autant plus important que le prochain RGPD, qui entrera en vigueur en mai prochain, impose aux entreprises et aux institutions d’être en mesure d’accéder rapidement aux données personnelles des consommateurs et des particuliers, pour que ceux-ci puissent exercer l’ensemble de leurs nouveaux droits :

  • L’effacement pur et simple des données (le « droit à l’oubli » dans le langage courant) ;
  • La correction d’informations erronées ou datées ;
  • La limitation de l’usage ;
  • L’anonymisation des informations…

Autant dire que dans ces conditions, le Big Data est un allié précieux dans la mise en place d’une politique de gouvernance de l’information en accord avec les exigences du RGPD. Il permet ainsi de donner une dimension stratégique au patrimoine informationnel, source de valeur ajoutée supplémentaire pour l’entreprise !

Vous souhaitez en savoir plus sur ce que le Big Data peut apporter à l’archivage numérique et à la gouvernance de l’information ? Contactez-moi ! 

B.A.-BA : le Machine Learning

Précieuses pour mettre en place une politique de gouvernance de l’information, les technologies de Machine Learning sont de plus en plus présentes dans notre quotidien. Il faut dire que la numérisation de celui-ci est une tendance de fond, qui n’est pas près de ralentir ! Il est donc temps de faire le point. Qu’est-ce que le Machine Learning ? Comment est-ce que ça fonctionne ? Que peut-on en attendre ? Où en est cet « art numérique », donnant à l’intelligence artificielle une toute nouvelle dimension ? Voyons cela ensemble, en cinq questions/réponses !

Machine Learning, qu’est-ce que c’est ?

Le Machine Learning, ou apprentissage statistique dans notre langue, est une composante essentielle de l’Intelligence Artificielle. Cette appellation regroupe l’ensemble des technologies qui confèrent aux ordinateurs et aux logiciels la capacité d’apprendre par eux-mêmes, sans avoir besoin d’une intervention humaine via une programmation spécifique, de s’améliorer seuls et d’évoluer. Pour cela, le fonctionnement du Machine Learning va s’approcher de celui du Data Mining : une recherche de schémas récurrents dans les données à disposition va être effectuée, permettant d’en déduire un comportement à adopter, un ajustement du fonctionnement à opérer, ou une action à effectuer.

L’exemple le plus célèbre de Machine Learning dans la vie de tous les jours ? Le fil d’actualité de Facebook. Lorsque l’on interagit régulièrement avec un autre utilisateur (like des publications, commentaires, partages…), l’algorithme du réseau social le « voit » et adapte le newsfeed en conséquence. Il montrera alors plus souvent sur la page d’accueil les actualités de cet ami, au détriment de celles des personnes avec lesquelles les interactions sont plus réduites.

Le concept de Machine Learning peut sembler récent, et pourtant, il est théorisé dès 1959, par l’informaticien Arthur Samuel, qui le décrit comme « le champ d’étude qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés à apprendre ». Ce n’est donc pas depuis hier que nous cherchons à confier aux algorithmes la capacité de faire évoluer les ordinateurs de manière autonome, en fonction des données dont il dispose !

Comment fonctionnent les algorithmes du Machine Learning ?

Les algorithmes du Machine Learning ont un fonctionnement assez proche du cerveau humain — certains parlent même d’approche neuronale. Ils apprennent par entraînement : à partir de données connues, il va faire des prédictions, puis comparer ses prédictions avec des résultats concrets. Plus il a l’occasion d’effectuer cette comparaison, mieux il arrive à « deviner » et à optimiser ses prédictions. De même, plus il a de données à disposition, plus vite il s’entraîne et est efficace !

Il existe ainsi de nombreux modèles d’algorithme en Machine Learning :

– Le Random Forest, qui repose sur de nombreux arbres de décision pour parvenir à une prédiction ;

– Les machines à vecteurs, qui classent des exemples pour créer des modèles et enrichir les données ;

– Les réseaux bayésiens, qui utilisent les probabilités pour analyser les données et créer des relations entre elles ;

– Le clustering, qui regroupe des sous-ensembles de documents par similarité…

Où en est-on de l’adoption des technologies de Machine Learning ?

Le Machine Learning se développe ces dernières années dans le monde professionnel grâce à un allié logique : le Big Data. En effet, quoi de plus normal que de voir l’apprentissage automatique gagner en efficacité par l’apport massif d’exemples et de données ? Résultat, les prédictions du Machine Learning s’améliorent, « touchent » de plus en plus de domaines, et font gagner un temps précieux aux utilisateurs. À condition, bien sûr, de trouver le juste équilibre entre une quantité d’exemples suffisante, et un temps de calcul raisonnable — la volumétrie des masses de données ne faisant qu’augmenter avec les technologies modernes.

Et demain, qu’attendre du Machine Learning ?

Aujourd’hui, le Machine Learning s’appuie sur des exemples, donc des données (décisions, actions…) déjà existantes. Nombre de spécialistes estiment que son futur s’appuiera sur des interactions avec l’environnement qui produit les données, c’est-à-dire sur des trajectoires, sur des phénomènes dynamiques et sur des interactions complexes. Le tout avec une meilleure compréhension du langage naturel (via les technologies de NLP, Natural Language Processing), pour une meilleure efficacité encore dans l’apprentissage dynamique !

Que peut apporter le Machine Learning à la gouvernance de l’information ?

Le Machine Learning constitue un allié précieux de la gouvernance de l’information. Ses technologies permettent en effet de mieux analyser, indexer, catégoriser et extraire les données. Il peut par exemple s’agir de repérer les fichiers les plus engageants, de donner du sens aux informations, de procéder à un nettoyage intelligent des doublons et fichiers obsolètes…

Plein de promesses à ses débuts, le Machine Learning s’enrichit de jour en jour de nouvelles fonctionnalités. À surveiller de près donc, y compris en matière de gouvernance de l’information !

 

 

RGPD : les 6 étapes de la mise en conformité recommandées par la CNIL et les outils pour y répondre

Dans un monde qui se digitalise, tout devient donnée. Chaque fait, chaque décision, chaque acte devient une information, qui peut être traitée, exploitée, classée. Et ce à des fins commerciales, institutionnelles, réglementaires, statistiques ou encore scientifiques ! C’est pourquoi un nouveau cadre réglementaire, adapté à ces enjeux inédits et au volume de ces données — le fameux Big Data —, est en train de se mettre en place : le Règlement Général sur la Protection des Données, ou RGPD pour les intimes. Il sera entièrement applicable dès le 25 mai 2018, et ce au niveau européen. Comment s’y préparer ? Quels outils mettre en place à chaque étape recommandée par la CNIL ? Décryptons cela ensemble !

  • LE RGPD EN BREF

    Avant de voir en détail les outils qui permettront de satisfaire aux 6 étapes de la mise en conformité établies par la CNIL, commençons par un rapide point sur ce qu’est le Règlement Général sur la Protection des Données. Ce nouveau texte de référence européen, promulgué en avril 2016 et applicable en mai prochain, a pour ambition d’encadrer la protection des données à caractère personnel, et de renforcer les droits des consommateurs en la matière.

    Il repose notamment sur un consentement explicite et positif de ceux dont les informations sont récupérées, sur un droit à l’effacement et à la portabilité, ainsi que sur un cadre (enfin !) harmonisé au niveau européen. Il impose donc aux acteurs économiques de répondre à de nouvelles exigences, à même de renforcer la confiance que les consommateurs peuvent leur accorder.

LES 6 ÉTAPES DE LA MISE EN CONFORMITÉ

Le nouveau RGPD sera prochainement une réalité pour les entreprises, quel que soit le secteur d’activité. Il convient donc de s’y préparer dès maintenant. Pour cela, la CNIL a publié un référentiel de mise en conformité, en 6 étapes, afin d’être en mesure de garantir aux consommateurs que le traitement de leurs données entre parfaitement dans le cadre défini au niveau de l’Union européenne. Voici lesquelles :

  • Étape 1 : désigner un pilote. Sa mission ? Gérer la gouvernance des données personnelles. Il lui reviendra de planifier les actions destinées à appliquer le RGPD. Il deviendra en 2018 le « correspondant informatique et libertés » de l’entreprise ou le DPO (Délégué à la Protection des Données).
  • Étape 2 : cartographier. Il s’agira de recenser le traitement des données personnelles (finalités, sous-traitants, stockage, durée de conservation…), via un « registre des traitements ».
  • Étape 3 : prioriser. Le nouveau RGPD doit entraîner des actions correctrices sur le traitement des données personnelles. Celles-ci doivent être priorisées en fonction des risques qui pèsent sur les droits des consommateurs concernés.
  • Étape 4 : gérer les risques. Cette étape consiste à corriger les défauts constatés dans le traitement des données, via une analyse d’impact sur la protection des données.
  • Étape 5 : organiser les processus internes. Maintenant que les défauts sont corrigés, il convient de réorganiser le traitement des données, en accord avec les obligations du RGPD.
  • Étape 6 : documenter. La mise en conformité doit être démontrée par une documentation complète, actualisée régulièrement et exportable facilement.

QUELS OUTILS POUR RÉPONDRE AUX ÉTAPES DE LA CNIL ?

La CNIL fournit différents outils pour se mettre en conformité avec le RGPD. Ainsi, en premier lieu, un modèle de registre des traitementsest disponible, afin d’aider les entreprises à cartographier leurs pratiques actuelles. Sur le volet « analyse d’impact », des guides « méthodologie »« outillage » et « bonnes pratiques » sont proposés pour apprendre à mieux gérer les risques. Enfin, un exemple de clause de contrat sous-traitant (y compris pour maintenance et télémaintenance) peut être téléchargé.

La bonne mise en place du RGPD dans les entreprises passera aussi par une fine analyse des données  aujourd’hui réparties dans les applications du SI et un archivage efficace possible de celles-ci. En effet, comment garantir l’accès des consommateurs à leurs données personnelles si celles-ci sont irrécupérables, inatteignables et introuvables, dans la masse de data créée et gérée par l’entreprise ?

Pour y répondre, il est idéal d’opter pour une solution d’analyse multi-sources des données dotée de technologies de machine learning permettant d’identifier les données personnelles, complétée par une solution d’archivage en mode Cloud privé, proposant des fonctionnalités de signature électronique, d’horodatage certifié et d’hébergement, en adéquation avec la nouvelle réglementation européenne.

Ainsi, les consommateurs auront l’assurance de pouvoir accéder à leurs données sur demande, de pouvoir demander des modifications ou la suppression ( “droit à l’oubli”) si besoin, et d’en limiter l’usage. Du côté de l’entreprise, c’est l’accès à une meilleure efficacité grâce au machine learning, à une meilleure certification des données et des process, et à un respect complet des impératifs dictés par le RGPD !

Si le RGPD n’est applicable qu’à partir de mai 2018, il convient de prendre dès maintenant toutes les mesures pour en respecter les principes. Vous souhaitez vous faire accompagner dans cette démarche ? Contactez au plus vite les experts de l’équipe Everteam, spécialiste de la gouvernance de l’information !

 

N’attendez plus, votre Capital Informationnel doit être maîtrisé !

La vie était plus simple à l’époque. La grande majorité du contenu de l’entreprise était au format papier. Nous savions “plus ou moins” ce que nous avions à notre disposition (c’est à dire pas grand chose). Nous savions aussi où se trouvait le contenu … Un dossier quelque part sur le bureau de quelqu’un, dans un placard, ou bien dans la salle des archives sur-site ou hors-site.

Le processus de digitalisation de l’entreprise au cours des deux dernières décennies a amené d’importants bénéfices aux organisations. Les outils utilisés à cet égard (CRM, ERP, MS-Office, workflow, systèmes de GED, messagerie électronique, réseaux sociaux, etc.) ont abouti à une explosion incontrôlable des volumes de contenus de l’entreprise (pour ne pas mentionner d’autres termes associés au Big Data et commençant par la lettre « v » comme variété, vitesse, véracité, valeur, etc.) :

  • Le contenu (électronique) est dispersé au travers de nombreux systèmes, emplacements physiques, plateformes et juridictions.
  • Parfois, le contenu est stocké de telle manière que son propriétaire, et la personne qui le manipule tout au long de son cycle de vie, ne sont pas clairement identifiés.

Prenons par exemple le contenu stocké dans un serveur de partage de fichiers ayant été affecté à un projet ou à un employé. Qu’adviendrait-il de ce contenu lorsque le projet sera terminé ou lorsque l’employé partira de l’entreprise ? Qui deviendrait le nouveau propriétaire de ce contenu ? Qui assurerait son contrôle ? Et par dessus tout, qui dans l’organisation, disposera de la connaissance relative aux informations clés détenues dans ce contenu ?

Pendant longtemps, les responsables (métier, IT, juridique, opérationnel, etc) n’ont pas suffisamment pris en compte la nécessité d’assurer la maîtrise du contenu qu’ils avaient à leur disposition. Non seulement concernant l’emplacement du contenu dans l’entreprise, l’information qu’il détient, ainsi que le coût lié à sa conservation et à son cycle de vie (peut-on le supprimer légalement et sans risque ?).

Avec la transformation fondamentale des business models (Saas …) et les changements radicaux inhérents aux infrastructures IT (migration vers le cloud), un sentiment d’urgence grandissant s’est développé quant au besoin de disposer d’une vision globale sur le patrimoine informationnel de l’entreprise (Information Asset) :

  • Les métiers veulent accéder à l’information pour améliorer leurs processus, en extraire le maximum de valeur et améliorer leur efficacité.
  • L’IT souhaite se débarrasser du contenu indésirable (information obsolète, doublons, etc.) pour décommissionner les anciennes applications et le stockage redondant, tout en réduisant les coûts opérationnels.
  • Le département juridique veut minimiser les risques, optimiser sa capacité à répondre aux litiges et réduire les frais juridiques.

Un jour, Dr. Peter Drucker a dit : “l’information est une donnée dotée de pertinence et d’un but” (Harvard Business Review 1988). Les termes “pertinence” et “but” portent sur une notion de marché émergente qui soutient que l’information d’une entreprise est son Capital Informationnel contribuant à son bien-être, à sa valorisation et à sa performance. Par conséquent, ce capital nécessite d’être maîtrisé (géré et pris en charge correctement).

La problématique de maîtrise du patrimoine informationnel de l’entreprise est belle et bien réelle et il est impossible de la contourner.

Les entreprises doivent donc prendre les mesures nécessaires pour :

  • Établir des stratégies de gouvernance de l’information au sein de leur organisation.
  • Mettre en place des programmes de gouvernance pour exécuter ces stratégies.
  • Mettre en oeuvre des solutions technologiques pour assister à l’exécution de ces programmes et résoudre des problèmes spécifiques à la gouvernance de l’information auxquels font face de nombreuses organisations.

Dans mon prochain article, j’aborderai un cas d’usage relatif aux solutions de File Analytics (IG) appliquées au contenu présent dans les serveurs de partage de fichiers :

  • Une quantité significative du contenu de l’entreprise (peut être > à 40%) est dispersée à travers les différents serveurs de partage de fichiers qui ne sont pas contrôlés et mal gérés (coûts élevés, risques élevés, perte de valeur).
  • Les solutions de File Analytics peuvent aider les entreprises à réduire les risques, à établir et renforcer les politiques de gouvernance de l’information, et à optimiser l’infrastructure IT.

Les défis du content analytics

Les défis du content analytics

Tandis que les progrès technologiques ont fait exploser la quantité de données recueillies à chaque instant, l’enjeu majeur pour toute entreprise est la gestion et l’optimisation de ces informations à grande échelle. C’est dans ce cadre que le content analytics (analyse de contenus) offre des approches puissantes. Elle ouvre l’espace à de nouvelles opportunités, notamment économiques, en termes d’analyse et d’exploitation des données.

Informatique décisionnelle (Business Intelligence) et Content Analytics

Piloter efficacement une organisation ou une entreprise nécessite de disposer d’informations pour identifier les problèmes, repérer les opportunités, anticiper les tendances, connaître les évolutions fines du marché, etc. L’informatique décisionnelle fournit une partie de ces informations, celle basée sur des données structurées.

Mais à l’intérieur et à l’extérieur de l’entreprise les volumes d’information explosent. Notamment sous la forme de contenus non-structurés et semi-structurés, c’est-à-dire des formulaires, des emails, des mémos, des avis clients, des commentaires prospects après tests, des réclamations, des posts sur les médias sociaux… Et c’est le Content analytics qui va permettre d’analyser et exploiter ces contenus non structurés.

Le Content analytics complète donc l’informatique décisionnelle pour mettre à disposition du décideur l’ensemble du contexte de l’activité.

Les réseaux sociaux : un nouveau type de contenu à gérer

Les interactions entre les individus sont en effet devenues une source majeure de données électroniques grâce à la tendance des utilisateurs à partager sur les réseaux sociaux. Ces millions d’interactions générées chaque jour laissent une trace numérique qui est publiée et stockée. Mais quelles que soient la quantité et la qualité des données accessibles à une entreprise, l’information n’a que peu de valeur sans un véritable traitement analytique. Pour exploiter et identifier la façon dont le contenu de ces interactions peut affecter l’entreprise, les outils analytiques entrent en action. Ils permettent de percevoir des schémas cachés, de nouvelles corrélations, des signes avant-coureurs à partir de la subtilité des mots contenus dans les données non structurées et des signaux faibles. Une solution technique d’analyse de contenus va permettre par exemple :

  • D’identifier les auteurs et sources des conversations ;
  • D’organiser les contenus selon le sujet abordé ;
  • D’associer un sentiment ou une opinion à un commentaire.

Objectif : comprendre les interactions sociales, les comportements, l’environnement et guider les décideurs dans leurs actions.

Les 4V du Big Data

L’objectif du Big Data est de traiter un gros volume d’informations pour détecter le plus rapidement possible les schémas et tendances qui échappent aux outils classiques de gestion de base de données.

Cette masse de données se caractérise par :

  • Son Volume bien sûr
  • Sa Variété : la diversité des données (non structurées, semi-structurées ou structurées, externes ou internes), les sources dont elles proviennent, (smartphones, capteurs, tablettes, médias sociaux, objets connectés, fichiers multimédia, textes non structurés etc.), leur diversité d’organisation et l’hétérogénéité des critères (métadonnées) les qualifiant.
  • Sa Vélocité car elles sont générées sur un temps court, ce qui nécessite de les collecter et analyser en temps réel, afin d’en tirer le maximum de valeur
  • Sa Valeur qui sera extraite de ce matériau brut qu’est la donnée collectée en analysant ces informations non structurées

Sources : Michael Stonebraker & Alex Popescu.

Volonté d’accroître la performance opérationnelle et la connaissance clients, nécessité de se conformer à un cadre réglementaire exigeant et d’appréhender les nouvelles configurations liées aux marchés mondialisés, ce sont toutes ces motivations et bien d’autres qui amènent les entreprises à se pencher sur les sujets Big Data & Analytics. Et tous les métiers de l’organisation sont impactés par ces enjeux de transformation…

[AVIS D’EXPERT] 7 raisons d’adopter la gouvernance de l’information

De la gestion réactive à la gestion proactive de l’information

L’information est partout et croit toujours plus vite.

Chaque département de votre organisation crée de l’information, la collecte, la stocke et a parfois besoin d’y avoir accès, souvent sous des délais courts. L’utilisation efficace de vos informations constitue un facteur clé de différenciation (face à la concurrence, pour la prise de décision, pour maîtriser les risques, …)

Mais il y a un problème.

Si votre stratégie de gestion de l’information n’est pas suffisamment définie et implémentée, ou pire, inexistante, votre organisation est dans l’incapacité de tirer pleinement partie de vos informations et est en danger. En pareille situation, il est urgent de vous réapproprier votre patrimoine informationnel.

Vous avez besoin d’être convaincu que la gouvernance de l’information est cruciale ? Voici 7 bonnes raisons pour lesquelles l’adopter.

1| Trop d’information tue l’information …

Chaque service de l’entreprise crée des données ou des documents qui leurs sont propres. Ressources humaines, Comptabilité, Administration, IT, R&D, tous sont soumis à des réglementations, qui parfois leurs sont propres, et ont des besoins différents tant pour accéder à l’information que pour la stocker.

Avec l’explosion des volumes de données et de documents, adopter une approche stratégique claire devient alors une nécessité.

Il est donc important de définir une politique de gouvernance de l’information adaptée orientée “flux” et appréhendant ces flux à venir en fonction de leur nature (données, documents), support (électronique, papier), valeur (engageante, confidentielle, patrimoniale, …).

2 | Toutes les informations ne sont pas utiles

Toutes vos informations ne sont pas bonnes à garder. Certaines sont indispensables et d’autres non, certaines doivent être supprimées (exemple : droit à l’oubli, …).

Il est donc important de faire le tri et de qualifier les éléments que l’on doit conserver :

  • Que dois-je conserver pour être en conformité ?
  • Que peut-on ou doit-on supprimer ?

3 | Prendre en compte l’information où qu’elle soit

Compte tenu des différents réseaux, des différentes applications, et des différents formats, un pilotage centralisé est nécessaire et nécessite de s’appuyer sur une large variété de connecteurs prêt à l’emploi.

Il est important de tenir compte  :

  • Des informations stockées dans différentes solutions de l’entreprise,
  • Des informations sensibles stockées dans les anciens systèmes,
  • De la multiplicité des types de données et/ou documents.

4 | Trouver la bonne information, à temps, est la clé

L’information à retrouver peut provenir de plusieurs applications distinctes, être noyée dans un flux important d’informations ou encore être mal décrite ou qualifiée. Dans un tel contexte, comment retrouver facilement l’information dont nous avons besoin ? La plupart du temps, les personnes n’y arrivent pas, ou du moins pas dans l’immédiat,  excepté si nous réussissons à :

  • disposer d’un point d’accès centralisé pour rechercher une information,
  • qualifier l’information au plus tôt, pour en maîtriser le cycle de vie et en faciliter l’accès en recherche,
  • ne conserver que l’information utile et ne permettre l’accès qu’à l’information autorisée, afin de réduire le temps de recherche et tirer aisément parti de l’information.

5 | Sécuriser l’information en fonction de sa valeur

Les données et documents que vous gérez ont une valeur qui évolue dans le temps. Il est nécessaire d’appréhender cette notion afin de prendre en compte les contraintes d’accès, d’intégrité, de disponibilité de l’information dans le temps. Ce aspect est gérable par des technologies dédiées (cryptographique, sécurité,…) pilotées par une politique de gouvernance claire.

Il est ainsi impératif :

  • de rendre l’information accessible aux bonnes personnes et au bon moment,
  • de contrôler l’accès et l’utilisation des informations,
  • de protéger les données et documents des intentions malveillantes.

6 | Ne pas enfreindre la loi

Les actions en justice sont coûteuses et préjudiciables et leurs impacts sont rarement anticipés. Il est pourtant possible et parfois aisé d’aligner l’application en place avec les obligations réglementaires et normatives imposées à votre entreprise.

Une meilleure gouvernance de vos informations permettra notamment de :

  • Répondre rapidement aux demandes en cas d’audit,
  • Appliquer facilement  les règles en cas de mis en suspens à des fins juridiques,
  • Prouver la fiabilité et l’intégrité des données et documents.

7 | Accroître l’agilité

L’information est à la fois un facteur de risques et un avantage compétitif.  Les choses changent rapidement et constamment et ce qui est valable aujourd’hui ne le sera probablement pas demain.

Vous devez être en mesure de vous appuyer sur vos informations pour prendre les bonnes décisions lors d’un litige ou face à une opportunité. Dans un tel contexte, l’information doit être actualisée, pondérée en fonction de sa valeur et de son usage. Les pratiques de gouvernance de l’information s’inscrivent exactement dans cette orientation et permettront de réagir rapidement aux évolutions du marché et de vous différencier grâce à vos données et documents.

La gouvernance de l’information : de la gestion réactive à la gestion proactive de l’information

Apprenez à appréhender la valeur de votre information, afin naturellement de s’appuyer sur celle-ci pour :

  • Prendre des décisions et anticiper en disposant, à temps, des informations capitales,
  • Disposer de la méthodologie et des outils lors d’audit ou de mise en suspens à des fins juridiques
  • Respecter les obligations réglementaires nationales, européennes et internationales

Soyez proactif. Gérez activement l’information à l’aide de politiques prédéfinies et de procédures permet :

  • D’améliorer la productivité des employés
  • De réduire les coûts
  • De limiter les risques
  • D’être plus agile

Il est maintenant temps de prendre une position active sur toutes vos informations, et de mettre en place une stratégie de gouvernance.