L’ingénierie documentaire : un métier d’avenir

Par Julia MORINEAU, le 05 Décembre 2012

Le volume d’informations numérisées ne cesse d’augmenter. L’ensemble des usages numériques font que les données s’ajoutent aux données : les recherches d’informations deviennent de l’information. Le stockage se mesure en pétaoctet. Cette masse vertigineuse est aujourd’hui majoritairement produite par des humains. D’ici quelques années, il faudra ajouter le flux d’information de capteurs. Bienvenue dans le big data ! Inventer de nouvelles techniques de stockage, de nouveaux algorithmes, ou savoir archiver les données numériques sont des compétences prometteuses.

Lire la suite :  Données, le vertige, Libération, Gabriel Siméon, 3 décembre 2012.

serveur informatique - Guillaume Paumier/Wikimedia commons
Guillaume Paumier / Wikimedia Commons - CC-BY-3.0

Pour aller plus loin :

 

 

Catégorie : Le monde de l'information, Innovation et numérique

Tags : Big data, gestion de l'information, données numériques

Liens réseaux sociaux

Commentaires

Analyse sur le Big Data de François Chahuneau, Numen

François Chahuneau, 18 Janvier 2013

Page d'accueil de votre site: 
Il faut s’entendre sur le terme, très médiatisé, de « Big Data » (données massives) qui évoque deux notions distinctes. Il signifie tout d’abord le traitement de très grands volumes de données, statiques ou en flux, qui nécessite une approche parallèle et répartie des traitements et du stockage, facilitée par des plateformes comme Hadoop, - un framework Java Libre qui facilite la création d’applications distribuées et scalables. Utilisé par des sociétés comme Facebook, Twitter ou encore Yahoo, ce framework permet aux applications de travailler avec des milliers de nœuds et des pétaoctets de données -. D’autre part, le « Big Data » comprend le traitement de données pour la plupart non-structurées ou semi-structurées, qui nécessite l’utilisation de méthodes d’analyse relevant du traitement de langue et de l’apprentissage statique. Chez Numen, où nous traitons en particulier des flux documentaires, nous nous intéressons à ce deuxième aspect. L’attente du marché a récemment incité des éditeurs comme IBM à industrialiser, dans le cadre de leurs frameworks « Big Data », des méthodes d’analyse de données nouvelles et puissantes. Cette évolution est une bonne chose car elle facilite la mise en œuvre de méthodes d’analyse sophistiquées, mais elle ne dispense pas de la nécessité de recruter et de former des informaticiens d’un nouveau types, rompus aux méthodes d’analyse des données plus qu’à l’informatisation des process.

Ajouter un commentaire

CAPTCHA
Cette question permet de s'assurer que vous êtes un utilisateur humain et non un logiciel automatisé de pollupostage (spam).
Image CAPTCHA
Saisir les caractères affichés dans l'image.