Existant depuis les années 2000, c’est le mot à la mode depuis 2010. Tout le monde parle BIG DATA (on voit plus rarement le terme recommandé mégadonnées).
Avec l’augmentation des capacités de stockage et la réduction des coûts liés, les entreprises collectent de plus en plus d’informations. Ces informations structurées sont rangées dans des bases de données (parmi d’autres outils) et sont parfois tellement volumineuses que leur exploitation nécessite des outils sur mesure. On parle alors de big data.
Ce qui est nouveau et très intéressant c’est que l’on peut exploiter ces données qui, prises une à une, n’ont pas vraiment d’intérêt mais qui, cumulées, recelent une vraie valeur :
- Prévisions, tendances, prospective, recherche sur les attentes, les usages, les besoins des utilisateurs ;
- Usage en intelligence artificielle ;
- Exploitation statistiques, visualisation de données.
En big data, ce sont les données qui permettent de trouver des modèles. C’est l’inverse en informatique décisionnelle classique. Et ça c’est tout à fait nouveau : nous sommes ici dans un champ de recherche inédit en informatique avec des efforts de R&D importants.
Les secteurs d’activités qui sont déjà très consommateurs d’informations voient ici de nouvelles oppportunités, c’est le cas en météorologie, en médecine, en gestion des risques… avec l’apparition de stratégies d’entreprises pilotées par les données (data-centric).
Cependant, le challenge avec les big data est multiple :
- S’assurer que les données collectés sont pertinentes : le plus n’est pas le mieux et le volume ne sert à rien si les données sont fausses.
- Savoir exploiter efficacement les données : vaut-il mieux des statistiques précises ou des statistiques justes ?
- Gérer les aspects liés à l’éthique, à la sécurité de l’information collectée et à la vie privée : qui peut collecter ? sous quelles conditions ? que deviennent les données ?