TUNISIE
08/03/2019 17h:04 CET | Actualisé 08/03/2019 19h:14 CET

Big Data: Une technologie au service de la démesure du web

Avec 275 millions de photos publiées chaque minute sur Facebook, la technologie Big Data est plus que jamais indispensable. Orange Tunisie nous explique les enjeux.

undefined undefined via Getty Images

Big Data, un terme qu’on entend de plus en plus, mais qui demeure souvent inconnu du commun des mortels. Pourtant, cette technologie aux enjeux multiples, devenue indispensable dans bien des projets, s’avère être très présente dans le quotidien de nous autres, internautes.

De quoi parle-t-on?

Le Big Data, comme son nom l’indique, est une technologie née de la nécessité de gérer un large volume de données. Les avancées technologiques de ces dernières décennies, la généralisation d’internet, les moteurs de recherche ou encore l’explosion des réseaux sociaux devenus omniprésents, très souvent indispensables, ont fait que la gestion d’un tel volume de données et devenue impérative.

Ces avancées ont mené à une évolution exponentielle du volume de données collectées via internet, contraignant les géants de l’information, et notamment Google, à mettre au point un système de collecte, d’analyse et d’interprétation des données, à travers des algorithmes de plus en plus complexes.

Aujourd’hui, à chaque minute qui passe, une moyenne de 10 millions de snaps sont envoyés sur Snapchat, 275 millions de photos sur Facebook, 3 millions de photos sur Instagram, 400 mille tweets sur Twitter, 600 heures de vidéos téléchargées sur Youtube, 150 mille appels sur Skype, et 75 millions de mots traduits sur Google Translate.

Cela fait un total moyen de 2,9 Exaoctet (environ 3 milliards de Gigaoctet) d’informations qui sont quotidiennement générées sur internet.

Les bases de données classique comme SQL ou Oracle s’avèrent insuffisantes pour gérer ces tailles démesurées de données.

Il a ainsi fallu trouver de meilleures solutions.

Pourquoi une bonne gestion est-elle nécessaire?

Lorsqu’on parle de Big Data, on parle de bases de données de millions voire de milliards d’entrées collectées et stockées dans des serveurs, pour ensuite être analysées et restituées en graphiques ou autres.

Avec ce flux astronomique d’information, la protection des données personnelles, une conséquence directe du Big Data, a fait son apparition, et des législations ont été mises en place partout dans le monde.

Mais le volet légal n’est pas la seule préoccupation.

En effet, l’analyse pertinente des données, et la génération de résultats et de statistiques sont au cœur de l’utilité du Big Data.

Collecter des informations non structurées, sans les traiter, revient à verser de l’eau dans la mer. C’est pourquoi des firmes comme Google ont décidé de transformer ces gigantesques bases d’informations en de vraies mines à trésors.

Leurs utilisations évoluent elles aussi, en particulier après la généralisation des réseaux sociaux, qui ont marqué un tournant dans l’histoire du Big Data.

Les données collectées sur les réseaux sociaux sont en grande majorité des données non structurées, c’est à dire qu’elles n’offrent aucune logique de lecture, d’où le travail important du traitement Big Data.

Contrairement aux bases de données classiques qui sont structurées et facilement analysables, les données non structurées, qui plus est d’un volume massif, nécessitaient des algorithmes puissants et complexes pour les analyser.

Prenons l’exemple des commentaires sur Facebook. Il s’agit probablement, avec Twitter, du plus grand flux d’information non structurées d’Internet Pour plusieurs raisons, analytiques mais aussi pour des raisons de modération, Facebook a dû faire appel au Big Data et développer ses propres outils de gestion et d’analyse de ces données.

Ce qui pourrait nous paraître simple, cache des systèmes très complexes derrière.

Ainsi, le Big Data est partout, et tous les serveurs internet stockant de grandes quantités d’informations qui nécessitent d’être analysées, passent forcément par cette technologie, inconnue, voire inenvisageable il y a à peine 20 ans.

3V + 1

Le Big Data repose sur la théorie des 3 V.

Dans les débuts de la technologie, on parlait de Volume, Variété, et Vitesse. Des notions qui traduisaient à l’époque le fonctionnement de la technologie.

A partir de 2005, un nouveau V est venu s’ajouter à la liste, celui de la Véracité. Il s’agit d’analyser la véracité des données afin de pouvoir les trier de façon plus pertinente, comme l’explique Mohamed Rahal, formateur Big Data et Cloud Computing, à l’occasion d’une session 6to8 talks jeudi dernier organisée par Orange Tunisie autour du «Big Data et l’économie de l’information».

 

Rahal indique qu’aujourd’hui, nous parlons de 42 V nécessaires à un bon traitement des données, ayant pour seul objectif: La création de la valeur.

Il souligne par ailleurs la forte relation entre le Cloud et le Big Data. En effet, le Cloud est devenu un pilier des projets Big Data en général, et ne se résume pas seulement au stockage de données.

Parmi les Frameworks les plus connus servant cet usage, on retrouve MapReduce, GoogleFS et BigTable de Google, ainsi que Hadoop, un Framework libre et Open source, inspiré de ceux de Google, et qui est aujourd’hui le plus communément utilisé.

Déjà sur le déclin?

Mais le Big Data est déjà dans sa phase de déclin, selon Mohamed Aziz Najjar, Chief Data Officer (CDO, directeur des données).

Pour lui, le Big Data a existé depuis la nuit des temps, et avait servi à d’innombrables civilisations. Il s’agirait tout simplement de la version moderne des archives, ou des bibliothèques, avec un plus: la rapidité d’accès et de traitement des données.

Dans une présentation très imagée, l’informaticien explique que le Big Data, bien qu’il soit toujours en constante évolution, souvent imposée par la taille et la nature des informations collectées sur internet, ne représente désormais plus un défi technologique. La technologie aurait donc atteint son apogée, devenue aujourd’hui facilement accessible pour ceux qui souhaitent collecter, analyser et interpréter un volume important d’informations.

Les usages sont multiples et variés, de la gestion de la concurrence à l’analyse du comportement des individus, en passant par le marché boursier, la technologie a ouvert la voie à bien des horizons jusque là difficilement accessibles. Pratiquement tous les secteurs ont recours au Big Data aujourd’hui, permettant l’élaboration d’études aussi riches que variées.

Selon Najjar, il se pourrait que le Big Data laisse place à une nouvelle technologie qui constituerait un nouveau défi technologique dans ce domaine, la notion de nouveauté étant intimement liée aux défis qu’une technologie impose.

Retrouvez les articles du HuffPost Tunisie sur notre page Facebook.

Retrouvez les articles du HuffPost Tunisie sur notre page Twitter.

Retrouvez le HuffPost Tunisie sur notre page Instagram.