L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL





télécharger 109.11 Kb.
titreL’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL
page1/3
date de publication21.10.2017
taille109.11 Kb.
typeDocumentos
e.20-bal.com > droit > Documentos
  1   2   3
Le Big Data ?

  1. Définition

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. Il s’agit de découvrir de nouveaux ordres de grandeur concernant la capture de données, leurs recherches, leurs partages, leurs stockages, leurs analyses et leurs présentations. Ainsi est né le « Big Data ». Il s’agit d’un concept permettant de stocker un nombre indicible d’informations sur une base numérique. Cette appellation est apparue en octobre 1997.

Littéralement, ces termes de Big Data signifient mégadonnées, grosses données ou encore données massives. Ils désignent un ensemble très volumineux de données qu’aucun outil classique de gestion de base de données ou de gestion de l’information ne peut vraiment travailler. Grâce aux évolutions technologiques, le volume des données numériques disponibles explose. Giga, téra-, péta-, exa-, zetta- voire yotaoctets, les ordres de grandeur atteignent des sommets. A ce jour, 29.000 Gigaoctets (Go) d'informations sont publiés chaque seconde dans le monde, soit 2,5 exaoctets (10 puissance18 : 2500000000000000000) par jour.







c:\users\christine\appdata\local\microsoft\windows\inetcache\content.word\capacité de stockage.png

Mais des données massives pour quoi faire ?… Mieux cibler ses clients, améliorer ses produits, anticiper les évolutions… Nous allons chercher à comprendre ….Cependant, aucune définition précise ou universelle ne peut être donnée au Big Data. Etant un objet complexe, polymorphe, sa définition varie avec le temps et selon les communautés qui s’y intéressent en tant qu’usager ou fournisseur de services.

  1. De quelles données s’agit –il ?

Ce sont les informations provenant de partout : messages ou mails que nous nous envoyons, photos, vidéos, voix que nous publions, enregistrements d’achats en ligne … et bien plus encore…

Nos données sont captées parce que nous sommes dorénavant constamment connectés et géo localisés, par le truchement de nos ordinateurs, nos webcams, nos téléphones – ouverts ou fermés (éteint, votre smartphone est géo localisable et peut permettre de savoir à qui appartiennent les téléphones situés à proximité), nos téléviseurs reliés à une « box », nos liseuses, nos compteurs électriques, nos cartes en tout genre : carte de pointage, de fidélité, sans contact, Navigo ou Vitale…, nos objets dits intelligents qui promettent de se multiplier (en 2018, chacun d’entre nous en possédera en moyenne 8, en 2020, nous en aurons déjà 10 !) : montres connectées, appareils de santé, podomètres, balances, capteurs de vêtements, GPS et capteurs automobiles, domotique (gestion à distance des thermostats, des alarmes, de l’éclairage…jusqu’au bouton connecté de Darty entre les appareils de la maison et le SAV !) etc… Sans oublier les caisses enregistreuses des supermarchés ou les péages autoroutiers, nos comptes bancaires, les caméras ou capteurs installés dans les rues et les bâtiments de nos villes qui enregistrent nos faits et gestes et suivent nos déplacements (Londres, capital de la vidéosurveillance avec ses 300 000 yeux numériques et où un habitant est filmé jusque 300 fois par jour. Après avoir appris à reconnaître une plaque d’immatriculation, ces outils savent maintenant reconnaître un visage au milieu d’une foule et même identifier une silhouette de dos !). Nous fournissons donc tant de données,…et sans nous en rendre compte.

70 % des données créées le sont par des individus eux-mêmes, les 30% restants le sont par l’industrie, les états, les sciences… mais 80  % des données personnelles mondiales seraient détenues par les 4 grands acteurs que sont: Amazon, Apple, Facebook et Google.

Les opérateurs d’Internet ont compris depuis longtemps que la masse d’informations qui transite par leurs services constitue une manne financière infinie, qu’il suffit d’organiser pour être revendue. Google, aujourd’hui, numéro un de la publicité en ligne qui représente 90% de ses revenus, établit des profils d’utilisateurs selon des critères sociodémographiques, liés à nos centres d’intérêt tirés de l’historique de nos recherches, mais aussi du contenu de nos échanges sur son service de messagerie, Gmail, en scannant nos mails pour en ressortir des mots clefs. Facebook -1,4 milliard de Terriens- nous dépouillent de même de notre intimité (liste d’amis, situation amoureuse, date anniversaire, photos personnelles, centres d’intérêt). Ce numéro deux mondial de la pub en ligne en fait son miel. Nos habitudes sur les liseuses sont aussi revendues aux éditeurs, nos goûts pour la musique aux maisons de disque. Netflix vend aux producteurs des prédictions d’audience, voire de castings. Cdiscount vend ses produits à prix coûtants mais gagne de l’argent en vendant ses données sur les consommateurs à des sociétés comme Sony ou Samsung. …etc

  1. La Révolution Big Data

L’arrivée du Big Data est maintenant présentée par de nombreux articles comme une nouvelle révolution industrielle semblable à la découverte de la vapeur (début du 19e siècle), de l’électricité (fin du 19e siècle) et de l’informatique (fin du 20e siècle). D’autres, un peu plus mesurés, qualifient ce phénomène comme étant la dernière étape de la troisième révolution industrielle, celle de « l’information ». Dans tous les cas, le Big Data est considéré comme une source de bouleversement profond de la société. Nombreux experts, institutions ou administrations considèrent le phénomène Big Data comme l'un des grands défis informatiques de la décennie 2010-2020 et en ont fait une de leurs nouvelles priorités de recherche et développement.

Les données sont considérées comme le nouvel Or Noir de la planète :

c:\users\christine\desktop\or noir photo.png

  1. La problématique du Big Data

Lorsque l’on parle Big Data, on évoque une famille d'outils qui répondent à une triple problématique : C'est la règle dite des 3V.

Volume de données vertigineux à traiter. Le volume correspond à la masse d’informations produite chaque seconde. Il est estimé que 90 % des données récoltées depuis le début de l’humanité ont été générées durant les 2 dernières années.

Variété d'informations, de sources et de formats différents. Seulement 20% des données sont ce qu’on appelle des données structurées (données avec des champs qui permettent une lecture informatique). Les 80% restantes sont non-structurées (lecture humaine seule). Cela peut être des images, des vidéos, des textes, des voix, et bien d’autres encore… Enfin, dernier type d’informations : l’Open data. Ce sont les données publiques des administrations. La France est loin d’être en retard sur ce sujet. L’action d’ Etalab, mission créée en 2011 chargée de la politique d'ouverture et de partage des données publiques du gouvernement français et la collaboration de nombreux grands groupes ont permis d’ouvrir un grand nombre de données. Plus de 350 000 fichiers contenant des données publiques sont disponibles à ce jour sur la plateforme gouvernementale dédiée à l’Open data (data.gouv.fr). La technologie Big Data, permet de faire l’analyse, la comparaison, la reconnaissance, le classement de ces données de différents types (tout ceci sur du silicium et sous forme de 0 et de 1 !)

Vélocité à atteindre. La vélocité représente à la fois la fréquence à laquelle les données sont générées, capturées, partagées et mises à jour. Des flux croissants de données doivent être analysés en quasi-temps réel.

les 3 v du big data : volume, variété et vitesse

La règle des 3V à laquelle on rajoute 2V supplémentaires :

Véracité concernant la fiabilité et la crédibilité des informations collectées.

Valeur. Cette notion correspond au profit que l’on peut tirer de l’usage du Big Data.

  1. Quelles sont les principales technologies de Big Data ?

Les créations technologiques qui ont facilité la venue et la croissance du Big Data sont :

* D’une part, les technologies de stockage, portées particulièrement par le déploiement du Cloud Computing et la diminution drastique des coûts de stockage des données.

* D’autre part, l’arrivée de technologies de traitement ajustées et la mise au point de modes de calcul à haute performance. Par exemple le modèle de programmation le plus connu, MapReduce, popularisé par Google permet, à travers deux macro-fonctions, de découper un problème en sous-problèmes (phase de Map), puis de collecter les résultats issus de la résolution de ces sous-problèmes pour fournir un résultat global (phase de Reduce).

image non disponible

* Ce « patron d’architecture » nécessite des infrastructures de serveurs pour effectuer ce que l’on appelle le traitement massivement parallèle. La plateforme, open source, Hadoop est sans doute la plus connue et la plus utilisée d'entre elles. On parle parfois de fermes de serveurs.

* Au-delà de la puissance de ces outils qui malaxent les données, on cherche à concevoir de la valeur au cœur de ces données. C’est le domaine de l’Analytics et des Data Scientists avec leur boîte à outils : algorithmes, méthodes statistiques, intelligence artificielle (machine learning). L’Analytics apparaît comme la partie émergée de l’iceberg « Big Data ».

  1. Déroulé d’un projet Big Data sur le terrain

Voici les cinq étapes incontournables au déroulé d’un projet Big Data dont le but se résume à des données massives et leur exploitation, au travers d’algorithmes et de machines de calcul hyperpuissantes.

- a) Faire parler les données au travers une problématique

Il est nécessaire d’avoir défini un problème en amont. Si vous n'avez pas défini clairement ce que vous recherchez dans les données, ne vous attendez pas à ce qu'un algorithme miracle le fasse. Ainsi l'essentiel des traitements consistera à identifier les éléments importants, créer des listes de clés/valeurs à partir de données brutes et à les trier. Cela permettra d’extraire l’information « cachée » des données.

- b) L’exactitude de l’information

La qualité des données est une problématique au cœur de la data-science. Plus de 80% du temps d’un projet lié au Big Data est dédié aux tâches relatives à la qualité des données ; on parle de nettoyage des données. Il faut adapter les structures existantes, détecter les incohérences, corriger ou supprimer les données erronées sans perdre l’information pour obtenir un résultat le plus exact possible.

- c) La pertinence des algorithmes

Aujourd’hui, il existe des centaines d’algorithmes destinés à faire parler la data : il s’agit pour les data Scientistes de sélectionner les plus pertinents et de les combiner. Cette étape, délicate, est un vrai défi : elle relève de la science mais aussi de l’art. Pour avoir le plus d’impacts, les algorithmes doivent être adaptés à une problématique précise, expérimentés, puis doivent être transposés à l’échelle.

- d) Les outils Big Data et la visualisation des résultats

Face à des flux de données massifs et continus, les outils Big Data déversent leurs résultats grâce à leur puissance et leur rapidité de calcul. La visualisation devient souvent nécessaire pour amplifier la compréhension des données analysées. La Dataviz ou représentation graphique peut apporter une véritable valeur ajoutée.

- e) De la prédiction à la prescription 

Ce que promettait le film Minority Report est devenu accessible : prédire l’avenir. Le Big Data et l’Analytics deviennent de formidables outils d’aide à la décision. Le Big Data permet non seulement de prédire le futur, mais aussi d’une certaine manière de le modifier. Son but est de vendre de l’anticipation.

Autrefois, l’informatique décisionnelle utilisait la statistique sur des données à forte densité en information afin de mesurer des phénomènes, détecter des tendances… Aujourd’hui, Big Data utilise la statistique sur des données à faible densité en information dont le grand volume permet d’induire des lois donnant dès lors au Big Data des capacités prédictives.

Logiquement incontournables dans le marketing comme avec les algorithmes de recommandation d’achats, les solutions de prédiction s’appliquent aujourd’hui également à tous les domaines d’activité : les sites de rencontres, le sport de haut niveau, le programme de surveillance PRISM de la NSA, la lutte contre la criminalité, la médecine analytique… Dans l’industrie, elles permettent d’anticiper les pannes afin de les rendre moins brutales, d’accélérer les interventions, de réduire l’immobilisation de la chaîne de production.

  1. Poids économique du Big Data

D’ici quelques années, le marché du Big Data va se mesurer en centaines de milliards de dollars (24milliards en 2016 – 8% du PIB européen en 2020). C’est un nouvel eldorado pour le business. Selon des études, il s’agit même d’une vague de fond où l’on retrouve la combinaison de la BI (business intelligence), de l’Analytics et de l’internet des objets.

  1. Les principaux acteurs du marché

Dans le secteur IT (technologie de l’information), on retrouve les fournisseurs historiques de solutions IT comme Oracle, HP, SAP ou encore IBM, les sociétés de logiciels ou de gestion de base de données.

Il y a aussi les acteurs du Web dont Google, Yahoo (initiateurs d’origine), Facebook, ou Twitter.

Quant aux spécialistes des solutions Data et Big Data, on peut citer MapR, Teradata, EMC ou Hortonworks. CapGemini, Sopra, Accenture ou Atos …..

  1. Les Perspectives

Elles sont énormes et en partie encore insoupçonnées ; on évoque souvent de nouvelles possibilités d'exploration de l'information, d'analyse tendancielle et prospective (climatiques, environnementales, sociopolitiques, religieuses, culturelles etc.), mais aussi en termes de gestion des risques (commerciaux, assuranciels, industriels, naturels), et pour la médecine (aide aux diagnostics médicaux, compréhension du fonctionnement du cerveau, épidémiologie….), la météorologie, l'adaptation aux changements climatiques, la gestion de réseaux énergétiques complexes (via les smartgrids ), l’optimisation des flux de marchandises ou de transport, la maintenance prédictive des équipements dans l’industrie, l'écologie ou encore la sécurité et la lutte contre la criminalité….

Le caractère multisectoriel du Big Data continue d’impressionner et laisse la porte ouverte aux projets les plus ambitieux

Le Big data se veut aider les entreprises à réduire leurs risques et faciliter leur prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée.

  1. Le Big Data dans le monde

  • L’état américain résultat de recherche d\'images pour

L’État américain est à la pointe de ces technologies. En 2012, il annonçait la mise à disposition de 200 millions de dollars pour un fond de recherche sur la thématique du Big Data. Dès sa campagne, Obama avait pressenti l’utilité du Big Data et les possibilités d’applications multisectorielles. En 2012 on apprend l’existence d’études Big Data menées grâce à des informaticiens venus de Google et Facebook. Elles auraient permis de cibler les potentiels nouveaux électeurs pour Obama, et auraient, contre toutes les prédictions de suffrages, permis sa réélection.

En juin 2013 une étude estime que le Big Data permettrait à l’État américain de réaliser 14 % d’économies, soit 500 milliards de dollars. Formation, recherche, sécurité nationale, santé, services publics… Des programmes aux noms les plus intrigants, tels ADAMS, Mind’s Eye ou encore TCGA ont pour objectif de décupler les capacités et l’utilisation du Big Data dans les diverses administrations. Le département de la défense regroupe à lui seul plus de 10 projets Big Data et bénéficie de plus de 250 millions de dollars d’investissement annuel : son programme ADAMS a pour objectif de repérer des comportements anormaux, des changements d’attitude inquiétants chez un soldat ou un citoyen américain. Mind’s Eye est également un projet de la DARPA (Defense Advanced Research Projects Agency). Il vise à améliorer les performances de reconnaissance vidéo et d’analyse automatisée. Le projet TCGA, porté par les archives nationales du cancer (The Cancer Imaging Archive), permettra d’analyser plusieurs péta-octets de données de séquences génétiques issues de patients atteints.

Le gouvernement américain possède six des dix plus puissants supercalculateurs de la planète. La NSA National Security Agency est actuellement en train de construire le Utah Data Center. Une fois terminé, ce data center pourra stocker jusqu'à un yottaoctet d’informations collectés sur interne

  • Les pays émergents https://encrypted-tbn0.gstatic.com/images?q=tbn:and9gcreunlgnex6xtza9b8zll2wmaciozqu7ijai0j18vwob5o8phbida4cdc4 résultat de recherche d\'images pour

Des investissements colossaux ont aussi lieu sur le continent africain par exemple. Une étude menée par MarketsandMarkets indique que les pays émergents sont voués à grappiller leur retard dans les années à venir et représenteront une part importante de la croissance du marché du Big Data. Quelques chiffres rendent compte du potentiel que représentent les pays émergents, ne serait-ce qu’au niveau des télécommunications. Selon la Banque Mondiale, il existe 6 milliards d’appareils mobiles sur Terre, dont 5 milliards se trouvent dans les pays émergents. Les applications marketing sont assez évidentes mais les pays émergents ne se limitent pas à ça. Services, industries, finance, programmes de développement économique : le Big Data stimule toutes ces économies, qui ont l’avantage d’être jeunes, agiles et innovantes. L’Afrique du Sud est un réel pionnier en la matière : avec plus de 10 datacenters sur le territoire et une pénétration du Big Data dans 60 % des entreprises, le pays s’affiche comme un précurseur sur le continent, et au niveau mondial. Le Brésil, fréquemment associé au Big Data lors de la coupe du monde, voit se développer des projets dignes des plus grandes opérations américaines.

  • L’europe et le France résultat de recherche d\'images pour résultat de recherche d\'images pour

Malgré toutes ces promesses et prévisions, l’adoption du Big Data dans les entreprises françaises et européennes reste encore assez limitée. Cap Gemini a commandité une étude en mars 2015. Le résultat a montré que 61% des entreprises sont conscientes de l’utilité du Big Data en tant que « moteur de croissance à part entière ». Cette même étude a encore indiqué que 43% d’entre elles se sont déjà réorganisées ou se restructurent actuellement pour exploiter le potentiel du Big Data.

Le plan Big Data pour la Nouvelle France industrielle, porté par François Bourdoncle et Paul Hermelin, et dont la feuille de route a été validée en juillet 2014, est à ce jour la première réelle impulsion économique émanant de l’État visant à développer l’écosystème Big Data en France.

Le Salon du Big Data Paris, édition 2017, se tient les 6 et 7 mars au Palais des Congrès de Paris. Devenu une référence sur la scène française du Big Data, le salon devrait accueillir 12 000 visiteurs cette année. Les entreprises présentant leur travaux : Renault, le PMU, Médiamétrie, Netflix, des retours d'expérience chez Axa, Natixis, Under Armour et Voyage privé seront aussi dévoilés…

Vers une cohésion européenne :

Dès lors qu’on considère que les données représentent un élément géopolitique et économique majeur, on est en droit d’estimer que les États et plus largement l’Union Européenne est concernée. L’affaire PRISM a brisé une forme de confiance tacite entre l’Europe et les ÉtatsUnis, et a poussé divers acteurs européens à s’interroger sur la façon de protéger le patrimoine et les intérêts de l’Union. La question de l’hébergement des données est particulièrement prégnante. Si la majorité des données produites par la zone européenne est stockée au sein d’entreprises américaine, elles-mêmes soumises au Patriot Act, il est légitime de s’inquiéter de leur utilisation à des fins néfastes. En parallèle, la volonté de créer un « cloud souverain » s’est renforcée, avec des acteurs capables d’héberger les données nationales et de les protéger (Numergy, Cloudwatt). L’Europe aussi a lancé un programme, Indect, pour développer des solutions et outils de détections des menaces. Basé sur des comportements anormaux : stress, sudation, courir à contresens, rester debout quand tout le monde est assis, prendre des photos surprenantes, porter une capuche…..

  1. Quelques Exemples concrets d’utilisation du Big Data
  1   2   3

similaire:

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconQuels sont les enjeux et défis de la chimie du xxième siècle ?
...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconChapitre 1 : les multiples manières de comprendre, d’analyser et de théoriser la ville

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconPrésentation générale
«folles années 1990», essayant d’analyser les erreurs qui ont conduit l’économie américaine (et par là le reste du monde) à l’éclatement...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconRésumé L’engorgement des marchés, les crises économiques mais surtout...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconRésumé L’article se charge de promouvoir l’utilisation des données...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconCette analyse quantitative et qualitative des retombées médias a...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconLes temps sont prospères, l’économie est florissante, les travailleurs...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconManuel Magnard ts : p. 118 à 144 Problématique
«nouvel ordre mondial». La fin de la guerre froide ne signifie cepandant pas la fin des conflits dans le monde. On assiste au contraire...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconNote eprist sur le text et data mining
«moderne» essentiel, adapté à la masse croissante de données polymorphes (BigData), pour exploiter les données et produire de nouvelles...

L’explosion quantitative et exponentielle des données numériques a poussé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. IL iconVeille et management des compétences: application de la démarche...
«nouvelles» pendant la dernière décennie. L’objet de ces métiers est de privilégier les objets immatériels c’est-à-dire, les productions...






Tous droits réservés. Copyright © 2016
contacts
e.20-bal.com