Le traitement BigData - Grand Format

Note moyenne 
Dans le monde d'aujourd'hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux... Lire la suite
24,00 € Neuf
  • Ebook
  • Grand format
Expédié sous 2 à 4 semaines
Livré chez vous entre le 21 mai et le 4 juin
En librairie

Résumé

Dans le monde d'aujourd'hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l'information qui s'incrémente en temps réel selon les "3 V" de Gartner : en Volume, en Vitesse et en Variabilité. Afin d'exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique à travers 2 approches : le polymorphisme d'une part, au moyen d'un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d'autre part le support de la volatilité par un modèle intelligent prenant en compte des donnés-clés seulement interprétables à un instant "t", au lieu de traiter toute la volumétrie des données actuelle et historique.
L'objectif premier de cet ouvrage est de pouvoir établir par le biais de ces approches une vision intégratrice du cycle de vie des données qui s'établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation pour élaborer un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, par Hadoop dans le processus classique de MapReduce afin d'obtenir un graphe défini dans la couche applicative.
Ce travail illustre par la suite le concept théorique par des exemples d'applications dans la vie quotidienne, notamment dans l'univers IoT. De ce fait 2 aspects sont mis en avant, (1) l'usage dans la sphère privée et (2) l'intégration dans le domaine professionnel. Dans ce contexte, des exemples concrets tels que la maison intelligente, la ville intelligente ou encore l'industrie 4.0, sont bien placés pour incarner le processus innovateur de modélisation intégratrice des données BigData.

Caractéristiques

  • Date de parution
    23/09/2021
  • Editeur
  • ISBN
    979-10-236-1918-8
  • EAN
    9791023619188
  • Format
    Grand Format
  • Présentation
    Broché
  • Nb. de pages
    324 pages
  • Poids
    0.524 Kg
  • Dimensions
    15,8 cm × 24,0 cm × 2,5 cm

Avis libraires et clients

Avis audio

Écoutez ce qu'en disent nos libraires !

À propos de l'auteur

Biographie de Hadi Hashem

Hadi Hashem est un acteur engagé dans le monde du conseil logiciel et particulièrement le potentiel d'exploitation des données. Diplômé ingénieur en informatique, il a travaillé dans des entreprises des domaines d'énergie, de pharmaceutique vétérinaire et d'électroménager, en France et en Europe. Titulaire d'un doctorat dans le domaine du traitement BigData, il développe ses activités d'enseignement et de recherche dans les universités de France.
Ses méthodes concrétisent un mariage entre les connaissances théoriques de la science des données et les besoins pratiques dans le quotidien des entreprises.

Du même auteur

Derniers produits consultés

24,00 €