Métiers : les 6 compétences à avoir pour travailler dans la Big Data

Les entreprises impactées par la Big Data recrutent : voici les 6 compétences essentielles pour vous orienter vers les métiers de ce secteur.

Illustration - LP/DELPHINE GOLDSZTEJN
Illustration - LP/DELPHINE GOLDSZTEJN

    D’après les experts, 90% des données récoltées depuis le tout début proviennent de ces 2 dernières années, une explosion qualifiée de « Big Data ». Les entreprises commencent à bien comprendre tout le potentiel derrière ces données : prédiction des ventes, recommandation d'achat, analyse des risques, nouveaux clients, publicité... un nouveau secteur d'activité très prometteur commercialement et en terme de recrutement.

    Dans cet article, vous retrouverez les 6 compétences de base que vous devez absolument développer pour faire partie de la vague de ceux qui saisissent les opportunités du Big Data.

    Voir aussi : Travailler dans la Big Data : les 6 métiers recherchés vers lesquels s'orienter

    1 – Le language SQL

    Le SQL (Structured Query Language) est le langage de manipulation et d’interrogation des bases de données relationnelles. Il est plus que jamais le langage standard qui a su s’imposer sur le marché depuis plus de 20 ans.

    Aujourd’hui, en matière de gestion de données, le SQL est la compétence favori des métiers. De plus, les entreprises utilisent de plus en plus le HDFS (Hadoop Distributed File System) comme répertoire de stockage central pour toutes leurs données provenant pour la plupart des systèmes opérationnels (comptabilité, marketing, finance, Ressources Humaines, etc.) ; la majorité des outils d’exploitation de ces données (par exemple Business Objects, Oracle, SAS, Teradata, Tableau, etc.) s’appuient sur le SQL.

    2- La programmation

    La maîtrise de la programmation dans un langage évolué tel que Java, Scala ou Python est la deuxième compétence que vous devez posséder pour réussir dans le Big Data.

    Malgré la large échelle d’adoption du SQL dans le Big Data, celui-ci reste un langage déclaratif qui a pour principal inconvénient de limiter la complexité des problèmes qui peuvent y être exprimés. En d’autres termes, il donne la possibilité d’écrire ses programmes sous forme d’instructions déclaratives qui indiquent le QUOI sans entrer dans les détails du COMMENT. Ici l’utilisateur définit de ce qu’il souhaite obtenir à l’aide d’un ensemble d’instructions et de mots clés tels que SELECT, GROUP BY, WHERE, et le moteur du langage se charge de traduire ces instructions en plan d’exécution.

    Les langages de programmation fonctionnelle telle que Scala, ou Pig permettent d’écrire les applications sous forme de séquences d’opérateurs qui permettent d’exprimer le cheminement nécessaire pour obtenir son résultat. Ce style de programmation offre une plus grande flexibilité sur le type de problème qui peut être exprimé par l’utilisateur.

    Des langages plus évolués comme le Java ou le C++ permettent d’aller plus loin et de développer de nouvelles fonctionnalités sous forme de procédures/fonctions qui s’appellent les unes aux autres.

    Actuellement, les trois langages les plus populaires pour le Big Data sont : Java, Scala et Python.

    3- La connaissance d’Hadoop

    De façon traditionnelle, la gestion des données a consisté à centraliser le stockage et le traitement des données sur un serveur placé dans une architecture clients/serveur. Avec l’explosion du volume de données, pour réussir à exploiter les « Big Data », l'approche n'est plus de centraliser le stockage et le traitement des données sur un serveur, mais de distribuer leur stockage et de paralléliser leur traitement sur plusieurs ordinateurs (un cluster).

    Il existe plusieurs outils qui implémentent cette approche, mais Hadoop est aujourd’hui l’outil de ce changement le plus mature du marché et par conséquent le plus adopté.

    D’ailleurs, avec l’intégration d’Hadoop au SQL, il n’est pas difficile de prédire qu’il va devenir la plateforme standard de traitement de données, un peu comme l’est progressivement devenu Excel peu de temps après l’essor des PC. Ainsi, si vous souhaitez travailler dans le Big Data, il vous faut impérativement connaitre son fonctionnement ou plutôt avoir les connaissances de base pour pouvoir l’utiliser à son maximum.

    4 – La communication

    S’il y a bien une compétence qui est très négligée aussi bien dans le monde de la technologie que dans le monde du développement logiciel, c’est la communication. La capacité de transmettre ses idées de sorte que les autres non seulement comprennent ce que vous dites mais aussi le sens de ce que vous dites. C’est également la capacité d’écouter et de comprendre les autres.

    Les entreprises ont compris que si elles veulent véritablement saisir les opportunités du Big Data, il est plus réaliste de se constituer des équipes pluridisciplinaires (équipes composées de compétences différentes, mais complémentaires) avec des professionnels de différents métiers. Par exemple, vous aurez dans la même équipe des développeurs, des analystes marketing, des administrateurs, des chefs de projets, des infographes et des managers.

    Cette approche d’équipe pluridisciplinaire porte même un nom : le DevOps, et prend de plus en plus d’ampleur. Il devient crucial pour les membres d’une équipe de pouvoir communiquer de façon à ce que tout le monde puisse comprendre et que le projet soit livré dans les délais.

    Ainsi, si vous voulez réussir en Big Data, nous vous recommandons fortement de développer et d’affiner continuellement vos capacités communicationnelles qui vous seront également utiles dans les autres domaines.

    5 – L’esprit d’équipe

    En plus de devoir aimer travailler dans des équipes mixtes, en Big Data, il est également très important d'avoir l'esprit d'équipe, d'apprendre des autres membres et de leur enseigner ce que vous savez. Aujourd'hui, la technologie évolue très rapidement, les entreprises rencontrent des nouveaux challenges tout les jours. Vous devez donc avoir la capacité de collaborer sur une base régulière, combiner vos forces avec les leurs afin d'avoir une vision 360° et de pouvoir bénéficier de l'effet de MasterMind, effet synergétique provoqué par la concentration combinée de plusieurs personnes.

    6 – La capacité à se former seul continuellement (de manière autodidacte)

    Dans l’âge industrielle, l’âge moyen de la retraite était de 65 ans parce qu’à cet âge, les individus étaient trop fatigués pour soulever les pneus et placer les moteurs des véhicules dans les lignes d’assemblages. Aujourd’hui, on est techniquement obsolète et prêt pour la retraite tous les 18 mois, qui représente le rythme avec lequel la technologie évolue aujourd’hui.

    L’ère Numérique est résolument une ère autodidacte, une ère où chacun apprend de lui-même que de ses parents comme c’était le cas dans l’ère agraire ou de la fac comme c’était le cas dans l’ère industrielle.

    Il est bien connu en vertu de la loi économique de la rareté que le salaire d’un individu n’est pas fonction de son ancienneté ou de son niveau d’expérience comme on le pense intuitivement, mais de sa rareté. Cependant, dans le Big Data, la rapidité des progrès technologiques fait qu’il est de plus en plus difficile d’être rare (ou de se différencier).

    Article proposé et rédigé par Juvénal CHOKOGOUE auteur de l'ouvrage « Hadoop Devenez opérationnel dans le monde du Big Data ».

    Vous y retrouverez 3 chapitres entièrement consacré au fonctionnement d'Hadoop ; le chapitre 7 vous aidera à développer les compétences nécessaires pour écrire et exécuter du SQL sur Hadoop et le chapitre 11 vous aidera à développer l'état d'esprit d'abondance que vous devez avoir pour détecter les opportunités du Big Data et aider votre entreprise à faire la différence sur son marché. l'ouvrage est disponible ici

    Écoles à la une

    Proposées par les écoles partenaires

    Edhec Business School
    Commerce / Gestion / Management
    Roubaix cedex 1
    EM Normandie
    Marketing / Communication
    Clichy
    Montpellier Business School
    Commerce / Gestion / Management
    Montpellier