Développeur Big Data

  • Missions

    • Assurer le développement d’applicatifs ou d’éléments applicatifs tournant sur Hadoop ou des composants connexes​
    • S’assurer de leur qualité et de leur exploitabilité​
    • Assurer le support des applicatifs

  • Principales tâches

    • Conception logicielle​
    • Codage et documentation​
    • Recette applicative​
    • Déploiement automatisé et industrialisation​

  • Qualités attendues

    • Bonnes aptitudes relationnelles et rédactionnelles​
    • Aptitude à apprendre de nouveaux langages et à utiliser de nouveaux composants​
    • Aimer le travail en équipe​
    • Faculté de travail dans un contexte agile​
    • Capacité d’adaptation ​
    • selon le contexte du client​
    • autour d’un écosystème évoluant rapidement​
    • Savoir utiliser des outils tels que Git, SVN, Jenkins
    • Connaissance des principales interfaces d’administrations (Cloudera Manager, Ambari…)​
    • Développement autour des composants : HDFS, Hive (Map / Reduce, Tez, LLAP) , Impala, Spark, Sqoop, Storm​
    • Langages : Java, Scala, HQL, mais aussi SQL et Shell Unix​
    • Savoir utiliser Kerberos​ est un plus
    • La connaissance des web services, de Kafka et du Cloud sont un plus​