岗位职责:
1、负责项目中部分技术路线和整体架构的设计、选型并落实;
2、负责基于Hadoop生态环境体系进行数据ETL任务开发;
3、负责数据处理中的清洗、整合、分析、可视化程序开发工作;
4、参与大数据组件优化维护工作,提高系统运行效率。
任职要求 :
1、熟悉大数据技术如Hadoop、MapReduce、Hive、HBase、Spark、Kafka、Flume、ES等, ETL相关的技术或者工具至少3个以上;
2、三年以上java开发经验,有数据平台架构经验尤佳;
3、具有良好的沟通能力,有较强的独立工作能力和解决问题的能力;
4、熟悉Linux日常操作,有CDH套件使用维护经验者优先。