1. 负责构建Spark/HDFS大数据处理架构, 基于Spark技术的海量数据的自动化分析处理和统计工作;
2. 基于Spark框架大数据架构的设计、开发和维护;
3. 根据相关需求使用Spark Streaming、SQL进行数据处理、查询和统计等工作;
4. 参与华夏理财内部数据仓库方向数据架构设计;
5. 支撑华夏理财信息系统产ETL及ad-hoc查询。
岗位要求
1. 要求32周岁(含)以下,条件优异者可适度放宽;
2. 本科以上学历,数学基础、统计学、概率论基础扎实,2年以上开发经验;
3. 熟悉Spark相关技术,如:Spark Streaming和Spark SQL,有MLlib/mahout开发经验者优先;
4. 具备大规模系统的故障诊断与性能优化能力优先;
5. 具备银行、基金、证券保险等相关项目工作经验优先