岗位职责:
1. 运用Hadoop、Spark等框架进行大数据处理与分析,保障数据准确性。
2. 负责大数据平台搭建与优化,提升数据处理效率与稳定性。
3. 与数据团队、业务部门协作,完成数据需求对接与实现。
4. 参与大数据技术路线规划,推动技术创新与应用。
任职要求:
1. 具备1-3年大数据开发经验,熟悉Hadoop、Spark、Flink等框架。
2. 掌握Kafka、Druid、Alluxio等技术,有实际项目应用经验。
3. 具备持续学习新技术能力,能快速适应技术变化。
4. 有良好的团队协作与沟通能力,能高效完成跨部门合作。