职责描述
1、负责大数据平台的搭建、维护和优化,包括Hadoop、Spark等分布式大数据产品的设计和开发。
2、参与大数据项目的需求分析、系统设计、编码和测试工作,确保项目按时按质完成。
3、负责大数据ETL(Extract, Transform, Load)流程的开发与维护,确保数据的准确性和完整性。
4、参与大数据实时框架如Flink,Presto等的研究和开发。
5、持续优化大数据处理流程和性能,解决数据处理和存储中的性能瓶颈问题,提升系统的稳定性和效率。
6、编写相关技术文档,分享大数据技术方案和经验,推动团队技术能力的提升
任职要求
1、计算机科学、数学、统计学或相关专业本科及以上学历,具备扎实的计算机科学基础和数学功底。
2、熟练掌握Java、Python等至少一种编程语言,具备良好的编码能力和代码质量意识。
3、熟练掌握SQL,具备数据建模和复杂查询的能力
4、熟悉Hadoop、Spark、Hive、Presto、Flink等大数据技术和开源框架,有实际开发经验者优先。
5、了解大数据平台应用,掌握统计学应用以及数据建模设计与ETL开发流程。
加分项:
1、有火山平台上的大数据应用开发经验。
2、有大数据实时框架开发经验优先。
3、具有数据安全与隐私保护相关知识和实践经验。
4、有外部数据爬取经验者优先。