岗位职责:
1、负责大数据平台的构建、维护以及性能优化,确保系统的稳定性和可扩展性。
2、利用Kudu、Impala、HBase等大数据技术,设计并实现高效的数据存储和查询方案。
3、使用Kettle等工具进行数据抽取、转换和加载(ETL)工作,保障数据的准确性和一致性。
4、对数据仓库进行建模,并优化数据查询性能,提升数据处理速度。
5、与团队成员紧密合作,参与数据架构的设计和规划,确保系统能够满足不断增长的数据需求。
任职要求:
1、计算机相关专业本科及以上学历,3年以上大数据相关工作经验。
2、熟练掌握Kudu、Impala、Kettle和HBase,有丰富的实战经验,能够一次性完成任务,无需试错和冗余操作。
3、深入理解大数据处理流程,对数据仓库设计、数据建模有深刻认识。
4、具备良好的团队协作能力,可以与团队成员有效沟通,共同解决问题。
5、对新技术保持敏锐的洞察力,愿意不断学习新知识,提升个人能力。
加分项:
1、有大规模数据处理项目经验者优先。
2、熟悉其他大数据相关技术,如Hadoop、Spark等。
3、拥有良好的数据分析和问题解决能力。