任职要求:
1、计算机、数学、统计、金融等相关专业的本科或以上学历;从事数据开发/数据仓库领域至少2年及以上、具备海量数据的模型设计与ETL开发经验;
2、掌握Mysql、Oracle、TD、DB2、GP等至少一种、灵活运用SQL实现海量数据ETL加工处理;
3、熟练掌握在ODPS/Hive上的编程开发、有基于ODPS/Hive等系统的开发、实施经验;
4、熟悉常用ETL工具、包括DataX、Sqoop、kettle等;
5、了解阿里数据中台DataWorks DI、DataHub等数据接入组件;
6、了解阿里数据中台历史、增量数据同步机制、历史增量数据合并全量数据机制及技术路线;
7、基于DataWorks数据开发工具对Maxcompute贴源层、共享层进行数据加工、整合开发、将汇总或分析结果同步至数据中台分析层rds、支撑微应用可视化展示;
8、对于特殊计算需求、基于Maxcompute开发spark内存计算模型;
9、基于DataWorks数据质量开发工具、开展Maxcompute贴源层、共享层数据加工、整合过程中的数据质量规则定义、配置、执行;
10、基于QuickBI开发报表、仪表盘、配置数据可视化分析场景;