职责:
DataDevOps,承担从数据接入、ETL到平台维护和自动化实施的全链路落地;
通过先进的高可用性工程实践确保数据高效流转与系统稳定运行。
能力要求:
具备成功搭建数据处理工具链并持续运营的经验;
熟悉湖仓架构,熟悉Flink/Kafka/ClickHouse等开源组件生态;
具有海量数据任务调度管理的设计经验;
具备在海量数据的多阶段处理任务中的副本及冗余管理经验;
具备海量数据系统的灾备与恢复实践经验。