高级大数据运维工程师

【任职要求】

1. 大学本科及以上学历,并取得相应学位,985/211院校计算机类专业优先;

2. 3年以上大数据运维工作经验,或5年及以上系统运维工作经验并能力突出者;

3. 熟练掌握shell或python中至少一种,具有Ansible运用及脚本开发能力;熟悉hadoop服务部署与运维;

4. 熟悉Hadoop生态,有相关(HDFS, Yarn, Hive, Hbase, Kafka,Spark等)的运维或开发经验,具备较强的 troubleshooting 能力;

5. 熟悉HDP发行版,熟练掌握大数据集群搭建、扩容和迁移流程,有管理大规模服务器集群经验,熟悉ambari;

6. 具有技术服务业务认识与理解,并具备充分的线上运维流程与质量意识;

7. 诚实守信、作风踏实严谨、责任心强,具备良好团队协作能力精神,学习能力强,善于解决复杂问题。

【岗位职责】

1. 负责hadoop集群运维,处理机器、磁盘故障问题并保证集群服务稳定性;

2. 制定上线方案,进行大数据组件参数调优的测试验证与生产环境实施;

3. 输出高质量大数据组件运维的成熟运维脚本与工具,搭建大数据组件运维平台,提升大数据组件运维自动化水平与效率;

4. 负责hdfs\yarn\spark\flink\druid\kylin\doris\clickhouse\kafka\es等组件运维;

5. 处理开源组件漏洞问题,安全与组件服务稳定性一起抓;

6. 负责业务应用的部署与变更,承担在hadoop服务环境下业务应用问题的排查与支持;

7. 突发事件管理,应急响应、故障排除、问题跟踪与管理,提供相关报告、运维文档;

8. 完善大数据组件集群的监控体系,识别集群隐患与及早处置。

公司地点:厦门望海路65厦门思明区福富软件(望海路)五楼

公司简介:

天翼云是国有特大型通信骨干企业中国电信旗下一家科技型、平台型、服务型公司,注册资本47亿元人民币。天翼云以“云网融合、安全可信、绿色低碳、生态开放”四大优势向客户提供公有云、私有云、专属云、混合云、边缘云全栈云服务,满足政府机构、大中小企业数字化转型需求。天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务。目前,天翼云作为国云的框架已经成型。

职位发布者:陈先生

天翼云科技有限公司

融资阶段:

公司规模:

相似职位: