WHATWE’DLOVEYOUTODO(ANDLOVEDOING)工作职责:
1.Youwillcollaboratewithotherengineers,productanalystsandappliedscientiststounderstandthedatarequirements,designandbuildscalabledatapipelinesthatanalyze,clean,transformandmonitordata.
2.Youwillhelpusbuilddatapipelinesthatareefficientandreliableatscale.
3.Youwillenableaccurateandcomprehensivemetricdefinitionsandaggregationsessentialforinterpretingexperimentalresults.
4.Youwilldocumentworkflowdesigns,configurations,andcustomizationstoensureknowledgetransferandbestpracticesharingwithintheteam.
5.Youwillhelpuspromoteacultureofexperimentationacrosstheorganizationbyensuringthatdata-drivendecision-makingissupportedbyprecise,high-qualitymetrics.
WE'DLOVETOMEETYOUIF....岗位要求:
1.Proficiencyinengineeringbestpractices,operationalexcellence,andanalyticalproblem-solving.
2.Over5yearsofworkingexperienceindataengineering,strongunderstandingofdatamodelinganddatatransformationtechniques.
3.ExperienceofrunningdataprocessingpipelinesusingdistributeddataprocessingframeworkslikeApacheSpark.Databricksexperienceisaplus.
4.SolidprogrammingskillsinPythonalongwithstrongSQLknowledge.
5.Hands-onexperiencewiththeAWSecosystemandworkflowtoolslikeAirflow.GCPexperienceisaplus.
6.Experiencewithexperimentationplatformsorexperimentationmethodologiesisaplus.
我们希望您做的事情(并喜欢做的事情)=》工作职责:
1.您将与其他工程师、产品分析师和应用科学家合作,了解数据需求,设计并构建可扩展的数据管道,以分析、清理、转换和监控数据。
2.您将帮助我们构建高效可靠的大规模数据管道。
您将实现准确、全面的指标定义和聚合,这对解释实验结果至关重要。
3.您将记录工作流程设计、配置和定制,以确保团队内部的知识转移和最佳实践共享。
4.通过确保精确、高质量的指标支持数据驱动决策,帮助我们在整个组织内推广实验文化。
如果您符合以下条件,我们很乐意与您会面=》岗位要求:
1.熟练掌握工程最佳实践、卓越运营和分析解决问题的能力。
2.超过2-7年的数据工程工作经验,对数据建模和数据转换技术有深刻理解。
3.具有使用ApacheSpark等分布式数据处理框架运行数据处理管道的经验。有Databricks经验者优先。
4.扎实的Python编程技能和丰富的SQL知识。
5.具有AWS生态系统和Airflow等工作流工具的实践经验。有GCP经验者优先。
6.有实验平台或实验方法经验者优先。
Whoweare
-Zalando成立于2008年,总部位于柏林,致力于打造欧洲领先的时尚和生活方式电子商务生态系统。
-我们为欧洲25个市场的大约5000万活跃客户提供从头到脚的时尚和美妆产品。
-我们与超过6000个品牌合作,在全欧洲拥有15家奥特莱斯门店,12个物流中心,
-我们的目标是重新构想时尚产业,造福每一个人。
Whyjoinus
-以人为本的企业文化
-持续培训与成长机制
-参与全球项目的机遇
-关注员工健康和福利