工作职责:
1、深入了解客户需求,并帮助定义数据湖分析产品的未来方向。
2、设计、开发和优化高性能、可扩展的数据湖分析引擎。
3、通过开源标准和工具,推动StarRocks的创新解决方案落地。
4、成为行业开源标准(如ApacheIceberg)的积极倡导者和贡献者。
5、与产品和工程团队合作,设计并交付直接满足客户需求的尖端功能。
6、分析和解决分布式系统中的容错、高可用性、性能和规模挑战。
7、确保系统在客户环境中的高可靠性和稳定性。
岗位要求:
1、3年以上大规模数据密集型分布式系统的开发经验,特别是数据库、文件系统、对象存储、数据湖和数据平台基础设施方面。
2、精通Java和C++开发,能够在高性能环境中实现复杂功能。
3、在开源项目中有活跃的贡献记录或深入理解,尤其是StarRocks、ApacheIceberg、Parquet、Spark、Trino等大数据技术。
4、具备打破现状、推动创新的成长型思维以及CustomerObession的价值观。
5、计算机科学或相关领域的学士或硕士学位,或同等工作经验。