职位描述 1.负责业务需求调研,并设计大数据架构和数据开发流程规范的制定; 2.负责数据治理,制定并实施元数据管理、主数据管理、数据资产管理等; 3.负责数据仓库建设、ETL开发,解决技术难点和性能调优工作技能要求。 任职资格 1.全日制本科以上学历,计算机相关专业为佳,3年以上数据开发/BI开发经验; 2.具备大数据处理能力,熟悉Hive,了解Hadoop以及数仓建设; 3.熟悉至少一种数据库,如Hivesql、Mysql、Clickhouse,并具备一定的SQL调优能力; 4.熟悉至少一种BI工具,如tableau、quickbi、finebi,Finereport尤佳; 5.良好的数据敏感度,具备较强的的数据分析总结能力,具备良好的数据呈现能力; 6.具备良好的团队沟通能力,有独立分析项目工作经验; 7.熟悉python开发语言以及numpy、pandas、mlib、klearn、TensorFlow、numpy、pandas、matplotlib等常用的工具包, 能够使用机器学习、深度学习等常用算法,对数据进行分类、聚类、预测尤佳。
薪资好商量,自信匹配的同学请砸简历!! 岗位职责: 1、 负责公司研产供销(尤其是经营及试验领域)业务各类场景的指标体系构建; 2、负责数据逻辑梳理和数据可视化模块开发; 3、负责为经营业务决策和运营提供日常数据分析支持; 4、对业务模式的实验和探索,进行数据分析和模型预测,通过分析对比以往模型,总结和提炼业务改进方向。 任职要求:(本科以上学历,2-3年以上工作经验) 1、经济学、统计学、计算机、数据科学、商业智能等和数据分析高度相关专业者优先; 2、熟练掌握常见BI工具FineBI、f帆软report及SQL查询语言(必须); 3、具备较为丰富的数据仓库建设经验,对数据开发具备1-2年工作经验; 4、编程语言pyrhon优先,具备JAVA等其他开发语言也可; 5、熟悉HADOOP集群,有使用过商用大数据平台的优先; 6、运营规划和实施能力,逻辑思维能力、分析能力和团队协作能力突出;
大数据开发实习生 【工作职责】 1、负责数据处理解决方案的设计与实施,以满足特定行业的生产需求; 2、负责大数据相关组件进行二次开发; 3、负责大数据的应用开发; 4、负责研发族群文档编写 。 【职位要求】 1、2025届应届毕业生,本科及以上学历,计算机软件、通讯相关专业; 2、较强的编程(JAVA/Scala)以及脚本编写基础; 3、大数据以及分布式计算领域相关基础知识; 4、熟悉至少一种如下大数据相关组件,如:Hadoop/Spark/Kafka/Hbase/Hive/Storm/HAWQ/ /AMBARI/Solr; 5、性格开朗,学习及语言表达能力强,善于与人沟通、交流 。
工作职责 1.负责基金、保险、证券、信托等行业投资系统、估值系统、登记过户系统等应用软件的驻场运维服务工作。 任职资格 硬性要求:必须要有公募基金项目经验的 1.计算机相关专业,大专及以上学历 2.1-3 年资管行业数据开发相关岗位经验。 3.有 ETL开发经验,熟悉 SOL语言,可以独立完成数据模型的设计、ETL、报表开发及测试上线 4.有报表工具使用经验,如 SmartBi,FineReport 等。 5.掌握至少一门编程语言,如 Python 等。 6.了解行业内主流系统数据库结构及业务流程 7.有大数据开发经验更佳。
【学历要求:全日制本科以上学历,计算机相关专业优先,学信网可查】 岗位要求: (1) 精通Oracle数据库搭建、备份、迁移; (2) 精通Oracle数据库性能调优; (3) 精通Linux操作系统使用; (4) 熟悉Moia调度平台搭建和使用; (5) 具备银行数据岗开发经验优先; (6) 具备4年以上数据开发经验; (7) 能接受长期稳定银行驻点办公。
职位描述: 1、负责开发维护大数据集群的任务调度服务 2、负责开发维护AI训推场景的算力调度服务 3、负责设计调度引擎实现算力调度的统一,包括但不限于单任务DAG级别调度、多任务算力分配、大数据和容器的算力调度以及血缘依赖任务调度 4、负责推进自研调度引擎上线,支撑大数据、容器化、AI场景 岗位要求: 1. 熟悉Yarn、Volcano、K8S scheduler等调度引擎 2. 熟悉kubeflow、Argo等容器化调度引擎 3. 熟悉Spark、Hive等大数据引擎的任务运行逻辑和DAG调度管理代码 4. 熟悉DolphinScheduler、Airflow等任务调度引擎 5. 熟悉AI训练场景的算力调度、推理场景的算力调度者优先
工作内容: 1、参与智能工厂数仓的设计开发,根据业务需求,完成技术方案的设计与落地; 2、负责实时、离线数仓的架构升级与性能优化,保证高时效性、稳定的工业数仓交付; 3、参与主数据数据治理工作,推动每项主数据在系统层面的互联互通; 4、参与工厂数据资产的梳理与定义,并按计划实现系统化管理。 任职要求: 1、计算机、数学相关专业本科及以上学历,5年+大数据开发经验; 2、具备熟练掌握Hive/Flink/Spark SQL,Java/Scala的能力; 3、具备独立完成需求分析、方案设计及高质高效交付的能力; 4、具有良好的人际沟通能力和团队协作能力。 5、有CDGA、PMP、软考等证书者优先;
岗位职责: 1.负责业务系统数据库管理,包括数据库日常维护,定期进行性能监测、分析、调优及备份恢复,保障数据库系统高效安全及稳定运行,系统数据安全以及权限管理。 2.负责数据库系统部署方案的计划、设计和实施,参与项目的数据库设计,对数据库整体架构提出建议。 3.保障数据库系统高效安全及稳定运行,对开发人员进行数据库相关指导。 4.负责对应用程序进行审查,监控和优化数据库的性能。 5.排查数据库故障,分析和解决疑难问题,提出预防方案。 6.完成上级交代的其他工作。 任职要求: 1.本科及以上学历; 2.熟悉Linux系统管理,熟悉关系型数据原理及运行机制、熟悉NoSql数据库; 3.熟悉Mysql,redis,mongoDB等数据库; 4.熟悉数据库备份与恢复原理,数据库的独立部署和配置升级; 5.熟悉SQL的编程,存储过程及优化方法; 6.书面、口头沟通能力强,善于编写数据库规范文档; 7.有良好的团队合作意识,能与团队成员协同工作及较强的学习和沟通能力。
工作内容: 1. 利用数理统计方法、分析工具对多行业数据进行专业化处理,挖掘数据价值,撰写分析结果; 2. 参与大数据和文本智能项目的需求开发与产品执行工作; 3. 与技术部门配合,协助进行文本数据处理的模型和算法逻辑研究; 4. 协助进行公司数据智能产品的标准化和知识产权的建设工作。 任职资格: 1.全日制大学本科及以上学历,统计学、数学、经济管理等相关专业,硕士优先; 2.对数据有高度敏感度,具有清晰的数理统计、逻辑推理能力,以及学习和表达能力; 3.熟练使用Excel、SPSS、SAS、R等软件。
有零售物流跨境电商相关经验的优先 必须要有spark实际开发经验,python和java必须有实际的数据开发经验。 岗位职责: 1、负责数据仓库开发,包括但不限于数据采集、清洗、转换、存储和分析等环节。 2、负责BI报表开发,临时数据提取等任务。 3、对现有数据处理流程进行性能调优,确保数据处理的高效率和稳定性。 4、使用Spark、SQL,开发高效的数据处理作业和数据流水线。 岗位要求: 1、精通Java/Python/Scala中至少一种编程语言,有扎实的编程基础。 2、理解数据仓库原理,有实际的数据建模和ETL开发经验。 3、熟悉SQL,熟练使用MySQL、MongoDB等数据库。 4、有2年以上数据处理经验,了解Hadoop、Spark组件。 5、具备良好的问题解决能力和逻辑思维能力,能够独立分析和解决问题。 6、优秀的沟通能力和团队协作精神,能够在快节奏环境中有效工作。 7、上班时间上午10:30、下班时间晚上8:30,中、晚各休一个小时。