大数据开发高级工程师ETL方向职位描述与岗位职责任职要求 - 制度大全
制度大全 导航

大数据开发高级工程师ETL方向职位描述与岗位职责任职要求

编辑:制度大全2021-04-24

职位描述

工作职责:

1、根据公司数据分析需求进行基于Hadoop平台的项目开发;

2、根据需求进行数据仓库模型设计,熟练使用kettle工具进行ETL程序的开发;包括实时数据加工,计算,ETL,管理,监控等;

3、负责针对源系统进行数据抽取、处理、分析等相关工作,及项目中涉及到的数据库创建、维护及提供数据接口工作;

4、负责设计并优化基于Hive的数据仓库的建设;

5、制定数据库备份和恢复策略及工作流程与规范。

6、能出具消费品品牌制造行业应用的数据分析技术解决方案,并落地。

任职资格:

1.从事数据仓库领域至少2年以上,熟悉数据仓库模型设计与ETL开发经验,具备海量数据加工处理相关经验;

2.熟悉数据仓库领域知识和技能者优先,包括但不局限于:元数据管理、数据开发测试工具与方法、数据质量、主数据管理;

3.有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关实践经验着优先,重点考察Hive、Hdfs、Hbase;

4.熟练掌握kettlesqoop、datax、airflow等;

5.有消费品品牌制造、零售行业经验,尤其快消品行业和财务领域数据项目经验者优先;

6.熟悉分布式计算Presto/Imapa优先;

7.有实时计算方面的经验的优先。

篇2:健康科技中心高级大数据开发工程师职位描述与岗位职责任职要求

职位描述

职位描述

1.基于HADOOP生态系统进行大数据平台建设;

2.负责各业务条线相关指标数据的数据建模

3.负责基于sqoop,hive、spark、sparksql、mysql进行大数据开发

4.负责离线运算、实时计算平台项目的设计、开发及运维

5.负责对数据平台进行性能调优

任职要求

1.统招本科或以上学历,6年以上大数据开发工作经验;

2.熟练掌握Shell、python开发语言;

3.熟练掌握Hadoop、Hive、Hbase、Spark、SparkSQL、Storm、Sqoop、Kafka、Flume、SparkMlib等分布式框架原理,有相关的调优、运维、开发经验;

4.熟练掌握mysql数据库集群;

5.精通主流ETL开发工具,如:Informatica、DataServices、Kettle;精通主流调度工具,如:Azkaban,Oozie;

6.有数据仓库、分析系统、用户画像等产品开发经验者优先;

7.有较强的数据和业务结合能力;

8.有医疗或者大健康背景优先;

9.有较强的独立、主动的学习能力,良好的沟通表达能力。

篇3:大数据开发工程师(面向2020年毕业生)职位描述与岗位职责任职要求

职位描述

此岗位面向2020年毕业生,坐标深圳南山科技园,实习期薪资为3.5-4.5k;要求在公司全职实习半年以上,实习满3个月且评审通过后可签订三方协议,实习满6个月且评审通过后签订劳动合同,无试用期。

岗位职责

1、从事大数据分布式存储/应用服务的设计和开发,挑战大规模、高并发、易运维的分布式系统设计构建;

2、参与负责大数据运营/风控/分析等数据应用产品开发迭代,包括需求讨论需求/系统/算法的讨论、设计及实现;

3、定位和解决集群组件如Spark、Hive、HBase、Kafka的性能和高可用问题,协助集群监控系统的开发。

任职要求

1、2020年统招本科及以上学历,计科类相关专业;

2、良好的计算机基础;了解面向对象和设计模式,了解spring,mybatis等常用框架,数据库基础扎实;?

3、对技术有强烈的兴趣,喜欢钻研,具有良好的学习能力、沟通和团队合作能力。

加分项:?

1、熟悉Python、Ruby等语言;

2、熟练掌握常见Linuxshell命令;??

3、喜欢在Mac/Linux下进行开发;

4、有代码洁癖,看到代码中的坏味道有浑身不自在的感觉;

5、自我驱动、喜欢Coding。

制度专栏

返回顶部
触屏版电脑版

© 制度大全 qiquha.com版权所有