大数据开发高级工程师ETL方向职位描述与岗位职责任职要求
职位描述:
工作职责:
1、根据公司数据分析需求进行基于Hadoop平台的项目开发;
2、根据需求进行数据仓库模型设计,熟练使用kettle工具进行ETL程序的开发;包括实时数据加工,计算,ETL,管理,监控等;
3、负责针对源系统进行数据抽取、处理、分析等相关工作,及项目中涉及到的数据库创建、维护及提供数据接口工作;
4、负责设计并优化基于Hive的数据仓库的建设;
5、制定数据库备份和恢复策略及工作流程与规范。
6、能出具消费品品牌制造行业应用的数据分析技术解决方案,并落地。
任职资格:
1.从事数据仓库领域至少2年以上,熟悉数据仓库模型设计与ETL开发经验,具备海量数据加工处理相关经验;
2.熟悉数据仓库领域知识和技能者优先,包括但不局限于:元数据管理、数据开发测试工具与方法、数据质量、主数据管理;
3.有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关实践经验着优先,重点考察Hive、Hdfs、Hbase;
4.熟练掌握kettlesqoop、datax、airflow等;
5.有消费品品牌制造、零售行业经验,尤其快消品行业和财务领域数据项目经验者优先;
6.熟悉分布式计算Presto/Imapa优先;
7.有实时计算方面的经验的优先。
篇2:健康科技中心高级大数据开发工程师职位描述与岗位职责任职要求
职位描述:
职位描述:
1.基于HADOOP生态系统进行大数据平台建设;
2.负责各业务条线相关指标数据的数据建模
3.负责基于sqoop,hive、spark、sparksql、mysql进行大数据开发
4.负责离线运算、实时计算平台项目的设计、开发及运维
5.负责对数据平台进行性能调优
任职要求:
1.统招本科或以上学历,6年以上大数据开发工作经验;
2.熟练掌握Shell、python开发语言;
3.熟练掌握Hadoop、Hive、Hbase、Spark、SparkSQL、Storm、Sqoop、Kafka、Flume、SparkMlib等分布式框架原理,有相关的调优、运维、开发经验;
4.熟练掌握mysql数据库集群;
5.精通主流ETL开发工具,如:Informatica、DataServices、Kettle;精通主流调度工具,如:Azkaban,Oozie;
6.有数据仓库、分析系统、用户画像等产品开发经验者优先;
7.有较强的数据和业务结合能力;
8.有医疗或者大健康背景优先;
9.有较强的独立、主动的学习能力,良好的沟通表达能力。
篇3:大数据开发工程师(面向2020年毕业生)职位描述与岗位职责任职要求
职位描述:
此岗位面向2020年毕业生,坐标深圳南山科技园,实习期薪资为3.5-4.5k;要求在公司全职实习半年以上,实习满3个月且评审通过后可签订三方协议,实习满6个月且评审通过后签订劳动合同,无试用期。
岗位职责:
1、从事大数据分布式存储/应用服务的设计和开发,挑战大规模、高并发、易运维的分布式系统设计构建;
2、参与负责大数据运营/风控/分析等数据应用产品开发迭代,包括需求讨论需求/系统/算法的讨论、设计及实现;
3、定位和解决集群组件如Spark、Hive、HBase、Kafka的性能和高可用问题,协助集群监控系统的开发。
任职要求:
1、2020年统招本科及以上学历,计科类相关专业;
2、良好的计算机基础;了解面向对象和设计模式,了解spring,mybatis等常用框架,数据库基础扎实;?
3、对技术有强烈的兴趣,喜欢钻研,具有良好的学习能力、沟通和团队合作能力。
加分项:?
1、熟悉Python、Ruby等语言;
2、熟练掌握常见Linuxshell命令;??
3、喜欢在Mac/Linux下进行开发;
4、有代码洁癖,看到代码中的坏味道有浑身不自在的感觉;
5、自我驱动、喜欢Coding。