首页 > 制度大全 > 大数据项目主管职位描述与岗位职责任职要求

大数据项目主管职位描述与岗位职责任职要求

2024-07-29 阅读 9260

职位描述

岗位职责:

1.负责业务需求的沟通、分析,挖掘潜在业务需求,撰写需求说明书;根据项目计划做好项目各个阶段的组织工作,将工作落实到位;承担业务需求到Hadoop技术体系应用转换工作;大数据平台部署、管理、优化等;

2.负责调查项目的技术现状和技术需求,编写技术需求书和实施技术方案,协调解决开发中的技术难题,负责执行项目计划并实现项目目标;;

3.负责大数据项目功能分解、功能质量保障、风险管理、与客户协调沟通;

4.参与大数据平台的数据生命周期规划、管理及数据管理规范制定;

5.根据项目需求,分析数据,建立适应的模型并解决业务需求,并规划和设计出对应的数据专题应用,以提升数据价值;。

任职资格:

1.本科以上学历,计算机相关专业,2年以上相关工作经验;

2.熟练掌握hadoop、hive、hbase、spark、kafka、storm等相关大数据技术,并具备基于以上技术的项目管理实施经验;

3.对数据类项目的架构、流程、数据加工作业、作业调度、作业监控、元数据、数据质量管理有深刻认识,并能运用到大数据项目管理中;

4.具备大数据采集、清洗、挖掘相关系统实施经验,有传统数据仓库项目管理实施经验者优先考虑。

篇2:大数据主管岗位职责

大数据技术主管广东智慧电子信息产业股份有限公司广东智慧电子信息产业股份有限公司,广东智慧电子,广东智慧电子公司,智慧电子职责描述:

1.负责基于hadoop/storm/spark生态的大数据存储平台搭建和部署;

2.参与数据抽取、清洗、转化等数据处理程序开发;

3.参与数据仓库的设计以及基于大数据平台上业务数据挖掘。

4.参与大数据分布式应用系统服务器端或客户端软件开发工作。

5.参与用户建模等算法设计和优化;

6.分析用户行为数据,设计合理的算法模型及策略;

7.协助完成日常数据分析;

岗位要求:

1.大学本科或以上学历,计算机相关专业,两年以上工作经验,spark/hadoop全栈优先,精通任意一栈者也可;

2.熟悉hadoop、spark、spark生态圈及hadoop生态圈中的常用组件,如Spark、Hive、zookeeper、Kafka、Storm、Redis、HBase、Presto等全部或者部分组件;

3.熟悉数据库开发例如:Oracle、MySQL;

4.熟悉Java开发,有大数据平台相关开发经验;

5.掌握至少一种NoSQL数据库;

6.熟悉linux环境和命令,能编写简单的shell脚本;

7.工作积极主动,具备较强的沟通能力;具有良好的学习能力和团队合作精神

篇3:算法主管大数据方向职位描述与岗位职责任职要求

职位描述

岗位描述:

1.从事前沿大规模人工智能与机器学习算法的研究与分布式开发;

2.将算法应用到海量数据中,提升/挖掘IOT物联网大数据场景及大数据平台建设;

3.提供开放平台,提供业内领先的人工智能与机器学习服务.

?

任职要求

1.硕士博士学位及博士后研究,计算机相关专业毕业;

2.五年以上实际机器学习或深度学习应用工作经验;

3.丰富的实际问题解决经验;

4.有丰富C++或Java开发经验,熟练Phython,R;

5.熟悉patternrecognitionandclassification及常用统计模型和机器学习算法;

6.对概率统计和机器学习基本原理有扎实理解;

7.精通machinelearning,datamining,andalgorithm研发;

8.熟悉Caffe/TensorFlow/MXNet/Torch/Theano等训练框架;

9.熟悉Linux开发环境,熟悉开源工具,有相关领域经验者优先.

有机会接触千亿级海量数据的离线和实时的数据处理,涉及Java,Spark,Hive,Sparkstreaming,Hbase,Elasticsearch,Flink等大数据的前沿技术和多云的统一架构。