大数据运维工程师的基本职责(通用14篇)大数据运维工程师的基本职责(通用14篇)大数据运维工程师的基本职责(通用14篇)

欢迎光临
我们一直在努力

大数据运维工程师的基本职责(通用14篇)

大数据运维工程师的基本职责(通用14篇)

大数据运维工程师的基本职责 篇1

  职责:

  1.负责Hadoop、spark、hbase、oozie、hive等平台运营和优化工作,保障平台服务运行稳定、高效。

  2.负责大数据方案架构及方案落地;

  3.开发Hadoop大数据管理平台与监控建设;

  3.负责hadoop平台部署、维护;生产问题、告警、故障处理及主机维护、日常值班;

  4.负责集群网络架构、机器管理等。

  任职资格:

  1. 全日制本科以上学历,三年以上后台系统运营工作经验;

  2. 熟悉hadoop原理,具有Hadoop平台应用及管理经验,熟悉hadoop、hive、spark、hbase、oozie、druid、kylin、flink等开源项目及部署、维护、调优;

  3. 熟悉linux操作系统及调优;熟悉sql编程,熟悉Shell/Python/Java/Perl语言的一种或多种,有开发经验优先, 熟悉nagios,cacti,ganglia,zabbix,zenoss优先;

  4. 对大数据和自动化运维开发有浓厚兴趣,有大规模hadoop运维经验者优先;有hadoop/hbase/spark/hive 开发经验者优先。

大数据运维工程师的基本职责 篇2

  职责:

  1、负责Hadoop平台搭建,运维,管理,故障处理。

  2、负责保障大数据平台的高效运转、提升系统稳定性和安全性。

  3、对平台的Hadoop,Hbase,Kafka,Hive等进行优化。

  4、建立Hadoop集群管理和维护规范,包括版本管理和变更记录等。

  岗位要求:

  1、有丰富的Hadoop生态系统的运维经验,了解Hadoop、Storm、Spark、Kafka这些组件的原理,具备部署、实施、维护hadoop 及相关组件的能力;

  2、至少精通 Perl/Python/Shell脚本语言中的一种;

  3、掌握Linux操作系统的配置,管理、优化以及各种常用命令,能够独立排查及解决操作系统层的各类问题;

  4、分析问题能力优秀,善于从各种系统、应用日志中寻找出问题的原因。

  5、有独立分析问题和解决问题的能力,能出差。

大数据运维工程师的基本职责 篇3

  职责:

  1、技术保障各底层支撑系统的可靠性与稳定性;

  2、负责车辆网平台的运行监控的解决方案编制、实施与二次功能开发;

  3、负责技术文档手册编写,更新,经验总结沉淀,培训分享;

  4、负责对新技术和方案进行调研,评估和引进,用技术去提升运维生产效率

  任职资格:

  1、熟悉常见的应用服务部署和调优(Nginx、MySQL、Redis、MongoDB、ELK,Hadoop等),熟悉高可用集群、负载均衡集群的规划与搭建;

  2、熟练使用Linux、TCP/IP网络协议栈,了解常用的Troubleshooting手段和常见性能指标

  3、具有车联网平台运维的经验,精于容量规划、架构设计、性能优化;

  4、熟悉主流PaaS云产品的使用,具有运维平台开发经验者、参与过开源产品的开发者优先;

  5、优秀的沟通能力,出色的学习与钻研能力,良好的问题分析与解决能力;

  6、对行业技术敏感度高且细致,善于思考,乐于发现,对解决具有挑战性问题充满激情。

大数据运维工程师的基本职责 篇4

  职责:

  1、负责维护主机的运行,包括巡检、故障排除、数据备份等业务,保证主机高质量、高效率运行状态;

  2、负责主机漏洞整改及补丁升级;

  3、负责hadoop运维相关工作;

  4、负责大数据平台的日常部署、升级、扩容、迁移;

  5、负责高并发,大存储和实时流的Hadoop/spark大数据平台规划,运维,监控和优化工作。

  任职资格:

  1、2年左右主机运维经验;

  2、对linux基础运维命令熟悉,shell,python至少精通一种,如会scala语言可优先考虑;

  3、熟悉Linux的维护和管理,熟悉bat及Shell脚本开发,能看懂Python/Scala优先;

  4、做过大规模hadoop集群优先;

  5、大数据项目:包括不限于hadoop、hive、kafka、hbase、spark、Kudu、Impala等大数据生态的平台搭建,监控,运维,调优、生产环境hadoop集群trouble shooting 、hadoop版本升级管理及优化支持。

大数据运维工程师的基本职责 篇5

  职责:

  1. 负责大数据平台的稳定性和性能优化;

  2. 负责大数据项目的运维工作;

  3. 针对业务需求制定统一的运维解决方案;

  4. 完善自动监控报警系统,对业务层面关键指标进行监控与报警通知;

  任职要求:

  1、熟练掌握hadoop平台搭建、维护,有平台优化经验;

  2、熟悉HDFS、Hive、Spark、HBbase、Kafka、Flume等组件的原理,有阅读源码能力者优先;

  3、熟悉腾讯云产品,有腾讯云EMR使用经验者优先考虑;

  4、熟练掌握java、python语言,熟练使用SQL,并有一定的优化能力

大数据运维工程师的基本职责 篇6

  职责:

  1、 总部、分公司计算机、主机、笔记本电脑、硬软件、计算机网络运营管理;

  2、 公司整体硬件及网络信息化管理规划及相关制度、流程建设并组织实施;

  3、 公司邮件、网站主机管理、日常维护;

  4、 与硬件及网络供应商保持良好的合作关系,以确保系统问题得到快速的支援;

  5、 新员工入职邮箱、系统等权限开通;

  6、 领导交代的其他相关事宜。

  任职资格:

  1、大专以上学历,计算机等相关专业毕业,接受优秀应届毕业生;

  2、了解或者熟悉HELPDESK;熟悉基本网络维护作业,知悉基本布线规则;

  3、扎实的计算机软硬件基础知识;

  4、服务意识强、办事效率高、有责任心;

  5、做事积极积极、有一定沟通能力、较强的工作热情、组织管理能力。

大数据运维工程师的基本职责 篇7

  职责:

  1.基础应用服务日常维护工作,保障业务稳定可靠;

  2.配合业务团队完成应用部署,协助研发进行故障排查;

  3.对业务提供稳定、安全、性能合格的运行环境和专业技术支持;

  4.自动化运维组件的规划、设计和开发,提升运维质量和效率;

  5.负责公司产品的版本控制、构建和发布管理。

  任职资格:

  1.熟悉Linux系统管理,熟练掌握各公开云平台管理技术,两年以上互联网行业实际工作经验;

  2.精通Python和Shell等编程语言,熟练使用sed、awk、sort、uniq、grep等命令;

  3.精通WEB及负载均衡相关技术,如Apache/Nginx/LVS/haproxy等应用服务的安装/配置和维护,具备对应用系统的故障定位和处理能力;

  4.精通各类数据库相关技术,如Mysql/Pgsql/Redis/Mongodb/Oracle/Ldap等服务的安装配置及灾备维护,有DBA相关经验者优先;

  5.熟悉各类中间件的安装配置及维护;具备故障快速定位排查分析能力;

  6.熟悉TCP/IP协议,路由交换的基本概念,能够掌握网络检查工具的使用;

  7.必须精通Git维护及操作;熟悉发布系统构建部署如Jenkins(Hudson),Gerrit,Ansible等;

  8.熟练掌握常见监控软件zabbix、Nagios等监控软件的使用;

  9.有运维自动化、监控系统、发布系统、运营支撑系统等开发经验者优先;

  10.具备良好的网络安全意识,熟悉各类软硬件防火墙的配置及使用;有互联网安全行业相关经验者优先。

大数据运维工程师的基本职责 篇8

  1、操作系统的安装、配置与日常管理;

  2、数据库安装、配置与日常管理;

  3、Web主机安装、配置与日常管理;

  4、应用系统的日常管理。

大数据运维工程师的基本职责 篇9

  1、对主机进行日常维护,确保各项服务连续正常运行,无重大事故;

  2、负责主机存储网络等基础平台的技术维护和问题处理 ;

  3、负责执行大客户服务项目的diy化服务配置和硬件安装等处理工作;

  4、了解操作系统安装与配置;

  5、具备一定的网络相关故障解决能力;

  6、熟悉主流厂商PC主机硬件安装与配置;

  7、Windows、Linux、VMware等日常管理、维护;

  8、负责主机异常或故障的受理、跟踪、解决以及统计分析;

大数据运维工程师的基本职责 篇10

  职责:

  1、负责和参与公司大数据基础架构平台规划,运维,监控和优化工作,保障数据平台服务的稳定性和可用性;

  2、研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;

  3、负责和参与自动化运维系统及平台的建设;

  4、负责优化部门运维流程提升运维效率。

  任职要求:

  1、统招本科及以上学历,计算机相关专业,2年以上互联网运维工作经验;

  2、熟悉Linux操作系统及常见开源软件(Nginx,Tomcat,Zabbix等)的配置,管理及优化,能够独立排查及解决操作系统层的各类问题;

  3、熟悉Hadoop/Kafka/Hbase/Spark/Elasticsearch/Hive的组件原理及运维方式;

  4、精通Python,shell,了解JAVA;有良好的系统性能优化及故障排除能力;

  5、具有很强的责任心、执行力、服务意识、学习能力和抗压能力;

  6、具备较好的沟通能力、积极性和团队合作精神。

大数据运维工程师的基本职责 篇11

  1、负责Data Center日常巡检工作,并根据要求形成相关统计报告。

  2、每周按照要求制作数据中心运行参数等的统计分析。

  3、能够部署相关的操作系统(windowsdows、linux)以及一些基本服务,比如AD、DNS、DHCP、AAA、IIS、文件系统等。

  4、能够配置交换机的基础配置(MSTP、RSTP、主从VLAN、动态VLAN等基础配置)

  5、路由协议(静态、RIP、ospf路由)。

  6、了解防火墙的工作原理,能够进行简单的策略下发。

大数据运维工程师的基本职责 篇12

  职责:

  1、负责公司现有阿里云平台的管理,包括:ECS\RDS\Redis等 ;

  2、负责公司数据中心主机的管理,维护;

  3、制定和改进系统的监控、备份方案,应急响应,故障排查,确保系统运行稳定;

  4、完成上级安排的其他工作。

  任职要求:

  1、本科以上学历,一年以上工作经验;

  2、熟悉CentOS和Ubuntu安装配置优化,熟悉shell脚本 ;

  3、熟悉Linux系统常用主机的部署,如tomcat、redis、nginx、LVS,haproxy ,mysql的安装、配置、调优,熟悉常用监控软件;

  4、熟悉SVN ,Git;

  5、熟悉计算机软件、硬件及周边设备的维护,能解决工作中出现的网络问题及突发情况,懂得相关网络设备配置规划;

  6、熟悉使用阿里云相关云产品;;

  7、工作认真负责,积极积极,善于思考,善于发现并解决问题;

大数据运维工程师的基本职责 篇13

  职责:

  1、负责公司主机维护保证业务稳定.

  2、负责日志分析、健康检查、性能监控等.

  3、负责公司开发相关账号的权限控制以及维护.

  4、配合业务运维、开发、测试以及其他相关团队完成运维相关工作.

  技能要求:

  1、熟悉自动化运维工具

  2、熟悉Linux命令

  3、熟悉阿里云常用产品的维护与优化.

  4、熟悉Docker原理并有使用经验

  5、有打造DevOps平台的想法(将CI、CD、日常运维、监控告警、智能运维打造一体化DevOps平台)

  6、熟悉keepalived、nginx、php、java、redis等生产环境的部署应用及调优

  7、有pc电脑以及企业网络(交换机,路由器,无线AP)维护经验优先

  8、熟悉k8s,istio优先

大数据运维工程师的基本职责 篇14

  1、负责计算机、局域网络、以及数据中心设备维护工作;

  2、负责办公设备的日常维护及管理工作;

  3、负责病毒的查杀,维护网络系统安全;

  4、负责设备资产及配置信息登记与更新;

  任职资格:

  1、大专及以上学历,计算机相关专业;

  2、具有运维管理、主机网管工作经验;

  3、具有较好的网络基础知识,熟悉网络搭建及常用设备的使用;

  4、熟练使用主流电脑操作系统,能够处理常见的软件问题;

  5、通过国家软考初、中级优先。

推荐站内搜索:初中日记300字、教师节祝福语、我的故事作文600字、公务员准考证打印时间、一家人一家亲观后感湖南公务员准考证打印、北京 人事考试网、世界上最恐怖的作文、周记200字大全、我成功了作文500字、

大数据运维工程师的基本职责(通用14篇)
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:大数据运维工程师的基本职责(通用14篇)
文章链接:https://678999.cn/83278.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

一路高升范文网

提供各类范文...

联系我们联系我们

登录

找回密码

注册