1、负责大数据系统,包括Hadoop、Hive、Spark、ElasticSearch及GreenPlum数据仓库等系统日常运行维护和管理;
2、负责Hadoop、Hive、Spark、ElasticSearch及数据仓库等系统的架构审核、业务监控、持续交付、应急响应、容量规划;
3、跟进并处理大数据系统事件,对系统问题及故障解决跟踪优化,负责服务状况与服务质量报告,不断提升集群服务质量,并根据实际情况进行优化;
4、梳理优化业务使用集群的流程及规范,使集群使用在资源利用、质量等方面均达到较高水平;
5、日常跟踪业界技术发展动态,并结合业务发展需要,研究引入合适的技术;
6、完成上级交办的其他工作。
1、本科以上学历,计算机或者相关专业,3年及以上工作经验;
2、深入理解Linux系统,运维体系结构,精于容量规划、架构设计、性能优化;
精通Greenplum/DB2/mysql等至少一种主流数据库运维管理,包括但不限于安装、配置、管理、维护、性能调优及故障诊断;
3、精通一门以上脚本语言(shell/perl/python等),了解java/C/scala等开发语言一种及以上,有开发经验优先;
精通Linux、AIX系统运维管理,包括但不限于安装、配置、管理、维护、性能调优及故障诊断;
4、熟悉Hadoop、Hive、Hbase、Yarn、Spark、Storm等组件的原理及运维方式;
5、自信、诚恳、乐观向上、主动性强、积极性高,响应快、执行力高、心思缜密、富有团队精神,有一定协调能力,能承受持续高强度工作,愿意加班,当系统发生问题时,能随时(包括深夜)返回公司处理问题,必要时需要安排值班;
6、对银行业务有较深了解者优先;
7、性格开朗,吃苦耐劳,能承受较大工作压力和工作强度;
8、有良好的工作态度与职业精神;
9、良好的沟通协调能力。
优先考虑:
1、具有大数据系统运维管理经验者优先;
2、具有开发经验优先;
3、具有相关专业技术等级证书
邮件发送成功
订阅失败
您的订阅已超过上限,如需继续订阅,请在 订阅管理 中至少停用1条订阅。
查看地图
前往高德地图查看
使用微信“扫一扫”
打开网页后点击右上角“分享按钮