岗位要求
1、本科及以上学历,计算机/软件工程等相关专业
2、2年以上Hadoop生态相关运维经验
3、掌握Hadoop、HDFS、Spark、HBase、Hive、Zookeeper、Kafka等开源组件,有生产环境运维和优化经验
4、独立排错能力,熟练使用linux、python,熟悉TCP/IP协议栈
5、掌握Java、python、shell中至少一门编程语言
6、有较强的学习和抗压能力,对技术有热情,热衷于技术学习和分享
7、具备良好的目标导向、系统性思维、沟通协调能力
岗位职责
1、负责基于CDH大数据平台的规划、部署、管理和优化,保障平台稳定可靠高效运行
2、深入理解CDH大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长
3、大数据平台的日常运维及优化
4、熟悉并具有CDH平台运维经验优先
邮件发送成功
订阅失败
您的订阅已超过上限,如需继续订阅,请在 订阅管理 中至少停用1条订阅。
查看地图
前往高德地图查看
使用微信“扫一扫”
打开网页后点击右上角“分享按钮