岗位职责:
1、负责公司大数据基础平台的规划、部署、管理和优化,保障平台稳定可靠高效运行;
2、负责Hadoop、HBase、Hive、Spark、Kafka、Presto,Druid等集群的维护、 优化工作;
3、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
4、开发大数据自动化运维、监控、故障处理工具,监控所有基础设施组件、应用程序,提供紧急应急措施。
任职资格:
1、计算机专业,本科及以上学历,5年以上Hadoop生态系统开发经验;
2、熟悉Hadoop、HBase、Kafka、Hive、Spark等组件的工作原理;
3、搭建、调优并维护过Hive、Presto、Spark、Kafka、Redis等服务;
4、精通一门以上脚本语言(java,shell等),有开发经验者优先;
5、熟悉Linux软硬件环境、系统管理和优化,有做过大数据服务监控者优先;
6、主动性强,具有良好的沟通、协调和组织能力,富有团队精神,有较强的文档编写能力;
邮件发送成功
订阅失败
您的订阅已超过上限,如需继续订阅,请在 订阅管理 中至少停用1条订阅。
查看地图
前往高德地图查看
使用微信“扫一扫”
打开网页后点击右上角“分享按钮