岗位职责:
1、设计、优化Hadoop/Spark集群,提升集群的性能、可用性、可扩展性等;
2、负责大数据项目,基于kafka、flume、spark streaming、Spark SQL、Hive等相关技术的实时/离线海量数据的处理、分析、统计、挖掘工作;
3、负责数据仓库建设,数据ETL;
4、实现大数据分析计算需求,支持海量数据挖掘。
任职资格:
1、本科及以上学历, 4年以上软件开发工作经验,3年以上Hadoop/Spark大数据相关工作经验;
2、熟悉Hadoop、Spark、Hbase等软件源码优先考虑;
3、有数据仓库、数据挖掘、互联网行业项目经验优先考虑;
4、有大数据项目构架优先。
5、熟悉Scala语言,对Scala原理、底层技术有深入研究者优先。
邮件发送成功
订阅失败
您的订阅已超过上限,如需继续订阅,请在 订阅管理 中至少停用1条订阅。
查看地图
前往高德地图查看
使用微信“扫一扫”
打开网页后点击右上角“分享按钮