岗位职责:
1.大数据开发三年以上工作经验;
2.熟悉hdfs、hbase、hive等组件的原理并具备配置开发经验;
3.熟悉cdh、hdp、apache hadoop中的任意一个;
4.了解并掌握大数据平台搭建;
5.精通Java/Scala/Python等语言,具有linux下的开发经验,熟悉shell等脚本开发能力,至少3年以上Java开发经验;
6.有数据收集、挖掘、报表展示经验。
任职要求:
1.统招本科及以上学历;
2.有使用MR或者spark做过数据分析;熟练使用spark者优先;
3.熟悉hive、hbase等的API 调用;
4.能够按照业务逻辑开发相关脚本;
5.求编写etl代码及其调用脚本,计算输出各类报表;
6.熟悉R语言者优先;
7.熟悉Hadoop(HDFS、Mapreduce、Hbase)/Spark/Storm/Kylin/Kettle/Sqoop/Flume/等技术,有长期项目实践者优先;
8.有大数据平台开发经验者优先;
9.有海量数据处理经验者优先。
邮件发送成功
订阅失败
您的订阅已超过上限,如需继续订阅,请在 订阅管理 中至少停用1条订阅。
查看地图
前往高德地图查看
使用微信“扫一扫”
打开网页后点击右上角“分享按钮