工作职责:
1. 实施数据仓库的数据建模及环境搭建;
2. 负责业务数据统计、分析、挖掘工作;
3. 负责公司大数据HadoopHiveSpark实时计算的运维保障。
任职资格:
1. 本科及以上学历,5年以上工作经验;
2. 有大型数据仓库后台建模的项目经验,如:DWBI平台化,开发自动化、脚本化;
3. 熟悉LinuxUnix系统,了解python、shell等脚本语言;
4. 有数据建模、分布式数据挖掘项目经验;
5. 熟悉常用的统计方法如:线性回归、逻辑回归、实验设计、聚类、分群等,熟悉主流统计分析软件,数据挖掘的常用算法,能够进行海量数据处理和挖掘;
6. 熟悉hadoop、hive、hbase、yarn、spark、storm等之组件的原理及运维方式。
邮件发送成功
订阅失败
您的订阅已超过上限,如需继续订阅,请在 订阅管理 中至少停用1条订阅。
查看地图
前往高德地图查看
使用微信“扫一扫”
打开网页后点击右上角“分享按钮