1.负责数据接入、数据清洗、底层重构,业务主题建模等工作,形成数据中心; 2.负责大数据整体的计算平台开发与应用; 3.负责Hadoop、Spark、Hbase和Storm等系统的搭建、调优、维护和升级等工作,保证平台的稳定性; 4.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 5.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。
其他要求1.全日制本科及以上学历,计算机及相关专业,35周岁以下,211院校优先; 2.熟悉大数据开源技术,包含(不限于)Hadoop/Spark/Hive/Hbase分布式框架/计算/存储/检索等相关技术,并有一定的Hadoop生态系统运维经验; 3.掌握Python或Java开发语言; 4.掌握SQL,SparkSQL进行数据开发;较好的SQL性能调优经验; 5.具有海量数据处理经验,或有互联网行业数据挖掘工作经验者优先;
Copyright C 20092014 All Rights Reserved 版权所有 粤ICP备2021158593号
地址: EMAIL:kf@fjzp.cn
Powered by PHPYun.