职位描述:
岗位职责:
1、从事Hadoop、Storm、Spark等分布式大数据系统产品的技术和研发,包括分布式存储、并行数据处理和计算、性能优化、易用性、可扩展性和复用性;
2、针对公司大数据业务进行大数据平台、数据分析、挖掘等软件的框架设计,开发和维护 ;
3、负责设计大数据存储方案,并行数据处理方案,数据挖掘算法,高效的数据模块输出方案。
任职要求:
1. 1年以上hadoop,storm,spark,hive 开发经验;
2. 熟悉java,scala编程,能够基于spark做数据分析;
3. 熟悉linux环境,能够熟练使用shell、python等脚本;
4. 熟悉nosql产品(mongodb,redis,hbase),熟悉kafka,redis等技术应用;
5. 熟悉数据结构、设计模式,有一定的软件架构和优化能力;
6. 对大数据技术有强烈兴趣,工作认真踏实,动手和学习新技术能力强。