招聘人数:1-3人
到岗时间:不限
年龄要求:不限
性别要求:不限
婚况要求:不限
岗位职责:1.辅助管理Hadoop集群运行,稳定提供平台服务;2.基于Spark、flink技术的海量数据的处理、分析、统计和挖掘;3.维护和使用airflow、jenkins等一个或多个调度系统;4.根据需求使用Spark、python、sqoop进行数据处理、查询和统计等工作。
任职要求:1.本科及以上学历,计算机相关专业;2.两年年及以上大数据开发经验;3.熟练掌握HDFS/Hbase/Hive/MapReduce/spark/zookeeper等hadoop组件的应用和原理,能独立完成cdh或其他大数据管理工具的安装升级维护;4.熟悉Spark Streaming和Spark SQL 或者flink;5.有sqoop、flume等ETL开发经验优先;6.熟练掌握Linux操作系统,熟悉shell等脚本编程;7.有在Spark或者flink相关项目中应用Java、scala或Python语言的经验者优先;8.有过海量数据系统开发经验者优先;9.有良好的语言沟通能力,能够协调团队成员及相关部门开展分工及合作。
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。