招聘人数:1-3人
到岗时间:不限
年龄要求:不限
性别要求:不限
婚况要求:不限
岗位职责1、负责基于Hadoop/Spark生态系统的研发;2、负责基于Scala的Spark任务开发;3、负责Hadoop/Spark集群调优;4、负责对数据进行建模。任职要求1、大学本科或以上学历,计算机相关专业,至少2年以上相关经验;(优秀者忽略)2、对Hadoop / Spark 生态系统组件(Hbase、Alluxio、ZooKeeper等)熟悉,对Flume、Kafka熟悉;3、熟悉linux开发环境;熟练掌握Scala/Java中的一种;4、有hadoop / Spark调优、统计学知识的优先;5、有机器学习经验者优先;6、对新技术有热情。
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。