岗位职责:
1.建设基于Hadoop和Spark的大数据分析平台;
2.设计和开发基于Hadoop和Spark的健康大数据分析软件;
3.开发健康大数据挖掘和建模软件;
4.利用公有云平台(Amazon Web Service/阿里云等)部署和开发生命健康大数据分析软件;
岗位要求:
1.计算机或相关专业,大学本科及以上学历;
2.具有两年以上的Hadoop平台开发经验,掌握Ma********编程。具有Spark平台开发经验者优先;
3.掌握数据结构和算法,有较强的算法分析和工程实现能力,有一年以上的项目管理经验者优先;
4.精通Java语言,熟悉至少一种脚本语言(Linuxshell/Perl/Python)。掌握Scala语言者优先。能够阅读C/C++、脚本语言的代码;
5.熟练使用Linux操作系统、了解网络和存储知识。有HPC环境下工作经验者优先;
6.熟悉数据挖掘和机器学习算法者优先;
7.英语水平:具备阅读英文技术文档的能力;
8.具备责任心,良好的团队协作及沟通能力,以及积极的心态。
员工福利:
国家规定社会保险及住房公积金、企业补充商业医疗/意外保险;
年度健康测评;差旅补助;交通补贴、免费午餐;
国家法定节日、员工生日会的礼品、礼券馈赠;
法定节假日、法定带薪年休假、企业带薪福利假;
公司开放日、团队拓展与出游、各项体育赛事、相亲会、精彩的公司年会;
优秀人才出国培训、定期专家讲座、国际学术研讨会、与国际一流企业合作机会;
完善的考核机制、晋升机制、加薪机制;
应届毕业研究生择优解决北京市户口;
协助员工办理北京市绿卡——工作居住证。