职位&公司对比
职位详情
- 北京
- 3-5年
- 本科
- Hadoop
- Java
- Spark
工作职责: 负责工业大数据平台和大数据处理模块的架构设计和开发; 基于Hadoop、Spark框架的数据仓库的设计,开发,维护; 大数据平台APIBOSS直聘等服务和数据接口的开发; 配合机器学习工程师,负责基于Spark技术的海量数据的处理、分析、统计、挖掘功能的开发和项目实施工作; 同前端工程师写作完成相关的开发工作。 任职要求: 计算机等相关专业统招二类本科以上学历; 3-5年以上基于Java主流直聘框架的设计和开发经验; 够独立搭建Hadoop和MPP数据仓库; 出色的问题解决能力和快速学习能力; 优秀的沟通能力,并能够适应Agile开发模式; 具备SQkanzhunL和noSQL(例如:HDFS)的经验; 具备RESTful web services的知识和经验; Spring框架经验来自BOSS直聘; Kafka分布式消息服务经验; Spark分布式数据处理经验; 具备R或Python数据建模经验者优先考虑;
职位详情
- 北京
- 1-3年
- 本科
- Java
- 要求数据开发经验
- ETL开发经验
- MySQL/SQL Server
- 非外包类
- 数据平台开发经验
- 数据治理经验
- 金融行业经验
- SQL
- Shell
- DB2
- 数据仓库开发经验
- Oracle
- Python
要求: 教育背景:拥有计算机科学、信息技术或相关领域的学信网统招本科学历。 直聘专业技能: 1.中级要求有3年以上Oracle、MySQL或其他关系型数据库的开发经验 2.具备数据库安装配置、日常变更、备份恢复、性能优化等技能。 3.熟练掌握关系数据库Oracel/Mysql/Postgres/SqlServer等关系型数据库,有相关数据库的项目实操经验; 4.熟练掌握Hadoop生态系统(如Spark,Hive,HBase等)或分布式数据库(如Greenplum,GaussDB等)的一种有实际项目经验优先。 5.能够全面优化SQL逻辑.熟练掌握关系数据库Oracel/Mysql/Postgres/SqlServer等sql脚本编写和调优; 6.熟悉Linux操作系统、Shell、Perl、Python等脚本语言; 7.到少有一种ETL工具或数据同步工具的使用经验,如:Informatica、kettle、CDC等;有实际数据迁移项目经验优先; 8.工作认真负责,有责任心及优秀的沟通表达能力,能够独立分析和解决复杂的技术问题,具备良好的团队合作精神和沟通能力。 项目经验: 具备至少3年以上相关领域的工作经验 行业背景: 有保险或金融行业的数据处理项目经验者将被优先考虑。
技能解析
- 分布式数据处理
- 问题解决能力
- 项目实施工
- 海量数据
- 数据仓库
- 数据建模经验
- 开发模式
- 数据处理经验
- 架构设计
- 项目实施
- 建模经验
- 问题解决
- 机器学习
- 数据建模
- 快速学习能力
- 学习能力
- 开发工作
- 解决能力
- 优秀的沟通
- 沟通能力
- 开发经验
- 分布式数据
- 数据处理
数据来自CSL职业科学研究室
技能解析
- 数据库安装
- 脚本语言
- 团队合作精神
- 技术问题
- 沟通表达能力
- 团队合作
- 关系数据
- 关系数据库
- 性能优化
- 脚本编写
- 信息技术
- 合作精神
- 表达能力
- 关系型数据库
- 独立分析
- 沟通表达
- 优秀的沟通
- 沟通能力
- 开发经验
- 分布式数据
- 数据处理
数据来自CSL职业科学研究室
工作时间
公司福利
- 五险一金
- 定期体检
- 加班补助
- 年终奖
- 带薪年假
- 员工旅游
- 餐补
- 节日福利
- 零食下午茶
- 团队氛围好