职位&公司对比
职位详情
- 北京
- 3-5年
- 本科
- Hadoop
- Java
- Spark
工作职责: 负责工业大数据平台和大数据处理模块的架构设计和开发; 基于Hadoop、Spark框架的数据仓库的设计,开发,维护; 大数据平台API等服务和数据接口的开发; 配合机器学习工程师,负责基于Spark技术的海量数据的处理、分析、统计、挖掘功能的开发和项目实施工作; 同前端工程师写作完成相关的开发工作。 任职要求: 计算机等相关专业统招二类本科以上学历; 3-5年以上基于Java主流框架的设计和开发经验; 够独立搭建Hadoop和MPP数据boss仓库; 出色的问题解决能力和快速学习boss能力; 优秀的沟通能力BOSS直聘,并能够适应Agile开发模式; 具备SQL和noSQL(例如:HDFS)的经验; 具备RESTful web services的知识和经验; Spring框架经验; Kafka分布式消息服务经验; Sbosspark分布式数据处理经验; 具备R或Pbossython数据建模经验者优先考虑;
职位详情
- 北京
- 3-5年
- 本科
- Kettle
- 监管报送
- 数据报送
- 保险
- 计算机相关专业
- SQL
教育背景:全日统招公立本科(包括全日制专升本 专接本),2022年及之前毕业,学信网可查 岗位福利:朝九晚六,周末双休,极少加班 岗位职责:从事公司保单登记与EAST报送数据处理以及其他ETL开发。 (1)开发Informatbossica-ETL脚本与SQL/HQL脚本,处理ODS与DW的数据抽取与转换逻辑; (2)开发基于MSTR报表平台的报表boss; (3)开发SQL脚本用于各类临时数据提取需求; (4)参与上述任务的需求分析、方案设kanzhun计、数据验证测试以及文档编写。 任职要求: (1)计算机相关专业大学本科及以上学历; (2)有2年及以上数据处理ETL和来自BOSS直聘SQL脚本开发经验,有寿险行业监管报送工作经BOSS直聘验者优先; (3)熟练掌握Informatica-ETL开发,Oracle-PLSQL开发,有CDH-HQL开发经验优先; (4)工作积极主动,具有良好的学习能力、沟通能力、组织协调能力和团队合作精神;
技能解析
- 分布式数据处理
- 问题解决能力
- 优秀的沟通
- 项目实施工
- 海量数据
- 数据仓库
- 数据建模经验
- 开发模式
- 数据处理经验
- 架构设计
- 项目实施
- 建模经验
- 问题解决
- 机器学习
- 数据建模
- 快速学习能力
- 分布式数据
- 开发工作
- 解决能力
- 沟通能力
- 开发经验
- 学习能力
- 数据处理
数据来自CSL职业科学研究室
技能解析
- 文档编写
- 团队合作精神
- 组织协调能力
- 方案设计
- 需求分析
- 团队合作
- 协调能力
- ETL开发
- 组织协调
- 合作精神
- PLSQL
- 沟通能力
- 开发经验
- 学习能力
- 数据处理
数据来自CSL职业科学研究室
工作时间
公司福利
- 节日福利
- 免费班车
- 有无线网
- 餐补
- 带薪年假
- 全勤奖
- 底薪加提成
- 保底工资
- 绩效奖金
- 五险一金