职责业绩:
· 为客户提供 TDH 大数据平台快速部署、日常使用、版本升级的技术支持;
· 负责Hadoop大数据集群性能调优、扩容、组件升级等操作;
· 负责大数据相关组件的基本运维工作,新增节点,数据统计,告警,参数配置等
· 熟悉Hdfs、Spark、Hive、Hbase大数据技术框架,能够独立搭建、部署、维护和优化大数据平台
· 负责TDH大数据集群高可用,包括数据备份、监控、告警等;
· 承担大数据层面的性能分析及优化,承担大数据层面故障的处理、分析与总结
· 熟练使用Spark、 MapReduce等编程框架进行大数据处理。
· 精通使用Hive、Spark SQL等大数据SQL语言
· 精通大数据平台紧急故障定位分析及快速恢复;
· 熟悉ETL配置与优化;
· 大数据平台运维文档的建立、维护、更新;
· 深入研究大数据相关运维技术,持续优化集群服务架构
· 熟悉各类Linux系统运维,包括CentOS、Redhat等
· 精通Linux下的Shell编程,能够编写各类运维脚本用以监控、运维大数据系统及依赖服务
· 熟悉python、shell脚本,熟悉SQL化开发
· 熟悉各类监控系统,如prometheus、Ganglia
· 具有丰富的使用各类监控工具、日志分析和故障诊断、系统调优和高可用机制的经验
看机会原因:
· 目前比较稳定,期望更好的平台;
· 目前有朋友在日本,想去日本发展