1、1基础篇 先从Linux基础SQL与JavaScala等基础技能着手,通过在线教程强化基础2数据采集与存储 深入HadoopHiveHbase以及ETL技术,掌握大数据存储与采集的核心3数据管理与查询 学习数据仓库治理体系与OLAP查询,优化数据管理流程4大数据工具 熟练使用任务调度运维消息中间件组件协调。

2、学习路线建议如下先掌握基础Java SELinux基础命令和MySQL 然后学习大数据框架,包括HadoopZookeeperHiveFlumeSpark等 进一步学习OLAP查询引擎,如ImpalaPresto等 可选地,学习数据治理,如元数据管理数据湖掌握每个组件的核心作用也很重要,如Hadoop作为基础,Zookeeper管理框架,Hive与Hadoop。

3、大数据学习路线JavaJava SE,Java Web,LinuxShell,高并发架构,Lucene,Solr,HadoopHadoop,HDFS,MapReduce,YARN,Hive,HBase,Sqoop,Zookeeper,Flume,机器学习R,Mahout,StormStorm,Kafka,Redis,SparkScala,Spark,Spark Core,Spark SQL,Spark Streaming,Spark MLlib。

4、学习Linux基础SQL基础Java语言和Scala,推荐使用在线教程平台12 数据采集与存储 掌握Hadoop基础HiveHbase数据存储原理ETL数据采集流程13 数据管理与查询 学习数据仓库体系数据治理体系OLAP查询14 大数据工具 熟悉任务调度平台运维消息中间件组件协调等工具15 数据计算 掌握。

5、Linux因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoophivehbasespark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群Hadoop这是现在。

6、1,Java用的不深,把Javase部分吃透就行2,Hadoop生态,YarnZookeeperHDFS这些底层原理要懂3,Mapreduce和Spark开发4,Hbase和HIve,搞大数据这些不懂真的说不过去5,MysqlOracle和Postgres数据库操作要回,Sql要会写6,linux操作系统,这个简单的命令必须要懂,会写shell脚本更好了7。

7、分享大数据学习路线第一阶段为JAVASE+MYSQL+JDBC主要学习一些Java语言的概念,如字符bai流程控制面向对象进程线程枚举反射等,学习MySQL数据库的安装卸载及相关操作,学习JDBC的实现原理以及Linux基础知识,是大数据刚入门阶段第二阶段为分布式理论简介主要讲解CAP理论数据分布方式一致性2PC和3。

8、大数据存储技术路线最典型的共有三种第一种是采用MPP架构的新型数据库集群,重点面向行业大数据,采用Shared Nothing架构,通过列存储粗粒度索引等多项大数据处理技术,再结合MPP架构高效的分布式计算模式,完成对分析类应用的支撑,运行环境多为低成本 PC Server,具有高性能和高扩展性的特点,在企业分析。

9、掌握了基础后,推荐以下技术学习路线1 Hadoop这是大数据处理的核心平台,学习 HDFSMapReduce 和 YARNHDFS 用于数据存储,MapReduce 用于数据处理,YARN 则是管理资源的平台,让大数据生态系统中的软件能在上面运行,节省资源2 Zookeeper它常用于存储协作信息,如 Hadoop HA 安装时用到了解。

10、在数据新常态一书中,作者克里斯·苏达克带领读者直击大数据前沿,进一步洞悉数据大爆发的6大根源移动互联虚拟生活数字商业在线娱乐云计算数据分析,并在此基础上,构建了场景化社交化量化应用化云化和物联网化等6个大数据成熟度模型,以帮助企业了解由这些趋势构建起的商业新。