大数据如何入门?

如题所述

听说你想要学大数据?你确定你搞清楚概念了吗?我们来做个小测验吧:
数据分析师在公司是干什么的?
大数据和普通数据最大的区别是什么?
你的日常工作中根本接触不到大数据,你真正想学的是大数据吗?
有点蒙圈了吧。鱼君正是要帮你在最短的时间内理清这些概念,找准自己前进的方向。
大数据之“大”数据,大家会陌生吗?不会。我们每天的日常生活都会接触到数据。淘宝购物时货比三家的价格,年终考核之后发给我们的奖金,发表在知乎上的文章的评论数量,这些都是数据。
从人们会计数开始,数据就有了,数据分析也是。那么大数据呢?
说到大数据,你就绕不开互联网。在互联网出现之前,虽然政府部门和一些公共事业单位通过日积月累获得了较大量的数据,但并没有形成足够的影响力。直到互联网产品的出现,由于它收集用户数据的便利性,通常在一天之内就能够累计其他行业可能一年才能获取的数据量。
数据量的升级造成算法和硬件都必须要升级,操作起来的技术难度也就会提高很多。这个时候,就需要专业的技术和平台来完成存储,处理和分析大数据的工作。比如说,大家都听过的Hadoop平台,MapReduce算法。都是大数据时代的产物。
因此,我认为,大数据的核心,就在于大。
有一定规模的互联网公司都会成立专门的大数据部门来管理自己产品所收集到的大数据。数据量越大,处理难度就越高,相应的,可能挖掘到的内涵也会更多。于是,大数据就成了一个产业,一个火热的产业。
大数据圈子里的人在大数据行业这个圈子里,公司提供的职位大致分为三类:数据分析师,数据产品经理,数据工程师。他们紧密合作,共同驱动公司的数据决策文化。
那么,着三种职位都是做什么的?又该怎么入行呢?
数据分析师
数据分析师,是使用大数据的人。核心是掌握各种数据分析工具和数据分析技能,目标是为公司管理层和产品团队提供分析报告,帮助他们做决策。
实际工作中,数据会被处理成各种不同的类型提供给数据分析师使用,有比较原始的,有比较简单好用的。因此,数据分析师需要掌握R, SQL,Excel, Python基础编程等多种技能,以及熟练掌握常用的数据分析方法。
如果你立志于成为一个数据分析师甚至数据科学家,那么我强烈建议你进行系统的学习。
数据产品经理
数据产品经理是设计数据产品的人。核心技能是数据需求分析和数据产品的设计,和其他的互联网产品经理并没有本质的不同。实际工作中,数据产品经理需要收集不同用户的数据需求并且设计出好用的数据产品提供给大家,帮助他们“用数据做决定”。
怎么入门呢?关于具体的进阶流程,我希望你听一下我在一块听听上做的讲座《4步让你成为大数据产品经理》,会为你提供非常全面的介绍。
常见的推荐入门书籍有《人人都是产品经理》,《The DatawareHouse Toolkit》,《Lean Analytics》等等。
数据工程师
数据工程师,简单分两种,一类是数据挖掘工程师,另外一类是大数据平台工程师。工程师的基本技能当然是写代码,写高质量的代码。
数据挖掘工程师主要工作是开发大数据流水线以及和数据分析师一起完成数据挖掘项目,而数据平台工程师主要工作是维护大数据平台。
因此,理工科背景出身,掌握C, C#, Python等编程/脚本语言,熟悉各种基础算法即可以胜任。
如何用数据做决策
对于那些并不想转行进入大数据圈子的人,我们要学的究竟是什么?
我相信,在我们的日常工作中,特别是业绩不佳,找不到突破口的时候,都曾想过能否用数据来帮助自己。因为我们都曾或多或少听过一些牛逼的数据案例,比如纸尿布与啤酒之类。
举一个简单的例子,你经营的餐馆现在状况不佳。你可以自己拍脑袋想一堆的新点子来尝试改善现状。你也可以,收集整理数据,通过分析找出根本原因,并提出对应解决方案,从而扭转局面。后者听起来似乎更加靠谱一些。
那么,你该收集什么数据,做什么分析,这就是你需要学习的:“如何用数据做决策”。从这个角度讲,我认为:
人人都应该是数据分析师
学习系统的数据决策和数据分析思维,我们可以从这篇文章开始:从0到1搭建数据分析知识体系。我自己工作中常用的数据分析方法都被囊括在里面,如果趋势分析,多维分解,用户分群,漏斗分析等等。请不要小看一篇文章,知识在精不在多。
你还可以从一本简单好读的《谁说菜鸟不会数据分析》开始搭建你的数据分析思维。
关于数据分析的书籍太多了,众口难调,随便一搜就有一大堆推荐。而其中所讲的知识和理论其实都是类似的。最终要让他们发挥作用,还是要和实践结合起来。
因此,我认为,在自己的生意和工作中多实践数据分析,多思考,遇到问题多在社群中提问和大家探讨,是最好的学习办法。我自己也一直是这样践行的。
带着问题去学习,是最好的方式。
在这个过程中,随着你对数据的深入了解,掌握更多的数据分析语言和工具。从Excel到SQL,甚至到R和Python。你所能使用的数据量也会越来越大。但你大可不必一开始就扎入这些工具的学习中,那样会收效甚微。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2019-08-09
找个师傅或者学校,比如这边,初中起步入学就可以
第2个回答  2019-09-16

首先我们要了解Java语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后。


大数据

Java :只要了解一些基础即可,做大数据不需要很深的Java 技术,学java SE 就相当于有学习大数据基础。


Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。还能让你对以后新出的大数据技术学习起来更快。


Hadoop:这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。Hadoop里面包括几个组件HDFS、MapReduce和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的,它有个特点就是不管多大的数据只要给它时间它就能把数据跑完,但是时间可能不是很快所以它叫数据的批处理。


Zookeeper:这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。它一般用来存放一些相互协作的信息,这些信息比较小一般不会超过1M,都是使用它的软件对它有依赖,对于我们个人来讲只需要把它安装正确,让它正常的run起来就可以了。


Mysql:我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。这里主要的是学习SQL的语法,因为hive的语法和这个非常相似。


Sqoop:这个是用于把Mysql里的数据导入到Hadoop里的。当然你也可以不用这个,直接把Mysql数据表导出成文件再放到HDFS上也是一样的,当然生产环境中使用要注意Mysql的压力。


Hive:这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单,不会再费劲的编写MapReduce程序。有的人说Pig那?它和Pig差不多掌握一个就可以了。


Oozie:既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确,出错了给你发报警并能帮你重试程序,最重要的是还能帮你配置任务的依赖关系。我相信你一定会喜欢上它的,不然你看着那一大堆脚本,和密密麻麻的crond是不是有种想屎的感觉。


Hbase:这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。所以他常被用于大数据处理完成之后的存储目的地。


Kafka:这是个比较好用的队列工具,队列是干吗的?排队买票你知道不?数据多了同样也需要排队处理,这样与你协作的其它同学不会叫起来,你干吗给我这么多的数据(比如好几百G的文件)我怎么处理得过来,你别怪他因为他不是搞大数据的,你可以跟他讲我把数据放在队列里你使用的时候一个个拿,这样他就不在抱怨了马上灰流流的去优化他的程序去了,因为处理不过来就是他的事情。而不是你给的问题。当然我们也可以利用这个工具来做线上实时数据的入库或入HDFS,这时你可以与一个叫Flume的工具配合使用,它是专门用来提供对数据进行简单处理,并写到各种数据接受方(比如Kafka)的。


Spark:它是用来弥补基于MapReduce处理数据速度上的缺点,它的特点是把数据装载到内存中计算而不是去读慢的要死进化还特别慢的硬盘。特别适合做迭代运算,所以算法流们特别稀饭它。它是用scala编写的。Java语言或者Scala都可以操作它,因为它们都是用JVM的。

第3个回答  2019-07-19
首先你要有自己职业规划,知道数据分析和大数据是做什么的、能解决什么问题,给自己定一个小目标。一个有经验的数据科学家:最少要有2到3年工作经验,而工作经验体现在运用数据科学处理各种商业问题的能力上,同时需要具备以下技能:
一流的分析技巧:探索凌乱的数据集并提取洞察的能力;
在SQL运用能力方面是一名内行;
能很好的掌握假设检验、分配、回归分析和贝叶斯方法;
有与商业方面的机器学习经验;
对于Python语言和Jupyter环境有经验;
对于pandas、numpy、sk-learn和NLTK有一定操作经验;
具备写编写Latex格式文档的能力;
在统计学,运筹学,经济学,计算机科学,或其它相关领域具有本科或硕士学历。
第4个回答  2019-06-17
学大数据如果有基础的话,可以选择线上班自学,如果没有基础,就要找全日制的面授机构学习,比如光环大数据,业界口碑比较好,我就是零基础在那学的,老师们尽职尽责,课程也很实用!