无论是做数据分析,数据挖掘还是机器学习,对于新手来说,学习再多的模型、算法理论,可能都不如一次实践学到的多,所以帆软君经常建议大家在学习的过程中多通过实战项目练练手,加强对算法、模型的理解。
要练手上哪找数据呢?数据来源主要有两个部分。
一些数据源网站公开的数据。通过爬取工具对网页中的数据进行爬取。爬虫作为目前用的较多的数据爬取方法已经有很多教程了,但是对于没有代码基础的朋友来说短期上手python还是很难得。
因此今天就帆软君分别给大家介绍一下免费的数据源网站和一些零基础小白也可以应用的数据爬取工具~
一、免费的数据源网站
1、简单、公开的数据集
先分享一些科研机构、企业、政府会开放的一些数据集和一些专业的数据下载网站。这些数据集一般都比较完善、质量相对较高,拿到手数据清洗的工作比较少,适合新手做一些简单基础的分析
1)中国统计信息网:http://www.tjcn.org/
全国各级政府各年度的国民经济和社会发展统计信息,部分数据免费
2)国家统计局:http://www.stats.gov.cn/
各种民生相关的统计数据,而且所有数据都是免费,而且这个网站的友情链接里还有很多其他地方的数据以及国外数据。

3)中国产业信息网:http://www.chyxx.com/data/
包含了各个行业相关的数据,所有的数据全部免费,做行业分析经常用到的

4)美国政府公开数据:https://www.data.gov/
美国政府公开数据的网站,包含了经济、消费、教育、医疗、农业等多个领域的数据
5)世界银行:https://data.worldbank.org/
世界银行的开放数据。平台还提供了一些工具,比如开放数据目录,世界发展指数,教育指数等。
6)百度数据开放平台:https://open.baidu.com/open/#/open

7)国云数据市场:http://www.moojnn.com/data-market/
主要包含:生活服务、教育、能源、建筑、交通运输、政府、金融、农业、医疗、卫生等行业的数据,大部分免费,有些需要付费

2、数据可视化项目数据集
最常见的数据可视化项目就是制作某某地区人均收入区别的信息图,找数据可视化项目相关的数据集的时候,我们希望数据集尽量“干净”,减少数据清洗的工作,数据要足够有趣,能够支撑起丰富的图表,所以这类的数据可以去上面我的说一些公开数据网站找,另外我也列一些除了政府网站之外的相关网站:
1)FiveThirtyEight:http://fivethirtyeight.com/
这是互动式新闻与体育赛事的网站,网站中会发布许多数据相关的文章,这些文章中会把使用到的数据集发布在github上,除了获取数据集,你还可以参考别人的项目过程
2)Socrata OpenData:https://opendata.socrata.com/
Socrata OpenData 网站包含多个清洗后的数据集,可以直接在浏览器中查看,也可以下载到本地进行可视化,大部分数据来源于美国政府。
3、数据建模、机器学习的数据集
1)UCI:https://archive.ics.uci.edu/ml/datasets.html
UCI是加州大学欧文分校开放的经典数据集,是机器学习领域最有名的数据存储库。包含各种数据集,比如经典的泰坦尼克号幸存预测到最新的数据(如空气质量和GPS轨迹)。
2)阿里天池:https://tianchi.aliyun.com/
作为国内互联网龙头阿里巴巴旗下的大数据竞赛网站,提供了很多比赛数据集可以练手,说不定还能顺手拿个奖,赚点奖金

3)Kaggle:https://www.kaggle.com/datasets
Kaggle 是一个举办了多项机器学习竞赛的数据科学社区。用户可以自己上传数据集,也可以通过某项竞赛下载数据集,里面有不少别的平台找不到的有趣数据集。

4)科赛网:https://www.kesci.com/home/project
这个网站提供了不少数据集可以免费下载,而且还有一些数据项目的比赛,不过整体来说项目的难度比较低,奖金也不是很多,学生参加的比较多,反正单纯用来获取数据集还是很不错的

5)Quandl
这是一个包含经济与金融数据的仓库。其中的部分信息是免费的,但是大部分数据集需要购买,数据可以用来构建经济指标预测或者股价分析模型等等。

4、大型数据集
有时候你可能只是想找一些大型的数据集来进行分析,分析的结果可能并不重要,重要的只是对于数据的读取与分析过程,练习数据处理能力,这里我也列举几个用的比较多的网站:
1)AWS 公开数据集:https://www.amazon.com/aws
亚马逊在其 Amazon Web Services 中提供了一些大型数据集可以免费下载,不过你得注册一个aws账户,新用户有免费访问的权限

2)Google 公开数据集:https://cloud.google.com/bigquery/public-data/
Google提供了一些数据集作为其Big Query工具的一部分。包括 GitHub 公共资料库的数据,Hacker News 的所有故事和评论。
3)Youtube标签视频数据集:https://research.google.com/youtube8m/
Youtube标签视频数据集包括来自4800个可视化实体的800万个YouTube视频ID和相关标签。它具有数十亿帧的预计算的、最先进的视觉功能。

二、数据爬取工具
1、Microsoft Excel
没错, Excel可以用来做数据爬取。虽然很多知道Excel可以用来做数据分析,但很少有人知道它还能用来爬数
2、火车头采集器
官网地址:http://www.locoy.com/
火车头是爬虫界的元老了,是目前使用人数最多的互联网数据抓取软件。它的优势是采集不限网页,不限内容,同时还是分布式采集,效率会高一些。不过它规则和操作设置在我看来有一些死板,对小白用户来说上手也有点困难,需要有一定的网页知识基础
3、Google Sheet
使用Google Sheet爬取数据前,要保证三点:使用Chrome浏览器、拥有Google账号、电脑已翻墙。
4、八爪鱼采集器
网站:https://www.bazhuayu.com/
八爪鱼采集器是用过最简单易用的采集器,很适合新手使用。采集原理类似火车头采集器,用户设定抓取规则,软件执行。八爪鱼的优点是提供了常见抓取网站的模板,如果不会写规则, 就直接用套用模板就好了。
它是基于浏览器内核实现可视化抓取数据,所以存在卡顿、采集数据慢的现象。不过整体来说还是不错的,毕竟能基本满足新手在短时间抓取数据的场景,比如翻页查询,Ajax 动态加载数据等。
5、GooSeeker 集搜客
网站:https://www.gooseeker.com/
集搜客也是一款容易上手的可视化采集数据工具。同样能抓取动态网页,也支持可以抓取手机网站上的数据,还支持抓取在指数图表上悬浮显示的数据。集搜客是以浏览器插件形式抓取数据。虽然具有前面所述的优点,但缺点也有,无法多线程采集数据,出现浏览器卡顿也在所难免。
6、WebScraper
网址:https://webscraper.io/
WebScraper 是一款优秀国外的浏览器插件。同样也是一款适合新手抓取数据的可视化工具。我们通过简单设置一些抓取规则,剩下的就交给浏览器去工作。
7、Scrapinghub
地址:https://scrapinghub.com/
如果你想抓取国外的网站数据,可以考虑 Scrapinghub。它是一个基于Python 的 Scrapy 框架的云爬虫平台,安装和部署挺简单的,但是操作界面是纯英文的,不太友好,而且性价比不高,它提供的每个工具都是单独收费的。
最后分享一些相关资料:
免责声明:文章内容来自互联网,本站仅提供信息存储空间服务,真实性请自行鉴别,本站不承担任何责任,如有侵权等情况,请与本站联系删除。
转载请注明出处:数据可视化的数据从哪里来?-数据可视化的发展现状如何 https://www.bxbdf.com/a/112330.shtml