没有数据就没有乐趣。有的数据提供者心肠很好,会直接给出txt或是csv文档。这个时候我们可以直接在R里头用read.table()函数把数据读进来。
有的时候我们需要的数据在网页上以一个表格呈现,例如前面文章遇到过的地震数据。此时可以用XML包中的readHTMLTable()函数读取数据,后续再配合一些字符串处理一般就OK了。
如果你对R不大熟悉,抓取这些表格也有更方便的法子,就是利用Chrome的扩展。有两个扩展值得推荐使用:一个扩展叫作table capture,它会自动找出网页中的若干表格,你只需选择所需的那个将其拷贝到剪贴板即可,然后再用下面的命令就可以读入到R中。
data <- read.table('clipboard',T)
另一个扩展叫作scraper。先选择你所需要的部分内容,然后右键选择scraper similar也能抓取表格,不过它会存到一个google doc中去。在天朝这玩意儿不大方便。
有些数据不是以表格方式出现的,例如用XML或是JSON方式储存的数据。在R中都有对应的包来处理。下面的示例即是用XML包来处理XML数据。在此之先你需要有一点关于XML和XPath的知识,首先处理的对象是这样一个页面:http://www.w3schools.com/xml/plant_catalog.xml
library(XML) xml.url <- "http://www.w3schools.com/xml/plant_catalog.xml" # 解析xml页面 xmlfile <- xmlTreeParse(xml.url) # 观察对象属性 class(xmlfile) # 获取根结点 xmltop <- xmlRoot(xmlfile) # 用xmlValue函数获取叶结点处的值 xmlValue(xmltop[[1]][[1]]) xmlValue(xmltop[['PLANT']][['COMMON']]) # xmlSApply类似于sapply函数,取出第一个子结点中的所有叶结点值 xmlSApply(xmltop[[1]],xmlValue) # 进一步可以取出所有子结点中的叶结点值 plantcat <- xmlSApply(xmltop, function(x) xmlSApply(x, xmlValue)) # 将数据转为数据框 plantcat_df <- data.frame(t(plantcat),row.names=NULL) plantcat_df[1:5,1:4]
有时候会遇到更为复杂的XML页面,此时的节点内含有参数值。如果要获取这些数据则需要使用getNodeSet()函数配合xmlValue()函数。当遇到更为复杂的数据,那我们只能用readLines读进来,再用字符串函数配合正则表达式来加以处理了。
参考资料:
http://www.omegahat.org/RSXML/Tour.pdf http://www.stat.berkeley.edu/~statcur/Workshop2/Presentations/XML.pdf
感谢您的帖子,我经常上你的网站,呵呵
回复删除对XML不了解,如果是我自己的话,我会打开Excel,导入数据--自网站,然后另存为csv文件。
Excel也很方便,感谢补充
删除喜欢你的网站,但是国内被屏蔽了。能单独建个网站吗?
回复删除另外用rcul包也是可以抓取网页的。但是有个问题想请叫一下,当在网页的源码中xxx有多个,但我只想取其中一个,如何解决?在r中放到list中去取吗?
额,这个。。我比较懒,建独立博客好辛苦。多个匹配项可以用正则表达式来处理,或者用stringR包中的函数来处理也行。
删除