欢迎各位兄弟 发布技术文章
这里的技术是共享的
版本号:Python2.7.5,Python3改动较大,各位另寻教程。
所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。
类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。
在Python中,我们使用urllib2这个组件来抓取网页。
urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。
它以urlopen函数的形式提供了一个非常简单的接口。
最简单的urllib2的应用代码只需要四行。
我们新建一个文件urllib2_test01.py来感受一下urllib2的作用:
我们可以打开百度主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。
也就是说,上面这四行代码将我们访问百度时浏览器收到的代码们全部打印了出来。
这就是一个最简单的urllib2的例子。
除了"http:",URL同样可以使用"ftp:","file:"等等来替代。
HTTP是基于请求和应答机制的:
客户端提出请求,服务端提供应答。
urllib2用一个Request对象来映射你提出的HTTP请求。
在它最简单的使用形式中你将用你要请求的地址创建一个Request对象,
通过调用urlopen并传入Request对象,将返回一个相关请求response对象,
这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。
我们新建一个文件urllib2_test02.py来感受一下:
urllib2使用相同的接口处理所有的URL头。例如你可以像下面那样创建一个ftp请求。
1.发送data表单数据
这个内容相信做过Web端的都不会陌生,
有时候你希望发送一些数据到URL(通常URL与CGI[通用网关接口]脚本,或其他WEB应用程序挂接)。
在HTTP中,这个经常使用熟知的POST请求发送。
这个通常在你提交一个HTML表单时由你的浏览器来做。
并不是所有的POSTs都来源于表单,你能够使用POST提交任意的数据到你自己的程序。
一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。
编码工作使用urllib的函数而非urllib2。
我们新建一个文件urllib2_test03.py来感受一下:
GET和POST请求的不同之处是POST请求通常有"副作用",
它们会由于某种途径改变系统状态(例如提交成堆垃圾到你的门口)。
Data同样可以通过在Get请求的URL本身上面编码来传送。
2.设置Headers到http请求
有一些站点不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。
默认的urllib2把自己作为“Python-urllib/x.y”(x和y是Python主版本和次版本号,例如Python-urllib/2.7),
这个身份可能会让站点迷惑,或者干脆不工作。
浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。
下面的例子发送跟上面一样的内容,但把自身模拟成Internet Explorer。
(多谢大家的提醒,现在这个Demo已经不可用了,不过原理还是那样的)。
为什么界面有点像codeblock,我想用一个功能好一点的IDE。。。装了ulipad不太会用
可是运行之后没有像VS C++6.0弹出输出结果的窗口。这正常吗?
html = urllib.request.urlopen('http://movie.douban.com/subject/2997076/?from=hot_movie').read()
r = re.compile(r'<a href.+?(\d{5})</span>人评价',re.DOTALL)
len(r.findall(html)) (正则可能写错了但是不重要啦)
总是显示TypeError: can't use a string pattern on a bytes-like object
encode和decode总是不行,请问该怎么解决?新手对编码一点也不懂啊
我想从网页下载图片,可是图片是用js加载的。怎么弄。
参数1=值1&参数2=值2&参数3=值3......&参数n=值n
第四个案例运行时提示 ( There's an error in your program:***can't assign to operator--好像是说第13行的name=Somebody+Here&language=Python&location=Northampton 有误)
第五个案例运行提示(Traceback (most recent call last)::...error: [Errno 10054] )同案例3
出现了错误error: [Errno 10054]
去搜索了下是网站不允许,导致response.read()卡滞,最后抛出了Errno 10054的错误
请问真的是因为网站的原因,而不是代码本身的原因吗?
文章最后有写到:
2.设置Headers到http请求
有一些站点不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。
默认的urllib2把自己作为“Python-urllib/x.y”(x和y是Python主版本和次版本号,例如Python-urllib/2.7),
这个身份可能会让站点迷惑,或者干脆不工作。
浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。
下面的例子发送跟上面一样的内容,但把自身模拟成Internet Explorer。
[python] view plaincopy
import urllib
import urllib2
url = 'http://www.someserver.com/cgi-bin/register.cgi'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values = {'name' : 'WHY',
'location' : 'SDU',
'language' : 'Python' }
headers = { 'User-Agent' : user_agent }
data = urllib.urlencode(values)
req = urllib2.Request(url, data, headers)
response = urllib2.urlopen(req)
the_page = response.read()
这样应该可以解决
Traceback (most recent call last):
File "learning.py", line 94, in <module>
response = urllib2.urlopen(req)
File "urllib2.py", line 127, in urlopen
return _opener.open(url, data, timeout)
File "urllib2.py", line 404, in open
response = self._open(req, data)
File "urllib2.py", line 422, in _open
'_open', req)
File "urllib2.py", line 382, in _call_chain
result = func(*args)
File "urllib2.py", line 1214, in http_open
return self.do_open(httplib.HTTPConnection, req)
File "urllib2.py", line 1187, in do_open
r = h.getresponse(buffering=True)
File "httplib.py", line 1045, in getresponse
response.begin()
File "httplib.py", line 409, in begin
version, status, reason = self._read_status()
File "httplib.py", line 365, in _read_status
line = self.fp.readline(_MAXLINE + 1)
File "socket.py", line 476, in readline
data = self._sock.recv(self._rbufsize)
error: [Errno 10054]
我没改你代码试过,也是这样的
http://www.mogujie.com/style/ 帮忙看一下这个网站,貌似有延时加载之类的,数据爬不全,你有什么比较好的解决方案吗?
数据爬不全是什么意思啊?应该加载的页面就是最后的结果了,不会爬不全的啊,具体是什么情况
对了学长你认识陈乾这个渣渣不=。=
点击这个页面图片进入的页面的url都是 .*#content_top 形式的,每页能加载出100多个,但是查看源代码,ctrl+F下只有20多个
这个我没有接触过,可以用httpfox抓包看看。
话说那个应该是用ajax做的,可以动态获取新内容,我猜的=。=
请问在urllib2中有没有open()函数
另 我用的是2.7.5
恳请楼主解疑
请问这个是什么问题呢? 真心求教
python3.x整合了urllib和urllib2,用python3.x的
import urllib.request
date=urllib.request.urlopen(url)
import urllib
data = {}
data['name'] = 'WHY'
data['location'] = 'SDU'
data['language'] = 'Python'
url_values = urllib.urlencode(data)
print url_values
name=Somebody+Here&language=Python&location=Northampton
url = 'http://www.example.com/example.cgi'
full_url = url + '?' + url_values
data = urllib2.open(full_url)
这段代码时出现***can't assign to operator的错误,根本就不能运行是什么原因?求教解决办法,谢谢
是上面print出来的结果,不是代码。这一行删去,应该没问题。