简单的抓取网页:
直接将URL保存为本地文件:
 
 
POST方式:
 
 
GET方式:
 
 
有2个常用的方法,geturl(),info()
geturl()的设置是为了辨别是否有服务器端的网址重定向,而info()则包含了一系列的信息。
中文问题的处理,会用到 encode()编码 dencode()解码:
            
            import urllib.request url="http://google.cn/" response=urllib.request.urlopen(url) #返回文件对象 page=response.read()
import urllib.request url="http://www.xxxx.com/1.jpg" urllib.request.urlretrieve(url,r"d:\temp\1.jpg")
import urllib.parse  
import urllib.request  
 
url="http://liuxin-blog.appspot.com/messageboard/add" 
 
values={"content":"命令行发出网页请求测试"}  
data=urllib.parse.urlencode(values) 
#创建请求对象  
req=urllib.request.Request(url,data) 
#获得服务器返回的数据  
response=urllib.request.urlopen(req) 
#处理数据  
page=response.read()
import urllib.parse  
import urllib.request  
 
url="http://www.google.cn/webhp" 
 
values={"rls":"ig"}  
data=urllib.parse.urlencode(values)  
 
theurl=url+"?"+data 
#创建请求对象  
req=urllib.request.Request(theurl) 
#获得服务器返回的数据  
response=urllib.request.urlopen(req) 
#处理数据  
page=response.read()
              
              
              
              上一篇: Python实现Discuz论坛的自动POST登录发贴回帖
              
              
              下一篇: 使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies
              
            
0 Responses so far.