requests的应用实例

爬虫er们,请丢弃你的bs4和urllib,
他们是平时用来学习模块就好,别拿来真的用,真的爬东西,
是需要requests,这货太强大了。
下面是它的
文档地址:http://www.python-requests.org/en/latest/  ,其实我就是为了懒得管理cookies。用起来很简单
先安装

pip install requests

# -*- coding:UTF-8 -*-
# __author__ = ’kohna’

import requests   
url = "http://lotrc.com/"  # 定义URL
see = requests.Session()   # 初始化对象
tmp = see.get(url)         # 使用get方法
print tem.content          # 打印结果

这个是get的实例,POST也是简单极了

# -*- coding:UTF-8 -*-
# __author__ = ’kohna’

import requests
url = "http://lotrc.com/"
dat = {"key":"value"}      # 定义要POST的数据
see = requests.Session()
tmp = see.post(url,dat)    # 向POST方法传送URL和要POST的数据  
print tem.content

入门就这样子了,我们通常用get方法来请求一个页面,然后用post方法来提交表单,模拟登录或者搜索是什么的。
然后再配合上我们另外强大的lxml模块就是逆天了。