python之urllib使用代理访问网页

发布时间:2017-11-28 21:11:32编辑:Run阅读(4450)

    在写爬虫前,先去xicidaili.com上面随便找两个免费的

    代码如下

    # coding: utf-8
    __author__ = 'www.py3study.com'
    import urllib.request
    import random
    url = 'http://www.baidu.com'
    
    iplist = ['222.73.68.144:8090'] #这里是建了一个代理iplist地址池,如果有多个可往里面添加
    proxy_support = urllib.request.ProxyHandler({'http':(random.choice(iplist))})
    #random.choice(iplist) 随机去地址池去一个代理ip
    opener = urllib.request.build_opener(proxy_support)
    opener.addheaders =
    [('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64; rv:50.0) Gecko/20100101 Firefox/50.0')]
     #给opener添加一个heraders请求头部
    urllib.request.install_opener(opener)
    response = urllib.request.urlopen(url)
    html = response.read()#.decode('utf-8')
    print(html)

    应该看到的效果

    blob.png

    会打印整个页面,这里只是截了一部分

关键字