ip代理
初次学习python爬虫的朋友在频繁访问被爬取页面网站时都会被拦截,也就是限制ip。这里教教大家建立代理ip池。
#!/usr/bin/env python3 # -*- coding: utf-8 -*- import requests,threading,datetime from bs4 import BeautifulSoup import random \"\"\" 1、抓取西刺代理网站的代理ip 2、并根据指定的目标url,对抓取到ip的有效性进行验证 3、最后存到指定的path \"\"\" # ------------------------------------------------------文档处理-------------------------- # 写入文档 def write(path,text): with open(path,'a', encoding='utf-8') as f: f.writelines(text) f.write(' ') # 清空文档 def truncatefile(path): with open(path, 'w', encoding='utf-8') as f: f.truncate() # 读取文档 def read(path): with open(path, 'r', encoding='utf-8') as f: txt = [] for s in f.readlines(): txt.append(s.strip()) return txt # --------------------------------------------------------------------------------------- # 计算时间差,格式: 时分秒 def gettimediff(start,end): seconds = (end - start).seconds m, s = divmod(seconds, 60) h, m = divmod(m, 60) diff = (\"%02d:%02d:%02d\" % (h, m, s)) return diff # ---------------------------------------------------------------------------------------------------------------------- # 返回一个随机的请求头 headers def getheaders(): user_agent_list = [ \ \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1\" \ \"Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11\", \ \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6\", \ \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6\", \ \"Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1\", \ \"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5\", \ \"Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5\", \ \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3\", \ \"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3\", \ \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3\", \ \"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24\", \ \"Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24\" ] UserAgent=random.choice(user_agent_list) headers = {'User-Agent': UserAgent} return headers # -----------------------------------------------------检查ip是否可用--------------------- def checkip(targeturl,ip): headers =getheaders() # 定制请求头 proxies = {ip.split(':')[0]: ip} # 代理ip try: response=requests.get(url=targeturl,proxies=proxies,headers=headers,timeout=5).status_code if response == 200 : return True else: return False except: return False #-------------------------------------------------------获取代理方法---------------------- # 免费代理 XiciDaili def findip(type,pagenum,targeturl,path): # ip类型,页码,目标url,存放ip的路径 list={'1': 'http://www.xicidaili.com/nt/', # xicidaili国内普通代理 '2': 'http://www.xicidaili.com/nn/', # xicidaili国内高匿代理 '3': 'http://www.xicidaili.com/wn/', # xicidaili国内https代理 '4': 'http://www.xicidaili.com/wt/'} # xicidaili国外http代理 url=list[str(type)]+str(pagenum) # 配置url headers = getheaders() # 定制请求头 html=requests.get(url=url,headers=headers,timeout = 5).text soup=BeautifulSoup(html,'lxml') all=soup.find_all('tr',class_='odd') for i in all: t=i.find_all('td') ip=t[5].text+'://'+t[1].text+':'+t[2].text ip=ip.lower() is_avail = checkip(targeturl,ip) if is_avail == True: write(path=path,text=ip) # print(ip) #-----------------------------------------------------多线程抓取ip入口-------------------- def getip(targeturl,path): truncatefile(path) # 爬取前清空文档 start = datetime.datetime.now() # 开始时间 threads=[] for type in range(4): # 四种类型ip,每种类型取前三页,共12条线程 for pagenum in range(3): t=threading.Thread(target=findip,args=(type+1,pagenum+1,targeturl,path)) threads.append(t) print('开始爬取代理ip') for s in threads: # 开启多线程爬取 s.start() for e in threads: # 等待所有线程结束 e.join() print('爬取完成') end = datetime.datetime.now() # 结束时间 diff = gettimediff(start, end) # 计算耗时 ips = read(path) # 读取爬到的ip数量 print('一共爬取代理ip: %s 个,共耗时: %s ' % (len(ips), diff)) #-------------------------------------------------------启动----------------------------- # if __name__ == '__main__': def get_ip(): path = 'ip.txt' # 存放爬取ip的文档path targeturl = 'http://www.cnblogs.com/TurboWay/' # 验证ip有效性的指定url getip(targeturl,path)
以上就是我借鉴别人代码而修改成的自己的代理ip池,你可以直接调用get_ip()函数,也可以使用if __name__='__main__':跑这段代码。 if __name__='__main__':相当于Main()方法,也就是程序的入口。
好了,代码就分享到这里。估计没有不懂的,因为已经很详细了。
最后多说一句,小编是一名python开发工程师,这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取。
相关文章内容简介
1 普通,高级,超级,至尊专区介绍
专区介绍:1.普通专区(普通会员使用,可用静态2000线路)静态线路是指IP固定的线路,每条线路固定一个IP。2.高级专区(高级会员使用,可用静态,动态时效线路)动态时效线路是指线路IP会在1到20分钟内自动切换3.超级专区(超级会员使用,可用静态,动态时效,动态,混拨)混拨线路是指随机选择线路进行连接4.至尊专区(至尊会员使用,可用独享高速在内所有,网速更优) 独享线路为单人连接使用的线路,高速线路是电脑端的网速最快的线路... [阅读全文]
2 万变IP功能简介
地区覆盖全国258个城市,8000万条IP地址库 多平台支持,支持电脑windows、苹果iOS、安卓Android 支持多种IP混拨模式,全国混拨+单地区混拨+指定地区混拨 支持静态固定线路,动态高网速线路 高匿名ip,保护隐私,防追踪 多协议支持,支持L2TP/SE驱动/open协议 极速的切换体验,更换速度低于100ms 网速保证您的工作效率,自建服务器网速更快 自动切换IP,支持任意时长定时自动切换 自动清理:清理缓存cookie,提升运行速度... [阅读全文]
推荐阅读
22
2019-11
ip代理让自身的python网络改变爬虫ip装作是电脑浏览器
ip代理让自身的python网络改变爬虫ip装作是电脑浏览器
22
2019-11
万变ip代理python爬虫批量抓取ip代理
万变ip代理python爬虫批量抓取ip代理
22
2019-11
ip代理免费的代理IP为什么不能用
ip代理免费的代理IP为什么不能用
22
2019-11
改ip手机软件怎样改动监控摄像头代理ip详细地址呢?
改ip手机软件怎样改动监控摄像头代理ip详细地址呢?
22
2019-11
万变IP代理:网络服务器了解你应用了代理IP的真正IP!
万变IP代理:网络服务器了解你应用了代理IP的真正IP!
22
2019-11
万变ip代理软件免费构建IP代理池
万变ip代理软件免费构建IP代理池
热门文章
因为专业! 所以简单! 产品至上,价格实惠 是我们服务追求的宗旨
免费试用