国产成人精品亚洲777人妖,欧美日韩精品一区视频,最新亚洲国产,国产乱码精品一区二区亚洲

您的位置:首頁技術文章
文章詳情頁

Python常見反爬蟲機制解決方案

瀏覽:38日期:2022-07-23 16:18:55

1、使用代理

適用情況:限制IP地址情況,也可解決由于“頻繁點擊”而需要輸入驗證碼登陸的情況。

這種情況最好的辦法就是維護一個代理IP池,網上有很多免費的代理IP,良莠不齊,可以通過篩選找到能用的。對于“頻繁點擊”的情況,我們還可以通過限制爬蟲訪問網站的頻率來避免被網站禁掉。

proxies = {’http’:’http://XX.XX.XX.XX:XXXX’}Requests: import requests response = requests.get(url=url, proxies=proxies)Urllib2: import urllib2 proxy_support = urllib2.ProxyHandler(proxies) opener = urllib2.build_opener(proxy_support, urllib2.HTTPHandler) urllib2.install_opener(opener) # 安裝opener,此后調用urlopen()時都會使用安裝過的opener對象 response = urllib2.urlopen(url)

2、時間設置

適用情況:限制頻率情況。

Requests,Urllib2都可以使用time庫的sleep()函數:

import timetime.sleep(1)

3、偽裝成瀏覽器,或者反“反盜鏈”

有些網站會檢查你是不是真的瀏覽器訪問,還是機器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還

會檢查是否帶Referer信息還會檢查你的Referer是否合法,一般再加上Referer。

headers = {’User-Agent’:’XXXXX’} # 偽裝成瀏覽器訪問,適用于拒絕爬蟲的網站headers = {’Referer’:’XXXXX’}headers = {’User-Agent’:’XXXXX’, ’Referer’:’XXXXX’}Requests: response = requests.get(url=url, headers=headers)Urllib2: import urllib, urllib2 req = urllib2.Request(url=url, headers=headers) response = urllib2.urlopen(req)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 开江县| 石狮市| 高唐县| 壶关县| 深州市| 云南省| 本溪| 泉州市| 甘泉县| 百色市| 宁都县| 广汉市| 随州市| 吴川市| 天柱县| 廊坊市| 团风县| 阳东县| 富蕴县| 太仓市| 汉川市| 平湖市| 攀枝花市| 临武县| 咸阳市| 突泉县| 睢宁县| 金乡县| 株洲县| 南岸区| 蕉岭县| 龙陵县| 来凤县| 汝南县| 攀枝花市| 富民县| 昔阳县| 榆社县| 柘荣县| 潜山县| 利辛县|