国产成人精品亚洲777人妖,欧美日韩精品一区视频,最新亚洲国产,国产乱码精品一区二区亚洲

您的位置:首頁技術(shù)文章
文章詳情頁

使用python scrapy框架,循環(huán)爬取URL, 每次運(yùn)行一段時(shí)間后直接卡死,沒有任何報(bào)錯(cuò)

瀏覽:112日期:2022-06-28 18:15:35

問題描述

每次運(yùn)行半小時(shí)左右, 直接卡死, log里沒有任何報(bào)錯(cuò), 卡死的時(shí)候CPU占用率非常高

我在setting.py里設(shè)置了download timeout,不是超時(shí)的原因

ctrl-c無法正常退出, ctrl-z退出以后, 繼續(xù)執(zhí)行還是同樣的問題, 半小時(shí)后再次卡死

使用python scrapy框架,循環(huán)爬取URL, 每次運(yùn)行一段時(shí)間后直接卡死,沒有任何報(bào)錯(cuò)

問題解答

回答1:

先TOP看看是內(nèi)否過高,還是CPU過高,再找到是被哪些進(jìn)程占用了如果都是你的爬蟲進(jìn)程,那就得排查代碼,看看是不是哪里一直未被釋放

總之從各方面去排查吧

回答2:

strace

標(biāo)簽: Python 編程
主站蜘蛛池模板: 和硕县| 台东县| 军事| 苏尼特右旗| 山阳县| 岫岩| 黑龙江省| 陆川县| 新闻| 托里县| 靖安县| 鹤峰县| 若尔盖县| 武功县| 龙门县| 宁南县| 临洮县| 黎川县| 南昌县| 汕尾市| 普兰店市| 瑞金市| 集安市| 宽城| 烟台市| 莆田市| 丽江市| 勐海县| 石棉县| 来宾市| 前郭尔| 尉氏县| 班戈县| 茶陵县| 句容市| 加查县| 白银市| 宁乡县| 昭平县| 竹山县| 怀安县|