python 爬取吉首大學(xué)網(wǎng)站成績單
https://github.com/chen0495/pythonCrawlerForJSU
環(huán)境 python 3.5即以上 request、BeautifulSoup、numpy、pandas. 安裝BeautifulSoup使用命令pip install BeautifulSoup4配置及使用登陸學(xué)校成績單查詢網(wǎng)站,修改cookie.
按F12后按Ctrl+R刷新一下,獲取cookie的方法見下圖:
修改爬蟲url為自己的成績單網(wǎng)址.
運行src/main.py文件即可在/result下得到csv文件.
結(jié)果展示# -*- coding: utf-8 -*-# @Time : 5/29/2021 2:13 PM# @Author : Chen0495# @Email : 1346565673@qq.com|chenweiin612@gmail.com# @File : main.py# @Software: PyCharmimport requests as rqfrom bs4 import BeautifulSoup as BSimport numpy as npimport pandas as pdrq.adapters.DEFAULT_RETRIES = 5s = rq.session()s.keep_alive = False # 關(guān)閉多余連接header = { # 請更改cookie ’user-agent’ : ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4501.0 Safari/537.36 Edg/92.0.891.1’, ’cookie’ : ’wengine_vpn_ticketwebvpn_jsu_edu_cn=xxxxxxxxxx; show_vpn=1; refresh=1’}# 請更改urlr = rq.get(’https://webvpn.jsu.edu.cn/https/xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx/jsxsd/kscj/cjcx_list’, headers = header, verify=False)soup = BS(r.text,’html.parser’)head = []for th in soup.find_all('th'): head.append(th.text)while ’’ in head: head.remove(’’)head.remove(’序號’)context = np.array(head)x = []flag = 0for td in soup.find_all('td'): if flag!=0 and flag%11!=1:x.append(td.text) if flag%11==0 and flag!=0:context = np.row_stack((context,np.array(x)))x.clear() flag+=1context = np.delete(context,0,axis=0)data = pd.DataFrame(context,columns=head)print(data)# 生成文件,親更改文件名data.to_csv(’../result/result.csv’,encoding=’utf-8-sig’)
以上就是python 爬取吉首大學(xué)成績單的詳細內(nèi)容,更多關(guān)于python 爬取成績單的資料請關(guān)注好吧啦網(wǎng)其它相關(guān)文章!
相關(guān)文章:
1. PHP設(shè)計模式中工廠模式深入詳解2. asp(vbs)Rs.Open和Conn.Execute的詳解和區(qū)別及&H0001的說明3. Ajax實現(xiàn)表格中信息不刷新頁面進行更新數(shù)據(jù)4. JSP數(shù)據(jù)交互實現(xiàn)過程解析5. ThinkPHP5實現(xiàn)JWT Token認證的過程(親測可用)6. .NET中l(wèi)ambda表達式合并問題及解決方法7. ASP.NET MVC遍歷驗證ModelState的錯誤信息8. 解決AJAX返回狀態(tài)200沒有調(diào)用success的問題9. ASP 信息提示函數(shù)并作返回或者轉(zhuǎn)向10. CSS hack用法案例詳解
