本專題以項目為驅(qū)動策严,從基本的網(wǎng)絡(luò)請求和頁面解析開始,逐步深入到 scrapy爬蟲框架饿敲,在講解完庫之后妻导,會跟上對應(yīng)的實踐項目,有興趣朋友的可以跟著實踐自己敲代碼或者完成我留下的 bug怀各,把代碼發(fā)到評論區(qū)倔韭,我會不定時查看。
本專題假設(shè)讀者有一定的python基礎(chǔ)瓢对,所以并不會講python的基本語法寿酌,遇到語法問題可以評論求助。
因為本專題涉及的庫比較多硕蛹,而且作者不能把時間全部用在更新上醇疼,所以本專題完成的時間可能較長硕并,在本專題中會涉及到以下主題:
1、requests 庫
(網(wǎng)絡(luò)請求)
2秧荆、lxml 庫 和 xpath 用法
(htnl頁面解析)
4倔毙、html 網(wǎng)頁的解析
5、數(shù)據(jù)的處理和存儲(json乙濒,csv)
6陕赃、threading 庫 (多線程)
7、asyncio 庫 (異步)
8颁股、數(shù)據(jù)庫 以及 orm
9么库、scrapy 爬蟲框架
在寫這些的時候,我也在不斷地學(xué)習(xí)甘有,如果我在學(xué)習(xí)的過程中發(fā)現(xiàn)了更好的庫廊散,就會換一個庫講,但是上面所列的點是不會變的梧疲。
最后,如果在文章中出現(xiàn)了錯誤运准,歡迎在評論中指出幌氮,我會在后續(xù)的更新中修改。
謝謝