1、學習Python基礎知識並實現基本的爬蟲過程。一般獲取數據的過程都是按照發送請求-獲得頁面反饋-解析並且存儲數據這三個流程來實現的。這個過程其實就是模擬瞭一個人工瀏覽網頁的過程。
2、Python中爬蟲相關的包很多:urllib、requests、bs4、scrapy、pyspider等,我們可以按照requests負責連接網站,返回網頁,Xpath用於解析網頁,便於抽取數據。
3、瞭解非結構化數據的存儲。爬蟲抓取的數據結構復雜傳統的結構化數據庫可能並不是特別適合我們使用。我們前期推薦使用MongoDB就可以。
4、掌握一些常用的反爬蟲技巧。使用代理IP池、抓包、驗證碼的OCR處理等處理方式即可以解決大部分網站的反爬蟲策略。
5、瞭解分佈式存儲。分佈式這個東西,聽起來很恐怖,但其實就是利用多線程的原理讓多個爬蟲同時工作,需要你掌握Scrapy+MongoDB+Redis這三種工具就可以瞭。