Python 爬蟲的工具列表

  • A+
所屬分類:python

這個列表包含與網頁抓取和數據處理的Python

1. 網絡

通用

  • urllib?-網絡庫(stdlib)。
  • requests?-網絡庫。
  • grab?– 網絡庫(基于pycurl)。
  • pycurl?– 網絡庫(綁定libcurl)。
  • urllib3?– Python HTTP庫,安全連接池、支持文件post、可用性高。
  • httplib2?– 網絡庫。
  • RoboBrowser?– 一個簡單的、極具Python風格的Python庫,無需獨立的瀏覽器即可瀏覽網頁。
  • MechanicalSoup?-一個與網站自動交互Python庫。
  • Mechanize?-有狀態、可編程的Web瀏覽庫。
  • socket?– 底層網絡接口(stdlib)。
  • Unirest for Python?– Unirest是一套可用于多種語言的輕量級的HTTP庫。
  • hyper?– Python的HTTP/2客戶端。
  • PySocks?– SocksiPy更新并積極維護的版本,包括錯誤修復和一些其他的特征。作為socket模塊的直接替換。

異步

  • treq?– 類似于requests的API(基于twisted)。
  • aiohttp?– asyncio的HTTP客戶端/服務器(PEP-3156)。

2. 網絡爬蟲框架

功能齊全的爬蟲

  • grab?– 網絡爬蟲框架(基于pycurl/multicur)。
  • scrapy?– 網絡爬蟲框架(基于twisted),不支持Python3。
  • pyspider?– 一個強大的爬蟲系統。
  • cola?– 一個分布式爬蟲框架。

其他

  • portia?– 基于Scrapy的可視化爬蟲。
  • restkit?– Python的HTTP資源工具包。它可以讓你輕松地訪問HTTP資源,并圍繞它建立的對象。
  • demiurge?– 基于PyQuery的爬蟲微框架。

3. HTML/XML解析器

通用

  • lxml?– C語言編寫高效HTML/ XML處理庫。支持XPath。
  • cssselect?– 解析DOM樹和CSS選擇器。
  • pyquery?– 解析DOM樹和jQuery選擇器。
  • BeautifulSoup?– 低效HTML/ XML處理庫,純Python實現。
  • html5lib?– 根據WHATWG規范生成HTML/ XML文檔的DOM。該規范被用在現在所有的瀏覽器上。
  • feedparser?– 解析RSS/ATOM feeds。
  • MarkupSafe?– 為XML/HTML/XHTML提供了安全轉義的字符串。
  • xmltodict?– 一個可以讓你在處理XML時感覺像在處理JSON一樣的Python模塊。
  • xhtml2pdf?– 將HTML/CSS轉換為PDF。
  • untangle?– 輕松實現將XML文件轉換為Python對象。

清理

  • Bleach?– 清理HTML(需要html5lib)。
  • sanitize?– 為混亂的數據世界帶來清明。

4. 文本處理

用于解析和操作簡單文本的庫

  • 通用
  • difflib?– (Python標準庫)幫助進行差異化比較。
  • Levenshtein?– 快速計算Levenshtein距離和字符串相似度。
  • fuzzywuzzy?– 模糊字符串匹配。
  • esmre?– 正則表達式加速器。
  • ftfy?– 自動整理Unicode文本,減少碎片化。
  • 轉換
  • unidecode?– 將Unicode文本轉為ASCII。
  • 字符編碼
  • uniout?– 打印可讀字符,而不是被轉義的字符串。
  • chardet?– 兼容 Python的2/3的字符編碼器。
  • xpinyin?– 一個將中國漢字轉為拼音的庫。
  • pangu.py?– 格式化文本中CJK和字母數字的間距。
  • Slug化
  • awesome-slugify?– 一個可以保留unicode的Python slugify庫。
  • python-slugify?– 一個可以將Unicode轉為ASCII的Python slugify庫。
  • unicode-slugify?– 一個可以將生成Unicode slugs的工具。
  • pytils?– 處理俄語字符串的簡單工具(包括pytils.translit.slugify)。
  • 通用解析器
  • PLY?– lex和yacc解析工具的Python實現。
  • pyparsing?– 一個通用框架的生成語法分析器。
  • 人的名字
  • python-nameparser?-解析人的名字的組件。
  • 電話號碼
  • phonenumbers?-解析,格式化,存儲和驗證國際電話號碼。
  • 用戶代理字符串
  • python-user-agents?– 瀏覽器用戶代理的解析器。
  • HTTP Agent Parser?– Python的HTTP代理分析器。

5. 特定格式文件處理

解析和處理特定文本格式的庫

  • 通用
  • tablib?– 一個把數據導出為XLS、CSV、JSON、YAML等格式的模塊。
  • textract?– 從各種文件中提取文本,比如 Word、PowerPoint、PDF等。
  • messytables?– 解析混亂的表格數據的工具。
  • rows?– 一個常用數據接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT – 將來還會提供更多!)。
  • Office
  • python-docx?– 讀取,查詢和修改的Microsoft Word2007/2008的docx文件。
  • xlwt?/?xlrd?– 從Excel文件讀取寫入數據和格式信息。
  • XlsxWriter?– 一個創建Excel.xlsx文件的Python模塊。
  • xlwings?– 一個BSD許可的庫,可以很容易地在Excel中調用Python,反之亦然。
  • openpyxl?– 一個用于讀取和寫入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的庫。
  • Marmir?– 提取Python數據結構并將其轉換為電子表格。
  • PDF
  • PDFMiner?– 一個從PDF文檔中提取信息的工具。
  • PyPDF2?– 一個能夠分割、合并和轉換PDF頁面的庫。
  • ReportLab?– 允許快速創建豐富的PDF文檔。
  • pdftables?– 直接從PDF文件中提取表格。
  • Markdown
  • Python-Markdown?– 一個用Python實現的John Gruber的Markdown。
  • Mistune?– 速度最快,功能全面的Markdown純Python解析器。
  • markdown2?– 一個完全用Python實現的快速的Markdown。
  • YAML
  • PyYAML?– 一個Python的YAML解析器。
  • CSS
  • cssutils?– 一個Python的CSS庫。
  • ATOM/RSS
  • feedparser?– 通用的feed解析器。
  • SQL
  • sqlparse?– 一個非驗證的SQL語句分析器。
  • HTTP
  • http-parser?– C語言實現的HTTP請求/響應消息解析器。
  • 微格式
  • opengraph?– 一個用來解析Open Graph協議標簽的Python模塊。
  • 可移植的執行體
  • pefile?– 一個多平臺的用于解析和處理可移植執行體(即PE)文件的模塊。
  • PSD
  • psd-tools?– 將Adobe Photoshop PSD(即PE)文件讀取到Python數據結構。

6. 自然語言處理

處理人類語言問題的庫

  • NLTK?-編寫Python程序來處理人類語言數據的最好平臺。
  • Pattern?– Python的網絡挖掘模塊。他有自然語言處理工具,機器學習以及其它。
  • TextBlob?– 為深入自然語言處理任務提供了一致的API。是基于NLTK以及Pattern的巨人之肩上發展的。
  • jieba?– 中文分詞工具。
  • SnowNLP?– 中文文本處理庫。
  • loso?– 另一個中文分詞庫。
  • genius?– 基于條件隨機域的中文分詞。
  • langid.py?– 獨立的語言識別系統。
  • Korean?– 一個韓文形態庫。
  • pymorphy2?– 俄語形態分析器(詞性標注+詞形變化引擎)。
  • PyPLN?– 用Python編寫的分布式自然語言處理通道。這個項目的目標是創建一種簡單的方法使用NLTK通過網絡接口處理大語言庫。

7. 瀏覽器自動化與仿真

  • selenium?– 自動化真正的瀏覽器(Chrome瀏覽器,火狐瀏覽器,Opera瀏覽器,IE瀏覽器)。
  • Ghost.py?– 對PyQt的webkit的封裝(需要PyQT)。
  • Spynner?– 對PyQt的webkit的封裝(需要PyQT)。
  • Splinter?– 通用API瀏覽器模擬器(selenium web驅動,Django客戶端,Zope)。

8. 多重處理

  • threading?– Python標準庫的線程運行。對于I/O密集型任務很有效。對于CPU綁定的任務沒用,因為python GIL。
  • multiprocessing?– 標準的Python庫運行多進程。
  • celery?– 基于分布式消息傳遞的異步任務隊列/作業隊列。
  • concurrent-futures?– concurrent-futures 模塊為調用異步執行提供了一個高層次的接口。

9. 異步

異步網絡編程庫

  • asyncio?– (在Python 3.4 +版本以上的 Python標準庫)異步I/O,時間循環,協同程序和任務。
  • Twisted?– 基于事件驅動的網絡引擎框架。
  • Tornado?– 一個網絡框架和異步網絡庫。
  • pulsar?– Python事件驅動的并發框架。
  • diesel?– Python的基于綠色事件的I/O框架。
  • gevent?– 一個使用greenlet 的基于協程的Python網絡庫。
  • eventlet?– 有WSGI支持的異步框架。
  • Tomorrow?– 異步代碼的奇妙的修飾語法。

10. 隊列

  • celery?– 基于分布式消息傳遞的異步任務隊列/作業隊列。
  • huey?– 小型多線程任務隊列。
  • mrq?– Mr. Queue – 使用redis & Gevent 的Python分布式工作任務隊列。
  • RQ?– 基于Redis的輕量級任務隊列管理器。
  • simpleq?– 一個簡單的,可無限擴展,基于Amazon SQS的隊列。
  • python-gearman?– Gearman的Python API。

11. 云計算

  • picloud?– 云端執行Python代碼。
  • dominoup.com?– 云端執行R,Python和matlab代碼。

12. 電子郵件

電子郵件解析庫

  • flanker?– 電子郵件地址和Mime解析庫。
  • Talon?– Mailgun庫用于提取消息的報價和簽名。

13. 網址和網絡地址操作

解析/修改網址和網絡地址庫

  • URL
  • furl?– 一個小的Python庫,使得操縱URL簡單化。
  • purl?– 一個簡單的不可改變的URL以及一個干凈的用于調試和操作的API。
  • urllib.parse?– 用于打破統一資源定位器(URL)的字符串在組件(尋址方案,網絡位置,路徑等)之間的隔斷,為了結合組件到一個URL字符串,并將“相對URL”轉化為一個絕對URL,稱之為“基本URL”。
  • tldextract?– 從URL的注冊域和子域中準確分離TLD,使用公共后綴列表。
  • 網絡地址
  • netaddr?– 用于顯示和操縱網絡地址的Python庫。

14. 網頁內容提取

提取網頁內容的庫

  • HTML頁面的文本和元數據
  • newspaper?– 用Python進行新聞提取、文章提取和內容策展。
  • html2text?– 將HTML轉為Markdown格式文本。
  • python-goose?– HTML內容/文章提取器。
  • lassie?– 人性化的網頁內容檢索工具
  • micawber?– 一個從網址中提取豐富內容的小庫。
  • sumy?-一個自動匯總文本文件和HTML網頁的模塊
  • Haul?– 一個可擴展的圖像爬蟲。
  • python-readability?– arc90 readability工具的快速Python接口。
  • scrapely?– 從HTML網頁中提取結構化數據的庫。給出了一些Web頁面和數據提取的示例,- - - scrapely為所有類似的網頁構建一個分析器。
  • 視頻
  • youtube-dl?– 一個從YouTube下載視頻的小命令行程序。
  • you-get?– Python3的YouTube、優酷/ Niconico視頻下載器。
  • 維基
  • WikiTeam?– 下載和保存wikis的工具。

15. WebSocket的庫

用于WebSocket的庫

  • Crossbar?– 開源的應用消息傳遞路由器(Python實現的用于Autobahn的WebSocket和WAMP)。
  • AutobahnPython?– 提供了WebSocket協議和WAMP協議的Python實現并且開源。
  • WebSocket-for-Python?– Python 2和3以及PyPy的WebSocket客戶端和服務器庫。

16. DNS解析

  • dnsyo?– 在全球超過1500個的DNS服務器上檢查你的DNS。
  • pycares?– c-ares的接口。c-ares是進行DNS請求和異步名稱決議的C語言庫。

17. 計算機視覺

  • OpenCV?– 開源計算機視覺庫。
  • SimpleCV?– 用于照相機、圖像處理、特征提取、格式轉換的簡介,可讀性強的接口(基于OpenCV)。
  • mahotas?– 快速計算機圖像處理算法(完全使用 C++ 實現),完全基于 numpy 的數組作為它的數據類型。

18. 代理服務器

  • shadowsocks?– 一個快速隧道代理,可幫你穿透防火墻(支持TCP和UDP,TFO,多用戶和平滑重啟,目的IP黑名單)。
  • tproxy?– tproxy是一個簡單的TCP路由代理(第7層),基于Gevent,用Python進行配置。

19. 其他Python工具列表

weinxin
微信公眾號
掃一掃關注運維生存時間公眾號,獲取最新技術文章~

發表評論

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前評論:5   其中:訪客  5   博主  0

    • Tony 0

      嗨!

      這是另一個鏈接給你 – PyXLL – https://www.pyxll.com.

      PyXLL enables you to write full featured Excel Add-Ins in Python.

      Features include:

      – Write Excel user defined functions and macros in Python
      – Extend the Excel UI with menu functions and custom ribbons
      – Stream real time data to Excel from Python
      – Asynchronous and thread safe functions
      – Customizable type system for handling Excel Python type conversion
      – Reload Python code without restarting Excel

      謝謝!
      Tony

      • 碼客 1

        這么多,一般用的也就那幾個而已

        • Honest1y 0

          收藏了

          • 匿名 9

            scrapy支持python3
            https://docs.scrapy.org/en/latest/intro/install.html
            Scrapy runs on Python 2.7 and Python 3.4 or above under CPython (default Python implementation) and PyPy (starting with PyPy 5.9).

            • 鐘水洲博客 0

              拜個早年