Project Name | Stars | Downloads | Repos Using This | Packages Using This | Most Recent Commit | Total Releases | Latest Release | Open Issues | License | Language |
---|---|---|---|---|---|---|---|---|---|---|
Wooyun_public | 3,701 | 4 years ago | 29 | PHP | ||||||
This repo is archived. Thanks for wooyun! 乌云公开漏洞、知识库爬虫和搜索 crawl and search for wooyun.org public bug(vulnerability) and drops | ||||||||||
Ambar | 1,797 | 2 years ago | 2 | mit | JavaScript | |||||
:mag: Ambar: Document Search Engine | ||||||||||
Open Source Search Engine | 1,376 | 7 months ago | 89 | apache-2.0 | C++ | |||||
Nov 20 2017 -- A distributed open source search engine and spider/crawler written in C/C++ for Linux on Intel/AMD. From gigablast dot com, which has binaries for download. See the README.md file at the very bottom of this page for instructions. | ||||||||||
Spider | 919 | 5 months ago | 88 | Python | ||||||
Python website crawler. | ||||||||||
Angrysearch | 866 | a year ago | 37 | gpl-2.0 | Python | |||||
Linux file search, instant results as you type | ||||||||||
Ipfs Search | 758 | 2 | 2 months ago | 19 | April 20, 2021 | 41 | agpl-3.0 | Go | ||
Search engine for the Interplanetary Filesystem. | ||||||||||
Fess | 713 | 12 | 19 | 3 days ago | 135 | June 13, 2022 | 26 | apache-2.0 | Java | |
Fess is very powerful and easily deployable Enterprise Search Server. | ||||||||||
Tweetscraper | 698 | 2 years ago | 8 | April 29, 2018 | 1 | gpl-2.0 | Python | |||
TweetScraper is a simple crawler/spider for Twitter Search without using API | ||||||||||
Go Dork | 677 | 6 months ago | 4 | April 03, 2021 | 4 | mit | Go | |||
The fastest dork scanner written in Go. | ||||||||||
Filemasta | 625 | a year ago | 4 | gpl-3.0 | C# | |||||
A search application to explore, discover and share online files |
一个爬取百度的利器
简体中文
|
繁體中文
|
English
快速上手 »
查看示例
·
报告问题
·
请求需求
搜索引擎是一个十分强大的工具,如果能让其他工具集成搜索引擎的众多强大功能,那么这些工具必将变得更加强大。但目前我没有找到一个可以精准提取搜索引擎搜索结果的开源爬虫。于是,我便编写了这个爬取百度搜索引擎的项目:BaiduSpider。
BaiduSpider的独特功能:
节省提取数据的时间,对于类似深度学习项目的数据模型建立与训练起到了良好的帮助。
精准提取数据,并删除广告。
搜索结果大而全,支持多种搜索类型,支持多种返回类型。
当然,没有一个项目是完美的。任何一个项目的发展都需要社区的帮助。你可以通过发布 Issue 或提交 PR 来帮助 BaiduSpider 进步!😄
一些比较有帮助的文档或工具将在最后的致谢部分中列出。
一些 BaiduSpider 使用的主要开源依赖库。
为了安装 BaiduSpider,请按照以下几个步骤操作。
在安装 BaiduSpider 之前,请确保你安装了Python3.6+
:
$ python --version
若版本小于3.6.0
,请到Python官网下载并安装 Python。
pip
安装请在命令行中键入:
$ pip install baiduspider
$ git clone [email protected]:BaiduSpider/BaiduSpider.git
# ...
$ python setup.py install
你可以使用以下代码,通过 BaiduSpider 获取百度的网页搜索结果:
# 导入BaiduSpider
from baiduspider import BaiduSpider
from pprint import pprint
# 实例化BaiduSpider
spider = BaiduSpider()
# 搜索网页
pprint(spider.search_web(query='Python'))
更多样例和配置,请参照文档
请参考Opening Issues以获取最新的项目规划以及已知问题。
社区的贡献是开源项目的灵魂所在,也是整个开源社区学习、交流、获得灵感的方式。我们极力欢迎任何人参与本项目的开发与维护。
具体参与步骤如下:
git checkout -b NewFeatures
)git commit -m 'Add some AmazingFeature'
)git push origin username/BaiduSpider
)本项目基于GPL-V3
开源,详情请参见LICENSE
。
samzhangjy - @samzhangjy - [email protected]
项目链接: BaiduSpider/BaiduSpider
此项目仅作为学习用途,不可商用或用于爬取百度大量数据。此外,本项目使用GPL-V3
版权协议,意味着涉及(使用)此项目的任何其它项目必须开源且注明出处,并且本项目作者不承担滥用导致的任何法律风险。特此说明,违者后果自负。