快速上手
集成 网页解锁器 很容易,特别是如果你之前使用过常规 代理 用于网页爬取。唯一的区别是我们要求你使用 -k 或 --insecure cURL 标志(或你所选择语言的等效表达)来忽略 SSL 证书。
要使用 Web Unblocker 发起请求,你需要使用 unblock.oxylabs.io:60000 代理端点。请参见下面的 cURL 示例。你可以在其他语言中找到代码示例 此处 或在我们的完整示例代码 GitHub.
curl -k -x https://unblock.oxylabs.io:60000 \
-U 'USERNAME:PASSWORD' \
'https://ip.oxylabs.io/location'import requests
# 在此处使用您的 Web Unblocker 登录凭据。
USERNAME, PASSWORD = 'YOUR_USERNAME', 'YOUR_PASSWORD'
# 定义代理字典。
proxies = {
'http': f'http://{USERNAME}:{PASSWORD}@unblock.oxylabs.io:60000',
'https': f'https://{USERNAME}:{PASSWORD}@unblock.oxylabs.io:60000',
}
response = requests.request(
'GET',
'https://ip.oxylabs.io/location',
verify=False, # 忽略 SSL 证书
proxies=proxies,
)
# 将结果页面打印到标准输出
print(response.text)
# 将返回的 HTML 保存到 result.html 文件
with open('result.html', 'w') as f:
f.write(response.text)如果将 Web Unblocker 用于抓取依赖通过 JavaScript 加载数据的网站,请参考 JavaScript 渲染 部分。该产品并不适合直接与无头浏览器(例如 Chromium、PhantomJS、Splash 等)及其驱动(例如 Playwright、Selenium、Puppeteer 等)一起使用。
观看下面的视频,了解一个在不被封禁的情况下爬取难抓目标的示例:
课程
如果你想了解更多关于使用大规模获取数据的 网页解锁器 — 我们建议观看这节 Scraping Experts 课程:
最后更新于
这有帮助吗?

