# LangChain

“ **LangChain** 与 [**Oxylabs 网页爬虫API**](https://oxylabs.io/products/scraper-api/web) 可让您通过 LLM（大语言模型）在同一工作流中收集并处理网页数据。

## 概述

**LangChain** 是一个用于构建将 LLM 与工具、API 和网页数据结合使用的应用程序的框架。它支持 Python 和 JavaScript。将其与 [**Oxylabs 网页爬虫API** ](http://developers.oxylabs.io/scraper-apis/web-scraper-api?_gl=1*1ljhay3*_gcl_aw*R0NMLjE3NDYxODM0ODcuQ2owS0NRancydEhBQmhDaUFSSXNBTlp6RFdvSXlSNVg3blQtd0ZEakxHOUlvdUhyQmtoRTRCeUNwc054dFJVMmh0Z3dZTTR3Nm90SjVKOGFBbHhhRUFMd193Y0I.*_gcl_au*MjU4NDEzMTkwLjE3NDExNzU2MzI.)结合使用，以：

* 在不处理验证码、IP 封锁或 JS 渲染的情况下抓取结构化数据
* 在同一流水线中使用 LLM 处理结果
* 构建从提取到 AI 驱动输出的端到端工作流

## 快速开始

**创建您的 API 用户凭证**：注册免费试用或在以下位置购买产品 [**Oxylabs 控制面板**](https://dashboard.oxylabs.io/en/registration) 以创建你的 API 用户凭据（`用户名` 并 `PASSWORD`).

{% hint style="warning" %}
如果您的账户需要超过一个 API 用户，请联系我们的 [**客户支持**](mailto:support@oxylabs.io) 或通过我们的 24/7 在线聊天支持发送消息。
{% endhint %}

在本指南中，我们将使用 Python 编程语言。使用 pip 安装所需库：

```bash
pip install -qU langchain-oxylabs langchain-openai langgraph requests python-dotenv
```

## 环境设置

创建一个 `.env` 在项目目录中创建一个文件，填入您的 Oxylabs API 用户和 OpenAI 凭证：

```
OXYLABS_USERNAME=your-username
OXYLABS_PASSWORD=your-password
OPENAI_API_KEY=your-openai-key
```

在你的 Python 脚本中加载这些环境变量：

```python
import os
from dotenv import load_dotenv

load_dotenv()
```

## 集成方法

将 Oxylabs 网页爬虫API 与 LangChain 集成主要有两种方式：

### 使用 langchain-oxylabs 包

对于 Google 搜索查询，请使用专门的 [`langchain-oxylabs`](https://python.langchain.com/docs/integrations/tools/oxylabs/) 包，它提供了即用型集成：

```python
import os
from dotenv import load_dotenv
from langchain.chat_models import init_chat_model
from langgraph.prebuilt import create_react_agent
from langchain_oxylabs import OxylabsSearchAPIWrapper, OxylabsSearchRun

load_dotenv()

# 初始化您偏好的 LLM 模型
llm = init_chat_model(
    "gpt-4o-mini",
    model_provider="openai",
    api_key=os.getenv("OPENAI_API_KEY")
)

# 初始化 Google 搜索工具
search = OxylabsSearchRun(
    wrapper=OxylabsSearchAPIWrapper(
        oxylabs_username=os.getenv("OXYLABS_USERNAME"),
        oxylabs_password=os.getenv("OXYLABS_PASSWORD")
    )
)

# 创建一个使用 Google 搜索工具的代理
agent = create_react_agent(llm, [search])

# 使用示例
user_input = "玛雅文明是什么时候以及为什么崩溃的？"
response = agent.invoke({"messages": user_input})
print(response["messages"][-1].content)
```

### 使用网页爬虫API&#x20;

如果要访问 Google 搜索之外的其他网站，您可以直接向网页爬虫API发送请求：

```python
import os
import requests
from dotenv import load_dotenv
from langchain_openai import OpenAI
from langchain_core.prompts import PromptTemplate

load_dotenv()

def scrape_website(url):
    """使用 Oxylabs 网页爬虫API抓取网站"""
    payload = {
        "source": "universal",
        "url": url,
        "parse": True
    }
    response = requests.post(
        "https://realtime.oxylabs.io/v1/queries",
        auth=(os.getenv("OXYLABS_USERNAME"), os.getenv("OXYLABS_PASSWORD")),
        json=payload
    )
    
    if response.status_code == 200:
        data = response.json()
        content = data["results"][0]["content"]
        return str(content)
    else:
        print(f"抓取网站失败：{response.text}")
        return None

def process_content(content):
    """使用 LangChain 处理抓取的内容"""
    if not content:
        print("没有可处理的内容。")
        return None
        
    prompt = PromptTemplate.from_template(
        "分析以下网站内容并总结要点：{content}"
    )
    chain = prompt | OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
    result = chain.invoke({"content": content})
    return result

def main(url):
    print("正在抓取网站...")
    scraped_content = scrape_website(url)
    if scraped_content:
        print("正在使用 LangChain 处理抓取的内容...")
        analysis = process_content(scraped_content)
        print("\n处理后的分析：\n", analysis)
    else:
        print("未抓取到内容。")

if __name__ == "__main__":
    url = "https://sandbox.oxylabs.io/products/1"
    main(url)
```

## 针对特定目标的爬虫

Oxylabs 提供 [**专用爬虫**](broken://pages/d276a7ec10e49cf67d02e5d3d37904965ada515a) 用于各种热门网站。以下是一些可用来源的示例：

| 网站      | 来源参数             | 所需参数                   |
| ------- | ---------------- | ---------------------- |
| Google  | `google_search`  | `query`                |
| Amazon  | `amazon_search`  | `query`, `domain` （可选） |
| Walmart | `walmart_search` | `query`                |
| Target  | `target_search`  | `query`                |
| Kroger  | `kroger_search`  | `query`, `store_id`    |
| Staples | `staples_search` | `query`                |

要使用特定爬虫，请修改以下内容中的 payload： `scrape_website` 函数：

```python
# Amazon 搜索示例
payload = {
    "source": "amazon_search",
    "query": "smartphone",
    "domain": "com",
    "parse": True
}
```

## 高级配置

### 处理动态内容

网页爬虫API可以通过添加 [**JavaScript 渲染**](broken://pages/af10fcb25bf078ef2728b640e71f58c4b7b2f411) 来处理，使用 `render` 参数：

```python
payload = {
    "source": "universal",
    "url": url,
    "parse": True,
    "render": "html"
}
```

### 设置 user agent 类型

您可以指定不同的 [**用户代理**](broken://pages/c4816a7dbbcbdc8996739a2876977a4c308b3f03) 来模拟不同设备：

```python
payload = {
    "source": "universal",
    "url": url,
    "parse": True,
    "render": "html",
    "user_agent_type": "mobile"
}
```

### 使用目标特定参数

许多 [**针对特定目标的爬虫**](broken://pages/d276a7ec10e49cf67d02e5d3d37904965ada515a) 支持额外参数：

```python
# Kroger 带位置参数的示例
payload = {
    "source": "kroger_search",
    "query": "organic milk",
    "store_id": "01100002",
    "fulfillment_type": "pickup"
}
```

## 错误处理

为生产环境应用实现适当的错误处理：

```python
尝试：
    response = requests.post(
        "https://realtime.oxylabs.io/v1/queries",
        auth=(os.getenv("OXYLABS_USERNAME"), os.getenv("OXYLABS_PASSWORD")),
        json=payload,
        timeout=60
    )
    response.raise_for_status()
    # 处理响应
except requests.exceptions.HTTPError as http_err:
    print(f"发生 HTTP 错误：{http_err}")
except requests.exceptions.ConnectionError as conn_err:
    print(f"发生连接错误：{conn_err}")
except requests.exceptions.Timeout as timeout_err:
    print(f"发生超时错误：{timeout_err}")
except requests.exceptions.RequestException as req_err:
    print(f"发生错误：{req_err}")
```


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://developers.oxylabs.io/integrations/cn/wang-ye-pa-chong-api-ji-cheng/langchain.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
