Fonte Universal

Veja como suas requisições apareceriam com a fonte universal.

Raspe outros sites (Home Depot, Idealo, Zillow, Yandex, Baidu, etc.) com nossa universal fonte. Aceita URLs junto com parâmetros adicionais.

Exemplos de requisição

Neste exemplo, a API irá recuperar uma página de produto de e-commerce.

curl 'https://realtime.oxylabs.io/v1/queries' \
--user 'USERNAME:PASSWORD' \
-H 'Content-Type: application/json' \
-d '{
        "source": "universal",
        "url": "https://sandbox.oxylabs.io/products/1"
    }'
chevron-rightExemplo de saídahashtag
{
    "results": [
        {
            "content": "<!DOCTYPE html><html lang=\"en\">
            CONTEÚDO
            </html>",
            "created_at": "2024-07-01 11:35:14",
            "updated_at": "2024-07-01 11:35:15",
            "page": 1,
            "url": "https://sandbox.oxylabs.io/products/1",
            "job_id": "7213505428280329217",
            "status_code": 200
        }
    ]
}

Usamos o método de integração síncrono Realtime em nossos exemplos. Se você quiser usar Proxy Endpoint ou integração assíncrona integração Push-Pull, consulte a seção métodos de integração .

Valores dos parâmetros de requisição

Genérico

Parâmetro
Descrição
Valor Padrão

source

Define o scraper.

universal

url

URL direta (link) para qualquer página.

-

callback_url

URL do seu endpoint de callback. Mais informações.

-

- parâmetro obrigatório

Adicionais

Estes são os parâmetros das nossas funcionalidades.

Parâmetro
Descrição
Valor Padrão

geo_location

Define a localização geográfica do proxy para recuperar dados. Encontre locais suportados aquiarrow-up-right.

-

render

Habilita renderização de JavaScript quando definido como html. Mais informações. OBSERVAÇÃO: Se você observar taxas de sucesso baixas ou recuperar conteúdo vazio, por favor tente adicionar este parâmetro.

-

browser_instructions

Defina suas próprias instruções de navegador que serão executadas ao renderizar JavaScript. Mais informações.

-

parse

Retorna dados parseados quando definido como true, desde que exista um parser dedicado para o tipo de página da URL submetida.

false

parsing_instructions

Defina sua própria lógica de parsing e transformação de dados que será executada sobre o resultado do scraping HTML. Leia mais: Exemplos de instruções de parsing.

-

context: headers

Passe seus próprios headers. Saiba mais aqui.

-

context: cookies

Passe seus próprios cookies. Saiba mais aqui.

-

context: session_id

Se você quiser usar o mesmo proxy com múltiplas requisições, pode fazê-lo usando este parâmetro. Apenas defina sua sessão para qualquer string que desejar, e nós atribuiremos um proxy a esse ID e o manteremos por até 10 minutos. Depois disso, se você fizer outra requisição com o mesmo session ID, um novo proxy será atribuído a esse ID de sessão.

-

context: http_method

Defina como post se você quiser fazer um POST request para sua URL alvo via E-commerce Scraper API. Saiba mais aqui.

get

user_agent_type

Tipo de dispositivo e navegador. A lista completa pode ser encontrada aqui.

desktop

context: content

Codificado em Base64 POST corpo da requisição. Só é útil se http_method estiver definido como post.

-

content_encoding

Adicione este parâmetro se você estiver baixando imagens. Saiba mais aqui.

base64

context: follow_redirects

Defina como true para habilitar que o scraper siga redirecionamentos. Por padrão, redirecionamentos são seguidos até um limite de 10 links, tratando toda a cadeia como um único job de scraping.

true

context: successful_status_codes

Defina um código de resposta HTTP personalizado (ou alguns deles), sobre o qual devemos considerar o scrape bem-sucedido e retornar o conteúdo para você. Pode ser útil se você quiser que retornemos a página de erro 503 ou em alguns outros casos não padrão.

-

Todos os parâmetros

Neste exemplo, todos os parâmetros disponíveis estão incluídos (embora nem sempre necessários ou compatíveis na mesma requisição), para lhe dar uma ideia de como formatar suas requisições.

Atualizado

Isto foi útil?