Primeiros passos
Aprenda a usar o Oxylabs Custom Parser. Nesta página, você encontrará exemplos abrangentes, dicas e detalhes sobre o que acontece se a análise falhar.
Como usar o Custom Parser
Exemplo de cenário
Suponha que você queira analisar o número de resultados totais que o Bing Search retorna com um termo de busca test:

Vamos apresentar as três principais maneiras de alcançar esse objetivo:
Gerar parsers com OxyCopilot
OxyCopilot permite que você descreva suas necessidades em inglês simples para criar automaticamente scrapers e parsers para um site. Aprenda o básico seguindo os passos abaixo e consulte documentação do OxyCopilot para mais informações.
Abra o Web Scraper API Playground no nosso painel para acessar o OxyCopilot.
Insira a(s) URL(s)
Clique no botão OxyCopilot no canto superior esquerdo e insira até 3 URLs do mesmo tipo de página. Vamos usar esta URL do Bing Search: https://www.bing.com/search?q=test.

Você também pode configurar o scraper manualmente preenchendo os Site, campos Scraper, e URL no topo, e ajustando parâmetros adicionais como renderização JavaScript no menu lateral esquerdo.
Escreva o prompt
Explique os dados que você deseja extrair de uma página. Certifique-se de ser descritivo e fornecer as informações mais importantes. Você pode encontrar exemplos de prompts para sites populares em nossa biblioteca de prompts do OxyCopilot.
Cole o prompt a seguir para extrair o número total de resultados das páginas do Bing Search:

Clique no Gerar instruções botão para enviar seu prompt.
Revisar dados e instruções parseados
Quando o OxyCopilot terminar, você verá a seguinte janela onde os dados parseados estão à direita:

Se quiser fazer ajustes, você pode fazê‑los aqui. Modifique a(s) URL(s), refine o prompt, habilite a renderização Javascript, ou edite o esquema de parsing para atender às suas necessidades. Quando você atualizar qualquer campo nesta janela, pode executar a solicitação novamente selecionando Iniciar nova solicitação.
Você também pode visualizar e editar diretamente as instruções de parsing aqui:

Quando estiver satisfeito com o resultado, Carregar instruções para continuar.
Salvar o parser como um preset
Você pode facilmente salvar suas instruções de parsing como um preset de parser. Isso permite reutilizar o preset no OxyCopilot e em suas requisições de API.
No Web Scraper API Playground, você pode opcionalmente escolher o usuário para o qual salvar o preset. Quando estiver tudo pronto, simplesmente clique em Salvar:

Um pop-up aparecerá solicitando que você nomeie o preset e adicione uma descrição opcional:

Uso avançado
Gerar parsers via API
Em vez de usar o OxyCopilot no playground, você pode enviar prompts diretamente para a Web Scraper API e gerar parsers. Veja a Gerando instruções de parsing via API página de documentação para saber mais.
Recomendamos fornecer 3-5 URLs do mesmo tipo (por exemplo, páginas de produto). Isso ajuda o parser a se adaptar a diferentes layouts e melhora a precisão do parsing.
Endpoint: POST https://data.oxylabs.io/v1/parsers/generate-instructions/prompt
Salvar presets de parser via API
A Web Scraper API permite salvar instruções de parsing como presets de parser reutilizáveis. Confira a documentação de Parser Presets para encontrar uma lista de ações disponíveis e exemplos de código abrangentes.
Endpoint: POST https://data.oxylabs.io/v1/parsers/presets
Escrever instruções manualmente
Para usar o Custom Parser manualmente, inclua um conjunto de parsing_instructions ao criar um job. Você pode usar seletores CSS e XPath para direcionar elementos no DOM.
Siga o exemplo passo a passo abaixo para aprender o básico, depois explore nosso guia aprofundado sobre escrever instruções manualmente para técnicas avançadas e documentação detalhada.
Vamos usar o cenário do Bing Search como exemplo. Os parâmetros do job ficariam assim:
Passo 1. Você deve fornecer o "parse": true nfpr
Passo 2. As instruções de parsing devem ser descritas em "parsing_instructions" campo.
As instruções de parsing de exemplo acima especificam que o objetivo é analisar o número de resultados de pesquisa do documento raspado e colocar o resultado no number_of_results campo. As instruções sobre como analisar o campo definindo um “pipeline” são dadas como:
O pipeline descreve uma lista de funções de processamento de dados a serem executadas. As funções são executadas na ordem em que aparecem na lista e recebem a saída da função anterior como entrada.
No pipeline de exemplo acima, a xpath_one função (lista completa de funções disponíveis) é usada. Ela permite processar um documento HTML usando expressões XPath e funções XSLT. Como argumento da função, especifique o caminho exato onde o elemento alvo pode ser encontrado: .//span[@class='sb_count']. Você também pode instruir o parser a selecionar o text() encontrado no elemento alvo.
O resultado parseado do job de exemplo acima deve ser parecido com isto:
O Custom Parser não só oferece extração de texto de um HTML raspado, como também pode executar funções básicas de processamento de dados.
Por exemplo, as instruções de parsing descritas anteriormente extraem number_of_results como um texto com palavras‑chave extras que você pode não precisar necessariamente. Se quiser obter o número de resultados para a query=test no tipo de dado numérico, você pode reutilizar as mesmas instruções de parsing e adicionar a amount_from_string função ao pipeline existente:
O resultado parseado do job de exemplo acima deve ser parecido com isto:
O que acontece se o parsing falhar ao usar o Custom Parser
Se o Custom Parser falhar ao processar instruções de parsing definidas pelo cliente, retornaremos o 12005 código de status (parseado com avisos).
Você será cobrado por tais resultados:
Se o Custom Parser encontrar uma exceção e falhar durante a operação de parsing, ele pode retornar estes códigos de status: 12002, 12006, 12007. Você não será cobrado por esses erros inesperados.
Códigos de status
Veja nossos códigos de status descritos aqui.
Atualizado
Isto foi útil?


