# Recursos

- [Localização](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/localization.md): Visão geral das opções de localização. Leia mais sobre localização do proxy, localização de SERP e localização de e-commerce, além de domínio, locale e idioma dos resultados.
- [Localização do proxy](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/localization/proxy-location.md): Saiba como usar o parâmetro geo\_location para acessar dados da web como se você estivesse navegando de outro país.
- [Localização de SERP](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/localization/serp-localization.md): Aprenda a obter resultados de SERP da geolocalização exigida.
- [Localização de e-commerce](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/localization/e-commerce-localization.md): Aprenda a coletar dados de e-commerce adaptados a locais específicos de entrega e loja.
- [Domínio, locale, idioma dos resultados](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/localization/domain-locale-results-language.md): Aprenda a configurar os parâmetros de domínio, locale e idioma para coletar dados precisos da Amazon, Google ou Bing.
- [Renderização de JS e controle do navegador](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/js-rendering-and-browser-control.md): Visão geral dos recursos de renderização de JavaScript e automação de navegador do Web Scraper API.
- [Renderização de JavaScript](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/js-rendering-and-browser-control/javascript-rendering.md): Aprenda a usar um parâmetro render no Web Scraper API para coletar páginas dinâmicas com eficiência.
- [Instruções do navegador](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/js-rendering-and-browser-control/browser-instructions.md): Informações sobre como definir instruções do navegador ao usar o Web Scraper API para lidar com páginas dinâmicas complexas.
- [Lista de instruções](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/js-rendering-and-browser-control/browser-instructions/list-of-instructions.md): Explore as instruções de navegação disponíveis para automatizar a navegação dinâmica com o Web Scraper API.
- [Custom Parser](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser.md): Veja as etapas para um início rápido com o Oxylabs Custom Parser.
- [Começando](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/getting-started.md): Aprenda a usar o Oxylabs Custom Parser. Nesta página, você encontrará exemplos completos, dicas e detalhes sobre o que acontece se a análise falhar.
- [Gerando instruções de análise via API](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/generating-parsing-instructions-via-api.md): Veja como você pode gerar parsers automaticamente enviando requisições para a API.
- [Predefinições do Parser](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/parser-presets.md): Descubra como as predefinições de parser funcionam e como usá-las em seus jobs de scraping.
- [Escrevendo instruções manualmente](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually.md): Veja como escrever instruções de análise manualmente para lidar com casos extremos ou personalizar a lógica de análise.
- [Exemplos de instruções de análise](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/parsing-instruction-examples.md): Veja exemplos práticos de instruções de análise para o Custom Parser: lidar com objetos aninhados, listas, erros e arrays de arrays.
- [Dicas para escrever expressões XPath](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/tips-for-writing-xpath-expressions.md): Aprenda a escrever expressões XPath eficazes para o Custom Parser com técnicas comprovadas e boas práticas que garantem a extração precisa de dados.
- [Lista de funções de análise](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/list-of-functions.md): Descubra a lista completa de funções suportadas pelo Custom Parser: regex, XPath, CSS e muito mais.
- [Exemplos de funções de análise](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/list-of-functions/function-examples.md): Exemplos práticos de funções do Custom Parser para processamento de HTML, manipulação de strings, operações matemáticas e tarefas comuns de análise.
- [Processamento e armazenamento de resultados](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage.md): Visão geral de como o Web Scraper API lida com os dados coletados. Leia sobre parsers dedicados, download de imagens, armazenamento em nuvem e tipos de saída.
- [Parsers dedicados](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/dedicated-parsers.md): Ative parsers dedicados no Oxylabs Web Scraper API definindo parse=true. Saída JSON estruturada para alvos suportados como Amazon, Google, Walmart e outros.
- [Agregador de resultados](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/result-aggregator.md): Saiba como retornar várias respostas do Web Scarper API como uma única saída maior usando o Result Aggregator.
- [Armazenamento em nuvem](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/cloud-storage.md): Recupere seus resultados coletados diretamente no seu S3, GCS, OSS ou outro armazenamento compatível com S3.
- [Modelagem do nome do arquivo](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/cloud-storage/file-name-templating.md): Aprenda a especificar nomes de arquivo para os resultados enviados ao seu armazenamento em nuvem.
- [Tipos de saída](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types.md): Descubra os vários tipos de saída no Oxylabs Web Scraper API: Markdown, saída em múltiplos formatos e opções de captura XHR.
- [Captura de requisições de rede (Fetch/XHR)](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/capturing-network-requests-fetch-xhr.md): Capture a atividade de rede do Web Scraper API usando a flag XHR. Recupere todas as requisições Fetch/XHR feitas durante o carregamento da página como JSON estruturado para facilitar a extração de dados.
- [Saída em Markdown](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/markdown-output.md): Solicite saída em formato Markdown do Oxylabs Web Scraper API definindo "markdown": true no seu payload - ideal para fluxos de trabalho com IA e conteúdo leve.
- [Saída em múltiplos formatos](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/multi-format-output.md): Veja como obter mais de um formato de saída com uma única chamada de API.
- [Baixar imagens](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/download-images.md)
- [Contexto HTTP e gerenciamento de jobs](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/http-context-and-job-management.md): Visão geral do gerenciamento de contexto HTTP (cabeçalhos, cookies, método, user-agent) e do gerenciamento de jobs via Web Scraper API.
- [Cabeçalhos, cookies, método](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/http-context-and-job-management/headers-cookies-method.md): Saiba como personalizar cabeçalhos, cookies ou o método HTTP ao coletar com o Web Scraper API.
- [Tipo de User-Agent](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/http-context-and-job-management/user-agent-type.md): Escolha entre várias predefinições de User-Agent para simular diferentes dispositivos em requisições de scraping.
- [Notas do cliente](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/http-context-and-job-management/client-notes.md): Aprenda a adicionar nós do cliente ao enviar um job via o endpoint v1/queries.
- [Scheduler](/documentation/pt-br/solucoes-de-scraping/web-scraper-api/features/scheduler.md): Automatize jobs de scraping recorrentes com o Scheduler gratuito no Web Scraper API. Defina a frequência com cron, especifique itens do job e horário de término, e monitore execuções via endpoints dedicados.
