# Funciones

- [Localización](/documentation/es/soluciones-de-scraping/web-scraper-api/features/localization.md): Descripción general de las opciones de localización. Lee más sobre la ubicación del proxy, la ubicación SERP y la ubicación de comercio electrónico, así como sobre dominio, configuración regional e idioma de resultados.
- [Ubicación del proxy](/documentation/es/soluciones-de-scraping/web-scraper-api/features/localization/proxy-location.md): Descubre cómo usar el parámetro \`geo\_location\` para acceder a datos web como si estuvieras navegando desde otro país.
- [Localización SERP](/documentation/es/soluciones-de-scraping/web-scraper-api/features/localization/serp-localization.md): Aprende a obtener resultados SERP desde la geolocalización requerida.
- [Localización de comercio electrónico](/documentation/es/soluciones-de-scraping/web-scraper-api/features/localization/e-commerce-localization.md): Aprende a extraer datos de comercio electrónico adaptados a ubicaciones específicas de entrega y tienda.
- [Dominio, configuración regional, idioma de resultados](/documentation/es/soluciones-de-scraping/web-scraper-api/features/localization/domain-locale-results-language.md): Aprende a configurar los parámetros de dominio, configuración regional e idioma para extraer datos precisos de Amazon, Google o Bing.
- [Renderizado JS y control del navegador](/documentation/es/soluciones-de-scraping/web-scraper-api/features/js-rendering-and-browser-control.md): Descripción general de las funciones de renderizado de JavaScript y automatización del navegador de Web Scraper API.
- [Renderizado de JavaScript](/documentation/es/soluciones-de-scraping/web-scraper-api/features/js-rendering-and-browser-control/javascript-rendering.md): Aprende a usar un parámetro de renderizado en Web Scraper API para que puedas extraer páginas dinámicas de manera eficiente.
- [Instrucciones del navegador](/documentation/es/soluciones-de-scraping/web-scraper-api/features/js-rendering-and-browser-control/browser-instructions.md): Información sobre cómo definir instrucciones del navegador al usar Web Scraper API para manejar páginas dinámicas complejas.
- [Lista de instrucciones](/documentation/es/soluciones-de-scraping/web-scraper-api/features/js-rendering-and-browser-control/browser-instructions/list-of-instructions.md): Explora las instrucciones de navegación disponibles para automatizar la navegación dinámica con Web Scraper API.
- [Custom Parser](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser.md): Consulta los pasos para un inicio rápido con Oxylabs Custom Parser.
- [Primeros pasos](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/getting-started.md): Aprende a usar Oxylabs Custom Parser. En esta página encontrarás ejemplos completos, consejos y detalles sobre qué sucede si el análisis falla.
- [Generación de instrucciones de análisis mediante API](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/generating-parsing-instructions-via-api.md): Mira cómo puedes generar analizadores automáticamente enviando solicitudes a la API.
- [Preajustes del analizador](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/parser-presets.md): Descubre cómo funcionan los preajustes del analizador y cómo usarlos en tus trabajos de scraping.
- [Escribir instrucciones manualmente](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually.md): Mira cómo escribir instrucciones de análisis manualmente para manejar casos límite o personalizar la lógica de análisis.
- [Ejemplos de instrucciones de análisis](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/parsing-instruction-examples.md): Mira ejemplos prácticos de instrucciones de análisis para Custom Parser: manejar objetos anidados, listas, errores y arreglos de arreglos.
- [Consejos para escribir expresiones XPath](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/tips-for-writing-xpath-expressions.md): Aprende a escribir expresiones XPath efectivas para Custom Parser con técnicas comprobadas y buenas prácticas que garantizan una extracción de datos precisa.
- [Lista de funciones de análisis](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/list-of-functions.md): Descubre la lista completa de funciones compatibles con Custom Parser: regex, XPath, CSS y más.
- [Ejemplos de funciones de análisis](/documentation/es/soluciones-de-scraping/web-scraper-api/features/custom-parser/writing-instructions-manually/list-of-functions/function-examples.md): Ejemplos prácticos de funciones de Custom Parser para procesamiento de HTML, manipulación de cadenas, operaciones matemáticas y tareas comunes de análisis.
- [Procesamiento y almacenamiento de resultados](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage.md): Descripción general de cómo Web Scraper API maneja los datos extraídos. Lee sobre analizadores dedicados, descarga de imágenes, almacenamiento en la nube y tipos de salida.
- [Analizadores dedicados](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/dedicated-parsers.md): Habilita analizadores dedicados en Web Scraper API de Oxylabs estableciendo \`parse=true\`. Salida JSON estructurada para objetivos compatibles como Amazon, Google, Walmart y más.
- [Agregador de resultados](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/result-aggregator.md): Aprende a devolver múltiples respuestas de Web Scraper API como una única salida más grande usando Result Aggregator.
- [Almacenamiento en la nube](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/cloud-storage.md): Recupera tus resultados extraídos directamente en tu almacenamiento S3, GCS, OSS u otro compatible con S3.
- [Plantillas de nombres de archivo](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/cloud-storage/file-name-templating.md): Aprende a especificar nombres de archivo para los resultados entregados a tu almacenamiento en la nube.
- [Tipos de salida](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types.md): Descubre los distintos tipos de salida en Web Scraper API de Oxylabs: Markdown, salida multiformato y opciones de captura XHR.
- [Captura de solicitudes de red (Fetch/XHR)](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/capturing-network-requests-fetch-xhr.md): Obtén actividad de red desde Web Scraper API usando la bandera XHR. Recupera todas las solicitudes Fetch/XHR realizadas durante la carga de la página como JSON estructurado para facilitar la extracción de datos.
- [Salida Markdown](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/markdown-output.md): Solicita salida con formato markdown de Web Scraper API de Oxylabs estableciendo \`"markdown": true\` en tu carga útil; ideal para flujos de trabajo de IA y contenido ligero.
- [Salida multiformato](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/multi-format-output.md): Mira cómo obtener más de un formato de salida con una sola llamada a la API.
- [Descargar imágenes](/documentation/es/soluciones-de-scraping/web-scraper-api/features/result-processing-and-storage/output-types/download-images.md)
- [Contexto HTTP y gestión de trabajos](/documentation/es/soluciones-de-scraping/web-scraper-api/features/http-context-and-job-management.md): Descripción general de la gestión del contexto HTTP (encabezados, cookies, método, user-agent) y la gestión de trabajos mediante Web Scraper API.
- [Encabezados, cookies, método](/documentation/es/soluciones-de-scraping/web-scraper-api/features/http-context-and-job-management/headers-cookies-method.md): Descubre cómo personalizar encabezados, cookies o el método HTTP al hacer scraping con Web Scraper API.
- [Tipo de User-Agent](/documentation/es/soluciones-de-scraping/web-scraper-api/features/http-context-and-job-management/user-agent-type.md): Elige entre múltiples preajustes de User-Agent para simular diferentes dispositivos para solicitudes de scraping.
- [Notas del cliente](/documentation/es/soluciones-de-scraping/web-scraper-api/features/http-context-and-job-management/client-notes.md): Aprende a añadir nodos del cliente al enviar un trabajo mediante el endpoint \`v1/queries\`.
- [Scheduler](/documentation/es/soluciones-de-scraping/web-scraper-api/features/scheduler.md): Automatiza trabajos de scraping recurrentes con el Scheduler gratuito en Web Scraper API. Configura la frecuencia con cron, especifica elementos del trabajo y hora de finalización, y supervisa ejecuciones mediante endpoints dedicados.
