Objetivo genérico
Ve cómo se verían tus solicitudes con la fuente universal.
Raspa otros sitios web (Home Depot, Idealo, Zillow, Yandex, Baidu, etc.) con nuestro fuente universal fuente. Acepta URLs junto con parámetros adicionales.
Solicitar ejemplos
En este ejemplo, la API recuperará una página de producto de comercio electrónico.
curl 'https://realtime.oxylabs.io/v1/queries' \
--user 'USERNAME:PASSWORD' \
-H 'Content-Type: application/json' \
-d '{
"source": "universal",
"url": "https://sandbox.oxylabs.io/products/1"
}'import requests
from pprint import pprint
# Estructurar payload.
payload = {
'source': 'universal',
'url': 'https://sandbox.oxylabs.io/products/1',
}
# Obtener respuesta.
response = requests.request(
'POST',
'https://realtime.oxylabs.io/v1/queries',
auth=('USERNAME', 'PASSWORD'),
json=payload,
)
json=payload
# En lugar de una respuesta con el estado del trabajo y la URL de resultados, esto devolverá la
pprint(response.json())Usamos el método de integración síncrono Realtime en nuestros ejemplos. Si desea usar Proxy Endpoint o asíncrono Push-Pull para la integración, consulte los métodos de integración sección.
Valores de parámetros de la solicitud
Genérico
source
Establece el scraper.
fuente universal
url
URL directa (enlace) a cualquier página.
-
- parámetro obligatorio
Adicional
Estos son los parámetros de nuestro funciones.
geo_location
Establece la ubicación geográfica del proxy para recuperar datos. Encuentra las ubicaciones compatibles aquí.
-
user_agent_type
Activa el renderizado de JavaScript cuando se establece en html. Más información. NOTA: Si observa bajas tasas de éxito o recupera contenido vacío, intente agregar este parámetro.
-
browser_instructions
Defina sus propias instrucciones del navegador que se ejecutan al renderizar JavaScript. Más información.
-
parse
Devuelve datos parseados cuando se establece en true, siempre que exista un analizador dedicado para el tipo de página de la URL enviada.
false
parsing_instructions
Defina su propia lógica de análisis y transformación de datos que se ejecutará sobre un resultado de raspado HTML. Lea más: Ejemplos de instrucciones de análisis.
-
context:
session_id
Si desea usar el mismo proxy con múltiples solicitudes, puede hacerlo usando este parámetro. Solo establezca su sesión en cualquier cadena que desee, y asignaremos un proxy a este ID y lo mantendremos hasta por 10 minutos. Después de eso, si realiza otra solicitud con el mismo ID de sesión, se asignará un nuevo proxy a ese ID de sesión en particular.
-
context:
http_method
Establecer en post si desea hacer una POST solicitud a su URL objetivo vía E-commerce Scraper API. Aprenda más aquí.
get
context:
contenido
Codificado en Base64 POST cuerpo de la solicitud. Solo es útil si http_method está configurado a post.
-
context:
follow_redirects
Establecer en true para permitir que el scraper siga redirecciones. Por defecto, las redirecciones se siguen hasta un límite de 10 enlaces, tratando toda la cadena como un único trabajo de raspado.
true
context:
successful_status_codes
Defina un código de respuesta HTTP personalizado (o varios), sobre los cuales deberíamos considerar el raspado exitoso y devolverle el contenido. Puede ser útil si desea que devolvamos la página de error 503 o en otros casos no estándar.
-
Todos los parámetros
En este ejemplo, se incluyen todos los parámetros disponibles (aunque no siempre sean necesarios o compatibles dentro de la misma solicitud), para darle una idea de cómo formatear sus solicitudes.
Última actualización
¿Te fue útil?

