Formación de solicitudes
Aprende a formar solicitudes de Web Scraper API para motores de búsqueda, marketplaces y otros sitios web. Incluye ejemplos de código y guía de parámetros.
Lea guías detalladas sobre cómo empezar y hacer solicitudes usando Web Scraper API para diferentes sitios web.
Motores de búsqueda
que quieras.
Seleccione el motor de búsqueda que desea raspar: Google, Bing, Otros motores de búsqueda.
o escribe a nuestro soporte en chat en vivo 24/7.
curl 'https://realtime.oxylabs.io/v1/queries' \
--user 'USERNAME:PASSWORD' \
-H 'Content-Type: application/json' \
-d '{
"source": "google_search",
"query": "adidas"
}'import requests
from pprint import pprint
# Estructurar payload.
payload = {
'source': 'google_search',
'query': 'adidas',
}
# Obtener respuesta.
response = requests.request(
'POST',
'https://realtime.oxylabs.io/v1/queries',
auth=('USERNAME', 'PASSWORD'),
json=payload,
)
# Imprimir la respuesta formateada en stdout.
pprint(response.json())Usamos el método de integración síncrono Realtime en nuestros ejemplos. Si desea usar Proxy Endpoint o asíncrono Push-Pull para la integración, consulte los métodos de integración sección.
Formando una solicitud
Elija su método de integración: síncrono (Realtime, Proxy Endpoint) o asíncrono (Push-Pull).
Al formar una solicitud, incluya los siguientes elementos:
Endpoint:
Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Carga (payload):
source- Este parámetro define el scraper que se usará para procesar tu solicitud.URLoquery- Proporciona elURLoquerypara el tipo de página que deseas extraer. Consulta la tabla a continuación y las subpáginas objetivo correspondientes para obtener una guía detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse,user_agent_typey más para personalizar su solicitud de scraping.
Endpoint:
Ignorar certificados. En
cURL, es-ko--insecure.Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Carga (payload):
URL- Proporciona elURLpara la página que desea raspar.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse, y envíelos como encabezados.
Endpoint:
Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Carga (payload):
source- Este parámetro define el scraper que se usará para procesar tu solicitud.URLoquery- Proporciona elURLoquerypara el tipo de página que deseas extraer. Consulta la tabla a continuación y las subpáginas objetivo correspondientes para obtener una guía detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse, y más para personalizar su solicitud de scraping.
Al enviar una solicitud, recibirá rápidamente una respuesta JSON que contiene todos los detalles del trabajo, incluidos los parámetros del trabajo, el ID del trabajo y las URL para descargar los resultados:
google
google_search,
google_ads,
google_lens,
google_maps,
google_travel_hotels,
google_suggest,
google_trends_explore
Mercados
que quieras.
Seleccione el mercado en línea que desea raspar: Amazon, Google Shopping, Walmart, Best Buy, Etsy, Objetivo, Otros sitios web.
o escribe a nuestro soporte en chat en vivo 24/7.
Usamos el método de integración síncrono Realtime en nuestros ejemplos. Si desea usar Proxy Endpoint o asíncrono Push-Pull para la integración, consulte los métodos de integración sección.
Formando una solicitud
Elija su método de integración: síncrono (Realtime, Proxy Endpoint) o asíncrono (Push-Pull).
Al formar una solicitud, incluya los siguientes elementos:
Endpoint:
Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Carga (payload):
source- Este parámetro define el scraper que se usará para procesar tu solicitud.URLoquery- Proporciona elURLoquerypara el tipo de página que deseas extraer. Consulta la tabla a continuación y las subpáginas objetivo correspondientes para obtener una guía detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse,user_agent_typey más para personalizar su solicitud de scraping.
Endpoint:
Ignorar certificados. En
cURL, es-ko--insecure.Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Carga (payload):
URL- Proporciona elURLpara la página que desea raspar.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse, y envíelos como encabezados.
Endpoint:
Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Carga (payload):
source- Este parámetro define el scraper que se usará para procesar tu solicitud.URLoquery- Proporciona elURLoquerypara el tipo de página que deseas extraer. Consulta la tabla a continuación y las subpáginas objetivo correspondientes para obtener una guía detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse, y más para personalizar su solicitud de scraping.
Al enviar una solicitud, recibirá rápidamente una respuesta JSON que contiene todos los detalles del trabajo, incluidos los parámetros del trabajo, el ID del trabajo y las URL para descargar los resultados:
amazon
amazon_product,
amazon_search,
amazon_pricing,
amazon_sellers,
amazon_bestsellers,
amazon_questions
fuente universal
Usar query parámetro no es compatible
Otros sitios web
que quieras.
Raspe cualquier URL con nuestro fuente universal source. También puede agregar parámetros adicionales.
o escribe a nuestro soporte en chat en vivo 24/7.
Usamos el método de integración síncrono Realtime en nuestros ejemplos. Si desea usar Proxy Endpoint o asíncrono Push-Pull para la integración, consulte los métodos de integración sección.
Formando una solicitud
Elija su método de integración: síncrono (Realtime, Proxy Endpoint) o asíncrono (Push-Pull).
Al formar una solicitud, incluya los siguientes elementos:
Endpoint:
Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload.
source- Este parámetro define el scraper que se usará para procesar tu solicitud.URL- Proporciona elURLdel objetivo que desea raspar, por ejemplo:Bienes raíces: Idealista, Redfin, Zillow, Zoopla
Viajes: Airbnb, Agoda, Booking, TripAdvisor
Automotriz: Crunchbase, ZoomInfo, AngelList, Product Hunt
Datos de empresas: Netflix, SoundCloud, YouTube, IMDb
Entretenimiento: AutoEurope, Autotrader, RockAuto, Halfords
Cualquier otro.
Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type, y más para personalizar su solicitud de scraping.
Endpoint:
Ignorar certificados. En
cURL, es-ko--insecure.Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Carga (payload):
URL- Proporciona elURLpara la página que desea raspar, por ejemplo:Bienes raíces: Idealista, Redfin, Zillow, Zoopla
Viajes: Airbnb, Agoda, Booking, TripAdvisor
Automotriz: Crunchbase, ZoomInfo, AngelList, Product Hunt
Datos de empresas: Netflix, SoundCloud, YouTube, IMDb
Entretenimiento: AutoEurope, Autotrader, RockAuto, Halfords
Cualquier otro.
Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type, y envíelos como encabezados.
Endpoint:
Nombre de usuario y contraseña (HTTP authentication). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
PASSWORD Si necesitas más de un usuario API para tu cuenta, por favor contacta con nuestro soporte al cliente
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload.
source- Este parámetro define el scraper que se usará para procesar tu solicitud.URL- Proporciona elURLdel objetivo que desea raspar, por ejemplo:Bienes raíces: Idealista, Redfin, Zillow, Zoopla
Viajes: Airbnb, Agoda, Booking, TripAdvisor
Automotriz: Crunchbase, ZoomInfo, AngelList, Product Hunt
Datos de empresas: Netflix, SoundCloud, YouTube, IMDb
Entretenimiento: AutoEurope, Autotrader, RockAuto, Halfords
Cualquier otro.
Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type, y más para personalizar su solicitud de scraping.
Al enviar una solicitud, recibirá rápidamente una respuesta JSON que contiene todos los detalles del trabajo, incluidos los parámetros del trabajo, el ID del trabajo y las URL para descargar los resultados:
Última actualización
¿Te fue útil?

