Formación de solicitudes
Aprende cómo formar solicitudes de Web Scraper API para motores de búsqueda, marketplaces y otros sitios web. Incluye ejemplos de código y orientación sobre parámetros.
Lea guías detalladas sobre cómo comenzar y realizar solicitudes usando Web Scraper API para diferentes sitios web.
Motores de búsqueda
Empezando
Seleccione el motor de búsqueda que desea raspar: Google, Bing, Otros motores de búsqueda.
Ejemplo de solicitud
curl 'https://realtime.oxylabs.io/v1/queries' \
--user 'USERNAME:PASSWORD' \
-H 'Content-Type: application/json' \
-d '{
"source": "google_search",
"query": "adidas"
}'import requests
from pprint import pprint
# Estructurar payload.
payload = {
'source': 'google_search',
'query': 'adidas',
}
# Obtener respuesta.
response = requests.request(
'POST',
'https://realtime.oxylabs.io/v1/queries',
auth=('USERNAME', 'PASSWORD'),
json=payload,
)
# Imprimir la respuesta formateada en stdout.
pprint(response.json())Usamos el método de integración Realtime síncrono en nuestros ejemplos. Si desea usar Proxy Endpoint o integración asíncrona Push-Pull consulte los métodos de integración sección.
Formando una solicitud
Elija su método de integración: síncrono (Realtime, Proxy Endpoint) o asíncrono (Push-Pull).
Al formar una solicitud, incluya los siguientes elementos:
Endpoint:
Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload:
source- Este parámetro establece el scraper que se usará para procesar su solicitud.URLoquery- Proporcione elURLoquerypara el tipo de página que desea raspar. Consulte la tabla a continuación y las subpáginas objetivo correspondientes para obtener orientación detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse,rendery más para personalizar su solicitud de scraping.
Endpoint:
Ignorar certificados. En
cURLes-ko--insecure.Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Payload:
URL- Proporcione elURLpara la página que desea raspar.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse, y envíelos como encabezados.
Endpoint:
Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload:
source- Este parámetro establece el scraper que se usará para procesar su solicitud.URLoquery- Proporcione elURLoquerypara el tipo de página que desea raspar. Consulte la tabla a continuación y las subpáginas objetivo correspondientes para obtener orientación detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parsey más para personalizar su solicitud de scraping.
Al enviar una solicitud, recibirá rápidamente una respuesta JSON con todos los detalles del trabajo, incluidos los parámetros del trabajo, el ID del trabajo y las URL para descargar los resultados del trabajo:
google
google_search,
google_ads,
google_lens,
google_maps,
google_travel_hotels,
google_trends_explore
Mercados
Empezando
Seleccione el mercado en línea que desea raspar: Amazon, Google Shopping, Walmart, Best Buy, Etsy, Objetivo, Otros sitios web.
Ejemplo de solicitud
Usamos el método de integración Realtime síncrono en nuestros ejemplos. Si desea usar Proxy Endpoint o integración asíncrona Push-Pull consulte los métodos de integración sección.
Formando una solicitud
Elija su método de integración: síncrono (Realtime, Proxy Endpoint) o asíncrono (Push-Pull).
Al formar una solicitud, incluya los siguientes elementos:
Endpoint:
Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload:
source- Este parámetro establece el scraper que se usará para procesar su solicitud.URLoquery- Proporcione elURLoquerypara el tipo de página que desea raspar. Consulte la tabla a continuación y las subpáginas objetivo correspondientes para obtener orientación detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse,rendery más para personalizar su solicitud de scraping.
Endpoint:
Ignorar certificados. En
cURLes-ko--insecure.Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Payload:
URL- Proporcione elURLpara la página que desea raspar.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parse, y envíelos como encabezados.
Endpoint:
Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload:
source- Este parámetro establece el scraper que se usará para procesar su solicitud.URLoquery- Proporcione elURLoquerypara el tipo de página que desea raspar. Consulte la tabla a continuación y las subpáginas objetivo correspondientes para obtener orientación detallada sobre cuándo usar cada parámetro.Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type,parsey más para personalizar su solicitud de scraping.
Al enviar una solicitud, recibirá rápidamente una respuesta JSON con todos los detalles del trabajo, incluidos los parámetros del trabajo, el ID del trabajo y las URL para descargar los resultados del trabajo:
amazon
amazon_product,
amazon_search,
amazon_pricing,
amazon_sellers,
amazon_bestsellers,
amazon_questions
Otros sitios web
Empezando
Raspe cualquier URL con nuestro universal source. También puede agregar parámetros adicionales.
Ejemplo de solicitud
Usamos el método de integración Realtime síncrono en nuestros ejemplos. Si desea usar Proxy Endpoint o integración asíncrona Push-Pull consulte los métodos de integración sección.
Formando una solicitud
Elija su método de integración: síncrono (Realtime, Proxy Endpoint) o asíncrono (Push-Pull).
Al formar una solicitud, incluya los siguientes elementos:
Endpoint:
Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload.
source- Este parámetro establece el scraper que se usará para procesar su solicitud.URL- Proporcione elURLdel objetivo que desea raspar, por ejemplo:Bienes raíces: Idealista, Redfin, Zillow, Zoopla
Viajes: Airbnb, Agoda, Booking, TripAdvisor
Automotriz: Crunchbase, ZoomInfo, AngelList, Product Hunt
Datos de la empresa: Netflix, SoundCloud, YouTube, IMDb
Entretenimiento: AutoEurope, Autotrader, RockAuto, Halfords
Cualquier otro.
Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_typey más para personalizar su solicitud de scraping.
Endpoint:
Ignorar certificados. En
cURLes-ko--insecure.Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Payload:
URL- Proporcione elURLpara la página que desea raspar, por ejemplo:Bienes raíces: Idealista, Redfin, Zillow, Zoopla
Viajes: Airbnb, Agoda, Booking, TripAdvisor
Automotriz: Crunchbase, ZoomInfo, AngelList, Product Hunt
Datos de la empresa: Netflix, SoundCloud, YouTube, IMDb
Entretenimiento: AutoEurope, Autotrader, RockAuto, Halfords
Cualquier otro.
Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_type, y envíelos como encabezados.
Endpoint:
Nombre de usuario y contraseña (Autenticación HTTP). Cree credenciales de usuario API ya sea durante su registro de prueba o compra del producto.
Si necesita más de un usuario API para su cuenta, por favor contacte a nuestro soporte al cliente o envíe un mensaje a nuestro soporte de chat en vivo 24/7.
Content-type. Al enviar trabajos, siempre agregue este encabezado:
Payload.
source- Este parámetro establece el scraper que se usará para procesar su solicitud.URL- Proporcione elURLdel objetivo que desea raspar, por ejemplo:Bienes raíces: Idealista, Redfin, Zillow, Zoopla
Viajes: Airbnb, Agoda, Booking, TripAdvisor
Automotriz: Crunchbase, ZoomInfo, AngelList, Product Hunt
Datos de la empresa: Netflix, SoundCloud, YouTube, IMDb
Entretenimiento: AutoEurope, Autotrader, RockAuto, Halfords
Cualquier otro.
Parámetros adicionales: Opcionalmente, puede incluir parámetros adicionales como
geo_location,user_agent_typey más para personalizar su solicitud de scraping.
Al enviar una solicitud, recibirá rápidamente una respuesta JSON con todos los detalles del trabajo, incluidos los parámetros del trabajo, el ID del trabajo y las URL para descargar los resultados del trabajo:
Si necesita ayuda para realizar su primera solicitud, no dude en contactarnos a través del chat en vivo disponible 24/7.
Toda la información aquí proporcionada se ofrece "tal cual" y solo con fines informativos. No hacemos ninguna representación y rechazamos toda responsabilidad con respecto a su uso de cualquier información contenida en esta página. Antes de participar en actividades de scraping de cualquier tipo, debe consultar a sus asesores legales y leer cuidadosamente los términos de servicio del sitio web en particular o obtener una licencia de scraping.
Última actualización
¿Te fue útil?

