Hello !
Je ne sais pas vous, mais je suis en GIGA forme aujourd’hui.
Alors, on se retrousse les manches et on va voir ensemble comment mettre en place votre tout premier module de scraping.
Libre à vous d’en faire ce que vous voulez.
Veille concurrentielle
Optimisation SEO
Prospection…
La seule limite : votre IMAGINAIRE.
Allez let’s goooo !
🚀 Étape 1: Rendez-vous sur https://rapidapi.com/restyler/api/scrapeninja/
Créer un compte et suivez ce petit tuto :
🚀 Étape 2: Copier votre clé API
🚀 Étape 3 : Créez un nouveau scenario sur Make et établissez une connexion avec ScrapeNinja en collant votre clé API
Ouvrir un module ScrapeNinja
Add une connexion
Coller votre Clé API
🚀 Étape 4 : Copier/coller le script ci-dessous dans la case “Extractor”
function extractData(input, cheerio) {
const $ = cheerio.load(input);
const data = {
title: $('title').text().trim(),
metaDescription: $('meta[name="description"]').attr('content'),
metaImage: $('meta[property="og:image"]').attr('content'),
headings: [],
paragraphs: [],
images: []
};
$('h1, h2, h3, h4, h5, h6').each(function() {
const heading = $(this).text().trim();
if (heading) data.headings.push(heading);
});
$('p').each(function() {
const paragraph = $(this).text().trim();
if (paragraph) data.paragraphs.push(paragraph);
});
$('img').each(function() {
const src = $(this).attr('src');
if (src) {
const absoluteSrc = src.startsWith('http') ? src : new URL(src, 'insérer le lien du site web').href;
data.images.push(absoluteSrc);
}
});
return data;
}
Ce script permet de recueillir les informations principales du site web (sur la première page).
Et voilà, vous avez mis en place votre premier module de scraping sur Make.
Bien évidemment, il existe de nombreuses autres solutions plus complexes.
Mais l’idée de cette newsletter, c’est de rendre accessible ce qui semble complexe au plus grand nombre.
Avoir un minimum d’autonomie et de compréhension sur ses propres automatisations, même quand on passe par un prestataire externe, est primordiale.
Voici un exemple d’automatisation de scraping basée sur l’IA que j’ai mis en place récemment pour un client.
L’idée est simple ici : aider les Sales à préparer leur R1 en partant d’un formulaire Hubspot rempli par le prospect avec ses infos.
À partir de ces infos, on en retire un nom de domaine pour aller scraper le site web de l’entreprise.
Simple
Efficace
Cela fait gagner un temps fou aux sales qui n’ont plus qu’à relire le résumé du scraping directement sur leur CRM.
Si vous faites marcher votre créativité, vous pouvez vraiment gagner des heures chaque mois grâce au scraping.
Et voilà !
C’est tout pour l’édition de cette semaine.
N’hésitez pas à laisser un petit ❤️
Votre engagement m'aide à partager plus de conseils pour vous garder en tête du peloton.
Mélissa.