Comment évaluer sans mesurer ? La mesure de la biodiversité demeure un exercice difficile mais pourtant rendu nécessaire. Cette difficulté tient essentiellement à l'objet même de la biodiversité (diversité des espèces et des milieux, diversité des méthodes d'évaluation, diversité des suivis…). L'auteur nous livre quelques unes de ses réflexions à ce sujet.

L'importance de la qualité de la mesure est reconnue depuis longtemps dans l'industrie : un pan entier de la certification y est consacré, cette exigence s'étend à d'autres secteurs, dont, de plus en plus, le domaine environnemental. Un exemple de normalisation concernant la biodiversité est l'indice biologique global normalisé (IBGN) qui rend compte de la qualité hydro-biologique d’un cours d'eau à travers la composition en espèces des peuplements d’invertébrés aquatiques : cette mesure est ainsi encadrée par la norme AFNOR NF T 90-350.

Néanmoins, la tendance à la normalisation de la mesure n'a que peu touché l'écologie. Plusieurs raisons expliquent ce retard :

  • les écologues sont peut-être réticents à passer d'une pratique « naturaliste », libre et probablement bercée par l'illusion de l'exhaustivité, à une pratique plus quantitative et encadrée, ressentie comme plus contraignante ;
  • les décideurs ont une connaissance limitée de ce qu'est la biodiversité et des moyens pour la mesurer ;
  • les écologues comme les décideurs, n'ont pas pleinement pris conscience de l'utilité, voire de la nécessité, de la standardisation des relevés de biodiversité ;
  • enfin, la mesure est complexe. La biodiversité ne se mesure pas comme on mesure une quantité physique ou chimique, elle est entachée de multiples sources d'imprécision dont certaines sont difficilement maîtrisables. Cette complexité ne favorise pas l'émergence d'un consensus sur les méthodes les plus appropriées.

L'objet de cet article est de rappeler quelques points cruciaux sur les relevés de biodiversité : le manque de standardisation des méthodes, la représentativité taxinomique, les limites à la qualité des mesures et les méthodes proposées pour améliorer les mesures, points qui sont souvent ignorés dans les suivis de biodiversité (Yoccoz et al., 2001). Nous entendrons par « mesure » l'ensemble du processus de quantification de la biodiversité (échantillonnage, protocoles), et pas seulement la mesure elle-même. À propos de biodiversité, il est d'usage de distinguer la diversité génétique (entre individus au sein d'une espèce), spécifique (entre espèces), voire éco-systémique (entre assemblages d'espèces). Dans cet article, nous nous focaliserons surtout sur le niveau de la diversité spécifique, même si les questions abordées valent dans leur grande majorité pour les deux autres niveaux. En outre, nous ne considérerons que les suivis directs de biodiversité, par opposition aux suivis indirects qui visent à mesurer une ressource ou un habitat potentiel (par exemple, surface de pelouses calcaires, volume de bois mort) en lieu et place de la biodiversité elle-même.

Un manque de standardisation des relevés de biodiversité

Les relevés de biodiversité sont relativement récents en France. Leur véritable essor date des années 1960-1970 pour les relevés de communautés végétales ou animales. Jusque-là, les naturalistes réalisaient essentiellement des observations ponctuelles (présence de telle espèce dans telle localité) ou élaboraient des théories sur un ensemble d'observations, mais avec une part laissée à la subjectivité de l'auteur. Ces initiatives ont progressivement permis de réaliser des atlas régionaux et nationaux de répartition de la faune et de la flore. Néanmoins, des notions telles que l'effort d'échantillonnage, la représentativité des habitats échantillonnés, la répétabilité, la puissance statistique sont généralement absents de ces travaux, et de toute façon difficilement maîtrisables. En revanche, les suivis de biodiversité, c'est-à-dire la répétition de relevés au cours du temps sur un même lieu, apparus plus récemment encore, ont eu dès le départ le souci d’intégrer au mieux tous ces éléments, à l'exemple du programme STOC-ESP (suivi temporel des oiseaux communs).  

Faute de consensus dans la communauté scientifique sur les méthodes à employer, il existe pratiquement autant de protocoles d'échantillonnage que de suivis eux-mêmes. Le cas le plus frappant est celui du réseau PIC-Forêt lancé en 1985, sous l'égide de l'UNECE (United Nations Economic Commission for Europe). Ce programme international de coopération a été lancé pour étudier l'effet de la pollution transfrontalière sur les écosystèmes forestiers. Ce réseau comprend deux sous-ensembles de sites ; l'un (niveau II) est constitué de 800 sites dans lesquels de nombreuses mesures physiques et chimiques sont réalisées selon les mêmes protocoles standardisés. Un suivi floristique a été mis en place vers 1995 sur l'ensemble de ces sites. Faute de consensus entre les participants et d’arbitrage, la surface élémentaire des placettes des relevés floristiques variait de 4 000 à 5 500 m², avec parfois même des fluctuations entre placettes d'un même pays ! Or le nombre d'espèces croît très logiquement avec la surface considérée (il existe une riche littérature sur cette relation aire-espèces). Le résultat est que ces données n'ont jamais pu faire l'objet d'analyses conjointes. Il a fallu attendre près de dix ans pour que la volonté de construire un protocole commun soit entièrement partagée par tous les participants et aboutisse finalement au choix d'une surface élémentaire unique – 400 m² dans ce cas – pour suivre les évolutions temporelles de la flore à l’échelle du réseau.

De manière générale, une plus grande standardisation des relevés de biodiversité permettrait pour chacun des sites d'étude (par exemple, une réserve naturelle, une forêt domaniale, etc.) de disposer de références externes (par exemple, toutes les réserves de France). Par ailleurs, la compilation de données comparables permet de répondre à des questions auxquelles les dispositifs pris séparément ne peuvent pas répondre, et ce, sans autre coût que celui de concaténer les bases de données et d’en faire l’analyse. Cette standardisation méthodologique est facilitée par l’émergence de bases de données communes et surtout la mise en place de suivis nationaux, comme les différents programmes de Vigie-Nature pilotés par le Muséum national d'histoire naturelle de Paris. Pour autant, la standardisation des protocoles, toujours souhaitable pour les raisons invoquées, ne saurait nous dispenser d’une évaluation critique de la qualité de la mesure : une méthode standardisée mais produisant des données de piètre qualité ne saurait être recommandée.

Biodiversité et représentativité taxinomique des échantillons

La biodiversité est un terme générique. Dans la réalité, on ne mesure jamais « la » biodiversité, mais seulement une petite partie de cette diversité. Dans le cas de la diversité génétique, la diversité est le plus souvent mesurée à l'échelle d'une espèce, voire même d'une population, et sur une portion restreinte du génome. Si l'on considère la diversité des espèces, la mesure de biodiversité porte typiquement sur un ordre, une famille, parfois même un genre seulement ou un groupe écologique, par exemple, les organismes du bois mort.

Cela n'aurait guère d'importance si les résultats des études ne dépendaient pas des choix opérés. Or la réponse (à un gradient climatique, d’habitat, d’intensité de gestion, etc.) de différents groupes taxonomiques est rarement cohérente entre groupes taxinomiques. Par exemple, la richesse en plantes vasculaires décroît généralement à mesure que vieillissent les peuplements forestiers, tandis que croît celle des organismes saproxyliques, liés aux bois morts et sénescents, comme de nombreux champignons, insectes et vertébrés (photo 1). Même au sein d'un groupe taxinomique, les réponses peuvent être antagonistes. Il faut toujours garder en tête que la réponse d'un groupe taxinomique donné ne vaut pas pour la biodiversité dans son ensemble.

La question de la représentativité de l'échantillon va cependant encore au-delà de ce choix taxinomique. Dans de nombreux cas, seule une partie de la famille ciblée est effectivement échantillonnée. Par exemple, dans le cas des oiseaux, les rapaces et les canards sont très mal échantillonnés par les points d'écoute ; de même, les pièges vitres qui interceptent les insectes en vol ne collectent évidemment que les espèces capables d'atteindre la hauteur du piège.

Exhaustivité, identification et risques pratiques

Biais et précision de la mesure

Une mesure doit être aussi précise et non biaisée que possible. Les deux phénomènes ne sont pas exclusifs, si bien que toute mesure est à la fois en partie imprécise et en partie biaisée (figure 1). L'imprécision et le biais ont cependant des répercussions différentes pour l'analyse des données (Archaux et Bergès, 2008). Dans la philosophie statistique classique (probabiliste ou popperienne en référence au philosophe des sciences autrichien Karl Popper) et sans rentrer dans les détails, l'imprécision des mesures entraîne une perte de puissance statistique, c’est-à-dire qu’elle limite la capacité d’une étude à prouver que le niveau de biodiversité est différent entre habitats, modalités de gestion ou au cours du temps. Pour le décideur, le principal risque est donc de tarder à entreprendre une action corrective, faute d’avoir pu mettre en évidence le problème plus tôt. Ce risque existe également dans le cas de mesures biaisées en masquant des différences bien réelles, mais dans le cas des mesures biaisées, il est également possible que ces biais engendrent des différences du niveau de biodiversité qui n’existent pas en réalité. Le risque devient alors d’entreprendre des mesures correctives inutiles, voire désastreuses. Par exemple, l’estimation de l'abondance des oiseaux communs se fait généralement par point d'écoute. Or le chant porte d'autant moins loin que le milieu est fermé en raison de l'effet de réverbération. De ce fait, l'ornithologue sous-estimera plus l'abondance des oiseaux dans un milieu fermé qu'ouvert, au risque de conclure à des différences là où il n'y a qu’un artefact méthodologique.

Avantages et inconvénients de la richesse spécifique

L'une des mesures les plus utilisées en biodiversité concerne le nombre d'espèces, que l'on nomme également richesse spécifique. Toutes les études réalisées sur cette mesure très appréciée pour sa simplicité, sont arrivées au constat qu’une proportion non négligeable des espèces n’est pas détectée lors des relevés de biodiversité. Ainsi, en moyenne près d’une plante sur cinq est ratée lors de relevés floristiques. Ce chiffre n'est pas très différent de ceux rapportés pour les relevés d'oiseaux par point d'écoute. Le plus préoccupant n'est pas le fait que les relevés ne sont pas exhaustifs, mais que le niveau d'exhaustivité varie entre les modalités que l'on cherche à comparer (par exemple, différents milieux, un même milieu mais différentes années, etc.). Il est possible d’estimer par des simulations le risque de conclure à tort qu'une modalité est plus riche qu’une l'autre du fait de différences de la probabilité de détection : ce risque est loin d’être négligeable même lorsque la probabilité pour détection ne diffère que de quelques pourcents entre les modalités.

Or il y a tout lieu de penser que de telles différences de détectabilité sont monnaie courante dans les études de biodiversité. En effet, quels que soient les groupes taxonomiques (vertébrés, invertébrés, plantes), les différences de détectabilité entre individus ou entre espèces sont souvent de l'ordre de 10 %. Les facteurs qui sont susceptibles de générer ces différences sont multiples. Pour la flore, on peut citer le recouvrement de la plante (une mousse a plus de chance de ne pas être comptabilisée qu'un chêne), l'expérience du botaniste (la proportion d’espèces ratées peut ainsi varier de 10 et 40 % selon les botanistes), le nombre de personnes réalisant conjointement le relevé (deux personnes réunies, même si l’une n’est pas botaniste, font des relevés plus exhaustifs que des botanistes seuls), le temps de mesure (le nombre d’espèces détectées croît de manière logarithmique avec le temps consacré au relevé), la fatigue et l’entraînement des équipes (Archaux et al., 2009). La météo et surtout la période à laquelle le relevé est effectué ont sans doute aussi un impact. À ces erreurs de détection s’ajoutent parfois également des erreurs d’identification (probablement moins d’un pourcent des espèces notées) et dont le risque diminue le plus souvent avec l’expérience du botaniste. L'effet opérateur est un problème particulièrement préoccupant pour les suivis à long-terme, où les opérateurs gagnent progressivement en expérience et où différents opérateurs se succèdent logiquement au cours du temps.

Pour les familles qui sont repérées par un comportement tel que chant des oiseaux, insectes en déplacement, d'autres facteurs se surimposent. C'est le cas notamment des conditions climatiques : les jours froids et pluvieux, les oiseaux chantent moins, les chauves-souris – qui sont essentiellement identifiées à leurs émissions ultrasonores – chassent moins, les insectes se déplacent moins. Chez ces derniers, même pour les dispositifs de piégeage qui en théorie éliminent les effets opérateurs (pièges à interception ou attractifs), on peut également citer comme facteur d'erreurs le type de piège, la hauteur du piège et l'ouverture du milieu (qui font varier le degré de chevauchement entre l’espace de piégeage et l’espace de vol des espèces), les substances attractives utilisées et malgré tout certainement un effet opérateur lors de la pose des pièges. Un entomologiste expérimenté a de meilleures chances d’identifier les couloirs préférentiels de circulation de l’entomofaune, ce qui doit se traduire par un piégeage plus efficace (photo 2).

Avantages et inconvénients des indices « moyennés »

Cette sensibilité de la mesure de la richesse spécifique à une multitude de facteurs a conduit certains auteurs à lui préférer d'autres indices « moyennés » sur l'ensemble des espèces détectées. De la sorte, il suffit en principe d'avoir un échantillon d'espèces représentatif de la communauté pour calculer sans biais cet indice moyenné. Le degré de spécialisation moyen des communautés d'oiseaux constitue un des indices (Devictor et al., 2009). L'argument sous-jacent est qu'une communauté dominée par des espèces spécialistes est préférable à une communauté dominée par des espèces généralistes. Un indice de spécialisation a été affecté à l'échelle nationale à chaque espèce d'oiseau commun, lequel permet d'ordonner les espèces selon un gradient allant d’espèces spécialistes – exigeant des habitats spécifiques – aux espèces généralistes tolérant une gamme élargie d'habitats. Il suffit alors de calculer la moyenne arithmétique de cet indice sur toutes les espèces détectées en un lieu pour estimer le degré moyen de spécialisation à l'échelle de la communauté. Cette approche n'échappe cependant pas aux critiques formulées sur la richesse spécifique si la probabilité de détection varie selon le degré de spécialisation des espèces. Par exemple, une espèce spécialiste peut être moins fréquemment détectée qu'une espèce généraliste. Il existe des indices moyens analogues chez les invertébrés (IBGN) ou la flore (valeurs indicatrices d'Ellenberg). Toutefois, ils renseignent plus sur la qualité de l'habitat que sur la biodiversité elle-même.

Ces indices moyens ne peuvent néanmoins pas se substituer aux indices absolus comme la richesse spécifique. Par exemple, considérons deux situations : dans un cas, une communauté s'est enrichie en espèces, mais un peu plus au profit des généralistes que des spécialistes. Dans l'autre, la communauté s'est appauvrie dans des proportions similaires entre espèces spécialistes et généralistes. Dans le premier cas, l'indice de spécialisation de la communauté a baissé alors qu'il est resté stable dans le second cas. À la seule lecture de cet indice, on conclurait un peu vite que l'évolution de la communauté est plus préoccupante dans le premier cas que le second, alors qu'à l'évidence, c'est l'inverse. Indices moyens et absolus sont donc plus complémentaires que concurrents, d'autant que les indices moyens n'échappent pas nécessairement aux biais d'échantillonnage.

Prise en compte des sources d'erreur

Des méthodes permettent de corriger les données pour la non-exhaustivité des relevés. Historiquement, ces méthodes ont été développées à partir des années 1930-1950 pour le baguage d'oiseaux. Le baguage consiste à capturer, marquer et recapturer des individus à différentes occasions, de façon à estimer des paramètres biologiques tels que l'espérance de vie, la fidélité au site et la taille de la population. Or le fait de ne pas capturer un oiseau à une occasion donnée ne signifie pas nécessairement qu'il est mort, il peut également avoir échappé à la capture. Un arsenal statistique a alors été développé pour distinguer probabilité de survie et probabilité de détection. Pour appliquer ces outils, il faut nécessairement multiplier les relevés localement (autant d'occasions de capture). Les premières applications de ces méthodes en écologie des communautés datent de la fin des années 1990, en faisant le parallèle entre les individus et les espèces, dans la perspective d'estimer non plus un nombre d'individus mais d'espèces et des paramètres tels que les taux de colonisation et d'extinction locale (Yoccoz et al., 2001). On peut ainsi augmenter le nombre d'occasions de captures en passant plusieurs fois sur le même site, ou en disposant plusieurs pièges, ou en faisant intervenir plusieurs naturalistes en même temps mais sans qu'ils communiquent entre eux car leurs relevés doivent être indépendants. Ces méthodes s'avèrent intéressantes si lors d'une visite, les espèces sont détectées avec une probabilité moyenne suffisante (> 30 %). Elles sont par contre très sensibles :

  • aux erreurs de détermination, lesquelles ne sont pas toujours faciles à reconnaître dans un jeu de données ;
  • à l'hétérogénéité de la probabilité de détection entre individus ou espèces.

Malgré ces réserves, il s'agit d'un domaine de recherche en plein essor, qui permet de prendre en compte de plus en plus de variables ainsi que les éventuelles erreurs d'identification, et qui devrait continuer de progresser rapidement.

Pour les oiseaux, une autre stratégie consiste à estimer la distance des mâles chanteurs au point central du relevé. Des modèles liant la probabilité de détection à la distance au point sont ensuite ajustés sur ces données de distance de façon à estimer des densités. Différentes fonctions peuvent être utilisées et les paramètres ajustés permettent de faire décroître la probabilité de détection avec l'éloignement au point central, de façon linéaire ou non, rapide ou lente. Cette méthode peut également s'appliquer aux plantes en parcourant des transects et en mesurant la distance qui sépare chaque spécimen du transect.

Cependant, il ne faut pas oublier que toutes ces méthodes ne sont que des palliatifs, aussi est-il toujours préférable de réduire au maximum le nombre d'erreurs de détection et d'identification lors des relevés.

Analyse des données de biodiversité

De la même façon qu'il y a des avantages à homogénéiser la récolte des données, il y en a également à uniformiser l'analyse statistique de ces données. Bien souvent, l'opérateur souhaitera savoir si les changements qu'il observe chez lui se retrouvent dans les territoires limitrophes. Or il est difficile de faire une comparaison quantitative – et pas seulement qualitative – si différentes méthodes statistiques ont été utilisées. L'idée qu'il est utile de progresser vers une certaine standardisation des analyses des données diffuse de plus en plus au sein de la communauté scientifique, et des organisations non gouvernementales (ONG), telle que l'European Bird Census Council, une ONG danoise, proposent gracieusement en ligne des logiciels dédiés à l'analyse des données de suivi.

Le propos n'est pas ici de livrer une liste des méthodes recommandées. La nature souvent complexe des données de biodiversité milite d'ailleurs pour préserver une certaine diversité de méthodes : les analyses univariées (comme les modèles généralisés hiérarchiques) et multivariées (comme les analyses canoniques) apportent des informations complémentaires plutôt que concurrentes.

Néanmoins, ces méthodes doivent répondre à un cahier des charges précis :

  • le modèle statistique doit prendre en compte la structure spatiale et temporelle du jeu de données ;
  • les hypothèses sous-jacentes (sur la distribution statistique des variables, par exemple) doivent être compatibles avec les données et, si ce n'est pas le cas, les résultats des analyses doivent être robustes au non-respect de ces hypothèses ;
  • les résultats doivent être interprétables sans ambigüité ;
  • l'analyse doit être facile à réaliser.

Si pour l'essentiel, il nous semble que l'arsenal statistique existant est suffisamment fourni, des progrès restent à apporter sur certains points.

Conclusion : quelles répercussions pour les politiques publiques ?

Il semble plus que jamais urgent de bâtir un programme concerté de suivis de biodiversité dont la cohérence permettra de juger de l'impact de différentes politiques publiques et de l'efficacité de mesures compensatoires. Devant les difficultés que nous venons d'évoquer, il pourrait être tentant de renoncer purement et simplement aux suivis de biodiversité pour l'élaboration et l'évaluation des politiques publiques

Les suivis indirects des ressources utilisées par la biodiversité sont une alternative crédible aux suivis directs des taxons eux-mêmes, surtout si, aux difficultés purement techniques énoncées plus haut à l'égard des suivis directs, on ajoute les coûts et les compétences requises. Pour autant, les suivis indirects ne peuvent à eux seuls se substituer aux suivis directs car la relation causale entre niveau de ressource(s) et niveau de biodiversité n'est pas toujours tranchée, ni probablement constante dans le temps et l'espace : il faut certainement mieux viser une complémentarité entre des suivis indirects à grande échelle et des suivis directs plus ciblés. En outre, les gestionnaires et les politiques sont certainement plus sensibles aux indicateurs directs de biodiversité (par exemple, déclin des pics) qu'aux indicateurs indirects (par exemple, baisse du volume de bois mort en forêt).

La mise en place d'un suivi direct de biodiversité nécessite de lui assigner des objectifs minimaux (par exemple, pouvoir mettre en évidence des évolutions supérieures à 10 % de la richesse spécifique moyenne). À partir de ces objectifs, il est possible d'optimiser le suivi de façon à remplir ces objectifs, en termes de nombre de sites, de nombre de visites, pièges, etc. (Archaux et Bergès, 2008). Il est absolument indispensable d'imposer un protocole rigoureux qui limite au maximum les dérives. Pour la flore, on peut citer entre autres la nécessité de fixer la surface prospectée, le temps passé, la période de l'année. Sauf exception, il est préférable de se raccrocher à des protocoles existants, de sorte qu'ils servent progressivement de référence à des études ultérieures dans le cadre d'un processus graduel de standardisation. Cet effort de cohérence doit être vu à l'échelle européenne et pas seulement nationale. À cet égard, certains suivis scientifiques, tels que celui de la flore forestière au sein du réseau Renecofor (Réseau national de suivi à long terme des écosystèmes forestiers), intègrent des exercices de calibration qui permettent de limiter les effets opérateurs, en particulier pour l’estimation visuelle du recouvrement des plantes et pour l’attribution des plantes aux différentes strates de végétation. Il serait en effet utile de normaliser les protocoles de suivis de la biodiversité. Il existe déjà des initiatives coordonnées allant vers une harmonisation des méthodes (Nageleisen et Bouget, 2010), dont la normalisation constituerait l'achèvement.

Les suivis participatifs ont évidemment toute leur place dans ce processus. Malgré certaines limites inhérentes à tout programme basé sur la participation de volontaires, le suivi national des oiseaux communs STOC-EPS a démontré son utilité à la fois comme réseau d'alerte (sur la diminution des oiseaux des milieux agricoles par exemple), et comme source de connaissances nouvelles, notamment sur l'effet du changement climatique et de la fragmentation des milieux naturels, sans parler de son probable effet pédagogique puisque plusieurs centaines d'ornithologues amateurs participent chaque année au suivi. Pour autant, il semble peu probable de développer à court terme un suivi participatif analogue pour la flore et les insectes. Or il existe déjà des structures nationales qui ont les capacités de conduire des suivis scientifiques sur ces groupes et qui le font déjà en partie pour certaines (par exemple les conservatoires botaniques régionaux, l'Inventaire forestier national, le département « Santé des forêts »).

Dans un pays comme la France où la pratique naturaliste est assez peu développée, au moins par comparaison à des voisins comme la Grande-Bretagne, les personnes à même de réaliser ces suivis sont peu nombreuses (photo 3) et leur nombre tend même à décroître pour certains groupes taxinomiques, à l’exemple des mousses (bryophytes), champignons (mycètes) et de nombreuses familles d’insectes. Si l'on souhaite former les référents nationaux de demain, capables de piloter ces suivis, il est indispensable d’encourager la pratique naturaliste en France (à l’école, dans les universités).

Pour citer cet article :

Référence électronique :
ARCHAUX, Frédéric, Réflexions méthodologiques sur les relevés et les suivis de biodiversité, Revue Science Eaux & Territoires, Politiques publiques et biodiversité, numéro 03, 2010, p. 70-75, 22/10/2010. Disponible en ligne sur <URL : http://www.set-revue.fr/reflexions-methodologiques-sur-les-releves-et-les-suivis-de-biodiversite> (consulté le 08/08/2020), DOI : 10.14758/SET-REVUE.2010.3.14.

Ajouter un commentaire

Télécharger au format PDF
↑ Haut de page