I. La fiabilité de la méthode d’évaluation contingente.

La fiabilité d’une étude d’évaluation, se fondant sur la MEC, se mesure à la variance des WTP déclarés des personnes interviewées lors du questionnaire de l’évaluation contingente. Elle teste donc la « consistance » et la «reproductibilité » des études utilisant cette MEC. La variance des réponses peut s’expliquer à la fois par un variable aléatoire erronée, par un mauvais échantillon sélectionné (lien avec la partie de Pierre), ou par les biais du questionnaire ou de l’interview. Ainsi les biais intrasèques à la MEC peuvent être des causes de non fiabilité des études l’utilisant.

Afin de mesurer la fiabilité d’une étude, plusieurs auteurs (Loomis 1989-1990, Carson et Mitchell 1989, Kristörm 1990, Loomis 1990, Desvouges 1996) ont soutenu la procédure de restesting ou test-retest. Cette méthode compare les résultats de deux études identiques, utilisant la méthode d’évaluation contingente, réalisées sur un même échantillon à deux moments différents. La fiabilité se mesure à la cohérence des résultats obtenus lorsqu’ils se répètent dans le temps sans qu’il y ait eu de changements des variables socio économiques. Ainsi en fonction des études, cet intervalle de temps entre la 1ère et la 2ème étude peut varier de quelques semaines à plusieurs mois (jusqu’à neuf mois). Cependant une des limites de cette méthodes résident aussi dans son coût puisqu’elle nécessite le paiement d’une 2ème enquête pour cette évaluation contingente.

Il existe d’autres méthodes pour tester la fiabilité de l’étude d’évaluation contingente : la méthode split-half développée par Reiling en 1990 et la méthode de forme alternative développée par Whitehead en 1995. Nous ne sommes pas penchés sur ces dernières.