https://www.jim.fr/e-docs/00/02/AA/EB/carac_photo_1.jpg JIM.fr Médecin Publié le 22/11/2018

Des substances chimiques, potentiellement toxiques pour la santé humaine, sont régulièrement retrouvées à l’état de traces dans les produits utilisés quotidiennement.

La présence de certaines de ces substances est parfois évitable, lorsque les pratiques qui les induisent peuvent être modifiées, mais peut dans d’autres situations être inévitable, lorsqu’elle répond par exemple à un objectif précis (limitation par exemple de la contamination bactériologique ou virologique). Par ailleurs, si la présence de ces substances résulte de contaminations environnementales involontaires, il est complexe (voire impossible) de les éviter totalement. Dès lors, comment les autorités gèrent-elles les risques afin de limiter le plus possible les effets sur la santé publique ?

Mise au point sur un processus complexe.

Encadré 1 : Les points clés 
•    L’évaluation des substances qui entrent dans la composition des produits utilisés quotidiennement (alimentation et produits d’hygiène notamment) répond à des processus et normes stricts.
•    La notion de risque et la notion de danger renvoient à des dimensions différentes.
•    Un facteur de sécurité de 100 est appliqué pour calculer la dose journalière admissible chez l’homme par rapport à la dose sans effet observée chez l’animal.
•    Toutes les substances n’obéissent pas au même type de relations dose/réponse. Les voies d’exposition, la durée et la spécificité des sujets peuvent également avoir des conséquences sur la toxicité individuelle.
•    Plusieurs axes de recherche sont à privilégier pour disposer d’une évaluation des risques plus riche et contribuant à une meilleure sécurité à court, moyen et long terme ; même si dès aujourd’hui les produits alimentaires consommés quotidiennement et la plupart des produits utilisés n’ont jamais été aussi sûrs.

I.    Préambule

A.    Le processus global

Au niveau européen, le gestionnaire du risque est la Commission européenne. Si elle s’inquiète de la dangerosité d’une substance, elle saisit l’évaluateur des risques. Le travail de l’évaluateur des risques consiste, sur la base des données toxicologiques, à proposer une dose journalière (plus rarement hebdomadaire ou mensuelle) tolérable (DJT) et de faire une estimation de l’exposition. Ainsi la commission peut-elle répondre à la question de savoir si les populations, par rapport à la valeur toxicologique de référence (VTR), sont surexposées ou non. Si l’on aboutit à la mise en évidence d’une surexposition, c’est alors au gestionnaire du risque que revient la mission de mettre ce risque sous contrôle. La commission reprend alors le flambeau : pour que les populations soient moins exposées, elle va mettre en place des limites maximales réglementaires, imposer des guides de bonne pratique et éventuellement communiquer auprès du consommateur et émettre des recommandations à leur attention.

Par ailleurs, le gestionnaire du risque dispose de trois leviers.

Premier levier : auprès des professionnels. Il peut exiger la mise en œuvre de bonnes pratiques, qu’il s’agisse de bonnes pratiques agricoles, d’élevage, de bonnes pratiques d’hygiène ou de l’optimisation des procédés de fabrication.

Deuxième levier : la fixation des limites réglementaires. Pour pouvoir être conforme à la réglementation et être autorisé sur le marché, tel produit ne devra pas dépasser telle teneur en telle substance. Et les pouvoirs publics doivent mettre en œuvre des contrôles, afin de procéder à des retraits du marché si les teneurs sont dépassées.

Troisième levier : la transmission de messages auprès des consommateurs pour développer de bonnes pratiques (exemple : recommandations nutritionnelles pour les femmes enceintes). Dans ce cadre, des outils peuvent également être mis à disposition des consommateurs par les industriels (recommandations de pratiques culinaires à la maison, exemple cuisson des frites).

B.    L’analyse des risques

L’analyse des risques suppose trois étapes :

– L’évaluation des risques qui est strictement basée sur la science ;

– La gestion des risques, qui n’est pas uniquement du ressort de la science mais des gestionnaires du risque. Il s’agit de mettre en œuvre les trois leviers précités pour mettre le risque sous contrôle.

Exemple : un danger, la salmonelle, est identifié. Le risque c’est l’intoxication alimentaire. La façon de gérer le risque, c’est de mettre en œuvre un traitement thermique pendant le procédé de fabrication.

– Enfin, la communication sur les risques.

https://www.jim.fr/e-docs/00/02/AA/EB/media_img1.gif

II.    L’évaluation des risques

Si l’on reprend la définition du Codex, elle se fait en quatre étapes.

– Première étape :
 l’identification du danger. Sont identifiées les substances qui sont capables de provoquer un effet néfaste sur la santé. Par exemple, l’aluminium est identifié comme danger, parce que dans la littérature (publications scientifiques, avis des agences), il est associé à des effets neurotoxiques.

– Deuxième étape : la caractérisation du danger. Il s’agit d’une évaluation qualitative et quantitative. C’est la courbe dose réponse qui permet de déterminer à partir de quelle dose ou niveau d’exposition les effets délétères sont susceptibles de survenir. Dans certains cas (cancérogènes génotoxiques), il n’existe pas de seuil et la courbe dose-réponse donne la probabilité d’effets délétères correspondant à chaque niveau d’exposition, aussi faible soit-il. Ces éléments permettent de caractériser et de quantifier le risque et de trouver la corrélation entre la dose et l’effet. Ici, aussi, ces informations relèvent des publications scientifiques, d’avis des agences, etc.

– Troisième étape : l’évaluation de l’exposition.

Par exemple : pour une évaluation de l’exposition au plomb de la population en France, sont pris en compte :

  • les produits contenant du plomb,
  • et la consommation de ces produits.

Puis la consommation est multipliée par la contamination afin de connaître quel est le niveau d’exposition de la population. Généralement, cela va permettre d’indiquer que la population est exposée à tant de micro grammes par kilo de poids corporel. Il s’agit d’une évaluation substance par substance.

On peut être capable de donner des niveaux d’exposition par catégories de population. Les catégories officielles sont :

  • les nourrissons de zéro à un an ;
  • les jeunes enfants de un an à trois ans ;
  • les autres enfants de trois ans à dix ans ;
  • les adolescents, de dix à dix-huit ans ;
  • les adultes de dix-huit à soixante-cinq ans ;
  • les personnes âgées de soixante-cinq à soixante-quinze ans ;
  • les personnes très âgées, au-delà de 75 ans.

Par ailleurs, sont distinguées les expositions moyennes et les fortes expositions en considérant la population totale des consommateurs ou les seuls consommateurs de la catégorie de produits concernée. Les valeurs prises en compte sont la moyenne, et les 5 % des plus forts consommateurs (P95).

Exemple :
 le poisson. Nous savons qu’il existe une contamination du poisson par le mercure. Pour une même contamination du poisson (on se base sur la contamination moyenne du poisson, calculée sur des milliers d’échantillons de poissons), sont distingués les sujets qui sont de forts consommateurs de poisson et ceux qui sont des consommateurs moyens de poisson. Le calcul est effectué : si quelqu’un consomme en moyenne 100 grammes par jour de poisson, étant donné le niveau de contamination, un premier chiffre est obtenu. Mais face à un sujet qui consomme 300 grammes par jour, l’exposition est trois fois plus importante.

– Quatrième étape :
 la caractérisation du risque.

Selon le Comité d’experts FAO/OMS sur les additifs alimentaires (JECFA), la caractérisation des risques est « l’estimation qualitative et/ou quantitative, compte tenu des incertitudes inhérentes à l’évaluation, de la probabilité de la fréquence et de la gravité des effets adverses sur la santé susceptibles de se produire dans une population donnée, sur la base de l’identification des dangers, de la caractérisation des dangers et de l’évaluation de l’exposition ». Toute l’évaluation du risque consiste à déterminer la marge de sécurité entre l’exposition constatée et les valeurs toxicologiques de référence.

A.    Danger et risque

1.    Différence entre danger et risque

https://www.jim.fr/e-docs/00/02/AA/EB/media_img2.jpg

Le danger est un agent ou une substance chimique (type mercure ou plomb), biologique (un germe, un parasite) ou physique (radiations) qui a le potentiel de causer un effet néfaste avéré sur la santé.

Le risque est fonction du danger et de l’exposition. Le risque est la probabilité que les conséquences néfastes se manifestent. Le risque ce n’est pas le danger, c’est la conséquence de l’exposition au danger. Par exemple, un serpent venimeux est un danger. Mais la probabilité d’être confronté à un serpent venimeux dans la vie de tous les jours est faible, le risque est donc faible. Cependant, dans la jungle, la probabilité d’être exposé à un serpent venimeux est importante, donc le risque est élevé.

Fréquemment, les revues consuméristes énoncent : « Nous avons retrouvé des pesticides dans tel produit d’hygiène, comme les couches pour bébé ». Ici, on a détecté la présence d’un danger. Sur cette base, le consommateur a tendance à penser : puisque des pesticides ont été détectés et que les pesticides sont dangereux, le produit est à risque. Cela n’est pas le cas. Il faut certes identifier le danger (la présence du pesticide), mais il faut également évaluer le niveau d’exposition (c’est-à-dire la dose ingérée) qui est fonction du niveau de contamination du produit et des habitudes alimentaires. Telle est la différence entre danger et risque.

2. Le risque réel et le risque perçu

Le risque réel est la combinaison d’une probabilité de réalisation et de conséquences négatives. Si je suis exposé à telle teneur en plomb, la conséquence va être une intoxication. Il y a parallèlement la notion de risque perçu, qui est souvent en décalage avec le risque réel qui est en fait l’idée que se fait le consommateur, par exemple, de la dangerosité d’une denrée alimentaire ou d’un autre produit. C’est l’écart entre risque réel et risque perçu qui constitue une difficulté majeure dans la communication sur le risque entre les experts et les usagers ou le public profane, d’autant plus que les informations sensationnalistes peuvent parfois être mises en avant par des médias non spécialisés.

B.    La caractérisation du danger

Les valeurs toxicologiques de référence sont définies par les agences.

Elles se basent sur des études sur l’animal.
Pour les contaminants, on ne dispose que de données chez l’animal et des données sur des tests in vitro, ou de manières exceptionnelles, en raison d’observations de cas de suicides, de données chez l’homme concernant la toxicité aiguë.

En ce qui concerne les risques d’intoxications chroniques, les valeurs toxicologiques de référence se basent le plus souvent sur des études sur l’animal mais parfois aussi sur des études épidémiologiques menées dans des environnements très pollués (cas des métaux lourds comme le plomb, le mercure et le cadmium).

La dose journalière tolérable/ou admissible est une dose qui peut être consommée tous les jours durant toute la vie, sans risque en matière de santé publique. Si nous nous concentrons ici sur l’alimentation et donc sur la voie orale, précisons qu’on peut définir des valeurs toxicologiques de référence en fonction des voies d’exposition (voie cutanée et inhalatoire par exemple).

1.    Les études chez l’animal

Pour calculer cette dose : un certain nombre de doses vont être testées chez l’animal.

La plupart du temps ce sont des études réalisées chez le rat ou la souris. Ces rongeurs sont exposés à une substance pendant de longues périodes, entre 90 jours (subchronique) et dix-huit mois chez la souris et 24 mois chez le rat pour être représentatif d’une exposition vie entière (études chroniques cancéro). Tous les jours, une certaine dose est administrée à différents groupes d’animaux (rongeurs la plupart du temps). Au terme de cette étude, on détermine quelle est la dose maximale qui a pu être administrée à des animaux, sans entraîner d’effets adverses.

Non seulement on regarde le comportement des animaux, mais ces animaux vont être ensuite sacrifiés : les organes sont prélevés et examinés et différentes analyses biologiques (urine et sang notamment) sont réalisées. De multiples paramètres biologiques sont analysés.

Par exemple si quatre doses sont testées : 10 microgrammes/ kg poids corporel, 500, 1 000 et 2 000. A 2000, on observe des effets. Par contre, à la dose de 1000, on s’aperçoit qu’il n’y a pas d’effet. On va considérer que 1000 µg/kg est la dose sans effet : la dose maximale administrable à l’animal pour laquelle il n’y a pas d’effet.

Signalons que cette approche déterministe est aujourd’hui remplacée par des approches probabilistes avec la notion de benchmark dose où à partir de la courbe dose réponse via des modélisations mathématiques.

2.    Cas particulier : les substances génotoxiques

Dans le cadre de l’autorisation d’une nouvelle substance volontairement ajoutée (pesticides, additifs, arômes), d’importantes études toxicologiques sont obligatoires. On se concentre notamment tout d’abord sur la métabolisation de la substance : comment est-elle absorbée, comment est-elle métabolisée, comment est-elle éliminée, combien de temps reste-t-elle dans le sang ? etc.

Puis des études de toxicité de 90 jours sont conduites.

Parallèlement, des études évaluant le caractère cancérogène de la substance sont menées, ainsi que des études de génotoxicité, de reprotoxicité et de tératogénèse. D’autres études en fonction du mécanisme d’action et des organes cibles peuvent s’ajouter.

Schématiquement on peut distinguer les substances pour lesquelles on considère qu’il existe un seuil. C’est-à-dire qu’en dessous de ce seuil d’exposition, aucun effet n’est à redouter et à attendre. La courbe dose-réponse se caractérise par une ligne plate (qui représente l’absence d’effet), puis une montée de la courbe qui progresse en fonction de la dose d’exposition.

Les substances qui présentent ce type de réponse ne sont pas cancérigènes ou sont des cancérigènes non génotoxiques.

Une seconde catégorie de substances sont les substances cancérigènes génotoxiques. Ces substances induisent des cancers en « s’attaquant » à l’ADN, par des mécanismes de génotoxicité. Pour ces substances, on estime, dans l’absolu, qu’il n’y a pas d’effet seuil.

Si lors des procédures d’évaluation d’une substance nouvelle, un effet de ce type est retrouvé, elle ne sera alors jamais autorisée.

Mais face à des contaminations inévitables ou difficilement évitables, (comme l’acrylamide, liée à la cuisson) la donne est différente. L’objectif est alors de mettre en œuvre des mesures pour essayer que l’exposition soit la plus faible possible.

3.    Passage de l’animal à l’homme

https://www.jim.fr/e-docs/00/02/AA/EB/media_img3.jpg

A partir du moment où on a déterminé la dose journalière tolérable, pour pouvoir calculer la dose journalière tolérable chez l’homme, cette dose sans effet chez l’animal est divisée par au minimum un facteur 100. Un premier facteur de sécurité de 10 est appliqué parce qu’on passe de l’animal à l’homme. On applique ensuite un deuxième facteur de sécurité pour tenir compte de l’existence dans l’espèce humaine de populations plus fragiles (les personnes âgées les enfants, etc.). Ces deux facteurs de sécurité sont multipliés et on obtient donc un facteur 100. Cela signifie que l’on est partie d’une dose sans effet chez l’animal qui est à 1 000 microgrammes par kilo par exemple, divisée par 100, soit 10 microgrammes par kilo de poids corporel pour l’homme. Cela signifie que pour un individu qui fait 60 kilos, il pourra ingérer tous les jours pendant toute sa vie 600 microgrammes de cette substance, sans qu’il y ait un risque pour la santé.

Ce facteur de sécurité peut être plus élevé en fonction de l’appréciation des experts, par exemple face à des études considérées comme peu robustes, ou si la dose sans effet est dérivée d’une étude subchronique (90 jours) au lieu d’une étude chronique (18 ou 24 mois) : on peut prendre un facteur supérieur à 100. Un facteur supérieur à 100 peut également être retenu pour tenir compte de la vulnérabilité spécifique de certains publics.
La notion d’exposition introduit d’autres paramètres majeurs : la dose et ses effets, les « effets cocktails », la durée et la fenêtre d’exposition, les populations à risques.

C.    La caractérisation du risque

1.    Principe général

Cas des substances à seuils

Le principe de caractérisation du risque consiste à comparer un niveau d’exposition estimé par rapport à une valeur toxicologique de référence.
Il s’agit de déterminer si on dispose d’une marge de sécurité ou pas.

Si cette dose journalière tolérable est dépassée, cela ne veut pas dire forcément qu’il y a danger. Il faut tout d’abord préciser quel est le niveau de dépassement. Si elle est dépassée de deux fois, il faut souvenir que nous nous basons sur une dose qui est 100 fois inférieure à la dose qui est sans effet chez l’animal. Cela veut dire qu’il existe des marges de sécurité. Par ailleurs, cela dépend de la durée de l’exposition. Si la dose journalière tolérable est dépassée pendant une semaine, alors que c’est un concept qui concerne une exposition sur toute la vie, là aussi, au cas par cas, on va pouvoir relativiser l’exposition.

Cas des substances sans seuils (carcinogènes génotoxiques)

Pour les substances qui sont cancérogènes et génotoxiques,  l’EFSA (2005)  recommande d’utiliser l’approche ‘Margin of Exposure (MOE)’. La MOE est le rapport entre un point donné de la courbe dose-réponse et l’exposition. La valeur de la MOE donne une indication sur l’importance du risque; plus grande est la MOE, plus faible est le risque d’exposition au composé en question.

L’EFSA estime qu’une MOE de 10.000 ou plus, basée sur une BMDL10 établie sur la base d’études sur animaux, tenant compte des incertitudes, présenterait une préoccupation faible pour la santé publique. L’amplitude de la MOE indique seulement un niveau de préoccupation et ne quantifie pas le risque.

Une autre approche est le risque additionnel de cancer

Sur ces questions, nous pouvons évoquer l’existence de la notion de risque acceptable, développé au niveau international, concernant notamment le risque cancérogène. L’OMS considère ainsi que l’on pourrait accepter un cancer supplémentaire pour 100 000 ou 1 000 000 habitants. Le principe est : pour une population de 100 000 personnes qui n’est pas exposée à la  substance X, les données épidémiologiques indiquent que par exemple 1 000 personnes développeront un cancer. Exposée à cette substance, il est toléré le développement d’un cancer supplémentaire, pour cette même population, soit 1001 personnes touchées. C’est une approche qui a été par exemple appliquée pour fixer les normes de benzène dans l’eau potable. Aujourd’hui, décréter l’absence de benzène dans l’eau potable n’est en effet pas possible.

2.    Risque chronique et risque aigu

Globalement dans l’alimentaire et les produits cosmétiques, le consommateur est plutôt confronté à des problématiques de toxicité chronique. La toxicité aiguë n’est pas inexistante, mais il s’agit de phénomènes ponctuels et rares. Les données dont on dispose en la matière sont souvent liées à l’observation de cas de suicides.

Mais, pour les pesticides par exemple, l’exposition ne concerne pas seulement le consommateur, mais aussi les agriculteurs, les travailleurs exposés. Ici, on va être amené à définir, non plus la dose journalière tolérable, mais la dose de référence en aigu. La dose de référence en aigu est la dose maximale qui peut être ingérée en une seule fois et qui ne provoquera pas d’effet adverse. Elle est plus élevée que la dose journalière. Cela permet de donner des doses repères, par exemple pour les travailleurs exposés.

3.    La notion de bénéfice/risque

La notion de bénéfice risque était essentiellement à l’origine un concept développé pour les médicaments. Cette notion a commencé à s’imposer dans l’alimentation.
Plusieurs exemples l’illustrent.

Le mercure et la consommation de poisson. Il a fallu faire la part des choses entre la présence dans le poisson d’acide gras polyinsaturés, qui sont potentiellement « bénéfiques », et la contamination par le mercure. Il y a là une vraie approche bénéfice/risque. Les avis de l’ANSES sur le mercure ont ainsi conclu qu’il ne faut pas interdire la consommation de poisson, mais prendre des mesures concernant certaines populations à risque, notamment les femmes enceintes.

Les nitrates et les légumes. La présence de nitrates dans les légumes est connue mais parallèlement, les légumes présentent de nombreuses qualités nutritionnelles. Ici encore, il est apparu que le bénéfice de la consommation de légumes dépasse les risques liés aux nitrates.

Cependant, la surveillance étroite des contaminants tels que le mercure et les nitrates confirme que la consommation de poisson et de légumes est sûre, indépendamment des autres avantages alimentaires.

La problématique des produits néoformés. Il s’agit de substances générées au cours de la cuisson et d’autres processus industriels (nécessitant une exposition à de hautes températures). Cependant, la réduction des traitements thermiques pourrait avoir un impact sur le risque microbiologique. Ici, aussi, la logique du bénéfice/risque doit s’appliquer.

4.    Les questions de coût et de l’intérêt industriel/agricole ont-elles une place dans le management du risque ?

La composante économique va être prise en compte dans les décisions par les États

Prenons l’exemple de l’arsenic (inorganique) dans le riz. Le Codex doit fixer une limite maximale d’arsenic dans le riz et hésite entre différentes valeurs. L’organisme d’évaluation du Codex, c’est-à-dire le JECFA, est alors saisi pour réaliser un double travail. Première tâche : pour chacune des limites envisagées, évaluer l’impact en matière d’exposition des consommateurs. Puis, deuxième mission, mesurer l’impact quant au nombre de lots qui seraient rejetés. Si on arrive au constat que pour le riz poli à 0.1 ppb, l’exposition est réduite de 36 %, mais 41 % des lots sont rejetés et qu’à 0.2 pbb, la réduction de l’exposition n’est que de 4 % mais seuls 2 % des lots seront rejetés, il est évident que c’est la deuxième solution qui sera choisie. Un vrai problème économique se poserait en effet avec la norme la plus sévère. Est-ce qu’on peut accepter sur la planète que 41 % des lots de riz poli soient détruits ? Cela génère un impact économique très important et cela pose un problème indirect de santé publique : cela veut dire que certaines personnes n’auront plus accès au riz. On le devine, il existe d’une manière générale sur ces sujets, des différences importantes en fonction des niveaux économiques des états et des urgences sanitaires auxquelles ils sont confrontés et le Codex se doit de trouver un compromis entre la protection de la santé des consommateurs et  le maintien de la production et des échanges commerciaux

Chiffres Report Codex Committe on Contaminants (2014)

https://www.jim.fr/e-docs/00/02/AA/EB/media_img4.png

Sur cette base in fine la Commission Codex a décidé de fixer sur le riz poli une norme à 0.2 ppm d’arsenic.

Encadré 2 : Focus sur la dose et ses effets
Tout commence au XVIe siècle avec le principe édicté par le médecin alchimiste suisse Paracelse : « Tout est poison, rien n’est poison : c’est la dose qui fait le poison ».

L’évaluation du risque d’exposition aux composés chimiques repose, pour l’essentiel, sur deux types de courbes dose/réponse en ce qui concerne leurs effets, toutes deux illustrant la mise en œuvre du principe de Paracelse : plus la dose est élevée, plus l’effet est important.

Une réponse linéaire avec seuil :
 l’effet augmente de façon constante en fonction de la dose (courbe dose/réponse monotone), en deçà de ce seuil, on n’observe aucun effet. Sont classés dans cette catégorie principalement les effets non cancérogènes et cancérogènes non génotoxiques (substance capable de provoquer l’apparition d’un cancer sans action directe sur le matériel génétique). Le mode d’action non génotoxique inclut des effets qui n’impliquent pas des altérations de l’ADN, mais qui influencent l’expression génique, la communication entre cellules ou d’autres facteurs du processus cancérogène. Les effets cancérogènes épigénétiques (expression ou inactivation de gènes) induits par la méthylation de l’ADN ou la modification de la structure de la chromatine reposent sur ce mécanisme.

Une réponse linéaire sans seuil : elle concerne les composés génotoxiques et cancérogènes (substance capable d’augmenter l’incidence de tumeurs malignes en altérant la transmission fidèle du génome d’une génération de cellules à l’autre (altération du matériel génétique). Elle peut être mutagène (modification permanente d’une séquence d’ADN conduisant à un changement du matériel génétique d’une cellule), clastogène (modifications structurales des chromosomes ; cassure du matériel génétique) et/ou aneugène (substance capable de provoquer l’apparition d’un cancer en modifiant le nombre des chromosomes ; aneuploïdie). Il est généralement admis que ces agents induisent des effets sans seuil, c’est à dire qu’un seul contact avec ce type d’agent est susceptible d’induire un excès de risque de cancer. L’effet peut apparaître quelle que soit la dose reçue et la probabilité de survenue augmente avec la dose ; seule la dose zéro est sans effet.

Courbe dose/réponse non monotone : il s’agit d’un troisième type de courbe, où la réponse pourrait à la fois augmenter ou diminuer au fur et à mesure que la dose augmente, ce qui entraîne, par exemple, des courbes en forme de U ou en forme de U inversé ou de J. Ainsi de faibles doses peuvent avoir un effet plus marqué que des doses moyennes. Ceci interpelle les toxicologues, car lors des études sur l’animal afin de déterminer une DSEIO (Dose Sans Effet Indésirable Observé) on recherche la dose maximale testée ne provoquant pas d’effets indésirables observables, ce qui explique que les faibles doses ne sont pas forcément considérées. A noter que les effets de faibles doses ne peuvent être prédits par ceux observés à fortes doses. Ces courbes dose/réponse particulières pourraient correspondre au mode d’action de certains perturbateurs endocriniens (PE).

https://www.jim.fr/e-docs/00/02/AA/EB/media_img5.png

Encadré 3 : Focus sur la durée et la fenêtre d’exposition
La notion de dose comporte un paramètre temporel qui est primordial, ainsi considère-t-on différentes types d’exposition : aiguë (< 24h) les effets peuvent être réversibles ou irréversibles, sub-chronique (quelques jours à 3 mois), chronique (> 3 mois jusqu’à vie entière). La prise en compte du temps est généralement plus importante pour comprendre les expositions répétées et les effets chroniques que pour les expositions uniques et les effets aigus. Le temps de latence est le temps qui s’écoule entre une première exposition et l’apparition d’un effet ou d’une réponse décelables. Ce terme est souvent employé pour les effets cancérogènes, où les tumeurs apparaissent longtemps après le début de l’exposition et quelquefois bien après son arrêt.

La période d’exposition est aussi un élément fondamental avec une vulnérabilité particulière pour certaines périodes biologiques (fœtale et périnatale). Ainsi le développement du système immunitaire, du système neurologique, l’organogénèse des organes génitaux (plus spécifiquement mâle), le système endocrinien (notamment la thyroïde) pourront être plus particulièrement affectés. De même lors de sa naissance le nouveau-né va être confronté au monde bactérien  et ainsi différentes populations de bactéries vont se succéder dans son tractus digestif pour constituer progressivement sa flore intestinale désignée sous le nom de microbiote ; des perturbations lors de ce processus complexe auront des répercussions dans sa vie future.  Parfois des effets pourront survenir sur la durée entière de la vie du sujet (effet chez l’adulte après exposition à de faibles doses en période in utero ou en période périnatale). Ces effets  transgénérationnels relèvent du domaine de l’épigénétique (changement dans l’activité des gènes) qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l’ADN.

Encadré 4 : Focus sur la voie cutanée
Spécificité de la voie cutanée par rapport aux autres voies d’exposition (orale et aérienne) :son accessibilité et sa surface. Par ailleurs, lorsque la peau est lésée, la pénétration des substances toxiques ou des antigènes est augmentée.

Comment peut-on mesurer le niveau d’exposition quand la voie est principalement cutanée ?
On mesure l’altération de la barrière cutanée par « l’étude de la perte en eau ». Si la substance est échogène, il est possible de visualiser son niveau de pénétration et son importance par des échographies de haute précision ou grâce à la microscopie confocale. Il est également possible de recourir à des biopsies, à partir desquelles sont réalisées des analyses toxicologiques le plus souvent par spectrophotométrie de masse.

Quid de la surveillance spécifique des populations considérées comme les plus vulnérables ?Une surveillance spécifique est à privilégier pour les personnes qui ont des dermatoses avec altération congénitale (exemple épidermolyse bulleuse) ou acquise (dermatite atopique, psoriasis par ex) de la barrière cutanée étendue. Plus l’atteinte cutanée est importante plus la surveillance devra être rapprochée.

III.    Les perspectives d’avenir en matière d’études de toxicité

Aujourd’hui tous les protocoles d’études toxicologiques sont cadrés par des guidelines internationaux.

L’OCDE a ainsi défini des guidelines concernant la plupart des études tox mises en œuvre. Les préconisations portent notamment sur le nombre d’animaux à utiliser, la parité, les conditions de laboratoire, les analyses à réaliser, etc.

A.    Les techniques complémentaires

1.    Les études in vitro

Jusqu’à ces vingt dernières années, on ne disposait que des études sur l’animal.

Aujourd’hui, à la fois pour des questions de coût et afin d’utiliser moins d’animaux, des études in vitro, sur des lignées cellulaires, commencent à être réalisées.

Cela se développe et c’est intéressant. Cependant, ne nous leurrons pas, ces approches in vitro ne vont pas se substituer aux tests chez l’animal. Qu’on le veuille ou non, l’intérêt de tester sur un organisme vivant complet, est de se mettre dans des conditions proches de la vie réelle. Les études in vitro donnent des indications, mais on ne pourra pas forcément en tirer de conclusions définitives, notamment parce qu’il existe des mécanismes complexes dans un organisme vivant qui ne seront pas forcément appréhendés via des tests sur des lignées cellulaires.

2.     Les approches in silico

Ce qui se développe également ce sont les approches in silico. A partir de données informatiques, on va travailler par rapport à des structures chimiques. Si nous disposons de données (tirées d’études sur l’animal) concernant les effets cancérigènes de telle ou telle substance, si nous sommes confrontés à une substance jamais testée mais qui présente une même structure chimique, il existe des suspicions fortes de réactions similaires.

Ces techniques sont de plus en plus utilisées. Cela permet d’éviter de mettre en œuvre des expérimentations. Précisons que pour l’autorisation d’un nouveau produit, dans le cadre de l’alimentation, les tests sur les animaux demeurent obligatoires (mais sont interdits pour les produits cosmétiques). Mais si face à une nouvelle molécule, les comparaisons de structures chimiques permettent de prévoir des effets cancérigènes, par exemple, la molécule peut être exclue d’emblée. Il s’agit de méthodes de screening.

B.    Les champs d’investigation à approfondir

Trois champs de recherche demandent à être développés au niveau toxicologique.

1.    L’effet cocktail

Comment évaluer des mélanges ? Aujourd’hui, lorsqu’on fait des évaluations, des études toxicologiques, on teste substance par substance. Mais dans la vie réelle, nous sommes confrontés à plusieurs substances. Qu’est-ce qui se passe par rapport à ce « cocktail » ? Depuis une dizaine d’années, des travaux se penchent sur cette question. Il s’agit d’un domaine très complexe. De nombreux facteurs entrent en effet en jeu. Les effets peuvent dépendre de la combinaison des substances, mais aussi de la proportion de chacune d’entre elles. Nous avons ainsi pu constater avec les mycotoxines qu’en fonction de la proportion de chaque mycotoxine, les effets toxicologiques diffèrent. Les premiers travaux conduits sur le sujet concernent les pesticides, et notamment les pesticides appartenant à la même famille, c’est-à-dire des molécules qui ont le même mécanisme d’action. Mais ce domaine de recherche n’est pas assez mûr pour que les agences puissent prendre ces données véritablement en compte dans le cadre de l’évaluation. Nous en sommes encore à proposer des doses journalières tolérables pour une substance, pas pour un mélange. Il faut donc développer des outils, des modèles, des méthodologies pour appréhender l’évaluation des cocktails de substance.

Les réactions possibles

Globalement, la plupart du temps, lorsqu’on a à faire à un cocktail de substances ayant le même mécanisme d’action, on est plutôt dans une logique d’additivité.

Mais, face à des substances qui n’ont pas le même mécanisme d’action :
–    soit il n’y a pas d’interaction entre elles et chacune agit de son côté ;
–    soit on observe un mécanisme d’antagonisme. Une substance va contrecarrer la toxicité d’une autre ;
–    soit, mais cela est plus rare, on peut être confronté à des synergies. Par exemple : la substance seule aurait un niveau de toxicité de 100, le fait qu’elle soit associée à une autre substance va faire progresser son niveau de toxicité jusqu’à 200.

2.    Les populations vulnérables

Les tests sur les animaux sont conduits sur des animaux adultes. La question peut être posée de savoir si ce qui se passe au niveau du métabolisme de la souris adulte est représentatif de ce qui se passerait chez la souris ayant 10 jours de vie. Nous savons que les systèmes les plus fragiles chez les fœtus et les nourrissons sont les systèmes immunitaires et neurologiques. Il y a donc des travaux à développer dans ce domaine.

Les populations à risques :

Lors de l’évaluation toxicologique de substances, l’intégralité de la population générale doit être considérée, particulièrement les populations les plus sensibles. Ainsi une liste non exhaustive de ces sous-groupes de populations peut être établie :
•    les sous-groupes métaboliques (enfants, personnes âgées, femmes enceintes, femmes ménopausées…)
•    les sous-groupes génétiques (genre, troubles génétiques sanguins, troubles de la régulation homéostasiques, troubles immunologiques…)
•    les sous-groupes nutritionnels (déficits alimentaires, alcooliques, fumeurs…)
•    les sous-groupes « patients fonctionnels » (maladies diminuant la toxicocinétique des xénobiotiques)
•    les sous-groupes « patients autres pathologies » (obèses, diabétiques…)

La prise en compte de ces spécificités n’est pas toujours aisée, aussi lors de l’évaluation toxicologique et lors d’élaboration de VTR pour une population générale, des facteurs d’incertitudes protecteurs et génériques par défaut sont souvent utilisés.

3.    La dose fait-elle toujours le poison ? Le cas particulier des perturbateurs endocriniens

Ils correspondent à des substances chimiques d’origine naturelle (phyto-oestrogènes du soja) ou artificielle (bisphénol A, phtalates), qui peuvent interférer avec le fonctionnement des glandes endocrines, organes responsables de la sécrétion des hormones. Cette action peut être médiée par différentes voies :

•    Mimer l’action d’une hormone naturelle et entraîner ainsi la réponse due à cette hormone
•    Empêcher une hormone de se fixer à son récepteur et donc bloquer la transmission du signal hormonal
•    Perturber la production ou la régulation des hormones ou de leurs récepteurs.

Ainsi en perturbant le système endocrinien, ces substances peuvent altérer différents processus biologiques (métabolisme, fertilité, reproduction, développement, système immunitaire, cognition…) et induire des effets toxiques (cancers hormono-dépendants, infertilité, puberté précoce, malformation fœtale…). Cependant en conclure que seule la dose zéro est acceptable serait un non-sens. Une courbe dose/réponse non monotone ne signifie pas qu’il n’y a pas de dose-seuil de toxicité. Ainsi une modification d’activité du métabolisme endocrinien n’est un effet toxique que si les possibilités de régulation homéostatiques sont débordées, d’où la différence majeure à faire entre une activité endocrinienne et un effet perturbateur endocrinien. L’ANSES a ainsi proposé de distinguer les PE en trois catégories :

« avérés », « présumés » ou « suspectés », en fonction du niveau de preuves scientifiques permettant de conclure sur le potentiel perturbateur endocrinien pour l’être humain ou d’autres organismes vivants. Cette approche graduée permettrait ainsi à un instant donné de mieux prendre en compte les incertitudes inhérentes aux données scientifiques disponibles.

Aujourd’hui ces notions font l’objet d’un débat qu’il faut clarifier.

Attention cependant : un certain nombre de groupes activistes, qui veulent détruire le concept de dose journalière tolérable, en se basant sur le fait qu’il pourrait pour certaines substances exister des effets à très faible dose, ont tort.  Dans 99 % des cas, en effet, le concept « la dose fait le poison » s’applique parfaitement. Peut-être existe-t-il des molécules, dont font partie les perturbateurs endocriniens, avec lesquelles on a des effets plus forts à faible dose, mais il ne s’agit pas de la majorité d’entre elles.

Notons en outre que concernant les perturbateurs endocriniens, se pose la question de l’interprétation des tests. D’abord, tous les tests utilisés pour évaluer les perturbations endocriniennes qui sont multiples ne sont pas validés officiellement. Par ailleurs, les tests, mettent en évidence une relation molécule/récepteur. Si le test est positif, que cela signifie-t-il ? Cela met en évidence une activité endocrine de la substance, si par exemple, elle se fixe sur un récepteur aux œstrogènes. Mais qui dit activité endocrine, ne dit pas nécessairement activité perturbatrice. Aujourd’hui, de nombreux laboratoires développent des tests, pour déterminer l’existence d’une activité endocrinienne, mais cela n’apporte pas la preuve d’une perturbation.

Conclusion

Nous nous concentrons ici sur des problématiques chimiques, mais il ne faut pas oublier qu’aujourd’hui encore, le risque majeur, qui tue le plus, est le risque biologique, notamment dans les pays émergents ou en voie de développement.
Nous pouvons également remarquer que globalement l’alimentation n’a jamais été aussi sûre (en Europe de l’Ouest). Les cas d’intoxication sont beaucoup moins nombreux qu’il y a vingt ou trente ans. Au-delà, pour tous les produits utilisés quotidiennement, tels les produits d’hygiène, on constate que le niveau de contamination par des polluants chimiques, ne fait que diminuer. La période la plus néfaste a été les années 50 à 80 au cours desquelles des quantités très importantes de pesticides ont été utilisées et s’est développée l’industrie. Il n’y avait par ailleurs pas de législation environnementale, les incinérateurs n’avaient pas de filtre anti fumée. Cela ne veut pas dire que tout est réglé aujourd’hui. Mais quand on regarde les études d’exposition de l’ANSES on constate des diminutions très importantes des expositions. Par exemple, concernant le plomb ou les dioxines on a fortement diminué l’exposition par rapport à il y a vingt ans. Il faut donc bien faire la part des choses entre la détection de substances à l’état de traces et l’existence d’un véritable danger pour le consommateur.

Encadré 5  : Glossaire et acronymes
Acute Reference Dose (ARfD) : également appelée dose de référence aigüe, quantité maximale de substance active qui peut être ingérée pendant une courte période sans effet dangereux pour sa santé.

Benchmark dose (BMD) : dose produisant un effet non nul, correspondant à une modification du niveau de réponse par rapport à un groupe témoin. Le plus souvent ce n’est pas la benchmark dose qui est reprise, mais la limite inférieure de son intervalle de confiance à 95 % (BMDL). Les critiques formulées vis-à-vis de la dose maximale sans effet indésirable observé (DSEIO) ont conduit à construire la BMD.

Codex Alimentarius : programme commun de la FAO et de l’OMS consistant en un recueil de normes, codes d’usages, directives et autres recommandations relatifs à la production et à la transformation agroalimentaires.

Dose journalière tolérable (ou admissible) (DJA) :
 quantité d’une substance pouvant être ingérée chaque jour par un individu de 60 kg sans aucun risque pour la santé. Elle s’exprime en mg de substance par kg de poids corporel.

Dose sans effet indésirable observé (DSEIO) : également appelée dose sans effet observé (DES) ou dose minimale ayant un effet indésirable observé (DMEIO). Il s’agit de la dose maximale de substance active qui, ingérée quotidiennement durant toute la vie d’un animal, n’entraîne pas l’apparition de symptôme de toxicité. La DSE s’exprime en mg/kg de poids par jour.

Limite maximale de résidus (LMR) : seuil réglementaire de concentration de résidus de produits pesticides, biocides ou de médicaments vétérinaires, au-delà duquel la commercialisation d’un produit alimentaire n’est plus autorisée.

Margin of Exposure (MOE) : la marge d’exposition d’une substance est le rapport entre son niveau sans effet nocif observé et sa dose théorique, prévue ou estimée ou la concentration de l’ingestion humaine. Cet outil de mesure est utilisé dans l’évaluation des risques pour déterminer la dangerosité de substances à la fois génotoxiques et cancérigènes.

Valeur toxicologique de référence (VTR) : indice caractérisant le lien entre l’exposition de l’homme à une substance toxique et l’occurrence ou la sévérité d’un effet nocif observé. Les VTR sont principalement établies par des instances internationales ou nationales. Elles sont construites à partir des relations dose-réponse observées, et sont spécifiques d’un effet, d’une voie et d’une durée d’exposition.

ANSES : Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement
et du travail, organisme assurant des missions de veille, d’expertise, de recherche et de référence dans les domaines de la santé, l’alimentation, l’environnement et le travail.

EFSA : European Food Safety Authority, agence européenne chargée de la sécurité alimentaire.

FAO : Food and Agriculture Organization, agence des Nations Unies chargée de la sécurité alimentaire.

JECFA : Comité d’experts FAO/OMS sur les additifs alimentaires, composé d’experts scientifiques, chargé de l’évaluation des risques et de la sécurité sanitaire, de l’évaluation des expositions, des méthodes analytiques, de la définition des résidus et de l’établissement de principes généraux.

OCDE : Organisme de coopération et de développement économiques, organisation internationale d’études économiques, dont les pays membres ont en commun un système démocratique et une économie de marché.

OMS : Organisation mondiale de la Santé, agence des Nations Unies chargée de la lutte contre les différentes maladies et tentant de garantir l’accès universel aux soins.

Article rédigé par Aurélie Haroche à partir d’un entretien avec Hervé Lafforgue, pharmacien, secrétaire General du Danone Food Safety Center, le professeur Brigitte Dreno (Dermatologie, CHU de Nantes) et le professeur Alfred Bernard (Epidémiologiste et toxicologue, Université de Louvain)

RÉFÉRENCES : International programme on chemical safety, Principles and Methods for the Risk Assesment of Chemicals in Food – Chapter 2 Risk Assesment and its role in risk analysis – World Health Organization & Food and Agriculture Organization of the United Nations

http://www.who.int/foodsafety/publications/chemical-food/en/ International programme on chemical safety, Principles for Modelling Dose-Response – World Health Organization & Food and Agriculture Organization of the United Nations

http://www.inchem.org/documents/ehc/ehc/ehc239.pdf

Etude de l’alimentation totale, EAT2, ANSES,

https://www.anses.fr/fr/system/files/PASER2006sa0361Ra2.pdf

Environnement, Risques & Santé – Vol. 8, n° 6, novembre-décembre 2009,

http://www.jle.com/download/ers-282903-benchmark_dose_definitions_interet_et_usages_en_evaluation_des_risques_sanitaires–Ws8uOn8AAQEAAFdgGdQAAAAE-a.pdf

Copyright © http://www.jim.fr