29 mai 2024
La randomisation vise à confier au hasard pour chaque patient inclus dans l'étude, l'attribution du traitement à l'étude. C'est-à-dire en général le traitement expérimental versus le traitement contrôle ou le placebo. C'est donc une démarche d'allocation aléatoire du traitement. Le concept est ancien : le premier essai thérapeutique randomisé portant sur la tuberculose réalisé en 1931.
La randomisation permet d'assurer la comparabilité initiale des groupes. C'est-à-dire une répartition équivalente de toutes les caractéristiques de base des patients dans les différents groupes comparés. C'est important car ces caractéristiques sont de potentiels facteurs confondants, qu'ils soient d'ailleurs renseignés ou non.
La randomisation est le garant d'une démonstration de causalité en recherche clinique. A savoir de montrer que l'intervention a un rôle causal sur le devenir du patient.
Le principe d'une randomisation dite stratifiée est la règle dans les essais de phase III. Il s'agit de définir a priori dans le protocole de l'étude des facteurs pronostiques reconnus dans la pathologie d'intérêt, appelés variables de stratification. En effet, il peut exister des arguments pour penser que l'effet du traitement à l'étude ne sera pas identique dans les populations définies par les différentes strates ainsi identifiées par les niveaux d'expression de ces facteurs pronostiques.
En pratique il s'agit de réaliser une randomisation indépendante pour chaque facteur de stratification pour obtenir un équilibre parfait des effectifs entre les 2 bras de traitement.
L'intérêt de la stratification est double :
Tout d'abord, la randomisation se doit d'être imprévisible. Il doit être impossible pour un investigateur :
D'où la nécessité d'une randomisation centralisée, ce qui évite les tentations ! En pratique, l'attribution d'un traitement se fait par le datacenter de l'étude, à partir d'une plateforme centralisée après vérification des critères d'inclusion et de stratification.
Les randomisations les plus fréquemment utilisées intègrent des « blocs de permutation » afin de limiter les déséquilibres. La taille des blocs est un multiple du nombre de bras de traitement (par exemple, pour 2 traitements, on aura recours à des blocs de 4 ou de 6).
Cette méthode limite les déséquilibres, qui ne peuvent dépasser la moitié de la taille d'un bloc (si blocs de 4 avec 2A et 2B, le déséquilibre ne peut être >2), et garantit l'imprévisibilité, sous réserve de ne pas divulguer la taille des blocs aux investigateurs (cette information ne doit pas figurer dans le protocole !)
Pour résumer, une répartition équilibrée des traitements est faite au sein de chaque bloc, avec au final des groupes de traitement bien « balancés » à la fin de la randomisation.
Elle est difficile à réaliser quand le nombre de facteurs de stratification augmente (par exemple plus de 3 facteurs) car alors le nombre de listes de randomisation requis devient rapidement trop élevé par rapport au nombre de patients inclus dans l'essai.
Il s'agit de la randomisation dynamique ou randomisation par minimisation, qui permet de prendre en compte de nombreuses variables de stratification.
Le principe en est le suivant : il n'y a pas de liste de randomisation préétablie. Mais pour chaque patient inclus, un algorithme informatique calcule en temps réel l'attribution du traitement qui garantit le meilleur équilibre possible entre les groupes. Pour le premier patient, le traitement est alloué au hasard, et ensuite à chaque patient supplémentaire le traitement est alloué de manière à minimiser le déséquilibre entre les groupes, en tenant compte des valeurs des critères de stratification du patient à randomiser, et des patients déjà randomisés.
L'avantage est la possibilité d'inclure plus de facteurs pronostiques par rapport à une méthode classique, d'où l'intérêt notamment dans des essais de petites tailles avec des facteurs influençant fortement le critère de jugement principal de l'essai, mais pas seulement !
Références bibliographiques :
Auteur
David PEROL
Directeur de la recherche clinique
Formations liées
Data dissemination et data generation
Une formation avancée pour creuser les nouvelles méthodologies en matière d'essais cliniques, en mesurer les enjeux et limites et anticiper l’évaluation des autorités.
Articles récents