Informations

Quel est le vecteur de réponse dans le modèle IRMf GLM ?

Quel est le vecteur de réponse dans le modèle IRMf GLM ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

En IRMf, l'analyse univariée utilise généralement le modèle linéaire général (GLM), où la relation entre les conditions expérimentales et l'activité BOLD est estimée avec un modèle de régression linéaire pour chaque voxel séparément ("modèle univarié de masse"). Cependant, j'ai trouvé étonnamment difficile de découvrir ce que contient le vecteur de réponse $Y$. Je suis conscient qu'il s'agit d'une mesure du signal dépendant du niveau d'oxygénation du sang (signal BOLD) - mais qu'est-ce qui est mesuré exactement, c'est-à-dire quelles sont les unités ? Est-ce le rapport oxy/désoxy, ou est-ce une autre propriété ?


Réponse courte

Les unités ne sont pas importantes et sont généralement normalisées.

Réponse plus longue

Le nom "BOLD" est en fait très instructif : Blood Oxygenation Level Dependent contrast (ou signal). BOLD ne mesure pas directement quelque chose comme le rapport oxygéné/désoxygéné, ou nous l'appellerions probablement quelque chose de plus similaire : rapport oxy/désoxy.

Au lieu de cela, "BOLD" n'est que l'image IRM que vous obtenez lorsque vous configurez les propriétés du scanner d'une manière qui se trouve être influencée par le niveau d'oxygénation du sang. Le niveau d'oxygénation est loin d'être le seul contributeur au signal BOLD, mais expérimentalement, vous essayez de factoriser toutes les influences qui varient dans le temps mais qui ne sont pas intéressantes, et vous ignorez les niveaux de base qui ne changent pas.

L'IRMf fonctionne car le temps de relaxation transversale T2 de l'eau dans le sang dépend de l'oxygénation du sang. À partir de l'article original montrant un contraste BOLD dans un cerveau de rat, Ogawa et al. 1990 :

À l'intensité de champ 7-T utilisée dans cette étude, T2 varie de 50 ms à 100 % d'oxygénation à 4 ms à 0 % d'oxygénation. Le signal du sang veineux devient très faible lorsque la valeur T2 devient comparable ou inférieure au temps d'écho de l'acquisition du signal. À un niveau d'oxygénation de 60 %, la valeur T2 estimée est de 18 ms, similaire au temps d'écho utilisé dans ce rapport.

En d'autres termes, si vous produisez des images d'écho de gradient avec un temps d'écho de 18 ms, les images que vous obtenez montrent des niveaux de signal très différents à 100 % contre 60 % d'oxygénation. En fonction de la force de votre aimant, vous pouvez régler cette fois-ci pour rechercher les différences que vous souhaitez voir.

Il n'y a pas de moyen simple de comparer des images enregistrées dans différentes conditions (c'est-à-dire différents scanners, différents paramètres) sur une échelle de mesure utile. Au lieu de cela, les gens rapportent généralement des valeurs relatives, dans le temps ou dans l'espace. Pour cette raison, vous voyez souvent des signaux BOLD exprimés en % de changement ou en termes d'écart type (c'est-à-dire les scores z).

En fin de compte, pour l'ajustement d'un modèle linéaire général, cela n'a pas d'importance : vous pouvez librement mettre à l'échelle une variable dépendante sans modifier la structure de l'ajustement du modèle, tout ce que vous influencez est l'interprétation des magnitudes de l'interception et des coefficients.

Les références


Ogawa, S., Lee, T.M., Kay, A.R. et Tank, D.W. (1990). Imagerie par résonance magnétique cérébrale avec contraste dépendant de l'oxygénation du sang. Actes de l'Académie nationale des sciences, 87(24), 9868-9872.


Le modèle linéaire général (GLM)

Le décrit t Le test d'évaluation de la différence de deux valeurs moyennes est un cas particulier d'analyse d'une variable indépendante qualitative (catégorique). Une variable qualitative est définie par des niveaux discrets, par exemple, "stimulus désactivé" vs "stimulus activé". Si un plan contient plus de deux niveaux attribués à un ou plusieurs facteurs, une analyse de variance (ANOVA) peut être effectuée, qui peut être considérée comme une extension du test t. Le coefficient de corrélation décrit, en revanche, convient à l'analyse de variables indépendantes quantitatives. Une variable quantitative peut être définie par n'importe quel cours graduel dans le temps. Si plus d'une évolution temporelle de référence doit être prise en compte, une analyse de régression multiple peut être effectuée, qui peut être considérée comme une extension de l'analyse de corrélation linéaire simple.

Le modèle linéaire général (GLM) est mathématiquement identique à une analyse de régression multiple, mais souligne sa pertinence pour les variables qualitatives et quantitatives multiples. Le GLM est adapté pour mettre en œuvre tout test statistique paramétrique avec une variable dépendante, y compris tout plan ANOVA factoriel ainsi que les plans avec un mélange de variables qualitatives et quantitatives (analyse de covariance, ANCOVA). En raison de sa flexibilité pour incorporer plusieurs variables indépendantes quantitatives et qualitatives, le GLM est devenu l'outil de base pour l'analyse des données d'IRMf après son introduction dans la communauté de la neuroimagerie par Friston et ses collègues (Friston et al. 1994, 1995). Les sections suivantes décrivent brièvement le contexte mathématique du GLM dans le contexte de l'analyse des données d'IRMf. Un traitement complet du GLM peut être trouvé dans la littérature statistique standard, par ex. Draper et Smith (1998) et Kutner et al. (2005).

Remarque : Dans la littérature IRMf, le terme « modèle linéaire général » fait référence à sa version univariée. Le terme « univarié » dans ce contexte ne fait pas référence au nombre de variables indépendantes, mais au nombre de variables dépendantes. Comme mentionné précédemment, une analyse statistique distincte est effectuée pour chaque série chronologique de voxels (variable dépendante). Dans sa forme générale, le modèle linéaire général a été défini pour plusieurs variables dépendantes, c'est-à-dire qu'il englobe des tests aussi généraux que l'analyse de covariance multivariée (MANCOVA).

Du point de vue de l'analyse de régression multiple, le GLM vise à « expliquer » ou « prédire » la variation d'une variable dépendante en termes de combinaison linéaire (somme pondérée) de plusieurs fonctions de référence. La variable dépendante correspond à l'évolution temporelle observée de l'IRMf d'un voxel et les fonctions de référence correspondent aux évolutions temporelles des réponses IRMf attendues (idéalisées) pour différentes conditions du paradigme expérimental. Les fonctions de référence sont également appelées prédicteurs, régresseurs, variables explicatives, covariables ou fonctions de base. Un ensemble de prédicteurs spécifiés forme la matrice de conception, également appelée modèle. Une évolution temporelle prédictive est généralement obtenue par convolution d'une évolution temporelle d'un wagon couvert avec une fonction de réponse hémodynamique standard (HRF à deux gamma ou HRF à simple gamma). Une évolution temporelle d'un wagon couvert de condition peut être définie en fixant des valeurs à 1 à des instants auxquels la condition modélisée est définie (« active ») et à 0 à tous les autres instants. Chaque évolution temporelle du prédicteur X obtient un coefficient associé ou un poids bêta b, quantifiant sa contribution potentielle à l'explication de l'évolution temporelle du voxel y. L'évolution temporelle du voxel y est modélisée comme la somme des prédicteurs définis, chacun multiplié par le poids bêta associé b. Étant donné que cette combinaison linéaire n'expliquera pas parfaitement les données en raison des fluctuations du bruit, une valeur d'erreur e est ajoutée au système d'équations GLM avec n points de données et p prédicteurs :

La variable y sur le côté gauche correspond aux données, c'est-à-dire l'évolution temporelle mesurée d'un seul voxel. Le temps s'écoule de haut en bas, c'est-à-dire que y1 est la valeur mesurée à l'instant 1, y2 la valeur mesurée à l'instant 2 et ainsi de suite. L'évolution temporelle du voxel (colonne de gauche) est « expliquée » par les termes du côté droit de l'équation. La première colonne à droite correspond au premier poids bêta b0. L'évolution temporelle du prédicteur correspondant X0 a une valeur de 1 pour chaque point temporel et est donc également appelée "constante". Comme la multiplication par 1 ne modifie pas la valeur de b0, cette évolution temporelle du prédicteur (X0) n'apparaît pas explicitement dans l'équation. Après estimation (voir ci-dessous), la valeur de b0 représente généralement le niveau de signal de la condition de base et est également appelée interception. Bien que sa valeur absolue ne soit pas informative, il est important d'inclure le prédicteur constant dans une matrice de conception car il permet aux autres prédicteurs de modéliser de petites fluctuations liées aux conditions à mesure qu'elles augmentent ou diminuent par rapport au niveau de signal de base. Les autres prédicteurs sur le côté droit modélisent les évolutions temporelles attendues de différentes conditions. Pour les plans multifactoriels, les prédicteurs peuvent être définis en codant des combinaisons de niveaux de condition afin d'estimer les effets principaux et d'interaction. Le poids bêta d'un prédicteur de condition quantifie la contribution de son évolution temporelle à l'explication de l'évolution temporelle des voxels. Alors que l'interprétation exacte des valeurs bêta dépend des détails de la matrice de conception, un grand poids bêta positif (négatif) indique généralement que le voxel présente une forte activation (désactivation) pendant la condition expérimentale modélisée par rapport à la ligne de base. Toutes les valeurs bêta caractérisent ensemble une "préférence" de voxels pour une ou plusieurs conditions expérimentales. La dernière colonne du système d'équations contient des valeurs d'erreur, également appelées résidus, erreurs de prédiction ou bruit. Ces valeurs d'erreur quantifient l'écart de l'évolution temporelle des voxels mesurée par rapport à l'évolution temporelle prédite, la combinaison linéaire de prédicteurs.

Le système d'équations GLM peut être exprimé avec élégance en utilisant la notation matricielle. Pour cela, nous représentons l'évolution temporelle du voxel, les valeurs bêta et les résidus sous forme de vecteurs, et l'ensemble des prédicteurs sous forme de matrice :

Représentant les vecteurs et la matrice indiqués avec des lettres simples, nous obtenons cette forme simple du système d'équations GLM :

Dans cette notation, la matrice X représente la matrice de conception contenant les évolutions temporelles du prédicteur sous forme de vecteurs colonnes. Les valeurs bêta apparaissent maintenant dans un vecteur séparé b. Le terme Xb indique la multiplication matrice-vecteur. La figure ci-dessus montre une représentation graphique du GLM. Les évolutions temporelles du signal, les prédicteurs et les résidus ont été organisés sous forme de colonnes avec le temps allant de haut en bas comme dans le système d'équations.

Étant donné les données oui et la matrice de conception X, la procédure d'ajustement GLM doit trouver un ensemble de valeurs bêta expliquant les données aussi bien que possible. Les valeurs d'évolution temporelle prédites par le modèle sont obtenues par la combinaison linéaire des prédicteurs :

Un bon ajustement serait obtenu avec des valeurs bêta conduisant à des valeurs prédites aussi proches que possible des valeurs mesurées oui. En réarrangeant le système d'équations, il est évident qu'une bonne prédiction des données implique de petites valeurs d'erreur :

Une idée intuitive serait de trouver ces valeurs bêta en minimisant la somme des valeurs d'erreur. Étant donné que les valeurs d'erreur contiennent à la fois des valeurs positives et négatives (et en raison de considérations statistiques supplémentaires), la procédure GLM n'estime pas les valeurs bêta en minimisant la somme des valeurs d'erreur, mais trouve ces valeurs bêta en minimisant la somme des valeurs d'erreur au carré :

Le terme e'e est la notation vectorielle pour la somme des carrés (Sigma e 2 ). Le symbole de l'apostrophe désigne la transposition d'un vecteur ou d'une matrice. Les poids bêta optimaux minimisant les valeurs d'erreur au carré (les « estimations des moindres carrés ») sont obtenus de manière non itérative par l'équation suivante :

Le terme entre parenthèses contient une multiplication matrice-matrice des transposés, X', et non transposé, X, matrice de conception. Ce terme donne une matrice carrée avec un nombre de lignes et de colonnes correspondant au nombre de prédicteurs. Chaque cellule du X'X matrice contient le produit scalaire de deux vecteurs prédicteurs. Le produit scalaire est obtenu en additionnant tous les produits des entrées correspondantes de deux vecteurs correspondant au calcul de covariance. Cette X'X La matrice correspond donc à la matrice de variance-covariance du prédicteur. La matrice de variance-covariance est inversée comme indiqué par le symbole "-1". La matrice résultante (X'X) -1 joue un rôle essentiel non seulement pour le calcul des valeurs bêta mais aussi pour tester la significativité des contrastes (voir ci-dessous). Le terme restant du côté droit, X'oui, s'évalue en un vecteur contenant autant d'éléments que de prédicteurs. Chaque élément de ce vecteur est le produit scalaire (covariance) d'une évolution temporelle du prédicteur avec l'évolution temporelle du voxel observée.

Une propriété intéressante de la méthode d'estimation des moindres carrés est que la variance de l'évolution temporelle mesurée peut être décomposée en la somme de la variance des valeurs prédites (variance liée au modèle) et de la variance des résidus :

Puisque la variance de l'évolution temporelle du voxel est fixe, minimiser la variance d'erreur par les moindres carrés correspond à maximiser la variance des valeurs expliquées par le modèle. Le carré du coefficient de corrélation multiple R fournit une mesure de la proportion de la variance des données qui peut être expliquée par le modèle :

Les valeurs du coefficient de corrélation multiple varient entre 0 (aucune variance expliquée) à 1 (toute variance expliquée par le modèle). Un coefficient de R = 0,7, par exemple, correspond à une variance expliquée de 49 % (0,7x0,7). Une autre façon de calculer le coefficient de corrélation multiple consiste à calculer un coefficient de corrélation standard entre les valeurs prédites et les valeurs observées : R = raa. Cette équation offre un autre point de vue sur la signification du coefficient de corrélation multiple quantifiant l'interrelation (corrélation) de l'ensemble combiné de variables prédictives avec l'évolution temporelle observée.


Quel est le vecteur de réponse dans le modèle IRMf GLM ? - La biologie

De nombreuses techniques ont été proposées pour analyser statistiquement les données d'IRMf, et diverses d'entre elles sont d'usage général. Le but d'une telle analyse est de produire une image identifiant les régions qui montrent un changement de signal significatif en réponse à la tâche. Chaque pixel se voit attribuer une valeur dépendant de la probabilité de l'hypothèse nulle, selon laquelle les changements de signal observés peuvent être expliqués purement par une variation aléatoire des données cohérentes avec sa variance, étant fausse. Une telle image est appelée une carte paramétrique statistique. Le but de cette section est de montrer comment de telles cartes peuvent être produites.

Toutes les méthodes décrites ci-dessous ont été utilisées, à un moment ou à un autre, dans l'analyse des données présentées dans cette thèse. La plupart ont été mis en œuvre en tant que programmes « C », à l'exception notable de l'utilisation du SPM[10] Implémentation du modèle linéaire général.

Tout au long de cette section, les techniques d'analyse décrites sont illustrées sur un exemple d'ensemble de données. L'expérience réalisée visait à détecter les activations résultant d'une tâche motrice visuellement repérée. L'ensemble du cerveau du sujet a été imagé, en 16 coupes coronales de résolution 3 x 3 x 10 mm 3 , toutes les quatre secondes. Comme indiqué par un écran LED, ils devaient presser une balle à une fréquence de 2 Hz. L'expérience impliquait 16 s de repos, suivies de 16 s d'exécution de la tâche, répétées 32 fois.

De plus amples détails sur les statistiques mentionnées dans ce chapitre peuvent être trouvés dans de nombreux manuels de statistiques, par exemple ceux de Zar[11], et Miller et Freund[12].

6.3.1 Techniques de soustraction

L'une des méthodes les plus simples pour obtenir les résultats d'une expérience d'IRMf à deux états consiste à effectuer une simple soustraction. Ceci est réalisé en faisant la moyenne de toutes les images acquises pendant la phase « on » de la tâche, et en soustrayant la moyenne de toutes les images « off ». L'inconvénient d'une telle technique est qu'elle est extrêmement sensible au mouvement de la tête, ce qui entraîne de grandes quantités d'artefacts dans l'image. La figure 6.7a montre une seule tranche à travers le cortex moteur à partir de l'exemple de jeu de données, et la figure 6.7b montre le résultat de la soustraction des images « off » des images « on ». Bien qu'une augmentation du signal puisse être observée dans le cortex moteur primaire, il existe également une grande quantité d'artefacts, en particulier aux limites de l'image.

Une telle méthode ne donne pas de statistique pouvant être testée par rapport à l'hypothèse nulle, donc au lieu d'une soustraction directe, il est plus courant d'utiliser un test t de Student. Cela pondère la différence des moyennes, par l'écart type des valeurs « off » ou « on », donnant des scores t élevés aux grandes différences avec de petits écarts types, et des scores t faibles aux petites différences avec des écarts types importants. Le t-score est calculé pixel par pixel, pour une série temporelle X, en utilisant la formule

et est la variance groupée

Le suffixe '1' fait référence au m 1 images acquises pendant la période « on » de la tâche, et « 2 » se réfère à la m 2 images acquises pendant la période de repos. La figure 6.7c montre la carte paramétrique statistique des scores t pour l'ensemble de données de l'échantillon. Encore une fois, l'activation du cortex moteur est clairement visible, mais l'artefact de mouvement est réduit par rapport à la technique de soustraction.

Graphique 6.7 Utilisation de techniques de soustraction pour analyser les données d'IRMf. (a) Une image EPI coronale à tranche unique à travers le cortex moteur primaire. (b) La moyenne des images acquises pendant la période « off » de l'expérience IRMf soustraite de la moyenne des images acquises pendant la période « on ». (c) La carte paramétrique statistique t correspondant à l'image (b).

6.3.2 Techniques de corrélation

Puisque nous savons que la réponse BOLD est médiée par le flux sanguin, il est possible d'améliorer la détection des activations en prédisant la forme de la réponse au stimulus et en calculant des coefficients de corrélation entre chaque pixel et cette forme d'onde de référence. Ceci est moins sensible aux autres changements physiologiques au cours de l'expérience, et au mouvement. Pour un cours de temps X, et une forme d'onde de référence Y, le coefficient de corrélation est calculé comme

et a une valeur de 1 pour une corrélation parfaite, une valeur de zéro pour aucune corrélation et une valeur de -1 pour une anti-corrélation parfaite.

Le choix d'une forme d'onde de référence appropriée est vital pour le succès de cette technique dans la recherche d'activations. La première approximation pourrait être une onde carrée, qui est élevée pour les scans acquis pendant la tâche, et faible pour les scans acquis pendant le repos (Figure 6.8a). Une telle forme d'onde ne tient cependant pas compte du retard et de la douceur de la réponse hémodynamique qui régule le contraste BOLD. Une amélioration serait de changer la phase de l'onde carrée (figure 6.8b), avec un délai compris entre 3 et 6 secondes.

Pour améliorer encore la forme d'onde de référence, il est nécessaire d'examiner de plus près la réponse hémodynamique réelle. Dans une expérience telle que celle utilisée pour l'exemple de jeu de données, où il y a à la fois une activation visuelle et motrice, il est possible d'utiliser la réponse à un type de stimulus pour former la forme d'onde de référence pour trouver l'autre. Dans ce cas, la série temporelle pour un ou plusieurs pixels, disons le cortex visuel, est extraite (Figure 6.8c), et les coefficients de corrélation sont calculés entre cette forme d'onde et celle de chaque autre pixel de l'image.Une telle analyse ne détecte que les régions du cerveau qui répondent au stimulus de la même manière que le cortex visuel. L'inconvénient majeur de cette technique est qu'elle est particulièrement sensible aux artefacts de mouvement, car si un tel artefact est présent dans la forme d'onde de référence, alors le mouvement des autres régions sera fortement corrélé. Pour tenter de réduire cela, la réponse dans le cortex visuel à chaque stimulus peut être moyennée ensemble, produisant une réponse moyenne au cycle unique. La forme d'onde de référence est alors constituée d'une répétition de ces réponses moyennes à cycle unique (Figure 6.8d).

Graphique 6.8. Diverses fonctions de référence qui peuvent être utilisées pour corréler avec un cours de temps de pixel pour détecter les activations (voir le texte pour les descriptions)

Pour être plus général dans la prédiction de la réponse hémodynamique, afin qu'une forme d'onde de référence puisse être construite pour n'importe quelle longueur de stimulus, il est nécessaire de connaître la réponse à un seul stimulus. Friston [13] a suggéré qu'une fonction de réponse hémodynamique pourrait être considérée comme une fonction d'étalement de points, qui lisse et décale la fonction d'entrée. En déconvoluant la réponse d'une zone d'activation connue avec la fonction de stimulus, la fonction de réponse hémodynamique peut être obtenue. Cependant, la fonction de réponse hémodynamique n'est pas complètement uniforme dans tout le cerveau et la forme obtenue à partir d'une région peut ne pas être optimale pour une autre. En alternative, la réponse peut être modélisée par une fonction mathématique, telle qu'une fonction de Poisson ou bêta. La fonction de Poisson

avec une largeur l = 6 secondes, semble bien correspondre aux réponses hémodynamiques observées (Figure 6.8e).

Etant donné qu'en général chaque tranche du volume imagé n'est pas acquise au même instant, il est nécessaire de tenir compte des différences temporelles dans la corrélation avec la forme d'onde de référence. Pour ce faire, l'amplitude relative de l'activation au moment où chaque tranche a été acquise est prédite, en convoluant le stimulus d'entrée avec une fonction de Poisson. Ensuite, à partir de cette série, les coefficients de corrélation peuvent être calculés tranche par tranche, en construisant la forme d'onde de référence à partir des points appropriés dans la série temporelle prédite.

Des exemples de l'effet de la forme d'onde de référence sur le résultat sont illustrés à la Figure 6.9. Ici, les pixels de la tête qui correspondent aux formes d'onde de référence (illustrées à la figure 6.8), avec r > 0,20, sont affichés en rouge, au-dessus de l'image de base. La corrélation d'onde carrée est la moins efficace pour détecter les activations (a), cependant une amélioration considérable est obtenue en retardant la forme d'onde de 4 secondes (b). La corrélation du cortex visuel avec lui-même (c) est, sans surprise, élevée, mais l'utilisation de la réponse moyenne du cortex visuel (d) améliore la corrélation dans le cortex moteur. Le modèle de fonction de Poisson de la réponse hémodynamique (e) s'améliore légèrement sur l'onde carrée retardée, et est un bon modèle.

(a) Onde carrée
(b) Onde carrée retardée
(c) Réponse du cortex visuel
(d) Réponse moyenne du cortex visuel
(e) Modèle de distribution de Poisson

Graphique 6.9 Images d'activation obtenues en corrélant les ensembles de données de test avec les formes d'onde de référence illustrées à la figure 6.8.

6.3.3 Le modèle linéaire général

Les techniques statistiques décrites ci-dessus sont toutes deux des tests paramétriques. C'est-à-dire qu'ils supposent que les observations sont prises sur des populations normales. La plupart des techniques de modélisation paramétrique sont des cas particuliers du modèle linéaire général. Ce cadre d'analyse des données d'imagerie fonctionnelle, d'abord développé pour la TEP puis étendu pour l'IRMf, est implémenté dans le progiciel SPM[14]. Le modèle linéaire général est seulement décrit ici, puisque la théorie est largement couverte dans la littérature [15].

L'objectif du modèle linéaire général est d'expliquer la variation du cours du temps oui 1 . ouais. y n , en termes de combinaison linéaire de variables explicatives et d'un terme d'erreur. Pour un modèle simple avec une seule variable explicative X 1 . x je . x n , le modèle linéaire général peut s'écrire

b est le paramètre d'échelle ou de pente, et e je est le terme d'erreur. Si le modèle comprend plus de variables, il est pratique d'écrire le modèle linéaire général sous forme matricielle

où maintenant Oui est le vecteur des valeurs de pixels observées, b est le vecteur des paramètres et e est le vecteur des termes d'erreur. La matrice X est connue sous le nom de matrice de conception. Il comporte une ligne pour chaque point temporel dans les données d'origine et une colonne pour chaque variable explicative du modèle. En analysant une expérience d'IRMf, les colonnes de X contiennent des vecteurs correspondant aux éléments « on » et « arrêt » du stimulus présenté. En trouvant la grandeur du paramètre dans b correspondant à ces vecteurs, la présence ou l'absence d'activation peut être détectée.

b peut être déterminé en résolvant les « équations normales »

où est la meilleure estimation linéaire de b. A condition que (X T X) est inversible alors est donné par

De telles estimations de paramètres sont normalement distribuées, et puisque le terme d'erreur peut être déterminé, une inférence statistique peut être faite pour savoir si le b paramètre correspondant au modèle d'une réponse d'activation est significativement différent de l'hypothèse nulle.

Le modèle linéaire général fournit un cadre pour la plupart des types de modélisation des données et peut éliminer les effets susceptibles de perturber l'analyse, tels que la dérive ou la respiration, à condition qu'ils puissent être modélisés.

6.3.4 Le test T en série

Toutes les techniques décrites ci-dessus nécessitent la prédiction de l'évolution temporelle que suivront les régions actives. Pour de nombreuses expériences, l'utilisation d'une imagerie rapide et de paradigmes soigneusement conçus rend possible la séparation de l'ordre des événements cognitifs. Un exemple, qui fait partie de notre étude sur la maladie de Parkinson et décrit plus en détail au chapitre 7, est un paradigme impliquant l'initiation du mouvement. Dans cette expérience, le sujet devait répondre, en appuyant sur un bouton manuel, à la présentation visuelle du nombre « 5 », et ne pas répondre à la présentation d'un « 2 ». Ce paradigme présentait deux différences par rapport aux expériences conventionnelles basées sur l'époque. Premièrement, les activations d'intérêt, qui sont celles responsables de l'appui sur le bouton, se sont produites à un rythme irrégulier. Deuxièmement, tous les processus cognitifs impliqués dans la tâche, y compris à la fois la planification et l'exécution du mouvement, se sont produits dans une période de quelques centaines de millisecondes, par opposition à l'activation soutenue utilisée dans les paradigmes basés sur l'époque. Une telle expérience nécessite une nouvelle forme d'analyse. Deux techniques ont été évaluées, qui ne font aucune hypothèse sur le déroulement temporel des activations au cours de la tâche : le test t en série, décrit ici, et une technique d'analyse de la variance, expliquée dans la section suivante.

La base du test t en série est de définir une ligne de base d'état de repos et de comparer les images acquises à chaque instant avant, pendant et après la tâche avec cette ligne de base. La figure 6.10 illustre la technique. Pour chaque point temporel suivant le stimulus, une image de moyenne et d'écart type est construite, ainsi qu'une image de moyenne et d'écart type de base. Ensuite, un ensemble de cartes paramétriques statistiques t est formé en calculant, pixel par pixel, le score t (en utilisant les équations 6.5 - 6.7) pour la différence entre l'image moyenne un et l'image de base moyenne, l'image moyenne deux et la ligne de base , etc.

Graphique 6.10. Analyse IRMf à l'aide du test t en série

La figure 6.11 montre le résultat de l'analyse de l'exemple de jeu de données à l'aide de cette technique. Un tel ensemble de données ne montre pas vraiment l'avantage de l'analyse du test t en série. Les résultats présentés au chapitre 7 illustrent mieux son utilisation dans l'examen de la synchronisation des événements et des formes d'onde imprévisibles.

Figure 6.11 Résultats du traitement de l'ensemble de données de test à l'aide du test t en série. Huit ensembles d'images de volume sont présentés sous forme de lignes, les quatre premiers correspondant aux périodes de « repos » de l'expérience et les quatre suivants correspondant aux périodes de « tâche ». L'activation peut être observée à la fois dans le cortex moteur primaire et dans le cortex visuel.

La technique présente deux inconvénients majeurs. La première est que, pour obtenir un rapport signal sur bruit suffisant, il est nécessaire d'avoir beaucoup plus de cycles que dans un paradigme basé sur l'époque, ce qui conduit à des expériences plus longues. Cela peut être inconfortable pour le sujet et impose des exigences supplémentaires au matériel du scanner. Il est possible de rapprocher les tâches à événement unique, mais il doit y avoir un intervalle suffisant pour permettre au signal BOLD de revenir à la ligne de base. Ce délai est d'au moins dix secondes. Le deuxième inconvénient est que l'analyse aboutit à de nombreuses cartes paramétriques statistiques, qui doivent être interprétées dans leur ensemble. Cependant, le fait que la technique fasse peu d'hypothèses sur l'évolution des données en fait une technique solide et ouvre la possibilité d'une conception expérimentale plus diversifiée et de s'éloigner des paradigmes basés sur l'époque.

6.3.5 Analyse de l'écart

Une deuxième technique qui ne nécessite aucune hypothèse sur la forme du cours du temps d'activation, examine les changements de variance lors du calcul de la moyenne. La technique est basée sur la théorie de la moyenne des signaux simples [16]. Prenons, par exemple, la réponse mesurée à un signal répété comme le montre la figure 6.12. La série temporelle contient deux composantes, l'une est une véritable réponse au signal et l'autre est constituée des fluctuations aléatoires dues à des événements physiologiques non corrélés et au bruit dans l'image. En faisant la moyenne de 32 cycles ensemble, l'amplitude de la composante bruyante est réduite mais celle du signal répété ne l'est pas. La réduction de la composante bruyante peut être mesurée en calculant la variance à la fois de l'ensemble de données non moyenné et moyenné.

Graphique 6.12. Moyenne du signal. La variance du bruit dans le signal moyen est N fois moins que dans le signal d'origine, où N est le nombre de cycles.

Pour détecter les régions d'activation, le rapport de la variance de l'ensemble de données moyenné à la variance de l'ensemble de données non moyenné est calculé pour chaque pixel de l'image. Pour les pixels situés dans des régions de variations d'intensité purement aléatoires, ce rapport sera d'environ 1/m, où m est le nombre de cycles moyennés ensemble. Les pixels dans les régions d'activation, cependant, auront un rapport significativement plus élevé que cela, car la variance des ensembles de données non moyennées et moyennées est dominée par les variations d'intensité verrouillées par le stimulus de l'effet BOLD, qui ne diminue pas lors du calcul de la moyenne.

La technique est expliquée plus formellement comme une analyse de variance (ANOVA) [17]. Si X ij fait référence au jee point dans le temps après le stimulus, de la jème cycle d'une expérience

temps t X11, X12, . X 1j , . X 1n X 1
temps 2t X21, X22, . X 2j , . X 2n X 2
. . . . . . . .
temps ce X i1 , X i2 , . Xij , . X dans X je
. . . . . . . .
temps kt Xk1 , Xk2 , . X kj , . X kn X k
X

avec m cycles et k points par cycle. L'hypothèse nulle est qu'il n'y a pas de différence significative dans les moyennes, . Cela peut être testé en comparant deux estimations de la variance de la population, s 2 , l'une basée sur les variations des mesures du même moment et l'autre sur la variance entre les moments.

La variance dans la mesure de n'importe quel moment peut être calculée par

et donc la variance moyenne dans les points temporels est donnée par

et est basé sur k(n-1) degrés de liberté. La variance des moyennes des points temporels est donnée par

alors s 2 peut être estimé par

qui est basé sur k-1 degrés de liberté. Sous l'hypothèse nulle, les deux et indépendamment estiment la variance de la population s 2 . Cela signifie que le rapport

aura une distribution F avec k-1 et k(m-1) degrés de liberté. S'il y a un changement de signal qui est verrouillé dans le temps sur le stimulus, la valeur de sera plus grande que prévu dans l'hypothèse nulle.

Dans l'analyse des données d'IRMf, les équations 6.15 - 6.19 sont utilisées pour former une carte paramétrique statistique F. Ces équations sont implémentées à l'aide des formules de raccourci suivantes

Pour évaluer la validité de cette approche sur des données réelles, des images fantômes et de tête ont été analysées. L'ensemble de données fantômes consistait en 256 images de volume, chacune d'une taille de matrice de 128 x 128 x 16, obtenues à un taux de répétition de 4 secondes. L'ensemble de données de tête se composait de 256 images de tête, de la même taille de matrice, le sujet n'effectuant aucune tâche spécifiée. Les deux ensembles de données ont été prétraités de la même manière qu'un ensemble de données d'imagerie fonctionnelle le serait, et l'analyse de la variance a ensuite été effectuée en supposant 16 points par cycle et 16 cycles. Histogrammes de F pour chaque ensemble de données sont illustrés à la Figure 6.13, avec la distribution F appropriée, représentée par une ligne pointillée, donnée par

m 1 est le nombre de points par cycle moins un, et m 2 est le nombre total de points de données moins le nombre de points par cycle[18]. Les trois histogrammes montrent un bon ajustement à la distribution F, confirmant la validité de l'application de cette technique aux données d'IRMf.

Graphique 6.13 Graphiques des scores F calculés (ligne continue) et de la distribution F appropriée (ligne pointillée) pour (a) les données simulées, (b) les données fantômes et (c) les données de la tête.

Les résultats de l'analyse de l'exemple d'ensemble de données d'activation à l'aide de la technique ANOVA sont illustrés à la figure 6.14. Comme pour le test t en série, un tel ensemble de données ne montre pas au mieux le potentiel de cette technique. Un meilleur exemple vient de l'analyse d'une étude pour étudier la mémoire à court terme.

Graphique 6.14 Résultats du traitement de l'ensemble de données de test à l'aide de la technique d'analyse de la variance. Ces pixels ombragés en rouge correspondent à des régions qui varient d'une manière qui est verrouillée dans le temps sur le stimulus.

Le paradigme du stimulus pour cette expérience comportait trois étapes. Les trois premiers chiffres successifs ont été présentés au sujet. Huit secondes plus tard, un quatrième chiffre était présenté, et le sujet devait répondre en appuyant sur un bouton dans sa main droite si ce dernier chiffre était le même que l'un des trois précédemment présentés, ou en appuyant sur le bouton dans sa main gauche sinon [19]. La dernière étape était une période de repos, pour fournir une base de référence. L'ensemble du test a été répété 32 fois.

On s'attendrait à ce que certaines régions du cerveau ne soient actives que pendant la présentation des chiffres, certaines pendant la période de rétention, certaines seulement pendant la phase de rappel et d'autres tout au long de la tâche de mémoire. Analyser de telles données à l'aide d'une technique de corrélation reviendrait à prédire tout un ensemble de formes d'onde de référence. La technique ANOVA, cependant, a détecté les réponses de différentes formes dans un test. La figure 6.15 montre les cartes d'activation obtenues à partir de l'analyse ANOVA de l'expérience de mémoire à court terme, ainsi que des tracés d'évolution dans le temps de plusieurs zones.

Graphique 6.15 Technique d'analyse de la variance appliquée aux données de l'expérience de mémoire à court terme décrite dans le texte, ainsi que des tracés de cycle moyen pour plusieurs régions d'intérêt. Les zones du cerveau qui agissent de différentes manières par rapport au stimulus peuvent être vues sur une seule image d'activation.

L'image finale d'une analyse ANOVA montre essentiellement toutes les régions qui varient d'une manière synchrone avec la présentation du stimulus. Il est aussi bon pour ramasser les désactivations que les activations. Cela fait de ces images un bon point de départ pour d'autres formes d'analyse, telles que l'analyse en composantes principales ou l'analyse de cluster, afin de glaner toutes les informations disponibles.

6.3.6 Implémentation du logiciel

En raison de la diversité des tests pouvant être effectués sur un ensemble de données, le logiciel de mise en œuvre des tests décrits ci-dessus a été écrit sous la forme d'un ensemble de programmes distincts.

Le programme corrélatif construit une forme d'onde de référence, à partir des valeurs spécifiées par l'utilisateur, et la convolue éventuellement avec une fonction de Poisson de la largeur spécifiée par l'utilisateur. Les coefficients de corrélation sont calculés à l'aide de l'équation 6.8. Si la forme d'onde de référence varie entre 0 et 1, une mesure du changement en pourcentage lors de l'activation peut être obtenue en calculant une régression linéaire de la forme

La variation en pourcentage peut être calculée comme (b/a) x 100 %.

Le logiciel calcule également l'image appropriée des scores z à l'aide de la transformée en Z de Fisher et des degrés de liberté réduits, comme expliqué dans les sections suivantes. Les noms de fichiers pour chacune de ces sorties sont

cc_<fichier>.img coefficients de corrélation enregistrés en tant que « shorts » x 10 000
pc_<fichier>.img pourcentage de changement enregistré en tant que « shorts » x 1 000 (tel que 1 % de changement de signal x 1 000)
cz_<file>.img scores z enregistrés en tant que « flottants » (non mis à l'échelle)

Les tests t en série sont effectués par tmap et tmapnc, le premier approprié pour les expériences cycliques et le second pour les expériences non cycliques. Pour la version non cyclique, les temps de stimulus sont obtenus à partir d'un fichier texte et les deux cartes de score t de sortie sont enregistrées en tant que « shorts », mis à l'échelle par 1000, dans un fichier nommé tt_<fichier>.img.

Les tests ANOVA sont effectués par les programmes anova, et anovan, qui produisent tous deux des scores f mis à l'échelle de 1000, dans un fichier nommé va_<fichier>.img.


2 réponses 2

C'est une question assez large - je la traduirais essentiellement en : qu'est-ce qu'un GLM et qu'est-ce qu'un modèle mixte. Tout d'abord, vous écrivez que vous voulez adapter un GLM, mais je suppose que vous voulez dire LM, car la formule

dénoterait typiquement un LM. Pour le GLM, nous aurions une fonction de lien supplémentaire.

Dans la formule ci-dessus, $Y$ est votre réponse, $X$ sont vos prédicteurs (matrice de conception) et $eta$ sont les coefficients de régression pour ces prédicteurs (contraste si catégorique).

Votre notation pour un modèle à effets aléatoires est un peu peu orthodoxe (je ne sais pas d'où cela est tiré), mais je soupçonne

$Y = Xeta + epsilon$ $eta = X'eta' + epsilon'$

signifie que vous souhaitez ajuster un modèle dit à pente aléatoire, dans lequel les coefficients de régression / contrastes peuvent différer pour chaque facteur de regroupement. L'hypothèse du modèle de pente aléatoire est que les différences de $eta$ entre les groupes sont tirées d'une distribution normale $epsilon'$, qui est la variabilité entre les groupes. Ainsi, le vecteur complet final des prédicteurs $eta$ est composé du $eta'$ global et des effets aléatoires $epsilon'$.

En général, je ne sais pas si cette notation est extrêmement utile pour comprendre comment fonctionne un modèle mixte - je suggérerais de commencer par lire un manuel général ou un didacticiel sur les modèles mixtes.

  • Un tutoriel simple dans R est Bates, D. Mächler, M. Bolker, B. & Walker, S. (2014) Fitting linear mixed-effect models using lme4.
  • Une référence plus statistique est Gelman, A. & Hill, J. (2006) Analyse des données à l'aide de modèles de régression et multiniveaux/hiérarchiques. Cambridge University Press, en particulier ch 11,12
  • Pour obtenir une explication de base sur les méthodes de calcul, vous pouvez consulter Bates, D. M. (2010) lme4 : Modélisation à effets mixtes avec R.

Bien sûr, il existe de nombreux autres bons livres, cela dépend de votre domaine et du niveau de mathématiques que vous recherchez.


Une approche hybride SVM-GLM pour l'analyse des données d'IRMf

Les méthodes d'analyse de données IRMf basées sur des hypothèses, représentées par le modèle linéaire général conventionnel (GLM), ont un cadre statistique strictement défini pour évaluer les activations spécifiques à une région, mais nécessitent une modélisation préalable de la réponse cérébrale qui est généralement difficile à être précise. Au contraire, les méthodes exploratoires, comme la machine à vecteurs de support (SVM), sont indépendantes de la fonction de réponse hémodynamique (HRF), mais manquent généralement d'un cadre d'inférence statistique. Pour tirer parti des avantages des deux types de méthodes, cet article présente une approche composite en combinant le GLM conventionnel avec le SVM. Ce concept hybride SVM-GLM consiste à utiliser la puissance de SVM pour obtenir une fonction de référence dérivée des données et l'entrer dans le GLM conventionnel à des fins d'inférence statistique. La fonction de référence dérivée des données a été extraite du classificateur SVM à l'aide d'une nouvelle méthode d'extraction de profil temporel. Dans les simulations avec des données synthétiques d'IRMf, le SVM-GLM a démontré une meilleure sensibilité et spécificité pour détecter les activations synthétiques, par rapport au GLM conventionnel. Avec des données réelles d'IRMf, le SVM-GLM a montré une meilleure sensibilité que le GLM ordinaire pour détecter les activations sensorimotrices.

Les figures

Classification basée sur SVM et profil temporel…

Classification basée sur SVM et extraction de profil temporel. A) Classification des données en 2 dimensions à l'aide d'un linéaire…

A) Définition du CNR, B) le temps d'activation du cerveau artificiel pour les simulations…

Un SDPtp extrait d'un…

Un SDPtp extrait des données sensorimotrices BOLD fMRI d'un sujet représentatif. A) le…

Moyenne (n = 8) ASC des…

Moyenne (n = 8) AUC des GLM et SVM-GLM réguliers sur les données synthétiques générées…

Résultats de l'analyse statistique au niveau du groupe…

Résultats de l'analyse statistique au niveau du groupe des données d'IRMf sensorimotrice BOLD gauche. Les…

Histogrammes T-score du niveau du groupe…

Histogrammes de score T de l'analyse au niveau du groupe sur la base des résultats GLM et SVM-GLM individuels…

Résultats de l'analyse statistique au niveau du groupe…

Résultats de l'analyse statistique au niveau du groupe des données d'IRMf de perfusion sensorimotrice ASL droite.…


Comment créer un modèle de revêtement généralisé (GLM)

  • âge : âge de l'individu. Numérique
  • éducation : niveau d'éducation de l'individu. Facteur.
  • état.marital : État matrimonial de l'individu. Facteur c.-à-d. Jamais marié, Marié-civ-conjoint, .
  • genre : Genre de l'individu. Facteur, c'est-à-dire masculin ou féminin
  • revenu : variable cible. Revenu supérieur ou inférieur à 50K. Facteur, c'est-à-dire >50K, <=50K
  • Étape 1 : Vérifier les variables continues
  • Étape 2 : Vérifier les variables de facteur
  • Étape 3 : Ingénierie des fonctionnalités
  • Étape 4 : Statistiques récapitulatives
  • Étape 5 : Entraînement/ensemble de test
  • Étape 6 : Construisez le modèle
  • Étape 7 : Évaluer les performances du modèle
  • étape 8 : Améliorer le modèle

Votre tâche est de prédire quelle personne aura un revenu supérieur à 50K.

Dans ce tutoriel, chaque étape sera détaillée pour effectuer une analyse sur un jeu de données réel.

Étape 1) Vérifier les variables continues

Dans la première étape, vous pouvez voir la distribution des variables continues.

  • continu <- select_if(data_adult, is.numeric) : utilisez la fonction select_if() de la bibliothèque dplyr pour sélectionner uniquement les colonnes numériques
  • récapitulatif(continu) : imprimer la statistique récapitulative

À partir du tableau ci-dessus, vous pouvez voir que les données ont des échelles totalement différentes et que les heures.par.semaines ont de grandes valeurs aberrantes (c'est-à-dire regardez le dernier quartile et la valeur maximale).

  • 1: Tracez la distribution des heures.par.semaine
  • 2 : Standardiser les variables continues
  1. Tracer la répartition

Regardons de plus près la répartition des heures.par.semaine

La variable a beaucoup de valeurs aberrantes et une distribution pas bien définie. Vous pouvez partiellement résoudre ce problème en supprimant les 0,01 % supérieurs des heures par semaine.

Nous calculons le centile supérieur de 2 %

98 pour cent de la population travaille moins de 80 heures par semaine.

Vous pouvez laisser tomber les observations au-dessus de ce seuil. Vous utilisez le filtre de la bibliothèque dplyr.

Vous pouvez standardiser chaque colonne pour améliorer les performances car vos données n'ont pas la même échelle. Vous pouvez utiliser la fonction mutate_if de la bibliothèque dplyr. La syntaxe de base est :

Vous pouvez normaliser les colonnes numériques comme suit :

Étape 2) Vérifier les variables de facteur

  • Sélectionnez les colonnes catégorielles
  • Stocker le graphique à barres de chaque colonne dans une liste
  • Imprimer les graphiques

Nous pouvons sélectionner les colonnes de facteur avec le code ci-dessous :

  • data.frame(select_if(data_adult, is.factor)): Nous stockons les colonnes de facteur dans factor dans un type de trame de données. La bibliothèque ggplot2 nécessite un objet data frame.

L'ensemble de données contient 6 variables catégorielles

La deuxième étape est plus qualifiée. Vous souhaitez tracer un graphique à barres pour chaque colonne du facteur de bloc de données. Il est plus pratique d'automatiser le processus, en particulier dans les situations où il y a beaucoup de colonnes.

  • lapply() : Utilisez la fonction lapply() pour passer une fonction dans toutes les colonnes du dataset. Vous stockez la sortie dans une liste
  • function(x): La fonction sera traitée pour chaque x. Ici x est les colonnes
  • ggplot(factor, aes(get(x))) + geom_bar()+ theme(axis.text.x = element_text(angle = 90)): Créez un graphique à barres pour chaque élément x. Remarque, pour renvoyer x en tant que colonne, vous devez l'inclure dans le get()

La dernière étape est relativement facile. Vous voulez imprimer les 6 graphiques.

Remarque : utilisez le bouton suivant pour accéder au graphique suivant

Étape 3) Ingénierie des fonctionnalités

Refonte de l'éducation

Sur le graphique ci-dessus, vous pouvez voir que la variable éducation a 16 niveaux. Ceci est important, et certains niveaux ont un nombre relativement faible d'observations. Si vous souhaitez améliorer la quantité d'informations que vous pouvez obtenir à partir de cette variable, vous pouvez la reformuler à un niveau supérieur. À savoir, vous créez des groupes plus importants avec un niveau d'éducation similaire. Par exemple, un faible niveau d'éducation sera converti en décrochage. Les niveaux d'enseignement supérieurs seront remplacés par des maîtres.

  • Nous utilisons le verbe muter de la bibliothèque dplyr. Nous changeons les valeurs de l'éducation avec la déclaration ifelse

Dans le tableau ci-dessous, vous créez une statistique récapitulative pour voir, en moyenne, combien d'années d'études (valeur z) il faut pour atteindre le baccalauréat, la maîtrise ou le doctorat.

Refonte de l'état civil

Étape 4) Statistiques récapitulatives

Il est temps de vérifier quelques statistiques sur nos variables cibles. Dans le graphique ci-dessous, vous comptez le pourcentage d'individus gagnant plus de 50k en fonction de leur sexe.

Ensuite, vérifiez si l'origine de l'individu affecte ses revenus.

Le nombre d'heures de travail par sexe.

La boîte à moustaches confirme que la distribution du temps de travail correspond à différents groupes. Dans la boîte à moustaches, les deux sexes n'ont pas d'observations homogènes.

Vous pouvez vérifier la densité du temps de travail hebdomadaire par type d'enseignement. Les distributions ont de nombreux choix distincts. Cela peut probablement s'expliquer par le type de contrat aux États-Unis.

  • ggplot(recast_data, aes( x= hours.per.week)): Un graphique de densité ne nécessite qu'une seule variable
  • geom_density(aes(color = education), alpha =0.5): L'objet géométrique pour contrôler la densité

Pour confirmer vos pensées, vous pouvez effectuer un test ANOVA à sens unique :

Le test ANOVA confirme la différence de moyenne entre les groupes.

Non-linéarité

Avant d'exécuter le modèle, vous pouvez voir si le nombre d'heures travaillées est lié à l'âge.

  • ggplot(recast_data, aes(x = age, y = hours.per.week)): Définir l'esthétique du graphique
  • geom_point(aes(color=revenu), size =0.5): Construisez le dot plot
  • stat_smooth() : ajoutez la ligne de tendance avec les arguments suivants :
    • method='lm' : tracer la valeur ajustée si la régression linéaire
    • formule = y

    En résumé, vous pouvez tester les termes d'interaction dans le modèle pour détecter l'effet de non-linéarité entre le temps de travail hebdomadaire et d'autres caractéristiques. Il est important de détecter dans quelles conditions le temps de travail diffère.

    Corrélation

    La vérification suivante consiste à visualiser la corrélation entre les variables. Vous convertissez le type de niveau de facteur en numérique afin de pouvoir tracer une carte thermique contenant le coefficient de corrélation calculé avec la méthode de Spearman.

    • data.frame(lapply(recast_data,as.integer)): Convertir les données en numérique
    • ggcorr() trace la carte thermique avec les arguments suivants :
      • method : Méthode pour calculer la corrélation
      • nbreaks = 6 : Nombre de pauses
      • hjust = 0.8 : position de contrôle du nom de la variable dans le tracé
      • label = TRUE : ajouter des labels au centre des fenêtres
      • label_size = 3 : étiquettes de taille
      • color = "grey50") : Couleur de l'étiquette

      Étape 5) Ensemble de train/test

      Toute tâche de machine learning supervisée nécessite de répartir les données entre une rame et une rame de test. Vous pouvez utiliser la « fonction » que vous avez créée dans les autres didacticiels d'apprentissage supervisé pour créer un ensemble de train/test.

      Étape 6) Construisez le modèle

      Pour voir comment l'algorithme fonctionne, vous utilisez le package glm(). Les Modèle linéaire généralisé est une collection de modèles. La syntaxe de base est :

      Vous êtes prêt à estimer le modèle logistique pour répartir le niveau de revenu entre un ensemble de caractéristiques.

      • AIC (Akaike Information Criteria) : C'est l'équivalent de R2 en régression logistique. Il mesure l'ajustement lorsqu'une pénalité est appliquée au nombre de paramètres. Plus petite AIC les valeurs indiquent que le modèle est plus proche de la vérité.
      • Déviance nulle : s'adapte au modèle uniquement avec l'interception. Le degré de liberté est n-1. Nous pouvons l'interpréter comme une valeur du Chi carré (valeur ajustée différente du test d'hypothèse de la valeur réelle).
      • Déviance résiduelle : modèle avec toutes les variables. Il est également interprété comme un test d'hypothèse du Chi carré.
      • Nombre d'itérations de Fisher Scoring : nombre d'itérations avant la convergence.

      La sortie de la fonction glm() est stockée dans une liste. Le code ci-dessous montre tous les éléments disponibles dans la variable logit que nous avons construite pour évaluer la régression logistique.

      # La liste est très longue, n'affiche que les trois premiers éléments

      Chaque valeur peut être extraite avec le signe $ suivi du nom de la métrique. Par exemple, vous avez stocké le modèle en tant que logit. Pour extraire les critères AIC, vous utilisez :

      Étape 7) Évaluer les performances du modèle

      Matrice de confusion

      Les matrice de confusion est un meilleur choix pour évaluer les performances de classification par rapport aux différentes métriques que vous avez vues auparavant. L'idée générale est de compter le nombre de fois où les instances True sont classées sur False.

      Pour calculer la matrice de confusion, vous devez d'abord disposer d'un ensemble de prédictions afin qu'elles puissent être comparées aux cibles réelles.

      • predict(logit,data_test, type = 'response'): calcule la prédiction sur l'ensemble de test. Set type = 'response' pour calculer la probabilité de réponse.
      • table(data_test$ Income, predict > 0.5) : calculez la matrice de confusion. prédire > 0,5 signifie qu'il renvoie 1 si les probabilités prédites sont supérieures à 0,5, sinon 0.

      Chaque ligne d'une matrice de confusion représente une cible réelle, tandis que chaque colonne représente une cible prévue. La première ligne de cette matrice considère les revenus inférieurs à 50k (la classe False) : 6241 ont été correctement classés en tant qu'individus ayant des revenus inférieurs à 50k (Vrai négatif), tandis que le reste a été classé à tort comme supérieur à 50k (Faux positif). La deuxième ligne considère le revenu supérieur à 50k, la classe positive était 1229 (Vraiment positif), tandis que le Vrai négatif était 1074.

      Vous pouvez calculer le modèle précision en additionnant le vrai positif + le vrai négatif sur l'observation totale

      Le modèle semble souffrir d'un problème, il surestime le nombre de faux négatifs. C'est ce qu'on appelle le test de précision paradoxe. Nous avons déclaré que la précision est le rapport entre les prédictions correctes et le nombre total de cas. On peut avoir une précision relativement élevée mais un modèle inutile. Cela arrive quand il y a une classe dominante. Si vous regardez en arrière la matrice de confusion, vous pouvez voir que la plupart des cas sont classés comme vrais négatifs. Imaginez maintenant, le modèle a classé toutes les classes comme négatives (c'est-à-dire inférieures à 50k). Vous auriez une précision de 75 pour cent (6718/6718+2257). Votre modèle fonctionne mieux mais a du mal à distinguer le vrai positif du vrai négatif.

      Précision vs rappel

      Précision examine l'exactitude de la prédiction positive. Rappeler est le ratio d'instances positives correctement détectées par le classificateur

      • mat[1,1] : Renvoie la première cellule de la première colonne de la trame de données, c'est-à-dire le vrai positif
      • mat[1,2] Renvoie la première cellule de la deuxième colonne de la trame de données, c'est-à-dire le faux positif
      • mat[1,1] : Renvoie la première cellule de la première colonne de la trame de données, c'est-à-dire le vrai positif
      • mat[2,1] Renvoie la deuxième cellule de la première colonne de la trame de données, c'est-à-dire le faux négatif

      Vous pouvez tester vos fonctions

      Lorsque le modèle dit qu'il s'agit d'un individu de plus de 50 000, il n'est correct que dans 54 % des cas et peut prétendre à des individus de plus de 50 000 dans 72 % des cas.

      Vous pouvez créer le score /> en fonction de la précision et du rappel. Le /> est une moyenne harmonique de ces deux métriques, ce qui signifie qu'il donne plus de poids aux valeurs les plus basses.

      Compromis précision vs rappel

      Il est impossible d'avoir à la fois une précision élevée et un rappel élevé.

      • Imaginez, vous devez prédire si un patient a une maladie. Vous voulez être le plus précis possible.
      • Si vous devez détecter des fraudeurs potentiels dans la rue grâce à la reconnaissance faciale, il serait préférable d'attraper de nombreuses personnes qualifiées de frauduleuses même si la précision est faible. La police pourra libérer l'individu non frauduleux.

      La courbe ROC

      Les Caractéristique de fonctionnement du récepteur courbe est un autre outil couramment utilisé avec la classification binaire. Elle est très similaire à la courbe précision/rappel, mais au lieu de tracer la précision en fonction du rappel, la courbe ROC montre le taux de vrais positifs (c'est-à-dire le rappel) par rapport au taux de faux positifs. Le taux de faux positifs est le rapport des instances négatives classées à tort comme positives. Il est égal à un moins le vrai taux négatif. Le vrai taux négatif est aussi appelé spécificité. D'où les tracés de la courbe ROC sensibilité (rappel) versus 1-spécificité

      Pour tracer la courbe ROC, nous devons installer une bibliothèque appelée RORC. Nous pouvons trouver dans la bibliothèque conda. Vous pouvez taper le code :

      conda install -c r r-rocr --yes

      Nous pouvons tracer le ROC avec les fonctions prédiction() et performance().

      • prédiction(predict, data_test$ Income) : la bibliothèque ROCR doit créer un objet de prédiction pour transformer les données d'entrée
      • performance(ROCRpred, 'tpr', 'fpr'): Renvoie les deux combinaisons à produire dans le graphe. Ici, tpr et fpr sont construits. Pour tracer la précision et le rappel ensemble, utilisez "prec", "rec".

      Étape 8) Améliorer le modèle

      Vous devez utiliser le test de score pour comparer les deux modèles

      Le score est légèrement supérieur au précédent. Vous pouvez continuer à travailler sur les données et essayer de battre le score.


      Prise en charge de l'analyse de groupe de données IRMf basée sur l'apprentissage automatique vectoriel ☆

      Pour explorer la nature multivariée des données d'IRMf et pour examiner les écarts de réponse cérébrale inter-sujets, une méthode multivariée et sans modèle de réponse cérébrale est fondamentalement nécessaire. Deux de ces méthodes sont présentées dans cet article en intégrant un algorithme d'apprentissage automatique, la machine à vecteurs de support (SVM) et le modèle à effet aléatoire. Sans aucune modélisation de la réponse cérébrale, SVM a été utilisé pour extraire une carte de discrimination spatiale (SDM) du cerveau entier, représentant la différence de réponse cérébrale entre les conditions expérimentales contrastées. L'inférence de la population a ensuite été obtenue par le biais de l'analyse des effets aléatoires (RFX) ou des tests de permutation (PMU) sur les sujets individuels & SDM. Appliqué aux données d'IRMf de perfusion par marquage de spin artériel (ASL), le SDM RFX a donné des taux de faux positifs plus faibles dans le test d'hypothèse nulle et une sensibilité de détection plus élevée pour les activations synthétiques avec des tailles de cluster et des forces d'activation variables, par rapport au modèle linéaire général univarié (GLM) -basé sur RFX. Pour une étude sensori-motrice ASL fMRI, SDM RFX et SDM PMU ont produit des modèles d'activation similaires à GLM RFX et GLM PMU, respectivement, mais avec un t valeurs et extensions de cluster au même niveau de signification. Capitalisant sur l'absence de corrélation temporelle du bruit dans les données ASL, cette étude a également incorporé PMU dans les analyses GLM et SVM au niveau individuel accompagnées d'une analyse au niveau du groupe via RFX ou PMU au niveau du groupe. Fournissant des inférences sur la probabilité d'être activé ou désactivé à chaque voxel, ces méthodes d'analyse de groupe basées sur PMU au niveau individuel peuvent être utilisées pour seuiller les résultats d'analyse de GLM RFX, SDM RFX ou SDM PMU.


      Analyse vectorielle indépendante (IVA) : approche multivariée pour l'étude de groupe IRMf

      L'analyse en composantes indépendantes (ICA) des données d'IRMf génère des cartes d'activation cérébrale spécifiques à chaque session/individu sans hypothèses a priori concernant le calendrier ou le modèle des réponses au signal dépendant du niveau d'oxygénation du sang (BOLD). Cependant, en raison d'une permutation aléatoire entre les composants de sortie, ICA n'offre pas de solution simple pour l'inférence de l'activation au niveau du groupe. Dans cette étude, nous présentons une méthode d'analyse vectorielle indépendante (IVA) pour résoudre le problème de permutation lors de l'analyse des données du groupe IRMf. Par rapport à l'ICA, l'IVA propose une analyse de composants dépendants supplémentaires, qui ont été attribués pour être utilisés dans le regroupement automatisé des modèles d'activation dépendants entre les sujets. Lors des tests à l'aide de données d'IRMf basées sur des essais simulés, notre méthode proposée a été appliquée à des données d'IRMf réelles utilisant à la fois un paradigme de tâche à essai unique (tâches de serrage moteur de la main droite et de génération de la parole interne) et un paradigme de tâche à trois essais (main droite tâche d'imagerie motrice). Un modèle linéaire généralisé (GLM) et le groupe ICA de la boîte à outils IRMf (GIFT) ont également été appliqués au même ensemble de données pour comparaison avec IVA. Par rapport au GLM, IVA a réussi à capturer les modèles d'activation même lorsque les zones fonctionnelles ont montré des réponses hémodynamiques variables qui s'écartaient d'une réponse hypothétique. Nous avons également montré qu'IVA inférait efficacement des modèles d'activation de groupe d'origine inconnue sans nécessiter une étape de pré-traitement (telle que la concaténation de données dans GIFT basé sur ICA). L'IVA peut être utilisé comme alternative potentielle ou comme complément aux méthodes actuelles de traitement de groupe d'IRMf basées sur l'ICA.


      1.4 Sélection des variables

      La sélection de variables pour un modèle GLM est similaire au processus pour un modèle OLS. Les tests de modèle imbriqué pour la signification d'un coefficient sont préférés au test de Wald des coefficients. Cela est dû au fait que les erreurs-types des coefficients GLM sont sensibles même à de petits écarts par rapport aux hypothèses du modèle.Il est également plus précis d'obtenir des valeurs de p pour les coefficients GLM à partir de tests de modèles imbriqués.

      Le test du rapport de vraisemblance (LRT) est généralement utilisé pour tester des modèles imbriqués. Pour les modèles quasi familiaux, un test F est utilisé pour les tests de modèles imbriqués (ou lorsque l'ajustement est surdispersé ou sous-dispersé). Cette utilisation de la statistique F est appropriée si les tailles des groupes sont approximativement égales.

      La variable à sélectionner pour un modèle peut dépendre de la famille utilisée dans le modèle. Dans ces cas, la sélection variable est liée à la sélection familiale. Les critères de sélection variables tels que l'AIC et le BIC ne sont généralement pas applicables pour la sélection entre les familles.


      Résultats

      Décodage et reconstruction de visage

      Nous avons utilisé le modèle VAE-GAN pré-entraîné décrit dans la figure 1 (avec des paramètres « figés ») pour entraîner un système de décodage cérébral. Au cours de la formation (Fig. 2a), le système a appris la correspondance entre les modèles d'activité cérébrale en réponse à de nombreuses images de visage et la représentation latente 1024-D correspondante des mêmes visages au sein du réseau VAE. Plus de 8000 exemples distincts ont été utilisés en moyenne (intervalle entre les sujets : 7664 à 8626), ce qui a nécessité 12 heures de numérisation sur huit sessions distinctes pour chaque sujet. La procédure d'apprentissage supposait que l'activation de chaque voxel cérébral pouvait être décrite comme une somme pondérée des 1024 paramètres latents, et nous avons simplement estimé les poids correspondants via une régression linéaire (fonction GLM dans SPM voir Méthodes). Après l'entraînement (Fig. 2b), nous avons inversé le système linéaire, de sorte que le décodeur a reçu le schéma cérébral du sujet visualisant une nouvelle image de visage spécifique en entrée (un visage qui n'était pas inclus dans l'ensemble d'entraînement), et son la sortie était une estimation du vecteur de caractéristiques latentes à 1024 dimensions pour ce visage. L'image du visage a ensuite été générée (ou « reconstruite ») via le réseau neuronal génératif (VAE-GAN).

      Décodage cérébral d'images de visage basé sur des représentations latentes VAE-GAN. une Phase de formation. Chaque sujet a vu

      8000 visages (une présentation chacun) dans une conception événementielle rapide. Les mêmes images de visage ont également été passées à travers le réseau « Encoder » (comme décrit sur la figure 1) ou une décomposition PCA, pour obtenir une description de visage latente en 1024 dimensions. Le « décodeur du cerveau » était une simple régression linéaire, entraînée à associer le vecteur latent à 1024 dimensions avec le modèle de réponse cérébrale correspondant. Cette régression linéaire, avec 1024 régresseurs paramétriques pour le signal BOLD (et un terme de « biais » constant supplémentaire), a produit une matrice de poids W (1025 par mvoxels dimensions) optimisé pour prédire les schémas cérébraux en réponse aux stimuli du visage. b Phase de test. Nous avons également présenté 20 visages de « test » distincts (ne faisant pas partie de l'ensemble d'apprentissage, au moins 45 présentations entrelacées au hasard chacune) aux sujets. Les schémas d'activité cérébrale résultants ont été simplement multipliés par la matrice de poids transposée W T (mvoxels par 1025 dimensions) et sa matrice de covariance inverse pour produire une estimation linéaire des dimensions du visage latent. Le réseau générateur (Fig. 1a) ou une transformation PCA inverse a ensuite été appliqué pour traduire le vecteur latent prédit en une image de visage reconstruite

      Nous avons comparé les résultats obtenus à partir de ce modèle de réseau de neurones profonds avec ceux produits par un autre modèle plus simple de décomposition d'images de visage : l'analyse en composantes principales (ACP, ne retenant que les 1024 premières composantes principales de l'ensemble de données d'apprentissage, voir Fig. 1 supplémentaire). Le modèle PCA décrit également chaque visage par un vecteur dans un espace latent de 1024 dimensions, et peut également être utilisé pour reconstruire des visages sur la base d'une estimation de ce vecteur de caractéristiques 1024-D, comme démontré dans des études récentes 13,14.

      Pour le réseau de neurones profonds et les modèles basés sur l'ACP, nous avons défini un sous-ensemble des voxels de matière grise comme notre « région d'intérêt » (ROI). En effet, de nombreuses parties du cerveau effectuent des calculs qui ne sont pas liés au traitement du visage ou la reconnaissance de telles régions dans notre analyse affecterait négativement le rapport signal/bruit. Notre critère de sélection combinait deux facteurs : (i) les voxels devaient répondre aux stimuli du visage (tels que déterminés par un t test entre les conditions du visage et les conditions de base, c'est-à-dire la fixation d'un écran vide), et (ii) la variance expliquée de la réponse BOLD des voxels devrait s'améliorer lorsque les 1024 caractéristiques latentes du visage ont été entrées comme régresseurs dans le modèle linéaire (par rapport aux un modèle de base avec seulement un régresseur de visage binaire : visage présent/absent). La distribution des voxels le long de ces deux dimensions, et le critère de sélection correspondant, sont illustrés pour un sujet représentatif dans la Fig. 2 supplémentaire. Sur les quatre sujets, le nombre de voxels résultants dans la sélection a été

      100 000 (moyenne : 106 612 plage : 74 388-162 388). Les voxels sélectionnés sont représentés sur la figure 3, ils comprennent les régions occipitale, temporale, pariétale et frontale. Une sélection distincte a été faite sur la base des paramètres du visage de l'ACP et utilisée pour le « décodeur du cerveau » basé sur l'ACP (nombre moyen de voxels sélectionnés : 106 685, plage : 74 073–164 524), les régions sélectionnées étaient pratiquement identiques pour les deux modèles. Il est important de souligner que les critères de sélection de voxels ci-dessus ont été appliqués sur la base de réponses BOLD aux images de visage d'entraînement uniquement, mais pas aux 20 images de test. Par conséquent, l'analyse de décodage ne souffre pas de problèmes de « raisonnement circulaire » causés par cette sélection de voxels. 16 .

      Voxels sélectionnés pour le décodage cérébral. Les voxels ont été sélectionnés sur la base d'une combinaison de leur réactivité visuelle et de leur qualité d'ajustement GLM pendant la phase d'entraînement du décodeur cérébral (Fig. 2a). Le code de couleur (rouge à jaune) indique le nombre de sujets (1-4) pour lesquels chaque voxel particulier a été sélectionné. Les lignes colorées indiquent les limites des régions corticales standard 43

      Des exemples d'images de visage reconstruites à partir de l'ensemble d'images de test de chacun des quatre sujets sont représentés sur la figure 4a. Bien que les modèles VAE-GAN et PCA puissent reconstruire une ressemblance acceptable des visages originaux, les images reconstruites à partir du réseau neuronal génératif profond (VAE-GAN) semblent plus réalistes et plus proches de l'image originale. Nous avons quantifié les performances de notre système de décodage cérébral en corrélant les vecteurs latents estimés par le cerveau des 20 visages de test avec les 20 vecteurs réels, et avons utilisé les valeurs de corrélation par paires pour mesurer le pourcentage de classification correcte. Pour chaque sujet, pour chacun des 20 visages de test, nous avons comparé le vecteur 1024-D décodé avec le vecteur de vérité terrain de l'image de test réelle, et à celui d'une autre image de test (distracteur) : le décodage du cerveau était « correct » si la corrélation avec le vecteur cible réel était plus élevée qu'avec le vecteur distracteur. Ceci a été répété pour toutes les paires (20 × 19) d'images de test, et la performance moyenne par rapport au hasard (50 %) avec un test de Monte-Carlo non paramétrique (voir Méthodes : Statistiques). Les reconstructions à partir du modèle GAN ont atteint une classification de 95,5 % (plage : 91,3 à 98,7 %, toutes p < 10 −6 ), alors que le modèle PCA n'atteignait que 87,5% (plage 76,6-92,4%, toujours très au-dessus du hasard, tous p < 10 −4 , mais bien en deçà du modèle GAN, test non paramétrique de Friedman, ?? 2 (1) = 4, p < 0.05). Nous avons également testé la capacité du décodeur cérébral à choisir le bon visage exact parmi les 20 visages de test : cette tâche de « reconnaissance totale » était considérée comme correcte si et seulement si le vecteur latent reconstruit était plus corrélé au vrai vecteur cible qu'à l'ensemble des les 19 vecteurs de distraction. Il s'agit d'un test de reconnaissance faciale plus strict, avec un niveau de chance à 5 % : le modèle VAE-GAN a obtenu 65 % de résultats corrects p < 10 −6 ), alors que le modèle PCA n'a abouti qu'à une reconnaissance correcte de 41,25 % (plage de 25 à 50 %, tous p < 10 −3 ) encore une fois, les performances du modèle VAE-GAN étaient significativement supérieures à celles de l'ACP (?? 2 (1) = 4, p < 0.05).

      Reconstitution du visage. une Exemples d'images de visage reconstruites. Pour chacun de nos quatre sujets (S1–4), la première colonne affiche quatre exemples de visages (deux hommes + deux femmes, choisis parmi les 20 visages de test) réellement montrés au sujet lors des sessions de numérisation. Les deux colonnes suivantes sont les reconstructions de visage basées sur les modèles d'activation IRMf correspondants pour le système de décodage cérébral formé à l'aide de l'espace latent VAE-GAN (colonne du milieu) ou de la décomposition PCA (colonne de droite). b Reconnaissance par paire. La qualité du décodage cérébral a été quantifiée par une classification de motifs par paires (opérant sur les estimations vectorielles latentes) et la performance moyenne par rapport au hasard (50%). Le décodage cérébral à partir du modèle VAE-GAN a atteint en moyenne 95,5% de performances correctes (p < 10 −6 ), le modèle PCA seulement 87,5% (p < 10 −4 ) la différence entre les deux modèles était significative (?? 2 (1) = 4, p < 0.05). c Reconnaissance totale. Un critère de performance plus strict a également été appliqué, selon lequel le décodage était considéré comme correct si et seulement si la procédure identifiait le visage cible exact parmi les 20 visages de test (chance = 5%). Là encore, les performances du modèle VAE-GAN (65%) étaient bien supérieures au hasard (p < 10 −6 ), et a surperformé (?? 2 (1) = 4, p < 0,05) le modèle PCA (41,25% p < 10 -3 )

      Comme les modèles de régression linéaire nécessitent généralement beaucoup plus d'échantillons de données que leurs dimensions d'entrée, nous avions initialement décidé d'entraîner le système de décodage cérébral avec

      8000 visages par sujet (contre 1024 dimensions latentes). Afin d'établir si des ensembles d'apprentissage plus petits pourraient être suffisants, nous avons répété l'étape de régression linéaire (calcul de la W matrice de la Fig. 2a) en utilisant seulement la moitié, le quart ou le huitième de l'ensemble de données d'apprentissage (voir Fig. 3 supplémentaire). Pour les mesures de reconnaissance par paires et complètes, des performances supérieures à la chance pourraient déjà être obtenues avec

      1000 visages d'entraînement cependant, les performances de décodage ont continué à augmenter à mesure que la taille de l'ensemble d'entraînement augmentait et était la plus élevée pour

      8000 visages d'entraînement. Il est important de noter que le modèle PCA est resté inférieur au modèle VAE-GAN pour toutes les tailles d'ensembles d'entraînement.

      Ces comparaisons indiquent qu'il est plus facile et plus efficace de créer une cartographie linéaire des activations du cerveau humain vers l'espace latent VAE-GAN que vers l'espace PCA. Ceci est compatible avec notre hypothèse selon laquelle le réseau neuronal génératif profond est plus similaire à l'espace des représentations du visage humain. De plus, cette précision de classification a été mesurée ici en fonction de la distance (ou corrélation vectorielle) dans l'espace latent de chaque modèle il est même possible que la différence entre les deux modèles puisse être exacerbée si leur précision était évaluée avec une métrique commune, telle que la qualité perceptive des images reconstruites. Pour étayer cette idée, nous avons demandé à des observateurs humains naïfs de comparer la qualité des visages reconstruits par les deux modèles : chaque image de test originale de chacun des quatre sujets a été montrée avec les reconstructions VAE-GAN et PCA correspondantes, l'observateur a décidé quelle reconstruction était perceptuellement plus similaire à l'original. Chaque paire a été notée 15 fois dans l'ensemble, par au moins 10 participants distincts, avec au moins cinq participants voyant les deux options de réponse dans l'un ou l'autre ordre, VAE-GAN en premier ou PCA en premier. La reconstruction VAE-GAN a été choisie dans 76,1 % des essais, alors que la reconstruction PCA n'a été choisie que dans 23,9 % des essais. C'est-à-dire que les observateurs étaient trois fois plus susceptibles de préférer la qualité des visages reconstruits VAE-GAN que les reconstructions PCA, une différence qui était très peu susceptible de se produire par hasard (test binomial, 1200 observations, p < 10 -10 ).

      Contributions de régions cérébrales distinctes

      Pour déterminer quelles régions du cerveau ont le plus contribué aux capacités de reconstruction du visage des deux modèles de décodage du cerveau, pour chaque sujet, nous avons divisé notre sélection de voxels en trois sous-ensembles de taille égale, comme illustré sur la figure 5a. La procédure de décodage du cerveau et de reconstruction du visage a ensuite été appliquée séparément pour ces trois sous-ensembles. Les résultats de la reconnaissance par paires ont révélé que les voxels occipitaux, et dans une moindre mesure les voxels temporaux, fournissaient la plupart des informations nécessaires au décodage cérébral (Fig. 5b). Les performances de décodage des voxels occipitaux étaient bien supérieures au hasard (50 %) pour les deux modèles (VAE-GAN : 91,8 %, tous p < 10 -6 PCA : 87,2 %, tous p < 10 −4 ), et de même pour les voxels temporels (VAE-GAN : 78,8 %, tous p < 10 -3 APC : 73,6 %, tous p < 0.01). En revanche, bien que les voxels fronto-pariétaux satisfassent à nos critères de sélection (voir Fig. 3), ils ne portent pas à eux seuls des informations suffisamment fiables pour permettre une classification précise (VAE-GAN : 60,1 %, un sujet avec p < 10 -6 , tous les autres p > 0,2 PCA : 56,4 %, un sujet avec p < 10 -6 , tous les autres p > 0,05 voir, cependant, Lee et al. 14). Le modèle de résultats était identique pour les modèles de décodage VAE-GAN et PCA : un test de Friedman non paramétrique a suggéré que les performances différaient entre les trois sous-ensembles (pour VAE-GAN : ?? 2 (2) = 8, p < 0,02 pour l'ACP : ?? 2 (2) = 6.5, p < 0,04), avec des tests post hoc révélant que les voxels occipitaux fonctionnaient significativement mieux que les frontopariétaux, avec des voxels temporaux entre les deux (pas significativement différents des deux autres). Dans toutes les sélections de voxels, l'ACP a toujours produit des précisions inférieures à celles de VAE-GAN, bien que cette différence n'ait pas atteint une signification statistique compte tenu de notre nombre limité de sujets (dans les trois sélections de voxels, ?? 2 (1) ≥ 3, p > 0,08).

      Contributions de régions cérébrales distinctes. une Procédure de segmentation des voxels. Pour étudier les régions du cerveau qui ont le plus fortement soutenu nos performances de décodage cérébral, tout en gardant les différents sous-ensembles comparables, nous avons linéairement séparé notre sélection de voxels en trois sous-ensembles de taille égale. Premièrement, le 1/3 des voxels les plus postérieurs pour chaque sujet ont été étiquetés comme « occipitaux ». Parmi les voxels restants, la moitié la plus rostrale (1/3 du nombre initial) était étiquetée comme « temporale », et la moitié caudale restante comme « frontopariétale ». Cette segmentation à trois voies, différente pour chaque sujet, a été choisie car les performances de notre procédure de décodage cérébral sont très sensibles au nombre de voxels inclus. b Performances de reconnaissance par paires pour les différentes régions d'intérêt. La sélection complète fait référence à l'ensemble de voxels représenté sur la figure 3, ce sont les mêmes données que sur la figure 4b, moyennées sur les sujets (les barres d'erreur reflètent l'erreur standard de la moyenne). Les cercles représentent les performances des sujets individuels. La ligne pointillée est la p < Seuil de signification de 0,05 pour les performances individuelles des sujets. Parmi les trois sous-ensembles, et pour les modèles VAE-GAN et PCA, la performance est maximale dans les voxels occipitaux, suivis des voxels temporaux. Les voxels fronto-pariétals en eux-mêmes ne prennent pas en charge les performances au-dessus de la chance (sauf pour l'un des quatre sujets). Dans tous les cas, les performances du modèle VAE-GAN restent supérieures à celles du modèle PCA

      Pour mieux distinguer les contributions relatives des trois régions du cerveau aux performances de décodage du cerveau, nous avons également utilisé une approche de partitionnement de la variance (Fig. 4 supplémentaire). Compatible avec les résultats déjà décrits dans la figure 5b, nous avons constaté que les prédictions vectorielles latentes dérivées des voxels occipitaux représentaient la plus grande partie de la variance des vecteurs latents de vérité terrain correspondants, suivis des voxels temporels et enfin des voxels fronto-pariétaux. Chacun des trois domaines avait également une contribution unique et indépendante à la variance expliquée, qui était considérablement plus grande pour le modèle VAE-GAN que pour le modèle PCA. Autrement dit, même si les voxels occipitaux fournissaient les reconstructions les plus précises, les voxels temporaux ne transmettaient pas simplement des informations redondantes.

      Applications possibles : décodage de genre à titre d'exemple

      La cartographie apprise entre les modèles d'activation cérébrale et l'espace latent du réseau neuronal génératif profond (c'est-à-dire la matrice W sur la figure 2a) peut servir d'outil puissant pour sonder la représentation du cerveau humain des visages, sans nécessairement avoir à effectuer des expériences supplémentaires coûteuses. Une application simple, par exemple, pourrait être la visualisation de la sélectivité des traits du visage de n'importe quel voxel ou ROI dans le cerveau. Le voxel ou ROI définit un sous-ensemble de colonnes dans le W matrice (Fig. 2), chaque colonne stockant un vecteur latent qui représente la sélectivité faciale du voxel. En exécutant simplement ce vecteur latent (ou sa moyenne sur le retour sur investissement) dans le réseau du générateur de visage, la sélectivité du voxel ou du retour sur investissement peut être révélée comme une image de visage réelle.

      Une autre extension serait d'explorer la représentation cérébrale des caractéristiques faciales importantes sur le plan comportemental, telles que le sexe, la race, les émotions ou l'âge. Une telle propriété de visage peut être exprimée sous la forme d'un vecteur latent, qui peut facilement être calculé sur la base d'un certain nombre d'exemples de visage étiquetés (en soustrayant le vecteur latent moyen pour les visages sans étiquette d'attribut du vecteur latent moyen pour les visages avec l'étiquette voir Fig .1b pour des exemples de vecteurs latents calculés avec des visages ayant une étiquette « sourire », ou une étiquette « masculin »). L'ensemble de données de visage de célébrité accessible au public (CelebA 17 ) utilisé dans nos expériences est déjà associé à 40 étiquettes de ce type décrivant le sexe, les expressions, la couleur de la peau ou des cheveux et de nombreuses autres propriétés de chaque visage. Notez que ces 40 étiquettes binaires (caractéristique présente/absente) ont été collectées via une procédure d'annotation manuelle pour chaque stimulus de visage dans l'ensemble de données de visage, et ont été choisies pour être représentatives de la variabilité dans l'ensemble de données. Étant donné le vecteur latent décrivant une telle propriété faciale, nous pouvons utiliser le modèle de décodage cérébral pour découvrir quels voxels cérébraux sont les plus sensibles à la propriété faciale associée. Cette procédure est illustrée dans la Fig. 5 supplémentaire pour l'exemple de l'attribut « gender » (étiquette « masculin »). Les voxels les plus sensibles à cette propriété faciale sont récupérés en calculant la corrélation colonne par colonne de la matrice W avec le vecteur latent « masculin » : les voxels sélectifs selon le genre doivent avoir des valeurs de corrélation fortement positives ou fortement négatives (selon leur préférence pour les visages masculins ou féminins). Les voxels avec les corrélations les plus importantes (valeur absolue) se trouvent dans les régions occipitales et temporales, notamment dans les zones visuelles précoces et le cortex fusiforme (Fig. 5 supplémentaire), conformément à un rapport précédent sur la représentation distribuée des informations sur le sexe 6 .

      Enfin, une autre façon d'étudier la représentation cérébrale d'un attribut facial spécifique consiste à créer un simple classificateur pour étiqueter les vecteurs latents décodés par le cerveau en fonction de cette propriété du visage. Ceci est illustré sur la figure 6, à nouveau pour l'exemple de l'attribut de visage « genre ». Chaque vecteur latent décodé par le cerveau est projeté sur l'axe « genre » de l'espace latent (Fig. 6a), et le signe de la projection détermine la sortie de classification (« mâle » pour positif, « femelle » pour signe négatif). Ce classificateur rudimentaire fournit suffisamment d'informations pour classer le sexe des visages avec une précision de 70 % (test binomial, p = 0,0001 Fig. 6b). Un test de Friedman non paramétrique indique que les performances de décodage du genre diffèrent entre les trois sous-ensembles de voxels (?? 2 (2) = 7.6, p < 0,03), et un test post hoc révèle que les voxels occipitaux fonctionnent significativement mieux que les frontopariétaux, avec des voxels temporaux intermédiaires (pas significativement différents des deux autres). Les tentatives précédentes de classification du sexe du visage à l'aide d'une analyse de modèle multi-voxels avaient obtenu un succès limité, avec une précision de classification maximale inférieure à 60% 6,8. Notre décodeur cérébral linéaire simple (Fig. 6a) améliore déjà ces méthodes précédentes, tout en laissant de la place pour de futures améliorations, par exemple, en utilisant des techniques de classification plus puissantes (telles que SVM) sur les vecteurs latents décodés par le cerveau.

      Décodage du genre. une Classificateur linéaire de base. Un simple classificateur de genre a été implémenté comme preuve de principe. L'axe « genre » a été calculé en soustrayant la description latente moyenne de 10 000 visages féminins de la description latente moyenne de 10 000 visages masculins. Chaque vecteur latent a été simplement projeté sur cet axe « genre », et les projections positives ont été classées comme masculines, les projections négatives comme féminines. b Précision de décodage. Lorsqu'il est appliqué aux vrais vecteurs latents pour les visages de test de chaque sujet, ce classificateur de base a donné des résultats corrects à 85 % (plage : 80 à 90 %). Il s'agit de la performance plafond du classificateur, représentée par une région grise horizontale (moyenne ± sem à travers les sujets). En opérant sur les vecteurs latents estimés via notre procédure de décodage cérébral, le même classificateur de genre a donné des résultats corrects à 70 %, bien au-dessus du hasard (test binomial, p = 0,0001 barres représentent la précision moyenne du groupe ± SEM entre les sujets, les cercles représentent les performances des sujets individuels). La classification selon le sexe était également précise en limitant l'analyse aux voxels occipitaux (71,25 %, p = 0,00005) ou voxels temporels (66,25 %, p < 0,001), mais pas les voxels fronto-pariétaux (51,25%, p = 0,37). Les symboles en forme d'étoile indiquent l'importance au niveau du groupe : ***p < 0,001, **p < 0.01. La ligne pointillée est la p < 0,05 seuil de signification pour les performances des sujets individuels

      Décodage d'images

      Pour démontrer davantage la polyvalence de notre méthode de décodage cérébral, nous l'avons ensuite appliquée à un autre problème notoirement difficile : récupérer des informations sur des stimuli qui ne sont pas directement vécus par le sujet, mais uniquement imaginés dans son « œil de l'esprit ». Des études antérieures ont montré que ce problème de classification peut être résolu lorsque les différentes classes de stimuli à imaginer sont visuellement distinctes 18 , telles que des images de différentes catégories 19,20,21,22,23,24. Cependant, la capacité de faire la distinction entre des objets très similaires visuellement, tels que des visages différents, au cours de l'imagerie, à notre connaissance, n'a jamais été signalée auparavant.

      Avant l'expérience, chaque sujet a choisi un visage parmi un ensemble de 20 images possibles (différentes de leurs ensembles d'images d'entraînement et de test). Au cours de l'expérience, il leur a été demandé d'imaginer ce visage spécifique, chaque fois qu'un grand carré gris apparaissait au milieu de l'écran (présentation 12s). Ces essais d'imagerie ont été répétés 52 fois en moyenne (intervalle entre les sujets : 51 à 55) au cours des séances d'imagerie par IRMf, entrelacés avec des présentations de stimulus normales. La réponse BOLD moyenne pendant l'imagerie a ensuite été utilisée pour estimer un vecteur de visage latent (à l'aide du décodeur cérébral illustré sur la figure 2b), et ce vecteur a été comparé aux 20 vecteurs latents possibles par paires, comme décrit précédemment pour les images de test ( figures 4b, 5b). Comme illustré sur la figure 7 (voir également la figure supplémentaire 6), les performances de décodage par paires n'étaient pas différentes du hasard (50 %) dans chacune de nos régions d'intérêt prédéfinies (sélection complète p = 0,53, occipital p = 0,30 ou régions fronto-pariétales p = 0,43), à la seule exception de la sélection temporelle des voxels, qui a produit 84,2 % de décodage correct (p = 0,012). Un test de Friedman non paramétrique a indiqué que les performances de décodage des images différaient entre les trois sous-ensembles (?? 2 (2) = 6.5, p < 0,04), et un test post hoc a révélé que les voxels temporaux fonctionnaient significativement mieux que les frontopariétaux, avec des voxels occipitaux intermédiaires (pas significativement différents des deux autres). Au total, les régions temporales, mais pas les régions occipitales ou fronto-pariétales, peuvent prendre en charge la reconstruction de l'imagerie mentale. Cette performance pourrait refléter la forte implication des régions temporales du cerveau dans le traitement du visage de haut niveau 25,26,27, ainsi que la nature principalement descendante de l'imagerie mentale 28 . Dans tous les cas, la capacité de classer des visages imaginés à partir de schémas de réponse cérébrale souligne à nouveau la flexibilité et le potentiel de notre approche.

      Décodage d'images. Le modèle de réponse IRMf BOLD enregistré lors de l'imagerie mentale d'un visage spécifique (non visible à l'écran) a été transmis à notre système de décodage cérébral. Le vecteur latent estimé résultant a été comparé au vecteur vrai et aux 19 vecteurs de distraction, par paires. Seule la sélection de voxels temporels prenait en charge le décodage d'images au-dessus du hasard, avec des performances correctes de 84,2 % (p = 0,012). Ni les régions occipitales, ni fronto-pariétales, ni la sélection complète des voxels effectuée au-dessus du hasard (tous p > 0.30). Les barres représentent la précision moyenne du groupe ( ± sem entre les sujets), les cercles représentent les performances des sujets individuels. Les symboles en forme d'étoile indiquent la signification au niveau du groupe : * pour p < 0.05


      Accès au document

      • APA
      • Standard
      • Harvard
      • Vancouver
      • Auteur
      • BIBTEX
      • SIF

      Dans : NeuroImage, Vol. 40, n° 1, 01.03.2008, p. 86-109.

      Résultats de recherche : Contribution à la revue › Article › peer-review

      T1 - Analyse vectorielle indépendante (IVA)

      T2 - Approche multivariée pour l'étude de groupe IRMf

      N1 - Informations sur le financement : Ce travail a été financé en partie par des subventions du NIH R01-NS048242 à Yoo, SS et du NIH U41RR019703 à Jolesz FA.

      N2 - L'analyse en composantes indépendantes (ICA) des données d'IRMf génère des cartes d'activation cérébrale spécifiques à chaque session/individu sans hypothèses a priori concernant le moment ou le modèle des réponses au signal dépendant du niveau d'oxygénation du sang (BOLD). Cependant, en raison d'une permutation aléatoire entre les composants de sortie, ICA n'offre pas de solution simple pour l'inférence de l'activation au niveau du groupe. Dans cette étude, nous présentons une méthode d'analyse vectorielle indépendante (IVA) pour résoudre le problème de permutation lors de l'analyse des données du groupe IRMf. Par rapport à l'ICA, l'IVA propose une analyse de composants dépendants supplémentaires, qui ont été attribués pour être utilisés dans le regroupement automatisé des modèles d'activation dépendants entre les sujets. Lors des tests à l'aide de données d'IRMf basées sur des essais simulés, notre méthode proposée a été appliquée à des données d'IRMf réelles utilisant à la fois un paradigme de tâche à essai unique (tâches de serrage moteur de la main droite et de génération de la parole interne) et un paradigme de tâche à trois essais (main droite tâche d'imagerie motrice). Un modèle linéaire généralisé (GLM) et le groupe ICA de la boîte à outils IRMf (GIFT) ont également été appliqués au même ensemble de données pour comparaison avec IVA. Par rapport au GLM, IVA a réussi à capturer les modèles d'activation même lorsque les zones fonctionnelles ont montré des réponses hémodynamiques variables qui s'écartaient d'une réponse hypothétique. Nous avons également montré qu'IVA inférait efficacement des modèles d'activation de groupe d'origine inconnue sans nécessiter une étape de pré-traitement (telle que la concaténation de données dans GIFT basé sur ICA). L'IVA peut être utilisé comme alternative potentielle ou comme complément aux méthodes actuelles de traitement de groupe d'IRMf basées sur l'ICA.

      AB - L'analyse en composantes indépendantes (ICA) des données d'IRMf génère des cartes d'activation cérébrale spécifiques à chaque session/individu sans hypothèses a priori concernant le calendrier ou le modèle des réponses au signal dépendant du niveau d'oxygénation du sang (BOLD). Cependant, en raison d'une permutation aléatoire entre les composants de sortie, ICA n'offre pas de solution simple pour l'inférence de l'activation au niveau du groupe. Dans cette étude, nous présentons une méthode d'analyse vectorielle indépendante (IVA) pour résoudre le problème de permutation lors de l'analyse des données du groupe IRMf. Par rapport à l'ICA, l'IVA propose une analyse de composants dépendants supplémentaires, qui ont été attribués pour être utilisés dans le regroupement automatisé des modèles d'activation dépendants entre les sujets. Lors des tests à l'aide de données d'IRMf basées sur des essais simulés, notre méthode proposée a été appliquée à des données d'IRMf réelles utilisant à la fois un paradigme de tâche à essai unique (tâches de serrage moteur de la main droite et de génération de la parole interne) et un paradigme de tâche à trois essais (main droite tâche d'imagerie motrice). Un modèle linéaire généralisé (GLM) et le groupe ICA de la boîte à outils IRMf (GIFT) ont également été appliqués au même ensemble de données pour comparaison avec IVA. Par rapport au GLM, IVA a réussi à capturer les modèles d'activation même lorsque les zones fonctionnelles ont montré des réponses hémodynamiques variables qui s'écartaient d'une réponse hypothétique. Nous avons également montré qu'IVA inférait efficacement des modèles d'activation de groupe d'origine inconnue sans nécessiter une étape de pré-traitement (telle que la concaténation de données dans GIFT basé sur ICA). L'IVA peut être utilisé comme alternative potentielle ou comme complément aux méthodes actuelles de traitement de groupe d'IRMf basées sur l'ICA.


      Voir la vidéo: 17 Vecteur dans lespace representation des vecteur avec les vecteur unitaire des axe x et y et z pa (Janvier 2023).