Depuis la diffusion accélérée du numérique éducatif suite à la pandémie de COVID-19 (Caron, 2020 ; Taglietti et al., 2021), des concepts tels que l’autonomie de l’esprit, l’autodidactisme (Morin, 1999), la collaboration ou l’intelligence collective semblent constituer des enjeux de taille, notamment en raison du rôle grandissant des algorithmes et de l’intelligence artificielle. En outre, l'avancée des technologies numériques au cours des dernières décennies a eu pour conséquence la production d'un volume considérable de données impliquant de nombreux domaines. Cette production a été effectuée par le biais d’outils de traitement de l'information capables de faire émerger une grande variété de données à analyser. Cette abondance de données a mis en exergue un besoin grandissant d'approches méthodologiques innovantes permettant de les collecter et de les analyser. Une pensée complexe, résultant du dialogue entre la Philosophie et la Science, semble indispensable au tissage des réseaux épistémologiques en mesure d’appréhender ces phénomènes intriqués (Morin, 2005). Dans ce contexte, la recherche par méthodes mixtes (RMM) représente une approche méthodologique susceptible de répondre à cette nécessité.
Les méthodes mixtes (MM) combinent les approches quantitatives et qualitatives permettant d'obtenir une compréhension plus approfondie et plus riche des phénomènes étudiés (Creswell & Plano Clark, 2018). Cette approche méthodologique a été reconnue comme étant particulièrement adaptée aux sciences humaines et sociales, dans le sens où elle permet d'intégrer les avantages de chacune des approches et de minimiser leurs limites (Teddlie & Tashakkori, 2009). L'utilisation des MM soulève également des questions concernant la posture épistémologique de la recherche, car elle nécessite une réflexion vis-à-vis du contexte, de la démarche de recherche, des hypothèses et théories sous-jacentes à la collecte et l'analyse de données (Johnson & Onwuegbuzie, 2004). La dichotomie souvent opérée entre les approches quantitatives et qualitatives a également suscité des interrogations quant à la capacité d’intégration de ces approches au sein d’une approche méthodologique cohérente (Flick, 2018). Les avancées technologiques, en particulier l'utilisation des outils d'analyse de données et de l'intelligence artificielle, ont également joué un rôle essentiel dans l'évolution des MM. Ces outils numériques permettent aux chercheurs de collecter et d'analyser des données plus rapidement et plus efficacement, tout en minimisant les erreurs potentielles liées à l'analyse humaine (Punch, 2014).
À l’issue d’un rappel des principaux modèles et des stratégies d’intégration possibles en RMM, nous présentons quatre études menées par des chercheurs utilisant des MM au sein de leur méthodologie de recherche. Notons que les revues de littérature, les choix méthodologiques et les résultats de chacune de ces études sont présentés de manière synthétique et sont développés plus en détail au sein des travaux dont ils sont issus. Ainsi, nous discuterons de la manière dont ces méthodes ont été utilisées afin de répondre à des questions de recherche spécifiques, des résultats et des conclusions de ces études. Enfin, la discussion sera abordée de manière transversale, en évoquant les limites et les opportunités des MM et des technologies numériques dans la recherche, ainsi que les implications concernant l'avenir de la recherche dans ces domaines liés aux instrumentations numériques.
2. Un état des lieux et des perspectives sur la recherche par méthodes mixtes
2.1. Des approches quantitatives et qualitatives aux modèles mixtes
Bryman (2012) définit l’approche quantitative comme étant une stratégie de collecte de données permettant d’analyser, de décrire et d’expliquer des phénomènes en termes de quantité. Rahman (2016) précise qu’une approche quantitative se centre sur les aspects quantifiables du comportement social (i.e., variables mesurables). Les approches quantitatives[1] présentent l’avantage de permettre la validation d’hypothèses ou de théories, tout en offrant une mesure rigoureuse des variables utilisées et la possibilité de généraliser des résultats. Néanmoins, elles ne fournissent pas systématiquement une explication approfondie de certains phénomènes (Rahman, 2016), le chercheur mène l’étude et la participation est fortement cadrée (e.g., les participants ne fournissent pas d’opinions détaillées). Ceci est principalement dû aux étapes intrinsèques à la planification d’un travail de recherche : effectuer une revue de la littérature, définir la question de recherche et les hypothèses, collecter les données, les analyser et interpréter les résultats. Par exemple, dans un contexte éducatif, le chercheur peut observer les méthodes d’enseignement avant d’évaluer de quelle manière ces méthodes influencent les performances des étudiants. Cette observation nécessite parfois d’être réalisée de manière itérative en amont de la planification de la recherche principale. Dans ce sens, l’approche quantitative ne favorise pas toujours des données de nature différente du fait de sa nature linéaire et non flexible (Eyisi, 2016).
Une approche qualitative se réfère à la production et à l’analyse des données descriptives (e.g., des productions écrites, verbales, comportement observé des individus, etc.). Flick (2014) suggère qu’une recherche qualitative revêt nécessairement un caractère subjectif. Elle vise à comprendre ou à expliquer un phénomène (e.g., comportements, attitudes, besoins, problème, etc.), en mettant l’accent sur la collecte des données verbales ou imagées, c’est-à-dire des données non quantifiables. De même, les approches qualitatives font appel à différentes méthodes de collecte de données (Creswell & Creswell, 2018) : la recherche narrative, la phénoménologie, la théorie ancrée, l’ethnographie et l’étude de cas. Les approches qualitatives permettent une compréhension en profondeur du problème étudié à travers la richesse des données collectées. De plus, elles aident à explorer le terrain afin de définir des pistes de recherche et de générer des hypothèses tout en étudiant le comportement des individus dans un environnement naturel. Enfin, elles se caractérisent par une rapidité de recrutement des participants (i.e., petit échantillon) et par un coût logistique et économique réduit en comparaison à une approche quantitative. Toutefois, en raison de la taille d’échantillon réduite, les résultats ne sont pas généralisables, ce qui conduit à une remise en question de la crédibilité des résultats au sein de la communauté scientifique. Enfin, l’analyse et l’interprétation des résultats liés à l’approche qualitative peuvent s'avérer complexes, notamment dans le cadre des recherches évaluant le langage en environnement informatique (Richards & Richards, 1994 cité par Rahman, 2016). Les avancées technologiques récentes ont permis d’automatiser l’analyse des données textuelles. En effet, les techniques telles que le traitement du langage naturel et la classification automatique permettent une analyse à grande échelle de données textuelles, rendant possible un traitement et une interprétation selon une approche quantitative. Ainsi, le traitement d’un type de donnée n’est pas limité à un seul type d’analyse, ce qui ouvre les possibilités à l’utilisation des méthodes mixtes.
La RMM désigne une méthodologie dont les premiers travaux remontent à 1929 (Lynd & Lynd, 1959) et dont la définition est en permanente évolution. En effet, Johnson et al. (2007) ont recueilli 19 définitions auprès d'experts du domaine et les ont soumises à une analyse par comparaison faisant ainsi émerger cinq thèmes[2] permettant de proposer une définition générale. Anadón (2019, p. 107) propose en synthèse la traduction suivante :
« La recherche par méthodes mixtes est un type de recherche dans lequel un chercheur ou une équipe de chercheurs combine des éléments des approches de recherche qualitative et quantitative (e.g., l’utilisation de points de vue qualitatifs et quantitatifs, la collecte de données, l’analyse, les techniques d’inférence) avec l’objectif général d’assurer l’ampleur et la profondeur de la compréhension et de la corroboration. »
Afin de les conceptualiser, Creswell et Creswell (2018) proposent trois modèles (ou devis) de base en RMM : le modèle parallèle et convergent, le modèle séquentiel explicatif et le modèle séquentiel exploratoire.
Le modèle parallèle et convergent (cf. Figure 1) est une forme de MM dans laquelle le chercheur a pour objectif de collecter de manière simultanée des données issues des méthodes qualitatives et quantitatives, d’analyser les deux ensembles de données séparément, et enfin de fusionner les résultats des deux ensembles afin de comparer les similitudes/différences.
Figure 1. Modèle parallèle et convergent
Le modèle séquentiel explicatif (cf. Figure 2) utilise au préalable des méthodes quantitatives suivies des méthodes qualitatives. L’objectif du chercheur est d’expliquer, de clarifier et de confirmer les résultats des méthodes quantitatives par le biais des résultats des méthodes qualitatives (e.g., compréhension des données aberrantes au sein de la distribution ; Creswell & Creswell, 2018).
Figure 2. Modèle séquentiel explicatif
À l’inverse du modèle précédent, le modèle séquentiel exploratoire (cf. Figure 3) débute par une exploration initiale (i.e., par le biais d’une approche qualitative) afin de construire dans un second temps une étude utilisant les analyses quantitatives. La première phase consiste à explorer un problème, à identifier les variables de l’étude et à élaborer un instrument de mesure.
Figure 3. Modèle séquentiel exploratoire
Notons que les trois modèles présentés pour mettre en œuvre des études en utilisant les MM ne sont ni exclusifs, ni exhaustifs et qu’une adaptation précise des modèles aux études est envisageable. D'autres modèles avancés existent, tels que le modèle d'intervention, le modèle de justice sociale ou le modèle d'évaluation en plusieurs étapes. In fine, le modèle conçu dépend de l'objet de recherche et de la manière de l'aborder, ce qui peut être traduit plus précisément en utilisant le système de notation (cf. Annexe 1) de Morse (1991) complété par les apports de Creswell et Plano Clark (2018).
La RMM comporte ainsi des avantages et des défis, de sa conception sur le plan expérimental, à sa mise en œuvre par des protocoles ou expérimentations jusqu'aux traitements et analyses plus complexes qui en découlent. En effet, les MM permettent une compréhension plus vaste et plus rigoureuse du problème étudié : comprendre les phénomènes en stimulant la créativité et l’innovation ; acquérir une vision plus complète d’un problème par l’intégration de différents angles de vue ; interpréter les résultats avec des données provenant de différentes sources. Cependant, la RMM présente des inconvénients : le recours aux MM est coûteux, ce qui implique le besoin d’un financement ; l’analyse des données est plus complexe et nécessite un investissement important de temps et d’expertise ; le choix du modèle permettant de fusionner les données convergentes aux connaissances antérieures implique des limites ; le processus de revue et la difficulté du processus d’intégration des données induit une absence de transparence (Creswell & Plano Clark, 2018). De plus, Larue et al. (2009) ajoutent que l’absence de précision et de clarté sur la manière dont les MM ont été intégrées dans le processus de recherche et dans le modèle de combinaison des données pourrait constituer un frein à la réalisation et à la publication de ce type de recherche auprès des éditeurs.
2.2. Vers l'intégration des données pour leur analyse
Creswell et Creswell (2018) proposent une méthodologie d’analyse des résultats expérimentaux obtenus dans le cadre de la RMM. Cette méthodologie consiste en l’intégration des données collectées, ayant pour objectif une compréhension approfondie de la situation étudiée. Elle permet de mettre en évidence des liens entre des données de nature différente, telles que les données de type numérique ou textuel, qui pourraient s’avérer complémentaires. Ainsi, ces auteurs déterminent trois phases :
- une analyse qualitative de la base de données
- une analyse quantitative de la base de données
- une analyse par MM à l’issue des analyses précédentes
Rappelons que l’analyse qualitative, qui nécessite une analyse fine et manuelle, permettrait d’obtenir une lecture précise des données sans avoir recours à des méthodes de traitement statistique. De surcroît, l’analyse qualitative a pour avantage d’explorer la composante subjective des réponses des participants, ce qui n’est pas le cas d’autres méthodes d’analyse. L’analyse quantitative est quant à elle caractérisée par la mise à l’épreuve d’hypothèses à travers l’utilisation des tests statistiques (e.g., comparaisons, analyse de la variance, modélisation, etc.) permettant de comprendre les relations existantes entre les données. Ce type d’analyse prend appui sur des modèles statistiques permettant d’appréhender le comportement en réduisant au maximum le risque d’erreur. Enfin, l’analyse par MM consiste à intégrer les bases de données traitées par les analyses qualitative et quantitative à travers une procédure de fusion des données. Dans ce sens, l’analyse par MM contribue à la mise en exergue des liens entre les résultats obtenus à travers ces deux méthodes d’analyse. Ceci contribue in fine à une compréhension plus approfondie de la situation étudiée.
Certains auteurs (Anadón, 2019 ; Bericat, 1998 ; Morgan, 1998) proposent des stratégies d’intégration (cf. Figure 4) permettant d’optimiser la mise en relation des données en fonction de l’objectif visé ainsi que du modèle de MM utilisé (Creswell & Creswell, 2018).
Figure 4. Schéma de stratégies d’intégration possibles
La première stratégie d’intégration est celle de la complémentarité qui consiste en l’utilisation simultanée de l’analyse quantitative et qualitative afin d’aborder séparément une dimension différente de l’objet d’étude. Cette stratégie permet de préserver l’indépendance des méthodes utilisées ainsi que des résultats obtenus.
La deuxième stratégie d’intégration est celle de la combinaison qui consiste en l’utilisation d’une méthode d’analyse principale (i.e., qualitative ou quantitative) associée à une méthode d’analyse secondaire, utilisée de manière subsidiaire et a posteriori afin d’accroître la validité de la méthode d’analyse principale. Cette stratégie permet de renforcer les résultats de la méthode d’analyse principale à travers les résultats de la méthode d’analyse secondaire.
La troisième stratégie d’intégration est celle de la triangulation qui consiste en l’utilisation de l’analyse quantitative et qualitative de manière simultanée afin d’aborder une même dimension de l’objet d’étude. Cette stratégie permet de préserver l’indépendance des méthodes utilisées mais les résultats obtenus sont convergents. Notons que d’autres stratégies et variantes d’intégration des données existent (Guével & Pommier, 2012 ; Pluye, 2019) mais elles ne seront pas abordées dans le cadre de cet article.
2.3. Le numérique et la massification des données
Au niveau du numérique, les recherches qui gravitent ou se produisent au travers de ses outils sont pléthores. Et si le concept n'est plus nouveau au point qu'il soit partie intégrante du quotidien au travers d'outils et usages, ils constituent, de par leur conception, un vecteur permanent et sans cesse évolutif de génération de données nouvelles. Qu'il s'agisse de la recherche publique ou privée, que ces données correspondent à des questions de recherche initiales ou bien à des indicateurs mis à disposition par les concepteurs et développeurs informatiques, cela représente des volumes considérables de données qu'il est parfois nécessaire d'explorer afin de les ajuster à notre compréhension des objets ou phénomènes étudiés. Néanmoins, cette démarche remet en question certains paradigmes de la recherche (e.g., positivisme). En effet, malgré le contrôle opéré sur les données en fonction de la situation étudiée, les chercheurs peuvent être amenés à dépasser les données anticipées en utilisant les traces ou informations générées par les outils au sein des dispositifs.
Ces tendances qui nous mènent sur les sentiers de la Big data (i.e., valorisation de données massives), du Data mining, du machine learning ou de l'intelligence artificielle nuancent certains paradigmes théoriques liés à l'observation ou à la manière de générer et de produire les informations utiles à la recherche (Borgman, 2015 ; Kitchin, 2014). Dans ce sens, le fait que l'exhaustivité ne puisse pas être garantie risque d’amener le chercheur à s'écarter de la problématique, des objectifs ou des questions de recherche selon le type de recherche (e.g., expérimental, exploratoire, confirmatoire) tout en ayant conscience des limites de ces démarches scientifiques. Pour autant, le numérique contribue à réduire ces limites entre données liées aux approches quantitatives et/ou qualitatives en générant un continuum entre données et résultats (Boyd & Crawford, 2012). Si la donnée scientifiquement construite représente une capture d'un aspect précis lié à un objet d'étude à un instant t, les données issues du numérique n'en sont pas moins malléables et peuvent être transformées (i.e., interopérabilité utile aux fins de recherche), conférant davantage de place à la précision des problématiques dans tous les domaines concernés. L'idée d'une plus grande agilité de la recherche grâce au numérique se présente alors, remettant en question les modèles traditionnels et suggérant une adaptabilité plus importante tout en maintenant un langage commun permettant d’assurer la transparence et la reproductibilité.
La diversité et la complémentarité des approches méthodologiques nous a conduit à approfondir notre compréhension des changements du comportement en environnement numérique à travers l'utilisation des MM. Les différentes approches combinées au sein de quatre études témoins permettront d'observer de manière objective les mesures comportementales ainsi que de comprendre les motivations et les dynamiques sous-jacentes à ces changements. La question centrale de cet article est de savoir comment les MM peuvent fournir une analyse plus fine et approfondie des changements du comportement, en comparaison à l'utilisation d'une seule méthode. Trois focus sont identifiés en lien avec l'évaluation des différents modèles de MM et de l'utilisation du numérique dans la recherche :
- la complémentarité des données : en examinant comment les approches combinées au sein des MM peuvent fournir une compréhension plus complète des changements du comportement en environnement numérique (mesures objectives du comportement + motivations et dynamiques sous-jacentes révélées par les approches qualitatives)
- l'intégration des données numériques : en explorant comment l'utilisation du numérique peut enrichir les données recueillies (traces numériques laissées par les individus lors de leurs interactions en tant que possibilités d'observation et d'analyse)
- l'optimisation des méthodologies de recherche : en réfléchissant sur la manière dont peuvent être utilisées efficacement les MM afin d’étudier les changements (choix méthodologiques, avantages et limites spécifiques à chaque approche dans le contexte numérique).
3. Quatre études témoins utilisant les méthodes mixtes et le numérique
3.1. Étude 1 : Modèle parallèle et convergent : Coévaluation instrumentée en français au cycle 4
Cette recherche (De Khovrine, 2023) porte sur la coévaluation individualisée (Colognesi et al., 2020) : une modalité d’évaluation hybride, agrégeant hétéroévaluation de l’enseignant et évaluations entre pairs (i.e., interévaluations). Seul le recours à un artéfact technique (Rabardel, 1995) permet de mettre en œuvre un dispositif pédagonumérique de coévaluation au sein d’une classe de collège de taille moyenne. Dans la présente étude, ce dispositif se fonde sur le triple enchâssement (Marquet, 2005) d’un artéfact didactique (la production d’écrit en français langue première), d’un artéfact pédagogique (la coévaluation individualisée) et d’un artéfact numérique (un logiciel ad hoc). Or, des conflits instrumentaux sont susceptibles de survenir (i.e., des obstacles aux usages), qui peuvent toutefois s’accompagner de processus de régulation (Zeller & Marquet, 2021).
Dans le cadre d’un protocole semi-expérimental en situation écologique, mis en œuvre auprès de 80 collégiens de cycle 4 (5e, 4e, 3e) dans trois collèges en France, cette recherche-intervention a pour but de mesurer les effets d’un dispositif pédagonumérique de coévaluation sur les apprentissages des élèves participants, spécifiquement en termes de compétences en français langue première, d’autodirection des apprentissages et de coopération ; tout en s’appuyant sur l’approche instrumentale afin d’analyser les dynamiques conflictuelles et régulatrices à l’œuvre. Les élèves participants produisent un écrit court en français langue première, qui est ensuite coévalué par l’enseignant et les pairs selon une grille d’évaluation commune. L’ensemble s’effectue au moyen du logiciel libre Moodle Atelier, qui permet de recueillir deux types de données numériques : d’une part une note de scripteur, et d’autre part un score d’interévaluateur, qui prend en compte l’écart entre interévaluations et hétéroévaluation. Via un questionnaire en ligne, une échelle psychométrique mesure également le sentiment d’efficacité personnelle et collective des élèves participants, ainsi que leur degré de conflictualité instrumentale ressentie à l’usage du dispositif. Enfin, des entretiens semi-directifs et des focus groups sont mis en œuvre avec les élèves participants d’une part, et avec les enseignants partenaires d’autre part, afin de recueillir des données textuelles relatives aux dynamiques conflictuelles et régulatrices qui caractérisent leurs usages. Selon une approche par MM, nous pratiquons des analyses quantitatives sur nos données numériques et textuelles, ainsi que des analyses qualitatives sur nos données textuelles.
Les résultats obtenus permettent de valider nos hypothèses, à savoir que le dispositif pédagonumérique de coévaluation favorise une amélioration des compétences des élèves participants en français langue première, ainsi qu’une amélioration de l’autodirection et de la coopération dans leurs apprentissages. Nous constatons par ailleurs l’émergence de dynamiques conflictuelles et régulatrices dans la genèse instrumentale de ce dispositif de coévaluation instrumentée par le numérique – dynamiques à propos desquelles nous proposons une typologie, distinguant entre artéfacts conflictuels, artéfacts régulateurs et combinatoires afférentes, ainsi qu’entre trois degrés de conflictualité : retard, renoncement partiel et renoncement total.
Dans cette recherche, les approches quantitatives et qualitatives font l’objet d’une intégration par combinaison, selon le modèle parallèle et convergent de la RMM. En effet, des données textuelles et numériques sont collectées simultanément selon ces deux approches, puis analysées séparément, avant de fusionner les résultats. La comparaison qui en résulte permet de renforcer le processus de validation des hypothèses opérationnelles, en croisant les résultats issus des approches quantitatives et qualitatives. Toutefois, ces croisements ne sont pas toujours possibles (e.g., résultats non significatifs) ; il peut en résulter une difficulté à systématiser ce modèle, ainsi qu’une relative hétérogénéité dans la scientificité des conclusions.
Notons toutefois que, sans les apports du numérique, nous n’aurions pas pu obtenir les mêmes résultats. En amont d’une part, pour le recueil des données, le logiciel Moodle Atelier nous a notamment permis de générer et de recueillir des données textuelles (e.g., consignes, grilles d’évaluation, productions écrites, feedbacks) et numériques (e.g., scores de scripteurs). Il nous a surtout permis de recueillir les scores d’interévaluateurs, un type de donnée spécifiquement généré par le logiciel au moyen d’un algorithme comparant finement, compétence par compétence, les hétéroévaluations des enseignants et les interévaluations des élèves participants. De même, le logiciel de création de questionnaires en ligne nommé Tripetto nous a permis d’implémenter des fonctionnalités de ludification pertinentes pour cette recherche en contexte scolaire (e.g., présentation sous forme de bulles de bande-dessinée, utilisation d’un avatar de type émoji). Le questionnaire mis en œuvre était singulièrement long pour certains collégiens, malgré que des sondages d’acceptabilité ont fait état de son acceptation : nous pouvons supposer que les fonctionnalités précitées ont joué un rôle important à cet égard. En aval d’autre part, le logiciel libre Jamovi a été utilisé pour le traitement des données afin de réaliser les analyses inférentielles sur les données numériques indispensables à cette recherche (e.g., corrélation de Spearman, ANOVA de Friedman). En outre, certaines données textuelles issues d’entretiens semi-directifs ont été traitées via le logiciel d’analyse textométrique IRaMuTeQ (Ratinaud, 2009). Ce recours au numérique pour le traitement des données s’inscrit d’autant plus dans une approche par MM que ce type de traitement automatisé du langage revient in fine à appliquer aux données textuelles une approche quantitative, en vue d’une analyse qualitative (i.e., thématique).
3.2. Étude 2 : Modèle séquentiel exploratoire : les déterminants de l’acceptabilité d’un jeu sérieux par des élèves marocains dyslexiques
Cette étude a pour objet d’identifier les facteurs qui favorisent ou entravent l’acceptabilité d’un jeu sérieux (JS) par des élèves dyslexiques marocains (Ouherrou et al., 2023). L’acceptabilité correspond aux croyances et aux jugements des utilisateurs face à une nouvelle technologie avant son utilisation. En particulier, elle renvoie à la tendance à être plus ou moins favorable à l’utilisation de cette nouvelle technologie (Schuitema et al., 2010). Deux principaux modèles visant à prédire l’acceptabilité d’une nouvelle technologie existent : le modèle d’Acceptation des Technologies (TAM ; Davis, 1989) et la Théorie Unifiée de l’Acceptation et de l’Utilisation de la Technologie (UTAUT ; Venkatesh et al., 2003). Cette étude est composée de deux phases. La première phase, qualitative et à visée exploratoire, met en exergue les déterminants de l’acceptabilité qui permettent de construire notre modèle de JS. La deuxième phase, quantitative et à visée confirmatoire, prend appui sur la première phase et sur le modèle UTAUT en y associant le plaisir perçu lié à l’utilisation d’une technologie (Venkatesh et al., 2003). Notre objectif général est de répondre à la question de recherche suivante : Quels sont les déterminants de l’acceptabilité d’un JS par des élèves dyslexiques ?
La première phase est composée d’un échantillon de 15 participants dyslexiques diagnostiqués. Elle met en jeu une méthodologie qualitative basée sur l’utilisation d’entretiens semi-directifs suivant un guide d’entretien. Cette phase vise à identifier les facteurs d’acceptabilité (e.g., utilité perçue, facilité d’utilisation, etc.) de SuperLexia, JS conçu lors d’une étude antérieure. Les données sont analysées au travers d’une analyse thématique manuelle. Dans un premier temps, nous relevons pour chaque participant les segments thématiques pertinents provenant de chacune des questions (Guest et al., 2011). Dans un deuxième temps, une comparaison des segments retenus, suivie d’un regroupement en sous-catégories et un calcul de leur fréquence d’apparition (Braun & Clarke, 2006) sont effectuées. Enfin, un regroupement en catégories thématiques est effectué avec le calcul du nombre d’occurrences et de pourcentages (Guest et al., 2011). La deuxième phase est composée d’un échantillon de 205 participants dyslexiques diagnostiqués. Les données sont collectées au travers d’un questionnaire structuré en trois parties. La première partie concerne l’expérience préalable avec des jeux éducatifs. La deuxième partie consiste en six échelles de mesure élaborées en fonction de la première phase et de travaux antérieurs (Davis et al., 1992 ; Venkatesh, 2000 ; Venkatesh et al., 2003). Enfin, la troisième partie concerne la collecte d’informations sociodémographiques telles que l’âge, le sexe, le type d’établissement dans lequel l’apprenant est scolarisé (i.e., privé ou public), le niveau scolaire et la présence de troubles associés. L’analyse des données est réalisée à l’aide du logiciel SPSS version 22. Afin de tester nos hypothèses, nous avons utilisé un modèle de régression linéaire multiple. Au sein de ce modèle, l’intention comportementale d’utiliser SuperLexia est désignée comme étant une variable dépendante. La performance espérée, l’effort espéré, l’influence sociale, les conditions facilitatrices et le plaisir perçu sont désignées comme étant des variables indépendantes.
Les résultats de la première phase qualitative indiquent que les élèves considèrent le JS comme étant utile pour trois raisons principales : il améliore leur apprentissage de la lecture, favorise leur réussite et conduit à l'obtention de bons résultats. Néanmoins, ces résultats ne permettent pas de modéliser les perceptions en vue de prédire l'intention d'utilisation. Les résultats de la deuxième phase quantitative confirment l'hypothèse selon laquelle les élèves perçoivent le JS comme étant bénéfique à l'apprentissage, ce qui encourage son utilisation. En revanche, ces résultats seuls ne fournissent pas d'explications quant aux raisons pour lesquelles les élèves considèrent le JS comme étant bénéfique.
Cette étude utilise un modèle séquentiel exploratoire (Creswell & Creswell, 2018) : la première phase a permis d’explorer les facteurs déterminant l’acceptabilité d’un nouveau JS tandis que la deuxième phase a permis de généraliser et de valider ces résultats. C’est dans le cadre d’une utilisation conjointe des deux approches qu’émerge une compréhension globale du phénomène étudié. La stratégie d’intégration utilisée est la combinaison, dans le sens où l'approche quantitative, adoptée de manière complémentaire et ultérieure, renforce et consolide les résultats de la méthode qualitative afin d'accroître leur validité. Dans ce sens, les résultats de la première phase qualitative permettent d’extraire six déterminants de l’acceptabilité d’un JS par des élèves dyslexiques : la performance espérée, le plaisir perçu, l’effort espéré, les conditions facilitatrices, l’expérience avec des outils similaires et l’influence sociale. Ces résultats nous indiquent la pertinence de tester le modèle d’acceptabilité lors de la deuxième phase. Les résultats de la deuxième phase quantitative suggèrent que seuls trois facteurs principaux expliquent l'intention d'utiliser un nouveau JS : la performance espérée, le plaisir perçu et l'effort espéré. Ces résultats confirment les recherches antérieures et enrichissent le modèle UTAUT.
L'utilisation combinée des deux approches, en ayant recours à des outils numériques tels que la systématisation de la collecte des données, l'analyse statistique et l'analyse du corpus, a été essentielle pour notre recherche. Les méthodes statistiques ont permis une analyse précise, et l'utilisation des avancées numériques a enrichi l'analyse du corpus. Grâce à ces approches numériques, les résultats obtenus étaient approfondis et précis. Bien que nous n'ayons pas exploité les traces du JS SuperLexia pour cette étude spécifique, il est envisageable d'utiliser les données générées par le jeu à des fins d'analyse.
3.3. Étude 3 : Modèle parallèle et convergent : l’efficacité et le travail collectif en situation d'apprentissage collective instrumentée
Les outils de collaboration en ligne sont incontournables pour favoriser l'efficacité et la productivité des équipes d'apprenants travaillant à distance (Henri, 2019). Dans cette étude, nous croisons différents modèles théoriques afin d'évaluer un outil de collaboration en informatique en lien avec les sentiments d'efficacité personnelle et collective (SEP, SEC ; Bandura, 2000 ; Cosnefroy & Jézégou, 2013) dans le cadre d'une Situation d'Apprentissage Collective Instrumentée (SACI ; Rabardel, 1995). Cette recherche s'inscrit dans une perspective interdisciplinaire croisant les domaines de l'informatique, de la psychologie, de l'ergonomie et des sciences de l'éducation et de la formation. Au niveau méthodologique, ces travaux s'insèrent dans une approche itérative et améliorative cherchant à identifier la complexité des facteurs qui contribuent à l'émergence d'intelligence collective en contexte d'apprentissage (Bellet, 2022). Cette approche vise autant les usages des outils numériques, que la conception de scénarios pédagogiques permettant d'accompagner le travail des étudiants en lien avec l'étude de leur confiance dans le travail de groupe. Le focus de cette situation nous permet de poser la problématique autour des croyances individuelles et collectives avant et après la situation, en exploitant la nature des interactions durant l'activité.
Cette étude est conduite auprès de 39 étudiants de première année en Informatique dans un protocole quasi-expérimental sur une durée de deux heures. Les étudiants sont répartis aléatoirement en 13 trinômes et sont attribués à des rôles et tâches spécifiques contribuant à une production commune. La tâche consiste à développer une application de gestion et de vente de produits en utilisant des scripts informatiques interdépendants. Les membres de chaque trinôme travaillent individuellement sur leur script, mais doivent collaborer et se coordonner pour assurer le bon fonctionnement de l'application finale. Les participants utilisent pour ce faire une plateforme de laboratoire virtuel et distant (Lab4CE ; Broisin et al., 2015), offrant notamment un terminal pour exécuter des commandes liées à leurs scripts, la possibilité de consulter les terminaux des autres participants et une messagerie instantanée pour communiquer. Les variables mesurées comprennent les scores des sentiments d'efficacité avant et après l'activité (i.e., SEP sur la discipline, le travail collaboratif et SEC), ainsi que les interactions verbales échangées et les consultations des terminaux des autres participants pendant l'activité (cf. Figure 5). Les hypothèses formulées supposent que l'activité collective améliore les scores des sentiments d'efficacité des participants et que l'utilisation des fonctionnalités collaboratives de la plateforme contribue à une meilleure gestion de l'activité collective.
Figure 5. Situation d'Activité Collective et Instrumentée avec la plateforme « Lab4CE »
Sur le plan quantitatif, nos résultats confirment une corrélation positive entre le travail collaboratif et l'efficacité collective (SEC), soutenant ainsi l'idée que la collaboration améliore les performances globales. Cependant, nos résultats divergent des attentes et de la littérature en ce qui concerne les aspects liés à la discipline et au travail en groupe avec une diminution des scores après la réalisation de la tâche. Sur le plan qualitatif, l'analyse de contenu a ainsi permis de mieux comprendre les dynamiques d'entraide permettant de soutenir la collaboration avec la caractérisation de profils d'interactions organisées autour de sessions d'entraide (Thobois-Jacob & Pélissier, 2020).
Cette étude utilise un modèle parallèle et convergent en intégrant des données de questionnaires auto-rapportés (i.e., avant et après la SACI) et des traces d'interactions (i.e., pendant la SACI). Les données qualitatives sont analysées séparément pour explorer les dynamiques d'entraide et les interactions sociales. Les résultats qualitatifs sont intégrés par combinaison avec les résultats quantitatifs pour une compréhension approfondie des liens de collaboration en SACI. En fusionnant les données, nous apportons une explication possible des résultats de l’approche quantitative impliquant une diminution des sentiments d'efficacité personnelle. L'utilisation de MM et des données issues de la plateforme numérique a ainsi permis une approche holistique en systématisant l'observation des dynamiques de collaboration et d'entraide en SACI avec les multiples variables des phénomènes étudiés. Cette approche renforce la validité des résultats et souligne l'importance de la conception collaborative et de l'instrumentation adéquate des situations d'apprentissage collectif.
Le recours à une plateforme numérique a joué un rôle central en instrumentant la collaboration à distance avec une systématisation du processus d'observation de l'activité en lien avec des facteurs humains. Sans l'utilisation d'une plateforme, il aurait été difficile d'obtenir des résultats similaires car elle a facilité la collecte des données, le guidage de l'expérimentation, ainsi que les analyses statistiques de corpus intégrées. Certaines limites doivent cependant être prises en compte, telles que la subjectivité des mesures auto-rapportées, ainsi que les contraintes liées à l'utilisation d'une plateforme numérique spécifique.
- 3.4. Étude 4 : Modèle séquentiel explicatif : la confiance généralisée en ligne, comprendre sa variabilité
Cette étude a pour objectif d’étudier la confiance (Mayer et al., 1995) et plus précisément la confiance généralisée (Uslaner, 2002). La confiance généralisée (CG) peut être définie comme étant la facilité à établir de nouvelles relations de confiance (Mayer et al., 1995). Dans cette étude, nous nous intéressons spécifiquement à sa dynamique dans le temps et à son lien avec les émotions (Samaniego Cho, 2022). L’analyse de la littérature scientifique fait état d’une vision malléable, proposée par Paxton et Glanville (2015), se caractérisant par un lien intrinsèque entre la CG et les interactions avec l’environnement. En effet, ces auteurs proposent que chacune des interactions (i.e., passées, présentes et futures) d’un individu seraient en capacité d’influencer le niveau de CG. La question de recherche dans cette étude était : Quelle est l’influence de l'émotion sur la dynamique de la CG ?
Dans le cadre de cette procédure expérimentale incluant 37 étudiants en Informatique, nous utilisons un questionnaire en ligne composé de deux échelles de mesure de la CG ainsi que d’une question ouverte. La première échelle, appelée la Generalized Trust Question (GTQ) et proposée par Rosenberg (1956), constitue l’instrument de mesure le plus utilisé dans l’étude de la CG. La deuxième échelle, appelée la Trust Propensity Scale (TPS) et créée par Frazier et ses collaborateurs (2013), se base sur l’échelle GTQ tout en présentant des caractéristiques psychométriques plus robustes. Enfin, une question ouverte est posée aux participants afin d'identifier l’éventuelle survenue d'événements connotés émotionnellement pouvant influencer le niveau de CG. Ce questionnaire est présenté à distance en utilisant le logiciel Qualtrics® à des intervalles de temps précis (cf. Figure 6).
Figure 6. Procédure employée lors de cette étude
Les temps de mesure consistent en une mesure initiale (T0) suivie de mesures ayant lieu quinze minutes (T1), trois jours (T2), sept jours (T3), quatorze jours (T4), trente-et-un jours (T5) et trois ans plus tard (T6).
Les résultats concernant les échelles de CG sont traités selon la méthode quantitative à travers un test d’analyse de la variance (i.e., ANOVA) de Friedman par le biais du logiciel Jamovi. Ce test met en évidence des différences significatives entre les mesures du niveau de CG en fonction du temps. En effet, une analyse post hoc nous permet d’identifier une augmentation significative du niveau de CG à T5 suivie d’une diminution à T6. Les productions écrites sont traitées selon la méthode qualitative à travers une analyse de contenu catégoriel. Ces productions sont regroupées selon leur capacité à influencer positivement ou négativement la confiance selon leur connotation émotionnelle. Notons que les participants rapportent une majorité d'événements positifs à T5 tandis qu’à T6, les événements rapportés sont majoritairement négatifs. Ces résultats confortent les résultats de Paxton & Glanville (2015), puisque le niveau de CG semble variable dans le temps en fonction des interactions avec l’environnement. En particulier, la survenue d’événements pouvant influencer positivement la confiance (i.e., émotions positives) semble correspondre à l’augmentation du niveau de CG observée à T5. À l’inverse, l’occurrence d'événements pouvant influencer négativement la confiance (i.e., émotions négatives) semblent correspondre à la diminution observée à T6.
Cette étude met en œuvre le modèle séquentiel explicatif (Creswell & Creswell, 2018), dans le sens où l’analyse quantitative des résultats de la phase 1 (i.e., étude préalable) nous a conduit à mener la phase 2 (i.e., étude actuelle) afin d’approfondir la compréhension de la dynamique de la CG (cf. Figure 6). Dans le cadre de l’étude actuelle, la stratégie d’intégration utilisée est la combinaison : la méthode d’analyse quantitative principale est associée à une méthode d’analyse qualitative secondaire. La méthode qualitative, utilisée de manière subsidiaire et a posteriori, permet de renforcer les résultats de la méthode quantitative afin d’en accroître la validité. Au sein de notre étude, l’analyse des productions écrites des participants à travers la méthode qualitative nous permet d’identifier des facteurs pouvant expliquer les variations du niveau de CG dans le temps. Notre interprétation des résultats obtenus s’avère enrichie par l’utilisation complémentaire de ces deux méthodes d’analyse.
L’utilisation conjointe des deux approches via la technologie numérique nous a permis de mieux appréhender les résultats, en réduisant les risques de biais possibles liés au recueil des données (méthode homogène et systématique, meilleure compréhension des propos écrits des participants, etc.), mais également liés à l’analyse (réduction du risque d’erreur grâce à la précision du calcul statistique).
4. Discussion : le numérique comme émancipateur des méthodes
Nos études tendent à appréhender l'humain en tant qu'objet d'étude complexe au travers de ses comportements et de son activité numérique, tout en reconnaissant que cette activité ne constitue pas sa seule et unique dimension. Le numérique fait cependant partie intégrante de notre quotidien et de notre travail lors de l'observation des êtres humains, il est donc essentiel de ne pas le dissocier du contexte dans lequel il s'inscrit. Ce que nous défendons au travers de cet article est une RMM au sens d’Anadón (2019), c'est à dire une recherche qui croise à la fois des connaissances sur le plan théorique et pratique (dans une démarche de transdisciplinarité au travers des disciplines convoquées) en utilisant systématiquement des MM afin de mieux comprendre les phénomènes complexes étudiés en sciences humaines et sociales (Morin, 2005). Dans ce sens, la méthodologie de recherche doit être en adéquation avec les questions posées, en combinant des mesures quantifiables, valides et reproductibles permettant d’assurer la scientificité des études. Il est également fondamental à l'ère du numérique et avec des données qui permettent de rendre compte de l'activité de manière intersubjective, d'adopter une approche rigoureuse afin d’interpréter les résultats en incluant des éléments qualitatifs permettant d’enrichir la compréhension globale des phénomènes en interaction.
Ainsi, cette combinaison de méthodes permet de dépasser les limites propres à chaque approche et d'obtenir une vision plus complète dans la modélisation de la recherche. Inscrite dans une démarche de valorisation et de mise à disposition plus générale des données de la recherche (Big Data, Small Data, corpus reproductibles, ouverts, interopérables, agrégeables pour de futures itérations ou méta-analyses), il s'agit alors d'abonder dans le sens des travaux de RMM qui se développent en effaçant progressivement les frontières entre les méthodes et les données. Il en va ainsi de la pérennité des données et du potentiel qu'ont celles-ci d'être réutilisées voire réinterprétées afin de faire face aux difficultés liées notamment à la crise de la reproductibilité (Baker, 2016 ; Ioannidis, 2005). Si la combinaison des méthodes était autrefois un frein car elle dépendait de spécialistes de chaque méthode et prenait un temps considérable à analyser puis intégrer, les évolutions technologiques actuelles réduisent ces obstacles en contribuant ainsi à un approfondissement plus rigoureux et précis. L'approche participative de la recherche, en incluant les concepteurs d'outils servant à l'instrumentation des dispositifs ou tout autre acteur contribuant directement ou indirectement à la recherche, permet une élaboration et documentation approfondie de la démarche, favorisant sa reproductibilité et son expansion. Ainsi, ces regards croisés autour de nos contributions méthodologiques s'inscrivent dans la continuité de cette idée que l'utilisation des MM et des technologies numériques ont un rôle émancipateur dans la recherche, sans vocation à réduire l'aspect humain sous une masse de données. La méthodologie doit toutefois être au service de la question de recherche ou de l'objectif de l'étude au moment de la planification afin de fournir une valeur ajoutée à l'analyse et aux résultats obtenus. L'inverse est plus difficilement opérationnalisable, notamment dans le cadre du paradigme positiviste ou de la démarche hypothético-déductive que le pragmatisme des RMM tend à dépasser, permettant de mieux comprendre les phénomènes humains.
Cet article nous a permis d'explorer la dichotomie traditionnelle entre les approches quantitatives et qualitatives dans la méthodologie de recherche. Nous avons tâché de dépasser ces deux paradigmes en soulignant que les données ne peuvent pas être réduites à une seule dimension, mais qu'elles captent différents aspects liés à un objet d'étude à un instant précis. Nous avons examiné la nature des données, qu'elles soient textuelles, numériques, brutes, enregistrées, transformées, ou qu'elles concernent le contenu, le discours, les traces ou les interactions. Nous avons également reconnu l'impact des évolutions technologiques, notamment dans l'analyse textométrique et l'analyse catégorielle de quantités, qui transcendent cette dichotomie entre qualitatif et quantitatif.
Nous avons mis en évidence qu’avec l'avènement du numérique, les frontières entre les approches quantitatives et qualitatives tendent à s’effacer. Les avancées technologiques offrent de nouvelles possibilités en termes de méthodologie de recherche, nous invitant à repenser nos pratiques afin de mieux appréhender la complexité des situations étudiées. Toutefois, il est primordial de reconnaître que le degré de contrôle sur les données demeure relatif à chaque situation étudiée et qu'il n'est pas réaliste d'atteindre une exhaustivité totale. À l'ère où l'intelligence artificielle se substitue peu à peu aux analyses humaines et manuelles, il s'agit probablement encore de renforcer, avec ouverture et transparence, nos connaissances et pratiques méthodologiques afin de mieux cerner les phénomènes sociaux analysés au travers du numérique.
À mesure que les avancées technologiques transforment la recherche, il semble indispensable de préparer les futurs chercheurs à maîtriser les outils numériques nécessaires à la collecte, l'analyse et à l'interprétation des données dans un contexte mixte. Les formations universitaires doivent donc continuer à mettre l'accent sur l'acquisition des compétences techniques, telles que l'utilisation de logiciels d'analyses qualitative et quantitative, la manipulation des données numériques, l'interprétation des résultats issus de l'analyse numérique, ainsi que la réflexion critique sur les enjeux éthiques et épistémologiques liés à l'utilisation du numérique dans la recherche. En renforçant ces compétences, les formations universitaires permettront aux chercheurs de tirer pleinement parti des opportunités offertes par le numérique et de mener des études mixtes rigoureuses et pertinentes dans un monde en constante évolution technologique.
Bibliographie
Anadón, M. (2019). Les méthodes mixtes : implications pour la recherche « dite » qualitative. Recherches qualitatives, 38(1), 105-123. https://doi.org/ggs45g
Baker, M. (2016). 1,500 scientists lift the lid on reproducibility. Nature, 533(7604), 452-454. https://doi.org/gdgzjx
Bandura, A. (2000). Exercise of Human Agency Through Collective Efficacy. Current Directions in Psychological Science, 9(3), 75‑78. https://doi.org/bt235t
Bellet, P. (2022). De l’efficacité collaborative à l’intelligence collective : mise en œuvre instrumentale en situation d’apprentissage [Thèse de doctorat, Université Paul-Valéry Montpellier 3]. https://theses.fr/2022MON30020.
Bericat, E. (1998). La integración de los métodos cuantitativo y cualitativo en la investigación social: Significado y medida. Ariel. https://shorturl.at/gptRT
Borgman, C. L. (2015). Big data, little data, no data: Scholarship in the digital age. MIT Press. https://shorturl.at/NZ369
Boyd, D., & Crawford, K. (2012). Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon. Information Communication and Society, 15(5), 662‑679. https://doi.org/7vq
Braun, V., & Clarke, V. (2006). Using thematic analysis in psychology. Qualitative Research in Psychology, 3(2), 77–101. https://doi.org/fswdcx
Broisin, J., Venant, R., & Vidal, P. (2015). Lab4CE: a Remote Laboratory for Computer Education. International Journal of Artificial Intelligence in Education, 27(1), 154‑180. https://doi.org/kjkj
Bryman, A. (2012). Social Research Methods (4è éd.). Oxford University Press. https://shorturl.at/qyGL3
Caron, P.-A. (2020). Ingénierie dispositive et enseignement à distance au temps de la COVID 19. Distances et Médiations Des Savoirs, 30. https://doi.org/kjjp
Colognesi, S., Maes, O., & Van Nieuwenhoven, C. (2020). Une recherche collaborative visant à interroger un dispositif de coévaluation des stages en formation à l’enseignement. Mesure et évaluation en éducation, 43(1), 7-31. https://doi.org/kjjs
Cosnefroy, L., & Jézégou, A. (2013). Les processus d’autorégulation collective et individuelle au cours d’un apprentissage par projet. Revue internationale de pédagogie de l’enseignement supérieur, 29(2), 1‑21. https://doi.org/grrgc9
Creswell, J. W., & Creswell, J. D. (2018). Research Design: Qualitative, Quantitative and Mixed Methods Approaches (5è éd.). Sage. https://shorturl.at/ahxNP
Creswell, J. W., & Plano Clark, V. L. (2018). Designing and Conducting Mixed Methods Research (3è éd.). Sage. https://shorturl.at/bceL1
Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS quarterly, 13(3), 319-340. https://doi.org/cc6
Davis, F. D., Bagozzi, R. P., & Warshaw, P. R. (1992). Extrinsic and Intrinsic Motivation to Use Computers in the Workplace. Journal of Applied Social Psychology, 22(14), 1111–1132. https://doi.org/frfk5w
De Khovrine, N. (2023). Évaluer autrement avec le numérique ? Coévaluation instrumentée en français au cycle 4 [Thèse de doctorat, Université Paul-Valéry Montpellier 3]. https://theses.fr/s190795
Eyisi, D. (2016). The usefulness of qualitative and quantitative approaches and methods in researching problem-solving ability in science education curriculum. Journal of education and practice, 7(15), 91-100. https://shorturl.at/exBX6
Flick, U. (2014). An Introduction to Qualitative Research (5è éd.). Sage. https://rb.gy/ysykf
Flick, U. (2018). The SAGE Handbook of Qualitative Data Collection. Sage. https://shorturl.at/mGJP4
Frazier, M. L., Johnson, P. D., & Fainshmidt, S. (2013). Development and validation of a propensity to trust scale. Journal of Trust Research, 3(2), 76-97. https://doi.org/gncdpr
Guest, G., MacQueen, K. M., & Namey, E. E. (2011). Applied thematic analysis. Sage. https://shorturl.at/jnpH0
Guével, M.-R., & Pommier, J. (2012). Recherche par les méthodes mixtes en santé publique : enjeux et illustration. Santé Publique, Vol. 24(1), 23‑38. https://doi.org/ggsxhr
Henri, F. (2019). Quel changement à l’ère numérique? Quelle ingénierie pédagogique pour y répondre? Médiations et médiatisations, 1(2), 227‑235. https://doi.org/kjkg
Ioannidis, J. P. (2005). Why most published research findings are false. PLoS medicine, 2(8), e124. https://doi.org/kjkn
Johnson, R. B., & Onwuegbuzie, A. J. (2004). Mixed Methods Research: A Research Paradigm Whose Time Has Come. Educational Researcher, 33(7), 14‑26. https://doi.org/cg679w
Johnson, R. B., Onwuegbuzie, A. J., & Turner, L. A. (2007). Toward a Definition of Mixed Methods Research. Journal of Mixed Methods Research, 1(2), 112‑133. https://doi.org/fksqf8
Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data & Society, 1(1). https://doi.org/gcdzc5
Larue, C., Loiselle, C. G., Bonin, J.-P., Cohen, R., Gélinas, C., Dubois, S., & Lambert, S. (2009). Les méthodes mixtes stratégies prometteuses pour l’évaluation des interventions infirmières. Recherche en soins infirmiers, 97(2), 50‑62. https://doi.org/kjjr
Lynd, R. S., & Lynd, H. M. (1959). Middletown: A Study in Cultural Conflicts. Brace.
Marquet, P. (2005, 25-27 mai). Intérêt du concept de conflit instrumental pour la compréhension des usages des EIAH. Actes de la conférence EIAH 2005 (Environnements Informatiques Pour l’Apprentissage Humain), 383–388, Montpellier, France. hal-00005776. https://shorturl.at/fyHT7
Mayer, R. C., Davis, J. H., & Schoorman, F. D. (1995). An integrative model of organizational trust. Academy of Management Review, 20(3), 709-734. https://doi.org/fdx9nb
Morgan, D. L. (1998). Practical strategies for combining qualitative and quantitative methods: Applications to health research. Qualitative health research, 8(3), 362-376. https://doi.org/c7bb5t
Morin, E. (1999). La tête bien faite. Repenser la réforme. Réformer la pensée. Éditions du Seuil. https://shorturl.at/dlJV9
Morin, E. (2005). Introduction à la pensée complexe. Éditions du Seuil. https://shorturl.at/abgDL
Morse, J. M. (1991). Approaches to Qualitative-Quantitative Methodological Triangulation. Nursing Research, 40(2), 120‑123. https://doi.org/bthfgx
Ouherrou, N., Mailles Viard Metz, S., El Kafi, J., & Auli-Giraldo, M. (2023). Participatory design of an Arabic serious game for children with dyslexia: A qualitative exploratory study. Universal Access in the Information Society. https://doi.org/k7m7
Paxton, P., & Glanville, J. L. (2015). Is trust rigid or malleable? A laboratory experiment. Social Psychology Quarterly, 78(2), 194-204. https://doi.org/f7fpdp
Pluye, P. (2019). L’intégration en méthodes mixtes. Cadre conceptuel pour l’intégration des phases, résultats et données qualitatifs et quantitatifs. Dans V. Ridde & Christian Dagenais (Éds.), Évaluation des interventions de santé mondiale. Méthodes avancées (pp. 187-212). Éditions science et bien commun & IRD Éditions. https://rb.gy/2xpl7
Punch, K. F. (2014). Introduction to social research: Quantitative and qualitative approaches. Sage. https://shorturl.at/doyDI
Rabardel, P. (1995). Les hommes et les technologies; approche cognitive des instruments contemporains. Armand Colin. hal-01017462. https://shorturl.at/vCEHP
Rahman, M. S. (2016). The Advantages and Disadvantages of Using Qualitative and Quantitative Approaches and Methods in Language “Testing and Assessment” Research: A Literature Review. Journal of Education and Learning, 6(1), 102-112. https://doi.org/ggp63q
Ratinaud, P. (2009). IRAMUTEQ : Interface de R pour les Analyses Multidimensionnelles de Textes et de Questionnaires. Téléchargeable à l’adresse : http://www.iramuteq.org
Rosenberg, M. (1956). Misanthropy and political ideology. American Sociological Review, 21(6), 690-695. https://doi.org/fhjwcz
Samaniego Cho, J. A. (2022). La confiance en contexte numérique : étude de ses déterminants et lien avec les émotions [Thèse de doctorat, Université Paul-Valéry Montpellier 3]. https://theses.fr/s208105
Schuitema, G., Steg, L., & Forward, S. (2010). Explaining differences in acceptability before and acceptance after the implementation of a congestion charge in Stockholm. Transportation Research Part A: Policy and Practice, 44(2), 99–109. https://doi.org/cmbj2q
Taglietti, D., Landri, P., & Grimaldi, E. (2021). The big acceleration in digital education in Italy: The COVID-19 pandemic and the blended-school form. European Educational Research Journal, 20(4), 423–441. https://doi.org/kjjq
Teddlie, C., & Tashakkori, A. (2009) Foundations of Mixed Methods Research: Integrating Quantitative and Qualitative Approaches in the Social and Behavioral Sciences. Sage. https://shorturl.at/ostJZ
Thobois-Jacob, L. & Pélissier, C. (2020). L’aide au cœur d’un espace interactionnel : le cas d’une classe renversée à l’université. Dans C. Pélissier (dir.), Notion d’aide en éducation (pp. 187‑209). ISTE editions. https://shorturl.at/duzTU
Uslaner, E. M. (2002). The Moral Foundations of Trust. Cambridge University Press. https://doi.org/fzp7xt
Venkatesh, V. (2000). Determinants of Perceived Ease of Use: Integrating Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model. Information Systems Research, 11(4), 342–365. https://doi.org/cdt
Venkatesh, V., Morris, M. G., Davis, G. B., & Davis, F. D. (2003). User Acceptance of Information Technology: Toward a Unified View. MIS Quarterly, 27(3), 425–478. https://doi.org/gc8zn2
Zeller, A., & Marquet, P. (2021, 2-3 juin). Interface et EIAH : du territoire apprenant au territoire de l’apprenant. Actes du colloque Inter-Congrès AREF Nancy 2021 ”Politiques et territoires en éducation et formation : enjeux, débats et perspectives”. Nancy, France. hal-03583604f. https://shorturl.at/nHT29
Annexes
Tableau 1. Système de notation utilisable en Méthodes Mixtes (MM)
Notation |
Exemple |
Signification |
EN MAJUSCULES en minuscules |
QUAN qual |
Indique qu’une méthode est dominante (e.g., QUAL) par rapport à une autre moins dominante (e.g., quan) dans la conception du modèle et des objectifs de recherche |
, |
QUAL , QUAN |
Une virgule indique une dominance égale des méthodes |
+ |
QUAL + QUAN |
Un signe plus (+) indique que les méthodes s’appliquent dans un même temps |
→ |
QUAL → quan |
Une flèche indique que les méthodes s’articulent de manière séquentielle |
( ) |
QUAN ( qual ) |
La mise entre parenthèses indique l’intégration d’une méthode au sein d’une autre plus dominante |
→← |
QUAL →← QUAN |
Les méthodes sont appliquées de manière récursive |
[ ] |
[ QUAN + qual ] |
La mise entre crochets indique que les MM sont appliquées dans une seule étude à l’intérieur d’une série d’études |
= |
QUAN + QUAL = |
Indique l’intention d’intégration (i.e., fusion) des méthodes |
[1] Creswell et Creswell (2018) proposent trois types d’approches quantitatives : l’approche expérimentale, l’approche non-expérimentale et l’approche longitudinale.
[2] 1) les types de données pouvant être combinés ; 2) le moment où le mélange a lieu dans la recherche ; 3) l'étendue de l'utilisation des MM ; 4) les motivations derrière le mélange ; 5) l'approche adoptée dans la RMM.