L'évaluation du programme d'études et des professeurs est essentielle pour toutes les établissements d'enseignement supérieur, y compris les écoles de médecine. Les évaluations des élèves de l'enseignement (SET) prennent généralement la forme de questionnaires anonymes, et bien qu'ils aient été initialement développés pour évaluer les cours et les programmes, au fil du temps, ils ont également été utilisés pour mesurer l'efficacité de l'enseignement et par la suite pris d'importantes décisions liées à l'enseignement. Développement professionnel des enseignants. Cependant, certains facteurs et biais peuvent affecter les scores définis et l'efficacité de l'enseignement ne peut pas être mesurée objectivement. Bien que la littérature sur les cours et l'évaluation des professeurs dans l'enseignement supérieur général soit bien établie, il y a des préoccupations concernant l'utilisation des mêmes outils pour évaluer les cours et les professeurs des programmes médicaux. En particulier, les études supérieures générales ne peuvent pas être directement appliquées à la conception et à la mise en œuvre des programmes dans les écoles de médecine. Cette revue donne un aperçu de la façon dont Set peut être amélioré aux niveaux de l'instrument, de la gestion et de l'interprétation. De plus, cet article souligne qu'en utilisant diverses méthodes telles que l'examen par les pairs, les groupes de discussion et l'auto-évaluation pour collecter et trianguler les données de plusieurs sources, y compris les étudiants, les pairs, les gestionnaires de programme et la conscience de soi, un système d'évaluation complet peut être construit. Mesurer efficacement l'efficacité de l'enseignement, soutenir le développement professionnel des éducateurs médicaux et améliorer la qualité de l'enseignement dans l'enseignement médical.
L'évaluation des cours et des programmes est un processus de contrôle de la qualité interne dans tous les établissements d'enseignement supérieur, y compris les écoles de médecine. L'évaluation des étudiants de l'enseignement (SET) prend généralement la forme d'un papier anonyme ou d'un questionnaire en ligne en utilisant une échelle de notation telle qu'une échelle de Likert (généralement cinq, sept ou plus) qui permet aux gens d'indiquer leur accord ou leur degré d'accord. Je ne suis pas d'accord avec des déclarations spécifiques) [1,2,3]. Bien que les ensembles aient été initialement développés pour évaluer les cours et les programmes, au fil du temps, ils ont également été utilisés pour mesurer l'efficacité de l'enseignement [4, 5, 6]. L'efficacité de l'enseignement est considérée comme importante car il est supposé qu'il existe une relation positive entre l'efficacité de l'enseignement et l'apprentissage des élèves [7]. Bien que la littérature ne définisse pas clairement l'efficacité de la formation, elle est généralement spécifiée par des caractéristiques spécifiques de la formation, telles que «l'interaction de groupe», «préparation et organisation», «rétroaction aux étudiants» [8].
Les informations obtenues à partir de SET peuvent fournir des informations utiles, telles qu'il est nécessaire d'ajuster le matériel pédagogique ou les méthodes d'enseignement utilisées dans un cours particulier. L'ensemble est également utilisé pour prendre des décisions importantes liées au développement professionnel des enseignants [4,5,6]. Cependant, la pertinence de cette approche est discutable lorsque les établissements d'enseignement supérieur prennent des décisions concernant les professeurs, tels que la promotion dans des rangs universitaires plus élevés (souvent associés aux augmentations d'ancienneté et de salaire) et des postes administratifs clés au sein de l'établissement [4, 9]. En outre, les institutions exigent souvent que les nouveaux professeurs incluent des ensembles d'institutions précédentes dans leurs demandes de nouveaux postes, influençant ainsi non seulement les promotions des professeurs au sein de l'institution, mais également les nouveaux employeurs potentiels [10].
Bien que la littérature sur le curriculum et l'évaluation des enseignants soit bien établie dans le domaine de l'enseignement supérieur général, ce n'est pas le cas dans le domaine de la médecine et des soins de santé [11]. Le programme d'études et les besoins des éducateurs médicaux diffèrent de ceux de l'enseignement supérieur général. Par exemple, l'apprentissage par équipe est souvent utilisé dans les cours intégrés de formation médicale. Cela signifie que le programme d'études de médecine se compose d'une série de cours dispensés par un certain nombre de professeurs qui ont une formation et une expérience dans diverses disciplines médicales. Bien que les étudiants bénéficient de la connaissance approfondie des experts dans le domaine dans le cadre de cette structure, ils sont souvent confrontés au défi de s'adapter aux différents styles d'enseignement de chaque enseignant [1, 12, 13, 14].
Bien qu'il existe des différences entre l'enseignement supérieur général et l'enseignement médical, l'ensemble utilisé dans le premier est également parfois utilisé dans les cours de médecine et de soins de santé. Cependant, la mise en œuvre d'un ensemble dans l'enseignement supérieur général pose de nombreux défis en termes d'évaluation des programmes et des professeurs dans les programmes professionnels de la santé [11]. En particulier, en raison des différences dans les méthodes d'enseignement et les qualifications des enseignants, les résultats de l'évaluation des cours peuvent ne pas inclure les opinions des élèves de tous les enseignants ou classes. Des recherches d'Uytenhaage et O'Neill (2015) [5] suggèrent que demander aux élèves d'évaluer tous les enseignants individuels à la fin d'un cours peut être inapproprié car il est presque impossible pour les élèves de se souvenir et de commenter les notes de plusieurs enseignants. catégories. De plus, de nombreux enseignants en éducation médicale sont également des médecins pour lesquels l'enseignement n'est qu'une petite partie de leurs responsabilités [15, 16]. Parce qu'ils sont principalement impliqués dans les soins aux patients et, dans de nombreux cas, la recherche, ils ont souvent peu de temps pour développer leurs compétences pédagogiques. Cependant, les médecins en tant qu'enseignants devraient recevoir du temps, du soutien et des commentaires constructifs de leurs organisations [16].
Les étudiants en médecine ont tendance à être des personnes très motivées et travailleuses qui réussissent à être admis à l'école de médecine (grâce à un processus compétitif et exigeant à l'échelle internationale). De plus, pendant l'école de médecine, les étudiants en médecine devraient acquérir une grande quantité de connaissances et développer un grand nombre de compétences en peu de temps, ainsi que de réussir dans des évaluations nationales internes et complètes complexes [17,18,19 , 20]. Ainsi, en raison des normes élevées attendues des étudiants en médecine, les étudiants en médecine peuvent être plus critiques et avoir des attentes plus élevées pour un enseignement de haute qualité que les étudiants d'autres disciplines. Ainsi, les étudiants en médecine peuvent avoir des notes plus faibles de leurs professeurs par rapport aux étudiants dans d'autres disciplines pour les raisons mentionnées ci-dessus. Fait intéressant, des études antérieures ont montré une relation positive entre la motivation des élèves et les évaluations individuelles des enseignants [21]. De plus, au cours des 20 dernières années, la plupart des programmes de médecine dans le monde sont devenus intégrés verticalement [22], de sorte que les étudiants sont exposés à la pratique clinique dès les premières années de leur programme. Ainsi, au cours des dernières années, les médecins sont de plus en plus impliqués dans l'éducation des étudiants en médecine, approuvant, même au début de leurs programmes, l'importance de développer des ensembles adaptés à des populations de professeurs spécifiques [22].
En raison de la nature spécifique de l'enseignement médical mentionné ci-dessus, les ensembles utilisés pour évaluer les cours généraux d'enseignement supérieur dispensé par un seul membre du corps professoral devraient être adaptés pour évaluer le programme intégré et le Faculté des programmes médicaux cliniques [14]. Par conséquent, il est nécessaire de développer des modèles d'ensemble plus efficaces et des systèmes d'évaluation complets pour une application plus efficace dans l'enseignement médical.
L'examen actuel décrit les progrès récents dans l'utilisation de l'ensemble de l'enseignement supérieur (général) et ses limites, puis décrit les différents besoins de l'élaboration des cours de formation médicale et des professeurs. Cette revue fournit une mise à jour sur la façon dont Set peut être amélioré aux niveaux instrumental, administratif et d'interprétation, et se concentre sur les objectifs de l'élaboration de modèles d'ensemble efficaces et de systèmes d'évaluation complets qui mesureront efficacement l'efficacité de l'enseignement, soutiendront le développement des éducateurs professionnels et améliorés et améliorés La qualité de l'enseignement dans l'éducation médicale.
Cette étude suit l'étude de Green et al. (2006) [23] pour les conseils et Baumeister (2013) [24] pour des conseils sur la rédaction de critiques narratives. Nous avons décidé d'écrire une revue narrative sur ce sujet car ce type de revue aide à présenter une large perspective sur le sujet. De plus, parce que les critiques narratives s'appuient sur des études méthodologiquement diverses, elles aident à répondre à des questions plus larges. De plus, les commentaires narratifs peuvent aider à stimuler la pensée et la discussion sur un sujet.
Comment est utilisé dans l'enseignement médical et quels sont les défis par rapport à l'ensemble utilisé dans l'enseignement supérieur général,
Les bases de données PubMed et Eric ont été recherchées à l'aide d'une combinaison des termes de recherche «Évaluation de l'enseignement des élèves», «Efficacité de l'enseignement», «Education médicale», «Enseignement supérieur», «Curriculum and Faculté Evaluation» et pour Peer Review 2000, Logical Operators . Articles publiés entre 2021 et 2021. Critères d'inclusion: les études incluses étaient des études originales ou des articles de revue, et les études étaient pertinentes pour les domaines des trois principales questions de recherche. Critères d'exclusion: des études qui n'étaient pas une langue ou des études en anglais dans laquelle les articles en texte intégral n'ont pas pu être trouvés ou n'étaient pas pertinents pour les trois principales questions de recherche du document de revue actuel. Après avoir sélectionné des publications, ils ont été organisés dans les sujets suivants et les sous-thèmes associés: (a) l'utilisation de l'ensemble dans l'enseignement supérieur général et ses limites, (b) l'utilisation de l'ensemble de l'enseignement médical et sa pertinence pour résoudre les problèmes liés à la comparaison de la comparaison de Ensemble (c) Améliorer l'ensemble à des niveaux instrumentaux, de gestion et d'interprétation pour développer des modèles d'ensemble efficaces.
La figure 1 fournit un organigramme d'articles sélectionnés inclus et discutés dans la partie actuelle de la revue.
L'ensemble a été traditionnellement utilisé dans l'enseignement supérieur et le sujet a été bien étudié dans la littérature [10, 21]. Cependant, un grand nombre d'études ont examiné leurs nombreuses limites et efforts pour répondre à ces limites.
La recherche montre qu'il existe de nombreuses variables qui influencent les scores des ensembles [10, 21, 25, 26]. Par conséquent, il est important que les administrateurs et les enseignants comprennent ces variables lors de l'interprétation et de l'utilisation des données. La section suivante donne un bref aperçu de ces variables. La figure 2 montre certains des facteurs qui influencent les scores de définition, qui sont détaillés dans les sections suivantes.
Ces dernières années, l'utilisation de kits en ligne a augmenté par rapport aux kits papier. Cependant, les preuves dans la littérature suggèrent que l'ensemble en ligne peut être achevé sans que les étudiants ne consacrent l'attention nécessaire au processus d'achèvement. Dans une étude intéressante d'Uitdehaage et O'Neill [5], des enseignants inexistants ont été ajoutés à l'ensemble et de nombreux étudiants ont fourni des commentaires [5]. De plus, les preuves dans la littérature suggèrent que les étudiants croient souvent que l'achèvement de l'ensemble ne conduit pas à une amélioration du niveau de scolarité, qui, combiné avec l'horaire chargé des étudiants en médecine, peut entraîner des taux de réponse plus faibles [27]. Bien que la recherche montre que les opinions des élèves qui passent le test ne sont pas différentes de celles de l'ensemble du groupe, les faibles taux de réponse peuvent toujours amener les enseignants à prendre les résultats moins au sérieux [28].
La plupart des ensembles en ligne sont terminés de manière anonyme. L'idée est de permettre aux élèves d'exprimer librement leurs opinions sans supposer que leur expression aura un impact sur leurs relations futures avec les enseignants. Dans l'étude d'Alfonso et al. [29], les chercheurs ont utilisé des notes et des notes anonymes dans lesquelles les évaluateurs devaient donner leur nom (notes publiques) pour évaluer l'efficacité de l'enseignement des professeurs de médecine par les résidents et les étudiants en médecine. Les résultats ont montré que les enseignants étaient généralement inférieurs aux évaluations anonymes. Les auteurs soutiennent que les étudiants sont plus honnêtes dans les évaluations anonymes en raison de certaines obstacles dans les évaluations ouvertes, telles que les relations de travail endommagées avec les enseignants participants [29]. Cependant, il convient également de noter que l'anonymat souvent associé à l'ensemble en ligne peut conduire certains étudiants à irrespectueux et en représailles envers l'instructeur si les scores d'évaluation ne répondent pas aux attentes des étudiants [30]. Cependant, la recherche montre que les étudiants fournissent rarement des commentaires irrespectueux, et ces derniers peuvent être encore limités en enseignant aux étudiants à fournir des commentaires constructifs [30].
Plusieurs études ont montré qu'il existe une corrélation entre les scores définis des étudiants, leurs attentes de performance de test et leur satisfaction au test [10, 21]. Par exemple, Strobe (2020) [9] a indiqué que les étudiants récompensent les cours faciles et les enseignants récompensent les notes faibles, ce qui peut encourager un mauvais enseignement et conduire à l'inflation de la note [9]. Dans une étude récente, Looi et al. (2020) [31] Les chercheurs ont rapporté que des ensembles plus favorables sont liés et plus faciles à évaluer. De plus, il existe des preuves inquiétantes que SET est inversement lié à la performance des étudiants dans les cours suivants: plus la note est élevée, plus la performance des étudiants est élevée dans les cours suivants. Cornell et al. (2016) [32] ont mené une étude pour examiner si les étudiants ont appris relativement plus des enseignants dont ils ont très bien évalué les enseignants. Les résultats montrent que lorsque l'apprentissage est évalué à la fin d'un cours, les enseignants ayant des notes les plus élevées contribuent également à l'apprentissage du plus grand nombre d'élèves. Cependant, lorsque l'apprentissage est mesuré par la performance dans les cours pertinents ultérieurs, les enseignants qui obtiennent un score relativement faible sont les plus efficaces. Les chercheurs ont émis l'hypothèse que la rendre un cours plus difficile de manière productive pourrait réduire les notes mais améliorer l'apprentissage. Ainsi, les évaluations des étudiants ne devraient pas être la seule base pour évaluer l'enseignement, mais doivent être reconnues.
Plusieurs études montrent que les performances définies sont influencées par le cours lui-même et son organisation. Ming et Baozhi [33] ont constaté que dans leur étude, il y avait des différences significatives dans les scores définis entre les étudiants dans différentes matières. Par exemple, les sciences cliniques ont des scores SET plus élevés que les sciences de base. Les auteurs ont expliqué que cela est dû au fait que les étudiants en médecine sont intéressés à devenir médecins et ont donc un intérêt personnel et une motivation plus élevée pour participer davantage aux cours de sciences cliniques par rapport aux cours de sciences fondamentaux [33]. Comme dans le cas des cours au choix, la motivation des étudiants pour le sujet a également un effet positif sur les scores [21]. Plusieurs autres études soutiennent également que le type de cours peut influencer les scores SET [10, 21].
De plus, d'autres études ont montré que plus la taille de la classe est petite, plus le niveau d'ensemble atteint par les enseignants [10, 33]. Une explication possible est que la taille des classes plus petite augmente les possibilités d'interaction enseignant-élève. De plus, les conditions dans lesquelles l'évaluation est effectuée peut influencer les résultats. Par exemple, les scores SET semblent être influencés par le temps et le jour où le cours est enseigné, ainsi que le jour de la semaine où l'ensemble est terminé (par exemple, les évaluations terminées le week-end ont tendance à entraîner des scores plus positifs) que les évaluations terminées terminées Plus tôt dans la semaine. [10].
Une étude intéressante de Hessler et al remet également en question l'efficacité de Set. [34]. Dans cette étude, un essai contrôlé randomisé a été mené dans un cours de médecine d'urgence. Les étudiants en médecine de troisième année ont été assignés au hasard à un groupe témoin ou à un groupe qui a reçu des cookies de pépites de chocolat gratuits (groupe de biscuits). Tous les groupes ont été enseignés par les mêmes enseignants, et le contenu de formation et le matériel de cours étaient identiques pour les deux groupes. Après le cours, tous les étudiants ont été invités à terminer un ensemble. Les résultats ont montré que le groupe cookie a évalué les enseignants significativement mieux que le groupe témoin, remettant en question l'efficacité de Set [34].
Les preuves dans la littérature soutiennent également que le sexe peut influencer les scores définis [35,36,37,38,39,40,41,42,43,44,45,46]. Par exemple, certaines études ont montré une relation entre les résultats du genre et de l'évaluation des étudiants: les étudiantes ont obtenu un score plus élevé que les étudiants masculins [27]. La plupart des preuves confirment que les élèves classent les enseignants inférieurs aux enseignants masculins [37, 38, 39, 40]. Par exemple, Boring et al. [38] ont montré que les étudiants masculins et féminins pensaient que les hommes étaient plus compétents et avaient des capacités de leadership plus fortes que les femmes. Le fait que le genre et l'influence des stéréotypes soient également soutenus par l'étude de Macnell et al. [41], qui ont rapporté que les étudiants de son étude ont évalué les enseignants inférieurs à ceux des enseignants masculins sur divers aspects de l'enseignement [41]. De plus, Morgan et al [42] ont fourni des preuves que les médecins féminines ont reçu des cotes d'enseignement plus faibles dans quatre rotations cliniques majeures (chirurgie, pédiatrie, obstétrique et gynécologie et médecine interne) par rapport aux médecins masculins.
Dans l'étude de Murray et al. (2020) [43], les chercheurs ont indiqué que l'attractivité des professeurs et l'intérêt des étudiants dans le cours étaient associés à des scores SET plus élevés. À l'inverse, la difficulté du cours est associée à des scores de réglage inférieurs. De plus, les étudiants ont donné des scores plus élevés aux jeunes professeurs de sciences humaines blancs et aux professeurs qui tiennent des professeurs titres. Il n'y avait aucune corrélation entre les évaluations de l'enseignement des ensembles et les résultats de l'enquête des enseignants. D'autres études confirment également l'impact positif de l'attractivité physique des enseignants sur les résultats de l'évaluation [44].
Clayson et al. (2017) [45] ont rapporté que bien qu'il existe un accord général qui produit des résultats fiables et que les moyennes de classe et de enseignants sont cohérentes, les incohérences existent toujours dans les réponses individuelles des élèves. En résumé, les résultats de ce rapport d'évaluation indiquent que les étudiants n'étaient pas d'accord avec ce qu'on leur a demandé d'évaluer. Les mesures de fiabilité dérivées des évaluations des étudiants de l'enseignement sont insuffisantes pour fournir une base pour établir la validité. Par conséquent, SET peut parfois fournir des informations sur les élèves plutôt que sur les enseignants.
L'ensemble d'éducation à la santé diffère de l'ensemble traditionnel, mais les éducateurs utilisent souvent un ensemble disponible dans l'enseignement supérieur général plutôt que des ensembles spécifiques aux programmes de professions de la santé rapportés dans la littérature. Cependant, les études menées au fil des ans ont identifié plusieurs problèmes.
Jones et al (1994). [46] ont mené une étude pour déterminer la question de savoir comment évaluer les professeurs des facultés de médecine du point de vue des professeurs et des administrateurs. Dans l'ensemble, les questions les plus fréquemment mentionnées liées à l'évaluation de l'enseignement. Les plus courants étaient les plaintes générales concernant l'insuffisance des méthodes actuelles d'évaluation des performances, les répondants faisant également des plaintes spécifiques concernant le SET et le manque de reconnaissance de l'enseignement dans les systèmes de récompense académique. D'autres problèmes signalés comprenaient des procédures d'évaluation incohérentes et des critères de promotion entre les départements, un manque d'évaluations régulières et un non-respect des résultats de l'évaluation aux salaires.
Royal et al (2018) [11] décrivent certaines des limites de l'utilisation de SET pour évaluer le programme d'études et les professeurs des programmes professionnels de la santé dans l'enseignement supérieur général. Les chercheurs rapportent que le plan dans l'enseignement supérieur est confronté à divers défis car il ne peut pas être directement appliqué à la conception du curriculum et à l'enseignement des cours dans les écoles de médecine. Les questions fréquemment posées, y compris les questions sur l'instructeur et le cours, sont souvent combinées en un seul questionnaire, de sorte que les étudiants ont souvent du mal à se distinguer entre eux. De plus, les cours de programmes médicaux sont souvent dispensés par plusieurs membres du corps professoral. Cela soulève des questions de validité étant donné le nombre potentiellement limité d'interactions entre les élèves et les enseignants évalués par Royal et al. (2018) [11]. Dans une étude de Hwang et al. (2017) [14], les chercheurs ont examiné le concept de la façon dont les évaluations rétrospectives des cours reflètent de manière approfondie les perceptions des étudiants des cours de divers instructeurs. Leurs résultats suggèrent qu'une évaluation individualisée des classes est nécessaire pour gérer les cours multidiminosités dans un programme d'études de médecine intégré.
Uitdehaage et O'Neill (2015) [5] ont examiné dans quelle mesure les étudiants en médecine ont délibérément pris un cours dans un cours de classe multifaculté. Chacun des deux cours précliniques comportait un instructeur fictif. Les étudiants doivent fournir des notes anonymes à tous les instructeurs (y compris les instructeurs fictifs) dans les deux semaines suivant la fin du cours, mais peuvent refuser pour évaluer l'instructeur. L'année suivante, cela s'est reproduit, mais le portrait du conférencier fictif a été inclus. Soixante-six pour cent des étudiants ont évalué l'instructeur virtuel sans similitude, mais moins d'étudiants (49%) ont évalué l'instructeur virtuel avec une similitude présente. Ces résultats suggèrent que de nombreux étudiants en médecine complètent aveuglément les décors, même lorsqu'ils sont accompagnés de photographies, sans réfléchir attentive à qui ils évaluent, sans parler de la performance de l'instructeur. Cela entrave l'amélioration de la qualité du programme et peut nuire aux progrès académiques des enseignants. Les chercheurs proposent un cadre qui offre une approche radicalement différente pour définir qui engage activement et activement les étudiants.
Il existe de nombreuses autres différences dans le programme éducatif des programmes médicaux par rapport à d'autres programmes généraux d'enseignement supérieur [11]. L'éducation médicale, comme l'éducation professionnelle en santé, se concentre clairement sur le développement de rôles professionnels clairement définis (pratique clinique). En conséquence, les programmes médicaux et de santé deviennent plus statiques, avec des choix de cours et de professeurs limités. Fait intéressant, les cours de formation médicale sont souvent offerts dans un format de cohorte, tous les étudiants suivant le même cours en même temps chaque semestre. Par conséquent, l'inscription d'un grand nombre d'élèves (généralement n = 100 ou plus) peut affecter le format d'enseignement ainsi que la relation enseignant-élève. De plus, dans de nombreuses écoles de médecine, les propriétés psychométriques de la plupart des instruments ne sont pas évaluées lors de l'utilisation initiale, et les propriétés de la plupart des instruments peuvent rester inconnues [11].
Plusieurs études au cours des dernières années ont fourni des preuves que SET peut être améliorée en abordant certains facteurs importants qui peuvent influencer l'efficacité de l'ensemble aux niveaux instrumental, administratif et d'interprétation. La figure 3 montre certaines des étapes qui peuvent être utilisées pour créer un modèle de jeu efficace. Les sections suivantes fournissent une description plus détaillée.
Améliorez l'ensemble aux niveaux instrumental, de gestion et d'interprétation pour développer des modèles d'ensemble efficaces.
Comme mentionné précédemment, la littérature confirme que le biais de genre peut influencer les évaluations des enseignants [35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46]. Peterson et al. (2019) [40] ont mené une étude qui a examiné si les étudiants ont influencé les réponses des étudiants aux efforts d'atténuation des biais. Dans cette étude, SET a été administré à quatre classes (deux enseignées par des enseignants et deux enseignées par des enseignants). Dans chaque cours, les étudiants ont été assignés au hasard pour recevoir un outil d'évaluation standard ou le même outil, mais en utilisant un langage conçu pour réduire le biais de genre. L'étude a révélé que les élèves qui utilisaient des outils d'évaluation anti-biais ont donné aux enseignants des scores SET significativement plus élevés que les élèves qui ont utilisé des outils d'évaluation standard. De plus, il n'y avait aucune différence dans les notes des enseignants masculins entre les deux groupes. Les résultats de cette étude sont significatifs et démontrent comment une intervention linguistique relativement simple peut réduire le biais de genre dans les évaluations des étudiants de l'enseignement. Par conséquent, il est bon de considérer soigneusement tous les ensembles et d'utiliser le langage pour réduire les biais de genre dans leur développement [40].
Pour obtenir des résultats utiles de tout ensemble, il est important de considérer soigneusement l'objectif de l'évaluation et le libellé des questions à l'avance. Bien que la plupart des enquêtes définies indiquent clairement une section sur les aspects organisationnels du cours, c'est-à-dire «l'évaluation du cours» et une section sur les professeurs, c'est-à-dire «l'évaluation des enseignants», dans certaines enquêtes, la différence peut ne pas être évidente, ou il peut y avoir une confusion entre les étudiants sur la façon d'évaluer chacun de ces domaines individuellement. Par conséquent, la conception du questionnaire doit être appropriée, clarifier les deux parties différentes du questionnaire et sensibiliser les étudiants à ce qui doit être évalué dans chaque domaine. De plus, les tests pilotes sont recommandés pour déterminer si les étudiants interprètent les questions de la manière prévue [24]. Dans une étude d'Oermann et al. (2018) [26], les chercheurs ont fouillé et synthétisé la littérature décrivant l'utilisation de Set dans un large éventail de disciplines dans les études de premier cycle et des cycles supérieurs pour fournir aux éducateurs des conseils sur l'utilisation de Set in Nursing et d'autres programmes professionnels de la santé. Les résultats suggèrent que les instruments définis doivent être évalués avant utilisation, y compris les tests pilotes des instruments avec des étudiants qui peuvent ne pas être en mesure d'interpréter les éléments ou les questions de l'instrument défini comme prévu par l'instructeur.
Plusieurs études ont examiné si le modèle de gouvernance définie influence l'engagement des étudiants.
Daumier et al. (2004) [47] ont comparé les évaluations des étudiants de la formation des instructeurs achevées en classe avec des notes collectées en ligne en comparant le nombre de réponses et de notes. La recherche montre que les enquêtes en ligne ont généralement des taux de réponse plus faibles que les enquêtes en classe. Cependant, l'étude a révélé que les évaluations en ligne ne produisaient pas de notes moyennes significativement différentes à partir d'évaluations traditionnelles en classe.
Il y avait un manque de communication bidirectionnel entre les étudiants et les enseignants lors de la fin des ensembles en ligne (mais souvent imprimés), ce qui a entraîné un manque d'opportunités de clarification. Par conséquent, la signification des questions définies, commentaires ou évaluations des étudiants ne peut pas toujours être claire [48]. Certaines institutions ont abordé ce problème en réunissant les étudiants pendant une heure et en allouant un moment précis pour terminer l'ensemble en ligne (anonymement) [49]. Dans leur étude, Malone et al. (2018) [49] ont tenu plusieurs réunions pour discuter avec les étudiants du but de Set, qui verrait les résultats définis et comment les résultats seraient utilisés, et tout autre problème soulevé par les étudiants. L'ensemble se déroule un peu comme un groupe de discussion: le groupe collectif répond aux questions ouvertes par le vote, le débat et la clarification informels. Le taux de réponse était supérieur à 70 à 80%, fournissant aux enseignants, aux administrateurs et aux comités d'études avec des informations approfondies [49].
Comme mentionné ci-dessus, dans l'étude d'Uitdehaage et d'O'Neill [5], les chercheurs ont rapporté que les étudiants de leur étude avaient évalué les enseignants inexistants. Comme mentionné précédemment, il s'agit d'un problème courant dans les cours de médecine, où chaque cours peut être dispensé par de nombreux membres du corps professoral, mais les étudiants peuvent ne pas se rappeler qui a contribué à chaque cours ou ce que chaque membre du corps professoral a fait. Certaines institutions ont abordé ce problème en fournissant une photographie de chaque professeur, de son nom et du sujet / date présenté pour actualiser les souvenirs des étudiants et éviter les problèmes qui compromettent l'efficacité de l'ensemble [49].
Le problème le plus important associé à l'ensemble est peut-être que les enseignants ne sont pas en mesure d'interpréter correctement les résultats de l'ensemble quantitatif et qualitatif. Certains enseignants peuvent vouloir faire des comparaisons statistiques au fil des ans, certains peuvent voir des augmentations / diminutions mineures des scores moyens comme des changements significatifs, certains veulent croire chaque enquête, et d'autres sont carrément sceptiques quant à toute enquête [45,50, 51].
Le fait de ne pas interpréter correctement les résultats ou de traiter les commentaires des étudiants peut affecter les attitudes des enseignants envers l'enseignement. Les résultats de Lutovac et al. (2017) [52] La formation de soutien des enseignants est nécessaire et bénéfique pour fournir des commentaires aux élèves. L'éducation médicale a besoin d'une formation urgente dans l'interprétation correcte des résultats définis. Par conséquent, les professeurs des facultés de médecine devraient recevoir une formation sur la façon d'évaluer les résultats et les domaines importants sur lesquels ils devraient se concentrer [50, 51].
Ainsi, les résultats décrits suggèrent que les ensembles doivent être soigneusement conçus, administrés et interprétés pour s'assurer que les résultats des ensembles ont un impact significatif sur toutes les parties prenantes pertinentes, y compris les professeurs, les administrateurs des écoles de médecine et les étudiants.
En raison de certaines des limites de l'ensemble, nous devons continuer à nous efforcer de créer un système d'évaluation complet pour réduire les biais de l'efficacité de l'enseignement et soutenir le développement professionnel des éducateurs médicaux.
Une compréhension plus complète de la qualité de l'enseignement des professeurs cliniques peut être acquise en collectant et en triangulant les données de plusieurs sources, y compris des étudiants, des collègues, des administrateurs de programmes et des auto-évaluations des professeurs [53, 54, 55, 56, 57]. Les sections suivantes décrivent les autres outils / méthodes possibles qui peuvent être utilisés en plus d'un ensemble efficace pour aider à développer une compréhension plus appropriée et complète de l'efficacité de la formation (figure 4).
Méthodes qui peuvent être utilisées pour développer un modèle complet d'un système pour évaluer l'efficacité de l'enseignement dans une école de médecine.
Un groupe de discussion est défini comme «une discussion de groupe organisée pour explorer un ensemble spécifique de questions» [58]. Au cours des dernières années, les écoles de médecine ont créé des groupes de discussion pour obtenir des commentaires de qualité des étudiants et aborder certains des pièges de l'ensemble en ligne. Ces études montrent que les groupes de discussion sont efficaces pour fournir des commentaires de qualité et augmenter la satisfaction des élèves [59, 60, 61].
Dans une étude de Brundle et al. [59] Les chercheurs ont mis en œuvre un processus de groupe d'évaluation des étudiants qui a permis aux directeurs de cours et aux étudiants de discuter des cours dans les groupes de discussion. Les résultats indiquent que les discussions de groupe de discussion complètent les évaluations en ligne et augmentent la satisfaction des étudiants à l'égard du processus global d'évaluation des cours. Les étudiants apprécient l'opportunité de communiquer directement avec les directeurs de cours et croient que ce processus peut contribuer à l'amélioration de l'éducation. Ils ont également estimé qu'ils étaient en mesure de comprendre le point de vue du directeur du cours. En plus des étudiants, les directeurs de cours ont également évalué que les groupes de discussion ont facilité la communication plus efficace avec les étudiants [59]. Ainsi, l'utilisation de groupes de discussion peut fournir aux écoles de médecine une compréhension plus complète de la qualité de chaque cours et de l'efficacité de l'enseignement des professeurs respectifs. Cependant, il convient de noter que les groupes de discussion eux-mêmes ont eux-mêmes certaines limites, telles qu'un petit nombre d'étudiants qui y participent par rapport au programme SET en ligne, qui est disponible pour tous les étudiants. De plus, la conduite de groupes de discussion pour divers cours peut être un processus long pour les conseillers et les étudiants. Cela pose des limites importantes, en particulier pour les étudiants en médecine qui ont des horaires très chargés et peuvent entreprendre des placements cliniques dans différents emplacements géographiques. De plus, les groupes de discussion nécessitent un grand nombre de facilitateurs expérimentés. Cependant, l'intégration de groupes de discussion dans le processus d'évaluation peut fournir des informations plus détaillées et spécifiques sur l'efficacité de la formation [48, 59, 60, 61].
Schiekierka-Schwacke et al. (2018) [62] ont examiné les perceptions des étudiants et des professeurs d'un nouvel outil pour évaluer les performances du corps professoral et les résultats d'apprentissage des élèves dans deux écoles de médecine allemandes. Des discussions de groupe et des entretiens individuels ont été menés avec des professeurs et des étudiants en médecine. Les enseignants ont apprécié les commentaires personnels fournis par l'outil d'évaluation, et les élèves ont indiqué qu'une boucle de rétroaction, y compris les objectifs et les conséquences, devrait être créée pour encourager la déclaration des données d'évaluation. Ainsi, les résultats de cette étude soutiennent l'importance de fermer la boucle de communication avec les étudiants et de les informer des résultats de l'évaluation.
Les programmes d'examen par les pairs de l'enseignement (PRT) sont très importants et ont été mis en œuvre dans l'enseignement supérieur depuis de nombreuses années. Le PRT implique un processus collaboratif d'observation de l'enseignement et de la fourniture de commentaires à l'observateur pour améliorer l'efficacité de l'enseignement [63]. De plus, les exercices d'auto-réflexion, les discussions de suivi structurées et l'attribution systématique des collègues formés peuvent aider à améliorer l'efficacité de la PRT et la culture pédagogique du département [64]. Ces programmes auraient de nombreux avantages car ils peuvent aider les enseignants à recevoir des commentaires constructifs des pairs enseignants qui peuvent avoir rencontré des difficultés similaires dans le passé et peuvent fournir un plus grand soutien en fournissant des suggestions d'amélioration utiles [63]. De plus, lorsqu'il est utilisé de manière constructive, l'examen par les pairs peut améliorer le contenu des cours et les méthodes de livraison et soutenir les éducateurs médicaux pour améliorer la qualité de leur enseignement [65, 66].
Une étude récente de Campbell et al. (2019) [67] fournissent des preuves que le modèle de soutien aux pairs en milieu de travail est une stratégie de développement des enseignants acceptable et efficace pour les éducateurs en santé clinique. Dans une autre étude, Caygill et al. [68] a mené une étude dans laquelle un questionnaire spécialement conçu a été envoyé à des éducateurs en santé de l'Université de Melbourne pour leur permettre de partager leurs expériences d'utilisation de PRT. Les résultats indiquent qu'il y a un intérêt refoulé pour la PRT parmi les éducateurs médicaux et que le format volontaire et informatif des pairs est considéré comme une opportunité importante et précieuse pour le développement professionnel.
Il convient de noter que les programmes PRT doivent être soigneusement conçus pour éviter de créer un environnement de jugement «managérial» qui conduit souvent à une anxiété accrue chez les enseignants observés [69]. Par conséquent, l'objectif devrait être de développer soigneusement des plans PRT qui compléteront et faciliteront la création d'un environnement sûr et fourniront des commentaires constructifs. Par conséquent, une formation spéciale est nécessaire pour former les examinateurs, et les programmes de PRT ne devraient impliquer que des enseignants vraiment intéressés et expérimentés. Ceci est particulièrement important si les informations obtenues à partir du PRT sont utilisées dans les décisions du corps professoral telles que les promotions à des niveaux supérieurs, des augmentations de salaire et des promotions à des positions administratives importantes. Il convient de noter que le PRT prend du temps et, comme les groupes de discussion, nécessite la participation d'un grand nombre de professeurs expérimentés, ce qui rend cette approche difficile à mettre en œuvre dans les écoles de médecine à faible ressource.
Newman et al. (2019) [70] décrivent les stratégies utilisées auparavant, pendant et après la formation, des observations qui mettent en évidence les meilleures pratiques et identifient des solutions aux problèmes d'apprentissage. Les chercheurs ont fourni 12 suggestions aux examinateurs, notamment: (1) Choisissez vos mots judicieusement; (2) permettre à l'observateur de déterminer la direction de la discussion; (3) garder les commentaires confidentiels et formatés; (4) garder les commentaires confidentiels et formatés; Les commentaires se concentrent sur les compétences pédagogiques plutôt que sur l'enseignant individuel; (5) Apprenez à connaître vos collègues (6) Soyez prévenant envers vous-même et les autres (7) N'oubliez pas que les pronoms jouent un rôle important dans la fourniture de commentaires, (8) Utiliser des questions pour faire la lumière sur la perspective de l'enseignement, (10) établir des processus Trust et la rétroaction dans les observations des pairs, (11) faire l'observation de l'apprentissage d'un gagnant-gagnant, (12) créent un plan d'action. Les chercheurs explorent également l'impact du biais sur les observations et comment le processus d'apprentissage, d'observation et de discussion des commentaires peut fournir des expériences d'apprentissage précieuses pour les deux parties, ce qui entraîne des partenariats à long terme et une meilleure qualité de l'éducation. Gomaly et al. (2014) [71] ont rapporté que la qualité d'une rétroaction efficace devrait inclure (1) la clarification de la tâche en fournissant des instructions, (2) une motivation accrue pour encourager un plus grand effort, et (3) la perception du destinataire de celui-ci comme un processus précieux. fourni par une source réputée.
Bien que les professeurs de la faculté de médecine reçoivent des commentaires sur la PRT, il est important de former les professeurs sur la façon d'interpréter les commentaires (similaires à la recommandation de recevoir une formation dans l'interprétation des ensembles) et de permettre aux professeurs suffisamment de temps pour réfléchir de manière constructive sur les commentaires reçus.
Heure du poste: Nov-24-2023