Depuis le début des années 2000, les classements et rankings des institutions de l'enseignement supérieur (écoles et universités) se sont graduellement imposés au Maroc et ceci même si on est encore loin de la logique des produits éditoriaux à succès typiques de la France et de beaucoup d'autres pays européens. On dénombre à ce jour au Maroc pas moins de sept classements des institutions de l'enseignement supérieur auxquels il faut ajouter un classement plus original (mais aussi plus confidentiel) des centres de recherches produits par Webometrics. Ces rankings sont pour l'essentiel des déclinaisons locales ou régionales (Maghreb, MENA ou Afrique) de classements bien connus sur la scène de l'enseignement supérieur et de la recherche mondiale (Eduniversal, Time Higher Education (THE), UniRank, Webometrics). Ce n'est que plus récemment que l'on voit émerger des propositions purement régionales (magazine Jeune Afrique) ou locales comme par exemple une initiative menée par l'Université Mohammed V Agdal et dite Tasdawit ranking ou encore celle menée par le magazine Campus Mag en collaboration avec le cabinet Diorh. Les rankings, une justification par la transparence Quelles sont les principales justifications au développement remarquable des rankings et classements universitaires ? Pour leurs auteurs, l'argument central est celui de la transparence et de l'information du public. Les rankings obéissent à l'impératif de «rendre des comptes» (Accountability). Autrement dit, l'argument avancé rejoint de nombreux travaux et analyses qui mettent clairement en évidence le fait que le secteur universitaire ou plus généralement le monde de l'enseignement supérieur serait marqué par l'incertitude et l'asymétrie informationnelle. Il n'est pas utile de revenir ici, de manière détaillée, sur cette littérature maintenant relativement abondante mais il nous semble important de préciser certains aspects des réflexions en cours. La demande de services universitaires est en effet soumise à de fortes asymétries informationnelles favorables aux offreurs (institutions d'enseignement supérieur). Il est, dans la plupart des cas, extrêmement difficile, pour un étudiant d'évaluer de manière pertinente la qualité de la formation qu'il s'apprête à suivre ou encore l'adéquation de cette formation à ses objectifs de carrière et il lui est particulièrement difficile d'agir en connaissance de cause. Cette situation est également vraie ex post dans la mesure où même à l'issue de la formation, l'usager (étudiant) demeure dans de nombreux cas incapable de déterminer la pertinence du cursus retenu et la qualité du service fourni. Le marché des services universitaires (au sens large) est également marqué par des phénomènes d'aléas moraux (incertitude sur le comportement du prestataire, ici l'institution et ses agents). C'est bien l'un des objectifs des rankings que de chercher à accroître les capacités d'analyse et de contrôle de l'usager. En effet, l'objectif affiché (par les concepteurs des rankings) est la promotion de la transparence des pratiques universitaires. Plus précisément, leur but est de signaler, afin de pousser à leur réduction, les inégalités en matière de formation. Sur ce point, on notera que Youssef Ziraoui, directeur de publication de Campus Mag justifiait en ces termes le lancement du premier palmarès Campus Mag en 2017 : «aider à mieux aiguiller les études lors de la phase de choix du parcours universitaire post bac…». On suppose ici implicitement qu'une meilleure information du client ou de l'usager devrait l'inciter à modifier son comportement et en particulier ses choix en matière d'éducation. L'argument est valable en théorie mais il n'en demeure pas moins que dans la pratique, on peut mettre en évidence le très faible impact des rankings sur les transformations et évolutions des comportements des usagers au Maroc et cela pour plusieurs raisons. D'abord parce que les rankings, palmarès et autres classements ne constituent, pour les usagers, qu'un élément de l'information (et pas le plus important, semble-t-il) parmi d'autres. Le bouche-à-oreille, l'avis des proches (et parfois leur pouvoir de décision), sont des déterminants beaucoup plus centraux du choix de ces derniers et l'on peut penser que cela s'applique au Maroc plus qu'ailleurs. On peut également ajouter que dans la majorité des cas, les étudiants constituent une population relativement captive. Les coûts de transport et plus généralement les coûts liés à l'éloignement (si l'on décide d'étudier dans une institution distante mais mieux cotée), sont tels que l'on peut dire que la mobilité des usagers (ou de certains d'entre eux) est réduite de fait. Enfin, on peut également avancer que le foisonnement des rankings (et des origines et intérêts divers de leurs concepteurs), au Maroc ne semble pas aujourd'hui contribuer à une amélioration de leur lisibilité et partant relever d'une réelle recherche de transparence de l'offre sur le marché de la formation et de la recherche. Une vision étriquée ? Les différentes propositions de rankings que nous évoquons ici posent toutes des problèmes méthodologiques importants. La diversité et la multiplicité des critères utilisés pour «fabriquer» les rankings (qui relèvent parfois d'un véritable inventaire à la Prévert) est déjà en soi un problème. Ce problème est amplifié par le fait que ces indicateurs, qui ne se situent pas sur le même champ, sont systématiquement agrégés pour obtenir un score, qui, au final, a bien peu de signification en termes de performance. Les différents scores ou critères sont par ailleurs souvent pondérés, affectés de coefficients dont il est difficile de comprendre la validité ou la justification théorique. Pourquoi dans le classement THE, la recherche et l'enseignement compteraient pour 30% du score global alors que les relations internationales ne compteraient que pour 7,5% et les relations industrielles 2,5% ? Et les exemples de ce type sont nombreux. La source des données est elle-même problématique. En effet, nombre d'indicateurs s'appuient sur des informations délivrées par les institutions elles-mêmes dans le cadre par exemple de la réponse à un questionnaire. Or, on sait parfaitement, que dans ces cas-là, l'incitation et la propension à «embellir la mariée» est souvent très forte. Les indicateurs utilisés ne sont pas indépendants. Ils sont en effet fortement reliés entre eux, ce qui réduit la portée de la logique «multicritères» mise régulièrement en avant par les concepteurs de palmarès. Au-delà des traditionnelles critiques d'ordre métrologique et méthodologique, il nous semble que les critiques les plus fondamentales que l'on peut faire aux rankings (sous leur forme actuelle) sont avant tout d'ordre conceptuel. En effet, l'essentiel de ces rankings et en particulier des indicateurs utilisés relèvent d'une conception très restrictive de l'institution universitaire, de ses produits, de ses services, de son fonctionnement et plus généralement de son système de relations. Pour simplifier, on dira qu'il y a bien deux constantes dans l'essentiel des rankings existants. D'un côté, l'institution universitaire est considérée uniquement dans sa dimension de fonction de production ou encore dans sa dimension technique ; de l'autre (mais on peut penser qu'il s'agit d'un corollaire), cette même institution est analysée (souvent) comme une entité autonome indépendante de son environnement. La première conception se reflète bien dans le fait que, par exemple, la plupart des critères utilisés pour «fabriquer» les rankings et autres classements sont des critères de nature technique (ratio étudiants/enseignants chercheurs, nombre d'accords internationaux ; nombre de publications, effectif international/effectif national...). Ces critères permettent effectivement de déboucher sur des indicateurs de gains de productivité, de réduction de coûts, de progression de «part de marché», de rentabilité par «produit». Il n'en demeure pas moins qu'en se focalisant sur l'efficience technique du service, ils contribuent clairement à forger une représentation réductrice et fortement industrialiste (ou quasi-industrialiste) de la performance. La seconde conception considère l'institution universitaire comme une unité autonome, indépendante de son environnement direct. Les ratios et indicateurs utilisés pour fonder les rankings sont des outils centrés sur l'université ou l'école à l'exclusion de son système de relations ou de son environnement plus large. Or, là encore, il s'agit d'une conception erronée et caduque de l'institution d'enseignement supérieur. D'abord parce que la performance de l'université ou de l'école est contingente et qu'elle repose très fortement sur les caractéristiques de l'environnement immédiat. Il devient alors hasardeux de comparer une institution localisée à Rabat et une autre localisée à Al Hoceïma. Comme le remarque fort justement Ilham Skalli Housseini (présidente de HEC Maroc) dans la dernière livraison de «The Report Morocco 2019» par Oxford Business Group, les institutions rbaties mais surtout casaouies sont systématiquement avantagées ensuite parce que cette conception fait totalement abstraction du fait que l'institution universitaire est un maillon important mais pas exclusif du système d'éducation et de recherche. En ce sens, il devient urgent de penser une approche multidimensionnelle de la performance des institutions de l'enseignement supérieur au Maroc, qui tienne compte de l'extrême diversité de leurs produits médiats ou immédiats et de leurs effets, eux-mêmes directs ou indirects. Camal Gallouj Directeur à HEC Maroc Professeur à l'Université Paris 13 Sorbonne cité