Un oiseau sur la branche Une vision haut perchee de l'actualite

5Oct/22Off

Une prévision pertinente

Le choc de la pandémie de Covid-19, les nouvelles tendances économiques changeantes et les révisions de la politique monétaire par les principales banques centrales font des prévisions macroéconomiques une tâche difficile. Cet article passe en revue les progrès des techniques de prévision qui ont été discutés lors de la 11e conférence de la BCE sur les techniques de prévision, consacrée à la prévision en temps anormal ». Les chercheurs avancent actuellement principalement sur deux fronts - soit en protégeant les modèles linéaires contre les événements extrêmes, soit en modélisant explicitement la dynamique de ces derniers. De nouvelles approches et méthodes se développent rapidement, en partie inspirées des techniques de big data et d'apprentissage automatique.
La dernière décennie a montré que les prévisionnistes doivent continuellement adapter leurs outils pour faire face à une complexité macroéconomique croissante. Tout comme la crise mondiale, la pandémie actuelle de Covid-19 souligne une fois de plus que les prévisionnistes ne peuvent pas se contenter d'évaluer le résultat futur le plus probable - comme un chiffre unique pour la croissance future du PIB au cours d'une certaine année. Au lieu de cela, une caractérisation de tous les résultats possibles (c'est-à-dire l'ensemble de la distribution) est nécessaire pour comprendre la probabilité et la nature des événements extrêmes.
C'est également essentiel pour les prévisionnistes des banques centrales, comme l'a souligné Philip Lane, membre du directoire de la BCE, dans son discours d'ouverture de la 11e conférence sur les techniques de prévision. Les banques centrales s'appuient fortement sur les prévisions pour concevoir leur politique et ont besoin de techniques robustes pour traverser les périodes de turbulences . Ils assurent non seulement la stabilité des prix et sont donc directement intéressés par la trajectoire d'inflation future la plus probable, mais contribuent également à la compréhension, à la gestion et au traitement des risques macroéconomiques et doivent donc appréhender la probabilité d'événements extrêmes (voir aussi la discussion dans Greenspan 2004). Afin d'améliorer la compréhension collective des nouvelles techniques qui pourraient potentiellement faire face aux défis posés par les événements extrêmes (par exemple, les pandémies, les catastrophes naturelles telles que les inondations ou les incendies de forêt) et les tendances changeantes (par exemple, le changement climatique, la démographie), la BCE a consacré la conférence à la prévision dans temps anormaux ». Les participants à la conférence - d'éminents experts dans le domaine - ont considéré les changements de régime et les grandes valeurs aberrantes comme des défis particulièrement importants pour les prévisionnistes des banques centrales à l'heure actuelle (graphique 1) et c'est ce que de nombreuses présentations ont abordé.
De nombreuses contributions couvraient l'une ou l'autre des deux stratégies d'amélioration des modèles de prévision dans un paysage de prévision dominé par la pandémie de Covid-19. La première stratégie revient à mettre à l'abri des modèles de prévision standards (tels que les VAR et les modèles à facteurs) contre les événements extrêmes. La deuxième stratégie vise à modéliser explicitement la dynamique économique dans des états extrêmes de l'économie, en reconnaissant que les variables économiques interagissent différemment dans de tels cas. Alors que ces deux stratégies évoluent actuellement assez indépendamment, elles pourraient se compléter à l'avenir.
Modernisation de l'approche classique
Plusieurs études récentes proposent des moyens de faire fonctionner le modèle classique d'autorégression vectorielle (VAR) en période de turbulence. Les chocs importants de la pandémie de Covid-19 ont des effets si forts sur les estimations des paramètres qu'ils peuvent conduire à des prévisions invraisemblables. S'il est simple de faire face à une seule observation extrême en corrigeant les valeurs aberrantes, cette approche atteint ses limites en cas d'enchaînement de chocs importants. Des études récentes proposent de donner moins de poids aux observations de Covid-19 en permettant une volatilité plus élevée des résidus associés (Lenza et Primiceri 2020). Carriero et al. (2021) proposent une approche alternative qui combine une variation temporelle stochastique de la volatilité avec un mécanisme de correction des valeurs aberrantes. Dans son discours d'ouverture, Joshua Chan a souligné que la volatilité stochastique est une caractéristique de longue date des données macroéconomiques et que sa prise en compte améliorait les propriétés de prévision des VAR à grande échelle déjà avant Covid-19. Dans son discours d'ouverture, Chris Sims a fait valoir que les chocs structurels frappant l'économie sont mieux compris (et identifiés) en examinant les changements dans la cooccurrence de fortes fluctuations de plusieurs quantités macroéconomiques clés. Les VAR sont un modèle de bourreau de travail, d'où l'accent mis sur eux. Mais en réalité, ce ne sont pas seulement les VAR qui sont affectés par les observations anormales. C'est également le cas pour la plupart des autres modèles de séries chronologiques standard et, en fait, également pour les modèles structurels à part entière, c'est-à-dire les modèles dynamiques d'équilibre général stochastique (DSGE), qui sont également adaptés pour tenir compte de la nature sans précédent du choc pandémique (Cardani et al. 2020).
La prévision bénéficie de l'apport d'informations pertinentes hors modèle, telles que le jugement d'experts. Cela est encore plus vrai lors d'événements extrêmes. Banbura et al. (2021) montrent que l'enrichissement des prévisions basées sur des modèles purs avec des informations fournies par l'enquête auprès des prévisionnistes professionnels peut être un moyen valable d'améliorer les performances de prévision.
La nouvelle ambition : Modéliser l'ensemble de la distribution et les non-linéarités
Si les événements extrêmes deviennent plus fréquents, la politique doit accorder encore plus d'attention aux résultats extrêmes possibles. Contrairement à la stratégie décrite dans la section précédente, qui neutralise largement les événements extrêmes, la deuxième stratégie tente de s'attaquer de front aux événements extrêmes en modélisant explicitement leur dynamique.
Un axe de travail part du constat que la dynamique économique dépend en partie de l'état de l'économie. Par exemple, la dynamique peut différer entre une profonde récession et une expansion. L'approche de plus en plus populaire de la « croissance à risque » (GaR) explore cette possibilité en modélisant la dépendance de la dynamique économique à la direction et à l'ampleur des chocs les plus récents. De cette manière, il permet différentes dynamiques pendant une crise (voir Korobilis et al. 2021 pour une application à l'inflation). Gonzalez-Rivera et al. (2021) s'appuient sur l'approche de la croissance à risque, affirmant que pour mesurer les vulnérabilités lors d'événements extrêmes tels qu'une pandémie, il faut penser en termes de scénarios. Leur approche s'inspire de la littérature sur les tests de résistance, qui avait été développée pour appréhender le risque extrême sur les marchés financiers. La combinaison de l'approche de la croissance à risque avec des scénarios d'évolutions économiques extrêmes sélectionnées permet de comprendre comment l'économie est affectée par des chocs importants. Caldar et al. (2021) montrent que les modèles de changement de régime offrent une alternative prometteuse à l'approche de croissance à risque.
Une approche plus récente et plus radicale pour gérer de manière flexible les dynamiques économiques non linéaires s'inspire des techniques d'apprentissage automatique. Plusieurs approches combinent des techniques de séries chronologiques avec des arbres de régression. Ces techniques modélisent la dépendance des états par des modèles linéaires par morceaux définissant les états par des méthodes purement pilotées par les données. Pour éviter le surajustement, les techniques de rétrécissement et de calcul de la moyenne des modèles ont longtemps été utilisées pour se concentrer sur les prédicteurs les plus pertinents. Dans le contexte de l'apprentissage automatique, le rétrécissement permet d'obtenir des résultats robustes en faisant la moyenne sur de nombreux arbres, tels que les « forêts aléatoires » (Coulombe, 2021) ou en combinaison avec des techniques bayésiennes (Clark et al. 2021). Ces derniers montrent que cette modélisation flexible des non-linéarités peut aider à prévoir non seulement la moyenne conditionnelle mais aussi le risque extrême. L'article gagnant du concours pour doctorants (Kutateladze 2021) applique une "astuce du noyau" pour estimer des modèles de facteurs dynamiques non linéaires avec des modèles hautement non linéaires.
Les nouveaux développements sont gourmands en données, et leur popularité croissante est donc étroitement liée à l'émergence du big data. Même avec les mégadonnées, cependant, la modélisation des non-linéarités peut rester fragile. Une complexité de modèle plus élevée s'accompagne d'un manque de robustesse et de la critique de la « boîte noire ». Il est possible d'améliorer l'interprétabilité des techniques d'apprentissage automatique via une analyse post-estimation (Buckmann et al. 2021). À ce stade, le succès durable de ces modèles reste à voir.
Des compléments, pas des substituts
Les deux stratégies présentées dans cette chronique évoluent assez indépendamment dans la littérature actuelle, mais elles pourraient se compléter et s'enrichir à l'avenir. Notre enquête sur la conférence montre que l'approche classique n'est en aucun cas devenue obsolète : plus de la moitié des participants ont indiqué qu'ils utilisent des VAR dans leur travail. Dans le même temps, il existe un large consensus sur la nécessité de poursuivre les recherches sur de nouveaux indicateurs et sur la modélisation de la dynamique non linéaire (figure 2). Pour cela, l'approche classique et la nouvelle approche peuvent apprendre l'une de l'autre. La conférence a révélé quelques lacunes, qui peuvent être comblées via les complémentarités entre les deux approches.
Connaître la nature des non-linéarités contribue à rendre les modèles linéaires plus robustes. Le large éventail de grands ensembles de données disponibles permet de construire des statistiques qui capturent la non-linéarité ou le risque à une fréquence plus élevée que jamais. Ainsi, certains types de non-linéarités peuvent être introduites dans des modèles linéaires à partir d'indicateurs microéconomiques. À l'inverse, le succès de nouveaux indicateurs dans les modèles linéaires pour capturer les non-linéarités dans l'économie pourrait inspirer le développement de modèles non linéaires ciblés. Cette coïncidence des besoins pourrait se refléter dans le fait que les « mégadonnées » sont classées comme la voie de recherche la plus importante par les participants à la conférence (figure 2).
La haute fréquence et les mégadonnées ont déjà apporté des gains substantiels dans la projection actuelle de l'économie. Au début de la crise de Covid-19, en raison de la rapidité sans précédent avec laquelle les événements économiques se déroulaient, de nouvelles variables à haute fréquence telles que les données de carte de crédit, les données de mobilité, Google Trends ou les informations de réservation se sont avérées extrêmement utiles en temps réel. suivi des évolutions économiques (voir Antolin-Diaz et al. 2021 ou Woloszko 2020 détaillant le OECD Weekly Tracker). Cela s'est également accompagné d'innovations techniques sur le traitement de la courte histoire de ces données, les implications de l'incertitude variable dans le temps pour la mise à jour des prévisions avec les nouvelles entrantes (Labonne, 2020) et sur la prévision robuste de séries hautement non stationnaires (Castle et al. 2020, 2021).
Apprécier les (prévisions de) l'incertitude
Les incertitudes se sont accrues au cours des dernières années, et il est devenu encore plus urgent de les aborder correctement. Les modèles statistiques aident à traduire les modèles historiques dans la situation actuelle. Inévitablement, cela n'a pas trop bien fonctionné pendant la pandémie, qui peut être considérée comme historiquement unique. Le choc Covid-19 n'est pas le choc macroéconomique habituel, comme l'ont évoqué au début de la pandémie Baldwin et di Mauro (2020). Dans de telles situations, il convient de trouver un équilibre entre les prédictions basées sur des modèles statistiques et celles basées sur un raisonnement économique, par exemple via des modèles théoriques.
La mesure appropriée de l'incertitude est importante en soi. Après tout, l'incertitude n'est pas un manque de précision. Chris Sims a vivement souligné que les développeurs et les utilisateurs de modèles ont tendance à dire qu'un modèle produisant des bandes d'incertitude très élevées n'est «pas précis». Mais cette forte incertitude pourrait en fait être une description appropriée de l'état de l'économie. Par conséquent, les décideurs politiques devraient encourager les modèles qui indiquent exactement l'ampleur de l'incertitude, même lorsqu'il s'agit de mauvaises nouvelles.

Remplis sous: Non classé Commentaires
Commentaires (0) Trackbacks (0)

Désolé, le formulaire de commentaire est fermé pour le moment

Trackbacks are disabled.