Un oiseau sur la branche Une vision haut perchee de l'actualite

4Mar/23Off

Les traits attributifs des bons PDG

Leur liste de qualités et de pratiques d'imagination nécessaires pour réussir dans le rôle de directeur général est longue; il contient résilience, vigueur, QI et QE substantiels, confiance en soi, ambition, humilité, vision, fiabilité et présence. Il serait simple de créer 100 fonctionnalités beaucoup plus, qui pourraient toutes être réelles. Mais que se passe-t-il si nous nous fixons une tâche beaucoup plus difficile et que nous essayons de savoir quelle haute qualité atteint tout en haut de la liste de contrôle? Au cours des dix dernières années, j'ai mené des entretiens en cours avec plus de 500 PDG. J'avais besoin d'apprendre exactement ce qui les motive en tant que personnes, par opposition à en tant que stratèges d'organisation. Je les ai interrogés sur l'expérience et les impacts formatifs, ainsi que sur les leçons d'autorité essentielles qu'ils avaient apprises tout au long de leur mode de vie. En sélectionnant les dirigeants que je rencontrerais, j'ai recherché la variété dans à peu près tous les aspects: la concurrence, le sexe et la nationalité, ainsi que la dimension commerciale, les affaires, ainsi que la position rémunérée. Beaucoup de managers correspondent à peine au stéréotype clé du casting du PDG qui semblait se diriger vers ce poste dès son plus jeune âge. J'ai parlé avec un seul directeur général qui a commencé comme instituteur: Abbe Raven, qui a dirigé AAndE Systems, un You.S. organisation de presse opérant à partir de New York. Une autre, Carla Cooper, ancienne PDG de Daymon Worldwide, une société de marketing et de publicité située dans le Connecticut, a joué de l'orgue classique dès son plus jeune âge et a vendu les appareils comme sa carrière initiale à l'université. Alors que j'ai interviewé beaucoup plus de dirigeants, mon ensemble de détails qualitatifs a commencé à être quantitatif, fournissant un volume critique de bons exemples pour commencer à chercher à répondre à un problème facile qui me tenait toujours à cœur: qu'est-ce que chacune de ces personnes souligne pourquoi ils ont été promus à la tâche la plus élevée au-dessus de toutes les autres? Quel est le facteur de distinction? Finalement, j'ai résolu avec une habitude d'esprit que mon téléphone utilisait la fascination. Bien sûr, l'attention est aux enjeux de table pour quiconque cherche à bien faire. Mais il est vraiment disponible dans de nombreux tons. La curiosité de certaines personnes a permis à ces personnes d'exceller dans les mots croisés ou peut-être d'être des champions de Jeopardy. La curiosité employée est vraiment une variété beaucoup plus spécifique. Les gens qui en souffrent participent à une réflexion continue pour comprendre comment les choses fonctionnent. Et puis ils commencent à se demander comment ces choses pourraient être rendues plus efficaces. Ils techniques chaque petite chose en ayant un esprit curieux établi - qu'il s'agisse de produire le sentiment de pratiques d'achat en mouvement ou peut-être les tendances macroéconomiques mondiales qui peuvent façonner leur secteur. La curiosité appliquée peut être aussi organique que la respiration des dirigeants, et ils ne pouvaient donc pas la fermer même s'ils le souhaitaient. J'ai entendu des récits comparables de la part de votre poignée de PDG sur la façon dont le simple fait de se déplacer dans un magasin de vente au détail devient un sacré-dos mental s'exerçant sur les revenus et les dépenses les plus probables de l'entreprise. Tout à coup, ils peuvent communiquer avec l'administrateur et générer des conseils sur la précision avec laquelle divers modèles pourraient améliorer les revenus. Reid Hoffman, l'entrepreneur milliardaire qui a cofondé LinkedIn et créé dès le début des paris sur des entreprises telles qu'Airbnb et Facebook ou myspace, a parlé lors de votre entretien d'embauche de ce qu'il préfère chez les professionnels. Il a utilisé une autre phrase, bien que l'impulsion principale qu'il décrive soit similaire à l'attention appliquée. «L'une de vos qualités beaucoup plus spéciales que j'ai tendance à trouver est certainement un contour de découverte illimité, car la plupart du temps, les entreprises que j'achète sont en train de démolir de nouveaux terrains et de créer une nouvelle zone», a-t-il expliqué. "Vous devez avoir la sensation:" Comment vais-je étudier une nouvelle région? ". Je recherche donc la meilleure capacité pour comprendre de manière cohérente et rapide." Ce qui sépare les principaux PDG de la relaxation, c'est quand beaucoup de choses qu'ils émettent, sondent, puis abordent ce qu'ils ont afin de rechercher des observations et des modèles. Et aussi dans cette communauté aux difficultés perverses, l'ensemble du cerveau qui interroge doit être prospectif autour de lui peut être rétrospectif, parcourant au moyen de ce qui s'est déjà produit pour trouver des classes. Si une vieille définition de la sagesse est le fait que c'est une sensation que «j'ai vu cette vidéo bien avant et je comprends comment cela se passe», alors l'information pour les dirigeants signifie progressivement désapprendre les choses qu'ils ont peut-être apprises pour pouvoir pour découvrir des circonstances hypothétiques pour avoir un potentiel incertain. Semblable au partenariat qui est présent entre les mathématiques théoriques et les mathématiques appliquées, il y a une poussée utile juste derrière cette réflexion abstraite. Les PDG relient des points et construisent des cadres dans leurs pensées, un muscle qu'ils fonctionnent et créent pour fournir certainement le travail le plus crucial qu'ils rencontrent avec leur rôle: afin de se tenir devant leur personnel et de dire: nous allons acquérir dans notre industrie aujourd'hui et réussir dans le monde principalement parce qu'il se développera probablement au cours des trois à cinq années suivantes.

Remplis sous: Non classé Commentaires
10Déc/22Off

Bing: le search réformé pour un focus business

Microsoft relancera publiquement Edge at Fire jusqu'en 2019 à Orlando lundi, en utilisant le candidat à la sortie du navigateur Web dépendant du chrome disponible aujourd'hui pour Windows 10 et macOS de Microsoft. Ceci marque juste une action supplémentaire à la sortie du bénéfice refait, les revues ultérieures en décembre 2018 selon lesquelles Microsoft abandonnerait le moteur de fabrication EdgeHTML au profit de l'offre open-source Chromium élaborée par Google et yahoo, car la base de Google et yahoo Chrome. Microsoft se concentre sur la disponibilité standard d'Advantage le 15 janvier 2020, avec aide et assistance pour "plus de 90 langues parlées", avec une assistance au déploiement via FastTrack à certaines à partir du premier trimestre 2020. La liste des fonctions inconnues d'Edge est "Choix", "Une capacité qui permet aux utilisateurs finaux de sauvegarder et de taper les informations de site Web et d'exporter ces informations vers Concept et Excel" pour vous aider à utiliser la puissance de tous ces logiciels afin d'analyser les détails et de faire équipe ", selon la société Microsoft v. p. Yusuf Mehdi. Microsoft peut adhérer à Mozilla qui permet de ne pas suivre par défaut, pour des raisons de sécurité. En outre, cette société relance Bing en tant que "moteur de recherche pour l'organisation", vantant les nouvelles fonctionnalités permettant aux utilisateurs de rechercher sur l'internet (grand public) et l'intranet d'entreprise de Bing à l'aide d'un écran unifié. "L'ironie est qu'il est plus facile de trouver une section imprécise d'informations sur le réseau plus large que de découvrir un document très simple sur l'intranet de votre propre entreprise, par exemple un portail de paystub, un animal domestique dans le plan d'assurance des bureaux, ou peut-être la position de bureau d'un autre personnel », avait écrit Mehdi dans son blog. "Si les informations et les faits de la société s'élargissent constamment à des téraoctets, des pétaoctets et des zettaoctets de connaissances, cela ne ferait que lire plus compliqué." Parcourir dans Bing offre désormais la possibilité de rechercher des personnes par titre, titre de l'équipage et lieu de travail, agence seo ainsi que de présenter des plans de revêtement de sol et des recommandations lors de recherches par lieu de travail. La définition des acronymes commerciaux et l'obtention d'informations par le biais de questions et réponses sont également probables, toutes les informations pouvant être recherchées en utilisant un dialecte naturel. Ce pouvoir est également prolongé aux requêtes de recherche de téléphone portable également.

Remplis sous: Non classé Commentaires
5Oct/22Off

Une prévision pertinente

Le choc de la pandémie de Covid-19, les nouvelles tendances économiques changeantes et les révisions de la politique monétaire par les principales banques centrales font des prévisions macroéconomiques une tâche difficile. Cet article passe en revue les progrès des techniques de prévision qui ont été discutés lors de la 11e conférence de la BCE sur les techniques de prévision, consacrée à la prévision en temps anormal ». Les chercheurs avancent actuellement principalement sur deux fronts - soit en protégeant les modèles linéaires contre les événements extrêmes, soit en modélisant explicitement la dynamique de ces derniers. De nouvelles approches et méthodes se développent rapidement, en partie inspirées des techniques de big data et d'apprentissage automatique.
La dernière décennie a montré que les prévisionnistes doivent continuellement adapter leurs outils pour faire face à une complexité macroéconomique croissante. Tout comme la crise mondiale, la pandémie actuelle de Covid-19 souligne une fois de plus que les prévisionnistes ne peuvent pas se contenter d'évaluer le résultat futur le plus probable - comme un chiffre unique pour la croissance future du PIB au cours d'une certaine année. Au lieu de cela, une caractérisation de tous les résultats possibles (c'est-à-dire l'ensemble de la distribution) est nécessaire pour comprendre la probabilité et la nature des événements extrêmes.
C'est également essentiel pour les prévisionnistes des banques centrales, comme l'a souligné Philip Lane, membre du directoire de la BCE, dans son discours d'ouverture de la 11e conférence sur les techniques de prévision. Les banques centrales s'appuient fortement sur les prévisions pour concevoir leur politique et ont besoin de techniques robustes pour traverser les périodes de turbulences . Ils assurent non seulement la stabilité des prix et sont donc directement intéressés par la trajectoire d'inflation future la plus probable, mais contribuent également à la compréhension, à la gestion et au traitement des risques macroéconomiques et doivent donc appréhender la probabilité d'événements extrêmes (voir aussi la discussion dans Greenspan 2004). Afin d'améliorer la compréhension collective des nouvelles techniques qui pourraient potentiellement faire face aux défis posés par les événements extrêmes (par exemple, les pandémies, les catastrophes naturelles telles que les inondations ou les incendies de forêt) et les tendances changeantes (par exemple, le changement climatique, la démographie), la BCE a consacré la conférence à la prévision dans temps anormaux ». Les participants à la conférence - d'éminents experts dans le domaine - ont considéré les changements de régime et les grandes valeurs aberrantes comme des défis particulièrement importants pour les prévisionnistes des banques centrales à l'heure actuelle (graphique 1) et c'est ce que de nombreuses présentations ont abordé.
De nombreuses contributions couvraient l'une ou l'autre des deux stratégies d'amélioration des modèles de prévision dans un paysage de prévision dominé par la pandémie de Covid-19. La première stratégie revient à mettre à l'abri des modèles de prévision standards (tels que les VAR et les modèles à facteurs) contre les événements extrêmes. La deuxième stratégie vise à modéliser explicitement la dynamique économique dans des états extrêmes de l'économie, en reconnaissant que les variables économiques interagissent différemment dans de tels cas. Alors que ces deux stratégies évoluent actuellement assez indépendamment, elles pourraient se compléter à l'avenir.
Modernisation de l'approche classique
Plusieurs études récentes proposent des moyens de faire fonctionner le modèle classique d'autorégression vectorielle (VAR) en période de turbulence. Les chocs importants de la pandémie de Covid-19 ont des effets si forts sur les estimations des paramètres qu'ils peuvent conduire à des prévisions invraisemblables. S'il est simple de faire face à une seule observation extrême en corrigeant les valeurs aberrantes, cette approche atteint ses limites en cas d'enchaînement de chocs importants. Des études récentes proposent de donner moins de poids aux observations de Covid-19 en permettant une volatilité plus élevée des résidus associés (Lenza et Primiceri 2020). Carriero et al. (2021) proposent une approche alternative qui combine une variation temporelle stochastique de la volatilité avec un mécanisme de correction des valeurs aberrantes. Dans son discours d'ouverture, Joshua Chan a souligné que la volatilité stochastique est une caractéristique de longue date des données macroéconomiques et que sa prise en compte améliorait les propriétés de prévision des VAR à grande échelle déjà avant Covid-19. Dans son discours d'ouverture, Chris Sims a fait valoir que les chocs structurels frappant l'économie sont mieux compris (et identifiés) en examinant les changements dans la cooccurrence de fortes fluctuations de plusieurs quantités macroéconomiques clés. Les VAR sont un modèle de bourreau de travail, d'où l'accent mis sur eux. Mais en réalité, ce ne sont pas seulement les VAR qui sont affectés par les observations anormales. C'est également le cas pour la plupart des autres modèles de séries chronologiques standard et, en fait, également pour les modèles structurels à part entière, c'est-à-dire les modèles dynamiques d'équilibre général stochastique (DSGE), qui sont également adaptés pour tenir compte de la nature sans précédent du choc pandémique (Cardani et al. 2020).
La prévision bénéficie de l'apport d'informations pertinentes hors modèle, telles que le jugement d'experts. Cela est encore plus vrai lors d'événements extrêmes. Banbura et al. (2021) montrent que l'enrichissement des prévisions basées sur des modèles purs avec des informations fournies par l'enquête auprès des prévisionnistes professionnels peut être un moyen valable d'améliorer les performances de prévision.
La nouvelle ambition : Modéliser l'ensemble de la distribution et les non-linéarités
Si les événements extrêmes deviennent plus fréquents, la politique doit accorder encore plus d'attention aux résultats extrêmes possibles. Contrairement à la stratégie décrite dans la section précédente, qui neutralise largement les événements extrêmes, la deuxième stratégie tente de s'attaquer de front aux événements extrêmes en modélisant explicitement leur dynamique.
Un axe de travail part du constat que la dynamique économique dépend en partie de l'état de l'économie. Par exemple, la dynamique peut différer entre une profonde récession et une expansion. L'approche de plus en plus populaire de la « croissance à risque » (GaR) explore cette possibilité en modélisant la dépendance de la dynamique économique à la direction et à l'ampleur des chocs les plus récents. De cette manière, il permet différentes dynamiques pendant une crise (voir Korobilis et al. 2021 pour une application à l'inflation). Gonzalez-Rivera et al. (2021) s'appuient sur l'approche de la croissance à risque, affirmant que pour mesurer les vulnérabilités lors d'événements extrêmes tels qu'une pandémie, il faut penser en termes de scénarios. Leur approche s'inspire de la littérature sur les tests de résistance, qui avait été développée pour appréhender le risque extrême sur les marchés financiers. La combinaison de l'approche de la croissance à risque avec des scénarios d'évolutions économiques extrêmes sélectionnées permet de comprendre comment l'économie est affectée par des chocs importants. Caldar et al. (2021) montrent que les modèles de changement de régime offrent une alternative prometteuse à l'approche de croissance à risque.
Une approche plus récente et plus radicale pour gérer de manière flexible les dynamiques économiques non linéaires s'inspire des techniques d'apprentissage automatique. Plusieurs approches combinent des techniques de séries chronologiques avec des arbres de régression. Ces techniques modélisent la dépendance des états par des modèles linéaires par morceaux définissant les états par des méthodes purement pilotées par les données. Pour éviter le surajustement, les techniques de rétrécissement et de calcul de la moyenne des modèles ont longtemps été utilisées pour se concentrer sur les prédicteurs les plus pertinents. Dans le contexte de l'apprentissage automatique, le rétrécissement permet d'obtenir des résultats robustes en faisant la moyenne sur de nombreux arbres, tels que les « forêts aléatoires » (Coulombe, 2021) ou en combinaison avec des techniques bayésiennes (Clark et al. 2021). Ces derniers montrent que cette modélisation flexible des non-linéarités peut aider à prévoir non seulement la moyenne conditionnelle mais aussi le risque extrême. L'article gagnant du concours pour doctorants (Kutateladze 2021) applique une "astuce du noyau" pour estimer des modèles de facteurs dynamiques non linéaires avec des modèles hautement non linéaires.
Les nouveaux développements sont gourmands en données, et leur popularité croissante est donc étroitement liée à l'émergence du big data. Même avec les mégadonnées, cependant, la modélisation des non-linéarités peut rester fragile. Une complexité de modèle plus élevée s'accompagne d'un manque de robustesse et de la critique de la « boîte noire ». Il est possible d'améliorer l'interprétabilité des techniques d'apprentissage automatique via une analyse post-estimation (Buckmann et al. 2021). À ce stade, le succès durable de ces modèles reste à voir.
Des compléments, pas des substituts
Les deux stratégies présentées dans cette chronique évoluent assez indépendamment dans la littérature actuelle, mais elles pourraient se compléter et s'enrichir à l'avenir. Notre enquête sur la conférence montre que l'approche classique n'est en aucun cas devenue obsolète : plus de la moitié des participants ont indiqué qu'ils utilisent des VAR dans leur travail. Dans le même temps, il existe un large consensus sur la nécessité de poursuivre les recherches sur de nouveaux indicateurs et sur la modélisation de la dynamique non linéaire (figure 2). Pour cela, l'approche classique et la nouvelle approche peuvent apprendre l'une de l'autre. La conférence a révélé quelques lacunes, qui peuvent être comblées via les complémentarités entre les deux approches.
Connaître la nature des non-linéarités contribue à rendre les modèles linéaires plus robustes. Le large éventail de grands ensembles de données disponibles permet de construire des statistiques qui capturent la non-linéarité ou le risque à une fréquence plus élevée que jamais. Ainsi, certains types de non-linéarités peuvent être introduites dans des modèles linéaires à partir d'indicateurs microéconomiques. À l'inverse, le succès de nouveaux indicateurs dans les modèles linéaires pour capturer les non-linéarités dans l'économie pourrait inspirer le développement de modèles non linéaires ciblés. Cette coïncidence des besoins pourrait se refléter dans le fait que les « mégadonnées » sont classées comme la voie de recherche la plus importante par les participants à la conférence (figure 2).
La haute fréquence et les mégadonnées ont déjà apporté des gains substantiels dans la projection actuelle de l'économie. Au début de la crise de Covid-19, en raison de la rapidité sans précédent avec laquelle les événements économiques se déroulaient, de nouvelles variables à haute fréquence telles que les données de carte de crédit, les données de mobilité, Google Trends ou les informations de réservation se sont avérées extrêmement utiles en temps réel. suivi des évolutions économiques (voir Antolin-Diaz et al. 2021 ou Woloszko 2020 détaillant le OECD Weekly Tracker). Cela s'est également accompagné d'innovations techniques sur le traitement de la courte histoire de ces données, les implications de l'incertitude variable dans le temps pour la mise à jour des prévisions avec les nouvelles entrantes (Labonne, 2020) et sur la prévision robuste de séries hautement non stationnaires (Castle et al. 2020, 2021).
Apprécier les (prévisions de) l'incertitude
Les incertitudes se sont accrues au cours des dernières années, et il est devenu encore plus urgent de les aborder correctement. Les modèles statistiques aident à traduire les modèles historiques dans la situation actuelle. Inévitablement, cela n'a pas trop bien fonctionné pendant la pandémie, qui peut être considérée comme historiquement unique. Le choc Covid-19 n'est pas le choc macroéconomique habituel, comme l'ont évoqué au début de la pandémie Baldwin et di Mauro (2020). Dans de telles situations, il convient de trouver un équilibre entre les prédictions basées sur des modèles statistiques et celles basées sur un raisonnement économique, par exemple via des modèles théoriques.
La mesure appropriée de l'incertitude est importante en soi. Après tout, l'incertitude n'est pas un manque de précision. Chris Sims a vivement souligné que les développeurs et les utilisateurs de modèles ont tendance à dire qu'un modèle produisant des bandes d'incertitude très élevées n'est «pas précis». Mais cette forte incertitude pourrait en fait être une description appropriée de l'état de l'économie. Par conséquent, les décideurs politiques devraient encourager les modèles qui indiquent exactement l'ampleur de l'incertitude, même lorsqu'il s'agit de mauvaises nouvelles.

Remplis sous: Non classé Commentaires
15Juil/22Off

Construire des porte-avions

L'USS Gerald R. Ford se lance dans le premier de ses essais en mer en 2017 pour tester divers systèmes de pointe par ses propres moyens pour la première fois, depuis Newport News, Va. Cependant, les innovations chinoises en matière d'intelligence artificielle rendent ces navires vulnérables. moins Le USS Gerald R. Ford se lance dans le premier de ses essais en mer en 2017 pour tester divers systèmes de pointe par ses propres moyens pour la première fois, depuis Newport News, Va. Cependant, les innovations chinoises en ... plus Photo : Spécialiste en communication de masse de 2e classe Ridge Leoni /Associated Press

Le Pentagone, avec son cycle de planification de 30 ans pour la construction de navires, lancera-t-il encore des porte-avions en 2048, même s'ils sont très vulnérables aux attaques aujourd'hui ?

Voilà un exemple des questions relatives à la modernisation de l'armée qui n'ont cessé de tarauder les participants à la récente réunion de l'Aspen Strategy Group, qui réunit chaque année d'anciens et d'actuels hauts responsables de la sécurité nationale, ainsi que quelques journalistes, pour discuter de défense et de politique étrangère. L'une des principales conclusions est la suivante : L'avenir de la guerre est maintenant, et la Chine est prête à le dominer.

Les intervenants de la conférence ont décrit une nouvelle génération de systèmes de combat, alimentés par l'intelligence artificielle, les cyber-armes et les robots qui peuvent opérer sur terre, en mer et dans les airs. Mais l'Amérique reste largement attachée aux armes du passé - des porte-avions, des bombardiers, des avions de chasse et des sous-marins superbement conçus (mais super coûteux).

"Nous disposons d'un petit nombre de systèmes exquis, coûteux, habités et difficiles à remplacer qui auraient été familiers à Dwight D. Eisenhower. Ils sont en train d'être dépassés par la technologie de pointe", a fait valoir Christian Brose, directeur du personnel de la commission des services armés du Sénat. Selon lui, le Pentagone a plutôt besoin d'un grand nombre de systèmes autonomes, peu coûteux, sans pilote et remplaçables, capables de survivre dans le nouvel espace de combat électronique et d'écraser tout adversaire potentiel.

Les besoins futurs sont dépassés par les pratiques passées, en raison de ce que le patron de Brose, le président de la commission des services armés, le sénateur John McCain, a appelé le "complexe militaro-industriel-congressif". Brose calcule que dans la demande initiale du Pentagone pour 74 milliards de dollars de nouvelles dépenses de défense pour l'exercice 2019, seul 0,006 % était destiné à la science et à la technologie. La National Science Foundation estime qu'au cours de l'exercice 2015, seuls 18 % du budget de recherche et développement du Pentagone ont été consacrés à la recherche fondamentale, appliquée et avancée.

Même lorsque le Pentagone essaie de pousser l'innovation, il trébuche souvent. Lorsque Ashton Carter était secrétaire à la défense sous le président Obama, il a créé la Defense Innovation Unit - Experimental, ou DIUX, avec des bureaux dans la Silicon Valley, à Boston et à Austin. Cette opération a prospéré au début, négociant 60 contrats de défense avec des startups. Le programme a ralenti sous l'administration Trump, malgré le soutien du secrétaire à la défense Jim Mattis, car il manque de fonds et de soutien bureaucratique, a averti Christopher Kirchhoff, un ancien partenaire de DIUX.

Le plus grand défi technologique discuté ici était l'intelligence artificielle. En quelques années, ces systèmes ont appris à jouer à des jeux complexes comme les échecs et le go mieux que les humains, Baptême de l'air et à mieux reconnaître les voix et les objets. Et bientôt, ils piloteront les armes de combat.

La Chine semble déterminée à s'emparer de ce "haut lieu" de l'IA dans les conflits futurs. Ces deux dernières années, des entreprises chinoises ont remporté un concours d'IA pour la détection d'objets. Les Chinois sont heureux que les États-Unis continuent à construire des porte-avions et des bombardiers, à condition qu'ils déploient les technologies les plus avancées qui peuvent désactiver ces systèmes.

Richard Danzig, ancien secrétaire d'État à la marine, a publié un brillant article discuté lors de la conférence, dans lequel il prévient qu'à mesure que les systèmes d'IA dominent la guerre, ils "introduisent de nouveaux risques importants de perte de contrôle". Les humains doivent faire preuve d'une "réflexion et d'une créativité maximales" lors de la conception (et prévoir les échecs), car ces armes pilotées par l'IA auront des accidents et des conséquences involontaires. Les décideurs politiques avisés doivent éviter un monde "Dr. Strangelove" de robots tueurs non sécurisés et de machines apocalyptiques.

L'Aspen Strategy Group est un forum profondément bipartisan. Mais il y a eu ici une discussion intense sur la question qui contrarie l'Amérique cet été - la polarisation politique croissante qui crée tant de discorde qu'elle devient un problème de sécurité nationale.

À l'issue de la réunion de lundi, républicains et démocrates se sont montrés tout aussi passionnés pour faire passer le message selon lequel nous vivons un "moment Spoutnik" pour la modernisation de notre armée. La concurrence avec une Chine montante commence chez nous, avec un Pentagone plus agile et un pays plus uni pour affronter les grands problèmes à venir.

Remplis sous: Non classé Commentaires
20Juin/22Off

Économies d’agglomération, productivité et amélioration de la qualité

L'impact de l'agglomération sur la qualité des produits a reçu beaucoup moins d'attention que son impact sur la productivité, malgré l'importance de la qualité comme condition préalable au développement économique. Cette colonne utilise des données au niveau des produits végétaux du secteur manufacturier japonais pour évaluer les effets de l'agglomération urbaine sur la qualité des produits. Les résultats suggèrent que les allégements fiscaux des États et des municipalités, ainsi que d'autres efforts publics pour attirer les entreprises, renforcent la compétitivité économique en améliorant la qualité des produits ainsi que la productivité.
Les effets d'amélioration de la productivité de l'agglomération industrielle ont suscité une grande attention dans les cercles politiques. Par exemple, le gouvernement français a dépensé 1,5 milliard d'euros pour la politique des « pôles de compétitivité » à la fin des années 2000 (Martin et al. 2011). Selon Nishimura et Okamuro (2011), le gouvernement japonais a investi 110 milliards de yens (environ 1,1 milliard de dollars) dans un « projet de grappe industrielle » de 2001 à 2005. Des preuves empiriques suggèrent que la productivité au niveau régional augmente de 3 à 8 % lorsque la taille du marché est doublé (Banque mondiale 2009).
Par rapport à l'attention considérable des recherches sur les influences de l'agglomération sur la productivité (par exemple Saito et Gopinath 2009), ses effets sur la qualité des produits n'ont pas été suffisamment pris en compte. La qualité des produits est largement considérée comme une condition préalable au développement économique à l'ère de la mondialisation (Amiti et Khandelwal 2013). Pour entrer dans n'importe quel segment à forte intensité de compétences de la matrice de production fragmentée au niveau international, par exemple, même les pays développés amélioreront la qualité des biens intermédiaires qu'ils offrent (par exemple, Timmer et al. 2014 ; voir Hayakawa et al. 2015 pour l'amélioration de la qualité dans Pays en voie de développement).
Dans une étude récente, nous utilisons des données au niveau des produits végétaux provenant de l'industrie japonaise pour évaluer les effets de l'agglomération urbaine sur la qualité des produits (Saito et Matsuura 2016). Nos résultats suggèrent fortement que les allégements fiscaux des États et des municipalités et d'autres efforts publics pour attirer les entreprises améliorent la compétitivité économique en améliorant la qualité des produits ainsi que la productivité. En d'autres termes, les gains de productivité utilisés pour projeter les bénéfices d'agglomération sous-estiment les bénéfices en ignorant les incitations de qualité accompagnant un choc de productivité. Par conséquent, les entreprises accordant une grande priorité à l'amélioration de la qualité seront sous-subventionnées ou négligées dans les politiques favorisant l'agglomération, sacrifiant la croissance de l'emploi ou les recettes fiscales dans la région d'accueil.
Analyse théorique
En partie par souci de cohérence avec les représentations antérieures de la qualité du produit, nous étendons le cadre de la demande logit de Berry (1994) en introduisant une dimension de la qualité du produit dans la prise de décision stratégique de l'entreprise. La qualité est définie comme un levier de la demande qui stimule la propension à payer des consommateurs. Si un bien est perçu comme étant de meilleure qualité qu'un autre, sa demande est plus importante même si les deux ont le même prix.
Dans notre étude, la qualité du produit est variée par un ajustement approprié des coûts marginaux et fixes de l'entreprise. Antoniades (2015) soutient que l'investissement en recherche et développement (R&D) - affectant les dépenses fixes de l'entreprise - est l'ingrédient clé du type d'innovation qui améliore la qualité. En revanche, Fan et al. (2015) expliquent que c'est une utilisation intensive des intrants, et donc un coût marginal élevé, qui est responsable de la croissance de la qualité de la production.
Nous constatons que puisque les économies d'agglomération - modélisées comme les externalités améliorant la productivité - réduisent les coûts marginaux et augmentent les produits marginaux, et puisque chaque dollar de production supplémentaire offre plus d'intrants, les entreprises urbaines commercialiseront à la fois des produits plus nombreux et de meilleure qualité que les entreprises rurales. En d'autres termes, les économies d'agglomération stimulent les profits des entreprises directement en améliorant la productivité et indirectement en améliorant la qualité des produits (graphique 1).
La qualité des produits a également des implications importantes pour la mesure des avantages de l'économie d'agglomération. Des études antérieures, dans le cadre des efforts visant à prédire l'efficacité des politiques qui attirent l'agglomération, ont souvent examiné leurs impacts sur la productivité totale des facteurs (PGF). Cependant, si l'amélioration de la qualité nécessite une utilisation accrue des intrants, la PTF sous-estime les avantages de l'agglomération car elle ne tient pas compte des contributions des avantages à l'amélioration de la qualité. En d'autres termes, les preuves empiriques basées sur la PTF des économies d'agglomération sont sous-estimées si les entreprises accordent une grande priorité à l'amélioration de la qualité.
Analyse empirique
La conclusion théorique selon laquelle la qualité du produit s'améliore avec la taille du marché nous motive à explorer empiriquement la relation entre la taille du marché régional et l'amélioration de la qualité. Ce faisant, nous suivons Khandelwal (2010) pour estimer la qualité des produits dans chaque usine, en utilisant des données au niveau des produits de l'usine dans le secteur manufacturier japonais.
Le Recensement des manufactures, publié par le ministère japonais de l'Économie, du Commerce et de l'Industrie (METI), est la principale source de données de cette étude. À l'aide de ses microdonnées, nous construisons un panel de produits végétaux individuels de 1994 à 2007. Quant aux variables de taille de marché, à la suite d'études antérieures sur l'agglomération, nous considérons deux types d'externalités : les économies de localisation et les économies d'urbanisation. Les économies de localisation d'une entreprise sont les externalités d'amélioration de la productivité dont elle bénéficie en raison de la concentration spatiale des entreprises dans son propre secteur, et ses économies d'urbanisation sont les économies dont elle bénéficie en raison de la concentration de toutes les entreprises de la région.
En régressant la qualité estimée des produits sur des variables reflétant la taille du marché régional, nous trouvons des preuves statistiquement significatives que les économies d'urbanisation améliorent la qualité des produits. Quantitativement, les impacts sur la qualité des agglomérations sont assez importants : un tiers à la moitié de la variation de qualité observée s'explique par les économies d'agglomération. De plus, les impacts d'agglomération sont plus prononcés pour les petites et moyennes entreprises, ce qui suggère qu'elles dépendent davantage des conditions économiques locales que leurs homologues plus grandes. Ces résultats sont robustes au biais de simultanéité - découlant des décisions des firmes produisant déjà un bien de qualité de se relocaliser en ville - entre la taille du marché et les chocs économiques non observés sur la qualité des produits végétaux (Picard et Okubo 2012).
Parallèlement à la constatation que les économies d'urbanisation ont des impacts positifs et statistiquement significatifs sur la part de marché d'un produit, nos preuves empiriques suggèrent que la qualité du produit et la part de marché augmentent avec la taille du marché.
Conclusion
Nous constatons que les politiques visant à attirer de nouvelles entreprises dans une zone de marché peuvent avoir de très fortes implications sur la qualité des produits. Les nouveaux arrivants dans une zone urbaine sont incités à allouer leurs avantages d'agglomération à la qualité ainsi qu'à la productivité. Cet avantage supplémentaire peut constituer une incitation supplémentaire à s'agglomérer, intensifiant les avantages dont bénéficient les opérateurs historiques du marché et renforçant la rétroaction positive de l'externalité.
Pour améliorer l'efficacité des subventions d'agglomération, les décideurs doivent accorder une plus grande attention au type d'industries qu'ils souhaitent attirer. Dans ceux où l'amélioration de la qualité nécessite une utilisation accrue des intrants, la PTF sous-estime les avantages de l'agglomération en ignorant les incitations qu'elle fournit pour améliorer la qualité. Tant qu'elles sont basées uniquement sur les gains probables de PTF des entrants, les subventions d'agglomération seront donc biaisées en faveur des industries dans lesquelles la qualité n'est pas une préoccupation principale. Les politiques de marché géographique seront moins performantes tant qu'elles ne prendront pas en compte la dimension qualité de l'agglomération, permettant un juste équilibre entre les facteurs de qualité et de productivité qui maximisent la compétitivité globale.

Remplis sous: Non classé Commentaires
21Avr/22Off

Voltige aérienne: de grosses sensations

Une fois que vous aurez appris à voler et que vous pourrez gérer sans effort votre avion et le faire voyager directement et à niveau, vous commencerez rapidement à chercher plus de difficultés pour retrouver le plaisir que vous ressentiez initialement. Comprendre les fondamentaux de la voltige est le meilleur moyen d'augmenter le plaisir et, pendant que vous y êtes, d'améliorer vos compétences de pilotage et votre précision. Ce court article vous présentera trois manœuvres de base que tout aviateur de voltige aérienne devra connaître. Juste après les avoir maîtrisés, vous aurez la possibilité d'enchaîner différents segments en créant vos propres mouvements sophistiqués. Mais d'abord, voyons ce qui est requis. Les avions de voltige doivent avoir un bon rapport puissance/poids, avec suffisamment de puissance non seulement pour effectuer les manœuvres que vous avez choisies, mais également pour voyager dans des circonstances problématiques. Comme pour tous les avions, vos servos doivent avoir le couple suggéré et être installés en toute sécurité. Toutes les zones de contrôle de votre avion doivent être configurées et faciles à ouvrir correctement et, évidemment, se déplacer dans les instructions appropriées. Le centre des forces gravitationnelles (CG) du modèle doit être installé à l'endroit recommandé ; gardez à l'esprit qu'un CG bien équilibré avec un centre de gravité un peu lourd pourrait être plus invitant pour les acrobaties aériennes pilotées par des pilotes expérimentés. Les avions instructeurs à aile supérieure et les avions d'activités sportives peuvent effectuer des acrobaties aériennes de base, mais pour des manœuvres plus complexes, voltige aérienne Dijon un avion à ailes d'épaule ou à aile basse est plus approprié. Voici les 3 manœuvres de voltige fondamentales : la boucle intérieure, le roulis et un mélange des deux virages Immelmann. Ceux-ci créent une base solide pour construire vos futures routines de voltige. En revenant à il y a deux jours, je me souviens d'un commentaire qui s'est logé dans mon esprit, et je m'efforce également d'utiliser ces termes pour la situation actuelle : « C'est juste un endroit dans le ciel auquel vous devez faire face. » C'est ce que dit Mike Burke, formateur pour Prevailance Aerospace à Chesapeake, en Virginie, alors que nous terminons la première session au sol du programme de coaching de prévention et de récupération agacé de 3 jours auquel j'ai souscrit ; L'UPRT forme les pilotes d'avion à identifier et à récupérer des comportements inhabituels et des perturbations de l'avion. Nous nous préparons peut-être à nous diriger vers l'avion pour commencer, à l'exception des scuds de ce qui était autrefois l'ouragan Isaias qui traversait le terminal de l'aéroport. Le programme prévoit trois périodes d'enseignement, chacune accompagnée d'un vol aérien d'une heure dans l'un des bonus de l'école, un 330 ou un 330LX. Heureusement, je suis dans une classe d'un, et la formation est faite pour s'adapter uniquement à ce genre d'occasions car les vols UPRT doivent être effectués dans de bons problèmes de VFR, avec un plafond, une visibilité et une clairance nuageux suffisants pour vos travaux. en avant. Nous allons de l'avant pendant la session du 2e étage. Lorsque nous commençons à nous occuper du troisième, le temps s'est éclairci à CAVU. Vanessa Christie, créatrice et présidente de Prevailance Aerospace, m'aide à m'attacher au parachute de siège que nous devons mettre pour les manœuvres acrobatiques à venir. Bien que j'aie placé mon propre colis plusieurs fois, l'entreprise prend la précaution supplémentaire d'assister ses clients pendant le quart de travail, de s'assurer qu'il est aussi serré qu'il doit l'être et d'aider les pilotes à s'asseoir sur le siège avant dans ce qui peut être un scénario assez inconnu. Les Additional 330 et 330LX ont été sélectionnés pour le coaching car leurs marges aérodynamiques se situent correctement en dehors de l'enveloppe où nous allons voler. Nous avons particulièrement examiné les vitesses anémométriques de contrôle et de limitation du 330LX, ainsi que le fait qu'il est conçu pour plus ou moins 8 G avec deux personnes à bord. Absolument rien de ce que nous sommes susceptibles de faire n'exigera que nous ayons intentionnellement mentionné 4 G ou énumérés ci-dessous moins 1 G, nous sommes donc parfaitement dans les capacités de l'avion. Je suis à l'avant - l'autre vole à l'arrière - avec seulement quelques équipements devant moi autour de la planche. L'indicateur d'attitude Sandia a tiré le disjoncteur simplement parce que je vais récupérer visuellement de chaque bouleversement tout au long de ce parcours et pour nous éviter d'avoir à le réinitialiser. Burke a toute la navigation dans le cockpit arrière et une compréhension native de l'espace aérien près de nous, ce qui semble proche de l'existence de la Naval Atmosphere Station Oceana (Burke est un aviateur de la marine à la retraite). Il va rouler et décoller pour que je puisse me concentrer sur les tâches à venir ; ce n'est pas une séance d'entraînement pour me faire regarder dans la 330LX, qui demande une certaine finesse à manier au sol. Les vols à venir peuvent me donner envie de revisiter l'avion, cependant. C'est un merveilleux compagnon pour les prochaines heures que nous investirons les uns avec les autres.

Remplis sous: Non classé Commentaires
1Avr/22Off

Pourquoi les salaires augmentent-ils si lentement?

En poussant les travailleurs vers un travail précaire à temps partiel, les gouvernements de la troisième voie »des 20 dernières années ont contribué à créer la tendance économique inquiétante qui contrariait les économistes orthodoxes.
Pourquoi les salaires augmentent-ils si lentement en Amérique?
Lorsque les marchés du travail se resserreront, les salaires devraient augmenter. Cependant, jusqu'à récemment, la croissance des salaires était un ingrédient manquant clé dans la reprise de l'économie américaine. Neuf ans après la croissance économique, la croissance des salaires est restée faible, même si le taux de chômage aux États-Unis est tombé à environ 4% - le taux de chômage le plus bas depuis le boom des dotcoms il y a deux décennies. Ce n'est que maintenant que la croissance des salaires aux États-Unis commence à s'accélérer: en janvier, la hausse du salaire horaire moyen a atteint 2,9% d'une année sur l'autre, tandis que l'inflation en 2017 était de 2,1%. Avec les réductions d'impôts républicaines et l'augmentation des dépenses publiques de l'administration Trump, des observateurs tels que Lawrence Summers et Paul Krugman s'attendent à ce que la forte croissance des salaires persiste et exprime la crainte que l'inflation ne reprenne enfin.
Si cela se produit, la Fed conclura que l'économie américaine est devenue suffisamment forte pour faire face à des augmentations supplémentaires et plus rapides des taux d'intérêt à court terme - avec la réserve que l'écart de production »devient positif principalement parce que la croissance potentielle sous-jacente de la production est extrêmement faible . La croissance potentielle sous-jacente de l'économie américaine a été inférieure à 1,25%, écrit Jason Furman, qu'il attribue principalement au vieillissement de la population. Avec des taux historiques de croissance de la productivité, Furman pense que la croissance potentielle serait au maximum de 2,1%, bien en dessous de l'objectif de croissance de 3% de l'administration Trump. Mais Furman est peut-être trop pessimiste quant à la croissance de la productivité. Au cours des dernières années, le manque de demande, les faibles taux d'utilisation des capacités et les taux élevés de chômage et de sous-emploi des travailleurs ont rendu les entreprises peu disposées à investir dans de nouvelles machines, dans du matériel et des logiciels ou dans de nouvelles façons de faire qui augmenteraient la production. par heure de travail. Mais l'accumulation de capital reprendra une fois que les salaires et la demande commenceront à augmenter, puis, comme le soutient un récent rapport du McKinsey Global Institute (2018), une accélération de la croissance de la productivité est en effet une possibilité réelle. La raison en est que des investissements plus élevés entraînent un progrès technique incarné plus rapide qui, à son tour, doit augmenter la productivité. En faisant valoir cela, McKinsey a réinventé la roue, car la relation exacte entre la croissance de la demande (d'investissement) et la croissance de la productivité est connue dans la littérature sous le nom de relation Kaldor-Verdoorn (voir Storm et Naastepad 2012; Storm 2017). Plus la relation Kaldor-Verdoorn est forte, plus l'impact des salaires et de la demande sur l'inflation sera faible - ce qui est une autre raison pour laquelle il vaut mieux que la Fed fasse preuve de prudence et ne commence pas à augmenter le taux d'intérêt aussi de bonne heure.
Le point discutable dans tout cela, cependant, est de savoir si la récente accélération des gains horaires annuels signale réellement (presque) le plein emploi et prévoit de manière fiable une hausse imminente de l'inflation. Il existe des signaux contraires clairs de ralentissement considérable du marché du travail: la plupart des nouveaux emplois sont des emplois temporaires, souvent de nature précaire; le nombre de travailleurs découragés qui ne recherchent pas activement un emploi est encore élevé; et la croissance des salaires des employés de production et de supervision de base, qui comprend probablement proportionnellement de nombreux électeurs de Trump, était considérablement inférieure à la moyenne nationale, ne montrant aucun signe d'accélération (pour l'instant) et, à 2,4%, dépassant à peine l'augmentation de les prix à la consommation (de 2,1%). En outre, une plus grande proportion des salaires à la production et non liés à la supervision est versée sous forme de primes, ce qui permet aux entreprises de rester flexibles et agiles. Je ne pense pas que nous verrons une augmentation à long terme de la croissance des salaires réels », a déclaré Ken Abosch, associé chez Aon Hewitt, la société de conseil en ressources humaines, dans le New York Times (10 février 2018). Les raisons de la lenteur de la croissance des salaires pour la majorité des employés américains sont débattues et argumentées comme incluant la baisse de la syndicalisation, la nature de plus en plus double de l'emploi américain, les hausses réticentes du salaire minimum, la mondialisation (plus grande concurrence à l'importation) et le ralentissement de la croissance de la productivité (Storm 2017). Mais le problème n'est pas seulement américain.
Les travailleurs européens ont également besoin d'une augmentation de salaire
Le manque d'association entre le resserrement des marchés du travail et la croissance des salaires n'est pas seulement visible dans l'économie américaine. C'est un phénomène mondial et les États-Unis peuvent tirer des leçons de l'expérience d'autres pays. Prenons la zone euro, où des taux de chômage plus faibles n'entraînent pas non plus une hausse des salaires plus élevée (Schulten et Luebker 2017; Buti et Turrini 2017). Bloomberg l'a appelé le mystère de la croissance des salaires manquante; " le Financial Times parle de l'étrange boom de l'emploi à bas salaires dans la zone euro »(Jones 2017), et la Commission européenne (2017, p. 24) a avancé le diagnostic d'une reprise des salaires pauvres» dans laquelle la consommation privée reste déprimée par la stagnation les salaires. Dans une déclaration remarquable émanant de la Banque centrale européenne, Mario Draghi (2016) a plaidé de façon incontestable les avantages d'une croissance des salaires plus élevée »dans les pays à excédents commerciaux de la zone euro. Draghi a en outre suggéré que le taux de chômage officiel sous-estimait le véritable sort du chômage: des mesures plus larges de relâchement "sur le marché du travail qui incluent les" travailleurs découragés, "les travailleurs à temps partiel sous-employés" et les travailleurs marginalement attachés à la population active ", soulignent une armée de réserve cachée de travailleurs qui représente environ les deux tiers de la taille du taux de chômage officiel. La Commission européenne (2017, p. Ix) fait valoir que les perspectives salariales sont désormais placées au centre de la pérennité de la reprise. » Cependant, malgré tous ces discours politiques, la croissance réelle des salaires reste faible, même dans des économies plus fortes (en plein essor et excédentaires) comme l'Allemagne et les Pays-Bas. Permettez-moi de zoomer sur l'économie néerlandaise qui a progressé de 3,1% en 2017, la plus forte croissance en plus d'une décennie.
Le cas néerlandais: une main-d'œuvre jetable croissante »
Le chômage néerlandais est tombé à 4,1% en décembre 2017 et Eric Wiebes, le ministre conservateur des Affaires économiques, a déclaré que l'économie néerlandaise était en bonne forme. » Cela ne se voit malheureusement pas dans la croissance des salaires nominaux néerlandais, qui n'est ni élevée ni en hausse, n'atteignant que 1,7% en 2017. Comme la BCE, la De Nederlandsche Bank (DNB) - la banque centrale néerlandaise - s'inquiète de la stagnation de la croissance des salaires et la baisse conséquente de la part des salaires dans le PIB. Ces dernières années, la DNB a appelé à plusieurs reprises à des augmentations substantielles du salaire nominal pour les travailleurs du secteur dit «protégé» - qui comprend des industries répondant à la demande intérieure et non exposées à la concurrence internationale (DNB 2016) - à la surprise des syndicats néerlandais. et l'agacement des associations d'employeurs.
Alors que son appel à des salaires plus élevés donne déjà un nouveau sens à ce que l'on appelle communément la politique monétaire non conventionnelle », la DNB est allée plus loin et a enquêté sur les causes de l'absence de croissance des salaires aux Pays-Bas. Dans un remarquable rapport publié dans son DNBulletin du 1er février, les chercheurs de DNB mettent en évidence l'incidence du travail temporaire et des modalités de travail alternatives (principalement sous la forme de travail indépendant) comme principal moteur de la faible croissance des salaires et de la baisse de la part des salaires (DNB 2018). Comme le montre la figure 1, la part des travailleurs indépendants et des travailleurs temporaires dans l'emploi total aux Pays-Bas est passée - régulièrement - de 16,6% en 1980 à 25% en 2000 et à près de 38% en 2016. La proportion de travailleurs temporaires aux Pays-Bas en 2016 est près de dix points de pourcentage supérieur à la moyenne de tous les pays de l'OCDE. Les travailleurs indépendants et temporaires bénéficient (beaucoup) moins d'une protection légale de l'emploi que les employés permanents. Ils sont également moins syndiqués et / ou organisés - seuls 10% des travailleurs néerlandais indépendants et temporaires sont syndiqués, contre 24% des employés permanents. Le manque de protection de l'emploi et le manque d'organisation sont des facteurs qui affaiblissent leur position dans le processus de négociation salariale.
En outre, la DNB fait valoir (2018) que la prévalence croissante des travailleurs indépendants a également affaibli le pouvoir de négociation salariale des «travailleurs permanents initiés qui doivent concurrencer les travailleurs plus facilement licenciables» qui ne coûtent souvent que 60% du coût salarial. d'un travailleur permanent. En utilisant les données de huit grandes industries au cours de la période 1996-2015, et en contrôlant les effets sur les salaires du progrès technologique (axé sur les compétences) et d'une plus grande concurrence à l'importation (ou mondialisation), la DNB trouve une association négative statistiquement significative entre la part des salaires et l'incidence des emploi temporaire; en particulier, une augmentation de 1% de la part de l'emploi temporaire est associée à une baisse de la part des salaires de 0,23 point de pourcentage. Aux Pays-Bas, l'emploi temporaire a augmenté de 15,8 points de pourcentage en 1996 et 2015. Ainsi, DNB conclut que plus de la moitié de la baisse de la part des salaires au cours de ces années doit être attribuée à ce remodelage ou évidement fondamental à long terme »de marché du travail au cours des deux dernières décennies. Le résultat est illustré à la figure 1 (voir aussi DNB 2017).
L'histoire se répète …. D'abord comme tragédie, puis comme farce
Il est important de noter que la déréglementation du marché du travail n'était pas seulement un projet politique conservateur. Aux Pays-Bas, il avait le soutien actif du Parti travailliste social-démocrate, qui dans sa troisième voie «incarnait les emplois» par rapport aux salaires, à la protection sociale et à l'emploi et à la qualité des emplois (Storm et Naastepad 2015). Ce qui est frappant, peut-être même paradoxal, c'est que la croissance de l'emploi devait être réalisée non pas par la gestion traditionnelle de la demande par l'État (par exemple, une relance budgétaire), ou par la création d'emplois dans le secteur public, mais par l'activation de programmes du marché du travail offrir des incitations positives et négatives (du côté de l'offre) poussant (davantage) de personnes sur le marché du travail, par exemple en raccourcissant la durée des prestations de chômage, en introduisant des obligations de recherche d'emploi ou en réduisant les droits aux prestations (Bonoli et Powell 2004). Cela impliquait la déréglementation (parfois drastique) des marchés du travail, des réformes des retraites et des impôts, un resserrement de l'accès aux systèmes de sécurité sociale, ainsi que (en moyenne) une restriction de la croissance des salaires réels. Les sociaux-démocrates néerlandais ont été les pionniers de cette stratégie en Europe et, de façon révélatrice, la devise des deux gouvernements néerlandais consécutifs (1994-2002) dirigés par le Premier ministre travailliste Wim Kok était des emplois, des emplois, des emplois »- une devise que M. Kok a également donnée au rapport du groupe de travail sur l'emploi (2003), qu'il a présidé en 2003 au nom des chefs d'État européens.
Le Premier ministre Kok a ouvertement enlevé les plumes idéologiques du travail (lors d'une conférence publique en 1995), acceptant la logique et les contraintes imposées par les marchés financiers au sein desquels la social-démocratie moderne doit opérer. La plus grande de ces contraintes est celle qu'Andrew Glyn (2007) a appelée le Nasty Trade-Off »: le choix soi-disant inéluctable entre moins d'inégalités (au prix d'un chômage plus élevé et d'une croissance plus faible) et un emploi plus élevé (réalisable uniquement au prix d'une plus grande inégalité). Les sociaux-démocrates de la Troisième Voie à travers l'Europe ont choisi ce dernier - et le Parti travailliste de Kok a ouvert la voie. La modération salariale aux Pays-Bas a créé des emplois (temporaires et à temps partiel), mais en raison d'un ralentissement séculaire de la croissance de la productivité du travail, et non d'une croissance économique plus élevée (Naastepad et Kleinknecht 2004; Naastepad 2006; Storm et Naastepad 2012, 2015). Le miracle néerlandais du faible taux de chômage, salué par la presse économique internationale dont The Economist et approuvé par des économistes dont Oliver Blanchard (2000), a ensuite inspiré le gouvernement allemand dirigé par les sociaux-démocrates de Gerhard Schröder à mettre en œuvre les soi-disant réformes Hartz de 2004 -06 - un ensemble de réformes du marché du travail qui ont mis fin à l'économie sociale de marché en Allemagne et poussé des millions de travailleurs vers des emplois précaires, flexibles et peu rémunérés (Storm et Naastepad 2015; Odendahl 2017). Les sociaux-démocrates allemands et néerlandais opéraient dans la conviction - néoclassique - qu'un emploi plus complet n'est possible que si l'on réduit le coût de la main-d'œuvre et permet des emplois flexibles à bas salaires - rejetant d'un coup les décennies de pensée social-démocrate d'Europe continentale en faveur de l'étroite logique anglo-saxonne du taux d'inflation non accélérant de l'emploi (NAIRU), dans lequel le Nasty Trade-Off »occupe une place centrale (voir Storm et Naastepad 2012). Pas étonnant que lorsqu'on a demandé à Margaret Thatcher ce qu'elle considérait comme sa plus grande réussite, elle aurait répondu: New Labour ». Et maintenant, le président français Emmanuel Macron tente de copier-coller les réformes Hartz dans son pays afin de briser les marchés du travail prétendument rigides de la France. Il n'y a pas d'alternative »ou TINA, comme l'a dit Thatcher.
De retour aux États-Unis.
Ce que les conclusions de la DNB confirment, c'est que des décennies de déréglementation du marché du travail ont créé ce qu'Alan Greenspan (parlant de l'économie américaine) a qualifié les travailleurs de traumatisés »par l'insécurité de l'emploi et craignant ou simplement incapables de faire pression pour des augmentations de salaire (Storm et Naastepad 2012; Weil 2014 ; Tempête 2017). Des marchés du travail déréglementés et de plus en plus dualistes remplis de travail à temps partiel précaire (Temin 2017; Storm 2017), ainsi que des politiques budgétaires restrictives, ont créé les conditions préalables à l'inflation structurellement faible et aux taux d'intérêt bas pendant la très modérée Grande Modération »du milieu Des années 80 au milieu des années 2000, ce qui, comme je l'ai expliqué ailleurs (Storm 2018a, 2018b), a directement propulsé l'inflation des prix des actifs, la croissance du système bancaire parallèle et la fragilité financière. Pour en revenir aux salaires et reconnaître que le pouvoir de négociation des travailleurs flexibles ne s'est pas amélioré, il est difficile de voir comment la croissance économique et la baisse du chômage conduisent à une croissance des salaires structurellement plus élevée et à une inflation plus élevée.
Les conclusions de DNB sont déjà remarquables en elles-mêmes, provenant de l'autorité monétaire et non des syndicats ou d'un économiste de gauche. Mais ces résultats ont également une incidence sur les discussions sur la politique monétaire aux États-Unis. Le resserrement du marché du travail n'entraîne plus automatiquement une augmentation des salaires nominaux, car la relation d'emploi a fondamentalement changé - en raison de la déréglementation du marché du travail, de la fissuration du lieu de travail (Weil 2014), de l'externalisation et de la financiarisation des entreprises (Lazonick 2017). Le fait qu'une proportion beaucoup plus élevée de travailleurs travaille dans des conditions de travail alternatives aussi flexibles "doit également contribuer à une plus grande élasticité" de la main-d'œuvre elle-même. Aux États-Unis, des millions de travailleurs découragés qui, en raison de la faiblesse des possibilités d'emploi ou de la crise des opioïdes, ont abandonné la recherche d'un emploi, ont abandonné les statistiques et ne se reflètent pas dans le taux de chômage officiel. Le nombre de travailleurs disparus »a atteint un pic de 3,9 millions de personnes en septembre 2015 selon l'Economic Policy Institute, et même aujourd'hui plus d'un million de travailleurs ne sont plus enregistrés.
Mais il est crucial de reconnaître que la flexibilisation de la relation de travail n'est pas récente et ne se limite pas à la croissance de l'économie des concerts »et des emplois Uber. C'est ce que révèle l'étude DNB. Il s'agit d'un processus constant et persistant qui a commencé dans les années 80 et qui dure depuis deux générations, s'est poursuivi plus ou moins sans interruption jusqu'à présent et pourrait s'accélérer dans un (proche) avenir avec la robotisation et l'IA. Au cours de ce processus de transformation structurelle qui a duré des décennies, des millions de travailleurs ont été chassés de l'emploi permanent vers des formes souvent précaires et non conventionnelles de travail indépendant dans des emplois du secteur des services dans des activités technologiquement stagnantes (comme expliqué plus loin dans Storm 2017). Reconnaissant ce qui se passait, Paul Samuelson (1998) a déclaré lors d'une conférence parrainée par la Federal Reserve Bank de Boston que la main-d'œuvre américaine nous a surpris avec une nouvelle flexibilité et une nouvelle tolérance pour accepter des emplois médiocres. » L'anthropologue David Graeber (2013) a appelé ces emplois des conneries », écrivant que de très nombreux groupes de personnes…. passer toute leur vie professionnelle à effectuer des tâches qu'ils croient secrètement ne pas vraiment avoir besoin d'être effectuées. Les dommages moraux et spirituels qui découlent de cette situation sont profonds. C'est une cicatrice dans notre âme collective. »
Cela m'amène à mon dernier point. Les ramifications les plus importantes de la flexibilisation en cours du travail et de la fissuration du lieu de travail ne sont pas seulement la croissance des salaires stagnante et l'augmentation des inégalités (salariales), mais aussi l'insécurité de l'emploi et des revenus et les angoisses sociales et individuelles accrues résultant de la réalité accablante de la poursuite, bas salaires inflexibles sur plusieurs années »(Ferguson, Jorgenson et Chen 2018, p. 28). Lors des récentes élections présidentielles aux États-Unis, les nombreuses pressions qui avaient exercé une pression sur les électeurs ont augmenté au point où, littéralement, la vie quotidienne de beaucoup était devenue presque invivable »et la réalité des Hunger Games était tout simplement trop évidente» (ibid.) . Cela a conduit les électeurs enragés à exprimer leur mécontentement à l'égard de l'establishment et de ses politiques économiques dominantes en votant pour deux étrangers politiques, le sénateur Bernie

Remplis sous: Non classé Commentaires
2Fév/22Off

Google et le guide de Chester obscène

En février, Google a été invité à supprimer une page qui semblait fournir des informations destinées aux pédophiles. Le moteur de recherche a finalement cédé, audit seo déterminant que le matériel était illégal. Aurait-il dû supprimer la page ? Oui. Pour des raisons légales ? C'était une excuse pratique, mais la bonne réponse était simplement parce que c'était un mauvais résultat pour la requête pour laquelle elle apparaissait.
L'histoire ci-dessous est assemblée à partir des commentaires que j'ai faits sur l'affaire dans le rapport sur les moteurs de recherche de mars et avril 2003. Les commentaires étaient associés à des articles d'autres sources sur l'affaire. Je les ai tous rassemblés ici dans cet article pour une lecture facile.
L'histoire a commencé lorsqu'un concepteur de sites Web de la ville anglaise de Chester a fait une recherche pour "chester guide" et a été choqué de trouver Chester's guide to: Picking up little girls" répertorié comme deuxième résultat, comme expliqué dans cet article de février 2003 du Cheshire Chronique Le contenu de cette page, que j'ai vu en suivant l'article, était assez dégoûtant. Cependant, cela ne semblait pas illégal en vertu de la loi britannique. Cela signifie que lorsque Google a été initialement invité à supprimer le site de ses listes, le moteur de recherche a répondu que c'était quelque chose qu'il ne ferait pas.
Un deuxième article du Cheshire Chronicle documente qu'après une campagne de lecture menée par le journal local de Chester, Google n'avait toujours pas abandonné la page à la mi-février. Un lecteur a reçu une réponse officielle de Google qui disait : Seul un administrateur peut, en incluant du code qui bloque nos robots ou en nous soumettant une demande, empêcher sa page d'être répertoriée. Ce n'était pas correct du tout. Google peut extraire des pages de son index et le fait pour diverses raisons, sans le consentement de l'administrateur.
Lorsque j'ai suivi le deuxième article, la page n'était plus du tout répertoriée dans Google – pas seulement en réponse à une recherche du guide de Chester », mais même dans une recherche pour voir spécifiquement si Google porte la page dans son index. Environ une semaine plus tard, il est apparu que Google avait décidé que le site était illégal et a retiré la liste.
Malgré cela, la page est restée sur le Web, bien sûr, ce n'est pas quelque chose que Google peut contrôler. Et comme il se trouve sur le Web, n'importe quel autre moteur de recherche pourrait le trouver. C'est pourquoi il figurait dans les index d'Inktomi et d'AltaVista, fin février 2003. Mais il ne s'est pas bien classé pour chester guide » et probablement d'autres recherches innocentes que les gens pourraient faire, donc ces deux moteurs de recherche ont échappé à la colère qui s'est abattue sur Google.
En mars 2003, Seth Finkelstein a suivi la situation dans son article du Chester's Guide to Molesting Google (et The Register était injuste de dire qu'il a truqué les résultats en recherchant l'article. Comme Finkelstein l'explique correctement, il a simplement cherché de manière à montrer rapidement que la page existait dans les index des autres moteurs de recherche).
Finkelstein a découvert que la page n'était apparemment pas sérieuse. Au lieu de cela, c'était l'un des nombreux exemples d'humour malsain offert par le site Web d'hébergement. À ce stade, la page en question a également obtenu un avertissement disant que c'est de l'humour, mais pas pour les sensibles. Ce n'était pas sur la page pendant que le débat faisait rage.
Malgré le nouveau développement, le débat n'aurait toujours pas dû porter sur la question de savoir si la page devait être retirée ou non, pour des raisons juridiques ou autres. La question était vraiment de savoir si cette page aurait dû être classée en tête du classement "chester guide" dans Google ?
La réponse est tout simplement non. Ce n'est pas du tout ce à quoi la grande majorité des chercheurs sur ce terme se serait attendu. Ceux qui consultent la page – soi-disant humoristiques ou non – auraient été exposés à une lecture assez dégoûtante.
La bonne réponse dans cette situation aurait été que Google ait simplement ajusté les choses afin que la page ne soit pas bien classée pour cette recherche particulière. Google déteste faire des choses comme ça. Néanmoins, cela aurait été la bonne chose à faire. Les citoyens de Chester auraient vu leurs préoccupations prises en compte, la grande majorité des chercheurs auraient bénéficié du changement, et les militants anti-censure comme Finkelstein seraient apaisés dans une certaine mesure sachant que la page n'avait pas été purement et simplement supprimée.

Remplis sous: Non classé Commentaires
19Jan/22Off

Partager des données privées pour le bien public

Les coopératives de données », une forme émergente de partenariat dans laquelle les participants échangent des données pour le bien public, ont un énorme potentiel au profit de la société et améliorent l'intelligence artificielle. Mais ils doivent être conçus de manière responsable et tenir compte des préoccupations de confidentialité des données.
Après que l'ouragan Katrina a frappé la Nouvelle-Orléans en 2005, la société de marketing par publipostage Valassis a partagé sa base de données avec des agences d'urgence et des bénévoles pour aider à améliorer la distribution de l'aide. À Santiago, au Chili, des analystes de l'Universidad del Desarrollo, de la Fondation ISI, de l'UNICEF et du GovLab ont collaboré avec Telefónica, le plus grand opérateur de téléphonie mobile de la ville, pour étudier les schémas de mobilité sexospécifique afin de concevoir une politique de transport plus équitable. Et dans le cadre du projet Open Data Access de l'Université de Yale, les sociétés de soins de santé Johnson & Johnson, Medtronic et SI-BONE permettent aux chercheurs d'accéder à des données précédemment closes de 333 essais cliniques, ouvrant la porte à de nouvelles innovations possibles en médecine.
Ce ne sont que trois exemples de collaborations de données », une nouvelle forme de partenariat dans laquelle les participants échangent des données pour le bien public. De tels rapprochements impliquent généralement des organismes publics utilisant des données d'entreprises et d'autres entités du secteur privé au profit de la société. Mais les collaborateurs de données peuvent aussi aider les entreprises - les sociétés pharmaceutiques partagent des données sur les biomarqueurs pour accélérer leurs propres efforts de recherche de médicaments, par exemple. Les initiatives de partage de données ont également un énorme potentiel pour améliorer l'intelligence artificielle (IA). Mais ils doivent être conçus de manière responsable et tenir compte des préoccupations de confidentialité des données.
Comprendre l'analyse de la société et des affaires pour les collaborateurs de données, ainsi que les formes qu'ils peuvent prendre, est essentielle pour mieux comprendre le potentiel et les limites de telles entreprises. Le GovLab a identifié plus de 150 collaborateurs de données couvrant les continents et les secteurs; ils incluent des sociétés comme Air France, Zillow et Facebook. Nos recherches suggèrent que de tels partenariats peuvent créer de la valeur de trois manières principales.
Pour commencer, les données collaboratives peuvent améliorer l'analyse situationnelle et causale. Leurs collections uniques de données aident les responsables gouvernementaux à mieux comprendre les problèmes tels que les problèmes de circulation ou les inégalités financières, et à concevoir des politiques fondées sur des preuves plus agiles et ciblées pour les résoudre.
De plus, ces échanges de données renforcent la capacité prédictive des décideurs. Les vastes réserves de données publiques et privées d'aujourd'hui peuvent fournir des informations puissantes sur les développements futurs et ainsi aider les décideurs à planifier et à mettre en œuvre des mesures plus efficaces.
Enfin, et c'est le plus important, les collaborateurs de données peuvent rendre l'IA plus robuste, précise et réactive. Bien que les analystes suggèrent que l'IA sera au centre de la gouvernance du XXIe siècle, sa production n'est aussi bonne que celle des modèles sous-jacents. Et la sophistication et la précision des modèles dépendent généralement de la qualité, de la profondeur, de la complexité et de la diversité des données qui les sous-tendent. Les collaborateurs de données peuvent ainsi jouer un rôle essentiel dans la construction de meilleurs modèles d'IA en décomposant les silos et en agrégeant les données de sources nouvelles et alternatives.
Les collaborations de données publiques-privées ont un grand potentiel pour le bien de la société. Les décideurs politiques qui analysent les modèles de trafic ou le développement économique dans les villes pourraient rendre leurs modèles plus précis en utilisant, par exemple, des enregistrements des détails des appels générés par les fournisseurs de télécommunications. Et les chercheurs pourraient améliorer leurs modèles de prévision du climat en ajoutant des données d'opérateurs de satellites commerciaux. Les échanges de données pourraient être tout aussi utiles pour le secteur privé, en aidant les entreprises à renforcer la réputation de leur marque, à canaliser leurs dépenses de recherche et développement plus efficacement, à augmenter leurs bénéfices et à identifier de nouveaux risques et opportunités.
Pourtant, malgré tous les progrès et les promesses, la collaboration en matière de données est encore un domaine naissant, et nous commençons seulement à comprendre ses avantages et ses inconvénients potentiels. Notre approche au GovLab met l'accent sur l'avantage mutuel de la collaboration et vise à instaurer la confiance entre les fournisseurs de données et les utilisateurs.
Dans le cadre de ce processus, nous avons commencé à concevoir un cadre institutionnel qui place la collaboration responsable en matière de données au cœur des opérations des entités des secteurs public et privé. Cela comprend l'identification des principaux responsables des données dans ces organisations pour diriger la conception et la mise en œuvre d'efforts de collaboration systématiques, durables et éthiques. L'objectif est de constituer un réseau d'individus des secteurs privé et public promouvant la gestion des données.
Compte tenu des préoccupations accrues concernant la confidentialité et l'utilisation abusive des données - ce que l'on appelle le techlash - certains se méfieront naturellement des initiatives de partage de données. Nous sommes conscients de ces inquiétudes légitimes et des raisons de l'érosion plus générale de la confiance du public, mais nous pensons également que la création de cadres rigoureux et d'approches plus systémiques de la collaboration en matière de données sont les meilleurs moyens de répondre à ces préoccupations.
Les collaborateurs de données rassemblent des données autrement cloisonnées et une expertise dispersée, aidant à faire correspondre l'offre et la demande pour ces informations. Des initiatives bien conçues garantissent que les institutions et les individus appropriés utilisent les données de manière responsable pour maximiser le potentiel des politiques sociales innovantes. Et l'accélération de la croissance des collaborations de données est cruciale pour le développement ultérieur de l'IA.
Le partage de données comporte des risques, mais il a également le potentiel de transformer la façon dont nous sommes gouvernés. En exploitant le pouvoir des coopératives de données, les gouvernements peuvent développer des politiques plus intelligentes qui améliorent la vie des gens.

Remplis sous: Non classé Commentaires
16Nov/21Off

Quand la peur revient dans l’avion

Si vous avez peur de monter en flèche, les reportages sur les deux derniers accidents d'avion pourraient vous faire trembler. Les instructeurs qui aident les individus à vaincre cette inquiétude disent que les inscriptions ont plus que doublé depuis les incidents. Cette saison, la musicienne Katie Sucha sera en visite en Angleterre. Et elle a peur. "C'est vraiment un défi mental important de simplement franchir ces portes et de contourner l'avion", précise-t-elle. L'anxiété de Sucha à propos de l'envol est si forte que lorsqu'elle était enseignante dans le Mississippi et qu'elle voulait voir sa famille dans le Michigan, elle avait un trajet en bus de 14 heures au lieu de passer deux heures dans l'atmosphère. Le prochain voyage en Europe est une excellente opportunité de carrière, peur en avion mais elle est terrifiée. Elle ne peut s'empêcher de regarder les reportages concernant les deux accidents mortels du Boeing 737 Max à moins de cinq semaines d'intervalle. Sucha devient anxieuse rien qu'en parlant d'eux. "Vous savez, si cela se produit avec un type d'avion, le nombre d'autres exemples d'indicateur défectueux ou... quelque chose qui fonctionne mal." Les avions Boeing 737 Maximum ont déjà été immobilisés au sol dans le monde, et de tels événements sont en fait extrêmement rares. Mais les entraîneurs qui aident les personnes anxieuses à propos du vol à voile rapportent que le nombre d'inscriptions à leurs cours a plus que doublé à la suite des accidents. Si vous n'êtes pas un voyageur nerveux, vous ne connaissez peut-être pas le marché construit autour de l'anxiété liée au vol. Pour 2,99 $, vous pouvez acheter une application appelée Am I Heading Down ? Il utilise les données de l'aviation pour calculer le risque d'accident sur votre propre vol aérien à venir. (Si vous volez de New York à Barcelone de nos jours, bonne nouvelle : l'application estime qu'il y a environ une chance sur 5 millions que votre avion baisse.) Une application connue sous le nom de Conquer The Anxiety About Soaring offre une relaxation par hypnothérapie. La liste continue. De plus, il existe une myriade de programmes, tels que ceux proposés par FearlessFlight, Anxiety About Flying Assist et Soar, disponibles depuis 1982. Un certain nombre de ces cours sont dispensés par des pilotes à la retraite. Le fondateur de Soar, le capitaine Tom Bunn, avait l'habitude de voyager pour United Airlines et est également maintenant un spécialiste certifié. Soar propose plusieurs offres : pour 180 $, certains DVD présentent Bunn expliquant des choses comme comment les avions volent et pourquoi ils ne tombent pas du ciel (un problème typique qu'il entend). Bunn enseigne également des techniques de repos. Ben Kaminow, un érudit de Soar, déclare que cela en vaut la peine. Il dit que sa peur de voler "était invalidante pour ma vie. Je ne partirais pas avec notre famille". La phobie de Kaminow a commencé en 1993, lorsque son vol de vacances entre New York et Mexico a provoqué de fortes turbulences. Il était terrifié. À son retour à New York, il s'est juré de ne plus jamais prendre l'avion. Et pendant les 8 années suivantes, il ne l'a pas fait. Il a même annulé ses vacances de lune de miel en Grèce. Ils ont plutôt conduit en Caroline du Nord. Finalement, Kaminow s'est inscrit au forfait premium de Soar, comprenant deux heures de conseil. Le forfait comprend même une lettre à offrir à votre agent de bord expliquant que vous faites face à vos inquiétudes et que vous aimeriez rencontrer le capitaine avant le décollage. Pendant quelques semaines, Kaminow pouvait à nouveau voyager. Puis le 11 septembre a eu lieu. Kaminow opérait dans le Planet Trade Center. "J'étais dans la première tour, l'avion a heurté la propriété et je … ne pouvais plus monter dans un avion. Pour que toutes ces sorties dont j'avais besoin soient préparées, juste après avoir traversé tout ce problème pour pouvoir voler à nouveau, j'ai ferme-la plus bas." Cela pourrait prendre quatre ans supplémentaires à Kaminow pour déposer à nouveau un avion. "La peur devenait juste intérieure, devenait désagréable et incapable d'être en contrôle", dit-il. « Vous comprenez que lorsque vous conduisez une automobile, vous trouverez le contrôle. Ici, je ne possédais pas le contrôle. Je ne savais pas comment le gérer. » Kaminow a finalement effectué à nouveau les séances d'entraînement Soar - les méthodes de confort et la foi dans le fait que les pilotes sont expérimentés et qu'ils veulent eux aussi rentrer chez eux en toute sécurité. Il dit que les accidents actuels du Boeing 737 Max ne l'ont pas inquiété. En fait, il y a à peine une semaine, il a pris un vol pour L . A .. Pour lui, avoir la possibilité de monter dans cet avion sans avoir peur était le vrai voyage.

Remplis sous: Non classé Commentaires