Se voir libre

La principale contrainte à l’indépendance individuelle dans la Grèce antique et à Rome était ce qu’Épictète a réalisé de première main, l’exercice interpersonnel et l’indignité de l’esclavage. C’était l’esclavage, la condition de devenir pratiquement possédé et fait pour fournir à la demande d’un autre qui a fourni à l’indépendance historique sa valeur intensément bonne et sa charge émotionnelle. Les mouvements corporels des esclaves tout au long de leur mode de vie éveillé étaient totalement limités par les désirs de leurs maîtres et également par les caractéristiques subalternes qu’ils devaient exécuter. Mais les esclaves, comme tout le monde, avaient des esprits, et les pensées en plus des corps sont susceptibles d’indépendance et de contrainte. Vous pourriez être extérieurement totalement libre et intérieurement un serviteur, géré par des maîtres psychologiques sous la forme de souhaits, d’intérêts et de désirs paralysants. Alternativement, vous pourriez être obstrué de l’extérieur ou même dans un esclavage littéral mais à l’intérieur libre de frustration et de disharmonie, si libre en fait que vous vous êtes découvert responsable de votre propre bien-être, manquant de petits ou rien que vous ne pourriez pas vous offrir. La seconde, en substance, est certainement l’indépendance dont Epictète, l’ancien philosophe stoïcien, a fait le concept central de son enseignement. La philosophie stoïcienne est née en Grèce à la fin du IVe siècle av. Ses pères fondateurs étaient des immigrants de la Méditerranée orientale à Athènes, qui n’était plus une démocratie dynamique, comme la ville l’a été à l’époque de Socrate, mais un État client du royaume de Macédoine. La perte de l’autonomie gouvernementale s’est manifestée en philosophie à Athènes par un repli sur soi au centre des valeurs. Ni le stoïcisme ni l’épicurisme, une autre grande école hellénistique, fortement impliquée dans la théorie gouvernementale, comme leurs prédécesseurs Platon et Aristote l’ont fait. L’intérêt sociétal principal des jeunes philosophes n’était pas la politique et les lois nationales, mais le bien-être personnel et l’amélioration personnelle. Cette transformation vers l’intérieur est illustrée de manière frappante par le fait que les stoïciens croyaient depuis le début que l’indépendance et l’esclavage étaient principalement des dénominateurs éthiques et psychologiques plutôt que des marques de statut social. Basé sur Zeno, le premier chef de l’école stoïcienne, l’indépendance est l’apanage unique de ceux qui sont intelligents, tandis que les personnes inférieures, qui constituent la majorité des gens, ne sont pas seulement des imbéciles mais aussi des esclaves. Une première réponse à cette affirmation pourrait inclure un choc devant son élitisme intellectuel et son insensibilité à la situation critique des personnes suffisamment malheureuses pour être littéralement réduites en esclavage. Mais considérons maintenant à quel point la revendication de Zeno, dans un climat économique esclavagiste, remet en question l’évaluation des personnes en termes de dichotomie traditionnelle servitude/liberté. Si la sagesse est le vrai critère de la liberté, le fardeau principal de l’esclavage se déplace de l’extérieur vers l’intérieur, du physique réel au psychologique, et l’approche et non l’affranchissement devient la source de la liberté. Vous êtes asservi, sur la base de cette doctrine intransigeante, si vous configurez votre système cardiovasculaire sur tout ce qui est sujet à des entraves, que ce soit parce que tout votre corps vous permet de tomber, ou parce que les passions et les sentiments vous ont sous leur emprise, ou vous attachez votre propre devenir à des choses qui reposent sur les autres – les gens, la propriété, la reconnaissance ou simplement la chance. Comment être sûr que ce genre de choix est bon pour nous et bon pour ceux dont nous partageons les affaires ? Pourquoi être autonome plutôt que de s’en tenir aux 10 commandements ainsi qu’à d’autres groupes de concepts consacrés par le temps ? Comment pouvons-nous savoir ce qu’il faut sélectionner ? La réponse à ces questions nous permet de revenir à la « sagesse » de Zénon car l’essence de l’indépendance. Son terme grec ancien sophia, dans l’usage courant, peut inclure tout type de connaissances, allant de l’artisanat sensible comme la menuiserie à des informations abstraites telles que la géométrie. Dans tous les cas, sophia signifie l’exercice réussi d’une compétence, ainsi que la capacité qui concernait Zeno et les philosophes stoïciens ultérieurs est l’art du mode de vie. Nous sommes en mesure de décrire cet art comme de comprendre comment vivre en harmonie, en équilibre avec notre mère nature et en équilibre avec cette atmosphère sociale et physique. Atteindre ou essayer d’accomplir cette compréhension est le travail de la cause, et la raison, basée sur le stoïcisme, est ce qui distingue les êtres humains des animaux.

La fin du communisme

La nomination par le président russe Vladimir Poutine d’Alexandre Medvedev pour lui succéder dans ce qui est censé être une élection présidentielle démocratique en mars prochain montre que les dirigeants russes n’ont pas changé un peu. Il semble de plus en plus probable que, comme sous Leonid Brejnev, nous verrons les mêmes noms dans les nouvelles pour les décennies à venir.
Selon Gleb Pavlovsky, le principal idéologue du régime Poutine, le système russe actuel est parfait à tous égards sauf un: il ne connaît pas ses ennemis. En effet, il semble que tout le monde au Kremlin lit Carl Schmitt, le théoricien juridique nazi qui a enseigné que nommer son ennemi est la mission centrale de la politique.
Dans l’esprit de Schmitt, les hommes de Poutine ont désigné un parti libéral, l’Union des forces de droite, comme leur ennemi. Ses réunions publiques ont été interrompues par des policiers armés; ses dirigeants arrêtés et battus; Poutine a appelé ses partisans des coyotes. »

Le business est dopé par les réseaux sociaux

Depuis le moment où Instagram a permis aux fabricants de contribuer pour la première fois à créer des publications pouvant être achetées, les acheteurs ont demandé la même chose aux influenceurs – desquels, après tout, la plupart des consommateurs d’Instagram reçoivent leurs conseils sur les articles. Désormais, ils auront enfin la possibilité d’acheter tout ce que leurs créateurs préférés recommandent directement via leur flux. Instagram réduira au minimum chaque achat créé via son système, générant très probablement des centaines de milliers de nouveaux revenus. À partir de la semaine prochaine, seo les influenceurs pourront marquer des produits spécifiques à l’intérieur de leurs photographies. Les consommateurs peuvent cliquer sur une photo, voir précisément ce qui est disponible à la vente et obtenir la marchandise sans quitter à tout moment Instagram. Un nombre incroyable de consommateurs dépendent des influenceurs pour passer au crible les articles et faire des recommandations. Mais jusqu’à présent, il était difficile de déterminer, par exemple, quel ton de rouge à lèvres un influenceur mettait exactement. Des applications telles que LikeToKnowIt, qui vous permet d’accéder aux publications des influenceurs en prenant des captures d’écran, ont attiré des millions de clients grâce à une solution provisoire. Les systèmes d’achats sociaux propres à l’entreprise, y compris Itsapark de HAndM, ont également fait leur entrée sur le marché. De plus, plusieurs consommateurs potentiels passent plusieurs heures à laisser des commentaires sur le contenu Instagram des influenceurs à la recherche de plus d’informations sur les produits, ou à entreprendre en vain d’identifier une marchandise sur Internet. Ce système est introduit avec seulement 23 marques et 55 influenceurs, tels que Parker Package Hill, Gigi Hadid et Huda Kattan. Les nouvelles statistiques grand public, les concepteurs, les joueurs, les éditeurs Web et les concepteurs vont s’ajouter dans les mois à venir. Beaucoup plus d’associés de marque seront également intégrés. Pour le moment, de nombreux influenceurs travaillant dans le plan ont jailli du temps qu’ils vous aident ainsi que leurs partisans à économiser. «C’est mon travail de parler de techniques de beauté et de suggestions. J’écris généralement de longues et complètes légendes concernant les produits les plus récents que j’utilise », a déclaré Jaleesa Moses, une influenceuse travaillant dans le premier, par e-mail. « Avoir cet instrument rend encore plus facile de permettre à tout le monde de comprendre ce que je mets et où à l’ombre. » Les influenceurs n’obtiendront pas une part des ventes produites par leur contenu. Ils auront néanmoins probablement accès à un tableau de bord d’analyse discuté avec des mesures robustes que le nom de marque marqué pourrait également voir. Auparavant, les influenceurs utilisaient des captures d’écran ainsi que d’autres méthodes imparfaites pour relier les chiffres de proposition aux fabricants, il était donc extrêmement difficile de lier leur impact directement aux ventes. L’utilisation d’une structure plus efficace et d’un suivi approfondi des statistiques sera extrêmement bénéfique pour les influenceurs. «Cela vous permet de mieux utiliser lorsque vous négociez les prix», déclare Aimee Tune, une influenceuse de tendance. «En tant qu’influenceur, je ne traite pas si je ne vous fais pas réduire [des revenus] pour le moment», poursuit Song. « Si cela peut simplifier la vie de mes abonnés et qu’ils n’ont jamais besoin de me renseigner en me demandant« Où vous procurez-vous cette marchandise? », Je suis prêt à le faire gratuitement pour le moment. » De nombreux influenceurs peuvent également parier sur l’amélioration de l’engagement et l’augmentation du nombre de supporters qu’ils obtiendront probablement en incluant du contenu achetable sera bien plus que récompensé à court terme. La fonction la plus récente est conforme à la poursuite plus large d’Instagram pour transformer le programme en une centrale de commerce électronique. L’entreprise a créé un changement radical dans les achats cette année, et les professionnels des institutions de la Deutsche Banking calculent qu’il pourrait bientôt s’agir d’une entreprise de 10 milliards de dollars. La création d’un nouveau flux de revenus massif peut aider l’organisation à se protéger contre sa dépendance actuelle à la publicité, qui comprend des agressions de nos jours en raison de violations d’informations et de scandales de confidentialité. Certains spécialistes du marketing ont abandonné Fb, invoquant la «conception commerciale méprisable de l’entreprise». Instagram est déjà l’endroit où les gens choisissent l’inspiration de style de vie, les idées de mode, les idées de décoration intérieure et bien plus encore. Maintenant, c’est aussi un endroit où vous pourriez consacrer d’énormes quantités d’argent.

Les avions et l’héritage culturel

Les commémorations du centenaire de la Noble Atmosphere Pressure ont volé l’arène du modèle de l’année lors de la plus grande réunion aéronautique au monde. Les avions pilotés par l’atmosphère britannique push ont fait un cadeau dans le ciel d’Oshkosh, aux États-Unis, lors de l’EAA Atmosphere Venture 2018, un événement qui acquiert chaque année de nouveaux adeptes, y compris d’innombrables personnes qui viennent avec leur propre avion, du monde entier. . Nous soulignons le tout premier nouvel avion national d’Airbus, l’A200, à l’intérieur du territoire de Boeing. La légende majeure de la commémoration au Royaume-Uni était le Gloster Meteor T7. Le spécimen est le plus ancien avion de service militaire du monde en conditions de vol. Le voyage aérien Meteor à côté des T-33, A-4, F-86, MiG-17 et L-39 a fourni un éclat supplémentaire aux démonstrations des warbirds. Lundi (23), l’EAA a bien préparé un plan spécial, le cinéma au sein du Timber, qui a consacré un large codage pour le centenaire de la RAF. Ford, qui prépare traditionnellement une Mustang GT en reconnaissance de l’avion américain, a personnalisé en partenariat avec RTR Cars le produit 2018 inspiré au sein de l’Eagle Squadron qui exploite le Spitfire. Connu sous le nom d’Eagle Squadron Mustang GT, le modèle dispose d’un générateur V8 de 5 litres de 700 CV, connecté au compresseur Ford Performance globale très. Toujours dans les commémorations, a brillé à Oskosh une reproduction de niveau authentique dans le biplan du Royaume-Uni Sopwith 1½ Strutter. Avant d’être inclus dans la boîte à outils de la RAF, en 1918, le modèle est devenu important en s’envolant pour ce Royal Naval Air Support comme un avion d’artillerie, d’observation et de reconnaissance photographique. Le faux a été créé conformément aux dessins originaux et n’a reçu qu’un nouveau moteur rotatif Gnome Monosoupape de 100 CV, qui, bien qu’il soit produit avec la dernière technologie de création, conserve des caractéristiques relativement proches de celles utilisées dans le premier générateur. Chaque année, les organisateurs d’EAA Atmosphere Venture choisissent un concept différent pour honorer l’aviation. En 2018, baptême en avion Saumur ils sont sortis de l’endroit typique en commémorant les principaux avions et appareils de ravitaillement des forces armées américaines. Au cours de la soi-disant «Année du pétrolier», le raisonnable livré collectivement dans les avions à rampe principale comme le KC-135R, le HC-130P / N, le F / A-18F Super Hornet et le KC-10, destiné pour le ravitaillement en vol; oui, certains Very Hornet de l’US Navy possèdent la capacité de ravitailler en vol des avions, afin d’augmenter la force des avions embarqués. À l’intérieur du segment militaire, il existait également d’innombrables classiques intemporels. La liste est longue … le C-5M, le C-17, le B-1B, le A-10, le F-15C, le F-16C, le F-22, le F-35, le AH-64, le HH-60G, le MH60T, le MH-65D ainsi que le MH-47. Comme toujours, la majorité des avions ont été introduits dans les vols aériens, offrant une occasion unique de voir le meilleur équipement militaire de nos jours dans l’atmosphère naturelle. Un autre warbird qui a donné la cote de crédit pour l’événement était le F-5, le premier produit supersonique considéré comme warbird à Oshkosh. Pour 2019, le style clé sera les 75 ans de l’Overlord, qui ont commencé avec le populaire «jour J». Pour offrir un concept de ce à quoi les invités s’attendront en 2019, au moins 12 avions DC-3 / C-47 ont été fournis cette année. Tout au long de l’Atmosphere Enterprise, il y a un certain nombre de réunions avec les pilotes et les propriétaires d’aéronefs DC-3 qui ont intérêt à participer aux commémorations de l’heure du jour J. L’idée est de créer une traversée au sein de l’Atlantique dans l’œuvre de Daks plus que de la Normandie. «L’Air Enterprise est une sorte de 2e étape de notre tournée à travers les États-Unis pour créer des choses à définir», affirme Eric Zipkin, principal initial de l’escadron du jour J, qui organise la célébration commémorative.

Attirer les étudiants vers l’économie

Le domaine dans lequel un étudiant universitaire se spécialise peut affecter les résultats sur le marché du travail. Mais nous savons peu de choses sur la façon dont l’exposition affecte le choix de la majeure par un étudiant. Cette colonne montre que l’exposition à l’économie augmente la probabilité de se spécialiser en économie de 2,6 points de pourcentage. Ce résultat est dû aux choix des étudiants masculins. L’exposition au domaine n’explique donc pas pourquoi relativement peu de femmes se spécialisent en économie.
Les résultats sur le marché du travail varient considérablement selon la spécialisation universitaire (voir, par exemple, Kirkebøen et al. 2015). En effet, les différences de salaire entre certaines majeures sont aussi importantes que l’écart salarial entre les diplômés de l’université et ceux du secondaire (Altonji et al. 2012). De telles considérations économiques influencent les choix de majeure des étudiants. En même temps, nous savons que les goûts et les aptitudes des étudiants influencent également leurs décisions (voir Altonji 1993, Stinebrickner et Stinebrickner 2014, Zafar 2011, 2013). Les aptitudes et les goûts déterminent dans quelle mesure les étudiants apprécient leurs cours, le temps et les efforts qu’ils investissent dans l’obtention de leur diplôme, et dans quelle mesure ils s’attendent à apprécier un emploi lié à leur spécialité.
Cependant, lorsque les étudiants commencent l’université, ils ont des connaissances imparfaites, tant sur le contenu des diverses majeures que sur leurs propres goûts et aptitudes. La question qui nous intéresse est de savoir quel rôle joue l’exposition dans la résolution de cette incertitude. Le problème est important au-delà du seul domaine de l’économie. Si l’exposition a de la valeur, alors les systèmes éducatifs dans lesquels les étudiants se spécialisent tard dans leur parcours scolaire pourraient mieux faire correspondre les étudiants aux domaines d’études (Malamud 2010, 2011).
Jusqu’à présent, nous savons peu de choses sur la façon dont l’exposition affecte le choix de la majeure d’un étudiant. L’une des principales raisons est que les étudiants s’auto-sélectionnent dans les cours, et qu’ils choisissent généralement les cours qu’ils pensent être intéressants. Par conséquent, l’utilisation de la sélection des cours pour estimer comment l’exposition influence le choix de la majeure pourrait confondre l’effet des préférences avec l’effet réel de l’exposition.
Une expérience naturelle
Pour identifier l’effet de l’exposition sur le choix de la majeure, nous nous appuyons sur une expérience naturelle à l’université de Saint-Gall, qui propose des études dans les domaines du commerce, de l’économie, du droit, du droit et de l’économie, et des affaires internationales. Les cours dispensés aux étudiants de première année sont presque identiques, quelle que soit la filière choisie par l’étudiant. Cependant, en plus des cours, le programme de première année comprend un important travail de première année, dont le but est de familiariser les étudiants avec la rédaction universitaire. Chaque étudiant doit rédiger un devoir dans l’un des trois domaines de base : commerce, économie ou droit. Le devoir porte sur un sujet dans un domaine fixé par un assistant d’enseignement. Voici un exemple typique de sujet en économie : Comment la crise financière a-t-elle alimenté le prix de l’or ? ».
Les étudiants peuvent indiquer leurs préférences pour les domaines, mais comme le domaine des affaires est sursouscrit, les étudiants ne se voient pas nécessairement attribuer leur choix préféré. Parmi les étudiants souhaitant écrire en commerce, l’université attribue le domaine de l’épreuve de première année d’une manière quasi-aléatoire qui n’est pas liée aux caractéristiques des étudiants. Cela nous permet d’identifier l’effet de l’exposition à l’économie et au droit sur les choix de majeure ultérieurs et sur d’autres résultats des étudiants.
Résultats
Nous constatons que le fait d’être assigné à la rédaction d’un article en économie augmente la probabilité de se spécialiser en économie de 2,7 points de pourcentage, par rapport aux étudiants qui ont été assignés à leur domaine de prédilection, le commerce. Cela correspond à 17,6 % de la part des étudiants qui se spécialisent en économie à l’Université de Saint-Gall. Le fait d’être assigné à l’écriture en droit augmente la probabilité d’étudier le droit de 1,6 point de pourcentage. En outre, nous constatons que le fait d’être affecté à l’économie influence positivement les notes dans les cours d’introduction à l’économie.
Une constatation surprenante est que ces résultats sont assez spécifiques au sexe. L’exposition à l’économie n’affecte que les choix de majeure des étudiants masculins, tandis que l’exposition au droit n’affecte que les choix des étudiantes. Ainsi, l’exposition au domaine ne contribue apparemment pas à expliquer pourquoi relativement peu de femmes se spécialisent en économie.
Conclusion
Il est difficile de juger dans quelle mesure ces résultats pourraient être généralisés à d’autres contextes. D’une part, le passage à l’économie peut ne pas être un trop grand effort pour les étudiants initialement enclins au commerce. Un étudiant ayant l’intention de se spécialiser en anglais, en revanche, pourrait être moins affecté par la rédaction d’un article, même long, en économie. D’autre part, la plupart des étudiants sont exposés à de nouveaux domaines par le biais de cours, ce qui peut représenter une forme d’exposition plus intensive que même un long article de recherche. Si c’est le cas, l’exposition via les travaux de cours peut avoir des effets plus importants que l’exposition que nous analysons ici.

Une exigence de 25 % de fonds propres pour les banques ?

Il est largement admis que la protection des banques par les pouvoirs publics a contribué à la crise financière, ce qui a conduit à des propositions visant à exiger des banques qu’elles financent une part plus importante de leurs portefeuilles par des fonds propres plutôt que par des dettes – obligeant ainsi les actionnaires à absorber les pertes au lieu des contribuables. Cette colonne fait valoir que ce sont les ratios de fonds propres par rapport au risque des actifs qui importent, et non les ratios de fonds propres en soi. Bien que des exigences plus élevées en matière de fonds propres pour les banques puissent être souhaitables, les coûts de la réduction de l’offre de prêts devraient être pris en compte.
Le professeur Allan Meltzer a dit en plaisantant que le capitalisme sans échec est comme une religion sans péché ». Si certaines entreprises sont protégées de la faillite lorsqu’elles ne peuvent pas payer leurs factures, la concurrence est faussée et favorise les entreprises inefficaces et protégées. Les banques dont les dettes sont garanties par l’État bénéficient d’un avantage injuste qui leur permet de répartir les fonds de manière inefficace, de prendre des risques inconsidérés aux dépens des contribuables et de gaspiller des ressources qui seraient mieux utilisées par des entreprises ne bénéficiant pas d’une telle protection.
La crise financière de 2007-2009 n’est pas la première à illustrer le fait que les systèmes bancaires protégés ont tendance à exploser, imposant des pertes énormes aux contribuables qui doivent payer la facture. Rien qu’au cours des trois dernières décennies, plus d’une centaine de crises bancaires majeures ont eu lieu dans le monde (Laeven et Valencia, 2012). Aucun sujet d’économie financière n’a fait l’objet d’un consensus plus clair parmi les chercheurs que la proposition selon laquelle la protection des banques par les pouvoirs publics a contribué à la récente vague de faillites bancaires coûteuses dans le monde – des faillites d’une ampleur sans précédent.
Le récent ouvrage d’Anat Admati et Martin Hellwig, The Bankers’ New Clothes (Princeton 2013), propose de forcer les banques à maintenir une part beaucoup plus importante de leur financement sous forme de capitaux propres plutôt que de dettes, de sorte que les actionnaires des banques plutôt que les contribuables supportent la majeure partie ou la totalité du risque de baisse des pertes bancaires. Dans leur zèle bien intentionné pour démontrer à quel point il serait bénéfique, simple et sans coût d’imposer une augmentation spectaculaire des ratios de fonds propres des banques, Admati et Hellwig surestiment les avantages et sous-estiment les coûts associés à la réforme proposée.
Ratios de fonds propres comptables contre les véritables ratios de fonds propres pondérés en fonction des risques
Admati et Hellwig affirment que pour obtenir une augmentation crédible de la proportion de fonds propres des banques, il suffit d’augmenter les exigences réglementaires minimales pour le ratio de la valeur comptable des fonds propres par rapport aux actifs. Si seulement c’était aussi simple, mais ce n’est pas le cas ; l’augmentation du ratio de la valeur comptable des capitaux propres au sens comptable n’augmente pas nécessairement les véritables ratios de capital des banques, comme je l’ai soutenu dans mon travail récent (Calomiris 2013). Les bilans bancaires ne rendent pas compte d’une grande partie des pertes économiques que les banques peuvent subir. En outre, les pratiques comptables peuvent dissimuler l’ampleur des pertes sur prêts, et les régulateurs désireux d’éviter les crises de crédit sont souvent complices de cette situation. Il en résulte que les véritables ratios de fonds propres des banques peuvent être bien inférieurs à ce que leur valeur comptable indique. En outre, les choix des banques en matière de risque importent, et pas seulement leurs fonds propres. L’approche de Bâle sur la pondération des risques des actifs et l’approche plus simple préconisée par les auteurs (qui abandonnerait toute pondération des risques en faveur d’une simple exigence de fonds propres par rapport aux actifs) ont toutes deux un défaut commun : elles encouragent les banques à poursuivre des augmentations cachées du risque des actifs.
Pour toutes ces raisons, l’augmentation des ratios de fonds propres requis ne se traduit pas nécessairement par une réduction du risque de faillite bancaire. Cela ne signifie pas que les ratios de fonds propres ne sont pas pertinents, mais seulement que le fait d’exiger une augmentation des fonds propres comptables ne se traduit pas, en soi, par une augmentation des fonds propres réels. De même, et surtout, des exigences plus élevées en matière de fonds propres ne garantissent pas que les banques auront des fonds propres plus élevés par rapport à leur risque, ce qui est l’objectif essentiel de la réforme réglementaire envisagée par Admati et Hellwig.
Admati et Hellwig soutiennent également que l’augmentation du ratio de financement par capitaux propres dans la structure du passif des banques a peu ou pas de coûts sociaux. Ils rejettent la possibilité que des exigences plus élevées en matière de fonds propres pour les banques puissent être socialement coûteuses comme une bête noire… aussi insignifiante que les nouveaux vêtements de l’empereur dans le conte d’Andersen ». Les auteurs poursuivent en disant : « Pour la société, il y a en fait des avantages significatifs et essentiellement aucun coût à des exigences de fonds propres beaucoup plus élevées ». Une telle politique permettrait de résoudre le conflit fondamental entre ce qui est bon pour les banques et ce qui est bon pour l’économie au sens large. »
Coût des fonds propres par rapport aux rendements corrigés du risque
Ces déclarations ne représentent pas les résultats de décennies de recherche englobant des dizaines de contributions théoriques et empiriques dans la littérature bancaire et financière des entreprises. Le principal tour de passe-passe académique effectué par les auteurs, qui est à la base de ces déclarations, consiste à concentrer l’attention uniquement sur les rendements ajustés au risque attendus par les investisseurs lors de l’examen des coûts ajustés au risque pour les banques de leurs choix en matière de structure du capital. Admati et Hellwig assimilent à tort les deux. Le coût des fonds propres, affirment les auteurs, correspond essentiellement aux rendements que les sociétés doivent fournir aux actionnaires pour justifier l’argent qu’elles ont reçu d’eux ». Mais pour les banques qui émettent ces capitaux propres, il est presque certain qu’il y a d’autres coûts (et avantages) importants associés aux choix de structure du capital qui ne sont qu’indirectement liés aux rendements attendus et reçus par les investisseurs. C’est pourquoi le coût de l’émission d’actions pour une banque et le rendement attendu par les investisseurs en actions qui achètent la nouvelle offre ne sont généralement pas les mêmes.
Il a été démontré que les différences entre les rendements attendus par les investisseurs et les coûts de financement des entreprises impliquent qu’il existe, en général, une combinaison optimale de dettes et de capitaux propres pour chaque banque (ou toute autre entreprise), qui reflète une variété de considérations. Une catégorie de modèles se concentre sur l’effet de la déductibilité des paiements d’intérêts sur la combinaison optimale de dettes et de capitaux propres – les entreprises mettent en balance l’avantage fiscal de la dette et la valeur préservée en détenant plus de capitaux propres et en limitant ainsi le risque de détresse financière. Une autre catégorie de modèles de « signalisation » considère comment l’émission d’actions peut avoir des effets négatifs sur les perceptions du marché des opportunités d’investissement des entreprises, et conduire les émetteurs à éviter les offres d’actions plus qu’ils ne le feraient autrement. Dans une autre classe de modèles encore, le choix de la bonne combinaison de dettes et d’actions conduit à des transferts efficaces de contrôle aux créanciers dans certains états du monde, ce qui encourage également la diversification du portefeuille et la révélation véridique des résultats de l’investissement, ce qui réduit les coûts de financement. Dans une quatrième catégorie de modèles, la bonne combinaison de capitaux propres et de dettes peut inciter à une gestion plus efficace des risques, ce qui réduit également les coûts de financement. Enfin, dans le contexte bancaire, l’émission de titres de créance à court terme et à très faible risque, combinée à des fonds propres suffisants, peut procurer des avantages non pécuniaires en termes de liquidité aux détenteurs de la dette (en particulier les déposants), ce qui augmente la demande de dette et permet aux banquiers d’économiser sur les coûts de financement.
Coûts des exigences plus élevées en matière de fonds propres des banques
La discussion d’Admati et Hellwig sur les coûts de financement des banques et la structure du capital ne reconnaît que deux avantages du financement par l’emprunt : la déductibilité fiscale des intérêts et les distorsions du filet de sécurité découlant des garanties gouvernementales qui réduisent effectivement les coûts de la dette subordonnée des banques ainsi que les dépôts. Ils soutiennent que l’élimination de ces avantages du financement par l’emprunt est souhaitable. Cette affirmation néglige des preuves empiriques substantielles qui vont dans le sens d’autres influences, comme les modèles de signalisation. Mais même si le traitement fiscal privilégié de la dette et les subventions au titre du filet de sécurité étaient les seuls facteurs favorisant le financement par l’emprunt, et même si l’on pouvait affirmer, à partir d’une analyse coûts-avantages sociaux, qu’il serait souhaitable de supprimer les subventions au titre du filet de sécurité et la déductibilité fiscale des intérêts, il ne s’ensuit pas que cela ne coûte rien.
Une implication importante des différents modèles de structure optimale du capital est que le fait de forcer les banques à augmenter leur ratio de fonds propres par rapport à leurs actifs réduira généralement la volonté des banques de prêter. Un grand nombre d’études ont montré que, lorsque les banques doivent augmenter leur ratio fonds propres/actifs, elles choisissent souvent de le faire en réduisant les nouveaux prêts, ce qui évite de devoir lever de nouveaux fonds propres et les coûts élevés qui y sont associés. Par exemple, une étude récente de la réaction de l’offre de prêts aux augmentations des ratios de fonds propres requis au Royaume-Uni indique qu’une augmentation d’un point de pourcentage des ratios de fonds propres requis réduit l’offre de prêts aux entreprises non financières nationales d’environ 7 % (ce qui implique une élasticité de l’offre de prêts d’environ 0,7 négatif).
La réduction de l’offre de prêts qui résulte de l’augmentation des ratios de fonds propres n’est pas seulement un coût ponctuel. Un ratio de fonds propres plus élevé signifie qu’à mesure que le système bancaire se développe, un pourcentage plus important des fonds propres des banques devra être levé à l’extérieur plutôt que par la rétention des bénéfices. Comme il est coûteux de mobiliser des capitaux extérieurs (en grande partie à cause des coûts de signalisation et d’agence mentionnés plus haut), les banques seront confrontées à des coûts de financement plus élevés en permanence, ce qui réduira en permanence l’offre de prêts par rapport à un monde où les exigences en matière de ratio de fonds propres sont plus faibles.
Trouver la bonne exigence de fonds propres bancaires
L’existence de coûts sociaux associés à des exigences de fonds propres plus élevées n’exclut pas le caractère souhaitable d’une augmentation substantielle de ces exigences. En effet, la plupart des économistes (moi y compris) seraient prêts à accepter une certaine réduction de l’offre de crédit en échange des avantages d’une plus grande stabilité financière, en particulier compte tenu des faibles ratios de fonds propres que les banques maintiennent actuellement.
Quel est le bon ratio de fonds propres à cibler, et sur quoi repose le ratio de 25 % des fonds propres par rapport aux actifs proposé par Admati et Hellwig ? Après tout, s’ils croyaient vraiment à leur argument selon lequel l’augmentation du ratio de fonds propres ne peut jamais avoir de coût, alors pourquoi ne pas préconiser un ratio de fonds propres de 100% ?
Le principal fondement de la recommandation d’Admati et Hellwig d’un ratio de 25% est leur opinion selon laquelle l’expérience historique montre qu’avant la protection du filet de sécurité, les banques maintenaient ce niveau de ratios de fonds propres. Mais Admati et Hellwig sont trop désinvoltes lorsqu’ils font ces comparaisons historiques, et ils omettent de noter certaines différences importantes entre les banques d’alors et d’aujourd’hui. Les ratios de fonds propres des banques, tant aux États-Unis qu’à l’étranger, ont varié considérablement dans le passé et n’ont généralement pas atteint 25 % des actifs. Certains des systèmes bancaires les plus stables – celui du Canada, par exemple – ont eu des ratios de fonds propres relativement faibles. Les faibles ratios de fonds propres des banques canadiennes à succursales nationales reflétaient la plus grande diversification de leur portefeuille et d’autres caractéristiques réduisant le risque, contrairement aux banques à bureau unique (unités) beaucoup plus risquées aux États-Unis. Les ratios de fonds propres des banques américaines ont varié de façon spectaculaire au fil du temps, et d’une manière qui a clairement reflété les changements dans le risque de leurs actifs. Les ratios de fonds propres par rapport au risque des actifs sont l’attribut clé de la réglementation prudentielle, et non les ratios de fonds propres en soi. L’utilisation de simples ratios d’équité historiques d’un certain exemple passé comme référence, sans tenir compte du risque, peut considérablement surestimer ou sous-estimer la mesure dans laquelle les ratios d’équité actuels des grandes banques mondiales devraient être augmentés.

Inverness la belle

Inverness était la capitale des Pictes au-dessous de la reine Brude, qui avait été arrêtée et modifiée par Saint. Columba vers 565. Au 12ème siècle, Inverness était devenu un bourg niché sous la forteresse liée à Maître Malcolm III (Malcolm Canmore), qui a continué à être une résidence royale et un château pendant des années. L’actuelle forteresse du XIXe siècle, sur le site d’un château détruit en 1746 avec les Jacobites, surplombe le ruisseau et les résidences législatives. Les quelques bâtiments plus anciens qui subsistent comprennent la vieille croix de la ville (1685), le clocher de la zone (auparavant une prison), cette ancienne grande cathédrale (1769-1772) et Saint. Cathédrale d’Andrew (1866-1871). Inverness peut être le centre commercial, éducatif et touristique d’un grand endroit. Chaque production et chaque fournisseur se sont développés pour répondre aux besoins du marché du gaz à l’étranger. Les industries supplémentaires comprennent les espèces de manipulation du poisson, l’agriculture, la foresterie et l’ingénierie électronique. Le port aérien d’Inverness, à Dalcross, à 8 kilomètres (13 km) au nord-est, villes du monde fournit des services à domicile. Inverness est également populaire pour le combat de Culloden. Le Jacobites en retraite occupa Inverness en février 1746. Une grève de nuit tentée dans l’armée en évolution du duc de Cumberland fut infructueuse le 15 avril, et Charles Stuart choisit de fournir une bataille autour de la tourbière découverte Drumossie Moor mentionnée plus tôt Culloden House, malgré la regardez Lord George Murray qu’un terrain beaucoup moins parfait pour les Highlanders était difficile à trouver. Les Jacobites ne pouvaient rassembler que 5 000 gars. Cumberland a connu 9 000 gars, dont beaucoup d’Écossais. Contrairement à Charles, il possédait une très bonne artillerie disciplinaire efficacement offerte. Les pistolets industriels de Cumberland ont décimé les peuplements jacobites pendant 25 minutes. Charles, dans l’ordre la première fois, a fatalement ralenti une commande à coût. Lord George a libéré le Jacobite proprement dit et le cœur, mais la bravoure n’a pas pu égaler la maîtrise de soi, le risque de cartouche dans les fusils, la mousqueterie et à la fin l’excellent résultat de la baïonnette pour l’épée large. Les Macdonald autour du Jacobite restaient tout de suite à juste titre rentrés dans un excellent ordre, poursuivis par la cavalerie. Escapade a commencé à être en déroute.

L’obsession du Putsch

La veuve de Cyrus Vance, le seul secrétaire d’État américain à démissionner pour protester contre les actions de son président en cent ans, a appelé Zbigniew Brzezinski, le conseiller à la sécurité nationale du président Jimmy Carter et le rival de Vance, cet horrible homme ». Pas un seul fonctionnaire du Département d’État sous Vance pendant l’administration Carter de 1977 à 1981, n’a pensé différemment. La plupart d’entre eux avaient des termes monosyllabiques pour Brzezinski. Depuis la mort de Brzezinski vendredi dernier, aucun membre de son personnel à la Maison Blanche n’a fait de déclaration publique en son honneur, en sa mémoire ou en défense. Parmi les plus muets, citons Madeleine Albright, qui devait à Brzezinski sa promotion professionnelle en tant qu’universitaire, puis membre du personnel de la Maison Blanche, puis secrétaire d’État elle-même.
Malgré la déloyauté de ses proches et la détestation de Bzezinski pour ceux qui étaient plus loin, il était et est resté le favori de Carter. Entre 1977 et 1981, le temps de Brzezinski avec Carter, selon les journaux de la Maison Blanche, représentait plus de 20% du temps de travail du président. C’est 12 minutes de chaque heure – aucun autre fonctionnaire ne s’est approché. Vendredi, peu après l’annonce du décès de Brzezinski par sa famille, Carter a publié une déclaration le vantant comme un superbe fonctionnaire … curieux, innovant et un choix naturel comme mon conseiller à la sécurité nationale … brillant, dévoué et fidèle. Il me manquera. »
Quel était ce lien entre eux et pourquoi est-ce important maintenant? L’une des raisons est que ce qu’ils ont fait ensemble était les opérations américaines les plus récentes étudiées dans les écoles du KGB à Moscou par une recrue en formation à l’époque appelée Vladimir Poutine.
Il s’agissait du personnel du conseiller à la sécurité nationale pendant les quatre années du mandat de Carter, 1977-1981.
Sur la photo récemment: ci-dessus, Jimmy Carter. Ci-dessous – 1er rang: Zbigniew Brzezinski (décédé en mai 2017); David Aaron; Madeleine Albright. 2e rangée: Paul Henze (décédé en juillet 2011); Donald Gregg; Fritz Ermarth. 3e rangée: Robert Gates; Samuel Hoskinson; William Odom (décédé en mai 2008).
Une thèse de doctorat de 451 pages de Mary Sexton examinant la relation entre Carter et Brzezinski identifie les preuves, y compris les documents, les témoins et les rapports indépendants qui auraient dû les séparer. Elle ne répond pas pourquoi cela ne s’est pas produit. Elle conclut que Brzezinski a flatté et a adoré Carter; implacablement conspiré pour saper Vance et d’autres rivaux pour l’attention de Carter; posturé, manipulé, menti à la presse et truqué au président. Sexton a conclu en 2009: il est important de reconnaître que Jimmy Carter était en fin de compte responsable de la nature de son système d’élaboration des politiques et des décisions prises concernant qui encadrerait et articulerait les politiques étrangères des États-Unis. »
Elle a cité Lloyd Butler, le mandataire de Carter en tant qu’avocat de la Maison Blanche, donc aucun sous-traitant de Brzezinski, disant qu’il était déconcerté par le refus de Carter de s’attaquer aux problèmes causés par Brzezinski. Je ne le comprendrai jamais », a déclaré Butler en 2002. Il est décédé en 2005.
Ni Vance dans ses mémoires (il est décédé en 2002), ni son épouse Grace, ni aucun des députés de Vance à l’État, ni le personnel de Carter à la Maison Blanche, ne fournissent de réponse. Dans une recherche de Betty Glad, publiée en novembre 2009, elle a rapporté que quelques proches aidants répondaient aux besoins émotionnels du président », mais les assistants n’ont pas dit à Glad ce qu’ils pensaient être les besoins émotionnels de Carter. Glad a reconnu qu’en préparant son livre, elle était avant tout… redevable à Zbigniew Brzezinski qui a répondu rapidement à mes e-mails et a été très ouvert sur ses interactions avec Carter. »
Glad a conclu que Carter avait apporté à Brzezinski son soutien total et absolu… Brzezinski était l’une des rares personnes que Carter n’a jamais réprimandées… Et Carter a rejeté toutes les critiques de Brzezinski qui pourraient lui arriver. » Pourquoi?
Carter avait besoin et admirait les compétences stratégiques et la ténacité à traiter avec les autres que Brzezinski offrait », a résumé Glad, avec l’aide de ce dernier. La nécessité d’être sévère était un thème récurrent dans les briefings et les mémoires de Brzezinski à Carter, a-t-elle ajouté. Brzezinski a fait sentir à Carter qu’il faisait de grandes choses. » Combattre les Russes (les Soviétiques à l’époque) était, dans le conseil que Brzezinski a présenté à Carter et répété à Glad, était la plus grande des grandes choses. Brzezinski », a conclu Glad, a fait appel au désir de Carter de faire de nouvelles choses importantes et d’agir rapidement».
La perplexité rapportée par les subordonnés de Carter et les fonctionnaires du Département d’État sous Vance est en partie la vérité; dissimulation partielle par les fonctionnaires; tromperie partielle par Carter. Pour la réponse de ce qui a lié Carter et Brzezinski ensemble, Glad ne l’a pas découvert, ni même laissé entendre. En effet, il s’agissait d’un complot de guerres par procuration, de terrorisme, d’assassinats, de coups d’État et d’autres opérations noires, toujours classées top secret, rationalisées par Brzezinski à Carter et approuvées par le président, dans le cadre d’une grande stratégie pour vaincre le Kremlin. Ce sont les tactiques difficiles qui ont convaincu Carter en secret, mais que le président n’a jamais admis en public. Pas à ce moment-là, car les actions ont donné à Carter l’impression qu’il faisait de nouvelles choses importantes ». Pas depuis, car tous ont échoué, avec des effusions de sang et des pertes monumentales pour ceux que le président et son stratège ont ciblés, et des dommages collatéraux pour le reste du monde, notamment les États-Unis.
Bien sûr, Brzezinski était un penseur stratégique », lui a expliqué l’une des sources de Sexton. Mais il se trompait souvent! Les stratégies de Vance ont résisté à l’épreuve du temps. » Selon Sexton, sa source était un fonctionnaire ayant une connaissance approfondie du travail de Vance et Brzezinski. Il a accepté d’être interviewé… à condition qu’il ne soit pas cité à ce sujet. »
Paul Henze a rejoint le personnel de Brzezinski après avoir été chef de poste de la CIA en Éthiopie de 1969 à 1972, puis en Turquie entre 1974 et 1977. Henze avait été l’un des comploteurs de l’invasion turque de Chypre en juillet 1974, qui se poursuit jusqu’à présent. journée.

La fin de la vie

La découverte de la concentration inhabituellement élevée de l’iridium d’acier inhabituel à, ou non loin, de la limite K-T fournit ce qui continue à être reconnu parmi les individus stylos marqueurs temporels géologiques instantanés inhabituels qui semblent être dans le monde entier. Cette anomalie ou irruption de l’iridium a été découverte pour la première fois par Walter Alvarez dans le modèle stratigraphique du Crétacé-Tertiaire à Gubbio, en France, dans les années 70. L’augmentation a par la suite été constatée dans des centaines de localités au Danemark et ailleurs, à la fois dans des affleurements rocheux sur le territoire, puis dans des échantillons gratuits clés forés à partir du plancher océanique. L’iridium est généralement un composé rare dans les roches de la croûte terrestre (environ 0,3 partie par milliard). À Gubbio, la concentration d’iridium est beaucoup plus de 20 fois plus élevée (6,3 éléments pour chaque milliard de dollars), et elle est également plus élevée que cette concentration sur d’autres sites. Comme les quantités d’iridium augmentent dans les météorites par rapport à la Terre, l’anomalie de Gubbio est supposée avoir une explication extraterrestre. Si cela semble correct, ces types de signatures extraterrestres peuvent avoir un impact croissant sur la précision dans laquelle les limites temporelles géologiques peuvent être stipulées. La quantité d’iridium dans les météorites a été acceptée comme représentant le niveau typique à travers tout le programme solaire et, par extension, l’univers. En conséquence, l’attention à l’iridium dans la frontière K-T est largement associée à une collision entre World et un gros météore ou astéroïde. La taille de l’article est estimée à environ 10 km (6,2 miles), puis à un quadrillion de tonnes métriques; la vitesse au moment de l’effet est estimée à plusieurs centaines de milliers de kilomètres par heure. Le cratère résultant de ce type d’accident aurait une taille de 100 km ou plus. Un tel site d’impact (connu sous le nom d’astroblème) est certainement le cratère Chicxulub, dans la péninsule du Yucatán. Un autre site Web à impact plus petit, qui précède le site Web de Chicxulub d’environ 2 000 à 5 000 ans, apparaît à Boltysh en Ukraine. Son existence soulève la possibilité que l’événement limite K-T résulte de nombreux impacts extraterrestres. Bien que le volume d’iridium dispersé dans le monde soit beaucoup plus stable en utilisant l’impact de tout élément plus compact, comme une comète, l’hypothèse des astéroïdes est largement approuvée depuis la clarification la plus probable de l’anomalie de l’iridium K-T. La théorie des astéroïdes ne semble cependant pas rendre compte de l’info paléontologique. Une explosion à impact direct de ce type aurait éjecté une énorme quantité de substance terrestre et d’astéroïdes dans l’atmosphère, créant un nuage de poussière et de contaminants puissants qui auront encerclé la Terre et obstrué le soleil pendant de nombreuses semaines, voire des années. La perte de lumière solaire pourrait avoir éliminé la photosynthèse et abouti à la mort de la végétation et aussi à l’extinction subséquente des herbivores, de leurs prédateurs possibles et des charognards. Cependant, les extinctions de taille K-T ont tendance à ne pas être décrites le plus souvent totalement à partir de cette hypothèse. Le document stratigraphique est le plus complet pour les extinctions d’existence marine-foraminifères, ammonites, coccolithophores et similaires. Celles-ci se sont évanouies tout d’un coup et en même temps, ainsi que leur extinction s’accorde très bien avec toutes les hypothèses d’astéroïdes. Les preuves fossiles des habitants de la propriété indiquent néanmoins une baisse régulière plutôt qu’une brusque de l’assortiment de dinosaures (et peut-être une grande quantité). Les modifications de la vie terrestre semblent être mieux prises en compte par les éléments environnementaux, y compris les conséquences de la dispersion des fonds marins et de la dérive des continents, conduisant à la fragmentation continentale, à la dégénérescence climatique, à une saisonnalité accrue et éventuellement à des changements dans la distribution et la composition des zones terrestres. Une seule sensation n’en empêche pas une de plus. Il est vraiment possible qu’un point culminant d’ajustements biologiques réguliers plus quelques occasions désastreuses, y compris une action volcanique accrue, se soit produit autour de la conclusion dans le Crétacé.

Comprendre le voyage dans l’espace

vol spatial, vol aérien au-delà de l’environnement terrestre. Ce court article traite des concepts de base liés à la libération et au retour des engins spatiaux non habités et habités ainsi qu’à leur voyage, leur navigation, leur rendez-vous et leur amarrage dans l’espace. Pour le développement du voyage dans l’espace et les discussions sur les programmes d’engins spatiaux et de salles et leurs efforts pour la connaissance scientifique et le bien-être humain, voir l’enquête de salle . Pour l’amélioration et les technologies de propulsion de fusée, voir fusée. Pour plus de détails sur les techniques de fusée utilisées pour propulser les engins spatiaux au-delà de l’atmosphère terrestre, voir véhicule de lancement. L’espace, tel qu’il est considéré ici, est décrit comme l’ensemble des accès de l’univers au-delà de l’environnement terrestre. Il n’y a absolument aucune limite ultime au-dessus de Planet où commence l’espace, mais, en termes d’altitude limite pour les véhicules créés pour le vol atmosphérique, elle pourrait être considérée comme aussi basse que 45 km (28 miles). L’orbite sensible la plus basse pour un satellite artificiel autour de la Terre est d’environ 160 km (100 kilomètres). En comparaison, le satellite entièrement naturel de la Terre, la Lune, orbite autour de la planète à une distance moyenne d’environ 2 400 fois plus grande, à 384 400 km (239 000 kilomètres). Même cette distance, néanmoins, est petite par rapport à la taille du programme d’énergie solaire, dans lequel les engins spatiaux devraient parcourir des distances interplanétaires mesurées dans les centaines de centaines de milliers à des milliards de kilomètres, et elle est infinitésimale par rapport à la taille du monde . Les étoiles voisines les plus proches de la Terre se trouvent à plus de 40 000 milliards de kilomètres (25 000 milliards de kilomètres). L’espace qui distingue les objets cosmiques ne sera pas entièrement vide. Tout au long de ce vide, de la matière, principalement de l’hydrogène, voyage spatial est dispersée à des densités très réduites. Néanmoins, l’espace comprend un vide nettement meilleur que ce qui a été réalisé sur Terre. De plus, l’espace est imprégné de champs gravitationnels et magnétiques, d’un large spectre de rayonnement électromagnétique et de contaminants de rayons cosmiques de haute puissance. Jusqu’à la fin de la Seconde Guerre mondiale, toutes les radiations concernant la pièce avaient été faites à partir de découvertes avec l’atmosphère déformante de Planet. Avec l’introduction des fusées-sondes à la fin des années 1940 et après celle des satellites instrumentés, des salles d’observation, des sondes et des engins spatiaux habités, il est devenu facile d’enquêter immédiatement sur les difficultés des phénomènes spatiaux. Un autre attribut écologique important de la pièce est la microgravité, une condition obtenue à partir de l’équilibre entre l’accélération centrifuge du vaisseau spatial en orbite autour de la Terre et les forces gravitationnelles de la Terre. Ce problème, dans lequel il n’y a pas de pression nette agissant sur un corps, ne pourrait être simulé sur la planète que par une chute libre dans une « tour de décroissance » évacuée. Vaisseau spatial est vraiment un terme de base pour les objets lancés dans l’espace, par exemple, les satellites en orbite autour de la planète et les sondes spatiales, les pilules d’essai, les modules en orbite de certaines automobiles de libération (par exemple, la navette spatiale You.S. ou même le Soyouz russe) , et stations d’étage. Les engins spatiaux sont considérés individuellement à partir de vos véhicules propulsés par fusée qui les libèrent de haut en bas dans l’espace ou en orbite ou les propulsent depuis la localité de la Terre (voir fusée-sonde et véhicule de libération). Une sonde spatiale est un engin spatial sans pilote qui dispose d’une vitesse suffisante pour lui permettre d’échapper à l’attraction gravitationnelle de la Terre. Une sonde de l’espace lointain est une sonde envoyée au-delà du système Terre-Lune ; s’il est livré pour étudier d’autres planètes, il est également connu sous le nom de sonde planétaire. Une capsule d’essai est un petit laboratoire sans pilote qui est souvent récupéré après son vol en avion. Une station spatiale est une structure artificielle placée en orbite et équipée pour supporter l’habitation humaine pendant de longues périodes. Les engins spatiaux varient considérablement en taille, forme, complexité et objectif. Ceux qui discutent des points communs dans le style, la fonction ou les deux sont fréquemment regroupés en foyers de système – par exemple, Gorizont, Meteor, Molniya, Resurs, Soyuz et Uragan dans la fédération de Russie ; Explorer, Galaxy, Iridium, Milstar, Navstar, Nimbus, Orbview, Telstar et Voyager en Amérique ; Astra, Europestar, Envisat, Hotbird, Meteosat et SPOT dans les pays européens ; Anik et Radarsat au Canada; Dong Fang Hong, Fengyun et Shenzhou en Chine ; Insat en Inde ; et Ofeq en Israël. La légèreté du poids corporel et la fiabilité pratique sont les principaux attributs de la conception des engins spatiaux. En fonction de leur objectif, les engins spatiaux peuvent passer des moments, des heures, des mois ou de nombreuses années dans l’environnement de la pièce. Les caractéristiques de la mission doivent être effectuées tout en étant exposées à un vide plus poussé, à la microgravité, à de fortes variations de chaleur et à un fort rayonnement.