Analyse der Unsicherheit
Inhaltsübersicht
I. Quellen der Unsicherheit
II. Ökonomie und Unsicherheit
III. Datenunsicherheit
IV. Zufälligkeit und Risiko
V. Unvollständige Information
VI. Verhaltensunsicherheit
VII. Konklusion
I. Quellen der Unsicherheit
Unsicherheit ist auf natürliche Weise mit der Zukunft verbunden. Entwicklungen, Entscheidungskonsequenzen und das Verhalten anderer Menschen sind um so weniger sicher, je weiter wir voraus blicken. Unsicherheit kann in einer Ungenauigkeit von betrachteten Größen und von Zusammenhängen begründet liegen; in der Folge gibt es dann Prognosefehler (weil wir Anfangsbedingungen oder Gesetze nicht genau kennen). Sodann kann die Unsicherheit in einer wirklichen Zufälligkeit der Entwicklung begründet sein. Ferner kann die Unsicherheit dem Verhalten von Partnern und Gegenspielern entspringen.
Unsicherheit ist ein vielschichtiges Phänomen. Es wird deshalb versucht, Quellen der Unsicherheit zu unterscheiden. Meistens wird den eben genannten Gründen gefolgt, es ergeben sich dann vier „ Arten “ von Unsicherheit.
1. Modellrisiko
Zunächst sind wir einer Datenunsicherheit ausgesetzt. Wir kennen die Größen, Parameter, oder auch Zusammenhänge – Basis der von uns gemachten Bilder der Wirklichkeit – nicht immer genau. Das ist eine Fehlerquelle, selbst wenn es keine weiteren Formen von Unsicherheit gibt. Diese Form der Unsicherheit wird als Modellrisiko bezeichnet: Wir haben gewisse Vorstellungen über die Zusammenhänge, jedoch könnte unser Modell aufgrund ungenauer Parameter oder aufgrund eines fälschlicherweise unterstellten Zusammenhanges Schaden bewirken.
2. Risiko und Zufall
Unsicherheit liegt oft in einer Zufälligkeit der weiteren Entwicklung begründet, die verschiedene Pfade nehmen oder in verschiedene Ergebnisse münden kann. Den möglichen Entwicklungen sollen Wahrscheinlichkeiten zugeordnet werden können. Situationen, in denen die Entwicklungen zufällig (für sie also Wahrscheinlichkeiten gegeben) sind, werden als Risiko angesprochen. Formal werden Zufallsvariable oder stochastische Prozesse für die nähere Beschreibung herangezogen. Wenn das Phänomen mit einem großen Erfahrungsschatz und anhand von Ähnlichkeiten beschrieben werden kann, haben die unterstellten Wahrscheinlichkeiten objektiven Charakter. Ansonsten, wenn nur die Betroffenen bereit sind, den möglichen Entwicklungen und Ergebnissen Zahlen so zuzuordnen und mit diesen so zu arbeiten, als wären es Wahrscheinlichkeiten, wird ihnen subjektiver Charakter zugesprochen. Ist es dagegen überhaupt nicht möglich, Vergleiche anzustellen oder Analogieschlüsse zu ziehen, können den Entwicklungen und Ergebnissen auch keine Wahrscheinlichkeiten zugeordnet werden. Dann spricht man von Ungewissheit – und nicht mehr von Zufälligkeit oder von Risiko.
3. Unvollständige Information
Die Datenunsicherheit wie die Zufälligkeit (Risiko) kann den Grund haben, dass wir nicht gut informiert sind. Von unvollständiger Information wird gesprochen, wenn es möglich ist, durch Informationsbeschaffung entweder die Datenunsicherheit zu verringern (etwa durch größere Stichproben) oder die aufgrund der Zufälligkeit nur eingeschränkte Prognose genauer zu gestalten. Letzteres kann geschehen, wenn Information über gewisse Indikatoren eingeholt werden könnte, und bekannt ist, welche Korrelation zwischen den Indikatoren und der zu prognostizierenden Entwicklung besteht. Die Informationsbeschaffung ist aber nicht notwendigerweise ein Spiel gegen die Natur, vergleichbar mit der Rohstoffgewinnung im Bergbau. Oft ist die Information bereits da, nur verfügen andere Menschen über sie. Dann liegt asymmetrische Information vor.
4. Verhaltensunsicherheit
Der vierte Grund für die Unsicherheit liegt im unbekannten Verhalten anderer Menschen, seien es nun Partner oder Gegenspieler. Oft ist dieses Verhalten aber nicht unberechenbar. Es können rationale und egoistische Motive unterstellt werden, wodurch das Verhalten kalkulierbar wird. Im Rahmen der Spieltheorie wird versucht herauszufinden, unter welchen Bedingungen sich bei derartigen Motiven wohl diese oder jene Strategie anbietet. Neuerdings wird für die Erklärung oder Prognose des Verhaltens anderer Menschen auch der Behaviorismus herangezogen, so etwa im Rahmen des Behavioral Accounting.
II. Ökonomie und Unsicherheit
Die Ökonomie als Wissenschaft versucht, zunächst das wirtschaftliche Umfeld zu beschreiben, also die Art des Umgangs mit Ressourcen und die bestehenden Formen der Kooperation vor dem Hintergrund der Verwendung von Ressourcen zu erfassen. Die Beschreibung bildet die Grundlage für das Gestaltungsziel der Wirtschaftswissenschaften. Hierzu werden untersucht: Entscheidungen, also individuelle und kollektive Wahlhandlungen, verbunden damit Kontrakte, also der Abschluss von Verträgen, Koordinationsaufgaben, Überwachung und Ausführung, sowie die Schaffung von Institutionen für die wiederholte und dauerhafte Kooperation. Die Stichworte also sind 1. Beschreibung, 2. Entscheidung, 3. Kontrakte, 4. Institutionen.
Hier spielt Unsicherheit eigentlich immer hinein. Eine sichere und fehlerfrei prognostizierbare Welt mit vollständiger Information und Berechenbarkeit des Verhaltens aller Parteien wäre rein fiktiv. Doch ist die Unsicherheit, auch wenn in gewissem Umfang vorhanden, ab und zu für das Studium der genannten Fragen unerheblich. Sie muss in diesen Fällen bei der Formulierung von Modellen nicht eigens Berücksichtigung finden. Die ökonomische Analyse der Unsicherheit setzt erst dann ein, wenn die Berücksichtigung der Unsicherheit bei der Beschreibung, in einem Entscheidungsmodell, bei der Analyse von Vertragsbeziehungen oder in der Ökonomie der Institutionen andere Antworten liefert, die als besser beurteilt werden als jene, die unter der Annahme von Sicherheit gefunden werden.
Ob in die ökonomische Analyse eines Phänomens die Unsicherheit eigens einbezogen werden muss, ist also eine Frage der Beurteilung alternativer Modellierungen dieses Phänomens. Im Grunde wird eine Meta-Theorie benötigt, die verschiedene und konkurrierende Modellformulierungen zum selben Gegenstand hinsichtlich ihrer „ Güte “ vergleichen kann. Eine solche Meta-Theorie muss wenigstens implizit vorhanden sein, und sie muss feststellen, dass ein Modell mit Einbezug der Unsicherheit „ besser “ ist. Vielleicht ist die Meta-Theorie durch eine Best-Practice ergänzt, nach der für diesen oder jenen Gegenstand von Experten gewisse Modelle als überlegen betrachtet werden.
Meta-Theorie und Best-Practice legen fest, wie im konkreten Fall die Unsicherheiten zu modellieren sind. Es kann dann sein, dass ein „ gutes “ Modell es verlangt, sich auf eine einzige Art oder Quelle von Unsicherheit zu konzentrieren, obwohl vielleicht andere Formen von Risiko oder unvollständiger Information bei dem betreffenden Gegenstand ebenso hineinspielen. Die „ Güte “ eines Modells kann sich auf die Qualität von Prognosen beziehen oder auf die Akzeptanz und Einsichtigkeit der gebotenen Erklärungen, auf die Einfachheit, auf die mathematische Eleganz der Modellformulierung oder auf die Argumentationskraft für die Wirtschaftspolitik.
Auf diese Weise haben sich für die ökonomische Analyse von Unsicherheit gewisse Grundtypen von Modellen herausgebildet, die von Forschern und Praktikern als „ gut “ angesehen werden und den unter Annahme von Sicherheit formulierten Modellen als überlegen gelten. Im Folgenden sollen die wichtigsten dieser Grundtypen besprochen werden; zum Schluss werden wir in der Konklusion ein gemeinsames Merkmal aufzeigen.
III. Datenunsicherheit
Die Unsicherheit, die auf Messfehler und auf Beobachtungsfehler zurückgeht, darf nicht vernachlässigt werden. Sie ist dafür verantwortlich, dass wir Größen oder auch Zusammenhänge nicht genau kennen. Vor allem entsteht die Datenunsicherheit durch Schätzfehler bei Erhebungen und Stichproben sowie durch Fehlurteile bei Tests und bei der empirischen Arbeit. Die Statistik trifft Aussagen über Konfidenzintervalle für Parameter und untersucht Fehler erster und zweiter Art. Ein Fehler erster Art wird begangen, wenn eine in Wahrheit zutreffende Hypothese aufgrund der empirischen Evidenz oder aufgrund einer Stichprobe abgelehnt wird. Ein Fehler zweiter Art wird begangen, wenn eine in Wahrheit falsche Hypothese aufgrund der bis dato vorliegenden empirischen Evidenz nicht verworfen wird, sondern weiterhin „ angenommen “ bleibt.
Die Erkenntnislogik und die meisten Testverfahren gehen so vor, dass ein Fehler erster Art überhaupt nicht oder nur mit einer sehr geringen Wahrscheinlichkeit eintreten kann, während falsche Hypothesen sich, selbst wenn eine gewisse Evidenz gegen sie spricht, öfters noch lange halten können. Erkenntnisfortschritt ist daher eigentlich nicht gegeben, wenn eine Hypothese aufgrund der empirischen Evidenz „ angenommen “ bleibt – die Wahrscheinlichkeit, dass sie falsch ist und ein Fehler zweiter Art begangen wird, kann ziemlich hoch sein. Ein Erkenntnisfortschritt liegt nur vor, wenn zu einer Hypothese gezeigt werden konnte, dass ihr logisches Gegenteil aufgrund der Empirie verworfen werden kann. Solche Überlegungen werden in der Wissenschaftstheorie diskutiert und sind mit dem Namen Karl Popper, K.R.s verbunden.
Wirtschaftswissenschaften waren und sind stets mit empirischer Forschung verbunden. Die Entwicklung der Ökonomie sollte in ihren theoretischen Teilen deshalb anhand von Begriffen, Größen und Parametern erfolgen, die hinreichend genau geschätzt werden können. Die Ökonomie sollte mithin Zusammenhänge postulieren, die prinzipiell einer empirischen Prüfung unterzogen werden können – und keine Tautologie darstellen. Allerdings dürfte es nicht viele Zusammenhänge oder Gesetzmäßigkeiten geben, deren empirischer Gehalt dadurch begründet wurde, dass das logische Gegenteil empirisch widerlegt werden konnte. Deshalb müssen wir mit weniger zufrieden sein: Es sollte wenigstens viele kritische Studien gegeben haben, und es sollten so wenige empirische Widersprüchlichkeiten aufgetaucht sein, dass der postulierte Zusammenhang als „ erhärtete Arbeitshypothese “ oder als „ gut bestätigt “ angesehen werden darf. Unsere Erkenntnis ist dann nur vorläufig. Durchaus können plötzlich die empirischen Widersprüche überhand nehmen, ein anderes Modell wird postuliert, es tritt ein Paradigmenwechsel (Thomas S. Kuhn, Th.S.) ein.
IV. Zufälligkeit und Risiko
Zufällige oder risikobehaftete Entwicklungen, insbesondere die Entscheidungsfindung angesichts zufälliger Ergebnisse, spielen aus verschiedenen Gründen eine große Rolle. Die beiden wichtigsten: Entscheidungen unter Risiko sind nicht trivial, und es sind Institutionen entstanden, die vor allem den Zweck haben, Risiken zu alloziieren und zu diversifizieren, namentlich Versicherungsgesellschaften, Intermediäre und Finanzmärkte.
Die Komplexität von individuellen Entscheidungen unter Risiko zeigen die Diskussionen um das auf Bernoulli, D./ zurückgehende Prinzip, so zu entscheiden, als ob ein Erwartungsnutzen zu maximieren wäre. Dieses Prinzip ist 1944 durch das Buch „ Theory of Games and Economic Behavior “ der Autoren von Neumann und Morgenstern bekannt geworden (von Neumann, J./Morgenstern, O. 1944). Doch die Gleichsetzung von „ Rationalität “ und Axiomen, die das Prinzip des Erwartungsnutzens begründen, hat Widerspruch provoziert. Früh wurden Antinomien (Allais, D./) entdeckt, und es sind Versuche zu nennen, alternative Entscheidungskriterien zu studieren: Hier wurde zunächst eine Prospect-Theorie (Kahneman, D./ und Tversky, A./) entworfen und beispielsweise werden gerade im Finance neben dem Erwartungsnutzen auch Shortfall-Ansätze als Entscheidungskriterium favorisiert. Neuerdings werden verhaltenswissenschaftlich begründete Erklärungen für ökonomische Phänomene geboten, wenn sie mit dem Erwartungsnutzen nicht erklärt werden können. „ The Winner\'s Curse “ und andere Bücher von Thaler, R.H. geben eine Fülle von Beispielen.
Mit dem Shortfall-Ansatz wird eine Idee aufgegriffen, die Roy 1952 formulierte: Risiko ist die Wahrscheinlichkeit für ein Disaster (Roy, A.D. 1952). Also bietet sich an, Risiko als jenen Fall zu verstehen, in dem eine Mindestrendite nicht erreicht wird. Die Wahrscheinlichkeit dieses Shortfalls soll begrenzt bleiben.
Verwandt mit solchen Entscheidungskriterien ist der Value-at-Risk (VaR, Performancemaße, risikoorientierte). Selbst für sehr Vorsichtige bietet sich nicht an, die Entscheidung nur aufgrund des Worst Case zu treffen. Sinnvoller scheint es, die 1% oder 5% der allerschlechtesten Szenarien auszuklammern und sich daran zu orientieren, was unter den verbleibenden Szenarien der größte Verlust ist. Das ist der VaR. Er wird von den Regulierungsbehörden für die Risikobegrenzung von Finanzinstitutionen eingesetzt.
Etwas schwieriger hat sich die Untersuchung von Entscheidungsempfehlungen für Unternehmen gestaltet, wenn es um das Management von Risiken geht. Neben operativen Risiken und anderen Risiken stehen heute Preis- oder Marktrisiken und Gegenparteirisiken im Mittelpunkt. Für diese Risiken bieten die Finanzmärkte Instrumente für das Hedging. Doch sollte die Unternehmung hedgen oder ihr Aktionär? Auf diese Frage gibt es im Sinn von Modigliani, F./ und Miller, M.H. diese Antwort: Wenn die Unternehmung und ihr Aktionär zu denselben Konditionen die Hedge-Instrumente ergreifen kann, dann ist der optimale Umfang des Hedging durch die Risikopräferenz des Aktionärs bestimmt. Wer von beiden jedoch nun die Maßnahmen ergreift, ist (für den Wert der Unternehmung) irrelevant. Heute sehen wir, dass Unternehmen zum Teil größere Nachteile haben, wenn nicht sie, sondern der Aktionär Risikomanagement betreibt. Das ist der Fall, wenn die Unternehmung ihre Finanzen stabilisieren sollte, weil sie nahe an einem Distress ist (also etwa bei hohem Leverage), wenn die Unternehmenssteuern nicht proportional sind, oder wenn bei nicht stabilisierten Finanzergebnissen gewisse Opportunitäten (etwa für Investitionen) schwinden können. Doch dann muss die Unternehmung ihrem Aktionär zeigen, wie sie absichert, damit dieser nicht nochmals Risiken hedgt, die er vermeintlich zu tragen hat. Damit wird das Risiko-Management aufwändig, abgesehen davon, dass es Sorgfalt verlangt und dass Fehler dadurch entstehen können, dass nicht alle Risiken abgesichert werden können. Der Fall der Metallgesellschaft, die einem Konkurs nahe kam, lehrt, dass auch nach einem überlegt wirkendem Risikomanagement erhebliche Gefahren bleiben können.
Aufgrund der Risikoaversion der Teilnehmer einer Wirtschaft ist zu wünschen: Alle individuell gehaltenen Risiken, die sich ausgleichen könnten, sollten durch geeignete kollektive Verfahren oder durch Diversifikation zum Verschwinden gebracht werden. Hier sind spezielle Institutionen und Märkte verlangt. Versicherungsgesellschaften und Rückversicherer sind ein Beispiel, Finanzmärkte ein anderes Beispiel.
Jedoch sind mit der Weitergabe von Risiken stets gewisse Beobachtungskosten verbunden. Hier treten zwei Beispiele in den Vordergrund. Die Emission, etwa eine Kapitalerhöhung oder Börsengang. Der Begriff des IPO-Discounts zeigt, dass das Angebot einer riskanten Investitionsmöglichkeit stutzig macht: Warum behält sie der Anbieter nicht selbst? Erst durch die intendiert neutrale Prüfung einer Investmentbank und einen Preisabschlag kann die Skepsis kompensiert werden, die Partei, die ein Risiko abgeben wolle, wisse eben doch mehr und könne ungestraft etwas verheimlichen. Das zweite Beispiel sind Gegenparteirisiken und Bonitätsrisiken. Zwar können hier Rating-Agenturen wirken, doch entstehen trotzdem Märkte für Kreditderivate nur langsam. All das behindert den effizienten Risikoausgleich etwas.
Wir kommen auf die asymmetrische Information, die vielfach mit der Weitergabe von Risiken verbunden ist, noch zurück. Intermediation kann aufgrund dieser Phänomene dem Markt überlegen sein. Diamond, P. hat mit Argumenten in dieser Richtung, „ Delegated Monitoring “ einen Existenzgrund für die Bank geliefert. Zwar ist ein Intermediär eine Institution, eine Hierarchie oder Bürokratie und daher als Organisation vielfach teurer als ein Markt. Gibt es jedoch nur den Markt, könnte es sein, dass so wenig an Information bereit gestellt wird, dass sich die Marktteilnehmer zurückziehen und der Markt zusammenbricht.
V. Unvollständige Information
Auf der mikroökonomischen Ebene einer Einzelentscheidung geht es angesichts unvollständiger Information um die Frage, ob der Entscheidungsträger gewisse, ihm mögliche Informationen beschaffen sollte oder nicht. Der Zentrale Begriff ist hier der (ökonomische) Informationswert, wohl zu unterscheiden von der Entropie der Nachrichtentheorie.
Ein Ergebnis dieser Entscheidungsmodelle ist, dass es für den Einzelnen nicht immer vorteilhaft ist, alle möglichen Informationen einzuholen. Die Informationsbeschaffung kostet, weshalb maximaler Nutzen bedeuten kann, sich nur teilweise oder sogar überhaupt nicht zu informieren. Jede weitergehende Information wäre mit Aufwand verbunden, der höher ist als der erwartete Vorteil einer „ informierteren “ Entscheidung.
Von daher ist es nur ein kleiner Schritt zum Informationsgleichgewicht – ein Konzept, das von Grossman und Stiglitz entwickelt wurde (Grossman, S.J./Stiglitz, J.E. 1976). In ihrem Modell gibt es zwei Gruppen von Teilnehmern (an einem Finanzmarkt). Die einen sind informiert und treffen ihre Kauf- und Verkaufentscheidungen anhand eigens beschaffter Informationen. Die anderen sind nicht informiert und gehen davon aus, dass der Preis (oder Kurs eines Wertpapiers) ungefähr die Qualität (oder Performance) beschreibt. Allerdings ist der Markt nicht ganz informationseffizient: Die Uninformierten müssen sich damit abfinden, dass es immer wieder exogene Zufallseinflüsse gibt, wodurch die Preise „ verrauscht “ sind und nicht exakt wiedergeben, was die Informierten über die Qualität oder Performance in Erfahrung gebracht haben.
Alle Marktteilnehmer haben die Wahl, zu welcher Gruppe sie gehören wollen, ob sie also unter privaten Kosten Informationen einholen wollen oder nicht. Abgesehen vom Nachteil der Kosten für die Informationsbeschaffung haben die Informierten gegenüber den Uninformierten einen Vorteil, der um so größer ist, je mehr Uninformierte und je weniger Informierte es gibt. Denn wenn es sehr viel Informierte gibt, werden sehr viele Transaktionen aufgrund von Informationen vollzogen, und die Preise spiegeln daher diese Informationen weitgehend wider. Preise sind nur wenig verrauscht. Wenn es dagegen nur wenig Informierte gibt, werden viele Transaktionen von Uninformierten getätigt, und die erwähnten externen Zufälligkeiten bewirken ein kräftiges Rauschen. Es hat zur Folge, dass die (wenigen) Informierten dann einen deutlichen Vorteil haben. Wenn es also in einem Anpassungsprozess anfänglich nur wenig Informierte gibt, ist die Motivation, zum Lager der Informierten zu wechseln, groß. Irgendwann jedoch werden einzelne Informierte entdecken, dass ihr Vorteil nicht mehr reicht, die Kosten für die Informationsbeschaffung zu decken. Sie werden wählen, zu den Uninformierten zu gehören. So entsteht ein Gleichgewicht. Es bestimmt zugleich, ob die Preise eher schwach oder stark verrauscht sind. Das Informationsgleichgewicht legt den Informationsgehalt der Preise fest.
Dieses Modell behandelt Information als privates Gut. Es lässt erkennen, dass es ein ökonomisches Spannungsfeld zwischen der Produktion von Information gibt – eine mit Kosten verbundene Aktivität – und der Ausnutzung dieser Information, bei der sie gleichzeitig publik wird und eventuell etwas an Wert verliert. Diese Thematik hat eine große Bedeutung bei der Beurteilung des Schutzes geistigen Eigentums durch Patente und die Verfolgung von Piraten. Das oberste Grundprinzip dabei ist aus gesamtwirtschaftlicher Sicht, solche Regeln zu etablieren, die eine effiziente Allokation der Ressourcen bewirken.
VI. Verhaltensunsicherheit
Wem wäre neu, dass Menschen allzu leicht der Gefahr unterliegen, zugunsten des kleinen Egoismus von einem Verhalten abzuweichen, das allgemein als ethischer Imperativ gilt. In vielen Varianten wurde diese Gefahr im Dilemma der Gefangenen untersucht und als „ Spiel “ modelliert. Die gleichgewichtige – also in praktischen Fällen zu vermutende – Lösung besagt, dass jeder der Gefangenen gestehen und seinen Mitgefangenen belasten wird, um so gewisse Vorteile zu erlangen. Gleichwohl stellt sich nicht ein, dass beide zusammenhalten (und leugnen), auch wenn jeder von ihnen dabei am besten fahren würde. Der Grund: Sie können sich nicht gegenseitig zu dieser Strategie verpflichten und nicht glaubhaft kommunizieren, dass sie diese Strategie einschlagen werden. Die Lösung dieses Dilemmas kann durch eine außenstehende Kraft, eine Institution herbeigeführt werden. Wenn der Einzelne, selbst freikommend, weil er den anderen belastete und nicht zu ihm hielt, einer Strafe durch die Gemeinschaft ausgesetzt wird, und wenn dieser soziale Druck hinreichend ist, werden die in der misslichen Situation Gefangenen zusammenhalten.
Diese Situation gestattet verschiedene Lehren: Erstens verhält sich der Einzelne egoistisch im Rahmen der Regeln, der Anreize, der Strafen. Werden die Anreize und Strafen anders gestaltet, ändert sich auch das Verhalten. Dieser Sachverhalt hat in der Agency-Theory große Beachtung gefunden. Zweitens: In gewissen Situationen sind dauerhafte Instanzen nötig, um ein „ kurzsichtiges “ Verhalten auszuschließen. Beispielsweise können auf Dauer angelegte Institutionen Reputation aufbauen. Bei einem Menschen, der irgendwann im Alter aufhören würde, ökonomische Verträge zu schließen, bestünde immer die Gefahr, den letzten Vertragspartner auszunutzen.
VII. Konklusion
Risiko, Unsicherheit, unvollständige Information, zeigen in ihren mannigfachen Erscheinungsformen eine Gemeinsamkeit: Die Ökonomie kann sie nicht gratis bewältigen, und alle Verträge und Designs und Institutionen sind mit Kosten verbunden. Wenn Datenunsicherheit oder gar ein Modellrisiko bestehen, erweist sich schon die für die Beschreibung gewählte Modellsprache als ungenau und daher möglicherweise mit abträglichen Fehlern verbunden. Bei Risikoaversion ist Risiko für den Einzelnen stets mit einem Nutzenentgang verbunden. Selbst wenn Risiken vollständig diversifizierbar sind, ist dazu eine Institution nötig, entweder ein Finanzmarkt oder eine zentrale Agentur, die wiederum gewisse Kosten hat. Unvollständige Information verlangt wiederum besondere Designs, beispielsweise das Signalling, um in Richtung Effizienz zu gehen, und auch diese Designs verursachen Kosten. Verhaltensunsicherheit verlangt besondere Instanzen, und diese sind nicht gratis.
Aus einer First-best-Lösung wird durch Unsicherheit eine Second-best-Lösung. Jedoch sind oft mehrere Second-best-Lösungen möglich. Leider fehlen einfache Kriterien, um aus verschiedenen Designs für eine Second-best-Welt ein überlegenes auszuwählen. Damit öffnet sich das Feld für die praktische Politik, auch die Ordnungspolitik. Durch die Unsicherheit mündet so die Analyse in die Politik der Gestaltung von Institutionen und von Rahmenbedingungen.
Literatur:
Bamberg, Günter/Spremann, Klaus : Agency Theory, Information and Incentives, New York 1985
Akerlof, George A. : The Market for „ Lemons “ : Qualitative Uncertainty and the Market Mechanism, in: Quarterly Journal of Economics, Jg. 84, 1970, S. 448 – 500
Arrow, Kenneth J. : The Role of Securities in the Optimal Allocation of Risk Bearing, in: Review of Economic Studies, Jg. 31, 1964, S. 91 – 96
Diamond, Peter/Rothschild, Michael : Uncertainty in Economics, New York 1978
Franke, Günter : Costless Signalling in Financial Markets, in: Journal of Finance, Jg. 42, 1987, S. 809 – 822
Grossman, Sanford J./Stiglitz, Joseph E. : Information and Competitive Price Systems, in: American Economic Review, Jg. 66, 1976, S. 246 – 253
Groves, Theodore : Incentives in Teams, in: Econometrica, Jg. 41, 1973, S. 617 – 631
Hayek, Friedrich A. : The Use of Knowledge in Society, in: American Economic Review, Jg. 35, 1945, S. 519 – 530
Hirshleifer, Jack : The Private and Social Value of Information and the Reward to Inventive Activity, in: American Economic Review, Jg. 61, 1971, S. 561 – 574
Hirshleifer, Jack/Riley, John G. : The Analytics of Uncertainty and Information (Cambridge Surveys of Economic Literature), Cambridge 1992
Kreps, David/Wilson, Robert : Reputation and Imperfect Information, in: Journal of Economic Theory, Jg. 27, 1982, S. 253 – 279
Maskus, Keith E. : Intellectual Property Rights in the Global Economy, Working Paper: Institute for International Economics 2000
Rothschild, Michael : Models of Market Organization With Imperfect Information: A Survey, in: Journal of Political Economy, Jg. 81, 1973, S. 1283 – 1308
Roy, Andrew D. : Safety First and the Holding of Assets, in: Econometrica, Jg. 20, 1952, S. 431 – 439
Spence, Michael : Market Signalling – Informational Transfer in Hiring and Related Screening Processes, Cambridge 1974
Spremann, Klaus : Asymmetrische Information, in: ZfB, Jg. 60, 1990, S. 561 – 586
Stigler, George J. : The Economics of Information, in: Journal of Political Economy, Jg. 69, 1961, S. 213 – 225
Thaler, Richard H. : The Winner\'s Curse Paradoxes and Anomalies of Economic Life, New York 1992
von Neumann, John/Morgenstern, Oskar : Theory of Games and Economic Behavior, Princeton 1944
|