Sonntag, 29. November 2009

The Forgotten Depression of 1920

This entry has been posted from the

Mises Daily: Friday, November 27, 2009 by
[This article was first published in the Fall 2009 issue of The Intercollegiate Review.]

It is a cliché that if we do not study the past we are condemned to repeat it. Almost equally certain, however, is that if there are lessons to be learned from an historical episode, the political class will draw all the wrong ones — and often deliberately so.

Far from viewing the past as a potential source of wisdom and insight, political regimes have a habit of employing history as an ideological weapon, to be distorted and manipulated in the service of present-day ambitions. That's what Winston Churchill meant when he described the history of the Soviet Union as "unpredictable."

For this reason, we should not be surprised that our political leaders have made such transparently ideological use of the past in the wake of the financial crisis that hit the United States in late 2007. According to the endlessly repeated conventional wisdom, the Great Depression of the 1930s was the result of capitalism run riot, and only the wise interventions of progressive politicians restored prosperity.

Many of those who concede that the New Deal programs alone did not succeed in lifting the country out of depression nevertheless go on to suggest that the massive government spending during World War II is what did it. (Even some nominal free marketeers make the latter claim, which hands the entire theoretical argument to supporters of fiscal stimulus.)

The connection between this version of history and the events of today is obvious enough: once again, it is claimed, wildcat capitalism has created a terrific mess, and once again, only a combination of fiscal and monetary stimulus can save us.

In order to make sure that this version of events sticks, little, if any, public mention is ever made of the depression of 1920–1921. And no wonder — that historical experience deflates the ambitions of those who promise us political solutions to the real imbalances at the heart of economic busts.

The conventional wisdom holds that in the absence of government countercyclical policy, whether fiscal or monetary (or both), we cannot expect economic recovery — at least, not without an intolerably long delay. Yet the very opposite policies were followed during the depression of 1920–1921, and recovery was in fact not long in coming.

The economic situation in 1920 was grim. By that year unemployment had jumped from 4 percent to nearly 12 percent, and GNP declined 17 percent. No wonder, then, that Secretary of Commerce Herbert Hoover — falsely characterized as a supporter of laissez-faire economics — urged President Harding to consider an array of interventions to turn the economy around. Hoover was ignored.

Instead of "fiscal stimulus," Harding cut the government's budget nearly in half between 1920 and 1922. The rest of Harding's approach was equally laissez-faire. Tax rates were slashed for all income groups. The national debt was reduced by one-third.

The Federal Reserve's activity, moreover, was hardly noticeable. As one economic historian puts it, "Despite the severity of the contraction, the Fed did not move to use its powers to turn the money supply around and fight the contraction." By the late summer of 1921, signs of recovery were already visible. The following year, unemployment was back down to 6.7 percent and it was only 2.4 percent by 1923.

It is instructive to compare the American response in this period to that of Japan. In 1920, the Japanese government introduced the fundamentals of a planned economy, with the aim of keeping prices artificially high. According to economist Benjamin Anderson,
The great banks, the concentrated industries, and the government got together, destroyed the freedom of the markets, arrested the decline in commodity prices, and held the Japanese price level high above the receding world level for seven years. During these years Japan endured chronic industrial stagnation and at the end, in 1927, she had a banking crisis of such severity that many great branch bank systems went down, as well as many industries. It was a stupid policy. In the effort to avert losses on inventory representing one year's production, Japan lost seven years.
The United States, by contrast, allowed its economy to readjust. "In 1920–21," writes Anderson,
we took our losses, we readjusted our financial structure, we endured our depression, and in August 1921 we started up again.… The rally in business production and employment that started in August 1921 was soundly based on a drastic cleaning up of credit weakness, a drastic reduction in the costs of production, and on the free play of private enterprise. It was not based on governmental policy designed to make business good.
The federal government did not do what Keynesian economists ever since have urged it to do: run unbalanced budgets and prime the pump through increased expenditures. Rather, there prevailed the old-fashioned view that government should keep taxation and spending low and reduce the public debt.

Those were the economic themes of Warren Harding's presidency. Few presidents have been subjected to the degree of outright ridicule that Warren Harding endured during his lifetime and continues to receive long after his death. But the conventional wisdom about Harding is wrong to the point of absurdity: even the alleged "corruption" of his administration was laughably minor compared to the presidential transgressions we have since come to take for granted.

In his 1920 speech accepting the Republican presidential nomination, Harding declared,
We will attempt intelligent and courageous deflation, and strike at government borrowing which enlarges the evil, and we will attack high cost of government with every energy and facility which attend Republican capacity. We promise that relief which will attend the halting of waste and extravagance, and the renewal of the practice of public economy, not alone because it will relieve tax burdens but because it will be an example to stimulate thrift and economy in private life.

Let us call to all the people for thrift and economy, for denial and sacrifice if need be, for a nationwide drive against extravagance and luxury, to a recommittal to simplicity of living, to that prudent and normal plan of life which is the health of the republic. There hasn't been a recovery from the waste and abnormalities of war since the story of mankind was first written, except through work and saving, through industry and denial, while needless spending and heedless extravagance have marked every decay in the history of nations.
It is hardly necessary to point out that Harding's counsel — delivered in the context of a speech to a political convention, no less — is the opposite of what the alleged experts urge upon us today. Inflation, increased government spending, and assaults on private savings combined with calls for consumer profligacy: such is the program for "recovery" in the 21st century.

Not surprisingly, many modern economists who have studied the depression of 1920–1921 have been unable to explain how the recovery could have been so swift and sweeping even though the federal government and the Federal Reserve refrained from employing any of the macroeconomic tools — public works spending, government deficits, and inflationary monetary policy — that conventional wisdom now recommends as the solution to economic slowdowns. The Keynesian economist Robert A. Gordon admitted that "government policy to moderate the depression and speed recovery was minimal. The Federal Reserve authorities were largely passive.… Despite the absence of a stimulative government policy, however, recovery was not long delayed."

Another economic historian briskly conceded that "the economy rebounded quickly from the 1920–1921 depression and entered a period of quite vigorous growth" but chose not to comment further on this development.  "This was 1921," writes the condescending Kenneth Weiher, "long before the concept of countercyclical policy was accepted or even understood."  They may not have "understood" countercyclical policy, but recovery came anyway — and quickly.

One of the most perverse treatments of the subject comes at the hands of two historians of the Harding presidency, who urge that without government confiscation of much of the income of the wealthiest Americans, the American economy will never be stable:
The tax cuts, along with the emphasis on repayment of the national debt and reduced federal expenditures, combined to favor the rich. Many economists came to agree that one of the chief causes of the Great Depression of 1929 was the unequal distribution of wealth, which appeared to accelerate during the 1920s, and which was a result of the return to normalcy. Five percent of the population had more than 33 percent of the nation's wealth by 1929. This group failed to use its wealth responsibly.… Instead, they fueled unhealthy speculation on the stock market as well as uneven economic growth.
If this absurd attempt at a theory were correct, the world would be in a constant state of depression. There was nothing at all unusual about the pattern of American wealth in the 1920s. Far greater disparities have existed in countless times and places without any resulting disruption.

In fact, the Great Depression actually came in the midst of a dramatic upward trend in the share of national income devoted to wages and salaries in the United States — and a downward trend in the share going to interest, dividends, and entrepreneurial income. We do not in fact need the violent expropriation of any American in order to achieve prosperity, thank goodness.

 It is not enough, however, to demonstrate that prosperity happened to follow upon the absence of fiscal or monetary stimulus. We need to understand why this outcome is to be expected — in other words, why the restoration of prosperity in the absence of the remedies urged upon us in more recent times was not an inconsequential curiosity or the result of mere happenstance.
First, we need to consider why the market economy is afflicted by the boom–bust cycle in the first place. The British economist Lionel Robbins asked in his 1934 book The Great Depression why there should be a sudden "cluster of error" among entrepreneurs.

Given that the market, via the profit-and-loss system, weeds out the least competent entrepreneurs, why should the relatively more skilled ones that the market has rewarded with profits and control over additional resources suddenly commit grave errors — and all in the same direction? Could something outside the market economy, rather than anything that inheres in it, account for this phenomenon?

Ludwig von Mises and F.A. Hayek both pointed to artificial credit expansion, normally at the hands of a government-established central bank, as the nonmarket culprit. (Hayek won the Nobel Prize in 1974 for his work on what is known as Austrian business-cycle theory.) When the central bank expands the money supply — for instance, when it buys government securities — it creates the money to do so out of thin air.

This money either goes directly to commercial banks or, if the securities were purchased from an investment bank, very quickly makes its way to the commercial banks when the investment banks deposit the Fed's checks. In the same way that the price of any good tends to decline with an increase in supply, the influx of new money leads to lower interest rates, since the banks have experienced an increase in loanable funds.

The lower interest rates stimulate investment in long-term projects, which are more interest-rate sensitive than shorter-term ones. (Compare the monthly interest paid on a thirty-year mortgage with the interest paid on a two-year mortgage — a tiny drop in interest rates will have a substantial impact on the former but a negligible impact on the latter.) Additional investment in, say, research and development (R&D), which can take many years to bear fruit, will suddenly seem profitable, whereas it would not have been profitable without the lower financing costs brought about by the lower interest rates.

We describe R&D as belonging to a "higher-order" stage of production than a retail establishment selling hats, for example, since the hats are immediately available to consumers while the commercial results of R&D will not be available for a relatively long time. The closer a stage of production is to the finished consumer good to which it contributes, the lower a stage we describe it as occupying.

On the free market, interest rates coordinate production across time. They ensure that the production structure is configured in a way that conforms to consumer preferences. If consumers want more of existing goods right now, the lower-order stages of production expand. If, on the other hand, they are willing to postpone consumption in the present, interest rates encourage entrepreneurs to use this opportunity to devote factors of production to projects not geared toward satisfying immediate consumer wants, but which, once they come to fruition, will yield a greater supply of consumer goods in the future.

Had the lower interest rates in our example been the result of voluntary saving by the public instead of central-bank intervention, the relative decrease in consumption spending that is a correlate of such saving would have released resources for use in the higher-order stages of production. In other words, in the case of genuine saving, demand for consumer goods undergoes a relative decline; people are saving more and spending less than they used to.

Consumer-goods industries, in turn, undergo a relative contraction in response to the decrease in demand for consumer goods. Factors of production that these industries once used — trucking services, for instance — are now released for use in more remote stages of the structure of production. Likewise for labor, steel, and other nonspecific inputs.

When the market's freely established structure of interest rates is tampered with, this coordinating function is disrupted. Increased investment in higher-order stages of production is undertaken at a time when demand for consumer goods has not slackened. The time structure of production is distorted such that it no longer corresponds to the time pattern of consumer demand. Consumers are demanding goods in the present at a time when investment in future production is being disproportionately undertaken.

Thus, when lower interest rates are the result of central bank policy rather than genuine saving, no letup in consumer demand has taken place. (If anything, the lower rates make people even more likely to spend than before.) In this case, resources have not been released for use in the higher-order stages. The economy instead finds itself in a tug-of-war over resources between the higher- and lower-order stages of production.
With resources unexpectedly scarce, the resulting rise in costs threatens the profitability of the higher-order projects. The central bank can artificially expand credit still further in order to bolster the higher-order stages' position in the tug of war, but it merely postpones the inevitable.

If the public's freely expressed pattern of saving and consumption will not support the diversion of resources to the higher-order stages, but, in fact, pulls those resources back to those firms dealing directly in finished consumer goods, then the central bank is in a war against reality. It will eventually have to decide whether, in order to validate all the higher-order expansion, it is prepared to expand credit at a galloping rate and risk destroying the currency altogether, or whether instead it must slow or abandon its expansion and let the economy adjust itself to real conditions.

It is important to notice that the problem is not a deficiency of consumption spending, as the popular view would have it. If anything, the trouble comes from too much consumption spending, and as a result too little channeling of funds to other kinds of spending — namely, the expansion of higher-order stages of production that cannot be profitably completed because the necessary resources are being pulled away precisely by the relatively (and unexpectedly) stronger demand for consumer goods. Stimulating consumption spending can only make things worse, by intensifying the strain on the already collapsing profitability of investment in higher-order stages.

"Mises compared an economy under the influence of artificial credit expansion to a master builder commissioned to construct a house that (unbeknownst to him) he lacks sufficient bricks to complete."
Note also that the precipitating factor of the business cycle is not some phenomenon inherent in the free market. It is intervention into the market that brings about the cycle of unsustainable boom and inevitable bust. As business-cycle theorist Roger Garrison succinctly puts it, "Savings gets us genuine growth; credit expansion gets us boom and bust."

This phenomenon has preceded all of the major booms and busts in American history, including the 2007 bust and the contraction in 1920–1921. The years preceding 1920 were characterized by a massive increase in the supply of money via the banking system, with reserve requirements having been halved by the Federal Reserve Act of 1913 and then with considerable credit expansion by the banks themselves.

Total bank deposits more than doubled between January 1914, when the Fed opened its doors, and January 1920. Such artificial credit creation sets the boom–bust cycle in motion. The Fed also kept its discount rate (the rate at which it lends directly to banks) low throughout the First World War (1914–1918) and for a brief period thereafter. The Fed began to tighten its stance in late 1919.

Economist Gene Smiley, author of The American Economy in the Twentieth Century, observes that "the most common view is that the Fed's monetary policy was the main determinant of the end of the expansion and inflation and the beginning of the subsequent contraction and severe deflation." Once credit began to tighten, market actors suddenly began to realize that the structure of production had to be rearranged and that lines of production dependent on easy credit had been erroneously begun and needed to be liquidated.

We are now in a position to evaluate such perennially fashionable proposals as "fiscal stimulus" and its various cousins. Think about the condition of the economy following an artificial boom. It is saddled with imbalances. Too many resources have been employed in higher order stages of production and too few in lower-order stages.

These imbalances must be corrected by entrepreneurs who, enticed by higher rates of profit in the lower-order stages, bid resources away from stages that have expanded too much and allocate them toward lower-order stages where they are more in demand. The absolute freedom of prices and wages to fluctuate is essential to the accomplishment of this task, since wages and prices are indispensable ingredients of entrepreneurial appraisal.

In light of this description of the postboom economy, we can see how unhelpful, even irrelevant, are efforts at fiscal stimulus. The government's mere act of spending money on arbitrarily chosen projects does nothing to rectify the imbalances that led to the crisis.

It is not a decline in "spending" per se that has caused the problem. It is the mismatch between the kind of production the capital structure has been misled into undertaking on the one hand, and the pattern of consumer demand, which cannot sustain the structure of production as it is, on the other.

And it is not unfair to refer to the recipients of fiscal stimulus as arbitrary projects. Since government lacks a profit-and-loss mechanism and can acquire additional resources through outright expropriation of the public, it has no way of knowing whether it is actually satisfying consumer demand (if it is concerned about this at all) or whether its use of resources is grotesquely wasteful. Popular rhetoric notwithstanding, government cannot be run like a business.

Monetary stimulus is no help either. To the contrary, it only intensifies the problem. In Human Action, Mises compared an economy under the influence of artificial credit expansion to a master builder commissioned to construct a house that (unbeknownst to him) he lacks sufficient bricks to complete. The sooner he discovers his error the better. The longer he persists in this unsustainable project, the more resources and labor time he will irretrievably squander.

Monetary stimulus merely encourages entrepreneurs to continue along their unsustainable production trajectories; it is as if, instead of alerting the master builder to his error, we merely intoxicated him in order to delay his discovery of the truth. But such measures make the eventual bust no less inevitable — merely more painful.

If the Austrian view is correct — and I believe the theoretical and empirical evidence strongly indicates that it is — then the best approach to recovery would be close to the opposite of these Keynesian strategies. The government budget should be cut, not increased, thereby releasing resources that private actors can use to realign the capital structure.

The money supply should not be increased. Bailouts merely freeze entrepreneurial error in place, instead of allowing the redistribution of resources into the hands of parties better able to provide for consumer demands in light of entrepreneurs' new understanding of real conditions. Emergency lending to troubled firms perpetuates the misallocation of resources and extends favoritism to firms engaged in unsustainable activities at the expense of sound firms prepared to put those resources to more appropriate uses.

This recipe of government austerity is precisely what Harding called for in his 1921 inaugural address:
We must face the grim necessity, with full knowledge that the task is to be solved, and we must proceed with a full realization that no statute enacted by man can repeal the inexorable laws of nature. Our most dangerous tendency is to expect too much of government, and at the same time do for it too little. We contemplate the immediate task of putting our public household in order. We need a rigid and yet sane economy, combined with fiscal justice, and it must be attended by individual prudence and thrift, which are so essential to this trying hour and reassuring for the future.…

The economic mechanism is intricate and its parts interdependent, and has suffered the shocks and jars incident to abnormal demands, credit inflations, and price upheavals. The normal balances have been impaired, the channels of distribution have been clogged, the relations of labor and management have been strained. We must seek the readjustment with care and courage.… All the penalties will not be light, nor evenly distributed. There is no way of making them so. There is no instant step from disorder to order. We must face a condition of grim reality, charge off our losses and start afresh. It is the oldest lesson of civilization. I would like government to do all it can to mitigate; then, in understanding, in mutuality of interest, in concern for the common good, our tasks will be solved. No altered system will work a miracle. Any wild experiment will only add to the confusion. Our best assurance lies in efficient administration of our proven system.

"We must proceed with a full realization that no statute enacted by man can repeal the inexorable laws of nature."

– Warren G. Harding

Harding's inchoate understanding of what was happening to the economy and why grandiose interventionist plans would only delay recovery is an extreme rarity among 20th-century American presidents. That he has been the subject of ceaseless ridicule at the hands of historians, to the point that anyone speaking a word in his favor would be dismissed out of hand, speaks volumes about our historians' capabilities outside of their own discipline.

The experience of 1920–1921 reinforces the contention of genuine free-market economists that government intervention is a hindrance to economic recovery. It is not in spite of the absence of fiscal and monetary stimulus that the economy recovered from the 1920–1921 depression. It is because those things were avoided that recovery came. The next time we are solemnly warned to recall the lessons of history lest our economy deteriorate still further, we ought to refer to this episode — and observe how hastily our interrogators try to change the subject.

Samstag, 28. November 2009

Rudolf WIMMER zur Krise unserer Denkmodelle

Leben wir in einer Gegenwart, die wir verstehen?

Erklärungsversuche, beispielsweise für die Finanzkrise, gibt es viele, ernst zu nehmende Gedanken stammen von Paul Krugman, Robert Shiller und  Howard Davies (s. Finanzmärkte laufen aus dem Ruder?!).

Im Grunde geht es um die Feststellung, dass unser Denken, das auf Kausalität beruht, wichtigen Bereichen unserer Lebenswelt nicht mehr angemessen ist.

Das Management Zentrum Witten veranstaltete kürzlich zu diesem Themenkomplex die

3. Biennale für Management und Beratung
19. - 21. November in Berlin

Im Rahmen dieser Vortragsveranstaltung gab Rudolf WIMMER folgende Stellungnahme ab:

Wir sind gerade Zeugen des Zusammenbruchs einer kollektiven Illusion, beruhend auf einem als ökonomische Rationalität getarnten magischen Denken. Im Finanzsektor war es normal, Renditen zwischen 20-30 % und mehr zu erwarten. Die Ertragschancen in der sogenannten Realwirtschaft, irgendwie im einstelligen Bereich herumkrebsend, wurden von den wirklich schlauen Akteuren auf den Finanz- und Kapitalmärkten lange Zeit nur milde belächelt. Das globale Pyramidenspiel hat ein abruptes Ende gefunden. Für die allermeisten kam dieses Ende überraschend, einige wenige haben es kommen sehen. Die Ertragserwartungen des Investmentbankings und der Kapitalmärkte wurzelten in einer magischen Vorstellungswelt, deren Realitätsferne solange unsichtbar bleiben konnte, als es gelang, die eingebauten Risiken in einem gigantischen, weltweiten Netz an sich wechselseitig beobachtenden und in ihre Anlagebereitschaft ständig stimulierenden Investoren zu verstecken. Faszinierend und zugleich beängstigend ist, wie die Instituionen der Aufsicht und die Wirtschaftswissenschaften diese kollektive Magie einer schieer grenzenlosen Bereicherung im selbstreferenziellen Zirkel miterzeugt und gestützt haben.

Mit den Folgen dieses Rausches werden wir über Jahre zu kämpfen haben. Wird dies zu nachhaltigeren Formen des Wirtschaftens, des Ressourcenverbrauchs, des Energie- und Rohstoffeinsatzes, zu einem achtsameren Balancieren der gesellschaftlichen und ökologischen Herausforderungen führen?

Die bisherigen Erfahrungen geben wenig Anlass zum Optimismus. Wir werden uns Schritt für Schritt aus den gegenwärtigen Schwierigkeiten herauswinden, sowie nach dem Platzen der New Economy - Blase auch, und auf die nächste Krise noch unbekannten Ausmaßes zusteuern. Zum Glück gibt es die sich immer weiter verfeinernde Systemtheorie, die diese Entwicklungen ein Stück weit beobachtbar und beschreibbar sowie als unausweichliches Moment gesellschaftlicher Evolution verstehbar macht.

Freitag, 27. November 2009

Vernetzung erhöht den Unternehmenswert?!

Wegen der fortschreitenden Vernetzung von Unternehmen stellen sich bei der Unternehmensbewertung drei Kardinalfragen:

  1. Was ist "vernetzendes Unternehmertum" bzw. was ist "Unternehmertum in Netzwerken"?

  2. Welche Schwierigkeiten gibt es bei der Bewertung unternehmerischer Gelegenheiten in vernetzten Unternehmen?

  3. Wie sieht es mit empirischen Nachweisen für eine Erhöhung des Unternehmenswertes durch Vernetzung aus?
Zu 1.

Klaus FICHTNER hat in seiner 2005 veröffentlichten Habilitationsschrift (Interpreneurship: Nachhaltigkeitsinnovationen in interaktiven Perspektiven eines vernetzenden Unternehmens, Marburg) den Begriff Interpreneurship geprägt. Dieses Konzept beschreibt die unternehmerische Rolle der Erzeugung neuer mentaler, organisationaler, institutioneller und intertemporaler Beziehungen (Netze) und die unternehmerische Rolle der Gestaltung und Nutzung von Akteursinteraktionen als Basis für die Entdeckung und Durchsetzung neuer Problemlösungen. Interpreneurship lässt sich somit sowohl als vernetzendes Unternehmertum wie auch als Unternehmertum in Netzwerken charakterisieren. Im Grunde geht es dabei um das Wechselspiel zwischen unternehmensinternen und unternehmensexternen Elementen bzw. Kräften.

Zu 2.

Die Bewertung unternehmerischer Gelegenheiten ist von besonderer Bedeutung. Die Fähigkeit, gute Geschäftsmöglichkeiten zu erkennen und umsetzen zu können ist der wichtigste Erfolgsfaktor eines Unternehmens. Dieser Erfolgsfaktor ist weder imitierbar noch reproduzierbar und deshalb wichtig zur Erlangung von Wettbewerbsvorteilen. Einige der global bedeutendsten Unternehmen haben es derartigen Fähigkeiten zu verdanken, dass sie in ihrer Frühphase (Start - up) sogar ohne Businessplan erfolgreich gewesen sind. Jüngstes Beispiel ist Chad Hurley, Mitgründer und CEO von youtube.

Ronny BAIERL hat FICHTNERs Konzept des Interpreneurship aufgegriffen. Er befasst sich im Rahmen seines Dissertationsvorhabens mit der interessanten Frage nach der Bewertung unternehmerischer Gelegenheiten (Opportunities) in vernetzten Unternehmen. In vernetzten Unternehmen werden Entscheidungen für oder gegen eine unternehmerische Gelegenheit häufig von mehreren Personen getroffen. Zu den dabei auftretenden Schwierigkeiten schreibt BAIERL:

Solche Mehrpersonenentscheidungen können als konstituierendes Merkmal sowohl im Bereich der Intra- als auch in der Interpreneurshipforschung bezeichnet werden, wenngleich sie ebenfalls bei der Bewertung einer Opportunity in Gründerteams auftreten können. Während jedoch auf der Ebene der Entre- beziehungsweise Intrapreneurshipforschung die Entscheidungsträger ausschließlich einer (noch zu gründenden) Unternehmung angehören, können sie im Interpreneurship in unterschiedlichen Organisationen verbunden sein. Hierbei kommen zunächst Unternehmungen entlang der auf Porter zurückzuführenden Wertschöpfungskette - klassischerweise Zulieferer - Hersteller - Absatzmittler in Frage. Diese enge Auffassung kann jedoch auf andere Teilnehmer eines bestehenden Netzwerks - wie beispielsweise kooperierende Forschungsinstituionen oder sogar auf die insbesondere aus Marketingsicht relevante Kundenperspektive - erweitert werden. Dieses Vorgehen lässt sich schon allein aus der geforderten Marktorientiertheit allen unternehmerischen Handelns legitimieren. Die nachvollziehbare Abbildung der Entscheidungsfindung in einem solchen Gefüge stellt hohe Anforderungen an die zugrunde liegenden Methoden und Instrumente. Im Rahmen der bevorstehenden Arbeit wird ein Verfahren vorgestellt, das ausgehend von einer - vor allem aus dem Marktforschungsbereich stammenden - Limit-Conjoint-Analyse auf diesen Anwendungsbereich übertragen wurde. Zu diesem Zweck müssen in einem ersten Schritt die für die Bewertung der Opportunity verantwortlichen Personen im Netzwerk der Unternehmung identifiziert werden, um anschließend deren Einflusswerte auf die Gesamtentscheidung statistisch ermitteln zu können. Hierdurch wird zum einen die Modellierung des Entscheidungsprozesses ermöglicht sowie zum anderen durch eine Modifikation des bestehenden Verfahrens die Validität und Reliabilität und damit letztendlich die Aussagekraft des erhobenen Datenmaterials erhöht. Im weiteren Fortgang der Untersuchung dienen diese Daten der Examination eines spezifischen Rollenverhaltens der unternehmensinternen Entscheidungsträger. So ist zu vermuten, dass diesen - ähnlich dem Verhalten bei Entscheidungen in organisationalen Beschaffungsprozessen - eindeutig identifizierbare Rollen zugeordnet werden können. Des Weiteren können mit Hilfe der generierten Einflusswerte sowohl Promotoren als auch Opponenten identifiziert werden. Neben Fach-, Macht- und Prozesspromotoren beziehungsweise -opponenten ist im Rahmen der Interpreneurshipkonstruktion vor allem dem Beziehungspromotor besondere Aufmerksamkeit zu schenken. Ergänzend zeigt sich an dieser Stelle die Abgrenzung des Interpreneurship zu dem augenscheinlich eng verwandten Gebiet des Innovationsmanagement: Ausgehend von der Entrepreneurshipdomain von Shane, die die Verbindung zwischen Opportunity und Individuum (in diesem Fall dem Entrepreneur) in den Vordergrund stellt, findet sich dieses konstituierende Merkmal ebenso auf dem Gebiet des Interpreneurship. Dies wird durch den ebenfalls auf die persönlichen Ressourcen des Entrepreneur abzielenden Effectationsansatz gestützt. Diesem Ansatz folgend werden vor allem in Entscheidungssituationen höchster Unsicherheit - wie sie im Entrepreneurship aufgrund des hohen Innovationsgrads vorzufinden sind - selbstgewählte Stakeholder in einem persönlichen Netzwerk proaktiv zusammengestellt und zur Umsetzung der Opportunity am Markt genutzt. Folgerichtig bedeutet dies für das Interpreneurship, die Ressourcen für die erfolgreiche Umsetzung einer Opportunity nicht nur in der eigenen Unternehmung - wie dies beim Intrapreneurship der Fall wäre - zu suchen, sondern aktiv das Netzwerk der Unternehmung zu nutzen. 

(Ronny Baierl / Dietmar Grichnik: Interpreneurship - Inflationäre Erweiterung der Entrepreneurshipforschung oder wertorientierte Managementkonzeption?, in: Finanzbetrieb, Juni 2008, S. 453-456)

Zu 3.

Die Erfassung des "interpreneuralen" Charakters des Unternehmensnetzwerkes ist schwierig. 

Ronny BAIERL zieht Einträge in etablierten Firmendatenbanken bezüglich des Investitionsverhaltens in unternehmerische Gelgenheiten vernetzter Unternehmen heran, so genanntes Corporate Venture Capital. Um empirisch evidente Aussagen zu generieren, müssen diese Daten mit denen gegensätzlicher Unternehmen konfrontiert werden. 

Man darf auf die Ergebnisse dieses wichtigen Dissertationsvorhabens gespannt sein. 

Dipl. oec. Ronny Baierl ist wissenschaftlicher Mitarbeiter und Doktorand von Prof. Dr. Dietmar Grichnik am Lehrstuhl für Betriebswirtschaftslehre, insbesondere Unternehmertum und Existenzgründung, Stiftungslehrstuhl der Prof. Otto Beisheim - Stiftung, an der WHU - Otto Beisheim School of Management, Vallendar.

Live Streaming der Klausur zur Krise des Managements

Manche Topmanager verstehen die Unternehmen, die sie lenken, nicht mehr. Lehman Brothers, GM, Hypo Real Estate und Quelle sind nur Beispiele. 

Im Juli diesen Jahres hatte Stefan HAGEN, pm-blog, einen Beitrag mit dem Titel Was ist Management? verfasst, der mehr als 60 Kommentare ausgelöst hat. Selbst Fredmund MALIK beteiligte sich an dieser sehr lebhaft und durchaus kontrovers geführten Diskussion. In den nächsten Tagen wird dieser Diskurs bei einem persönlichen Treffen fortgesetzt. Wer möchte, kann einiges auf TWITTER mitverfolgen.

Nun ist es soweit. Heute, 14:00 bis 20:00 Uhr,  findet eine Klausur zu diesem Thema statt.
Live - Streaming

Mittwoch, 25. November 2009

The Next Generation of Innovators

This entry has been cross-posted from the White - House - Blog.

By John P. Holdren & Melody Barnes

President Obama today helped launch a new campaign, “Educate to Innovate,” designed  to energize and excite America’s students in science, technology, engineering and mathematics (STEM).  It builds on the President’s pledge that he would use his position to help encourage students to study and consider careers in science, engineering, technology, and innovation—fields upon which America’s future depends—and elevate those students from the middle to the top of the pack worldwide.

At today’s kick-off event, President Obama announced the launch of five major public-private partnerships that have committed to helping unleash the power of media, interactive games, hands-on learning, and community volunteers to reach millions of students over the next four years, inspiring them to become the next generation of engineers and scientists, inventors and innovators.

The new campaign builds on the President’s Inaugural Address, which included a vow to put science “in its rightful place.” One of those rightful places, of course, is the classroom. Yet too often our schools lack support for teachers or the other resources needed to convey the practical utility and remarkable beauty of science and engineering. As a result, students become overwhelmed in their classes and ultimately disengaged. They lose, and our nation loses too.

The partnerships launched today aim to change that. They respond to a challenge made by the President in April, when he spoke at the annual meeting of the National Academy of Sciences and asked the nation’s philanthropists, professional and educational societies, corporations, and individuals to collaborate and innovate with the goal of reinvigorating America’s STEM educational enterprise. The partnerships announced today -- dramatic commitments in the hundreds of millions of dollars, generated through novel collaborations and creative outreach activities -- are just the first wave of commitments anticipated in response to his call.

Think about how you or your organization can build on this momentum. And let’s pull together to open our children’s eyes to the countless ways in which science, engineering, and math can help America and the world find solutions to the many challenges we face.

John P. Holdren is Assistant to the President for Science and Technology and the Director of White House Office of Science and Technology Policy

Melody C. Barnes is an Assistant to the President and the Director of the Domestic Policy Council

Dienstag, 24. November 2009

Dirk BAECKER zur Krise unserer Denkmodelle

Leben wir in einer Gegenwart, die wir verstehen?

Erklärungsversuche, beispielsweise für die Finanzkrise, gibt es viele, ernst zu nehmende Gedanken stammen von Paul Krugman, Robert Shiller und  Howard Davies (s. Finanzmärkte laufen aus dem Ruder?!).

Im Grunde geht es um die Feststellung, dass unser Denken, das auf Kausalität beruht, wichtigen Bereichen unserer Lebenswelt nicht mehr angemessen ist.

Das Management Zentrum Witten veranstaltete kürzlich zu diesem Themenkomplex die

3. Biennale für Management und Beratung
19. - 21. November in Berlin

Im Rahmen dieser Vortragsveranstaltung gab Dirk BAECKER folgende Stellungnahme ab:

Ein gutes Stichwort zur Beschreibung der gegenwärtigen Weltlage lautet: Krisenkultur. Wir haben es nicht nur mit einer Krise zu tun, wir pflegen sie auch, wir vergleichen sie mit anderen Krisen und wir fragen uns, wie es sich im Umgang mit einer Kultur gehört, ob wir wohl mit derselben Identität aus der Krise herauskommen, wie wir glauben, hineingegangen zu sein. 

Die ganze Welt steht zur Diskussion, und mit ihr die politischen und wirtschaftlichen Gewichte zwischen erster, zweiter und dritter Welt, zwischen Industrie, Dienstleistung und Finanzierung, zwischen Produktion, Konsum und Spekulation. Welche Spiele spielen wir? Auf welche Zukunft setzen wir? Auf wen kann man sich noch verlassen? Die Systemtheorie übersetzt diese großen paktischen Fragen in trockene analytische Fragen: Welche Ereignisse zählen? Wie können wir sie ordnen? Was sollten wir besser austauschen?

Aber auch die Systemtheorie weiß, dass die Diagnose der Situation nicht für sich stehen kann, sondern Entscheidungen erfordert und die für diese erforderliche Mobilisierung eines freien Willens. Die Krise, das ist die Gesellschaft, sagte Niklas Luhmann. Wir dürfen ergänzen: Die Krise, das ist auch die Stunde des freien Willens. Eine Krisenkultur ist eine Kultur, die die Möglichkeit des freien Willens vorsichtig, fast demütig, umkreist.


Die Krise des Managements in einer komplexen Welt

Manche Topmanager verstehen die Unternehmen, die sie lenken, nicht mehr. Lehman Brothers, GM, Hypo Real Estate und Quelle sind nur Beispiele. 

Im Juli diesen Jahres hatte Stefan HAGEN, pm-blog, einen Beitrag mit dem Titel Was ist Management? verfasst, der mehr als 60 Kommentare ausgelöst hat. Selbst Fredmund MALIK beteiligte sich an dieser sehr lebhaft und durchaus kontrovers geführten Diskussion. In den nächsten Tagen wird dieser Diskurs bei einem persönlichen Treffen fortgesetzt. Wer möchte, kann einiges auf TWITTER mitverfolgen.

Im Grunde geht es dabei um das Thema der Selbstorganisation:

Seit ungefähr 45 Jahren befassen sich Wissenschaftler transdisziplinär mit der Entwicklung von Ordnung in Systemen (= Selbstorganisation). Das bekannteste Urkonzept stammt von den Biologen MATURANA und VARELA, die sich mit selbst aufbauenden Systemen (Autopoiese) beschäftigt haben.

Seit den 1980er Jahren diffundiert diese Idee der Selbstorganisation und die damit einhergehende Erwartung, sich ein Instrument zur Komplexitätsbewältigung erschließen zu können, auch in die Betriebswirtschaft.

MALIK hat sie in sein Konzept einer „Evolutionären Unternehmensführung“ übertragen. Ziel ist es, die Gefahren unbewältigter Komplexität zu vermeiden und die Chancen aus dem richtigen Umgang mit ihr zu nutzen. Die begrenzte Steuerbarkeit von Unternehmen ist eine zentrale Annahme seines Ansatzes. MALIK leitet Unternehmens-Ziele aus dem Generalziel „Steigerung der Überlebensfähigkeit“ ab. Nach ASHBY ist ein System dann überlebensfähig, wenn es genügend Varietät (Komplexität) zur Lösung komplexer Umweltprobleme erzeugen kann. Das evolutionäre Management nach MALIK versucht daher, soviel Varietät im System Unternehmen zu erzeugen, wie möglich, z.B. durch die Anwendung von komplexen statt einfachen Erklärungsmodellen oder durch die ständige Bereitschaft, sich auf unvorhersebare Ereignisse neu einstellen zu können (Fehlertoleranz).

Wer kennt die Lehre vom Zusammenwirken? In ihr wird vor allem die spontane Entstehung von Ordnungszuständen in Systemen untersucht. Der deutsche Physiker HAKEN führte 1969 dafür den Begriff SYNERGETIK ein. Heute sind Synergien in aller Munde …

Montag, 23. November 2009

Private Equity Barometer

Private Equity in der deutschen Wirtschaft, Jan. - Sep. 2009 (Marktstatistik)

  • Investitionsvolumen von Private Equity - Gesellschaften in Deutschland: 1.455,76 Mio. €, (1. Hj. 2009: 618,63 Mio. €) in 905 (629) Unternehmen, davon

  • early stage: 231,21 Mio. € in 443 Unternehmen,

  • later stage: 189,85 Mio. € in 270 Unternehmen,

  • growth:      276,48 Mio. € in  92 Unternehmen,

  • turn-around: 51,6 Mio. € in 29 Unternehmen,

  • replacement capital: 60,52 € in 14 Unternehmen,

  • buy-out: 646,10 Mio. € in 57 Unternehmen.

Die Totalverluste des 3. Quartals 2009 sind durch einen einzigen großen Ausfall auf 275,47 Mio. € / 57 Unternehmen angestiegen; Q1: 78,72 Mio. € / 52 Unternehmen, Q2: 93,44 Mio. € / 47 Unternehmen.

Trotz dieses Anstiegs bei den Totalverlusten ist das Gesamtbild aufgrund der im Jahresverlauf belebten Investitionstätigkeit durchaus erfreulich. Im Vergleich zu den Vorjahren setzte sich der Marktrückgang jedoch fort.

(Quelle: BVK Bundesverbank Deutscher Kapitalbeteiligungsgesellschaften. Der deutsche Beteiligungsmarkt im 3. Quartal 2009)

Zur Güte der Gewinnschätzungen von Aktienanalysten

Aktienanalysten lösen immer dann einen Herdentrieb aus, wenn sie sich der Konsensschätzung aller anderen Analysten anschließen. Dies führt zu kumulativen Prozessen am Aktienmarkt. Rober Shiller nennt es Irrational Exuberance, irrationalen Überschwang.

Rational handelnde Analysten bilden sich selbst eine Meinung zu den Gewinnaussichten des zu analysierenden Unternehmens. Was beeinflusst diese Analysten bzw. welche Determinanten beeinflussen die Güte der Gewinnschätzungen von Wertpapieranalysten?

Dieser Frage ist die DEUTSCHE BUNDESBANK nachgegangen:

Wertpapieranalysten fungieren in gewisser Weise als Bindeglied zwischen den von ihnen beobachteten Unternehmen und potenziellen Investoren beziehungsweise Marktbeobachtern, sodass sie auch als Informationsintermediäre angesehen werden können. Ihre Aufgabe besteht darin, eine Vielzahl von Informationen unterschiedlicher Qualität zu sammeln, auszuwerten und - im Fall einer Gewinnschätzung - zu einer einzigen Zahl zu verdichten. Das Ergebnis ihrer Analyse wird in der Regel prominent veröffentlicht, wohingegen zu dem vorangegangenen Entscheidungsfindungsprozess keine Informationen bekannt gegeben werden. Allerdings ermöglicht erst die Kenntnis der die Entscheidung beeinflussenden Faktoren, fundierte Aussagen über die Qualität und Rationalität der gemachten Prognosen zu treffen. Im Folgenden werden verschiedene Determinanten analysiert, die auf den Entscheidungsprozess und die Prognosegüte eines Wertpapieranalysten einen Einfluss haben können. Dabei wird unterschieden, inwieweit einerseits das individuelle Umfeld die Vorhersagequalität bestimmt und andererseits öffentlich verfügbare Informationen ihren Niederschlag in den Prognosen finden.

Unabhängig von den zu überprüfenden Determinanten muss im Rahmen einer empirischen Untersuchung zur Prognosequalität grundsätzlich für den Vorhersagehorizont kontrolliert werden, der als zeitliche Differenz (in der Regel in Monaten) zwischen der Prognoseerstellung und dem Ende der prognostizierten Geschäftsjahre definiert wird. Erwartungsgemäß ergibt sich hier ein negativer Zusammenhang: Mit zunehmendem Prognosehorizont nimmt die Qualität der Vorhersagen ab. Ebenso kann auch das jeweilige Geschäftsjahr einen spezifischen Einfluss ausüben, was in einer Analyse entsprechend berücksichtigt werden muss.

Analysten- und brokerspezifische Faktoren

Unterschiede in der Prognosequalität einzelner Analysten lassen sich zum Teil mit dem individuellen Umfeld beziehungsweise analystenspezifischen Eigenschaften erklären. Verschiedene Studien zeigen etwa, dass eine lange Berufserfahrung die Prognosequalität signifikant positiv beeinflusst. Begründet wird dies zum einen mit einem Learning-by-doing-Effekt: Eine längere Ausübung der Analystentätigkeit trägt zu einer großen Erfahrung in diesem Berufsfeld bei, was entsprechend zu besseren Vorhersageergebnissen führt. Darüber hinaus führen Hong und Kubik (2003) für in den USA tätige Analysten an, dass eine Weiterbeschäftigung in dieser Branche eng an die Qualität der Prognosen geknüpft sei. Das bedeutet, dass Analysten mit vergleichsweise vielen Berufsjahren bereits einen Selektionsprozess durchlaufen haben, in dem sie sich gegen andere Konkurrenten durchgesetzt haben. Allerdings hat sich die positive Korrelation von Berufserfahrung und Prognosequalität insbesondere für europäische Analysten als schwach oder gar nicht vorhanden herausgestellt, wofür als Begründung unter anderem eine andere Anreizstruktur angeführt wird. Die Literatur differenziert daher noch einmal zwischen allgemeiner und unternehmensspezifischer Berufserfahrung. Letztere bezieht sich ausschließlich auf den Zeitraum, über den ein einzelner Analyst ein bestimmtes Unternehmen beobachtet. Der dabei gefundene positive Zusammenhang erweist sich in der empirischen Analyse in der Regel als robust, was unter anderem auf eine mit zunehmenden Berufsjahren immer besser etablierte Kommunikationsstruktur des Analysten zum Management des beobachteten Unternehmens zurückgeführt wird.

Eine weitere analystenspezifische Determinante, die in empirischen Studien auf einen potenziellen Effekt hin untersucht wird, ist die Anzahl der Prognosen, die ein Analyst in einem Geschäftsjahr für ein Unternehmen erstellt. Wenn eine große Anzahl von Revisionen notwendig ist, deutet dies auf Schwierigkeiten einer adäquaten Einschätzung hin, was gerade zu Beginn des Geschäftsjahres zu einem entsprechenden negativen Zusammenhang zwischen dieser Variable und der Prognosegüte führt. Dagegen sollte zum Ende des Geschäftsjahres die entsprechende Anzahl der Revisionen für die notwendigen Angleichungen gesorgt haben, sodass kein statistisch signifikanter Unterschied mehr feststellbar ist.

Zu der Gruppe der brokerspezifischen Faktoren zählt etwa die Größe des Portfolios, das ein einzelner Analyst zu betreuen hat. Hier geht die Theorie von einem negativen Zusammenhang aus. Je mehr Unternehmen beziehungsweise Sektoren ein Analyst zu beobachten hat, desto weniger Zeit bleibt ihm für die Analyse eines bestimmten Unternehmens, was sich entsprechend an einem signifikant größeren Prognosefehler ablesen lässt.

Auch die Größe des Arbeitgebers, bei dem der Analyst beschäftigt ist, erweist sich in verschiedenen Studien als statistisch signifikant. Insbesondere US - amerikanische Studien zeigen, dass Analysten, die bei größeren Analysehäusern beschäftigt sind, bessere Prognosen erstellen als ihre Kollegen aus kleineren Häusern. Eine mögliche Begründung dafür könnte zum einen darin liegen, dass die Analysten großer Brokerhäuser einen leichteren Zugang zum Unternehmensmanagement haben. Auch könnte ihnen eine bessere Ressourcenausstattung zur Verfügung stehen. Nicht zuletzt auf Grund der zuvor genannten Gründe gelten die größten Analystenhäuser als die attraktivsten Arbeitgeber, sodass möglicherweise auch die besseren Analysten dort beschäftigt sind. Allerdings lässt sich dieses Argument nicht ohne Weiteres auf den europäischen Markt übertragen, da die Analystenhäuser bei der Auswahl ihrer zukünftigen Mitarbeiter nicht in derselben Ausschließlichkeit wie in den USA auf die vergangene individuelle Prognosequalität setzen.

Auch wenn mit Hilfe der zuvor genannten Variablen versucht wird, einen möglichst großen Teil der unterschiedlichen Prognosequalität mit analysten- und brokerspezifischem Verhalten zu erklären, bleibt doch ein großer unerklärter Rest, der dazu führt, dass sich in der Regel neben den genannten Determinanten auch die vergangene analystenspezifische Prognosequalität als hoch signifikant herausstellt. So zeigt Brown, dass ein einfaches Modell, in dem ausschließlich die individuelle vergangene Prognosequalität als erklärende Variable enthalten ist, einen genauso guten Erklärungsgehalt liefert wie ein Modell mit den zuvor beschriebenen Charakteristika des Analysten.

Verarbeitung allgemein verfügbarer Informationen

Wie bereits erwähnt besteht die eigentliche Leistung eines Finanzanalysten darin, vorhandene Informationen zu sammeln, zu gewichten und zu komprimieren. Eine wichtige und in der Literatur intensiv diskutierte Informationsquelle stellt fraglos die aktuelle Durchschnittsprognose der anderen Analysten - Kollegen dar. Dabei befindet sich der einzelne Analyst zunächst in der gleichen Situation wie die anderen, unbeteiligten Marktteilnehmer. Auf der einen Seite kennt er zwar das Ergebnis der vorliegenden Konsens-Schätzung, auf der anderen Seite weiß er nicht, welche Faktoren bei seinen Kollegen im Entscheidungsprozess eine Rolle gespielt haben. Im Gegensatz zu anderen Marktteilnehmern hat der Analyst auf Grund seiner eigenen Prognose allerdings eine Vorstellung davon, wie sich die Konsensschätzung ändern könnte.

Nach der Definiton von Banerjee (1992) wird das Verhalten des einzelnen Analysten genau dann als nicht rationales Herdenverhalten klassifiziert, wenn sich seine Prognose ausschließlich aus der Konsensschätzung der anderen Analysten speist und er eigene Informationen entsprechend vernachlässigt. Empirisch ist ein Verhalten nach dieser Definition allerdings schwer nachzuweisen. Da verschiedene Analysten normalerweise auf ähnliche Informationssignale reagieren, ist es wahrscheinlich, dass sie auch zu ähnlichen Empfehlungen kommen. In diesem Fall ist es also nicht eindeutig, ob Parallelbewegungen bei den Gewinnrevisionen der Analysten auf Herdenverhalten oder lediglich auf die gleiche Informationsgrundlage zurückzuführen sind. Clement, Hales und Xue (2007) weisen für die USA nach, dass die Konsensprognose durchaus auf rationale Weise verwertet wird. Danach bezieht ein einzelner Analyst die Informationen aus der Gemeinschaftsvorhersage umso stärker in die eigene Prognose ein, je größer die Anzahl ist, die an der entsprechenden Prognose beteiligt waren. In diesem Fall - wenn der Analyst die Konsensprognose als eine von mehreren Informationsquellen benutzt - kann sie zu einer Verbesserung der eigenen Prognosequalität führen. Insofern wäre es voreilig, den Nachweis eines Einflusses der Konsensprognose auf die Analystenentscheidung als nicht rationales Verhalten zu charakterisieren. Für Deutschland weisen Naujoks et al. (2009) sogar nach, dass die Analysten sich in ihren Prognosen systematisch von der Konsensprognose absetzen, um besser wahrgenommen zu werden ("Anti - Herding".

Ähnlich wie bei der Konsensprognose verhält es sich mit der vergangenen Aktienkursentwicklung. Auch wenn es sich um öffentlich bekannte und verfügbare Informationen handelt, kann die Berücksichtigung der Aktienkurse durchaus zur Verbesserung der Qualität von Gewinnprognosen beitragen.

Eine weitere Informationsquelle, bei der man ein ähnliches Analystenverhalten erwarten würde, ist der makroökonomische Ausblick. Sowohl unerwartete Veränderungen als auch eine gestiegene Unsicherheit bezüglich der zukünftigen gesamtwirtschaftlichen Entwicklung sollten die analystenspezifische Gewinnprognose entsprechend beeinflussen.

Zitierte Literatur:

Hong/Kubik: Analyzing the Analysts. Career Concerns and Biased Forecasts, in: Journal of Finance 58, 2003, S. 313-351.

Brown: How Important is Past Analyst Forecast Accuracy?, in: Financial Analysts Journal 57, 2001, S. 44-49.

Banerjee: A Simple Model of Herd Behaviour, in: Quarterly Journal of Economics 57, 1992, S. 797-817.

Clement/Hales/Xue: When Do Financial Analysts Look to Others for Answers?, Working Paper, 2007.

Naujoks/Aretz/Kerl/Walter: Do German Security Analysts Herd?, in: Financial Markets and Portfolio Management 23, 2009, S. 3-29.

Sonntag, 22. November 2009

Verbrauchte Zukünfte in der Unternehmensbewertung

Das Planen in Szenarien ist mittlerweile auch bei kleinen und mittleren Unternehmen zum Standard geworden. Der Unternehmensbewertung eröffnet dies die Möglichkeit einer Auffächerung des Unternehmenswertes in Abhängigkeit von den Prämissen des jeweiligen Szenarios. Die Darstellung einer Bandbreite für den Unternehmenswert im Bewertungsgutachten entspricht dem Gedanken: Risiko als Ergebnis, nicht als Determinante der Unternehmensbewertung.

Das Planen in Szenarien zum Zwecke der Unternehmensbewertung setzt voraus, dem jeweiligen Szenario eine Eintrittswahrscheinlichkeit zuzuordnen. In der Praxis wird dies der Bewerter gemeinsam mit dem Management des zu bewertenden Unternehmens tun. In diesem Kontext ist die Frage interessant, ob durch das Zuordnen von Eintrittswahrscheinlichkeiten und somit auch von Werten zu Szenarien deren Wahrscheinlichkeit verändert wird. Im Rahmen der

3. Biennale für Management und Beratung
19. - 21. November in Berlin

hielt Elena ESPOSITO einen Vortrag über die Beziehung von Zeit und Geld. Es werden unterschiedliche Szenarien (Zukünfte) entworfen, ihre Wahrscheinlichkeiten kalkuliert und dann entsprechende Wetten (bei Finanzderivaten) platziert. Mit dem Entwurf einer auf diese Weise bestimmten Zukunft und der Wette auf sie, wird die Wahrscheinlichkeit, dass sie so, wie gewettet, eintritt, verändert, ja, es wird höchst unwahrscheinlich, dass sie so eintritt. Da unterschiedliche Zukünfte auf diese Weise entworfen und damit auch verworfen werden, spricht sie von “verbrauchter Zukunft”.

Elena Esposito

(Quelle: Simons Systemische Kehrwoche

Funktioniert der deutsche Kapitalmarkt?

Die gängigen Modelle zur Unternehmensbewertung setzen, wenn nicht einen vollkommenen, so doch einen funktionierenden Kapitalmarkt, voraus. Wer ein Unternehmen kaufen will, muss die Möglichkeit haben, für diesen Zweck eine Finanzierung zu erhalten.

2009 sind die Private Equity Investitionen deutscher Beteiligungsgesellschaften auf das Niveau von 1997/98 zurückgefallen. Für Unternehmensbeteiligungsgesellschaften ist Liquidität momentan wichtiger als ein gutes Investment. Entsprechendes gilt für Unternehmen, die Finanzierungsbedarf haben; sie sind in ihrer Investitionstätigkeit eingeschränkt, weil es ihnen schwer fällt, Eigen- oder Fremdkapital am Markt zu erhalten. Für letzteres hat sich bereits der Begriff "Kredithürde" eingebürgert.

Das Ifo - Institut berichtete im Rahmen seines Konjunkturtestes im Oktober 2009:

Kredithürde gesunken

Die Kredithürde für die gewerbliche Wirtschaft Deutschlands ist im Oktober etwas gesunken. Von den befragten Unternehmen bewerten 41,7% die Kreditvergabe der Banken als restriktiv. Im September stuften noch 43,7% die Vergabepraxis als zurückhaltend ein. Aus diesem Rückgang kann jedoch noch keine Entspannung der Finanzierungssituation abgeleitet werden. Insbesondere große Unternehmen treffen auf eine restriktive Kreditvergabepraxis der Banken. 

Im verarbeitenden Gewerbe hat die Kredithürde über alle Unternehmensgrößenklassen hinweg abgenommen. Besonders deutlich ist der Rückgang bei den kleinen Unternehmen. Nach 43,2% im Vormonat berichten aktuell 38,3% der kleinen Firmen über schwierige Kreditverhandlungen. Bei den mittelgroßen Unternehmen hat die Kredithürde von 41,7% auf nun 40,8% abgenommen. Von den großen Unternehmen beklagt seit nunmehr neun Monaten über die Hälfte der Befragungsteilnehmer eine restriktive Kreditvergabe der Banken. Der Anteil der „Restriktiv“-Meldungen hat sich aktuell aber von 54,5% auf 51,5% reduziert.

Im Handel hat sich die Finanzierungssituation um 2,3 Prozentpunkte verbessert. 37,6% der Befragungsteilnehmer bewerten die Kreditvergabe der Banken als zurückhaltend. Im Bauhauptgewerbe ist die Kredithürde dagegen gestiegen. Sie liegt hier nun auf 47,1% nach 46,5% im Vormonat.  

Hans-Werner Sinn
Präsident des ifo Instituts für Wirtschaftsforschung an der Universität München

 Was sagt die DEUTSCHE BUNDESBANK zum Thema Kredithürde? In ihrem Monatsbericht September 2009 liest man:

Die Entwicklung der Kredite an den privaten Sektor in Deutschland während der globalen Finanzkrise

Das Kreditgeschäft inländischer Banken mit dem privaten Sektor in Deutschland hat sich seit Sommer 2008 deutlich abgeschwächt. Dies gilt insbesondere für die seit Jahresbeginn rückläufigen Ausleihungen an nichtfinanzielle Unternehmen. Vor dem Hintergrund der Finanzkrise hat dies zu der Befürchtung einer Kreditklemme geführt. Dabei besteht die Hauptsorge darin, dass eine solche Kreditangebotsbeschränkung entweder die konjunkturelle Schwäche spürbar verstärken oder eine sich abzeichnende realwirtschaftliche Erholung behindern könnte.

Insgesamt ergibt die Betrachtung einer breiten Palette von Indikatoren gegenwärtig keine stichhaltigen Hinweise auf eine bereits bestehende Kreditklemme in Deutschland. Die Abschwächung der Kreditvergabe an nichtfinanzielle Unternehmen lässt sich gut mit den traditionellen Einflussfaktoren erklären, insbesondere mit der schwachen realwirtschaftlichen Entwicklung.

Perspektivisch besteht aber die Möglichkeit, dass das Kreditangebot der Banken in der Frühphase des sich abzeichnenden, allmählichen konjunkturellen Erholungsprozesses in Deutschland hinter dem Bedarf der Unternehmen zurückbleiben und so  den Aufschwung erschweren könnte. Aus heutiger Sicht stellt eine solche Entwicklung zwar ein Risiko dar, nicht aber das wahrscheinlichste Szenario.

Das Auftreten einer ausgeprägten Kreditangebotsknappheit wird von der Bundesbank also lediglich als Risiko - Szenario und nicht als gesamtwirtschaftliches Basis - Szenario betrachtet. Allerdings: Je länger sich der Bilanzbereinigungsprozess der Banken hinzieht, desto mehr könnte dieses Risiko - Szenario an Relevanz gewinnen.

Um dem Finanzsystem den Anpassungsprozess zu erleichtern, hat die Bundesbank die breit angelegten Stabilisierungsmaßnahmen des Sonderfonds Finanzmarktstabilisierung in Form von Garantien für neu emittierte Bankschuldverschreibungen und Rekapitalisierungsmaßnahmen eingerichtet. Ferner eröffnet das Gesetz zur Fortentwicklung der Finanzmarktstabilisierung über die Einrichtung so genannter Bad Banks die Möglichkeit, stark risikobehaftete Forderungen auszulagern und dadurch das bestehende Eigenkapital zu schonen. Nehmen die betroffenen Banken die von der Bundesregierung angebotenen Instrumente auch zügig in Anspruch?