venerdì 25 dicembre 2015

Sicurezza e democrazia

« De l’Etat de droit à l’Etat de sécurité », par Giorgio Agamben
                   
Les historiens savent parfaitement que c’est le contraire qui est vrai. L’état d’urgence est justement le dispositif par lequel les pouvoirs totalitaires se sont installés en Europe. Ainsi, dans les années qui ont précédé la prise du pouvoir par Hitler, les gouvernements sociaux-démocrates de Weimar avaient eu si souvent recours à l’état d’urgence (état d’exception, comme on le nomme en allemand), qu’on a pu dire que l’Allemagne avait déjà cessé, avant 1933, d’être une démocratie parlementaire.
Or le premier acte d’Hitler, après sa nomination, a été de proclamer un état d’urgence, qui n’a jamais été révoqué. Lorsqu’on s’étonne des crimes qui ont pu être commis impunément en Allemagne par les nazis, on oublie que ces actes étaient parfaitement légaux, car le pays était soumis à l’état d’exception et que les libertés individuelles étaient suspendues.
On ne voit pas pourquoi un pareil scénario ne pourrait pas se répéter en France  : on imagine sans difficulté un gouvernement d’extrême droite se servir à ses fins d’un état d’urgence auquel les gouvernements socialistes ont désormais habitué les citoyens. Dans un pays qui vit dans un état d’urgence prolongé, et dans lequel les opérations de police se substituent progressivement au pouvoir judiciaire, il faut s’attendre à une dégradation rapide et irréversible des institutions publiques.

Entretenir la peur

Cela est d’autant plus vrai que l’état d’urgence s’inscrit, aujourd’hui, dans le processus qui est en train de faire évoluer les démocraties occidentales vers quelque chose qu’il faut, d’ores et déjà, appeler Etat de sécurité (« Security State », comme disent les politologues américains). Le mot « sécurité » est tellement entré dans le discours politique que l’on peut dire, sans crainte de se tromper, que les « raisons de sécurité » ont pris la place de ce qu’on appelait, autrefois, la « raison d’Etat ». Une analyse de cette nouvelle forme de gouvernement fait, cependant, défaut. Comme l’Etat de sécurité ne relève ni de l’Etat de droit ni de ce que Michel Foucault appelait les « sociétés de discipline », il convient de poser ici quelques jalons en vue d’une possible définition.
Dans le modèle du Britannique Thomas Hobbes, qui a si profondément influencé notre philosophie politique, le contrat qui transfère les pouvoirs au souverain présuppose la peur réciproque et la guerre de tous contre tous : l’Etat est ce qui vient justement mettre fin à la peur. Dans l’Etat de sécurité, ce schéma se renverse : l’Etat se fonde durablement sur la peur et doit, à tout prix, l’entretenir, car il tire d’elle sa fonction essentielle et sa légitimité.
Foucault avait déjà montré que, lorsque le mot « sécurité » apparaît pour la première fois en France dans le discours politique avec les gouvernements physiocrates avant la Révolution, il ne s’agissait pas de prévenir les catastrophes et les famines, mais de les laisser advenir pour pouvoir ensuite les gouverner et les orienter dans une direction qu’on estimait profitable.

Aucun sens juridique

De même, la sécurité dont il est question aujourd’hui ne vise pas à prévenir les actes de terrorisme (ce qui est d’ailleurs extrêmement difficile, sinon impossible, puisque les mesures de sécurité ne sont efficaces qu’après coup, et que le terrorisme est, par définition, une série des premiers coups), mais à établir une nouvelle relation avec les hommes, qui est celle d’un contrôle généralisé et sans limites – d’où l’insistance particulière sur les dispositifs qui permettent le contrôle total des données informatiques et communicationnelles des citoyens, y compris le prélèvement intégral du contenu des ordinateurs.
Le risque, le premier que nous relevons, est la dérive vers la création d’une relation systémique entre terrorisme et Etat de sécurité : si l’Etat a besoin de la peur pour se légitimer, il faut alors, à la limite, produire la terreur ou, au moins, ne pas empêcher qu’elle se produise. On voit ainsi les pays poursuivre une politique étrangère qui alimente le terrorisme qu’on doit combattre à l’intérieur et entretenir des relations cordiales et même vendre des armes à des Etats dont on sait qu’ils financent les organisations terroristes.
Dans un pays qui vit dans un état d’urgence prolongé, et dans lequel les opérations de police se substituent progressivement au pouvoir judiciaire, il faut s’attendre à une dégradation rapide et irréversible des institutions publiques
Un deuxième point, qu’il est important de saisir, est le changement du statut politique des citoyens et du peuple, qui était censé être le titulaire de la souveraineté. Dans l’Etat de sécurité, on voit se produire une tendance irrépressible vers ce qu’il faut bien appeler une dépolitisation progressive des citoyens, dont la participation à la vie politique se réduit aux sondages électoraux. Cette tendance est d’autant plus inquiétante qu’elle avait été théorisée par les juristes nazis, qui définissent le peuple comme un élément essentiellement impolitique, dont l’Etat doit assurer la protection et la croissance.
Or, selon ces juristes, il y a une seule façon de rendre politique cet élément impolitique : par l’égalité de souche et de race, qui va le distinguer de l’étranger et de l’ennemi. Il ne s’agit pas ici de confondre l’Etat nazi et l’Etat de sécurité contemporain : ce qu’il faut comprendre, c’est que, si on dépolitise les citoyens, ils ne peuvent sortir de leur passivité que si on les mobilise par la peur contre un ennemi étranger qui ne leur soit pas seulement extérieur (c’étaient les juifs en Allemagne, ce sont les musulmans en France aujourd’hui).

Incertitude et terreur

C’est dans ce cadre qu’il faut considérer le sinistre projet de déchéance de la nationalité pour les citoyens binationaux, qui rappelle la loi fasciste de 1926 sur la dénationalisation des « citoyens indignes de la citoyenneté italienne » et les lois nazies sur la dénationalisation des juifs.
Un troisième point, dont il ne faut pas sous-évaluer l’importance, est la transformation radicale des critères qui établissent la vérité et la certitude dans la sphère publique. Ce qui frappe avant tout un observateur attentif dans les comptes rendus des crimes terroristes, c’est le renoncement intégral à l’établissement de la certitude judiciaire.
Alors qu’il est entendu dans un Etat de droit qu’un crime ne peut être certifié que par une enquête judiciaire, sous le paradigme sécuritaire, on doit se contenter de ce qu’en disent la police et les médias qui en dépendent – c’est-à-dire deux instances qui ont toujours été considérées comme peu fiables. D’où le vague incroyable et les contradictions patentes dans les reconstructions hâtives des événements, qui éludent sciemment toute possibilité de vérification et de falsification et qui ressemblent davantage à des commérages qu’à des enquêtes. Cela signifie que l’Etat de sécurité a intérêt à ce que les citoyens – dont il doit assurer la protection – restent dans l’incertitude sur ce qui les menace, car l’incertitude et la terreur vont de pair.
C’est la même incertitude que l’on retrouve dans le texte de la loi du 20 novembre sur l’état d’urgence, qui se réfère à « toute personne à l’égard de laquelle il existe de sérieuses raisons de penser que son comportement constitue une menace pour l’ordre public et la sécurité ». Il est tout à fait évident que la formule « sérieuses raisons de penser » n’a aucun sens juridique et, en tant qu’elle renvoie à l’arbitraire de celui qui « pense », peut s’appliquer à tout moment à n’importe qui. Or, dans l’Etat de sécurité, ces formules indéterminées, qui ont toujours été considérées par les juristes comme contraires au principe de la certitude du droit, deviennent la norme.

Dépolitisation des citoyens

La même imprécision et les mêmes équivoques reviennent dans les déclarations des femmes et hommes politiques, selon lesquelles la France serait en guerre contre le terrorisme. Une guerre contre le terrorisme est une contradiction dans les termes, car l’état de guerre se définit précisément par la possibilité d’identifier de façon certaine l’ennemi qu’on doit combattre. Dans la perspective sécuritaire, l’ennemi doit – au contraire – rester dans le vague, pour que n’importe qui – à l’intérieur, mais aussi à l’extérieur – puisse être identifié en tant que tel.
Maintien d’un état de peur généralisé, dépolitisation des citoyens, renoncement à toute certitude du droit : voilà trois caractères de l’Etat de sécurité, qui ont de quoi troubler les esprits. Car cela signifie, d’une part, que l’Etat de sécurité dans lequel nous sommes en train de glisser fait le contraire de ce qu’il promet, puisque – si sécurité veut dire absence de souci (sine cura) – il entretient, en revanche, la peur et la terreur. L’Etat de sécurité est, d’autre part, un Etat policier, car, par l’éclipse du pouvoir judiciaire, il généralise la marge discrétionnaire de la police qui, dans un état d’urgence devenu normal, agit de plus en plus en souverain.
Par la dépolitisation progressive du citoyen, devenu en quelque sorte un terroriste en puissance, l’Etat de sécurité sort enfin du domaine connu de la politique, pour se diriger vers une zone incertaine, où le public et le privé se confondent, et dont on a du mal à définir les frontières.
Giorgio Agamben est un philosophe italien, spécialiste de la pensée de Walter Benjamin, de Heidegger, de Carl Schmitt et d’Aby Warburg.


 

ARTE & MERCATO

Questa volta, scrive Le Monde, "Tout a commencé au cours de la semaine de septembre 2008 où Lehman Brothers s’effondre à New York en entraînant à sa suite le marché financier, où la cote de Damian Hirst monte vertigineusement à Londres, chez Sotheby’s, où Jeef Koons lance à Versailles de nouvelles stratégies de globalisation de l’art. En 2008, la place de Paris était déconsidérée dans les milieux de l’art contemporain. Les galeries new-yorkaises n’y ont aucune succursale. Les inspecteurs de la création dirigent de façon princière la vie artistique en France depuis 24 ans.
Jean Jacques Aillagon, est président du domaine de Versailles, après avoir été président du Centre Pompidou et ministre de la Culture. Il ouvre le bal de l’Art contemporain (AC), à Versailles. Événement si nouveau qu’il trouble à jamais, le vieil ordre régalien de l’art en France. Ce soir-là, l’hégémonie incontestée du corps des inspecteurs de la création fut renversée. L’apothéose de la soirée fut le dîner de gala offert par un roturier, l’hyper collectionneur François Pinault, en partie propriétaire des œuvres exposées et également employeur de Jean Jacques Aillagon. La presse people était là et l’on put voir, le lendemain dans les kiosques, les photos des personnalités ayant participé à la fabrique des produits financiers artistiques célébrés dans les salons et jardins du palais. On vit autour des tables toute la chaîne de production : l’artiste, les critiques, intellectuels, prescripteurs, galeries, experts, les membres de l’orchestre médiatique, les personnalités institutionnelles en charge de la légitimation et enfin le cercle des collectionneurs garants de la valeur faciale des œuvres d’art exposées.

Un réseau fonde la valeur financière de l’art

L’observation simultanée de la chute des produits financiers dérivés et de la découverte du réseau fondant la valeur financière de l’art, permit au grand public français de comprendre, enfin, comment on pouvait créer la valeur d’un produit sans valeur. Sept ans durant, se reproduisit la même célébration : dîner, spectacle, excès, blasphèmes officiels – mélodrame médiatique – guerre entre les bons transgresseurs et les méchants transgresseurs de la transgression. La cotation financière de l’AC se construit en partie sur l’hyper visibilité engendrée par le choc et le scandale. Piéger les regardeurs, incorporer leurs réactions au processus de l’événement est l’essentiel de l’œuvre.
Le public de 2008 à 2015 a progressivement compris comment il était instrumentalisé. Il a mûri, s’est informé et a décrypté la nature de sa contribution à la montée de la cote. Il est sorti de la sidération. Il pense que les institutions d’Etat devraient elles aussi s’abstenir de participer aux divertissements enrichissants des grandes fortunes mondiales, se souvenir qu’ils sont au service du contribuable. L’ostentation des produits artistiques ambigus à Versailles, mi produits financiers- mi sermons ecclésiastiques, peinent à convaincre un public européen qui a une conception humaniste de l’art et attend autre chose. C’est pourquoi, une protestation s’organisa pour la première fois et descendit dans la rue.
Provoquée et espérée par les producteurs de l’œuvre, elle fut uniquement interprétée comme une résistance résiduelle, réactionnaire et donc « nauséabonde ». L’idée que cela puisse venir de l’exercice de l’esprit critique et de la compréhension des stratégies marketing au service de la cote, et de leur contenu plus cynique que moral n’a pas effleuré les fonctionnaires de l’art en France. L’idée qu’il puisse exister une dissidence ne leur est jamais venue à l’esprit. Ils pensent sincèrement qu’il n’existe aucune opposition à leur politique autre que diabolique.

Dissidence

La France serait-elle un pays sans dissidence artistique et intellectuelle ? Il n’en est rien ! Depuis 1983 s’est installé un art officiel radical qui n’a pas fait l’unanimité. Beaucoup d’auteurs ont écrit, analysé, débattu. Le débat est intense, mais souterrain. Les fonctionnaires de la rue de Valois ont fait le choix, dès les années 1980, de l’art conceptuel. Ce fut l’unique « contemporanéité » admise. Simultanément ils ont pris leurs références à New York et son marché. Ils ont exclu et diabolisé tous les autres courants picturaux présents en France. Après 2000, la globalisation a eu pour résultat de rendre de plus en plus visible la collaboration intense entre Art d’Etat et Art Financier. En 2009, le Financial art international devient dominant en France. Les galeries new-yorkaises s’installent à Paris, la formule marketing de Versailles est appliquée au Louvre et autres lieux de prestige. Les inspecteurs de la création deviennent publiquement les desservants des grands collectionneurs de l’AC.
Anomalie qui n’échappe à personne car la dissidence existe, le samizdat Internet fonctionne, enquête, informe et décrypte. Les fonctionnaires et commentateurs de l’art s’affrontent désormais à une circulation d’idées et d’informations qu’ils ne contrôlent plus. Ils ont perdu le monopole, plus encore ils sont observés, commentés, raillés car leur vie, en symbiose avec le marché, rend difficile leur positionnement de rebellocrâtes. Ils ressentent un réel malaise devant l’obligation d’encenser les méthodes de com. de Mc Carthy, Koons et Kapour. Leur intellectualité de haute voltige, transgressive et moralisatrice, peine entre obligation de prescription et devoir de critique. Pathétiques, leurs contorsions verbales sont très appréciées et brocardées sur le Net.
La question est donc dans l’air : à quoi servent les inspecteurs de la création ? Ils décident de l’art en France, mettent le poids de l’Etat sur le marché, créent conflits d’intérêt, une concurrence déloyale envers toute autre forme de création autonome. Ce clergé simoniaque livre, sans contrepartie, les lieux symboliques à la déconstruction et à la dérision et permet un transfert d’aura vers des produits financiers. Ils participent au financement de ces expositions, distribuent la Légion d’honneur aux artistes, collectionneurs, galeristes du très haut marché où ne figure aucun artiste vivant et travaillant en France. Est-ce le rôle de la fonction publique de soutenir le Financial Art et son quasi-monopole ?
Aude de Kerros, est l’auteur notamment de l’Art Caché, les dissidents de l’Art contemporain, Eyrolles, 2007 et de L’Apothéose de l’Art contemporain – Pronostic vital, Eyrolles, 2015.

giovedì 24 dicembre 2015

Guida per i peplessi

Guida per i perplessi A cura di Corrado Bevilacqua
I libri di laprimaradice.myblog.it
LA CRISI DEL 2008
Fra la metà degli anni Novanta del 20° secolo e i primi sei anni di quello successivo, scrisse Luigi Spaventa a proposito della crisi del 2008, l’economia mondiale conobbe uno sviluppo senza precedenti nella storia per intensità, continuità e diffusione. Nuove economie, quelle dette emergenti, soprattutto dell’Asia, ma anche dell’America Latina, si scossero dal torpore del sottosviluppo e si affacciarono con prepotenza sulla scena del commercio mondiale. Le economie mature continuarono nel loro progresso, coniugando una crescita soddisfacente con un’occupazione alta e un’inflazione bassa. All’interno di ciascun Paese aumentavano, è vero, le disuguaglianze, ma i livelli di benessere comunque miglioravano.
Luigi Spaventa. Economista e uomo politico, nato a Roma il 5 marzo 1934. Laureatosi in giurisprudenza presso l'Università degli studi di Roma nel 1957, ha proseguito gli studi postuniversitari presso il King's College di Cambridge. Professore di politica economica all'università di Palermo (1963-64), di economia all'università di Perugia (1964-70) e di economia politica all'Università di Roma "La Sapienza" (dal 1971), è stato visiting fellow all'All Souls College della University of Oxford. Deputato indipendente (eletto nelle liste del PCI) dal 1976 al 1983, nel 1984 è stato visiting scholar al Fondo monetario internazionale. Ha svolto la sua attività professionale presso organismi pubblici, in qualità di consulente di numerosi ministri (dal socialista A. Giolitti negli anni Sessanta, a G. Amato nel 1992), di presidente della Commissione del Tesoro sulla gestione del debito pubblico (1988-89) e di membro di altre commissioni del Tesoro (dal 1992 al 1993). È stato ministro del Bilancio e della Programmazione economica nel governo Ciampi (dall'aprile 1993 al maggio 1994). Ha ricoperto numerosi incarichi presso banche e importanti aziende (dal 1997 al 1998 è stato presidente del Monte dei Paschi di Siena). È membro del Fondo interbancario di tutela dei depositi e dell'Associazione bancaria italiana. Nel maggio 1998 è succeduto a T. Padoa Schioppa alla presidenza della CONSOB.
Interessato alle problematiche relative allo sviluppo economico e alla distribuzione del reddito a livello sia empirico sia applicato, S. si è in seguito sempre più occupato di temi di politica economica. Figura di primo piano nel dibattito italiano su tali argomenti, ha spesso mosso critiche ai programmi e agli interventi dell'esecutivo, in contrasto con i maggiori attori e interpreti delle politiche economiche adottate, e i suoi severi interventi hanno fornito spunto a numerose discussioni sulle azioni di governo dagli anni Sessanta a oggi. È considerato uno dei protagonisti del risanamento dell'economia italiana durante i primi anni Novanta. Ispiratore e fondatore, con A. Pedone e G. Ruffolo, del CER (Centro Europa Ricerche), è membro dell'Economic Advisory Board della Banca europea per la ricostruzione e lo sviluppo.
Tra le sue pubblicazioni si ricordano: Nuovi problemi di sviluppo economico (1962); Appunti del corso di economia politica (1968; 1971²); High public debt: the Italian experience (in collab. con F. Giavazzi, 1988); La teoria dei giochi e la politica economica (1989). Ha inoltre pubblicato numerosi saggi in riviste e libri
italiani e stranieri, tra cui si ricordano: Dualism in economic growth, in Banca Nazionale del Lavoro, Quarterly review, December 1959, pp. 386-434; Rate of profit, rate of growth, and capital intensity in a simple production model, in Oxford economic papers, July 1970, pp. 129-47; The growth of public debt in Italy: past experience, perspectives and policy problems, in Banca Nazionale del Lavoro, Quarterly review, June 1984, pp. 119-49; Italy: the real effects of inflation and disinflation, in Economic policy, April 1989, pp. 133-71 (in collab. con F. Giavazzi); The political economy of European monetary integration, in Banca Nazionale del Lavoro, Quarterly review, March 1990, pp. 3-20; The spread on German interest rates, in Economic Journal, 1997, pp. 956-85 (in collab. con C. Favero, F. Giavazzi).
Vi furono, in questo periodo, due crisi finanziarie di non piccola portata: la prima, nel 1997-98, dovuta al collasso di alcuni Paesi asiatici e della Russia e, a seguire, di un grandissimo fondo di investimento; l’altra, proprio all’inizio del nuovo secolo, con una caduta pronunciata e prolungata del mercato azionario come reazione agli eccessi speculativi del quinquennio precedente. In entrambi i casi, tuttavia, la crisi rimase geograficamente contenuta, e le conseguenze sull’economia reale furono relativamente modeste. Anzi, gli anni successivi al 2002 e prima della grande crisi saranno ricordati come quelli più scintillanti in un periodo d’oro della storia capitalistica: crescita del prodotto mondiale elevata e stabile, guidata dalle economie emergenti, e al contempo bassa inflazione, che pareva giustificare politiche monetarie accomodanti; tumultuoso sviluppo della finanza, in condizioni di abbondante liquidità, con bassi tassi d’interesse; un’ampia e crescente disponibilità di credito per investimenti in attività reali e in impieghi finanziari; volatilità singolarmente bassa delle variabili sia reali sia finanziarie e, in conseguenza, riduzione del rischio percepito. Parevano rimossi i vincoli di bilancio: non vi fu chi scrisse di una ‘fine della storia (economica)’, ma lo spirito dei tempi era quello.
Avvenne invece che il periodo d’oro ebbe una fine improvvisa e traumatica. All’inizio dell’estate 2007, nei mercati si comprese che le crescenti insolvenze dei mutui ipotecari liberalmente concessi negli Stati Uniti avrebbero causato un sostanziale deprezzamento di una buona parte delle attività finanziarie legate al credito fondiario. Quello shock, che in sé pareva poca cosa rispetto alle dimensioni dell’industria finanziaria mondiale, bastò a far collassare l’intero castello di carte che anni di crescita incontrollata e poi degenerata della finanza avevano eretto. Le conseguenze ben si possono definire epocali. Una crisi finanziaria senza precedenti si è manifestata in una caduta drastica e improvvisa dei prezzi di prodotti finanziari privi ormai di mercato; nel venir meno della fiducia reciproca nelle relazioni fra controparti dell’industria finanziaria, con il blocco delle arterie che distribuiscono il credito all’economia e tassi di mercato monetario a livelli record; in un processo disordinato di contrazione del credito; in perdite sempre più gravi subite dalle banche; in un crollo delle borse; in un’impennata della volatilità. Negli Stati Uniti e nel Regno Unito sono falliti o sono finiti in amministrazione controllata grandissimi istituti che dominavano la finanza mondiale, e con essi decine di banche locali e storiche istituzioni del credito fondiario. Le banche centrali hanno messo in opera interventi senza precedenti per dimensione e natura. Non solo negli Stati Uniti, l’intervento pubblico, un tempo deprecato, è stato invocato per sostenere o ricapitalizzare le banche, le cui perdite, in continuo aumento, sfiorano oggi i 3000 miliardi di dollari. Le perdite dovute al crollo dei mercati azionari e alla caduta dei prezzi degli immobili si misurano in decine di migliaia di miliardi.
Sin dal 2008, la crisi finanziaria si è trasmessa all’economia reale: prima negli Stati Uniti, poi nelle altre economie industrializzate, infine nel mondo intero. Il rallentamento della crescita è divenuto
recessione: nel 2009, per la prima volta dal secondo dopoguerra, si è verificata una riduzione del prodotto mondiale, con una caduta ancora maggiore della produzione industriale e una caduta a due cifre dei volumi del commercio. Secondo le previsioni del Fondo monetario internazionale, fra il 2007 e il 2010 il tasso di disoccupazione nelle maggiori economie avanzate sarà aumentato di quasi quattro punti. Per intensità e diffusione, questa grande recessione è sinora grave come la fase iniziale della grande depressione degli anni Trenta (Eichengreen, O’Rourke 2009). L’intervento della politica economica, oggi più tempestivo e deciso, probabilmente impedirà che essa si trasformi in una lunga depressione, ma, anche nella migliore delle ipotesi, la ripresa sarà lenta.
Le crisi finanziarie, assai numerose nella storia economica, hanno tutte alcuni tratti comuni, ma anche cause e caratteristiche specifiche a ciascuna di esse (v. Sviluppo finanziario e crisi finanziarie). Quella di oggi, gravissima, trova le sue premesse nella persistenza di squilibri macroeconomici a livello mondiale, nell’accelerazione incontrollata dell’innovazione finanziaria, in un clima ideologico che ha favorito la deregolamentazione dei mercati (v. All’origine della crisi). In quell’ambiente, le patologie di uno sviluppo finanziario privo di vincoli e regole hanno reso il sistema del tutto instabile (v. La degenerazione del nuovo modello). L’instabilità si è manifestata quando una piccola spinta ha messo in moto una reazione a catena, che ha quasi provocato il meltdown del sistema. I responsabili della politica economica, colti di sorpresa, non sono riusciti a prevenire l’aggravarsi della crisi: pur se disordinate e sovente inefficaci, le reazioni sono state tuttavia decise e di segno giusto, diversamente che negli anni Trenta (v. La crisi). Dalla crisi presto o tardi si uscirà, ma almeno per un po’ di tempo il mondo sarà ben diverso da quello degli anni ruggenti della finanza (v. Guardando oltre).
In generale lo sviluppo economico è associato allo sviluppo finanziario, che è ‘misurato’ dalla possibilità di accesso al finanziamento esterno da parte di soggetti le cui decisioni di spesa sarebbero altrimenti vincolate dal reddito disponibile. Il nesso è duplice. Un’infrastruttura finanziaria efficiente assicura le condizioni e crea gli strumenti affinché il risparmio di chi ha un eccesso di reddito rispetto alla spesa trovi impiego presso i soggetti che si trovano in situazione opposta: la disponibilità di finanziamento (maggiore quando non vi sono ostacoli al movimento dei capitali) consente di sfruttare meglio le opportunità d’investimento produttivo; l’innovazione degli strumenti finanziari amplia la scelta delle combinazioni fra rischi e rendimento offerta al risparmiatore-investitore finanziario.
Se vi è complementarietà fra sviluppo fisiologico della finanza e crescita dell’economia, è anche vero che il settore finanziario è a continuo rischio di instabilità a motivo di sue caratteristiche intrinseche. La finanza è a trade in promises, uno scambio di promesse – di restituire il capitale, di pagare gli interessi, di non svuotare e defraudare l’azienda di cui si sono emesse azioni – che si basa necessariamente sulla fiducia. Gli intermediari finanziari operano una trasformazione di passività liquide a breve termine in attività meno liquide a lungo termine. Ogni evento che incrini la fiducia o che renda impossibile il mantenimento delle promesse è la premessa di una crisi finanziaria, che avviene quando i creditori delle istituzioni finanziarie, non più fidandosi, non rinnovano il credito.
Come osservava Charles P. Kindleberger (Manias, panics, and crashes. A history of financial crises, 1978; trad. it. 1981), nella storia economica le crisi finanziarie sono una robusta pianta perenne, che ritroviamo in varie guise in tempi e luoghi diversi: due studiosi statunitensi, Carmen M. Reinhart e Kenneth S. Rogoff (2008), hanno contato e classificato le tante registrate da otto secoli di storia economica. Condividono tutte alcune caratteristiche, sia nella genesi, sia nel modo in cui si dispiegano (Bordo 2007). Sovente segnano la fine brusca di quei periodi di euforia in cui un ottundimento della percezione del rischio dà luogo a una bolla speculativa, alimentata da una forte espansione del credito, e pertanto del grado di indebitamento, e spesso da ardite innovazioni finanziarie. Il gregge degli investitori, che prima spingeva al rialzo, cerca di fuggire da impieghi finanziari improvvisamente
ritenuti troppo rischiosi; crollano in conseguenza i prezzi di intere classi di strumenti finanziari; cade la liquidità, mentre il credito improvvisamente si contrae per mancanza di fiducia; i bilanci delle banche, gonfiatisi nel periodo di euforia, subiscono una forte contrazione. L’illiquidità di alcuni intermediari può trasformarsi in insolvenza, con effetti di contagio sui mercati finanziari. Le crisi finanziarie solitamente segnano una svolta del ciclo economico, deprimendo l’attività sia attraverso una caduta di prezzi delle attività reali sottostanti a quelle finanziarie (spesso gli immobili residenziali), sia attraverso la contrazione del credito.
La teoria economica più recente ha elaborato eleganti modelli formalizzati di crisi finanziarie (per una rassegna, v. Allen, Gale 2007). Pur se offrono strumenti utili di interpretazione, tali modelli presentano limiti notevoli, non solo perché privi di generalità, ma soprattutto perché rappresentano gli episodi di instabilità finanziaria come esito di comportamenti razionali degli operatori. La crisi in atto, per la sua genesi e per le sue modalità di svolgimento, ha reso quei limiti del tutto evidenti (tanto che fra le sue vittime figura anche una parte rilevante della teoria economica). Accantonati i modelli recenti, è parso naturale tornare alla visione keynesiana delle motivazioni degli investimenti finanziari (ripresa in Akerlof, Shiller 2009) e richiamare una più antica e solida letteratura, che ben percepiva alcune patologie intrinseche ai sistemi finanziari (soprattutto in una serie di contributi di Hyman Ph. Minsky, in particolare Financial stability revised: the economics of disaster, «Reappraisal of the Federal reserve discount mechanism», 1972, 3, pp. 97-136, e Can ‘it’ happen gain? Essays on instability and finance, 1982). Comunque, al di là della comunanza di alcuni tratti generali, ogni crisi finanziaria è diversa dalle altre per le cause specifiche che l’hanno innescata, per i modi in cui si manifesta, per la gravità e per la diffusione: l’analisi di ciascuna di esse, anche se deve avvalersi di strumenti teorici, appartiene dunque alla storia economica.
In quella, gravissima, di cui ci si occupa in queste pagine, l’espansione del credito, e pertanto dell’indebitamento, che è un tratto comune a precedenti episodi, è avvenuta a ritmi straordinari e con modalità inconsuete. Almeno tre i fattori che l’hanno favorita: gli squilibri macroeconomici mondiali; l’innovazione finanziaria nell’ambito del nuovo modello di trasferimento del rischio di credito; il sostegno della teoria economica all’ideologia prevalente.
In ogni momento vi sono Paesi in cui la produzione e il reddito eccedono la domanda interna (per consumi, investimenti, spesa pubblica) e altri in cui avviene l’opposto: gli uni sono esportatori netti di beni e servizi, gli altri importatori netti; l’avanzo di bilancia corrente con l’estero dei primi genera flussi di risparmio che si dirigono verso i secondi per finanziarne l’indebitamento. In un mondo di economie aperte questi squilibri sono fisiologici. Cessano di esserlo, tuttavia, e pongono problemi di stabilità, quando assumono connotazioni strutturali per la loro dimensione e per la loro persistenza, com’è avvenuto dalla seconda metà degli anni Novanta del secolo scorso.
In questo periodo, due gruppi di Paesi si sono collocati in situazioni opposte. Nel primo, di cui gli Stati Uniti sono l’esponente principale, la propensione a spendere ben più del reddito prodotto non ha trovato costrizioni. Il secondo gruppo, composto soprattutto di Paesi emergenti e in cui la Cina rappresenta l’elemento di dimensioni maggiori, si è caratterizzato per un’elevata capacità di esportazione e per una bassa propensione alla spesa interna, soprattutto per consumi. Il primo gruppo ha registrato di conseguenza disavanzi persistenti e crescenti con l’estero (i quali misurano un risparmio negativo a livello aggregato), che negli Stati Uniti hanno superato il 6% del PIL; il secondo, con avanzi crescenti, ha generato un flusso corrispondente di risparmio positivo (fra il 2000 e il 2008 le riserve ufficiali in valuta estera della Cina sono aumentate da 165 a oltre circa 1900 miliardi di dollari, in prevalente contropartita di un aumento dell’indebitamento statunitense). È questa la ‘sovrabbondanza di risparmio’, il savings glut, di cui ha parlato Ben S. Bernanke. Ma, affinché la
disponibilità di risparmio cinese per finanziare gli eccessi di spesa statunitensi potesse realizzarsi, occorreva che quegli eccessi non trovassero vincoli di natura macroeconomica o microeconomica: altrimenti gli squilibri sarebbero stati minori, e pro tanto minore la disponibilità internazionale di risparmio.
Sul versante macroeconomico, trattandosi di grandi economie con valute impiegate come mezzo di pagamento e di riserva, non operarono quelle costrizioni esterne sulla bilancia dei pagamenti che limitano la libertà di economie più piccole. Di più, la politica economica condotta nel periodo dell’amministrazione Bush contribuì alla crescita della spesa interna sia con una politica di bilancio fortemente espansiva, sia con una politica monetaria straordinariamente permissiva sino al 2004. Soprattutto, l’innovazione finanziaria, incoraggiata dai governi, consentì di allentare i vincoli di bilancio che avrebbero altrimenti costretto le decisioni individuali di spesa: ne è prova la rapida caduta della propensione al risparmio delle famiglie statunitensi, che si è quasi azzerata nel periodo. Grazie all’innovazione finanziaria, il savings glut generato dalle economie emergenti si è trasformato nel credito che ha consentito la crescita della spesa in alcune economie più ricche. L’affermarsi di un nuovo modello di intermediazione e l’invenzione di nuovi strumenti finanziari hanno infatti favorito, negli Stati Uniti e in alcuni altri Paesi, un boom degli investimenti delle famiglie in immobili residenziali e, su questa base, una diffusione multipla di strumenti finanziari legati al credito (Spaventa 2008b).
Nel modello classico dell’intermediazione bancaria, i crediti concessi alle imprese e alle famiglie (finanziati solitamente con raccolta a breve) restano all’attivo dei bilanci degli intermediari, con i rischi connessi (originate to hold). La banca esercita un monitoraggio ex ante sulla solvibilità del debitore ed ex post sull’uso del credito erogato; intrattiene un rapporto di lungo periodo con il debitore, accumulando un ‘capitale informativo’ (relationship banking). Per prevenire i problemi di stabilità derivanti dalla differenza di liquidità e di scadenza fra attivo e passivo, si è sviluppata nel tempo una serie di presidi di vigilanza degli intermediari (fra cui l’imposizione di requisiti minimi di capitale, il ruolo della banca centrale come prestatore di ultima istanza, l’obbligo di riserve, l’istituto dell’assicurazione dei depositi). Nel finanziamento dell’economia, alla funzione della banca si affianca (in misura più rilevante nei sistemi anglosassoni) quella del mercato, su cui le imprese emettono direttamente titoli azionari o di debito.
Il nuovo modello, affermatosi soprattutto nell’ultimo decennio grazie all’innovazione finanziaria, in qualche senso rappresenta un ibrido fra banche e mercato. La sua definizione, ormai canonica, è originate to distribute (OTD). Le banche originano i crediti, ma, invece di tenerli all’attivo dei propri bilanci, li cedono, insieme ai rischi connessi e alle garanzie offerte dal debitore, a un’entità fuori bilancio all’uopo costituita. L’operazione di cessione riguarda in particolare i mutui fondiari con garanzia ipotecaria, fra i quali i meno affidabili sono quelli definiti subprime, concessi a soggetti con basso reddito e basse prospettive di solvibilità. L’entità parabancaria a fronte di ampi insiemi di mutui, disparati per qualità e titolarità, che costituiscono il sottostante, emette certificati obbligazionari definiti genericamente asset backed securities (ABS), che poi colloca presso prenditori terzi non bancari. Il credito viene così trasformato in uno strumento che si compra e si vende sul mercato (‘mercatizzazione della finanza’: v. Borio 2007).
In base alla distribuzione di probabilità degli eventi di insolvenza nell’intero insieme dei mutui sottostanti, ciascun certificato obbligazionario viene suddiviso in tranches, caratterizzate da una diversa esposizione a quegli eventi. Se si verificano insolvenze, le perdite che ne derivano sono anzitutto sopportate dalla tranche inferiore (detta equity tranche), subordinata rispetto a tutte le altre; superata la capienza di questa, sono assorbite da successive tranches intermedie. Le tranches di rango più elevato
sono dunque protette dalle insolvenze che possono verificarsi nel portafoglio di mutui sottostanti sin quando le perdite che ne conseguono non superino il limite di assorbimento delle tranches inferiori. Le diverse tranches, che hanno rendimenti inversamente correlati al grado di rischio, e valutazioni corrispondenti da parte delle agenzie di rating (da triplo A per quelle superiori, ritenendosi che per esse le probabilità di perdita siano prossime allo zero, a B per quella più esposta), vengono collocate separatamente, affinché ogni investitore possa scegliere la combinazione rischio-rendimento desiderata. Nel genus ABS esistono specie più complesse, come le CDO (Collateralized Debt Obligations), largamente diffuse e ormai tristemente note per la loro tossicità, che assemblano tranches di ABS, strutturandosi a loro volta. L’offerta di questi prodotti si rivolge a investitori istituzionali (per es., i fondi pensione) o comunque qualificati (come gli hedge funds), ma non al pubblico indistinto. Si tratta di prodotti finanziari non standardizzati, a motivo della diversità del pool di crediti sottostanti e della diversa strutturazione: l’eterogeneità e la mancanza di un mercato spesso riducono la liquidità e impediscono la formazione di prezzi che esprimano la domanda e l’offerta di una pluralità di soggetti.
I presunti benefici del nuovo modello. Il nuovo modello OTD, che ha consentito alle banche di originare credito senza trattenerlo sui propri bilanci, rappresenta un’innovazione di grande portata, ora esecrata, ma di cui sino al 2007 venivano esaltati i meriti.
La possibilità di trasferimento del rischio (e in particolare la tecnica di assemblaggio di un insieme di mutui di diversa rischiosità in un certificato obbligazionario strutturato per tranches di rischio) consente l’accesso al credito a soggetti che ne sarebbero esclusi qualora un intermediario ne dovesse assumere i rischi individuali. È indubbio che negli Stati Uniti l’aumento dei mutui fondiari, e dunque degli acquisti di case, ha riguardato soprattutto le famiglie a minor reddito. Certamente l’assunzione dei crediti da parte di soggetti terzi non bancari, e dunque non sottoposti all’osservanza di requisiti di capitale, abbassa il rapporto fra capitale e credito originato, e fa crescere pertanto l’offerta di credito a parità di capitale. Al tempo stesso, l’emissione di obbligazioni strutturate rappresentative di mutui apre il mercato del credito agli investitori non bancari e, ampliando le loro scelte, permette una maggiore diversificazione dei portafogli.
In via di principio, il nuovo modello dovrebbe consentire una distribuzione più efficiente del rischio. Questo viene frammentato e trasferito dalle banche a una pluralità di investitori non bancari. Ne dovrebbe risultare una maggiore stabilità finanziaria, poiché le banche nel loro complesso sarebbero meno esposte a quei rischi sistemici, comuni a tutte, derivanti dal verificarsi di eventi estremi di origine esterna (la ‘coda’ della curva di distribuzione), ciascuna specializzandosi invece nei rischi idiosincratici di insolvenza. Anni di crescita stabile e di bassa inflazione, accompagnati da un’espansione del credito, che consentiva la diffusione della proprietà dell’abitazione, da profitti senza precedenti dell’industria finanziaria, da rendimenti elevati su tutti i segmenti dei mercati sembravano avvalorare le valutazioni più ottimistiche del nuovo modello. Nel settembre 2005 il presidente della Federal reserve Alan Greenspan affermava, quindi, che «i nuovi strumenti di dispersione di rischio [che] hanno consentito alle banche più grandi e più sofisticate […] di spogliarsi di una gran parte del rischio di credito trasferendolo a istituzioni con minore grado di indebitamento […] hanno contribuito allo sviluppo di un sistema finanziario molto più flessibile ed efficiente, e perciò meno sensibile agli shock, di quello che esisteva appena un quarto di secolo fa» (Greenspan 2005). Nell’aprile 2006, quattordici mesi prima che scoppiasse la crisi, l’International monetary fund (IMF) scriveva: «La dispersione del rischio di credito dalle banche a un insieme più ampio e variegato di investitori […] ha contribuito a rendere più flessibile il sistema bancario e finanziario» (2006, cap. 2, p. 1) consentendo di mitigare e di assorbire gli shock a cui esso è esposto, di contenere in conseguenza i collassi bancari e di aumentare l’offerta di credito.
Come oggi sappiamo, è avvenuto esattamente il contrario di quanto previsto. Le autorevoli opinioni appena riportate ben riflettono lo spirito del tempo, che trovava supporto negli sviluppi della teoria economica e nell’ideologia prevalente che li condizionava, scrisse Spaventa.
Si erano verificati progressi notevolissimi, quasi di natura ingegneristica, nella teoria della finanza, che (evento raro) avevano trovato diretta applicazione nella pratica dei mercati. Si tratta per lo più di raffinati metodi di valutazione del rischio e della redditività di prodotti finanziari complessi (per es., delle opzioni, con il diffusissimo metodo Black-Scholes), impiegati anche per sfruttare opportunità di arbitraggio nel caso di discrepanze fra valore di mercato e valore teorico. Gli strumenti ottenuti da una pur solida teoria dovrebbero tuttavia essere maneggiati con cautela nelle loro applicazioni pratiche: sovente si tratta di ‘scatole nere’, che producono risultati la cui robustezza dipende dalla qualità dei dati impiegati e dalla plausibilità delle ipotesi circa le distribuzioni statistiche, e che comunque dovrebbero essere integrati dalla valutazione di altre variabili trascurate nelle formalizzazioni, quali i rischi di liquidità. La crisi ha mostrato quanto fosse mal riposta una fiducia cieca nelle tecniche matematiche di misurazione del rischio.
Progrediva anche la teoria generale posta a base della politica economica, attraverso il rafforzamento delle fondamenta microeconomiche alla base dei modelli di funzionamento dell’economia: la generazione dei modelli di equilibrio generale dinamico chiamata DSGE (Dynamic Stochastic General Equilibrium) ha trovato impiego anche in molte banche centrali. Ai nostri fini interessano due caratteristiche di questi sviluppi. Da un lato i modelli esibiscono caratteristiche di funzionamento dei mercati che lasciano poco spazio a un intervento pubblico di regolazione. D’altro canto, quasi per costruzione, essi non possono ospitare eventi di instabilità finanziaria, implicitamente escludendoli: operandovi agenti ‘rappresentativi’, si esclude eterogeneità di comportamenti; i soggetti intrattengono aspettative razionali e si presume non solo efficienza dei mercati, ma razionalità degli esiti che in essi si determinano, poiché i prezzi in ogni momento incorporano tutte le informazioni rilevanti; valgono sempre condizioni di equilibrio generale. Questa impostazione trovava poche eccezioni, spesso con una marginalizzazione del dissenso. Sopravvissuta senza danni agli scandali di borsa di inizio secolo (quelli che provocarono negli Stati Uniti i pesanti interventi regolatori della legge Sarbanes-Oxley), era del tutto complementare allo sviluppo degli anni d’oro. Con un’interazione fra ideologia e analisi assai frequente nelle discipline economiche, pareva trovare verifica in quello sviluppo e al tempo stesso ne ispirava l’ideologia: la miglior regolazione dei mercati si ottiene lasciandoli funzionare liberamente, limitando l’intervento a un ‘tocco lieve’ (light touch) che non ostacoli l’innovazione finanziaria. La passività compiaciuta dei regolatori trovava conforto in tale dottrina.
Le condizioni sopra esaminate – trasferimento senza limiti del risparmio mondiale verso i centri di spesa, innovazione finanziaria che ampliava le possibilità di indebitamento, briglia lenta ai mercati – crearono le condizioni necessarie per i tumultuosi sviluppi della finanza dell’inizio del nuovo secolo. Il credito facile favorì la domanda di case, provocando negli Stati Uniti e in molti altri Paesi un’inflazione dei prezzi degli immobili: la riduzione del rapporto fra il debito contratto e il valore dell’immobile in garanzia ipotecaria consentiva di rifinanziare i mutui in essere a condizioni più vantaggiose, o di estinguerli vendendo la casa e lucrando un margine di profitto. La riduzione generalizzata dei rendimenti di tutti gli strumenti tradizionalmente più sicuri (come i titoli di Stato e alcune obbligazioni) induceva a cercare rendimenti più elevati, e dunque più rischiosi. I nuovi strumenti strutturati del credito offrivano da questo punto di vista un prodotto appetibile: poiché la domanda ne stimolava l’offerta nelle condizioni prevalenti, il risultato fu un flusso di emissioni sempre più veloce. Con il credito a basso costo, il perseguimento di alti profitti incoraggiava un’alta leva (rapporto fra indebitamento e capitale proprio) negli investimenti finanziari.
Si creavano in tal modo le condizioni propizie a episodi di instabilità finanziaria: pochi se ne accorsero (v. in particolare Rajan 2005). Per spiegare l’accelerazione e la gravità della crisi, occorre tuttavia considerare i fenomeni degenerativi da cui fu afflitta la nuova finanza: in particolare, un assetto distorto di incentivi, che ha incoraggiato comportamenti destabilizzanti, e lo sviluppo di un sistema finanziario ‘ombra’, opaco, privo di regole, ignorato dai regolatori.
L’incentivo a valutare il merito di credito del debitore e la sua evoluzione, evidente nel caso di una banca che tiene i crediti in bilancio, viene meno quando l’originatore dei crediti (una banca o una società di mutui fondiari che si approvvigiona presso la banca o sul mercato) ne trasferisce il rischio a terzi. D’altra parte, come abbiamo visto, uno dei possibili meriti del nuovo modello di frazionamento e trasferimento del rischio al mercato si ravvisa proprio in un ampliamento delle possibilità di accesso al credito e dunque in un aumento del credito concesso. Tale aumento dovrebbe tuttavia trovare dei limiti. Negli anni in cui maturarono le premesse della crisi ogni ragionevole limite fu superato: le condizioni del mercato inducevano a privilegiare la quantità di mutui generati rispetto alla loro qualità. Il basso livello dei tassi di interesse e la riduzione dei differenziali rispetto ad attività prive di rischio stimolavano un’elevata domanda di attività finanziarie ad alto rendimento. I prodotti obbligazionari rappresentativi del credito parevano soddisfare questa esigenza. Per parte loro, le banche che originavano il credito, o che lo assumevano da altri originatori non bancari, ottenevano margini di profitto elevati dalla strutturazione dei nuovi prodotti finanziari, il cui volume dipende dalla quantità dei mutui sottostanti (come i compensi dei broker dipendono da quanti mutui essi riescono a procacciare). Vi era dunque un incentivo ad aumentare i volumi, senza doversi preoccupare del rischio, che sarebbe poi stato trasferito. Con il tempo si è verificato così un forte deterioramento della qualità del credito (mutui erogati senza alcuna verifica del reddito, delle condizioni di occupazione e del patrimonio del mutuatario, o resi attraenti dall’abbattimento delle rate iniziali, ma con pagamenti successivi elevatissimi). Aumentava in conseguenza la rischiosità del pool di mutui sottostanti alle obbligazioni, soprattutto se i prezzi degli immobili avessero cessato di aumentare o fossero caduti, come poi avvenne.
La piramide finanziaria. Un sistema di incentivi distorto si manifestava anche per i gestori di patrimoni, quali gli hedge funds, a motivo della struttura delle commissioni. Queste sono solitamente pari al 2% del patrimonio gestito e al 20% dei profitti di gestione. Ne risulta per i gestori uno stimolo all’assunzione di rischi elevati in vista di rendimenti più alti: se va bene, oltre al 2% si percepisce un quinto dell’aumento di valore; se va male resta comunque la commissione di gestione. Questo appetito per il rischio ha stimolato una domanda crescente di nuovi strumenti finanziari su cui scommettere. Per soddisfarla non bastavano le pur complesse obbligazioni strutturate di prima generazione: la fantasia e la tecnica della nuova finanza seppero offrire di più, recidendo qualsiasi residuo contatto degli strumenti finanziari con l’economia reale.
Furono creati CDO al quadrato (o a potenza superiore), assemblando le tranches di rango inferiore di CDO già in circolazione. Impiegando strumenti derivati che consentono di vendere e acquistare protezione da eventi di insolvenza (CDS, Credit Default Swaps) furono costruiti CDO sintetici, che replicavano i rischi e i rendimenti di un CDO di riferimento, senza avere come sottostante alcun rapporto di credito effettivo. Analogamente, i CDS, nati come utile strumento di copertura e di assicurazione, si trasformarono in questo modo in occasioni di scommessa rischiosa fine a sé stessa, con un volume cresciuto sino a divenire un multiplo del valore dei titoli o dei rapporti di credito di riferimento.
La costruzione di questa sovrastruttura finanziaria ha provocato un gonfiamento dei bilanci dei soggetti operanti nel settore della finanza svincolato dalla domanda e dall’offerta di credito dei settori
dell’economia reale (imprese e famiglie). Si è costruita un’instabile piramide rovesciata, con strati successivi costituiti da rapporti interni al settore finanziario, il cui indebitamento negli Stati Uniti è aumentato in misura superiore persino a quello delle famiglie. Come ha osservato Willem H. Buiter (2008), questo sviluppo finanziario non aveva più nulla a che fare con lo sviluppo economico: era piuttosto il risultato di una sorta di lotteria interna al settore della finanza, in cui le attese di futuri guadagni di capitale spingevano verso l’alto le quotazioni, con rendimenti slegati da quelli effettivi dell’attività produttiva.
Le agenzie di rating e i modelli di valutazione del rischio. Per la valutazione del rischio delle obbligazioni strutturate rappresentative del credito, gli investitori si affidavano il più delle volte al giudizio rilasciato dalle agenzie di rating su richiesta degli emittenti: solitamente massimo (tripla A) per le tranches delle ABS di rango più elevato perché più protette da perdite per insolvenze, indipendentemente dalla qualità dei singoli mutui sottostanti; e via via minore per le tranches con maggior grado di subordinazione. Eppure, sin dall’inizio della crisi l’aumento delle insolvenze dei mutui subprime ha provocato drastiche cadute dei prezzi anche per le tranches delle obbligazioni più protette da perdite. Le stesse agenzie sono ripetutamente intervenute per declassare decine di miliardi di dollari di emissioni: in due anni, quasi il 25% delle tranches emesse con il rating massimo di tripla A, fra il 25 e il 40% di quelle con valutazioni di poco inferiori (da Aa1 ad Aa3), sino a quasi l’80% di quelle di qualità più bassa. Evidentemente nella loro valutazione iniziale qualche conto non tornava.
Si è sovente richiamata l’attenzione sui conflitti d’interesse che potrebbero compromettere l’obiettività delle agenzie: il servizio di rating è pagato dagli emittenti e non dagli investitori; i ricavi crescono con il numero e il volume delle emissioni; le agenzie prestano servizi di consulenza, remunerati, per la strutturazione degli strumenti da collocare. Ma, al di là di questa componente patologica, gli errori commessi hanno anche altre spiegazioni.
La valutazione del rischio di un’obbligazione rappresentativa di un pool di crediti, disparati sia per origine sia per qualità, viene compiuta in base alla probabilità media di perdita, calcolata con modelli statistici riferiti all’intera popolazione di crediti. Tre caratteristiche di questi modelli ne hanno inficiato l’affidabilità (v. FSA 2009).
In primo luogo, essendo l’evoluzione degli strumenti di credito assai recente, il computo statistico si affidava a una storia passata breve e non abbastanza rappresentativa, in cui l’interazione fra bassi tassi d’interesse e inflazione dei prezzi degli immobili abbassava il tasso medio d’insolvenza. In secondo luogo, le ipotesi prevalenti di correlazione bassa o nulla fra eventi di insolvenza e di distribuzione normale delle probabilità di perdita, plausibili in tempi propizi, non valgono quando si verifica un improvviso peggioramento delle condizioni economiche. Da ultimo, la valutazione delle agenzie prescindeva, esplicitamente, dal rischio di liquidità, che per uno strumento finanziario si manifesta nell’impossibilità di trovare mercato. Eppure le obbligazioni rappresentative del credito sono particolarmente soggette a quel rischio: diverse l’una dall’altra, in dipendenza del pool di crediti sottostante e delle caratteristiche della strutturazione; particolarmente opache a causa della loro complessità, che a volte rende impossibile determinarne il prezzo con le tecniche consuete; trattate bilateralmente (over the counter) e prive pertanto di un mercato in cui si formi un prezzo rappresentativo con l’intervento di un gran numero di investitori anonimi. Proprio in queste condizioni, uno shock può determinare una disastrosa e improvvisa perdita di liquidità, com’è infatti avvenuto.
Il problema di un’evidente e sistematica sottovalutazione dei rischi non riguarda solo la agenzie di rating, ma anche i grandi investitori professionali. I complessi modelli matematici da questi usati soffrivano probabilmente degli stessi limiti sopra elencati, soprattutto con riferimento alle ipotesi di
distribuzione delle probabilità di perdita. Certamente l’euforia degli ultimi anni aveva indotto molti ad abbandonare ogni doverosa prudenza, pur nella consapevolezza che qualcosa potesse andar storto. Sono frequenti le narrazioni di coscienziosi risk managers messi da parte perché non intralciassero ardite operazioni che gonfiavano i profitti di intermediari e gestori. Quando tutto il gregge si muove in una direzione, chiamarsene fuori può salvare dall’abisso, ma comporta la rinuncia a guadagni immediati. Ancora nel luglio 2007, il capo di Citi, una grandissima banca d’investimento statunitense, disse, memorabilmente, in un’intervista alla stampa (e poco prima di essere cacciato per le perdite record del suo istituto): «Quando la musica si interrompe, le cose si complicano; ma finché la musica suona, bisogna alzarsi e ballare. Noi stiamo ancora ballando».
Le disfunzioni esaminate in precedenza, scrisse Spaventa rappresentano una componente importante della crisi. Molte di esse erano tuttavia presenti anche nell’episodio del crollo di borsa di inizio secolo, che ebbe tuttavia conseguenze limitate. Pare inoltre certo che la gravità e la diffusione di questo nuovo episodio dipendono dal coinvolgimento del sistema bancario, che non si era verificato in esperienze precedenti. Ma perché è avvenuto questo coinvolgimento, se il nuovo modello e il suo presunto contributo alla stabilità si basavano proprio sul trasferimento del rischio?
Da tempo si era riconosciuto, anche a livello ufficiale, che si era prodotto un vuoto informativo. Sin quando il rischio era concentrato nelle banche, soggetti vigilati e sottoposti a obblighi di comunicazione, le autorità erano in grado di mapparne almeno approssimativamente la collocazione; non più, quando il rischio si distribuisce in mille rivoli a soggetti terzi, non sottoposti a vigilanza di stabilità, come gli hedge funds, i fondi pensione, le compagnie di assicurazione e, soprattutto, le grandi banche di investimento che non raccolgono depositi. I regolatori se ne preoccupavano solo sul versante del rischio di controparte che le banche commerciali assumevano nei rapporti di credito e di intermediazione con quei soggetti. Almeno apparentemente, non si erano accorti che il rischio del credito trasferito dal sistema bancario aveva in parte compiuto un round trip: uscito dal sistema era a esso tornato in misura significativa. Quel ‘sistema finanziario ombra’ di cui si parla include dunque non solo le istituzioni non soggette a vigilanza prudenziale, ma, in misura e con rilevanza maggiore ai fini della stabilità, importanti segmenti di attività delle stesse banche.
Il viaggio di ritorno del rischio ha seguito vari percorsi. Anzitutto, molte istituzioni, o entità da esse controllate, impegnate nella costruzione delle obbligazioni strutturate avevano accumulato e mantenuto in portafoglio le tranches esposte alle prime perdite da insolvenza e dunque più rischiose. In secondo luogo, per sfruttare le opportunità di profitto offerte dalla differenza fra i rendimenti ottenibili dai prodotti finanziari rappresentativi del credito e i tassi di interesse a breve senza dover immobilizzare nuovo capitale (come le norme di vigilanza avrebbero richiesto), molte banche avevano creato o sponsorizzato entità separate fuori bilancio (conduits o SIV, Structured Investment Vehicles, a seconda delle caratteristiche tecniche), che acquistavano obbligazioni strutturate e derivati di credito finanziandosi a breve o a brevissimo termine sul mercato. A queste entità le banche concedevano garanzie di finanziamento di ultima istanza (esplicite o implicite): anche se non comparivano nei bilanci, tali garanzie esponevano pur sempre le banche al rischio del portafoglio di strumenti finanziari all’attivo del veicolo nel caso in cui un improvviso inaridimento delle possibilità di rifinanziamento sul mercato avesse reso necessaria l’attivazione della linea di credito (come in effetti avvenne). Molte banche erano inoltre impegnate in una cospicua (e lucrosa) attività di negoziazione in conto proprio e mantenevano a tal fine nei loro portafogli quantità ingenti di obbligazioni strutturate. Infine, alla vigilia della crisi le istituzioni maggiori avevano ancora sui loro libri notevoli prestiti ponte concessi ai fondi di private equity (fondi d’investimento chiusi in titoli non quotati), di cui si prevedeva la cessione al mercato con la solita strutturazione a carattere obbligazionario.
Una bella fetta dei rischi ostensibilmente trasferiti dalle banche era così tornata a queste ultime, come poi si dovette constatare. Ma quali banche erano più esposte, e per quanto? Il mercato e anche le autorità di vigilanza lo ignoravano, poiché le esposizioni effettive non potevano essere ricavate dai bilanci e dai dati disponibili. Sono emerse, settimana dopo settimana, solo quando la crisi ha costretto a riportare nei bilanci le esposizioni fuori bilancio e le perdite subite. Le condizioni di carenza informativa sulla situazione finanziaria e sui rapporti di credito-debito degli intermediari hanno contato molto nella crisi: l’incertezza che ne è derivata circa l’affidabilità delle controparti nei normali rapporti di credito ha compromesso la funzionalità del sistema finanziario.
La carenza informativa del mercato può stupire; ma è molto più grave il fatto che le autorità di vigilanza si siano trovate nella stessa situazione. L’inefficiente frammentazione dei poteri di supervisione negli Stati Uniti, epicentro della crisi, non è spiegazione sufficiente: l’accentramento di quei poteri in una sola autorità non ha evitato al Regno Unito la stessa sorte. A livello aggregato, la crescita impetuosa del credito e del livello di indebitamento, comunque misurato, rappresentava un fenomeno evidente. Al di là delle responsabilità della politica macroeconomica statunitense, e soprattutto di quella monetaria, sarebbe stato doveroso un maggiore attivismo di vigilanza a livello microeconomico, sui criteri e sulle modalità di concessione del credito e sulla situazione effettiva delle istituzioni bancarie. Questo sonno della vigilanza – soprattutto, ma non solo, nei Paesi anglosassoni – trova svariate spiegazioni, che configurano gradi diversi di colpa: storica incapacità di mantenere il passo con l’innovazione finanziaria e di comprenderne le implicazioni; ‘cattura del regolatore’, che finisce per recepire e proteggere gli interessi dei soggetti vigilati, com’è avvenuto negli Stati Uniti nel caso dei due istituti semipubblici di credito fondiario noti come Fannie Mae e Freddie Mac; fiducia acritica nelle virtù e nella capacità di autoregolazione del mercato; interpretazione del ruolo del regolatore come funzionale allo sviluppo dell’industria finanziaria di casa. Comunque, nelle vicende che sono state premessa alla crisi vi sono evidenti responsabilità pubbliche, forse meno scusabili dei comportamenti privati: questi sono almeno dettati dall’avida caccia al profitto; quelle configurano una vera e propria culpa in vigilando, che non trova motivazioni accettabili.
L’espansione dell’edilizia residenziale negli Stati Uniti toccò un picco nel 2005, ricordò Spaventa; dal 2006 iniziò una flessione delle costruzioni e dei prezzi delle case. Dal 2005 cominciarono a salire i tassi di morosità sui mutui subprime, disinvoltamente concessi a soggetti con basso merito di credito: l’aumento dei tassi ufficiali dall’1 al 5,25% fra il giugno 2004 e il giugno 2006 rese insostenibile per molti mutuatari l’onere dei debiti contratti a tasso variabile. Le agenzie di rating cominciarono a rivedere al ribasso le loro generose valutazioni di alcune classi di titoli. Il mercato ebbe un sussulto all’inizio del 2007, ma, concentrato sul presente e chiudendo gli occhi sul futuro, trascurò ogni segnale negativo e riprese la sua corsa: le cifre delle insolvenze, pur se notevoli, parevano poca cosa rispetto ai volumi in circolazione; comunque, non si voleva rinunciare a qualche altro mese di profitti. In giugno, mentre i tassi di morosità si impennavano e continuavano i declassamenti di rating, due fondi hedge della (poi defunta) banca Bear Stearns pesantemente investiti in ABS si trovarono in difficoltà, non riuscendo a vendere i titoli in portafoglio per far fronte ai riscatti dei risparmiatori: uno dovette essere finanziato dalla banca, l’altro fu posto in liquidazione. Questo episodio svelò la nudità dell’imperatore: la valutazione dei titoli rappresentativi in portafoglio valeva solo sin quando non si cercasse di venderli.
I mercati questa volta la presero malissimo e andarono nel panico: era cominciata la crisi. Più di altre, quella che viviamo è stata preceduta da un’espansione del credito, anomala per i suoi ritmi straordinari: fra la fine degli anni Novanta e il 2007 il rapporto incrementale fra credito e prodotto lordo aumentò del 50%. Date le condizioni permissive dell’offerta di credito prima esaminate, la domanda era alimentata da una noncuranza per il rischio da parte degli investitori, che si manifestava non solo in un maggiore ‘appetito’ per investimenti ad alto rendimento e perciò meno sicuri, ma ancor più in una
valutazione ottimistica, consapevole o inconsapevole, di tutti i rischi insiti in quegli investimenti, da quello di insolvenza a quello di illiquidità. L’altra faccia dell’aumento del credito è l’aumento dell’indebitamento, che, insieme alla maggiore propensione al rischio, ha determinato un gonfiamento delle poste attive e passive dei bilanci degli intermediari (Adrian, Shin 2008), dovuto sia all’aumento di valore degli strumenti finanziari in portafoglio, sia a un aumento ciclico del rapporto fra debito e capitale. In definitiva, il leverage del sistema, inteso sia nel senso stretto di rapporto fra indebitamento e capitale sia nel senso più generale di esposizione al rischio, raggiunse valori eccezionali, soprattutto in alcuni Paesi.
Quando un evento sfavorevole si verifica – razionalmente prevedibile ma irrazionalmente imprevisto, come nel caso della caduta del prezzo delle case negli Stati Uniti e della conseguente impennata delle insolvenze sui mutui fondiari statunitensi – s’innesca un processo di deleveraging, tanto più rovinoso, disordinato e diffuso, quanto più impetuosa e disordinata era stata la crescita dell’indebitamento e dell’esposizione al rischio (Spaventa 2008a). Si manifestano pesanti perdite nelle poste all’attivo degli intermediari, di cui viene intaccato il capitale; quando quelle poste consistano di strumenti finanziari illiquidi – nel caso presente le obbligazioni rappresentative del credito fondiario – il tentativo di venderle provoca ulteriori cadute dei prezzi; il rinnovo dell’indebitamento richiede un aumento dei margini sui titoli offerti in garanzia e ora svalutati; la provvista di fondi può addirittura essiccarsi quando il finanziamento avvenga con carta a breve sul mercato. In conseguenza, i bilanci delle banche, prima gonfiati, devono ora rattrappirsi all’improvviso. La situazione si aggrava quando l’incertezza sulla distribuzione dei rischi rende ogni operatore diffidente nei confronti di qualsiasi controparte. Lo shock (negativo) ai prezzi dei titoli all’attivo dei bilanci delle istituzioni innesca dunque un circolo vizioso (Brunnermeier, Pedersen 2007) fra caduta della liquidità di mercato (possibilità di negoziare un titolo senza provocare escursioni eccessive del prezzo) e inaridimento della liquidità di finanziamento (funding liquidity, ovvero possibilità di ottenere agevolmente finanziamenti dalle banche o sul mercato).
La prima scossa del giugno 2007 fu seguita in luglio da un’altra ondata di vendite e di caduta dei prezzi, anche perché aumentarono le previsioni di insolvenze dei mutui fondiari (per un resoconto dettagliato di questi e dei successivi eventi, v. BIS, Bank for International Settlements, 2008, IMF 2008).
La turbolenza si estese ad altri mercati del credito. In agosto il mercato dei prodotti strutturati cessò di funzionare, mentre si inaridivano del tutto le fonti di finanziamento a breve termine a cui ricorrevano le entità di origine bancaria che investivano in titoli rappresentativi del credito. Le grandi banche erano appesantite da un ingente volume di prestiti, concessi per operazioni di acquisizione e ristrutturazione, che non riuscivano più a trasferire. In questa «ondata senza precedenti di reintermediazione» (BIS 2008, p. 109) e di deleveraging si manifestarono gravi disfunzioni sui mercati interbancari, che si bloccarono, con tassi interbancari che toccarono livelli senza precedenti, poiché le banche non si fidavano di prestarsi reciprocamente fondi senza garanzia.
Non disponendo di una valutazione attendibile delle perdite effettive e potenziali delle banche, le autorità ritennero all’inizio che il problema principale fosse quello di restituire liquidità al sistema. Le banche centrali (prima quella europea e con qualche ritardo quella statunitense) si mostrarono subito disponibili a fornire tutta la liquidità che il sistema potesse richiedere, estendendo la portata delle operazioni di rifinanziamento e rendendole più permissive nelle regole di ammissione e di garanzia. La Banca centrale statunitense accompagnò queste operazioni con riduzioni successive dei tassi d’interesse. Non fu sufficiente. Negli Stati Uniti, ma anche nel Regno Unito e nell’Europa continentale, le autorità dovettero accogliere in garanzia o addirittura acquisire sui propri bilanci titoli di qualità
sempre più dubbia; o offrirono esplicita garanzia sui debiti di alcune banche (come Bear Stearns) per consentirne il salvataggio.
In una successione di interventi caso per caso, non si ebbe l’immaginazione e l’audacia di elaborare un piano di sistemazione che affrontasse il problema strutturale: sin quando i bilanci delle banche erano appesantiti dalla presenza di titoli non vendibili se non a prezzi di saldo, l’interazione fra illiquidità dell’attivo e difficoltà di accesso al finanziamento avrebbe continuato a erodere il capitale provocando episodi di insolvenza. Per restaurare le condizioni di adeguatezza patrimoniale, non basta ricorrere a operazioni di ricapitalizzazione quando continua a ridursi il valore dell’attivo: lo dimostra l’insuccesso di operazioni successive intraprese nel 2008 con fondi pubblici e privati. La ricapitalizzazione dovrebbe essere accompagnata da interventi di natura straordinaria, volti ad arrestare la caduta dei valori delle attività illiquide, attribuendo a esse un prezzo plausibile non influenzato da manifestazioni di panico (v. Spaventa 2008a). In caso contrario, la continua erosione del capitale costringe le banche a ridurre il valore del proprio attivo tagliando il credito a imprese e famiglie: è il canale con cui una crisi finanziaria trasmette effetti di carattere recessivo all’economia reale.
Le difficoltà continuarono ad aggravarsi, sino a toccare un massimo quando, nel settembre del 2008, il Tesoro e le autorità monetarie degli Stati Uniti consentirono, inesplicabilmente, che la grande banca d’affari Lehman Brothers andasse in bancarotta, senza intervenire, come invece avevano fatto in altri casi. Poco dopo, il Congresso bocciò in prima lettura un piano di riacquisto dei titoli compromessi che il segretario al Tesoro aveva finalmente, ma tardivamente, elaborato. Come ricaduta di questi due eventi (e di altri episodi d’insolvenza), crollò la fiducia sui mercati finanziari e la crisi raggiunse la sua fase più acuta, investendo pesantemente l’Europa. Divenne evidente che solo un massiccio intervento degli Stati avrebbe potuto offrire risposta adeguata.
Dall’epoca della Grande depressione non si era mai visto un tale dispiego di forze pubbliche, a singolare coronamento di un’era che aveva visto in continua ritirata non soltanto lo Stato interventista ma anche lo Stato regolatore. Questi interventi, sia in Europa sia negli Stati Uniti, hanno seguito due direttrici: un’ampia garanzia pubblica sulle passività delle banche; una loro ricapitalizzazione con partecipazioni assunte dallo Stato, sino a giungere in alcuni casi a una nazionalizzazione di fatto. Si è trattato di misure necessarie per evitare un meltdown del settore finanziario in una situazione di assoluta e imprevista emergenza, ma non sufficienti di per sé a evitare una lunga e pesante recessione dell’economia mondiale.
Dopo gli eccessi di un decennio di sviluppo incontrollato della finanza, concludeva Spaventa, una purga era inevitabile per smaltire le tossine che si erano accumulate nel sistema. La grande crisi finanziaria del nuovo secolo ha svolto questa funzione. Certo, una conversione ordinata dall’intemperanza alla sobrietà sarebbe stata idealmente preferibile. Ma, da sempre, il mondo della finanza, quando periodicamente si sfrena, non riesce mai a fermarsi per propria determinazione prima di giungere sull’orlo dell’abisso: per rigenerarsi deve cadere. Proprio perché l’ascesa era stata sfrenata, la caduta questa volta è stata rovinosa.
Ogni crisi fa vacillare molti miti, ripropone antiche lezioni dimenticate e ne insegna di nuove. Lo sviluppo finanziario è utile allo sviluppo economico, ma non lo è sempre e comunque: quando perde contatto con l’attività reale e diviene fine a sé stesso nelle sue innovazioni e nelle sue operazioni, si conclude inevitabilmente in una crisi che distrugge non solo profitti di carta, ma anche ricchezza reale. In un mercato efficiente si manifestano comportamenti irrazionali e miopi, che concorrono a produrre instabilità. Gli economisti dovrebbero ammettere che teorie raffinate offrono sovente un’immagine dei mercati lontana dalla realtà; che gli strumenti teorici possono aiutare a comprendere il mondo, ma non
sono il mondo. Le virtù dei due grandi centri finanziari – Londra e, soprattutto, New York – erano state portate a modello. Ma, affinché un mercato finanziario funzioni per il meglio, esso deve essere presidiato da istituzioni e regole: questa crisi ha rivelato carenza di regole, inadeguatezza e colpe di vigilanza proprio nei due mercati leader. Si consentiva che alcuni protagonisti della crisi, le grandi banche di investimento, fossero sottratti alla vigilanza di stabilità solo perché, operando sul mercato all’ingrosso, non raccoglievano depositi dai risparmiatori: nel momento del bisogno hanno dovuto anch’essi bussare agli sportelli della Banca centrale.
Cominciano a delinearsi i tratti di un assetto futuro più solido e meno instabile di quello in cui la crisi ha trovato nutrimento. Il grado di indebitamento del sistema, e soprattutto quello interno al settore finanziario, sarà minore, e si ridurrà il rapporto fra aumento del credito e crescita reale. Affinché ciò avvenga, vi dovrà essere un maggiore equilibrio fra le maggiori economie del mondo. Le banche avranno compiuto un profondo processo di ristrutturazione. Abbandonati gli strumenti troppo complessi, chiusi i dipartimenti che prosperavano sulla finanza del credito (vere repubbliche indipendenti all’interno dell’azienda), rivisti i modelli di valutazione del rischio, le banche torneranno a un antico business model: quello di quando le banche facevano le banche e non quello di quando avevano smesso di fare le banche per impegnarsi in altri mestieri di finanza. Si sarà disegnato e attuato un nuovo sistema di regole condiviso dai principali Paesi, di cui si conoscono i lineamenti: al di sopra della tradizionale vigilanza prudenziale, vigilanza di stabilità a cui sottoporre non solo le banche di deposito, ma tutte le istituzioni finanziarie, indipendentemente dalla loro definizione legale, i cui bilanci eccedano certi limiti e in cui non vi sia corrispondenza di scadenze fra attivo e passivo; revisione delle regole di adeguatezza di capitale e di ogni altra regola che abbia prima consentito gli eccessi e poi aggravato le conseguenze della crisi; disciplina degli incentivi; strumenti soddisfacenti di valutazione del rischio, che tengano conto anche del rischio di liquidità.
I problemi dell’assetto futuro presentano complicazioni politiche, di consenso internazionale a una riduzione di sovranità nazionale nel disegno e nell’attuazione delle regole. Concettualmente, invece, i problemi più complicati si manifestano nel percorso di uscita dalla situazione che la crisi ha determinato.
Gli interventi messi in opera e altri che inevitabilmente seguiranno configurano per il settore finanziario una singolare situazione di economia mista: con uno Stato che diviene non solo più attento regolatore, ma addirittura azionista. I ricordi più recenti di situazioni analoghe non sono esaltanti. Sapranno gli Stati ritirarsi ordinatamente? Sapranno evitare la tentazione di proteggere la malmessa industria finanziaria nazionale erigendo barriere all’integrazione finanziaria e quella di mettere voce in scelte industriali? Se così non fosse, ai danni prodotti dalla finanza globale si aggiungerebbero quelli non meno gravi di un ritorno alla frammentazione nazionalistica e alla protezione.
Il processo di riduzione del leverage a livello di sistema richiede una riduzione dell’indebitamento e dunque un aumento del risparmio negli Stati Uniti e in alcune altre economie. Un aumento della propensione al risparmio, tuttavia, riduce la spesa e provoca conseguenze recessive; se questo avviene in un grande Paese, tale processo si diffonde, a meno che altrove non si verifichi un aumento della propensione al consumo. Sinora le politiche economiche nazionali nei Paesi industrializzati hanno operato interventi di sostegno alla domanda interna: di fatto hanno sostituito l’indebitamento pubblico all’indebitamento privato, con un esito che potrebbe essere foriero di nuovi squilibri. Una soluzione stabile dovrebbe passare per un aumento della propensione al consumo nei Paesi ove essa è più bassa – Cina ed economie emergenti, ma anche Germania – che compensi la riduzione necessaria in Paesi come gli Stati Uniti.
Ogni previsione è difficile, salvo una. Anche nella migliore delle ipotesi, presto o tardi i cattivi ricordi svaniranno, altre innovazioni offriranno l’occasione di nuove tentazioni e la forza possente dell’avidità di profitti e di compensi indurrà a nuovi eccessi e provocherà di conseguenza nuove crisi. L'analisi di Spaventa è un buon punto di partenza per capire cosa non funziona non solo nella nostra economia, ma nella società in generale.
CIVILTA'
La crisi che stiamo vivendo infatti non è solo una crisi economica. Essa è una crisi, politica, sociale, culturale. In una parola, è una crisi di civiltà  Nel suo significato più ampio per c. si intende la forma in cui si manifesta la vita materiale, sociale e spirituale di un popolo di un’età, di un’epoca. Per i latini civilitas (da civis «cittadino») era la società degli abitanti della città che, in quanto condizione privilegiata rispetto a quella degli abitanti delle campagne, era contrapposta a rusticitas. A partire dall’Illuminismo il termine civilisation, che indicava dapprima il «buon gusto» e le «buone maniere», è diventato sinonimo di progresso. Già sul finire del Settecento, tuttavia, in Germania il termine Zivilisation indicava un complesso di valori estrinseci e convenzionali che si contrapponeva alla Kultur, termine con cui si indicavano gli aspetti più spirituali dell’uomo quali si manifestano nella filosofia, nella storia, nell’arte. Tale distinzione trova la sua espressione più radicale in Il tramonto dell’Occidente (1918-22) di O. Spengler e nelle Considerazioni di un impolitico (1918) di T. Mann, dove la c. è considerata la forma finale e decadente della cultura, lo stato più esteriore e artificiale cui possa giungere un popolo. La nozione di c. fondata su una determinata gerarchia di valori è così entrata in crisi.
Con l'espressione scontro di civiltà, introdotta nel recente dibattito storico e politico dallo studioso statunitense Samuel P. Huntington, che nel 1993 pubblicò sulla rivista Foreign Affairs un articolo intitolato The clash of civilizations?, cui fece seguito nel 1996 un libro che ne sviluppava le tesi. Huntington, schierandosi contro le teorie sulla ‘fine della storia’ dopo la conclusione della guerra fredda e contro le analisi ottimistiche sui progressi di una pacifica globalizzazione e sul declino dello Stato nazione portatore delle guerre, preconizzava un futuro segnato da tensioni e conflitti di origine culturale: le ‘linee di faglia’ tra le diverse c. erano i possibili fronti delle guerre di domani. Negli ultimi anni – specie dopo gli attentati dell’11 settembre 2001, le guerre legate al fondamentalismo islamico e il sorgere del grande dibattito sui rapporti tra Occidente e Islam – il paradigma dello scontro di c. ha conosciuto una enorme diffusione e suscitato reazioni contrastanti sia fra gli studiosi sia nell’opinione pubblica.
Parlare di crisi di civiltà vuol dire parlare di valori. Il termine 'valore' è usato abitualmente nel linguaggio ordinario in due significati diversi, ma interscambiabili. In un primo significato qualsiasi cosa sia ritenuta oggettivamente importante o sia soggettivamente desiderata è o ha un valore. In un secondo significato il valore non indica l'oggetto dell'interesse, ma il criterio della valutazione, ossia il principio generale in base al quale approviamo o disapproviamo una certa azione, come quando disapproviamo chi non mantiene la parola data, perché non rispetta un principio di lealtà nei rapporti interpersonali. Nel linguaggio comune i 'valori', al plurale, indicano gli ideali a cui gli esseri umani aspirano.
Divenuto uno dei concetti fondamentali della filosofia, soprattutto con la 'teoria dei valori' sviluppata nella cultura tedesca tra Ottocento e Novecento, da Wilhelm Windelband e Heinrich Rickert, il termine entra nel linguaggio delle scienze sociali con la sociologia classica, dove assume un significato in parte diverso da quello del linguaggio comune. Nella formulazione data da Max Weber, che riprende criticamente alcuni fondamentali lavori degli storicisti tedeschi, si ritrovano già le due caratteristiche centrali che il concetto di valore manterrà, con alcune interruzioni e oscillazioni, fino ad oggi. Innanzitutto il valore non è semplicemente inteso come l'oggetto di una preferenza, come ciò che è desiderato, ma assume una connotazione normativa. Il valore non è, però, nemmeno un ideale astratto, sganciato dalle scelte effettive. Nei suoi saggi metodologici Weber (v., Gesammelte ..., 1922) considera i valori come la guida e l'orientamento delle scelte stesse. I valori si realizzano, dunque, storicamente e si connettono in vario modo con la realtà sociale, l'organizzazione economica e giuridica, le tradizioni, i costumi e i simboli di una collettività. Weber mette in luce non solo le ragioni della loro rilevanza per l'agire sociale, compreso quel particolare tipo di agire che è l'agire scientifico, ma indica anche in quale 'veste' essi possono diventare oggetto di indagine scientifica. Alle scienze sociali, in quanto scienze empiriche, non spetta il compito di determinare la validità ideale dei valori, ma quello di spiegare la loro genesi, le condizioni della loro realizzazione, la loro funzione, comprendendone nello stesso tempo il significato. In un quadro teorico e intellettuale assai diverso da quello weberiano, negli stessi anni, anche Émile Durkheim (v., 1920) ha dato un contributo fondamentale alla definizione del concetto, distinguendo la morale dai mœurs, ossia il piano degli ideali normativi e dei valori, costituiti da 'rappresentazioni' e 'stati di coscienza', da quello delle pratiche e della condotta abitudinaria. Sostenendo l'irriducibilità dei valori al comportamento, Durkheim ha conferito all'analisi di questo campo quell'impostazione antibehaviorista che, pur con qualche ambiguità, continua a caratterizzarlo.
Nella scienza sociale americana d'inizio secolo si è, però, in un primo tempo affermata, con l'opera pionieristica di William I. Thomas e Florian Znaniecki (v., 1918-1920), una definizione del concetto molto più ampia di quella sviluppata dalla sociologia europea. Il significato di valore, definito in opposizione al concetto psicologico di 'atteggiamento' (attitude), indica qualunque oggetto rivesta un significato per i membri di un gruppo sociale. Secondo questa prospettiva "un genere alimentare, uno strumento, una moneta, un pezzo di poesia, una università, un mito, una teoria scientifica sono valori sociali" (ibid.; tr. it., p. 26). L'importanza della definizione risiede soprattutto nell'aver distinto chiaramente due ambiti: quello sociale, costituito dai valori a cui si attribuisce la funzione di stimolare gli atteggiamenti, e quello individuale, costituito dai processi soggettivi e dalle disposizioni personali dei singoli nei confronti dei valori, ossia gli atteggiamenti. Definendo questi ultimi come le controparti individuali dei valori sociali, i due autori hanno contribuito soprattutto a indirizzare la psicologia sociale verso lo studio degli atteggiamenti, ritenuti espressioni dell'individualità del singolo, ma non sono stati in grado di dare uno sviluppo analogo alla ricerca sui valori. La definizione dei valori come oggetti sociali significativi, anche a causa della sua eccessiva ampiezza, è stata col tempo abbandonata.
Dopo un lungo periodo in cui la tematica dei valori viene quasi completamente trascurata, mentre si approfondisce la frattura tra una sociologia interessata ai comportamenti e alle istituzioni e una psicologia sociale incentrata sullo studio degli atteggiamenti, a partire dagli anni cinquanta il concetto riacquista un ruolo importante e si assiste al moltiplicarsi delle ricerche e degli studi su questo tema in tutte le scienze sociali, in corrispondenza di un sempre più marcato interesse per l'analisi scientifica degli aspetti soggettivi della cultura e dell'azione sociale. Il concetto cambia, però, di significato: la definizione di Thomas e Znaniecki non è più utilizzata, mentre viene recuperata la componente di normatività attribuita ai valori dalla sociologia classica. Una formulazione particolarmente chiara in questa direzione è fornita dall'antropologo Clyde Kluckhohn che intraprende in quegli anni, insieme ad altri studiosi, un vasto progetto di analisi comparata dei valori. "Un valore - sostiene Kluckhohn (v., 1951, p. 395) - è una concezione del desiderabile, esplicita o implicita, distintiva di un individuo o
caratteristica di un gruppo, che influenza l'azione con la selezione fra modi, mezzi e fini disponibili". Si distingue, in questo modo, ciò che è 'desiderato' o preferito da ciò che è 'desiderabile', ciò che vogliamo da ciò che dovremmo volere. Si potrebbe anche dire che un valore è una 'preferenza' che si considera giustificata moralmente in base al ragionamento o al giudizio estetico. Come ha sostenuto Albert O. Hirschman (v., 1985; tr. it., p. 422), mentre de gustibus non est disputandum, "un gusto su cui si discute, con altri o con se stessi, cessa ipso facto di essere un gusto - diventa un valore". Questa dimensione normativa consente inoltre di distinguere, sul piano analitico, i 'giudizi di valore' dai 'giudizi di fatto', che esprimono una valutazione sull'esistente.Nella nozione di valore sono dunque riconoscibili tre componenti fondamentali: 1) affettiva ('il desiderabile'); 2) cognitiva ('concezione'); 3) conativa ('selezione') (v. Kluckhohn, 1951, p. 395). La componente affettiva dei valori implica la collocazione di oggetti, persone, azioni lungo un continuum di approvazione-disapprovazione. I valori, infatti, sono resi socialmente operanti attraverso il biasimo riservato a coloro che mostrano di non riconoscerli. Imbarazzo, vergogna, colpa rappresentano i correlati soggettivi suscitati dall'agire non conforme ai valori condivisi. Già Durkheim aveva sottolineato, con un'enfasi forse eccessiva, le violente emozioni che la violazione delle norme e dei valori sedimentati nella 'coscienza collettiva' è in grado di suscitare. L'aspetto cognitivo dei valori rimanda al loro presentarsi sotto forma di enunciati del tipo "X è buono", "X è legittimo", "X è giusto" (v. Boudon, 1995; tr. it., p. 13), che hanno un senso argomentabile da parte dell'attore sociale. Infine la componente selettiva fa riferimento alla capacità dei valori di orientare l'agire umano. Essi, come aveva già sottolineato Weber, si realizzano nella scelta tra diversi corsi di azione.
Nonostante si sia realizzata una certa convergenza sul significato da attribuire alla nozione di valori, permangono margini di ambiguità sul piano teorico e metodologico. Sul versante sociologico, il concetto non ha confini chiari con quello di norma sociale. I sociologi perlopiù adottano come criterio di distinzione il grado di generalità: i valori forniscono dei riferimenti generali per l'agire sociale, mentre le norme orientano la condotta in situazioni specifiche. L'onestà, secondo questo criterio, è un valore; l'ingiunzione di non copiare durante i compiti in classe è una norma. Questo criterio tuttavia non consente una distinzione rigorosa sul piano analitico (v. Rositi, 1986, p. 362): se aiuta a distinguere i valori dalle regole tecniche o dalle norme deontologiche, appare assai meno utile per un ampio ventaglio di norme sociali che non prevedono sanzioni formali, come la 'norma di reciprocità' studiata da Alvin W. Gouldner (v., 1960) che prescrive di ricambiare i favori ricevuti. Questa difficoltà di tracciare un confine rigoroso tra la sfera dei valori e quella delle norme sociali fa sì che in molta letteratura sociologica e antropologica si usino spesso indifferentemente i due termini. Sul versante psicosociale, il concetto non ha confini chiari con quello di atteggiamenti. Già Thomas e Znaniecki, come si è detto, hanno distinto i valori dagli atteggiamenti in base all'ambito sociale e individuale a cui fanno rispettivamente riferimento. Tuttavia - come è stato da più autori sottolineato - manca finora un modello psicologico adeguato capace di raccordare il livello dei processi intraindividuali con quello delle relazioni interindividuali. Ne è derivata la tendenza della psicologia sociale ad assimilare, nella pratica di ricerca e nei metodi di misurazione, valori sociali e atteggiamenti, trattando questi ultimi come indicatori dei primi (v. Trentin, 1991).
Sia la complessità della definizione del concetto di valore sia il permanere di una certa ambiguità teorica nel trattare l'articolazione tra il livello individuale e quello sociale, pongono difficili interrogativi metodologici sul modo di operativizzare le dimensioni concettuali dei valori per studiarli empiricamente. Mentre alcuni autori, soprattutto nel campo della psicologia sociale e della scienza politica, propendono per la rilevazione strutturata attraverso questionari e l'uso di tecniche di scaling (v. Rokeach, 1973; v. Inglehart, 1990; v. van Deth e Scarbrough, 1995), altri, soprattutto sociologi e antropologi, ritengono che la rilevazione attraverso interviste discorsive e l'analisi del contenuto di materiali linguistici siano procedure più adatte a cogliere le connessioni semantiche che organizzano i
valori (v. Rositi, 1993). I due indirizzi non hanno finora dato vita, come sarebbe auspicabile, a un approccio integrato che sviluppi le formulazioni teoriche e le traduca in sistemi di ipotesi ad ampio raggio, in modo da tenere conto della natura multidimensionale dei valori.
Le questioni più importanti si possono riassumere così: in primo luogo i valori possono essere analizzati nelle loro relazioni interne. La domanda, in questo caso, è se i valori siano connessi in un 'sistema', e quale sia la logica della loro combinazione. In secondo luogo, i valori possono essere considerati come 'variabili indipendenti'. La questione principale riguarda allora l'influenza dei valori sull'agire e la loro funzione sociale. I valori, infine, sono stati studiati come 'variabili dipendenti'; la questione concerne in questo caso sia la spiegazione della loro genesi - quali 'fattori' cioè sono ritenuti decisivi perché gli individui o i membri di un gruppo aderiscano a certi valori - sia la descrizione e l'interpretazione di come i valori mutano nel corso del tempo in relazione ai cambiamenti economici, politici, sociali e delle forme di socializzazione.
L'analisi sociologica, antropologica e psicologica al fine di distinguere i diversi elementi che caratterizzano i valori tende a classificarli in base ad alcune 'dimensioni' di fondo. La prima dimensione riguarda il contenuto; i valori, in base ad essa, si differenziano in estetici, cognitivi, economici, religiosi, politici e morali. La seconda dimensione riguarda la collocazione nella catena mezzo-fine. Si distinguono a questo proposito due tipi di valori: i valori strumentali, che attengono ai 'modi di condotta' desiderabili per raggiungere ulteriori fini, e i valori finali, che riguardano 'stati finali desiderabili dell'esistenza' (v. Rokeach, 1973, p. 7). Se considerato in questa chiave, il valore della salvezza per l'uomo religioso sarebbe un fine ultimo raggiungibile con una condotta morale conforme alle prescrizioni divine. Nonostante numerosi scienziati sociali diano grande importanza a questa distinzione, è utile ricordare che essa non è molto rigorosa in quanto dipende dalla prospettiva temporale: in un processo che si svolge nel tempo, il valore che ad un dato momento era strumentale può diventare finale in uno stadio successivo. Inoltre, essendo particolarmente legata al contesto culturale occidentale, tale distinzione non si presta, come è stato fatto notare, a rappresentare uno schema generale utilizzabile nell'analisi comparativa (v. Kluckhohn, 1951, p. 413). La terza dimensione riguarda l'estensione. Mentre alcuni valori risultano estesi a tutti i membri di una collettività nazionale o di una civiltà, altri riguardano soltanto settori limitati di queste, come una classe sociale, una professione, un'associazione, un gruppo religioso, un'area culturale specifica. Il grado più ampio di diffusione identifica quei valori che trascendono le differenze culturali e sono condivisi dall'intera umanità, almeno entro una determinata epoca storica. Rispetto a questi valori universali, tutti gli altri appaiono particolari, anche se con gradi diversi di generalità. La presenza di valori universali è controversa ed è molto diffusa, tra sociologi e antropologi, la tesi che i valori siano completamente relativi alla cultura da cui derivano e legati al flusso incessante del divenire storico. Tuttavia il problema della diffusione dei valori, che spesso si intreccia con quello della loro validità, alimentando prese di posizioni radicalmente relativiste, è prima di tutto un problema empirico. Il fatto che gli scienziati sociali abbiano preferito indagare la variabilità culturale dei valori non significa peraltro che più accurate indagini orientate in questa direzione non riescano a rilevare l'esistenza di valori o nuclei di valori transculturali. Questi potrebbero essere legati al fatto che ogni esistenza umana è invariabilmente un'esistenza sociale. Nessuna società - sostiene Kluckhohn (ibid., p. 418) - ha mai apprezzato la sofferenza come una cosa buona in se stessa, né esistono culture che non attribuiscano una valutazione negativa all'omicidio, alla menzogna indiscriminata, al furto all'interno del gruppo, anche se variano le condizioni di tollerabilità. La quarta dimensione riguarda l'intensità. Alcuni valori hanno una maggiore influenza di altri sui comportamenti dei membri del gruppo e sollevano più forti reazioni emotive quando non vengono rispettati. Tra i valori dominanti, sostenuti dall'élite più potente all'interno di un gruppo e caratterizzati dal più alto grado di approvazione e riconoscimento, e i valori devianti, idiosincratici o caratteristici di
una minoranza marginale, si possono situare anche i valori varianti, che comportano un basso livello di approvazione, verso i quali c'è tolleranza più che punizione (v. Kluckhohn e Strodtbeck, 1961). Soprattutto questi ultimi lasciano margini di libertà e di innovazione agli individui. La quinta dimensione riguarda l'organizzazione o coerenza. Questa dimensione fa riferimento al fatto che nell'esperienza i valori non emergono isolatamente e indipendentemente, ma in relazione più o meno stretta con altri valori. Fa parte del discorso abituale dire che "A è più buono, più bello, più giusto di B" o che nelle società industriali il successo è più importante dell'onore. Lo psicologo Milton Rokeach (v., 1967, 1968 e 1973) ha sostenuto che i valori sono organizzati lungo un continuum di importanza, ossia in una gerarchia stabile e duratura, variabile da individuo a individuo. Egli è arrivato a questa conclusione con un'indagine di laboratorio in cui si chiedeva ai soggetti di ordinare gerarchicamente diciotto valori finali e diciotto strumentali. Tuttavia numerosi lavori successivi in ambito psicologico hanno sottolineato i limiti di questo approccio: l'astrattezza e l'ambiguità semantica delle formulazioni renderebbero artificioso il compito di dare un ordine di priorità a una lista di voci singole, difficilmente proponibile a soggetti con livelli di istruzione medi o bassi e particolarmente problematico se rivolto a individui appartenenti a diversi contesti linguistici e culturali. Nel complesso la ricerca empirica che, negli anni settanta e ottanta, si è ispirata al metodo di rilevazione di Rokeach non è riuscita a dimostrare in maniera convincente l'esistenza di un'organizzazione gerarchica dotata di una certa stabilità e costanza. L'analisi di questa dimensione, in ambito sociologico e antropologico, ha seguito un'altra strada, approfondendo soprattutto l'organizzazione logico-semantica dei valori con un intento comparativo. Sono stati per primi i sociologi classici, in particolare Max Weber ed Émile Durkheim, a trattare i valori non come dati ultimi e irriducibili, ma come insiemi di grande complessità. Le 'immagini del mondo' presenti nelle 'religioni universali' costituiscono per Weber (v., 1920) delle configurazioni complesse in cui credenze religiose si combinano con orientamenti valutativi generando delle strutture di senso. Il sistema di valori del protestantesimo ascetico combina elementi a prima vista paradossali, come la credenza dogmatica nella predestinazione, e la valorizzazione dell'impegno professionale. È in questa combinazione - di sottomissione al volere divino e di ricerca dei suoi segni nel lavoro quotidiano - che l'etica protestante ha orientato l'agire economico capitalistico. L'individualismo delle società occidentali moderne studiato da Durkheim (v., 1898) è anch'esso una configurazione complessa nella quale la valorizzazione dell'individuo prende la forma del rispetto sacrale per la persona, la sua dignità e integrità, e del primato interamente laico dell'autonomia individuale. Gli antropologi hanno sempre dovuto tenere conto, in una certa misura, dei valori e delle credenze dei popoli studiati, anche se, in generale, almeno fino alla conclusione della seconda guerra mondiale, hanno usato il concetto di valore in senso vago, più o meno come sinonimo di 'modello culturale'. Un grande impulso in direzione di una maggiore precisazione concettuale e della ricerca sui sistemi di valori, ossia sui modi in cui proposizioni valutative e credenze si combinano dando luogo a insiemi dotati di una certa coerenza e stabilità, è venuto dai lavori di antropologi e sociologi americani come Clyde Kluckhohn, Talcott Parsons, Robert Redfield, Walter Goldschmidt e altri. Il loro scopo principale è quello di descrivere, con un metodo comparativo, la grande diversità esistente tra le culture umane, nella convinzione che un dato valore può essere compreso solo nel contesto del sistema di idee in cui è inserito. Il valore che molti popoli attribuiscono al mangiare insieme, ad esempio, deve essere compreso nel complesso delle loro idee riguardo al cibo, all'ospitalità, ai doveri verso i vicini e gli stranieri e così via. Come ha più recentemente mostrato Louis Dumont (v., 1983), il valore dell'individuo assume significati profondamente diversi, addirittura antitetici, se inserito nei limiti definiti da una concezione gerarchica della società come avviene nella cultura indiana, o se si combina con i valori egualitari della moderna cultura occidentale. Kluckhohn (v., 1956), in un'indagine comparativa sui valori che mette a confronto cinque culture del Nuovo Messico, ha descritto le caratteristiche dei rispettivi sistemi di valori indagando l''enfasi' posta da ogni cultura sul tipo di rapporto desiderabile con la natura, gli altri individui e il Sé entro un insieme
definito di alternative e analizzando successivamente le diverse combinazioni. La tesi di Kluckhohn è che i valori si presentano in forma dicotomica, per cui ad una situazione giudicata desiderabile corrisponde una situazione ritenuta indesiderabile. Se si considera, ad esempio, la concezione del rapporto tra uomo e natura, ogni cultura prenderà posizione, esplicitamente o implicitamente, per un corno di ciascuna delle tre alternative ritenute fondamentali a rappresentare la natura: 'determinataindeterminata'; 'unitaria-pluralista'; 'maligna-benigna'. Talcott Parsons (v., 1951) ha sviluppato la stessa idea, per cui i sistemi di valori sociali sono costituiti da combinazioni di scelte entro cinque dilemmi fondamentali, chiamati 'variabili strutturali', che si presentano ad ogni attore sociale e ai quali egli deve dare una risposta orientando la propria azione: 'affettività-neutralità affettiva'; 'orientamento in vista dell'ego-orientamento in vista della collettività'; 'universalismo-particolarismo'; 'realizzazioneattribuzione'; 'specificità-diffusione'. Da questo tipo di indagine si ricava che i sistemi di valori, pur costituendo degli insiemi relativamente aperti, hanno tuttavia una logica che non consente ogni tipo di combinazione. Secondo Parsons, ad esempio, un individuo coinvolto in un sistema di parentela esteso, come nell'Europa medievale e nella Cina classica, deve orientarsi verso scelte e ruoli 'affettivi', 'particolaristici', 'orientati al gruppo', 'diffusi' e 'ascritti' (non acquisiti). Tutti questi orientamenti di valore hanno strette implicazioni logiche, incompatibili con la struttura professionale delle società industriali. I valori, inoltre, tendono ad aggregarsi intorno a un numero limitato di valori 'focali' (v. Albert, 1956) che definiscono le qualità approvate o disapprovate della personalità, le 'virtù' e i 'vizi', e che appaiono in combinazioni anche molto diverse nel corso del tempo.
La funzione regolatrice e integratrice esercitata dai valori nei confronti della società, in virtù della loro capacità di orientare il comportamento degli individui, è non solo affermata con forza dalla sociologia classica, ma è anche generalmente riconosciuta dalle varie scienze sociali che in tempi successivi si sono occupate di questo tema. Non vi è però una convergenza altrettanto ampia sulla reale portata, ossia sulla pervasività ed efficacia esclusiva, di tale funzione regolatrice, né sono stati sufficientemente chiariti e approfonditi i meccanismi attraverso i quali essa si realizza a livello dell'individuo. Durkheim ha elaborato, negli anni a cavallo del secolo, uno schema concettuale che ha influenzato gran parte della moderna teoria sociologica e in cui i valori morali svolgono un ruolo centrale nella spiegazione della coesione e dell'ordine sociale. Già ne La divisione del lavoro sociale (1893), in polemica con l'utilitarismo, egli sostiene che anche nelle società moderne, altamente differenziate, permane la necessità di un sistema di norme comuni che regolino la complessa divisione del lavoro e promuovano la solidarietà all'interno dell'organizzazione sociale. Se alle norme e ai valori è sempre riconosciuto kantianamente un carattere obbligatorio, il loro modo di operare nell'esperienza dei soggetti resta però indefinito. Negli scritti successivi il concetto troppo vago e statico di 'coscienza collettiva' è sostituito da quello di 'rappresentazioni collettive', che comprendono sia le categorie più astratte del pensiero, i modi del pensare, sia i contenuti del pensiero, ossia le credenze religiose, mitiche, i valori morali. A questi viene attribuito chiaramente lo status di 'fatti sociali' esterni e costrittivi rispetto alle coscienze individuali. Un decisivo passo avanti per capire in che modo i valori operino costrittivamente sull'agire degli individui si trova in Sociologia e filosofia (1924) e in L'educazione morale (1925), dove principî, valori, norme risultano strettamente legati al concetto di 'autorità' della collettività che rimanda all'idea di rispetto più che di supremazia fisica, al carattere trascendente e sacrale della società. I 'fatti morali' sono obbligatori come lo sono le cose 'sacre': "l'essere sacro è per un verso l'essere proibito, che non si osa violare; ma è anche l'essere buono, amato, ricercato". Così il valore supremo della società moderna, quello dell'individuo, assume caratteri sacri: "La personalità umana è cosa sacra; non si osa violarla, ci si tiene a distanza dal suo territorio, nello stesso tempo però il bene per eccellenza è la comunione con l'altro" (v. Durkheim, 1924, p. 51). Se l'obbligatorietà dei valori risulta connessa alla loro sacralità e trascendenza, il loro operare resta comunque, in larga misura, irriflesso e compulsivo. Talcott Parsons ha ripreso lo schema concettuale durkheimiano, cercando di conferirgli uno spessore psicologico combinandolo con la prospettiva
psicanalitica freudiana. Se per Durkheim i valori sono i modelli istituzionalizzati nell'universo simbolico della società, per Freud essi esistono in quanto sono interiorizzati dall'individuo, in quanto cioè sono divenuti parte integrante della sua personalità. Le due prospettive, quella di Durkheim e quella di Freud, risultano, nella complessa teoria dell'azione elaborata da Parsons, complementari e integrabili. I valori comuni diventano efficaci, capaci di svolgere sia una funzione regolatrice del comportamento dei singoli sia una funzione di coesione sociale, nel momento in cui entrano a far parte delle strutture motivazionali profonde della persona. La duplice natura dei valori, contemporaneamente nell'universo simbolico della società e nella personalità dei suoi membri, rappresenta il pilastro della teoria sociologica di Parsons (v., 1951; tr. it., p. 49): "Questa integrazione di un complesso di modelli di valore comuni con la struttura interiorizzata di bisogno-disposizione delle personalità costituenti rappresenta il fenomeno centrale della dinamica dei sistemi sociali". La tesi di Durkheim dell'importanza strategica dei valori per l'integrazione sociale risulta così rafforzata dall'analisi parsonsiana del processo di socializzazione. Questo si sviluppa attraverso una successione di tappe in cui il bambino, apprendendo dei ruoli, interiorizza anche norme e valori più generali (v. Parsons e Bales, 1955). A questo schema teorico sono state rivolte molte critiche. La principale è quella di presentare una 'concezione ultrasocializzata dell'uomo', che dà per scontata la coincidenza tra livello individuale e livello sociale. Tra i due livelli esiste invece una sfasatura, particolarmente evidente nelle società contemporanee dove contraddizioni di ruolo e conflitti di valori fanno parte della comune esperienza sociale. L'approfondimento dei meccanismi psicosociali che consentono di affrontare situazioni di conflitto rappresenta uno dei punti cruciali per chi intenda studiare il ruolo dei valori sull'azione. Questa teoria, inoltre, esagera la capacità integratrice dei valori. I valori dividono tanto quanto uniscono. Prima di affermarsi l''ethos capitalistico', come ha mostrato Weber, ha dovuto combattere contro un mondo intero di forze nemiche. In secondo luogo, tale schema sottostima la presenza di altri elementi che orientano l'azione sociale. Oltre ai valori esistono anche gli interessi e la consuetudine, come avevano ben visto Vilfredo Pareto e Max Weber. Quest'ultimo, nella sua nota tipologia dell'agire sociale, oltre all'agire 'razionale rispetto al valore', identifica anche l'agire 'razionale rispetto allo scopo', il comportamento 'tradizionale' e quello 'affettivo' (v. Weber, Wirtschaft und..., 1922; tr. it., p. 22). Inoltre, sul piano del riscontro empirico, decenni di ricerche su valori e comportamenti non sono stati in grado di stabilire in maniera chiara l'esistenza di un condizionamento diretto dei primi sui secondi. Ciò che numerose indagini, svolte in diversi campi, soprattutto nello studio dei fenomeni politici, sono state in grado di mostrare, è l'esistenza di correlazioni tra valori - perlopiù rilevati attraverso gli 'atteggiamenti' espressi verbalmente come risposte a un questionario - e comportamenti (v. van Deth e Scarbrough, 1995). Solleva noti problemi metodologici la tendenza dei ricercatori a pronunciarsi, in questi casi, per un'interpretazione causale. Per trovare un'analisi più articolata sul piano psicosociale della socializzazione ai valori, che non la riduca a un processo più o meno meccanico di condizionamento attraverso l'interiorizzazione, e ne metta in luce il rapporto con lo sviluppo dell'identità, bisogna rivolgersi innanzitutto ai lavori pionieristici di George Herbert Mead (v., 1934). Il processo di socializzazione è inteso come una successione di fasi, dal 'gioco puro e semplice' al 'gioco organizzato', in cui il bambino, entrando in rapporto con diversi e via via più ampi contesti di interazione, impara progressivamente ad astrarre dai ruoli e dagli atteggiamenti degli altri in particolare, ossia delle persone concrete a lui vicine, giungendo così ai ruoli e agli atteggiamenti degli altri in generale. Il processo che porta all''altro generalizzato', a riconoscere cioè il carattere generale delle norme e dei valori morali, non è un processo unilaterale di condizionamento, ma un rapporto attivo e dialettico di immedesimazione e di autoidentificazione, di riconoscimento da parte degli altri e di definizione di sé. Nell'ambito della psicologia cognitivistica dello sviluppo, è stata individuata una progressione nella formazione del giudizio morale del bambino che non dipende solo da una logica interna di sviluppo, ma dal carattere del sistema di interazione in cui egli è inserito (v. Piaget, 1932; v. Kohlberg, 1971).
L'interesse di questi studi per l'analisi dei valori e del loro rapporto coll'azione sociale consiste nell'aver posto l'attenzione sul fatto che la coscienza morale non riguarda semplicemente l'adozione di un contenuto normativo, ma presenta una struttura cognitiva complessa di cui Lawrence Kohlberg (v., 1971) definisce tre livelli di sviluppo: il 'livello preconvenzionale', composto da singole attese di comportamento e da un orientamento in termini di punizione o ricompensa; il 'livello convenzionale', costituito da attese di comportamento generalizzate e da un'attitudine di conformità ai ruoli sociali; il 'livello postconvenzionale', caratterizzato dalla definizione di principî etici autonomi, secondo i quali possono essere espressi giudizi su conflitti di azione moralmente rilevanti. Il rapporto tra valori e azione sociale risulta, dunque, molto più complesso, sul piano psicologico, della semplice conformità alle aspettative sociali. La direzione dello sviluppo morale verso una crescente autonomia suggerisce, inoltre, come ha messo in luce Jürgen Habermas (v., 1976; tr. it., p. 54), l'esistenza di uno sviluppo parallelo dell'identità personale verso livelli crescenti di individuazione, ossia "una crescente indipendenza rispetto ai sistemi sociali". L'identificazione di questo meccanismo sociocognitivo risulta di particolare rilevanza anche nella spiegazione del cambiamento dei valori (v. cap. 5). Se dunque l'analisi dei meccanismi psicosociali attivati dalla socializzazione sembra non confortare la tesi che i comportamenti di un soggetto siano sempre conformi alle aspettative sociali, anche altre considerazioni, di carattere più strettamente sociologico, rendono plausibile una interpretazione più articolata e meno deterministica del rapporto tra valori e azione sociale. Nella sociologia classica l'autore che ha fornito maggiori spunti teorici in questa direzione è Max Weber, con l'analisi del ruolo svolto dai valori puritani nel favorire lo sviluppo dello 'spirito capitalistico'. I valori ascetici puritani, nell'interpretazione weberiana, non spiegano perché necessariamente gli individui abbiano adottato comportamenti economici razionali, ma come ciò sia diventato storicamente possibile in presenza di diverse alternative. Nell'ottica weberiana i valori diventano capaci di orientare l'agire se si verificano condizioni storiche particolari, se riescono a combinarsi con gli interessi e le aspirazioni di specifici gruppi e strati sociali. Weber fornisce un esempio particolarmente chiaro di questo schema interpretativo quando, ne Le sette protestanti e lo spirito del capitalismo (1906), si domanda la ragione della particolare vitalità delle sette protestanti negli Stati Uniti e della loro grande influenza nel mondo economico. Weber non imputa l'influenza dell'etica protestante solo o principalmente alla forza dell'interiorizzazione di valori ormai divenuti parte del patrimonio culturale americano. La sua spiegazione è diversa: le sette protestanti fornivano ai loro membri degli attestati di onorabilità, tanto più ricercati quanto più esclusiva e selettiva risultava l'ammissione ad esse, rispondendo così all'esigenza del mondo economico di poter valutare su solide basi l'affidabilità delle persone con cui si entrava in affari. Tra le convinzioni religiose e l'azione economica Weber inserisce altri elementi decisivi per la comprensione del problema: il carattere volontario delle sette, quindi la qualificazione etico-religiosa dei loro membri, il contesto istituzionale americano caratterizzato dal pluralismo religioso, la formazione di identità collettive (le sette) capaci di generare strutture di fiducia o, come si direbbe oggi, 'capitale sociale'. Anche se lo schema weberiano, che non è una vera e propria teoria, è stato variamente interpretato, numerose indagini sul rapporto tra valori e azione, esplicitamente o implicitamente, adottano un approccio analogo. Si sono rivelati particolarmente efficaci nella spiegazione di molte forme di azione collettiva e di comportamenti innovativi di ruolo quegli approcci teorici che concepiscono il rapporto tra valori e comportamenti come un rapporto mediato della capacità dei primi di definire e strutturare specifiche identità sociali (v. Cancian, 1976).
Le scienze sociali non considerano i valori come dati ultimi ed irriducibili e li hanno spesso studiati ponendosi il problema della loro genesi. Perché individui e gruppi sociali aderiscono ai valori? Da che cosa dipende l'emergere di alcuni valori invece di altri? La sociologia contemporanea, in realtà, non è sembrata molto interessata al problema, in un quadro in cui, secondo alcuni, l'intera questione dei valori è stata sottovalutata (v. Hechter, 1992). Questa diagnosi vale, anche se per ragioni opposte, sia per la sociologia parsonsiana, che pure fa dell'interiorizzazione dei valori condivisi l'elemento portante
della teoria dell'azione, sia per quei 'paradigmi interpretativi', come l'etnometodologia e la sociologia cognitiva, che hanno aspramente criticato il 'determinismo normativo' della prima. La sociologia parsonsiana, infatti, considera come acquisita l'esistenza di valori e norme sociali, senza interrogarsi ulteriormente sulla loro origine e sui loro cambiamenti. I 'paradigmi interpretativi' che si sono affermati a partire dagli anni sessanta tendono invece, per reazione alla sopravvalutazione dei valori come fonte di coesione sociale da parte dello struttural-funzionalismo di Parsons, ad accentuare il ruolo che le regole d'uso comune e le routines svolgono nella vita sociale quotidiana. Etnometodologia e sociologia cognitiva hanno finito per modificare profondamente lo status teorico delle norme e dei valori sociali nell'analisi sociologica, sostenendo che una norma non può essere definita indipendentemente dalle pratiche sociali di cui si ritiene sia un'applicazione.
Questa diagnosi non riguarda, però, tutta la sociologia o le scienze sociali nel loro complesso, in particolare non riguarda la sociologia classica, che ha dedicato uno sforzo notevole all'analisi dell'origine e dell'evoluzione dei valori e che ancora oggi è in grado di fornire spunti teorici rilevanti per l'indagine in questo campo. Poiché gli studi e le ricerche empiriche sono molto eterogenei e farne una rassegna sarebbe un'impresa piuttosto dispersiva, è preferibile considerare i principali tipi di spiegazione utilizzati. Secondo un primo modello di tipo funzionalista, l'attore sociale tende a far propri i valori della società in cui vive in quanto favoriscono la sopravvivenza del sistema sociale e, di conseguenza, anche quella individuale. Per Durkheim esiste un solo insieme di valori capace di garantirne il funzionamento. Non è quindi mai possibile aderire a valori diversi da quelli richiesti dalle condizioni sociali di un dato periodo. Questo modello ha esercitato una notevole influenza sulla ricerca antropologica e sociologica, nonostante la difficoltà di determinare quali siano i 'requisiti' necessari al funzionamento di un dato sistema sociale. In questa prospettiva si è ad esempio sostenuto, sulla base di dati antropologici comparati, che il valore attribuito da molte popolazioni alla terra e al suo possesso dipende dal rapporto funzionale con il carattere dell'economia locale; al contrario l'assenza di tale valore deriverebbe dalla sua disfunzionalità per il sistema. Il possesso della terra risulterebbe, quindi, un valore per le comunità dedite all'agricoltura e non, viceversa, per le popolazioni di cacciatoriraccoglitori (v. Goldschmidt, 1953). Un esempio simile è fornito dalle valutazioni sul prestito ad interesse, considerato illegittimo nelle economie tradizionali in virtù della sua disfunzionalità rispetto a un sistema in cui gli stretti rapporti interpersonali garantiscono al creditore la restituzione del prestito (v. Gouldner, 1960), ma che diventa legittimo in una situazione più complessa, dove rapporti impersonali non assicurano più lo stesso tipo di controllo.
Vi è poi un tipo di spiegazione in base a cause sociali. Secondo questo modello l'adesione a valori dipende direttamente dalle relazioni sociali e dai rapporti di produzione in cui gli individui sono inseriti. Nell'Ideologia tedesca (1845-1846) Karl Marx e Friedrich Engels hanno sostenuto che i valori e le rappresentazioni degli uomini vengono loro direttamente ispirati dall''attività materiale'. Il meccanismo ben noto attraverso cui ciò avviene sono gli interessi di classe. Poiché chi dispone dei mezzi della produzione materiale dispone anche dei mezzi della produzione intellettuale, le idee e i valori dominanti in una società sono le idee e i valori della classe dominante. La prospettiva marxiana ha aperto la strada alla considerazione dei valori in termini di ideologia, ossia come distorsione e occultamento, perlopiù inconsapevole, delle reali contraddizioni di classe. In questa prospettiva, ad esempio, i valori di libertà, uguaglianza, fraternità di cui si è fatta portatrice la borghesia francese nel periodo rivoluzionario, sono solo falsamente universali, ma in realtà mascherano l'interesse particolare di questa classe a rovesciare il dominio dell'aristocrazia e ad affermare il proprio. L'universalità dei valori morali è dunque sempre, nell'ottica marxiana, una falsa universalità.
Bisogna, però, precisare che non sempre Marx adotta nelle sue analisi concrete un approccio deterministico, né d'altro canto lo studio del rapporto tra classi sociali e idee morali ha portato a
conclusioni analoghe a quelle marxiane, come mostrano, ad esempio, quei lavori che mettono in luce l'esistenza di molteplici 'moralità borghesi' legate in maniera tipica a contesti spazio-temporali diversi (v. Ossowska, 1971). Un modello causale, presente in alcune versioni neomarxiste e in tutte quelle posizioni 'culturaliste' che postulano un nesso necessario tra i valori e il momento storico-culturale in cui emergono, è all'origine di una concezione relativistica dei valori oggi assai diffusa che li considera come 'illusioni' o come 'opinioni', la cui validità è comunque ridotta a quel singolo momento. Le osservazioni di Weber sul rapporto tra etica religiosa, ceti e classi sociali non sono invece mai di tipo deterministico. L'uso del termine 'affinità elettive' per indicare la natura del rapporto, significa che esiste una sorta di 'congenialità' e non di necessità tra mentalità contadina e magia, tra ceti intellettuali e atteggiamento mistico-contemplativo o tra strati borghesi ed etica razionale ascetica. Weber analizza a fondo l'influenza decisiva che possono avere svolto storicamente alcuni strati sociali sull'etica delle religioni universali. Il confucianesimo, ad esempio, costituì "l'etica di ceto di uno strato di beneficiari razionalistico-secolari di formazione letteraria", l'induismo antico si basava "su una casta ereditaria di 'letterati"', il cristianesimo iniziò "come una dottrina di apprendisti artigiani ambulanti" e restò sempre una religione cittadina e borghese. Tuttavia Weber non ha mai fatto derivare in maniera deterministica l'etica religiosa dagli interessi di classe o di ceto. "Per quanto profonde siano state, nel caso singolo, le influenze sociali, economicamente e politicamente determinate, su un'etica religiosa, questa ha tratto la sua impronta in primo luogo da fonti religiose - anzitutto dal contenuto del loro annuncio e della loro promessa" (v. Weber, 1920; tr. it., p. 229).
Un terzo tipo di spiegazione, formalmente simile al precedente, attribuisce l'origine dei valori a cause psichiche. Si tratta, infatti, anche in questo caso dell'operare di fattori inconsci, ma di tipo affettivo e non sociale. Questo modello si trova formulato con particolare chiarezza nel Trattato di sociologia generale (1916), in cui Vilfredo Pareto considera le idee morali e i giudizi di valore come 'derivazioni', ossia come razionalizzazioni dei sentimenti. Sono i sentimenti e gli impulsi istintivi la causa reale dei valori, che dunque appaiono come mutevoli e fragili tentativi da parte dell'uomo di dare una 'vernice logica' e obiettiva a ciò che logico e obiettivo non è. In questo caso, come in molte spiegazioni simili, di senso comune, che intendono i valori come 'mistificazioni' o 'coperture' di impulsi poco confessabili, un discorso relativistico vale per i valori e non per gli impulsi, che sono invece considerati tratti fissi della natura umana.
Un quarto tipo di spiegazione, di matrice utilitarista, spiega l'adesione a norme e valori da parte dell'attore sociale in base all'interesse che questi ha ad accettarli. Questo modello non è certo nuovo nelle scienze sociali, e perfino alcune formulazioni della teoria marxiana - qualora gli 'interessi di classe' siano intesi non come emanazione di una struttura economico-sociale, ma come 'preferenze' dell'attore - potrebbero rientrarvi comodamente. Molti lavori recenti l'hanno ripreso e sviluppato, mostrando, ad esempio, che nei gruppi di parentela e nelle organizzazioni complesse, al di fuori del mercato, l'adesione a sistemi di norme e valori morali è più conveniente di 'strategie non morali' al fine di garantire una cooperazione stabile (v. Oberschall, 1994). Recentemente Raymond Boudon ha proposto un modello cognitivista di spiegazione dei valori e dei sentimenti morali, che si colloca nell'alveo della sociologia comprendente weberiana. Secondo questo modello l'attore sociale aderisce a un valore perché questo ha senso per lui. La 'razionalità rispetto al valore' di Weber viene interpretata da Boudon "come designante il caso in cui i valori sono professati dal soggetto in base a ragioni che egli reputa convincenti" (v. Boudon, 1995; tr. it., p. 205). L'interesse di questo modello consiste nel mettere in risalto l'esistenza di 'ragioni', diverse dall'utilità, ma 'trans-soggettive', il cui carattere cogente risiede nella loro giustificabilità, nel fatto cioè di poter essere pubblicamente difese con solide argomentazioni.
Gli scienziati sociali, tra la fine dell'Ottocento e gli inizi del Novecento, nonostante le diversità di
indirizzo teorico e intellettuale, erano concordi nel constatare che un processo di secolarizzazione stava trasformando profondamente gli orientamenti culturali e la sensibilità morale delle società industriali dell'Occidente. Weber, per definire questo processo, ha usato il termine 'disincantamento', intendendo sottolineare non solo il progressivo sostituirsi della ragione alla magia nel dominio pratico sul mondo, ma anche l'autonomizzarsi della sfera religiosa dalle altre sfere della vita. Vengono così messi in luce due aspetti centrali e tra loro collegati della situazione morale della modernità: l'indebolimento del tradizionale ancoraggio dei valori nella religione e l'esistenza di una molteplicità di valori tra loro in conflitto. Con la nozione di 'politeismo dei valori' Weber esprime l'idea che il problema dei valori nella situazione moderna, in assenza di quei fondamenti assoluti garantiti in passato dalla religione, non riguardi semplicemente la numerosità dei modelli e dei criteri valutativi, ma la loro inconciliabilità.
Il riferimento al 'politeismo dei valori' da un lato esprimeva l'inquietudine di una generazione di studiosi di fronte all'incombere minaccioso di quella che Wilhelm Dilthey chiamava 'anarchia delle convinzioni', dall'altro poneva il problema, centrale per una teoria della società, del fondamento dei valori in un'epoca in cui è venuto meno il riferimento a un'entità trascendente capace di fornire dei criteri assoluti di giudizio. Storicamente sono prevalsi nelle scienze sociali due modi opposti di affrontare il problema. Una strada è quella intrapresa da Durkheim che, come si è detto in precedenza, ha riconosciuto nella società quell'autorità trascendente non più attribuibile alle leggi divine. In questo modo egli ha, però, indissolubilmente legato valori e trascendenza, assumendo che l'unico criterio di validità sia un criterio assoluto. Una seconda strada, che sembra trovare un grande seguito nella sociologia contemporanea, in realtà più che risolvere dissolve il problema. I valori, secondo questa prospettiva, vengono ridotti ai 'gusti' e considerati, come questi, arbitrari e, in definitiva, non significativi. Una versione 'nichilista' di quest'ultima prospettiva sostiene che, in conseguenza dell'indebolimento sia delle grandi tradizioni religiose sia delle 'grandi narrazioni' basate su qualche filosofia della storia, i valori stessi sono scomparsi dall'orizzonte culturale delle nostre società.I valori, invece, si sono secolarizzati, non poggiano più su credenze dogmatiche o tradizionali, ma, nonostante ciò, non sono morti. Lo si osserva innanzitutto dal fatto che nelle sempre più numerose controversie pubbliche su temi morali, che coinvolgono, ad esempio, il valore della vita - come la discussione sull'aborto, sulla pena di morte, sull'eutanasia - il ricorso ad argomentazioni di tipo dogmatico resta perlopiù ristretto agli uomini di chiesa. L'obsolescenza di valori antichi come l'onore - visibile nella scomparsa dalle leggi dei reati ad esso connessi - che orientavano e, in alcuni settori marginali della società, ancora orientano il rispetto per l'altro, non ha lasciato un vuoto in quanto altri valori hanno preso il suo posto nell'indirizzare i rapporti interpersonali. In altri termini, il declino dell'idea di onore non ha avuto come conseguenza un abbassamento della sensibilità morale per la reputazione e il rispetto, in quanto l'onore è stato sostituito da valori maggiormente legati all'individuo, come la dignità e l'integrità della persona. In una situazione di pluralismo e di relativa indeterminazione del sistema di valori, com'è quella delle nostre società, è sempre possibile, inoltre, che minoranze e nuovi movimenti sociali manifestino valori diversi da quelli ritenuti dominanti, o, addirittura, nascano con l'obiettivo esplicito di ridefinire gerarchie di valori consolidate e diffuse nel tessuto sociale. Basti pensare, per non fare che un esempio, ai movimenti ecologisti che, col sostenere la difesa della natura, hanno attribuito valore ad oggetti - piante, animali, altri enti naturali - considerati in precedenza moralmente irrilevanti.
Dalla fine degli anni settanta un ampio programma di ricerca, The European Values Studies, basato su indagini comparative longitudinali tra i paesi europei ed esteso poi anche agli Stati Uniti e al Canada, ha consentito a molti ricercatori di studiare a fondo i valori nei più diversi ambiti - religioso, morale, politico - e, soprattutto, di analizzarne il mutamento su un arco temporale sufficientemente lungo. Al di là di alcune pur importanti variazioni nazionali, il quadro generale converge su alcuni significativi mutamenti sia nella modalità di validazione dei valori, che appare 'individualizzata', non fondata cioè sull'autorità della tradizione e su credenze dogmatiche, sia nei contenuti, caratterizzati da un'enfasi
crescente su un nucleo centrale di valori legati all'autorealizzazione e all'emancipazione personale (v. Ashford e Timms, 1992; v. Ester e altri, 1994). Ronald Inglehart (v., 1977 e 1990) ha parlato di una 'rivoluzione silenziosa' che ha trasformato gli orientamenti di valore delle società industriali avanzate. Dal dopoguerra a oggi, attraverso il ricambio generazionale, valori 'postmaterialisti', che enfatizzano il senso di appartenenza, l'autorealizzazione e la qualità della vita, hanno progressivamente sostituito valori 'materialisti', che pongono invece l'accento sulla sicurezza fisica ed economica. Inglehart fornisce una spiegazione esogena di questo mutamento che riconduce a cause socioeconomiche. Le priorità di valore degli individui riflettono, secondo questa ipotesi, lo sviluppo economico: le generazioni nate negli anni del benessere economico, socializzate in un ambiente in cui i 'bisogni primari' di sussistenza sono stati soddisfatti, hanno potuto sviluppare, a differenza delle generazioni precedenti, orientamenti volti al soddisfacimento di 'bisogni secondari', quali il bisogno di cultura e di una migliore qualità della vita. Altri autori hanno proposto una spiegazione diversa, di tipo endogeno, che sottolinea soprattutto l'aspetto cognitivo del mutamento, ossia il mutamento che riguarda il modo di giustificare valori e norme sociali. Sono stati messi in luce l'importanza del tipo di argomentazioni utilizzate nelle controversie pubbliche su alcuni dilemmi morali, l'accesso differenziale all'informazione e i processi di apprendimento legati all'esperienza. Questi processi sociocognitivi aiutano meglio dei fattori economici a comprendere le modalità non dogmatiche, argomentative, con cui si tende ad affrontare oggi le opzioni di valore (v. Döbert e Nunner-Winkler, 1985).
In realtà, l'esperienza insegna che si può credere in molte cose e che ciò ha poco o nulla da fare con il fatto che ciò in cui crediamo abbia anche un fondo di verità.  Pensiamo al progresso. Cosa vuol dire?  Progresso significa progredire, andare  avanti, avanzare. Il fatto di andare avanti non significa che si avanzi verso il meglio. Ma andiamo con ordine. 
PROGRESSO
Il concetto di progresso è strettamente connesso a quello di storia: attribuire p. alla storia significa individuare in essa un avanzamento, un continuo miglioramento. Il concetto di p. è relativamente recente nella cultura occidentale, essendo sorto agli inizi dell’età moderna, mentre il mondo classico appare piuttosto legato, da un lato, alla dottrina della mitica età dell’oro (Esiodo, Platone), in confronto a cui tutta la storia successiva si configura come un processo di decadenza, dall’altro, a quella del ritorno ciclico degli eventi (tipica degli stoici). Il cristianesimo rifiuta il tema del circolare ritorno degli eventi e prospetta una concezione lineare della storia tesa dalla creazione e dal peccato di Adamo verso l’incarnazione del Verbo (momento centrale e irripetibile) e di qui verso la fine dei tempi. In questa concezione il p. può essere inteso non come opera umana, ma come realizzazione dei piani provvidenziali. Per un concetto di p. come ampliamento di conoscenze, come conquista degli uomini, si dovrà arrivare alle soglie dell’età moderna, non senza tuttavia ricordare il presentarsi (nel sec. 12°, in rapporto ai nuovi orizzonti aperti dal ritorno dei classici antichi) di un tema destinato a grande fortuna, quello per cui i moderni sono «nani sulle spalle di giganti» e vedono più lontano.
Il senso del necessario p. intrinseco alla storia si fa decisamente strada nel Rinascimento, dove appare strettamente connesso con l’estendersi delle conoscenze storiche, geografiche, scientifiche, tecniche e quindi con la nuova consapevolezza della capacità di ascesa e di conquista della natura umana. Caratteristica testimonianza di questo nuovo atteggiamento si ritrova in Bruno, secondo il quale la possibilità dell’avanzamento della scienza è proporzionale al numero delle osservazioni che si sono
potute compiere, e quindi a quello degli anni trascorsi: l’età recente ha maggiore esperienza dell’antica, e, se la sapienza è nella vecchiaia, i veri vecchi sono i moderni. Questo tema degli antichi e dei moderni, con la consapevolezza della maggiore esperienza e dei più larghi orizzonti di cui questi ultimi possono usufruire, già presente nella letteratura del Rinascimento, sarà destinato a ritornare lungo tutto il Seicento, sempre più strettamente connesso con la constatazione dei p. realmente compiuti soprattutto nella conoscenza della natura e nel distacco definitivo dalla cultura scolastica: così in Campanella come in Bacone, in Galilei come in Pascal sino alla Digression sur les anciens et les modernes di Fontenelle (1688). Con l’Illuminismo si assiste all’estensione del concetto di p. dall’ambito conoscitivo a quello etico e sociale: il p. realizzato nell’ambito scientifico e filosofico deve estendersi anche all’organizzazione della società umana e ai modi del comportamento morale, purché si sia capaci di rimuovere quegli ostacoli che frenano lo sviluppo della ragione e che sono soprattutto di ordine dogmatico-religioso e politico; l’estensione dei ‘lumi’ della ragione diviene di per sé strumento di p. che investe tutta l’organizzazione politica e religiosa. Di questa fede in un p. totale testimoniano quasi tutti i principali rappresentanti dell’Illuminismo europeo: come suoi assertori e teorizzatori più espliciti possono in ogni modo essere citati per la Francia Turgot e Condorcet, per la Germania Lessing e Kant.
In parte connesso all’Illuminismo, in questa fusione di p. scientifico e p. etico, appare, poi, dopo l’idealismo, il positivismo, che tuttavia, spinto dalle scoperte scientifiche e tecniche a una fede entusiastica nel p., ne delineò, a differenza dell’Illuminismo, una vera e propria metafisica connessa alle nascenti idee evoluzionistiche. Tipico rappresentante di questo orientamento è Comte, che elaborò il concetto di p. nella forma di una «legge dei tre stadi» dell’evoluzione storica e scientifica. Non meno metafisica appare la concezione di Spencer, che tese a estendere il concetto di p. dall’evoluzione biologica a quella storico-sociale secondo i medesimi principi di differenziazione e organizzazione. Di tipo diverso, ma anch’esso profondamente metafisico, era stato il concetto di p. nell’idealismo hegeliano, dove appare connesso alla nozione di dialettica, per la quale ogni momento del divenire della realtà è superato da un momento successivo che conserva quanto lo precede. Costitutiva della più profonda natura della realtà, la dialettica opera per Hegel anche, e soprattutto, nella storia, concepita come un processo dialettico teleologicamente orientato nel quale l’essere (Sein) coincide con il dover essere (Sollen): da questo punto di vista il p. dialettico è per Hegel fondamentalmente sviluppo dello spirito attraverso l’opera anche inconsapevole degli individui e dei popoli che di volta in volta lo incarnano («astuzia della ragione») e il suo fine è la realizzazione della libertà, di cui lo Stato ottocentesco è per Hegel il maggiore esempio. Influenzato dal concetto hegeliano di dialettica, e poi anche dalle concezioni positivistiche, è il marxismo, che, almeno nelle formulazioni dottrinarie, ha visto nella storia un’evoluzione inevitabile, e orientata al meglio per quanto riguarda le condizioni materiali e spirituali, verso la società comunista, stadio finale che si realizzerebbe con la rivoluzione proletaria soltanto dopo il raggiungimento del maggiore livello di ricchezza, che è anche il maggiore livello di sfruttamento delle forze di produzione, da parte delle società industriali.
Il concetto di inevitabilità storica – a cui spesso è possibile ricondurre la fede nel p., ma anche quella, a essa speculare, nella decadenza delle civiltà (come nel caso di Spengler) – è stato fortemente criticato, nel Novecento, da Berlin e, soprattutto, da Popper, che ha raggruppato sotto il nome di storicismo tutte le concezioni (da Hegel e Marx a Comte e Spencer a Stuart Mill) fondate sulla postulazione di leggi di sviluppo della storia, mostrandone la carenza logica e l’infondatezza scientifica e riconducendole altresì a una comune matrice utopistica. Il ridimensionamento dell’idea di avanzamento verso il meglio è stato inoltre anche determinato dalle disillusioni indotte dai conflitti mondiali e dalle loro conseguenze alimentatrici di pessimismo sul futuro della civiltà, mentre più recentemente è apparso connesso a considerazioni di tipo ecologico-ambientale suggerite da quello che viene avvertito come un eccessivo e poco accorto sviluppo tecnologico. La cultura filosofica del Novecento ha d’altra parte
posto in evidenza quanto il concetto di p. sia impregnato di valori e come spesso rappresenti un’assolutizzazione di ideali propri del mondo occidentale: da questo punto di vista va segnalata la riflessione di Lyotard su quella che ha definito la «condizione postmoderna» tipica della contemporaneità (La condition postmoderne, 1979; trad. it. La condizione postmoderna), che segnerebbe la fine della modernità e dei suoi ideali di derivazione settecentesca, tra cui, appunto, quello di p., rientrante nell’apparato concettuale dei grandi sistemi filosofici (come quelli di Hegel e Marx), le cui pretese di fondazione si sarebbero ormai dimostrate vane. I notevoli sviluppi della storiografia scientifica e della filosofia della scienza nel Novecento hanno avuto come esito la nascita di un vasto dibattito sul concetto di p. scientifico, che ha visto contrapporre alla tradizionale concezione cumulativa dello sviluppo scientifico concezioni di tipo discontinuista, il cui maggiore rappresentante è Kuhn.
Critici dell'idea di progresso furono. come scrisse Alfred N. Whithead, pure i Romantici i quali, per usare le sue parole, rifiutarono di lasciarsi confinare nei limiti dei concetti materialistici della scienza moderna.
Movimento filosofico-letterario che, a partire dagli ultimi anni del 18° sec., operò una trasformazione del gusto e dei valori fino allora dominanti, e in particolare. di quelli illuministici, il Romanticismo rivendicò il valore del sentimento, delle tradizioni religiose e popolari, della memoria e della storia, e ponendo in primo piano il ruolo della poesia e dell’immaginazione come strumenti per la messa in contatto dell’uomo finito con l’infinito. Si deve precisare innanzitutto che il termine ha assunto almeno due significati fondamentali: in senso stretto, esso si riferisce all’attività del gruppo di poeti, filosofi e intellettuali tedeschi che, sul finire del Settecento, a Jena, diede vita alla rivista Athenaeum, ed ebbe tra i suoi esponenti principali Novalis, August Wilhelm von Schlegel e sua moglie Caroline (poi moglie di Schelling), Friedrich von Schlegel, fratello del primo, Schleiermacher, Ludwig Tieck, Schelling; considerata nella sua fase creativa e veramente tipica, l’attività di questo gruppo – con riferimento al quale si parla anche di primo r. (Frühromantik) o di r. di Jena – non si estende oltre i primi anni dell’Ottocento. In un’accezione più ampia, tuttavia, il termine comprende molteplici scuole e movimenti, fra cui la filosofia idealistica tedesca contemporanea al gruppo dell’Athenaeum, o a esso immediatamente successiva (e particolarmente Fichte, Schelling, Hegel), ma anche quella di Schopenhauer, di Nietzsche e la filosofia della vita. Nel quadro di questo r. inteso in senso più ampio, si delinea inoltre la contrapposizione fra un r. positivo, volto a sottolineare la conciliazione fra finito e infinito, e un r. negativo, che pone invece in rilievo il loro tragico dissidio.
L’azione del gruppo jenese non può essere considerata meramente letteraria, dal momento che, in quasi tutti i suoi esponenti, l’attività filosofica svolse un ruolo altrettanto importante: anzi è proprio la congiunzione di questi due elementi a costituirne una delle caratteristiche distintive e di maggior rilievo. In questo senso, va anche ricordato che il gruppo, oltre ad annoverare tra i suoi ranghi filosofi del calibro di Schelling e Schleiermacher, ebbe anche stretti legami con Schiller (e
attraverso di lui con la filosofia kantiana), con Goethe, di cui apprezzò in particolare. l’attività filosofico-scientifica e il Meister (1795-96; trad. it. Wilhelm Meister. Gli anni di apprendistato), e con Fichte, la cui dottrina dell’Io trascendentale esercitò un influsso particolarmente rilevante su Novalis. L’unità di filosofia, poesia e letteratura rimanda peraltro a un’altra caratteristica essenziale del primo r.: esso fu il primo movimento della cultura moderna veramente organizzato; stretto intorno alla rivista Athenaeum, trovava nel lavoro di collaborazione il proprio senso e fondamento. La stessa parola d’ordine del «synphilosophein» («filosofare insieme») attesta appunto il fatto inedito che sperimentò la cultura europea, trovandosi di fronte a un vero e proprio gruppo che, in un modo ben più profondo che nell’età illuministica, svolgeva un’esperienza comune, e non solo di lavoro, ma in parte anche di vita (con le ben note vicende sentimentali che caratterizzarono l’esperienza dell’Athenaeum e l’inedita importanza che ebbe al suo interno l’elemento femminile). I romantici di Jena incarnarono, insomma, l’utopia di una comunità ideale che intendeva rivolgersi, con un’azione di riforma culturale prima che politica, a tutta l’umanità. E la capacità di collaborazione di cui diede prova il gruppo rappresentò effettivamente un modello, perché invece di annullarne le singole personalità ne potenziò ed evidenziò le particolarità, tanto che esse mantennero il loro diverso profilo anche dopo l’attività comune. Sotto questo aspetto, nel breve decennio in cui agirono in gruppo, i romantici di Jena seppero dar vita a un atteggiamento filosofico e culturale complessivo, che avrebbe costituito un punto di riferimento di grande importanza nell’Ottocento e nel Novecento, ogniqualvolta (e il caso fu assai frequente) venne avvertita l’importanza del legame fra filosofia, letteratura e politica. Non essendo possibile, per quanto detto, offrire un resoconto esaustivo dell’opera di questo gruppo così variegato, ci limiteremo a dare qualche cenno sull’esponente che più ne sintetizza alcune della caratteristiche fondamentali.
Novalis. La figura di Novalis (pseud. del filosofo e poeta Friedrich Leopold von Hardenberg, 1772-1801) divenne subito leggendaria presso gli stessi romantici, a causa della brevità e densità della sua opera e della sua stessa esistenza. Le sue radici culturali – come quelle di tanta parte della cultura tedesca di questo periodo – affondavano nel pietismo, ma questa tradizione cristiana, nonostante la rivalutazione che egli fece del cattolicesimo, diventò in lui fondamentalmente laica, aconfessionale e, spogliata di ogni trascendenza, assunse i contorni di una religione panteistica del cosmo, o di un cristianesimo molto ereticale. Ciò traspare bene dallo scritto Christenheit oder Europa (1799; trad. it. Cristianità ed Europa), dove il senso della nuova epoca, che Novalis preannuncia, con accenti nettamente messianici, e in cui vede la missione della nuova cultura che la sua generazione dovrà creare, non è fondamentalmente concepito in alternativa o in contrapposizione ai valori dell’Illuminismo: il sapere settecentesco, quello scientifico in partic., e la Rivoluzione francese hanno certo aperto una lacerazione, ma hanno anche istituito una dimensione di storia universale rispetto a cui non si può tornare indietro. Una ricomposizione e una nuova pienezza sono quindi necessari: l’arido
intellettualismo, la parcellizzazione dei saperi, l’incapacità di vedere al di là del finito e dell’esteriore, devono lasciare il posto all’unità che l’idea di una natura infinita e di un Io infinito impongono di recuperare. In questo senso grandissimo è il debito di Novalis verso Fichte, ma anche verso Schelling; a partire dalla riformulazione della kantiana intuizione intellettuale, entrambi avevano ridato dignità e presenza alla metafisica e all’infinito: infinito che, per Novalis, è di nuovo presente in questo nostro mondo, grazie all’incarnazione di Cristo, che egli interpreta – secondo una visione che peraltro è dato ritrovare, con accenti diversi, tanto in Fichte quanto in Schelling e in Hegel – soprattutto come simbolo della nuova dignità che hanno la natura, il concreto, il finito. Naturalmente, per Novalis, è fondamentale che organo dell’apprensione dell’infinito sia appunto l’intuizione intellettuale, poiché ciò dà alla poesia e all’immaginazione poetica la funzione più importante: al poeta, ancor più che al filosofo, è devoluto il compito di bandire la nuova concezione e soprattutto di mettere in atto quella infinitizzazione del finito, quella sua nuova valorizzazione – in quanto cifra e simbolo dell’infinito – che avrebbe avuto un’enorme influenza nelle vicende della letteratura mondiale successiva. Tutto il cosmo diventava così il ricettacolo in cui riscoprire la magia del sovrannaturale e dell’ideale (il richiamo alla magia è esplicito in Novalis, ma non va inteso in senso piatto e letterale, bensì come riferimento a una nuova sintesi dei saperi scientifici in un sapere totale, capace di rispecchiare la vitalità infinita del mondo). Novalis diede un ulteriore apporto, non meno decisivo per la cultura romantica, nei suoi Hymnen an die Nacht (1800; trad. it. Inni alla notte), che rappresentarono forse, con la loro altissima poesia, il momento di maggior rottura rispetto alla cultura settecentesca precedente, con la loro rivalutazione della Notte, della morte, del lato oscuro della vita, rivalutazione che comportava un netto rovesciamento nella gerarchia di valori (Luce/Oscurità, Giorno/Notte) che aveva egemonizzato la cultura occidentale fino ad allora. Al lato gioioso della riscoperta del mondo come giardino di Dio, come custode dei tesori più luminosi e preziosi, si affiancava, senza contraddirlo, quello, cupo, della riscoperta dei valori della morte, del notturno, dell’aldilà. La comparsa di tale tematica non si può spiegare soltanto con le vicende biografiche (la morte dell’amatissima fidanzata Sofia), giacché non ha nulla di casuale o episodico, ma sta al cuore della concezione di Novalis. Rivalutare l’infinito significava rivalutare tutti gli aspetti del reale, ‘redimerli’ tutti (come aveva voluto Cristo); e la morte, il male, il negativo, il passaggio attraverso la Notte diventavano momenti essenziali, i più importanti, in quanto aprivano all’esperienza dell’infinito: solo quando la luce del giorno si è spenta, possiamo avere l’esperienza, certo terribile, della Notte, in cui i contorni delle singole cose si confondono e il Tutto infinito, entro cui il finito e il luminoso si stagliano e si distinguono, è immediatamente presente al sentimento dell’Io, che così è permeato dall’anima dell’Universo. Nell’Inno IV, rivolgendosi alla Luce, il poeta esplicita senza ambiguità l’identità fra la Notte e la Morte: «Quale voluttà, quale piacere offre la tua vita, che siano compenso alle estasi della morte? Tutto quanto si esalta non porta i colori della notte? Lei ti porta come una madre e a lei devi tutto il suo splendore. Tu
svaniresti in te stessa, ti disperderesti nello spazio infinito, se lei non ti trattenesse, non ti avvincesse, così che tu ti accenda e divampando crei l’Universo». Anche questa irruzione del negativo avrebbe avuto una lunga e importante storia nella cultura moderna; ma va sottolineato come nell’opera di Novalis la visione del meraviglioso e della riconciliazione e l’esperienza del tragico e del notturno si tengano ancora in un equilibrio quasi perfetto: fra la riscoperta del valore infinito del creato e l’attesa della morte come ricongiungimento con il Tutto non c’è alcuna contraddizione, e i Geistliche Lieder (1802; trad. it. Canti spirituali) che fecero seguito agli Inni alla notte, testimoniano di questo stato d’animo pacificato, nelle vesti di un cristianesimo pietistico che canta la felicità del rapporto con Dio e non si lascia andare ad alcun accento pessimistico.
Ampliando l’estensione temporale e spaziale, il termine romanticismo comprende sotto di sé molte scuole e movimenti, spesso sconfinanti l’uno nell’altro: così, per es., la critica ha distinto, oltre la scuola romantica di Jena, quella di Heidelberg – i cui principali rappresentanti sono stati Johann J. Görres (1776-1848) e Georg F. Creuzer (1771-1858), e che si è caratterizzata per una direzione politica radicalmente conservatrice e per l’insistenza sui temi del simbolo e dell’originario – e quella del romanticismo politico, che si sviluppò a partire dalle guerre napoleoniche, anch’esso sulla base di un orientamento più nazionalistico e conservatore, trovando i suoi massimi rappresentanti in personalità quali Adam Müller (1779-1829) e Baader. Sul piano filosofico, tuttavia, particolare rilievo ebbe l’idealismo tedesco postkantiano, il cui sviluppo in un primo momento si intrecciò strettamente con quello del gruppo dell’Athenaeum, mentre in seguito proseguì su un terreno più propriamente teoreticofilosofico, prendendo due direzioni divergenti, impersonate essenzialmente da Hegel e da Schelling, e dalle rispettive elaborazioni dei temi dell’infinito, del male e del rapporto ragione-intuizione. Nel quadro della più generale posizione romantica, impegnata a sottolineare la ritrovata unità di finito e infinito, Hegel, con il suo procedimento dialettico e con la sua filosofia della storia (che è uno dei portati più significativi della filosofia romantica), delinea il rapporto finito-infinito secondo una modalità che tende a ricondurre il primo, senza residui, nei quadri dialettico-razionali secondo cui si dispiega il secondo: il positivo passa sì nel negativo e questa è un’esperienza fondamentale per il suo sviluppo, ma ciò prepara un momento di sintesi finale in cui il negativo è ricondotto pienamente all’interno del primo momento. Questa visione dialettica, che intende non negare, ma riassorbire e finalizzare a sé stesso il momento della negazione, delinea un r. che ha alcuni momenti di sostanziale continuità con l’eredità illuministica: la filosofia della storia di Hegel, che segue il dispiegarsi del Logos assoluto e presenta il processo storico come progressiva vittoria dell’Idea, è un’espressione tipica di questa concezione, volta a reinterpretare il caso, il finito, il male, come meri residui dello svolgimento dell’Idea. Ben altro rilievo vengono ad assumere quei concetti nel pensiero di Schelling. Questi, che Hegel aveva accusato (nel famoso passo della Prefazione alla Fenomenologia dello spirito, 1807) di concepire l’Assoluto come «una notte in cui tutte le vacche sono nere», a causa della sua difesa dell’intuizione come organo di conoscenza dell’Assoluto, rovesciò in seguito sul suo critico la stessa accusa, imputando alla dialettica hegeliana di appiattire l’Assoluto nell’Idea, omogeneizzando tutto il reale in una struttura logicizzante ( panlogismo), che dà spazio al negativo soltanto a parole. ➔ Era il motivo novalisiano della notte che riemergeva qui, con una valenza più marcata, di rottura: recuperando vari motivi teologici della tradizione dualistica e, in partic., böhmiana (già peraltro presente in Novalis), Schelling, in modo paradigmatico nell’opera Ricerche filosofiche sull’essenza della libertà umana (1809), concepisce il rapporto fra positivo e negativo non come un tranquillo passaggio dialettico, ma come un salto drammatico, in cui gli elementi di scelta e di irrazionalità non possono essere ridotti. Questo r. negativo, che da Charles Baudelaire in poi si sarebbe affermato anche come una corrente fondamentale della letteratura europea del secondo Ottocento, attraversa pure il
grande sistema filosofico di Schopenhauer, che lo elaborò in chiave decisamente pessimistica, senza dubbio influenzato anche (come hanno ormai chiarito numerosi studi critici) da Schelling. La radicale contrapposizione kantiana tra mondo fenomenico e mondo noumenico viene estremizzata da Schopenhauer nella contrapposizione fra il mondo dell’illusione e quello di una realtà (la Volontà) che è intimamente irrazionale e assolutamente inconoscibile; tutto ciò avviene nel quadro della ripresa di un’altra concezione kantiana fondamentale, quella del male radicale. Da Schopenhauer Nietzsche riprese a sua volta questa impostazione, assumendo diversi atteggiamenti, anche molto critici verso il maestro, nei diversi momenti del suo percorso filosofico, ma comunque mantenendo ferma, con la sua tematica del tragico, una linea di continuità con il r. negativo. D’altra parte, a Schelling si era direttamente riallacciato anche Kierkegaard, nello sviluppare la sua originale riflessione antihegeliana incentrata sul salto, sull’intuizione (nella forma della fede) e sul tema del male. I grandi dibattiti novecenteschi sul R., e in partic. su Hegel, Schelling, Nietzsche e Kierkegaard, che hanno avuto per protagonisti Heidegger e Jaspers, l’esistenzialismo francese e la Scuola di Francoforte, Simmel e la filosofia della vita, in Francia autorevolmente rappresentata da Bergson, sebbene con connotati propri, testimoniano della persistente vitalità della tematica romantica, intesa sia nel senso lato, sia nel senso più ristretto della scuola jenese.
NICHILISMO
Siamo giunti così al concetto cardine della civiltà occidentale. Il concetto di Nichilismo. Termine comparso (nella forma ted. Nihilism) in Germania negli ultimi anni del Settecento nel corso del dibattito sull’esito della filosofia kantiana ed entrato ampiamente in circolazione con il Sendschreiben an Fichte di Jacobi del 1799, dove è usato per indicare la conclusione necessariamente distruttiva di ogni filosofia della pura dimostrazione, idealismo compreso. Soltanto più tardi, nella seconda metà dell’Ottocento, il termine fu utilizzato nel senso – ormai prevalente – di corrosione e caduta dei valori, dal quale discenderebbe un atteggiamento di disperazione e di rivolta totale. Caratteristica specifica del n., a differenza delle forme di pessimismo o di ateismo consistenti nella negazione di Dio e dei valori, è quella di presentarsi come consapevolezza dell’esito di un processo storico nel corso del quale le certezze e tutti i valori tradizionali si sono andati lentamente, ma inesorabilmente, consumando.
Spunti nichilistici sono già rintracciabili nell’età romantica, là dove il criticismo kantiano viene sentito e vissuto come distruzione di ogni oggettività del sapere e chiusura dell’uomo nella singolarità della sua coscienza, senza nessuna possibilità di trovare un appoggio e un fondamento in Dio e nella natura. «Nessuno è così solo nell’Universo come l’ateo», esclama Jean Paul in quella Rede des toten Christus del 1796 così ricca di motivi nichilistici e destinata a essere largamente conosciuta in Europa attraverso il De l’Allemagne di Madame de Staël. L’insistenza sulla mancanza assoluta di qualsiasi senso nella realtà si fa sempre più forte nei primi decenni dell’Ottocento tedesco: dall’allucinante quadro delle Nachtwachen von Bonaventura (1804, di autore incerto), dove l’uomo è rappresentato come un’inconsapevole marionetta nelle mani di un «creatore folle», alla filosofia di Schopenhauer, dove alla negazione kantiana della possibilità della metafisica si sostituisce una metafisica del nulla, fino ai paradossi di Max
Stimer con la concezione dell’io quale «nulla creatore»; senza contare la diffusione di motivi nichilistici nella poesia e nella letteratura dello Junges Deutschland, ossia di quel gruppo di scrittori e poeti tedeschi che dopo la rivoluzione del 1830 sentirono sempre più l’arte come impegno politico; a tale gruppo apparteneva anche K. Gutzkow, autore, nel 1853, di una novella-romanzo assai significativa, intitolata Die Nihilisten. Nella seconda metà del secolo, mentre il n. si diffondeva ampiamente in Russia assumendo il carattere di un vero e proprio programma di azione e di vita e concludendo con motivi positivistici, populistici e anarco-rivoluzionari, in Occidente era posto da Nietzsche al centro della problematica filosofica. Da Nietzsche il n. è considerato in una prospettiva assai più ampia e organica delle precedenti, così che non risulta più in nessun modo identificabile con un momento soltanto della storia della cultura europea né, tanto meno, localizzabile nell’Ottocento. Le radici del n. sono ritrovate nella svolta attuatasi in Grecia con Euripide e con Socrate, quando l’aspetto dionisiaco della vita fu sopraffatto e occultato da quello apollineo e si pretese di trovare nell’intelligenza, nella dialettica e nella morale il principio della liberazione dal dolore. Il n. insomma nacque, per Nietzsche, quando l’uomo cominciò a «dire di no» alla vita in nome di criteri razionali ai quali la vita doveva sottostare, in nome di «valori» contrapposti alla realtà. Platone, il cristianesimo, Kant, lo storicismo hegeliano, il positivismo, il materialismo edonistico e utilitaristico, la democrazia, il socialismo non sono altro che varie forme storiche attraverso cui si sviluppa e si consuma l’esperienza nichilistica della civiltà europea secondo una logica inesorabile destinata a dominare, secondo Nietzsche, anche la storia dei prossimi secoli. Tuttavia l’annuncio del n. è, per Nietzsche, già un segno di un suo possibile superamento o, più esattamente, si deve distinguere tra un aspetto negativo e uno attivo del n.; il n. infatti non è solo un sintomo di decadenza, ma, nella misura in cui viene alla luce e diventa consapevole, può essere anche un segno di forza, ossia il sintomo che l’energia dello spirito è cresciuta a un punto tale che i fini sinora perseguiti sembrano inadeguati, e inizia pertanto un «contromovimento» rispetto alla decadenza. Agli sviluppi di questo tema, attraverso concetti come quelli di superuomo, eterno ritorno, volontà di potenza, rovesciamento di tutti i valori, è dedicata gran parte dell’opera di Nietzsche, secondo il quale il possibile superamento del n. può avvenire soltanto con un’attività di tipo estetico, creativo; qualsiasi altra forma di superamento non fa che obbedire a quei motivi moralistici che sono stati la causa del nichilismo.
Il nichilismo nella filosofia del Novecento. Il richiamo a un’attività di tipo estetico permette di comprendere i legami profondi tra il n. e l’espressionismo, legami che hanno trovato la formulazione forse più esplicita e significativa negli scritti critici e filosofici di Gottfried Benn, nei quali all’arte è riconosciuto un carattere addirittura sacrale, una capacità di prendere su di sé tutti i possibili valori dell’uomo, proprio in virtù della forza che il nulla ha di evocare immagini. Ma a parte questi sviluppi del n. ‘attivo’, sempre in campo estetico, non si può sottovalutare il fatto che senza il n. negativo, come sintomo della decadenza, non si
potrebbe comprendere e spiegare gran parte dell’arte e della letteratura contemporanea, dove il senso del crollo e della fine di una civiltà millenaria è spesso tematizzato o, comunque, costituisce una componente essenziale. Più difficile è invece definire i rapporti tra il n. e la filosofia del Novecento. Per un verso, infatti, è incontestabile che la nozione di «nulla» ha avuto grande importanza nelle filosofie esistenzialistiche, da Jaspers a Heidegger a Sartre, e anzi è stata un elemento determinante nella critica delle metafisiche tradizionali e nella definizione delle possibilità e dei limiti dell’uomo. Per altro verso, però, il pathos apocalittico e la funzione di giudizio storico concernente un destino millenario propri del n. nietzschiano si possono ritrovare efficacemente forse solo in Heidegger e nella sua interpretazione della storia della metafisica, fino a Nietzsche compreso, come progressiva manifestazione del n. derivante dall’oblio dell’essere. Se invece non si guarda tanto a sviluppi e a riprese dirette della problematica nichilistica, ma alla sua utilizzazione nella diagnosi e nella critica della situazione storica contemporanea, allora si può affermare che il n., soprattutto nella formulazione datane da Nietzsche, ha costituito e costituisce ancora un punto essenziale di riferimento proprio per il carattere radicale delle sue critiche, che non concernono soltanto questo o quell’aspetto della civiltà contemporanea, ma i suoi stessi fondamenti.
Nella Russia della seconda metà dell’Ottocento, travagliata da gravi conflitti politici e sociali, il n. fu inizialmente, più che una dottrina ben precisa e definita, uno stato d’animo, un modo di vivere e di sentire delle giovani generazioni, soprattutto di studenti, che aspiravano a un profondo rinnovamento della vita e della società. Caratteristica distintiva di questo tipo di n. – divenuto poi largamente noto nella cultura europea attraverso opere come Padri e figli (1862) di I.S. Turgenev e i I demoni (1869-71) di F.M. Dostoevskij – è l’entusiastica fiducia nella scienza e l’accettazione del materialismo e del positivismo come strumenti polemici contro ogni forma di cultura tradizionale. Tutto ciò che non può essere verificato sperimentalmente, tutto ciò che non si può trascrivere in termini di «forza» e di «materia» (come diceva il titolo di un famoso libro di G. Büchner divenuto una sorta di Vangelo per i giovani nichilisti) deve essere relegato nel campo di un «romanticismo» sterile, sorpassato e perfino ridicolo. Si accentuava così anche nel campo dell’arte, soprattutto con D.L. Pisarev e I.G. Černyševskij, la polemica contro ogni estetica che concepisca l’arte come fine a sé stessa e l’affermazione della funzione pedagogica, politica e sociale dell’arte stessa; il n. russo per questo verso si collegava a un «realismo» volto a contrapporre i «fatti» ai valori e agli ideali che avevano sorretto, e illuso, le generazioni precedenti. Ateismo, cinismo e un immoralismo spesso più teorizzato che vissuto furono le caratteristiche della gioventù nichilistica russa, che non tardò a tradurre il suo credo in un’azione politica rivoluzionaria, per lo più di tipo anarchico, non senza perseguire, talvolta, un disegno più vasto e meditato di formazione di un’élite rivoluzionaria critica e illuminata. Questo non significa però che nel n. russo non abbia avuto posto notevole anche l’approfondimento dei problemi morali e religiosi in senso specifico; basti
pensare ai Fratelli Karamazov (1878-80) di Dostoevskij, in cui la problematica nichilistica è portata all’estremo, in campo etico-religioso, con la tesi ben nota: se non c’è Dio, tutto è lecito, anche il delitto.
Connesso al concetto di nichilismo è il concetto di deiezione. Nel linguaggio della filosofia contemporanea, il termine d., come traduzione del tedesco Verfallenheit, si è diffuso a partire dagli anni 1930 con l’esistenzialismo e in particolare con l’uso che ne ha fatto M. Heidegger in Sein und Zeit (1927). Nel quadro complessivo dell’analisi delle forme e strutture dell’esistenza, la d. indica il modo d’essere inautentico proprio dell’uomo in quanto ‘è gettato’ nel mondo, è preso nella quotidianità e nella pubblicità, ossia in quella dimensione di rapporti che è ancorata al ‘si’ come a una sorta di soggetto neutro, impersonale (‘si’ dice, ‘si’ pensa, ci ‘si’ diverte ecc.). Caratteristica della d. è quindi il muoversi nell’orizzonte della chiacchiera, della curiosità, dell’equivoco e lo sfociare in una sorta di estraneazione per cui l’uomo crede di realizzare la propria apertura al mondo e agli altri, cioè il proprio rapporto con questi, attraverso un incessante ‘aver visto tutto’, ‘aver compreso tutto’ e addirittura attraverso un’illusoria e pretenziosa sintesi delle diverse culture con la propria.
Il termine è stato in seguito usato nel dibattito filosofico in un senso più generico per indicare il limite e, per certi aspetti, i caratteri negativi della finitezza umana a cui l’esistenzialismo è stato particolarmente attento e sensibile. Questa sensazione di finitezza è diventata più acuta, come notò Robert Castel, con l'avvento della globalizzazione.
GLOBALIZZAZIONE
Globalizzazione è termine adoperato, a partire dagli anni 1990, per indicare un insieme assai ampio di fenomeni, connessi con la crescita dell’integrazione economica, sociale e culturale tra le diverse aree del mondo.
La globalizzazione, come fenomeno di unificazione dei mercati a livello mondiale, consentito dalla diffusione delle innovazioni tecnologiche, specie nel campo della telematica, che hanno spinto verso modelli di consumo e di produzione più uniformi e convergenti. Da un lato, si assiste, infatti, a una progressiva e irreversibile omogeneità nei bisogni e a una conseguente scomparsa delle tradizionali differenze tra i gusti dei consumatori a livello nazionale o regionale; dall’altro, le imprese sono maggiormente in grado di sfruttare rilevanti economie di scala nella produzione, distribuzione e marketing dei prodotti, specie dei beni di consumo standardizzati, e di praticare politiche di bassi prezzi per penetrare in tutti i mercati. L’impresa che opera in un mercato globale, pertanto, vende lo stesso bene in tutto il mondo e adotta strategie uniformi, a differenza dell’impresa multinazionale, il cui obiettivo è invece quello di assecondare la varietà delle condizioni presenti nei paesi in cui opera.
Il termine g. è spesso usato, come sinonimo di liberalizzazione, per indicare la progressiva riduzione, da parte di molti paesi, degli ostacoli alla libera circolazione delle merci e dei capitali. Questo, tuttavia, è solo un aspetto dei fenomeni di g., che comprendono, in particolare, una tendenza al predominio sull’economia mondiale da parte di grandi imprese multinazionali, operanti secondo prospettive sempre più autonome dai singoli Stati, e una crescente influenza di tali imprese, oltre che delle istituzioni finanziarie internazionali, sulle scelte di politica economica dei governi, in un quadro caratterizzato dall’aumento progressivo dell’integrazione economica tra i diversi paesi, ma anche dalla persistenza (o addirittura dall’aggravamento) degli squilibri fra questi. Tali fenomeni scaturiscono dai processi di integrazione internazionale sviluppatisi nel 19° sec., interrotti nella prima metà del Novecento dalle
guerre mondiali e dalla Grande depressione, e ripresi nella seconda metà (soprattutto dopo il 1960) con rinnovato vigore. Tra gli ultimi decenni del 20° e gli inizi del 21° sec. il progresso tecnologico, divenuto sempre più veloce, ha ridimensionato le barriere naturali agli scambi e alle comunicazioni, contribuendo alla forte crescita registrata dal commercio internazionale e dagli investimenti diretti all’estero. In particolare, la diffusione delle tecnologie informatiche ha favorito i processi di delocalizzazione delle imprese e lo sviluppo di reti di produzione e di scambio sempre meno condizionate dalle distanze geografiche, alimentando la crescita dei gruppi multinazionali e i fenomeni di concentrazione su scala mondiale; ha favorito inoltre un’espansione enorme della finanza internazionale, tanto che il valore delle transazioni giornaliere sui mercati valutari è divenuto ormai superiore allo stock delle riserve valutarie esistenti. Contemporaneamente, la tendenza alla riduzione degli ostacoli, di ordine tariffario, fiscale o normativo, alla libera circolazione delle merci e dei capitali si è approfondita ed estesa, coinvolgendo anche molti paesi, ex socialisti o in via di sviluppo, che in passato avevano adottato politiche assai più restrittive.
I fenomeni sopra ricordati hanno suscitato un ampio dibattito. Secondo alcuni studiosi, la g. può esercitare effetti positivi sull’economia mondiale sotto il profilo sia dell’efficienza sia dello sviluppo: in particolare, la liberalizzazione e la crescita degli scambi commerciali e finanziari potrebbero stimolare un afflusso degli investimenti verso le aree meno dotate di capitali e favorire una tendenziale riduzione del divario economico fra i paesi sviluppati e quelli in via di sviluppo. Altri sostengono, invece, che, dati gli squilibri e le forti differenze (economiche, tecnologiche, culturali, politiche) esistenti tra i diversi paesi, nonché la presenza di condizioni di mercato assai lontane da quelle di concorrenza perfetta postulate dai modelli tradizionali, gli eventuali effetti positivi dei processi di g. non si distribuiscono in modo uniforme: in particolare, per i paesi in via di sviluppo tali processi possono comportare conseguenze anche molto sfavorevoli, mentre negli stessi paesi sviluppati si verifica un contrasto tra i settori sociali che traggono vantaggio dai processi di g. e quelli che invece ne sono danneggiati (per es., i lavoratori impegnati in attività produttive che vengono trasferite all’estero). Va inoltre tenuto presente che, in un quadro caratterizzato da una crescente integrazione internazionale e dalla stabilizzazione dei tassi di cambio tra le monete di diversi paesi, l’adozione, a fronte di squilibri e tensioni interne, di provvedimenti di carattere sociale o anticiclico viene resa più difficile dalla riduzione dell’autonomia dei singoli governi nella gestione della politica economica.
La g. riguarda non soltanto la produzione di merci ma anche delle idee. Le figure professionali ad alta qualificazione, in particolare ingegneri informatici, ma a basso salario presenti in alcuni paesi in via di sviluppo, soprattutto in India, hanno spinto molti colossi della produzione hi-tech a delocalizzare in questi paesi i laboratori di ricerca e sviluppo. Paesi come gli Stati Uniti, che tradizionalmente attraevano cervelli da ogni parte del pianeta, oggi vedono messo in crisi tale meccanismo dalla concorrenza di alcuni paesi in via di sviluppo.
L’indice più comunemente usato per valutare il grado d’integrazione dell’economia mondiale è il rapporto fra esportazioni e PIL nei diversi paesi. Questo rapporto, che aveva raggiunto un minimo storico dopo la Seconda guerra mondiale, è nuovamente cresciuto, nella maggior parte dei paesi, durante la seconda metà del 20° secolo. Per quanto riguarda la partecipazione al commercio internazionale, i paesi sviluppati hanno mantenuto un peso preponderante, anche se dal finire del secolo si è manifestata una tendenza alla crescita del ruolo dei paesi in via di sviluppo. A partire dagli anni 1980 si è assistito all’espansione di aree di integrazione regionale, come l’UE o il NAFTA, che, se da un lato accentuano i processi di liberalizzazione degli scambi tra i paesi membri, dall’altro possono favorire il mantenimento di barriere commerciali nei confronti degli altri Stati. I processi di integrazione commerciale hanno in ogni caso continuato a estendersi, sia per l’adesione, comunque diffusa, alle politiche di liberalizzazione degli scambi con l’estero, sia per la riduzione dei costi delle
telecomunicazioni e dei trasporti indotta dall’incremento tecnologico, sia per gli investimenti da parte di imprese dei paesi industrializzati nei paesi in via di sviluppo.
La libertà di movimento dei capitali raggiunta verso la fine del 20° secolo è paragonabile a quella degli anni precedenti la Prima guerra mondiale, quando si era realizzato un alto grado di integrazione dei mercati finanziari (nel 1913 i rapporti tra i flussi totali di capitali e il commercio o la produzione mondiale erano superiori a quelli degli anni 1970). Dopo le restrizioni del periodo fra le due guerre, la seconda metà del secolo ha visto una graduale liberalizzazione, mentre rilevanti modifiche si verificavano per quanto riguarda l’origine e la composizione dei flussi di capitali. Tra la Seconda guerra mondiale e gli anni 1960 ampi flussi di investimenti esteri diretti, per lo più indirizzati verso l’industria manifatturiera e il settore petrolifero, provenivano dagli Stati Uniti, divenuti in quel periodo il maggiore esportatore netto di capitali. Nel corso degli anni 1970 il Giappone assunse un ruolo di rilievo, fino a diventare nel decennio successivo una delle principali fonti mondiali sia di capitali speculativi a breve termine sia di investimenti diretti. A partire dagli anni 1980 gli Stati Uniti sono stati caratterizzati da forti deficit della bilancia commerciale e da cospicue importazioni nette di capitali (con l’accumulo quindi di un ingente debito estero). A partire dagli anni 1980, inoltre, grazie anche allo sviluppo delle tecnologie informatiche e delle telecomunicazioni e alle politiche di liberalizzazione dei mercati finanziari, si è verificato un enorme aumento dei flussi speculativi a breve termine, che ha coinvolto gli stessi paesi in via di sviluppo, influendo pesantemente sull’andamento delle loro economie.
La crescita del debito e del rapporto debito/PIL nei paesi in via di sviluppo, spesso alimentata da processi cumulativi perversi (nuovo indebitamento per fare fronte ai debiti pregressi), ha inciso pesantemente sulla loro situazione economica, sociale e politica; in particolare, essi sono stati costretti a comprimere quanto più possibile la domanda interna (con gravi conseguenze sulle condizioni di vita della popolazione) nel tentativo di realizzare, malgrado l’andamento poco favorevole delle ragioni di scambio, onerosi attivi della bilancia commerciale e finanziare così il servizio del debito estero. All’inizio del nuovo millennio il problema del debito estero dei paesi in via di sviluppo rappresenta uno dei principali squilibri del processo di g. in corso.
Per quanto riguarda, infine, la Comunità Europea, a partire dal 1992 sono stati rimossi tutti i vincoli ai movimenti di capitali e si è verificata una progressiva perdita di autonomia dei governi nazionali nei campi della politica monetaria e dell’allocazione dei capitali all’interno dei paesi membri.
Aumenti della disuguaglianza tra paesi e all’interno dei paesi indotti dal progresso di integrazione vengono spiegati anche attraverso i mutamenti del mercato del lavoro, che hanno comportato un allargamento dei differenziali retributivi nei paesi industrializzati (wage gap). Il progresso tecnico avrebbe infatti ridotto marcatamente la domanda di lavoro a bassa qualifica (unskilled) a favore di quello a più alto contenuto di conoscenza (skilled). Data l’inerzia dell’offerta ad adeguarsi a questa maggiore domanda, questo ha di fatto creato un eccesso di domanda di lavoro a più alto contenuto di conoscenza che si è concretizzato in un incremento salariale di questi lavoratori. Il wage gap indotto dal progresso tecnico skill biased è visto come uno dei principali responsabili degli incrementi di disuguaglianza tra paesi ricchi e poveri ma anche all’interno dei paesi maggiormente industrializzati. Tuttavia questo meccanismo ha avuto impatti diversi nei paesi con differenti istituzioni a protezione dei lavoratori. Non è un caso che gli USA registrino un forte incremento di disuguaglianza indotto dal wage gap, date le scarse protezioni sociali e sindacali dei lavoratori a bassa qualifica. Nei paesi europei maggiormente sindacalizzati, questi effetti sono stati in parte mitigati dalla rigidità salariale.
Sul piano culturale, tra i principali aspetti della g. figurano i fenomeni connessi con il progressivo
abbattimento delle barriere spaziali fra le nazioni indotto dallo sviluppo delle tecnologie dell’informazione e della comunicazione. Anche se la diffusione di tali tecnologie è estremamente squilibrata, la crescita delle reti di comunicazione è continua ed esercita effetti rilevanti sull’evoluzione dei rapporti tra i popoli. Effetti analoghi esercita il fenomeno migratorio. La presenza in numerosi Stati di comunità di immigrati che, grazie anche ai vantaggi offerti dalle nuove tecnologie, mantengono relazioni con i paesi d’origine e con i propri connazionali emigrati in altri Stati, contribuisce allo sviluppo delle interconnessioni sociali, economiche e politiche su scala mondiale. Queste comunità introducono nei luoghi di immigrazione le proprie specificità culturali, interagiscono con la popolazione locale e con le altre comunità di immigrati, contribuiscono a modificare l’identità delle nazioni in cui risiedono. Malgrado le difficoltà e le tensioni che accompagnano il fenomeno migratorio, questo sembra destinato a proseguire, sia per la spinta all’emigrazione alimentata dall’enorme divario tra i paesi poveri e i paesi ricchi e dagli stessi processi di g., sia per il ruolo sempre più rilevante che i lavoratori immigrati tendono ad assumere nell’economia dei paesi sviluppati.
Negli ultimi decenni del 20° sec. all’intensificarsi dei processi di g. ha fatto riscontro, nel seno della società civile di numerosi paesi, lo sviluppo di una molteplicità di soggetti e di iniziative ispirati a principi di solidarietà e partecipazione. Associazioni per la difesa dei diritti umani, gruppi di volontariato, comunità religiose, organizzazioni sindacali e professionali, associazioni contadine, movimenti femministi, gruppi ambientalisti, associazioni per la tutela dei consumatori ecc., spesso riconosciuti come Organizzazioni non governative (ONG) anche in sede internazionale, hanno dato vita a una rete sempre più diffusa di rapporti di scambio e collaborazione reciproca. Alle iniziative delle ONG e delle altre associazioni fiorite nel seno della società civile si sono accompagnati lo sviluppo e la diffusione di punti di vista critici nei confronti del processo di globalizzazione. Alcune caratteristiche di quest’ultimo (come la crescita delle disuguaglianze nella distribuzione della ricchezza mondiale, il peso assunto dalle grandi imprese multinazionali nell’economia globale e l’influenza da queste esercitata sulle decisioni degli Stati, il ruolo svolto nel contesto internazionale da riunioni informali, quali il G7 e il G8, tra i governi dei paesi più ricchi e potenti del mondo, l’onere che il servizio del debito estero rappresenta per la popolazione dei paesi poveri e le misure restrittive imposte a tali paesi dai creditori internazionali, l’affermazione sul piano mondiale delle dottrine neoliberiste e gli effetti sociali e ambientali delle politiche a queste ispirate) hanno suscitato un crescente dissenso. Con la fine del secolo tale dissenso si è tradotto in un ampio movimento di contestazione: grandi manifestazioni di protesta si sono verificate in numerose città del mondo, in concomitanza con importanti riunioni di governi e organizzazioni internazionali. In alcuni casi le proteste sono state accompagnate da incidenti (particolarmente gravi quelli verificatisi a Genova nel luglio del 2001).
Tra le caratteristiche del movimento, cui partecipano importanti associazioni contadine, vi è un notevole interesse per le tematiche connesse con l’agricoltura: in particolare, esso sostiene la difesa dei contadini dal potere delle grandi imprese multinazionali, la tutela e la valorizzazione dei prodotti tipici locali rispetto alla produzione alimentare standardizzata, il rifiuto delle tecniche di manipolazione genetica delle varietà coltivate, lo sviluppo della cosiddetta agricoltura biologica. Qualificato correntemente come no global, il movimento di contestazione è esso stesso un fatto ‘globale’ e presenta aspetti tipici dei processi di g. in corso, come l’utilizzo delle nuove tecnologie o l’adozione di forme organizzative di tipo reticolare. Comprendente al proprio interno istanze molteplici, volte sia a conseguire obiettivi immediati (come l’annullamento del debito estero dei paesi in via di sviluppo o l’introduzione di una tassazione sulle transazioni valutarie che mira a colpire la compravendita di valute a fini speculativi), sia a contrastare le politiche neoliberiste dominanti, sia a perseguire una trasformazione complessiva dell’assetto mondiale, esso ha influito sull’opinione pubblica di numerosi paesi e ha indotto gli stessi governi, organismi internazionali e grandi gruppi economici contestati a tenere conto delle sue elaborazioni critiche.
Ora, alla luce di quello che è appena stato detto, riesce difficile impedire alla propria mente di correre con la memoria a quel passo del Manifesto in cui Marx scrisse che la borghesia non può esistere senza rivoluzionare continuamente gli strumenti di produzione, i rapporti di produzione, dunque tutti i rapporti sociali. Prima condizione di esistenza di tutte le classi industriali precedenti era invece l'immutato mantenimento del vecchio sistema di produzione. Il continuo rivoluzionamento della produzione, l'ininterrotto scuotimento di tutte le situazioni sociali, l'incertezza e il movimento eterni contraddistinguono l'epoca dei borghesi fra tutte le epoche precedenti. Si dissolvono tutti i rapporti stabili e irrigiditi, con il loro seguito di idee e di concetti antichi e venerandi, e tutte le idee e i concetti nuovi invecchiano prima di potersi fissare. Si volatilizza tutto ciò che vi era di corporativo e di stabile, è profanata ogni cosa sacra, e gli uomini sono finalmente costretti a guardare con occhio disincantato la propria posizione e i propri reciproci rapporti.
Il bisogno di uno smercio sempre più esteso per i suoi prodotti sospinge la borghesia a percorrere tutto il globo terrestre. Dappertutto deve annidarsi, dappertutto deve costruire le sue basi, dappertutto deve creare relazioni. Con lo sfruttamento del mercato mondiale la borghesia ha dato un'impronta cosmopolitica alla produzione e al consumo di tutti i paesi. Ha tolto di sotto i piedi dell'industria il suo terreno nazionale, con gran rammarico dei reazionari. Le antichissime industrie nazionali sono state distrutte, e ancora adesso vengono distrutte ogni giorno. Vengono soppiantate da industrie nuove, la cui introduzione diventa questione di vita o di morte per tutte le nazioni civili, da industrie che non lavorano più soltanto le materie prime del luogo, ma delle zone più remote, e i cui prodotti non vengono consumati solo dal paese stesso, ma anche in tutte le parti del mondo. Ai vecchi bisogni, soddisfatti con i prodotti del paese, subentrano bisogni nuovi, che per essere soddisfatti esigono i prodotti dei paesi e dei climi più lontani. All'antica autosufficienza e all'antico isolamento locali e nazionali subentra uno scambio universale, una interdipendenza universale fra le nazioni. E come per la produzione materiale, così per quella intellettuale. I prodotti intellettuali delle singole nazioni divengono bene comune. L'unilateralità e la ristrettezza nazionali divengono sempre più impossibili, e dalle molte letterature nazionali e locali si forma una letteratura mondiale. Con il rapido miglioramento di tutti gli strumenti di produzione, con le comunicazioni infinitamente agevolate, la borghesia trascina nella civiltà tutte le nazioni, anche le più barbare. I bassi prezzi delle sue merci sono l'artiglieria pesante con la quale spiana tutte le muraglie cinesi, con la quale costringe alla capitolazione la più tenace xenofobia dei barbari. Costringe tutte le nazioni ad adottare il sistema di produzione della borghesia, se non vogliono andare in rovina, le costringe ad introdurre in casa loro la cosiddetta civiltà, cioè a diventare borghesi. In una parola: essa si crea un mondo a propria immagine e somiglianza. La borghesia ha assoggettato la campagna al dominio della città. Ha creato città enormi, ha accresciuto su grande scala la cifra della popolazione urbana in confronto di quella rurale, strappando in tal modo una parte notevole della popolazione all'idiotismo della vita rurale. Come ha reso la campagna dipendente dalla città, la borghesia ha reso i paesi barbari e semibarbari dipendenti da quelli inciviliti, i popoli di contadini da quelli di borghesi, l'Oriente dall'Occidente. La borghesia elimina sempre più la dispersione dei mezzi di produzione, della proprietà e della popolazione. Ha agglomerato la popolazione, ha centralizzato i mezzi di produzione, e ha concentrato in poche mani la proprietà. Ne è stata conseguenza necessaria la centralizzazione politica. Province indipendenti, legate quasi solo da vincoli federali, con interessi, leggi, governi e dazi differenti, vennero strette in una sola nazione, sotto un solo governo, una sola legge, un solo interesse nazionale di classe, entro una sola barriera doganale.
Durante il suo dominio di classe appena secolare la borghesia ha creato forze produttive in massa molto maggiore e più colossali che non avessero mai fatto tutte insieme le altre generazioni del passato. Il soggiogamento delle forze naturali, le macchine, l'applicazione della chimica all'industria e all'agricoltura, la navigazione a vapore, le ferrovie, i telegrafi elettrici, il dissodamento d'interi continenti, la navigabilità dei fiumi, popolazioni intere sorte quasi per incanto dal suolo -quale dei secoli antecedenti immaginava che nel grembo del lavoro sociale stessero sopite tali forze produttive? Ma abbiamo visto che i mezzi di produzione e di scambio sulla cui base si era venuta costituendo la borghesia erano stati prodotti entro la società feudale. A un certo grado dello sviluppo di quei mezzi di produzione e di scambio, le condizioni nelle quali la società feudale produceva e scambiava, l'organizzazione feudale dell'agricoltura e della manifattura, in una parola i rapporti feudali della proprietà, non corrisposero più alle forze produttive ormai sviluppate. Essi inceppavano la produzione invece di promuoverla. Si trasformarono in altrettante catene. Dovevano essere spezzate e furono spezzate. Ad esse subentrò la libera concorrenza con la confacente costituzione sociale e politica, con il dominio economico e politico della classe dei borghesi. Sotto i nostri occhi si svolge un moto analogo. I rapporti borghesi di produzione e di scambio, i rapporti borghesi di proprietà, la società borghese moderna che ha creato per incanto mezzi di produzione e di scambio così potenti, rassomiglia al mago che non riesce più a dominare le potenze degli inferi da lui evocate. Sono decenni ormai che la storia dell'industria e del commercio è soltanto storia della rivolta delle forze produttive moderne contro i rapporti moderni della produzione, cioè contro i rapporti di proprietà che costituiscono le condizioni di esistenza della borghesia e del suo dominio. Basti ricordare le crisi commerciali che col loro periodico ritorno mettono in forse sempre più minacciosamente l'esistenza di tutta la società borghese. Nelle crisi commerciali viene regolarmente distrutta non solo una parte dei prodotti ottenuti, ma addirittura gran parte delle forze produttive già create. Nelle crisi scoppia una epidemia sociale che in tutte le epoche precedenti sarebbe apparsa un assurdo: l'epidemia della sovraproduzione. La società si trova all'improvviso ricondotta a uno stato di momentanea barbarie; sembra che una carestia, una guerra generale di sterminio le abbiano tagliato tutti i mezzi di sussistenza; l'industria, il commercio sembrano distrutti. E perché? Perché la società possiede troppa civiltà, troppi mezzi di sussistenza, troppa industria, troppo commercio. Le forze produttive che sono a sua disposizione non servono più a promuovere la civiltà borghese e i rapporti borghesi di proprietà; anzi, sono divenute troppo potenti per quei rapporti e ne vengono ostacolate, e appena superano questo ostacolo mettono in disordine tutta la società borghese, mettono in pericolo l'esistenza della proprietà borghese. I rapporti borghesi sono divenuti troppo angusti per poter contenere la ricchezza da essi stessi prodotta. -Con quale mezzo la borghesia supera le crisi? Da un lato, con la distruzione coatta di una massa di forze produttive; dall'altro, con la conquista di nuovi mercati e con lo sfruttamento più intenso dei vecchi. Dunque, con quali mezzi? Mediante la preparazione di crisi più generali e più violente e la diminuzione dei mezzi per prevenire le crisi stesse. A questo momento le armi che son servite alla borghesia per atterrare il feudalesimo si rivolgono contro la borghesia stessa. Ma la borghesia non ha soltanto fabbricato le armi che la porteranno alla morte; ha anche generato gli uomini che impugneranno quelle armi: gli operai moderni, i proletari. Nella stessa proporzione in cui si sviluppa la borghesia, cioè il capitale, si sviluppa il proletariato, la classe degli operai moderni, che vivono solo fintantoché trovano lavoro, e che trovano lavoro solo fintantoché il loro lavoro aumenta il capitale. Questi operai, che sono costretti a vendersi al minuto,
sono una merce come ogni altro articolo commerciale, e sono quindi esposti, come le altre merci, a tutte le alterne vicende della concorrenza, a tutte le oscillazioni del mercato. Con l'estendersi dell'uso delle macchine e con la divisione del lavoro, il lavoro dei proletari ha perduto ogni carattere indipendente e con ciò ogni attrattiva per l'operaio. Egli diviene un semplice accessorio della macchina, al quale si richiede soltanto un'operazione manuale semplicissima, estremamente monotona e facilissima da imparare. Quindi le spese che causa l'operaio si limitano quasi esclusivamente ai mezzi di sussistenza dei quali egli ha bisogno per il proprio mantenimento e per la riproduzione della specie. Ma il prezzo di una merce, quindi anche quello del lavoro, è uguale ai suoi costi di produzione. Quindi il salario decresce nella stessa proporzione in cui aumenta il tedio del lavoro. Anzi, nella stessa proporzione dell'aumento dell'uso delle macchine e della divisione del lavoro, aumenta anche la massa del lavoro, sia attraverso l'aumento delle ore di lavoro, sia attraverso l'aumento del lavoro che si esige in una data unità di tempo, attraverso l'accresciuta celerità delle macchine, e così via. L'industria moderna ha trasformato la piccola officina del maestro artigiano patriarcale nella grande fabbrica del capitalista industriale. Masse di operai addensate nelle fabbriche vengono organizzate militarmente. E vengono poste, come soldati semplici dell'industria, sotto la sorveglianza di una completa gerarchia di sottufficiali e ufficiali. Gli operai non sono soltanto servi della classe dei borghesi, ma vengono asserviti giorno per giorno, ora per ora dalla macchina, dal sorvegliante, e soprattutto dal singolo borghese fabbricante in persona. Questo dispotismo è tanto più meschino, odioso ed esasperante, quanto più apertamente esso proclama come fine ultimo il guadagno. Quanto meno il lavoro manuale esige abilità ed esplicazione di forza, cioè quanto più si sviluppa l'industria moderna, tanto più il lavoro degli uomini viene soppiantato da quello delle donne [e dei fanciulli]. Per la classe operaia non han più valore sociale le differenze di sesso e di età. Ormai ci sono soltanto strumenti di lavoro che costano più o meno a seconda dell'età e del sesso. Quando lo sfruttamento dell'operaio da parte del padrone di fabbrica è terminato in quanto all'operaio viene pagato il suo salario in contanti, si gettano su di lui le altre parti della borghesia, il padron di casa, il bottegaio, il prestatore su pegno e così via. Quelli che fino a questo momento erano i piccoli ordini medi, cioè i piccoli industriali, i piccoli commercianti e coloro che vivevano di piccole rendite, gli artigiani e i contadini, tutte queste classi precipitano nel proletariato, in parte per il fatto che il loro piccolo capitale non è sufficiente per l'esercizio della grande industria e soccombe nella concorrenza con i capitalisti più forti, in parte per il fatto che la loro abilità viene svalutata da nuovi sistemi di produzione. Così il proletariato si recluta in tutte le classi della popolazione. Il proletariato passa attraverso vari gradi di sviluppo. La sua lotta contro la borghesia comincia con la sua esistenza. Da principio singoli operai, poi gli operai di una fabbrica, poi gli operai di una branca di lavoro in un dato luogo lottano contro il singolo borghese che li sfrutta direttamente. Essi non dirigono i loro attacchi soltanto contro i rapporti borghesi di produzione, ma contro gli stessi strumenti di produzione; distruggono le merci straniere che fan loro concorrenza, fracassano le macchine, danno fuoco alle fabbriche, cercano di riconquistarsi la tramontata posizione del lavoratore medievale. In questo stadio gli operai costituiscono una massa disseminata per tutto il paese e dispersa a causa della concorrenza. La solidarietà di maggiori masse operaie non è ancora il risultato della loro propria unione, ma della unione della borghesia, la quale, per il raggiungimento dei propri fini politici, deve mettere in movimento tutto il proletariato, e per il momento può ancora farlo. Dunque, in questo stadio
i proletari combattono non i propri nemici, ma i nemici dei propri nemici, gli avanzi della monarchia assoluta, i proprietari fondiari, i borghesi non industriali, i piccoli borghesi. Così tutto il movimento della storia è concentrato nelle mani della borghesia; ogni vittoria raggiunta in questo modo è una vittoria della borghesia. Ma il proletariato, con lo sviluppo dell'industria, non solo si moltiplica; viene addensato in masse più grandi, la sua forza cresce, ed esso la sente di più. Gli interessi, le condizioni di esistenza all'interno del proletariato si vanno sempre più agguagliando man mano che le macchine cancellano le differenze del lavoro e fanno discendere quasi dappertutto il salario a un livello ugualmente basso. La crescente concorrenza dei borghesi fra di loro e le crisi commerciali che ne derivano rendono sempre più oscillante il salario degli operai; l'incessante e sempre più rapido sviluppo del perfezionamento delle macchine rende sempre più incerto il complesso della loro esistenza; le collisioni fra il singolo operaio e il singolo borghese assumono sempre più il carattere di collisioni di due classi. Gli operai cominciano col formare coalizioni contro i borghesi, e si riuniscono per difendere il loro salario. Fondano perfino associazioni permanenti per approvvigionarsi in vista di quegli eventuali sollevamenti. Qua e là la lotta prorompe in sommosse. Ogni tanto vincono gli operai; ma solo transitoriamente. Il vero e proprio risultato delle lotte non è il successo immediato, ma il fatto che l'unione degli operai si estende sempre più. Essa è favorita dall'aumento dei mezzi di comunicazione, prodotti dalla grande industria, che mettono in collegamento gli operai delle diverse località. E basta questo collegamento per centralizzare in una lotta nazionale, in una lotta di classe, le molte lotte locali che hanno dappertutto uguale carattere. Ma ogni lotta di classi è lotta politica. E quella unione per la quale i cittadini del medioevo con le loro strade vicinali ebbero bisogno di secoli, i proletari moderni con le ferrovie la attuano in pochi anni. Questa organizzazione dei proletari in classe e quindi in partito politico torna ad essere spezzata ogni momento dalla concorrenza fra gli operai stessi. Ma risorge sempre di nuovo, più forte, più salda, più potente. Essa impone il riconoscimento in forma di legge di singoli interessi degli operai, approfittando delle scissioni all'interno della borghesia. Così fu per la legge delle dieci ore di lavoro in Inghilterra. In genere, i conflitti insiti nella vecchia società promuovono in molte maniere il processo evolutivo del proletariato. La borghesia è sempre in lotta; da principio contro l'aristocrazia, più tardi contro le parti della stessa borghesia i cui interessi vengono a contrasto con il progresso dell'industria, e sempre contro la borghesia di tutti i paesi stranieri. In tutte queste lotte essa si vede costretta a fare appello al proletariato, a valersi del suo aiuto, e a trascinarlo così entro il movimento politico. Essa stessa dunque reca al proletariato i propri elementi di educazione, cioè armi contro se stessa. Inoltre, come abbiamo veduto, il progresso dell'industria precipita nel proletariato intere sezioni della classe dominante, o per lo meno ne minaccia le condizioni di esistenza. Anch'esse arrecano al proletariato una massa di elementi di educazione. Infine, in tempi nei quali la lotta delle classi si avvicina al momento decisivo, il processo di disgregazione all'interno della classe dominante, di tutta la vecchia società, assume un carattere così violento, così aspro, che una piccola parte della classe dominante si distacca da essa e si unisce alla classe rivoluzionaria, alla classe che tiene in mano l'avvenire. Quindi, come prima una parte della nobiltà era passata alla borghesia, così ora una parte della borghesia passa al proletariato; e specialmente una parte degli ideologi borghesi, che sono riusciti a giungere alla intelligenza teorica del movimento storico nel suo insieme. Fra tutte le classi che oggi stanno di contro alla borghesia, il proletariato soltanto è una classe realmente rivoluzionaria. Le altre classi decadono e tramontano con la grande industria; il proletariato è il suo prodotto più specifico.
Gli ordini medi, il piccolo industriale, il piccolo commerciante, l'artigiano, il contadino, combattono tutti la borghesia, per premunire dalla scomparsa la propria esistenza come ordini medi. Quindi non sono rivoluzionari, ma conservatori. Anzi, sono reazionari, poiché cercano di far girare all'indietro la ruota della storia. Quando sono rivoluzionari, sono tali in vista del loro imminente passaggio al proletariato, non difendono i loro interessi presenti, ma i loro interessi futuri, e abbandonano il proprio punto di vista, per mettersi da quello del proletariato. Il sottoproletariato, questa putrefazione passiva degli infimi strati della società, che in seguito a una rivoluzione proletaria viene scagliato qua e là nel movimento, sarà più disposto, date tutte le sue condizioni di vita, a lasciarsi comprare per mene reazionarie. Le condizioni di esistenza della vecchia società sono già annullate nelle condizioni di esistenza del proletariato. Il proletario è senza proprietà; il suo rapporto con moglie e figli non ha più nulla in comune con il rapporto familiare borghese; il lavoro industriale moderno, il soggiogamento moderno del capitale, identico in Inghilterra e in Francia, in America e in Germania, lo ha spogliato di ogni carattere nazionale. Leggi, morale, religione sono per lui altrettanti pregiudizi borghesi, dietro i quali si nascondono altrettanti interessi borghesi. Tutte le classi che si sono finora conquistato il potere hanno cercato di garantire la posizione di vita già acquisita, assoggettando l'intera società alle condizioni della loro acquisizione. I proletari possono conquistarsi le forze produttive della società soltanto abolendo il loro proprio sistema di appropriazione avuto sino a questo momento, e per ciò stesso l'intero sistema di appropriazione che c'è stato finora. I proletari non hanno da salvaguardare nulla di proprio, hanno da distruggere tutta la sicurezza privata e tutte le assicurazioni private che ci sono state fin qui. Tutti i movimenti precedenti sono stati movimenti di minoranze, o avvenuti nell'interesse di minoranze. Il movimento proletario è il movimento indipendente della immensa maggioranza. Il proletariato, lo strato più basso della società odierna, non può sollevarsi, non può drizzarsi, senza che salti per aria l'intera soprastruttura degli strati che formano la società ufficiale. La lotta del proletariato contro la borghesia è in un primo tempo lotta nazionale, anche se non sostanzialmente, certo formalmente. E` naturale che il proletariato di ciascun paese debba anzitutto sbrigarsela con la propria borghesia. Delineando le fasi più generali dello sviluppo del proletariato, abbiamo seguito la guerra civile più o meno latente all'interno della società attuale, fino al momento nel quale quella guerra erompe in aperta rivoluzione e nel quale il proletariato fonda il suo dominio attraverso il violento abbattimento della borghesia. Ogni società si è basata finora, come abbiam visto, sul contrasto fra classi di oppressori e classi di oppressi. Ma, per poter opprimere una classe, le debbono essere assicurate condizioni entro le quali essa possa per lo meno stentare la sua vita di schiava. Il servo della gleba, lavorando nel suo stato di servo della gleba, ha potuto elevarsi a membro del comune, come il cittadino minuto, lavorando sotto il giogo dell'assolutismo feudale, ha potuto elevarsi a borghese. Ma l'operaio moderno, invece di elevarsi man mano che l'industria progredisce, scende sempre più al disotto delle condizioni della sua propria classe. L'operaio diventa un povero, e il pauperismo si sviluppa anche più rapidamente che la popolazione e la ricchezza. Da tutto ciò appare manifesto che la borghesia non è in grado di rimanere ancora più a lungo la classe dominante della società e di imporre alla società le condizioni di vita della propria classe come legge regolatrice. Non è capace di dominare, perché non è capace di garantire l'esistenza al proprio schiavo neppure entro la sua schiavitù, perché è costretta a lasciarlo sprofondare in una situazione nella quale, invece di esser da lui nutrita, essa è costretta a nutrirlo. La società non può più vivere sotto la classe borghese, vale a dire la esistenza della classe borghese non è più compatibile con la società.
La condizione più importante per l'esistenza e per il dominio della classe borghese è l'accumularsi della ricchezza nelle mani di privati, la formazione e la moltiplicazione del capitale; condizione del capitale è il lavoro salariato. Il lavoro salariato poggia esclusivamente sulla concorrenza degli operai tra di loro. Il progresso dell'industria, del quale la borghesia è veicolo involontario e passivo, fa subentrare all'isolamento degli operai risultante dalla concorrenza, la loro unione rivoluzionaria, risultante dall'associazione. Con lo sviluppo della grande industria, dunque, vien tolto di sotto ai piedi della borghesia il terreno stesso sul quale essa produce e si appropria i prodotti. Essa produce anzitutto i suoi seppellitori. Il suo tramonto e la vittoria del proletariato sono del pari inevitabili."
Non fu così. Il capitalismo seppellì quelli che avrebbero dovuto essere i suoi seppellitori.
CAPITALISMO E BRICOLAGE
Il concetto di capitalismo, scrisse Walt Rostow,  è stato distorto da due grandi dibattiti: il primo è quello avviato nel Settecento sulla giusta estensione della regolamentazione statale dell'economia, e che allora dette luogo alle intransigenti parole d'ordine del laissez-faire e del libero scambio; il secondo è il dibattito che, radicalizzandosi, si è protratto dalla seconda metà dell'Ottocento al nostro secolo, circa i relativi pregi del socialismo - e del comunismo - rispetto al capitalismo. Il risultato di questa distorsione polemica è che la definizione convenzionale del capitalismo suona pressappoco cosi: ‛un sistema economico caratterizzato dalla proprietà dei mezzi di produzione da parte di privati o di società, da investimenti determinati da decisioni di privati anziché dal controllo statale, e dal fatto che prezzi, produzione e distribuzione dei beni si determinano principalmente in una condizione di libero mercato'.
Simili definizioni, aggiunse Rostow,  presuppongono il concetto - retaggio di dispute annose - che settore pubblico e settore privato siano congenitamente concorrenziali tra loro e si trovino perciò impegnati, per usare il linguaggio della teoria dei giochi, in un gioco a somma zero per cui un settore necessariamente perde ciò che l'altro guadagna.
Per mantenerci sulle generali, potremmo definire il capitalismo come una struttura economica fondata sulla proprietà privata dei mezzi di produzione e dalla produzione di merci scambiate sul mercato, dall’accumulazione di capitale, dal lavoro salariato. L’accumulazione di capitale e i mezzi di produzione sono controllati dalle classi dominanti, mentre quelle subalterne vendono per un salario la propria forza lavoro, che assume la forma di merce. Il prodotto del lavoro che eccede il salario rappresenta il plusvalore che alimenta i profitti e l’accumulazione di capitale. Secondo i critici del capitalismo, a partire da Marx, sulla base di questi rapporti di produzione, il lavoro si presenta come alienato, ovverosia separato da ciò che produce, e sfruttato, poiché non ottiene quanto corrisponde al suo prodotto. In questo sistema, i beni prendono la forma di merci scambiate sul mercato; in esse il valore di scambio è distinto da quello d’uso e si lega a qualità e aspetti simbolici – il feticismo delle merci – che nascondono la loro natura di prodotto del lavoro.
Nell’accezione comune, sistema economico in cui il capitale è di proprietà privata (sinonimo di ‘economia d’iniziativa privata’ o ‘economia di libero mercato’). Nell’accezione originaria, formulata con intento fortemente critico da pensatori socialisti e poi sviluppata nelle teorie marxiste, sistema economico caratterizzato dall’ampia accumulazione di capitale e dalla scissione di proprietà privata e mezzi di produzione dal lavoro, che è ridotto a lavoro salariato, sfruttato per ricavarne profitto.
Il termine c. iniziò a circolare negli ambienti del socialismo utopistico intorno alla metà del 19° secolo, per indicare e stigmatizzare il sistema economico nel quale i lavoratori sono esclusi dalla proprietà del capitale. Per indicare il sistema di relazioni sociali e l’organizzazione del processo produttivo che si basano sullo sfruttamento della forza-lavoro salariata K. Marx usò invece l’espressione ‘modo di produzione capitalistico’. Questo modo di produzione avrebbe compiuto l’enorme sviluppo delle forze produttive, alimentando però per la sua dinamica interna (impoverimento dei salariati, accumulazione di capitale senza crescita corrispondente di consumi e quindi crisi di sovrapproduzione, caduta tendenziale del saggio di profitto) il crescente conflitto di classe tra capitalisti e salariati. Nell’evoluzione storica, il c. segue ai modi di produzione schiavistico e feudale ed è, secondo la diagnosi di Marx, destinato a dissolversi per lasciare spazio, a lungo termine, al comunismo. Agli inizi del Novecento, il termine capitalismo fu adottato anche da autori non marxisti, in particolare da M. Weber che ha indicato la peculiarità del c. nel calcolo razionale del profitto e ne ha legato la genesi e l’affermazione al diffondersi di una nuova etica nata da correnti religiose protestanti (L’etica protestante e lo spirito del capitalismo, 1904-05). J.A. Schumpeter ha distinto il c. concorrenziale della prima fase dell’economia borghese, dominato dall’emergere di imprenditori capitalisti che dirigono imprese a proprietà familiare, dal c. trustificato, caratterizzato dalla trasformazione delle imprese in società per azioni e dalla loro fusione in trust, gruppi che dominano la scena economica e preludono, secondo Schumpeter, all’evoluzione verso un’economia di comando e pianificazione centralizzata. Il termine capitalismo è stato poi ampiamente accolto nella storiografia economica; è adottato, invece, limitatamente e solo da alcune correnti di pensiero negli studi d’economia.
Spesso nella letteratura storica ci si imbatte nell'espressione neocapitalismo che    allude, con intenti critici, a una nuova fisionomia che il capitalismo avrebbe assunto nel 20° sec., variamente delineata ponendo l’accento su progresso tecnologico e automazione, sul prevalere dell’oligopolio, sulla separazione della proprietà dalla gestione o sull’affermarsi delle imprese multinazionali. Con l’espressione capitalismo  di Stato è stato talvolta designato, in modo improprio, il sistema economico più correttamente detto socialismo di Stato, che poggia sull’intervento pubblico e può arrivare a concentrare nello Stato la proprietà dei mezzi di produzione, la direzione della produzione stessa e la distribuzione del prodotto tra i membri della collettività.
Di regola si collocano le origini del c. tra il Basso Medioevo, all’epoca della rinascita delle città, e il 15° e 16° sec., quando iniziò a decollare, grazie anche alle scoperte geografiche, la stagione del grande commercio mondiale. Accanto al ruolo attivo di nuovi ceti imprenditoriali borghesi, furono decisivi i processi di formazione dello Stato moderno, che presero avvio nel 16° secolo. Fondamentali furono, in particolare, le politiche mercantilistiche dei grandi Stati, che presero a finanziare industrie e compagnie commerciali, fecero ricorso al protezionismo e avviarono programmi di conquista coloniale. Tra Sette e Ottocento la storia del c. entrò in una fase di grande accelerazione con la Rivoluzione industriale che, a partire dalla Gran Bretagna, investì l’Europa occidentale e gli Stati Uniti. Secondo molti autori è in questa fase che nacque propriamente il c. moderno il quale, soprattutto in Gran Bretagna, rivendicò una
completa libertà dai controlli dello Stato e il libero scambio. Nell’ultimo trentennio dell’Ottocento la grande depressione portò a una profonda ristrutturazione del c., che si fece sentire soprattutto in paesi come la Germania, dove si affermarono grandi concentrazioni industriali e nuove forme di intervento dello Stato nei processi economici, e dove crebbe il ruolo del capitale finanziario. Intanto si scatenavano gli imperialismi, frutto di una ricerca di nuovi mercati tale da non arretrare nemmeno dinanzi alla prospettiva della violenza, che infatti esplose con la Prima guerra mondiale. La crisi del 1929 segnò una gravissima battuta d’arresto nella storia del capitalismo ma fece maturare strategie di intervento statale e politiche di welfare che configuravano una coerente alternativa alle politiche liberiste e neoliberiste. Negli ultimi decenni la globalizzazione ha rappresentato il trionfo di un c. di scala planetaria, ormai svincolato da qualsiasi vincolo politico-statuale. Questa nuova fase evolutiva ha per molti aspetti approfondito il tradizionale divario tra paesi sviluppati e quelli arretrati o in via di sviluppo, nel quadro però di una crescente interdipendenza generatrice di nuove e gravissime tensioni sociali e politiche.
Il realtà, il modo di funzionamento del capitalismo somiglia a quello dell'evoluzione biologica. Entrambi lavorano con quello  che hanno sottomano. François Jacob lo chiamò "il gioco dei possibili". Così si spiegano certi scherzi della natura come l'ornitorinco. Il capitalismo è una sorta di ornitorinco. Non è bello ed elegante come il socialismo, ma s'è dimostrato molto più efficiente del socialismo. Il socialismo è crollato sotto il peso della propria impalcatura come l'alce gigante di cui Stephen J. Gould parlò in Il pollice del panda.
Secondo Joseph A. Schumpeter l'originalità del capitalismo era individuabile nella sua capacità di distruggere per creare. Egli chiamò questa capacità del capitalismo con espressione che sarebbe piaciuta a Friedrich Nietzsche, "distruzione creatrice". Essa incentivava l'iniziativa imprenditoriale. Nel socialismo, dopo gli anni del volontarismo staliniano che aveva fatto dire a Valerian Kuybjshev, che non c'erano fortezze che i bolscevichi non potessero espugnare, prevalsero l'apatia burocratica della nuova classe di Djilas, l'interesse spicciolo della nomenklatura di Voszlenskij.
Per i neo-liberisti, alla Milton Friedman, il termine capitalismo è sinonimo di efficienza economica e di libertà politica.
Friedman, Milton  Economista statunitense (New York 1912 - San Francisco 2006). Forse il più influente economista del 20° sec. insieme a J.M. Keynes, fu allievo di J. Viner, F. Knight e H. Simons. Tra il 1933 e il 1945, F. affiancò attività di ricerca e insegnamento a collaborazioni con il governo federale. Professore all’Università di Chicago (1946-77), divenne, con il suo amico G. Stigler, leader della scuola di Chicago, sinonimo di precetti economici liberisti. Qui elaborò i suoi contributi teorici, metodologici e storici, fondamentali quali la teoria della scelta in condizioni di incertezza (The utility analysis of choices involving riske e The expected utility hypothesis and the measurability of utility, entrambi con L.J. Savage, «Journal of Political Economy», 1948); la teoria del consumo fondata sull’ipotesi del reddito permanente (A theory of the consumption function, 1957); il controverso approccio positivista alla metodologia economica (The methodology of positive economics, 1953); la critica alla tradizionale curva di Phillips in The role of monetary policy («American Economic Review», 1968); la ripresa moderna della teoria monetarista in A theoretical framework for monetary analysis (1971), dopo la monumentale A monetary history of the United States (con A. Schwartz, 1963). Nel 1976 gli fu conferito il premio Nobel per l’economia. Fu consigliere del presidente R. Reagan e ispiratore di molti governi conservatori in Europa, Asia e America Latina. Il suo libro più
famoso presso il grande pubblico fu Capitalismo e libertà, Studio Tesi.  Nel libro, egli paragona l'homo oeconomicus contemporaneo al Robinson Crusoe di Daniel Defoe. Ciò alimentò le stizzite critiche dei suoi avversari i quali sostenevano che si trattava d'una ridicola metafora (Hymer)
Affatto diverso fu l'approccio di Ludwig von Mises. Come egli scrisse in Socialismo, solo in un'economia di mercato poteva essere raggiunto il massimo di efficienza economica; infatti solo in un'economia di mercato esisteva la possibilità di creare attraverso le contrattazioni, un insieme di prezzi che esprimeva le condizioni di efficienza dell'economia. Ciò non accadeva in un'economia socialista, dove non esisteva mercato e dove non era possibile dar vita ad un insieme razionale di prezzi.
Nel 1946, la casa editrice Einaudi, pubblicò un volume curato da Friederik Augustus von Hayek sui problemi della pianificazione nelle economie collettivistiche. Il volume conteneva fra gli altri un ampio saggio di von Mises nel quale l'economista austriaco, maestro di von Hayek, ritornava sul problema già trattato nel suo celebre saggio intitolato  Socialismo
Il volume era introdotto da un saggio di Costantino Bresciani Turroni nel quale veniva ripresa la tesi esposta da Enrico Barone nel 1908 in Il ministro dela produzione, di Barone, come se la teoria economica fosse rimasta ferma a prima della rivoluzione bolscevica. In realtà, già da molti anni l'economista matematico sovietico Kantorovic aveva dimostrato che era possibile calcolare un insieme efficiente di prezzi pianificati. Kantorovic aveva infatti inventato la programmazione lineare.
La programmazione lineare, ha scritto Robert Dorfman, è una famiglia di metodi matematici per individuare i modi più redditizi o in altro modo ottimali di impiegare le risorse in un'impresa o in altri tipi di organizzazione. Il metodo di base fu inventato nel 1947 da G.B. Dantzig per consentire all'aviazione militare statunitense la programmazione dell'addestramento e dell'approvvigionamento, e per l'attuazione di altri programmi atti a conseguire determinati obiettivi nel modo più efficiente ed economico. A partire dalle originarie applicazioni militari, l'ambito della programmazione lineare si è successivamente allargato a una gamma pressoché illimitata di problemi economici, aziendali, sociali e scientifici. Nonostante questa notevole estensione del campo di applicazione, e sebbene le iniziali restrizioni matematiche siano in larga misura venute a cadere, il metodo continua a conservare la denominazione originaria. Il concetto chiave della programmazione lineare è quello di attività. Si definiscono come 'attività' tutte le operazioni di un'organizzazione o delle sue componenti che comportano l'uso di quantità specifiche di risorse e la produzione di risultati esattamente proporzionali alle risorse impiegate. In base a questa definizione, anche una ricetta culinaria è un'attività, in quanto specifica le proporzioni in cui devono essere usati i diversi ingredienti e la quantità che verrà prodotta della pietanza così ottenuta. Se la ricetta è usata per produrre quantità maggiori o minori della pietanza in questione, gli inputs e gli outputs dovranno variare in proporzioni esattamente stabilite. Se si cambiano le dosi, si avrà, per definizione, una ricetta diversa.
Chiaramente, sono numerosissime le operazioni e i fenomeni che possono essere definiti come attività. Nel caso di una raffineria di petrolio, ogni miscela di prodotto grezzo da cui si ottiene un barile di combustibile raffinato costituisce
un'attività. Nel caso di una ferrovia, ogni treno passeggeri composto di un certo numero di carrozze con un'origine e una destinazione precisa costituisce un'attività, e via dicendo. Quando si interpretano le operazioni di un'organizzazione in termini di insiemi di attività vengono presupposti implicitamente alcuni importanti assunti. Due di essi sono particolarmente importanti. Il primo è che il livello al quale un'attività viene esercitata può variare entro un continuum piuttosto ampio di valori. Ad esempio, l'attività consistente nel preparare un dolce secondo una determinata ricetta può essere esercitata per produrre qualsivoglia numero non negativo di dolci - due, oppure cento, oppure un valore qualunque π pari a 3,1415927 - e la quantità di ciascun ingrediente richiesto sarà strettamente proporzionale al numero di dolci prodotti. Sul piano pratico, naturalmente, molte attività - come la preparazione di un dolce dell'esempio citato - non soddisfano alla lettera questo assunto (non si può impastare un numero di dolci pari a π), ma l'assunto di un'estensione continua di livelli di attività può costituire un'approssimazione adeguata alla gamma di scelte di una pasticceria che produce centinaia di dolci al giorno.Il secondo assunto è che un'organizzazione possa esercitare numerose attività contemporaneamente, e che i livelli ai quali sono esercitate le singole attività possano variare senza influenzarsi reciprocamente. Ciò significa escludere che le attività possano interagire o influenzarsi reciprocamente in qualsiasi modo, ossia escludere ciò che gli economisti chiamano economie di scala e di varietà (scope economies), e i biologi simbiosi e antagonismo. Nondimeno, tale assunto può essere una buona approssimazione rispetto agli effetti delle scelte in molte situazioni pratiche.
Per illustrare l'utilità del concetto di attività prenderemo come esempio una versione ridotta del primo problema risolto con la programmazione lineare, il cosiddetto 'problema dietetico'. Nella versione originaria il problema era quello di determinare il menù più economico in grado di soddisfare il fabbisogno quotidiano di nove sostanze nutritive partendo da una lista di quindici alimenti con un valore nutritivo noto. Il problema era formulato in termini di programmazione lineare in quanto considerava la somministrazione di ciascun alimento come un'attività che fornisce un determinato apporto di calorie, proteine, vitamine, ecc.; l'obiettivo era quello di identificare le combinazioni di alimenti - o di attività - in grado di soddisfare tutti i requisiti alimentari specificati, per poi scegliere la combinazione 'ammissibile' più economica. Questo problema fu risolto prima che fossero inventati i computer elettronici, e richiese una notevole mole di lavoro con i calcolatori meccanici. Attualmente lo stesso problema potrebbe essere risolto in meno di tre minuti con un moderno computer da tavolo.
Il nostro esempio si basa su una versione notevolmente ridotta di tale problema. Supponiamo che un individuo si trovi a dover soddisfare il proprio fabbisogno di tre vitamine - vitamina A, tiamina e riboflavina - alimentandosi esclusivamente di latte e pomodori. I dati rilevanti sono presentati nella tab. I, e i vincoli corrispondenti nella figura. Secondo tali dati, il fabbisogno di vitamina A può essere soddisfatto consumando una quantità di latte pari al valore di 17 lire, o una quantità di pomodori del valore di 2,3 lire, o una qualunque combinazione di latte e pomodori che giace sulla retta indicata con 'vitamina A' nella figura. Qualunque combinazione che si trova a nordest della retta soddisfa il fabbisogno con un
qualche margine d'avanzo.
Le altre due diagonali rappresentano analogamente combinazioni di latte e pomodori che soddisfano i fabbisogni delle altre due vitamine. Di conseguenza, tutte le diete che soddisfano i requisiti alimentari richiesti corrispondono a punti che giacciono nella regione convessa il cui confine inferiore è rappresentato dalla retta spezzata ABCD. Il passo successivo consiste nell'individuare il punto della regione ammissibile corrispondente alla dieta più economica; come si evince chiaramente, tale punto sarà uno degli angoli A, B, C, D. In particolare, sarà l'angolo B, giacente sulla più bassa retta di isocosto che tocca la regione ammissibile. La linea tratteggiata nella figura rappresenta la retta di isocosto inferiore che soddisfa tutti i fabbisogni alimentari; tutte le altre rette di isocosto sono parallele a essa.Le proprietà essenziali delle soluzioni dei problemi di programmazione lineare verranno illustrate in dettaglio nei capitoli seguenti. Qui richiameremo l'attenzione su una particolarità: sebbene tutte le relazioni siano continue, ovvero lineari, un cambiamento lineare nei prezzi delle attività può determinare discontinuità nei livelli ottimali di queste ultime. Per risolvere il problema dietetico semplificato è stato sufficiente ispezionare un grafico bidimensionale. Tuttavia i grafici di questo tipo risultano inadeguati quando le attività considerate sono più di due, e i calcoli diventano sempre più gravosi via via che aumenta il numero di attività, sebbene i principî all'opera restino sempre gli stessi.
Per far fronte a questa difficoltà si rende necessaria una formulazione algebrica dei problemi di programmazione lineare. È quanto faremo nel prossimo capitolo in cui illustreremo altresì l'importante proprietà generale della dualità. Nel terzo capitolo descriveremo il 'metodo del simplesso', che fu il primo metodo messo a punto e che, con qualche perfezionamento, è tuttora il più usato per risolvere i problemi di programmazione lineare; nel capitolo successivo ne illustreremo il funzionamento applicandolo al problema dietetico semplificato. Nel quarto capitolo menzioneremo due metodi alternativi proposti di recente. Infine, parleremo di alcune applicazioni ed estensioni particolari della programmazione lineare.
Più precisamente, si tratta di una branca della matematica applicata, ossia della programmazione matematica, che consiste a sua volta nella ricerca del massimo o del minimo di una funzione con più variabili (spesso, in pratica, centinaia o migliaia) soggette alla condizione di giacere in una data regione chiusa, convessa. Un esempio assai semplice di problema di programmazione è trovare il rettangolo che abbia l'area maggiore possibile entro un perimetro che non superi una lunghezza data. In questa formulazione del problema si celano tre disuguaglianze: né la lunghezza né la larghezza possono essere negative, e la loro somma non deve superare un dato massimo. Di solito, non si presta attenzione a tali disuguaglianze: in questo caso il senso comune ci dice che le dimensioni in questione non possono essere negative, e che un perimetro inferiore al massimo consentito non può racchiudere l'area maggiore possibile. Inconsciamente, quindi, si riduce il problema a un problema standard di massimizzazione, e lo si risolve immediatamente col calcolo. Tuttavia, se in casi banali come questo l'uso del calcolo per risolvere un problema di programmazione matematica può dare
buoni risultati, in situazioni meno intuitive risulta inaccettabile. La programmazione matematica, al pari di altri modelli matematici, è notoriamente lontana dal senso comune.
Ciò che distingue i problemi di programmazione dai problemi standard di estremo vincolato è la presenza di disuguaglianze tra i vincoli. Per quanto strano possa sembrare, i vincoli costituiti da disuguaglianze non ebbero pressoché alcun ruolo nelle applicazioni al campo della fisica a partire dalle quali venne sviluppata nel XIX secolo la matematica applicata. Essi invece costituiscono la norma delle applicazioni in campo economico, aziendale e sociale, che vanno acquistando importanza crescente e sono fondamentali nella programmazione matematica.La programmazione lineare è un caso speciale di programmazione matematica in cui tutte le relazioni tra le variabili, tanto la funzione obiettivo da massimizzare (o minimizzare) quanto le relazioni che definiscono la regione ammissibile, sono lineari. Il problema dietetico illustrato in precedenza è un caso tipico. Dal punto di vista matematico, la programmazione lineare consiste nel massimizzare (o minimizzare) il valore di una funzione lineare con parecchie variabili soggette a vincoli lineari che includono alcune disuguaglianze.
I problemi di programmazione lineare possono essere formulati in vari modi o usando terminologie differenti. La più notevole proprietà della programmazione lineare è detta dualità. I problemi di programmazione lineare si presentano a coppie: al problema presentato sopra, detto primale, se ne può associare un altro, il suo duale, che risulta dalla seguente manipolazione formale dei dati del primale. L'obiettivo del duale è:minimizzare ptBdove pt è il vettore riga a m componenti di 'variabili duali'. I vincoli nel problema duale sono:
 Si osservi che il problema duale è stato ottenuto dal primale applicando le seguenti quattro regole: 1) il duale di un problema di massimizzazione è un problema di minimizzazione, e viceversa; 2) il segno di ogni vincolo espresso da una disuguaglianza nel primale è invertito nel duale (ma né le variabili del primale né quelle del duale possono avere segno negativo); 3) i coefficienti delle variabili nella funzione da massimizzare (o da minimizzare) nel primale sono interscambiati con le costanti nei vincoli; 4) se nel primale la matrice dei vincoli è postmoltiplicata per un vettore di variabili primali, essa è premoltiplicata per il vettore di variabili duali nel duale, e viceversa.
A quanto risulta, il primo a rilevare l'esistenza e l'importanza del fenomeno della dualità fu John von Neumann, il quale lo segnalò a Dantzig allorché questi gli espose la sua recente scoperta della programmazione lineare, senza peraltro divulgare in una pubblicazione la sua intuizione. La teoria dei duali fu in seguito sviluppata più estesamente da Albert W. Tucker dell'Università di Princeton e dai suoi allievi, in particolare da David Gale e da H. W. Kuhn. In questa sede presteremo attenzione al significato intuitivo e concreto della dualità, senza addentrarci nei particolari tecnici della sua dimostrazione e delle sue proprietà formali.
Alcune conseguenze delle definizioni della dualità fornite in precedenza sono di evidenza talmente immediata che possono essere discusse ancor prima di
analizzare i significati dei concetti. Consideriamo una situazione in cui un problema e il suo duale abbiano entrambi soluzioni ammissibili, ossia in cui esistano una x e una p tali da soddisfare rispettivamente tutti i vincoli del primale e tutti i vincoli del duale. Si premoltiplichino i vincoli del primale per pt al fine di ottenere ptAx≤ptb. Analogamente, si postmoltiplichino i vincoli del duale per ottenere ptAx≥ctx. Ponendo insieme le due disuguaglianze, si avrà ctx≤ptb.
Detto in forma discorsiva, l'ammontare dei profitti nel primale ottenuto, usando un determinato insieme di livelli di attività ammissibili, non può superare il valore della funzione obiettivo duale, ottenuto usando prezzi-ombra ammissibili. Inoltre, se x e p sono tali che ctx = ptb, allora il valore della funzione obiettivo primale ha raggiunto il suo limite massimo, la funzione obiettivo duale il suo limite minimo, e x e p sono le soluzioni ai rispettivi problemi. Vedremo in seguito ulteriori implicazioni.
Rivolgiamo ora l'attenzione a un'applicazione specifica e di grande importanza della programmazione lineare. Consideriamo un'impresa o un'altra organizzazione le cui operazioni siano limitate dalle quantità disponibili di m risorse fisse. In questo caso, b è il vettore delle quantità disponibili di una risorsa, cj specifica il contributo di una j-esima attività all'obiettivo dell'impresa (in questo caso il profitto), c è il vettore formato dalle componenti cj, e l'elemento tipico, ai j, della matrice dei vincoli A specifica l'ammontare della i-esima risorsa richiesta da un'unità della j-esima attività. Gli unici dati nuovi introdotti dal duale sono gli elementi pi di p. Tali elementi pi sono interpretati come prezzi, detti generalmente prezzi-ombra, che rappresentano i valori marginali delle risorse per l'azienda. Così pi è l'incremento del profitto annuale reso possibile da un'unità addizionale della risorsa i-esima, e ptb, la funzione obiettivo del duale, è il valore-ombra aggregato delle risorse utilizzate dall'impresa.
A prima vista potrebbe sembrare assurdo che l'obiettivo dell'impresa sia quello di minimizzare il valore imputato alle risorse che essa impiega. In realtà, il significato del problema duale, in questo contesto, è quello di misurare i prezzi delle risorse dell'impresa in modo tale che il contributo di ciascuna attività ai profitti sia imputato completamente alle risorse (i vincoli) senza sopravvalutare il potenziale di guadagno dell'insieme di risorse di cui l'impresa dispone.
I vincoli del duale hanno un'importante implicazione per il comportamento dell'impresa. Nelle soluzioni dei problemi primale e duale, il valore totale delle risorse utilizzate da un livello unitario di qualsivoglia attività (poniamo Σi aij pi per la j-esima attività) sarà esattamente eguale al contributo che essa apporta ai profitti dell'impresa (cj) se l'attività è esercitata a un livello positivo, mentre il valore-ombra delle risorse richieste da un'unità di un'attività unitaria esercitata a livello nullo, ossia non utilizzata affatto, può essere maggiore della redditività unitaria di tale attività. Se il costo delle risorse richieste da un livello unitario di attività è superiore al contributo di quest'ultimo ai profitti dell'impresa, quell'attività è improduttiva e non dovrebbe essere impiegata.
Se la diseguaglianza stretta sussiste nella soluzione del primale, la quantità
disponibile della risorsa iesima non è pienamente utilizzata nel programma di massimizzazione del profitto. Il potenziale di profitto dell'impresa non aumenterebbe se fosse disponibile un'unità addizionale di tale risorsa, né diminuirebbe se un'unità di detta risorsa venisse sottratta. In breve, il valore ombra di tale risorsa, pj, è zero.
Questa proprietà, assieme all'interpretazione suddetta dei vincoli del duale, dà luogo alle cosiddette 'condizioni di Kuhn-Tucker': se nella soluzione del problema primale un vincolo è soddisfatto come disuguaglianza, allora la variabile che nel duale corrisponde a tale vincolo è nulla, e viceversa. Questa proprietà ha un'importante implicazione.
Una serie di modelli economici e di gestione aziendale furono formulati in termini di disuguaglianze lineari assai prima che Dantzig sviluppasse il metodo del simplesso. Tuttavia essi rimasero curiosità di scarso rilievo data la mancanza di un metodo pratico per risolverli o per dimostrarne le implicazioni. Verso la fine degli anni quaranta una svolta venne segnata da due intuizioni cui si arrivò in modo indipendente: Dantzig scoprì il metodo del simplesso per risolvere i problemi di programmazione lineare, e Maurice Wilkes dell'Università di Cambridge e J. Presper Eckert e John U. Mauchley dell'Università di Pennsylvania misero a punto quasi contemporaneamente i primi calcolatori elettronici a programma - scoperte basate entrambe su un'idea di John von Neumann. Il metodo del simplesso di Dantzig e le sue varianti restano tuttora i più usati per risolvere i problemi di programmazione lineare, ma senza i computer elettronici a programma i calcoli notevolmente ripetitivi che essi richiedono sarebbero scarsamente fattibili.
L'elemento chiave del metodo del simplesso è chiamato a volte 'teorema di base', sia per la centralità che esso ha per tale metodo e per le sue varianti, sia perché si fonda sul concetto matematico di base. Nell'algebra delle matrici e dei vettori si definisce base di uno spazio un insieme di vettori linearmente indipendenti, tale che tutti i vettori nello spazio possono essere espressi come somme di multipli dei vettori dell'insieme. 'Dimensione' di uno spazio vettoriale è il numero di vettori delle sue basi. Applicando questi concetti alla programmazione lineare, i vettori sono costituiti dalle attività, e la dimensione è data dal numero di vincoli linearmente indipendenti. Il teorema di base afferma che il numero di attività esercitate a livelli positivi nella soluzione di un problema di programmazione lineare non deve mai essere maggiore del numero dei vincoli. Il problema si riduce così al problema combinatorio di individuare le attività da esercitare. È questa la forma del problema che il metodo del simplesso risolve.Il metodo in questione si basa su un procedimento in due fasi. La prima fase consiste nell'individuare una base ammissibile, vale a dire una base, o un insieme di attività, in grado di soddisfare i vincoli senza che alcuna attività sia esercitata a livelli negativi, il che sarebbe assurdo. Vedremo tra breve che questa fase è relativamente banale.La seconda fase consiste in un processo iterativo che partendo da una base ammissibile la migliora progressivamente sostituendo un'attività presente nella base con una nuova, scelta in modo da aumentare il valore della funzione obiettivo (o da diminuirlo, in un problema di minimizzazione). Poiché l'insieme di attività contiene un numero finito (sebbene
a volte estremamente elevato) di basi, le iterazioni devono infine raggiungere un punto in cui nessuna delle attività inutilizzate aumenterà il valore della funzione obiettivo. Quando ciò accade il problema è risolto, e con esso, come abbiamo visto, il suo duale. Esistono attualmente numerosi programmi per calcolatore che eseguono automaticamente questa operazione a una velocità soddisfacente.
Chiarite queste nozioni di base, possiamo illustrare la logica applicata dai computer per risolvere un problema standard di massimizzazione. Consideriamo nuovamente il problema di massimizzazione del profitto: oppure, nella notazione estesa: in cui le xj devono soddisfare: oppure, usando la notazione estesa: dove x ≥ 0, oppure xj ≥ 0.Per semplificare l'esposizione, assumeremo b>0, sebbene l'argomento di fatto non lo richieda. È utile trasformare il primo insieme di disuguaglianze in equazioni aggiungendo m variabili ausiliarie (slack), yi, yi≥0, che indicano inputs sottoutilizzati e per questo motivo vengono solitamente chiamate 'variabili slack'; si otterranno così le eguaglianze: Tali equazioni sono equivalenti alle disuguaglianze che sostituiscono in quanto le variabili ausiliarie non possono essere negative. Un'ovvia base ammissibile è yi=bi, con ogni xj=0; tuttavia essa ha lo svantaggio che il valore della funzione obiettivo risulta eguale a zero. La difficoltà viene superata procedendo alla fase successiva.
Ogni iterazione nella seconda fase comporta una quantità di notazioni e una serie di operazioni algebriche che i programmi dei computer sono in grado di eseguire automaticamente. L'iterazione inizia con una base accettabile, ossia con una scelta di m attività e di variabili ausiliarie, operanti tutte a livelli positivi. La base ottenuta nella prima fase soddisfa tali requisiti, poiché in essa solo le m variabili ausiliarie hanno valori positivi. Arriviamo ora al cuore della procedura. Sia AB la matrice m x m formata dagli m vettori delle attività esercitate a livelli positivi, ossia inclusi nella base, e xB il vettore dei livelli ai quali sono esercitate. Si avrà immediatamente xB>0 e AB xB=b. Consideriamo ora una attività che non si trovi nella base attuale, e definiamo A il vettore dei suoi coefficienti nei vincoli; ₀ sia inoltre c il profitto unitario di tale attività conformemente alla funzione ₀ obiettivo. Vogliamo ora confrontare tale profitto unitario con la redditività della combinazione di attività comprese nella base attuale che ha lo stesso effetto sui vincoli. Poniamo che tale combinazione sia Z , dove Z è la soluzione di AB ₀ ₀ Z =A . Indicando con cB il vettore delle redditività unitarie delle attività nella ₀ ₀ base, la redditività totale della combinazione Z è ctB Z , oppure, il che è lo ₀ ₀ stesso, Σj cj zj, in cui la somma è ricavata dalle attività nella base e zj è il livello di attività (o variabile ausiliaria, slack variable) j in Z . Se c , ossia la redditività ₀ ₀ unitaria dell'attività A , è maggiore di ctB Z , ossia la redditività di una ₀ ₀ combinazione equivalente di attività presenti nella base, allora la redditività dell'impresa aumenterà sostituendo almeno una piccola quantità di A con una ₀ quantità della combinazione equivalente che impiega le stesse risorse.Se l'attività A è aggiunta alla base a un livello basso, il profitto annuale sarà incrementato, ₀ ma il programma conterrà troppe attività per costituire una base. Al fine di trovare una base più adatta di quella iniziale, occorre aumentare le risorse in A ₀ sottraendole ad AB nelle proporzioni date da Z , sino a ridurre a zero il livello di ₀ uno dei vettori della base a seguito della assegnazione delle risorse da esso impiegate ad A . ₀ Quando e se ciò si verifica, si è trovata una base migliore, in cui A sostituisce ₀
l'attività che è stata azzerata. La procedura iterativa può essere replicata, ma i segni degli elementi di Z devono essere tali che i livelli delle attività nella ₀ vecchia base non diminuiscono all'aumentare del livello di A . In tal caso ₀ l'aritmetica dice, letteralmente, che non esiste un limite massimo al valore che la funzione obiettivo può assumere; ciò significa che è stato commesso un errore nella formulazione del problema. Infine, se ctB AB≥0 per tutte le attività A che ₀ non si trovano nella base attuale, è stato trovato l'ottimo e il problema è risolto.
Il metodo del simplesso per risolvere i problemi di programmazione lineare è rimasto sostanzialmente indiscusso per 38 anni, nonostante non siano cessate le speranze di trovarne uno più soddisfacente. Il metodo del simplesso infatti procede da un punto di partenza arbitrario per arrivare progressivamente alla soluzione ottimale, ossia spostandosi da una soluzione-base accettabile a una migliore a essa adiacente, che differisce solo per un'unica attività. Ne risulta un percorso che si muove lungo i confini della regione ammissibile, il che equivale ad andare da Genova a Venezia via mare, con un viaggio di circa 2.000 km, sebbene in linea d'aria le due città distino solo 325 km. Questa constatazione suggerì l'idea di ridurre notevolmente i calcoli attraversando direttamente la regione ammissibile per arrivare alla soluzione ottimale, anziché muoversi lungo i suoi confini. Numerosi metodi 'dei punti interni' vennero proposti e sperimentati, ma nessuno altrettanto efficiente quanto il metodo del simplesso. Nel 1979, tuttavia, L. G. Khachiyan mise a punto un metodo che sul piano teoretico è superiore a quello del simplesso per problemi di grandi dimensioni (ossia problemi con un numero elevatissimo sia di vincoli che di variabili. Problemi del genere esistono e sono stati risolti). Tuttavia risultò che in pratica l'algoritmo del simplesso era notevolmente più efficiente di quello di Khachiyan anche per problemi di grandi dimensioni.La scoperta di Khachiyan tuttavia fu un segnale promettente, e la ricerca continuò. Cinque anni dopo, N. K. Karmarkar presentò un nuovo algoritmo completamente diverso, che oltre a essere teoricamente preferibile a quello del simplesso per problemi di grandi dimensioni, era anche efficiente in pratica. Tale metodo e alcune sue versioni perfezionate sono correntemente impiegati per vari problemi di grandi dimensioni, e tuttavia per quelli di dimensioni più modeste il metodo del simplesso continua a essere il più usato. Esistono attualmente parecchi programmi di computer assai efficienti (eseguibili anche con un personal computer), che usano l'algoritmo del simplesso o sue varianti per risolvere problemi di programmazione lineare, ma la ricerca di un sostituto continua, e alla fine, con tutta probabilità, sarà coronata dal successo (per una discussione dettagliata dei metodi di Khachiyan e di Karmarkar v. Winston, 1995²).
La programmazione lineare si è diffusa con grande rapidità e ha avuto una varietà di applicazioni. Nei dieci anni intercorsi dalla ideazione dell'algoritmo del simplesso, il primo e tuttora il principale metodo di soluzione messo a punto, la programmazione lineare è stata applicata in tutto il mondo nei più diversi ambiti - da governi, aziende, organizzazioni militari, scienziati, ecc. - per risolvere una sorprendente varietà di problemi pratici. Non è difficile capire il perché. In primo luogo, il tipo di problemi che essa tratta - problemi di massimizzazione o di minimizzazione in cui le variabili sono soggette a vincoli costituiti da disuguaglianze - si ritrova in un'ampia gamma di contesti per i quali non sussiste
un altro metodo di soluzione altrettanto semplice e flessibile. In secondo luogo, il concetto fondamentale, quello di attività, per quanto per certi versi nuovo, è piuttosto semplice, e non è che la formalizzazione di approcci preesistenti di tipo prevalentemente intuitivo, come quelli basati sul concetto di fattori di produzione. In terzo luogo, tale metodo è in sintonia con un clima intellettuale generale di quantificazione, formalizzazione e burocratizzazione ereditato dalla centralizzazione e dalla pervasiva pianificazione economica e militare della seconda guerra mondiale. Alcuni esempi illustreranno la varietà di applicazioni della programmazione lineare.
La programmazione lineare è una famiglia di metodi di matematica applicata per risolvere alcuni problemi di ordine pratico trattandoli come problemi di massimizzazione o di minimizzazione di funzioni lineari di variabili soggette a vincoli lineari costituiti da disuguaglianze. Quest'ultima condizione distingue la programmazione lineare dai metodi classici di massimizzazione, che in genere sono applicazioni del calcolo, laddove la programmazione lineare si basa fondamentalmente sull'algebra e sulla geometria di spazi vettoriali di dimensione finita.La programmazione lineare si è rivelata utile in una straordinaria varietà di campi. Le sue principali applicazioni riguardano i progetti di valutazione e di investimento da parte di imprese, agenzie governative e organizzazioni di qualunque tipo. In tali contesti essa è usata per analizzare l'intera gamma di decisioni, dalle operazioni giorno per giorno agli investimenti a lungo termine. Ma la programmazione lineare ha numerose altre applicazioni che nel campo della scienza e dell'ingegneria, vanno dalla cristallografia all'analisi dei circuiti elettrici, alla progettazione di grandi strutture.I metodi matematici classici non sono adatti a trattare problemi in cui sono presenti disuguaglianze, in quanto questi comportano calcoli estremamente lunghi. Una svolta decisiva si ebbe con l'invenzione dei calcolatori elettronici e con l'ideazione del metodo del simplesso. A 45 anni di distanza dalla sua messa a punto, l'algoritmo del simplesso resta il più utilizzato per risolvere i problemi di programmazione lineare, eccettuati quelli di grandi dimensioni con migliaia di disuguaglianze. Una delle caratteristiche più importanti e più affascinanti dei problemi di programmazione lineare è il fenomeno della dualità: a ogni problema di programmazione lineare se ne può associare un altro, il suo duale, che ha una interpretazione rilevante e di solito arricchisce il significato del problema cui è associato. Ad esempio, nella teoria dei giochi il duale del problema di determinare una strategia ottimale mista per un giocatore in un gioco tra due persone a somma costante, è il problema che si trova ad affrontare l'avversario. Forse ancora più importante, nelle applicazioni economiche e aziendali il duale del problema di allocare le risorse di un'impresa o di una nazione è il problema di determinare i valori relativi di quelle risorse per l'impresa o la nazione in questione. Si potrebbero citare innumerevoli altri esempi. Non sorprende, pertanto, che la programmazione lineare e i metodi di analisi affini si siano diffusi in tutto il mondo tra le imprese e le organizzazioni di ogni tipo. La ricerca sulla programmazione lineare, e in particolare lo studio di metodi più veloci e più economici per risolvere i problemi di programmazione lineare e problemi di programmazione affini, prosegue intensamente in molti paesi.
Ciò risolveva il problema posto da von Mises sul piano teorico, come l'economista polacco  Bronislav
Minc dimostrò  in La nuova economia politica; esso rimaneva però irrisolto, come osservò Carlo Boffito in Efficienza economica e rapporti di produzione,  dal punto di vista pratico. Non a caso, la pianificazione sovietica aveva continuato a basarsi ancora per molti anni, come dimostrò Vittorino Marrama, sul metodo empirico dei bilanci materiali.
L A VIA DELLA SERVITU'
Nel 1944 Hayek aveva pubblicato il suo libro più noto al grande pubblico. In The Road to Serdom, Hayek passa dalla teoria economica alla teoria politica o - se si vuole - dall’ordine economico all’ordine politico. Sul finire della guerra Hayek è preoccupato che l’Europa, pur essendo ormai vincitrice, inconsapevolmente prenda la strada verso la servitù. Oggetto dell’analisi è il totalitarismo comunista e nazista, ma il volume è dedicato ai socialisti europei, pronti a perseguire la meta dello Stato sociale.
La radice del male risiede per Hayek in tre fattori. Essi sono: il mito della pianificazione economica, dell’organizzazione delle forze produttive, che, nato in Germania nel 1914-18 dell’economia di guerra, si diffuse poi per tutta l’Europa; la nuova forma di partito introdotta dai socialisti, il partito organizzativo di massa, un partito militarizzato, con tutte le sue organizzazioni collaterali (imitato poi dai comunisti, dai fascisti e dai nazisti); il diffuso clima di opinione - sia a destra sia a sinistra - antiindividualista, anticapitalista ed antimercantile, che hanno disarmato le difese liberali, i cui valori venivano dileggiati.
Il nocciolo di The Road to Serfdom è questo: ogni forma di programmazione centralizzata statale implica necessariamente una diminuzione della libertà individuale, anche di quella etica, perché il valore ultimo è il bene comune, realizzare lo Stato giusto. In questo Stato - come affermò polemicamente Trotckij - "chi non obbedisce non mangia".
Hayek, per esprimere il suo pensiero, cita l’Hyperion I di F. Hölderlin: "Ciò che trasforma lo Stato in un inferno, è il tentativo dell’uomo di farne un Paradiso". Di cui il radicale ripudio di ogni utopia, che realizza, non l’ordine, ma il disordine politico; bisogna, invece, avere un atteggiamento di umiltà nei confronti della storia dell’evoluzione sociale.
Mentre in Socialismo di Mises, l’indagine è prevalentemente economica, quella di Hayek incrocia la storia con la teoria politica tanto che il libro di Mises è citato solo nella bibliografia. Ma c’è un dissenso di fondo che sarà svelato ha Hayek nella sua autobiografia: per Mises la teoria del mercato era un a priori, mentre per Hayek solo la logica dell’azione individuale è da considerarsi il vero a priori. Pur riconoscendo la maestria della critica di Mises al socialismo, Hayek ne individua un punto debole: essa si muove sul piano di un razionalismo utilitaristico e, su questo piano, il rifiuto del socialismo è impossibile. E’ necessario introdurre i valori morali: il vero ispiratore di Verso la schiavitù - come risulta dalle citazioni poste all’inizio di molti dei capitoli - è infatti Lord Acton (1834-1902).
Friedrich von Hayek sviluppò il suo ragionamento in Individualism and Economic Order. Pubblicato nel 1949, esso è una raccolta di diversi saggi scritti tra il 1935 e il 1947, tre dei quali - scritti tra il 1935 e il 1940 - sono dedicati al "calcolo socialista", cioè a un tema che resterà molto sullo sfondo in The Road to Serfdom: in questi tre saggi l’analisi è strettamente economica, per mostrare lo scacco finale di un’economia pianificata. Ora ci limiteremo a puntualizzare rapidamente le due parole chiave che danno il titolo al volume: individualismo e ordine economico.
L’individualismo di Hayek non è meramente metodologico, perché l’individuo resta - come vedremo - il solo vero ultimo soggetto: la teoria del valore soggettivo della scuola economica austriaca trova poi un suo fondamento psicologico in The Sensory Order. La cosa importante è la distinzione fra individualismo "vero e falso", come recita il titolo del primo capitolo.
Il saggio Individualism: True and False ha come scopo la chiarificazione concettuale di questo termine, dato che, per la sua ambiguità, dell’individualismo circolava ieri e circola oggi spesso una pericolosa caricatura. In primo luogo, von Hayek difende l’individualismo metodologico, che Carl Menger aveva riproposto sulle orme di Adam Smith; in secondo luogo, la distinzione - che è l’asse portante di questo saggio - fra l’individualismo proprio dell’Illuminismo francese e quello dell’Illuminismo inglese: il primo, dominato da un’orgogliosa fede nella ragione umana, ha fiducia soltanto in ciò che essa può costruire, mentre il secondo, quello inglese, ritiene che la ragione sia limitata ed imperfetta, e pertanto guarda con umiltà e rispetto i processi storico-sociali; il terzo luogo, l’ideale costituzionale di un governo limitato in funzione dei diritti dell’individuo contro le pretese dell’onnipotenza della maggioranza e contro ogni forma di accentramento.
Punto di riferimento di Friedrich von Hayek sono: Adam Smith, Edmund Burke, Alexis de Tocqueville. Questa triade può a prima vista stupire e sorprendere, ma, se approfondiamo la sua concezione dell’individualismo, ci accorgeremo subito che ha scelto bene i suoi tre autori. Innanzitutto respinge recisamente quella caricatura dell’Homo oeconomicus, che falsamente è stata attribuita a Smith: questo concetto presuppone una psicologia razionalistica o un comportamento razionale dell’uomo, che non corrisponde alla realtà. L’uomo, per Hayek, è pigro ed indolente, imprevidente e sprecone, e soltanto la forza delle cose lo costringe a commisurare i suoi mezzi disponibili ai suoi fini, che possono essere buoni o cattivi, intelligenti o stupidi.
La difesa del vero individualismo si muove su due direttrici ben distinte. Innanzitutto combatte un consueto cliché, quello secondo il quale l’individualismo sarebbe soltanto l’apologia dell’egoismo dell’individuo, che guarda soltanto al suo interesse privato e vive separato dagli altri, del tutto avulso dalla società. Il vero individualismo rivendica soltanto il diritto dell’individuo di far uso delle proprie conoscenze per raggiungere i propri fini, proprio come i cristiani avevano rivendicato il diritto alla libertà della propria coscienza. La polemica è contro quello Stato paterno - già denunciato da Immanuel Kant e da Alexis de Tocqueville - che pretende di essere l’amministratore del nostro benessere.
La seconda direttrice è assai più radicale: essa combatte quella concezione del razionalismo francese (poi ereditata dagli utilitaristi inglesi), che aveva fatto il vuoto fra l’individuo e lo Stato, Hayek mostra la funzione delle società intermedie, delle associazioni volontarie, dei piccoli gruppi, delle autonomie locali, delle piccole patrie, della comunità linguistiche e religiose. L’individuo non è una realtà astratta, ma concreta, e, in quanto tale, è inserita nel processo sociale: questo processo risulta, oltre che dall’interazione con gli altri individui, di tradizioni e di consuetudini, di costumi e di istituzioni. Il razionalismo astratto, che ha fiducia soltanto in ciò che è costruito dalla ragione,, deve condannare tutto questo, perché sarebbe l’espressione di una cieca casualità o delle forze irrazionali della storia. Ma Burke aveva già detto che l’uomo fuori dalla consuetudine è una realtà effimera, come una "mosca estiva". Hayek, da parte sua, ammonisce che la concezione astratta dell’individuo, propria dell’Illuminismo francese, porta direttamente alla società di massa, dove gli individui sono intercambiabili e disponibili ad essere plagiati e plasmati in funzione dei fini e dei disegni razionali o meglio pseudo-razziali di chi è al potere.
Per quanto riguarda l’ordine economico non è un fatto, ma un farsi, in continuo mutamento nel tempo e
nello spazio, e pertanto non chiuso, né definito: è un ordine spontaneo. Protagonisti di questo processo - in armonia colla teoria soggettiva del valore - sono gli individui. Ordine deriva da ordior, che significa tessere o, meglio, iniziare la tessitura: è porre l’ordine (ricordiamoci del Politico indicato da Platone come un tessitore). Pertanto non è un concetto "olistico" (per usare un’espressione dell’amico Popper), cioè di una totalità chiusa, sia perché l’ordine si rinnova continuamente in modo spontaneo e libero, sia perché la mente umana non lo può comprendere nella sua totalità.
Il concetto di ordine è centrale nella riflessione filosofica di Hayek e lo troviamo nei diversi campi del sapere che egli affronta: la psicologia, la teoria della storia, l’epistemologia, la filosofia del diritto, la teoria politica, che amplieranno e approfondiranno l’impostazione originaria, senza svolte significative. Come meglio mostreranno gli scritti posteriori l’ordine economico da parte del più complesso ordine sociale, senza che vi sia alcun primato dell’uno sull’altro, ordine che verrà chiamato catallaxy.
Il secondo punto da sottolineare è che nell’ordine economico Hayek non vede, come elemento esclusivo o caratterizzante, quello della conflittualità o della lotta di classe, dalla quale sostanzialmente non si occupa, forse perché la ritiene fisiologica. Nell’ordine economico vede piuttosto, da un lato, il momento competitivo e la concorrenza tra i produttori, che favorisce sia l’ottimizzazione dei risultati, sia l’innovazione tramite le scoperte nei più diversi campi (scoperte scientifiche, tecnologiche, organizzative) e, dall’altro un momento cooperativo. Il mercato favorisce, infatti, proprio come meccanismo di comunicazione e di informazione, una più efficiente allocazione delle risorse: da un lato ci fa conoscere i bisogni dei consumatori, dall’altro, attraverso lo sfruttamento della conoscenza diffusa nei singoli individui, coordina conoscenze e produttori, consente ad un’impresa di dare spazio e di funzionare da traino ad altre nella propria produzione.
Ma non si pensi che Hayek creda nell’esistenza di una naturale armonia nel mercato. Anzi il conflitto tra i diversi e opposti interessi individuali è naturale, ma in parte regolato dalle stesse istituzioni del mercato e dei valori morali sentiti e condivisi, in parte allentato da possibili interventi del governo con soluzioni istituzionali, cioè con leggi generali e astratte, che non premino o puniscano un solo gruppo, ma che ristabiliscano soltanto l’ordine. Inoltre, non si pensi che Hayek ritenga che il mercato sia "giusto". Il mercato competitivo è un meccanismo neutrale, che si limita a premiare il risultato dell’azione in sé. Il risultato dell’azione infatti non dipende dall’impegno personale, ma dalle forze che giocano nel mercato. Così egli ammette che il senso di giustizia, che deve guardare soltanto all’azione, possa invece rivoltarsi contro il risultato del mercato.
Il termine greco catallaxy non va confuso con mercato. In realtà Hayek usa spesso il termine mercato in due significati diversi, uno ristretto, propriamente economico dove vige la logica utilitarista, uno più largo per cui il mercato coincide con tutto ciò che non è progetto o costruzione statale. La catallaxy è proprio questo ordine spontaneo, ma non si riduce al solo mercato, anzi. Nella catallaxy c’è anche l’"ordine morale" con le sue istituzioni, che porta l’uomo a cooperare con gli altri: vi sono diversi tipi di "ordini" ciascuno de quali ha le sue regole. E’ vero che - per Hayek - senza il mercato non può darsi la dignità umana, ma è anche vero che un mercato non può sussistere senza l’esistenza di un ordine morale: "non fu la ragione umana ma la morale umana a mettere in grado l’uomo di formare quello che chiamerò ordine diffuso dell’interazione umana, che tiene in vita l’attuale popolazione della terra".
Il filosofo analitico può domandarsi se è un concetto esplicativo, o un concetto prescrittivo. Sul piano della descrizione storica va usato assieme al concetto che gli è antitetico, quello di costruttivismo per vedere secondo i tempi e i luoghi quali orientamento prevalga. Ad ogni modo Hayek, che è stato discepolo do Moritz Schlick, non crede nella avalutatività della scienza: si limita a riscontrare che, di fatto, il costruttivismo - nel ventesimo secolo - ha portato l’uomo alla schiavitù, mentre nel passato ha
consentito all’uomo un inaspettato sviluppo economico e sociale. Si pone così la seconda questione: c’è in Hayek una teoria del progresso?
Nella teoria del progresso domina la categoria della "necessità" nella catallaxy, invece, quella della "casualità". Hayek si pone piuttosto nell’ambito dello storicismo, che non è - e in questo è accaduto coll’amico Popper - una filosofia della storia, né un mero giustificazionismo del passato, ma senso della storia, coscienza della storicità e consapevolezza della tradizione. Per questo storicismo è più adeguata la categoria di svolgimento, la quale mostra come ogni epoca è costretta ad affrontare sempre nuovi problemi. Se credesse nel progresso Hayek non avrebbe mai scritto nel 1944 The road to serfdom e nel 1989 The fatal conceit.
Cosa tiene unito il tutto? La critica parla della "mano invisibile" di Smith o dell’"astuzia della ragione" di Hegel, ma - in questa chiave - si potrebbe benissimo parlare dello Spirito assoluto del Croce, che, nella Filosofia della pratica, si era posto questo stesso problema per poi rapidamente eluderlo, dicendo che il "tutto" è Dio. Si tratta sempre di una spiegazione provvidenzialistica, che io ritengo sia del tutto estranea al pensiero di Hayek. Per far meglio comprendere la propria posizione Hayek cita Giambattista Vico e Adam Ferguson: il primo affermò "homo non intelligendo fit omnia"; il secondo sottolineò che la storia "è il risultato dell’azione umana, ma non il risultato di un disegno umano". In anni più tardi, per spiegare questa capacità di auto-organizzarsi di un sistema complesso e multifattoriale per adattarsi a fattori endogeni o esogeni, ricorse ad una terminologia non sua (e pertanto fuorviante), quella della cibernetica, parlando di veri e propri feed-back.
dalla parola order, parola chiave di Hayek economista, psicologo, studioso della società. Partiamo da quello psicologico, che meglio fonda filosoficamente la sua interpretazione della teoria soggettivistica del valore della Scuola austriaca. Ordine - giova ripeterlo - non ha un significato statico: la mente è piuttosto ordinante e questa funzione ordinante viene esercitata non solo nei confronti della piccola esperienza privata, ma anche nei confronti della grande esperienza dell’uomo che vive in società. Nessuna trasformazione è provvidenziale o meramente casuale, ma si ha con la mediazione di menti ordinanti, che reagiscono ad un ambiente, sempre in movimento e sempre instabile, per ristabilire l’ordine.
La mente o le menti, da sole, però non possono tenere insieme il tutto. Ma nella mente operano anche le idee metaconscie: lasciamo da parte - per ora - una loro origine genetica sulla quale Hayek non ha molto insistito. Fra queste idee metaconscie, non frutto di una esperienza immediata, ci sono quelle di un’esperienza inconscia assimilata attraverso la tradizione, c’è l’eredità del passato, il grande patrimonio dei secoli, che hanno pur sempre un’origine individuale e immanente, e non trascendente. Hayek usa spesso, ma non teorizza espressamente, il concetto antropologico di istituzione nel preciso significato che gli dà Arnold Gehlen che la vede come struttura portante della cultura. Ma, dagli esempi che ci offre, egli si muove nell’ambito di questo concetto: egli parla del linguaggio, di codici morali normativi, della religione, del diritto e della moneta. Soltanto queste ultime due vennero sottratte col tempo alla catallaxy, all’evoluzione spontanea.
PIANIFICAZIONE ECONOMICA
Per pianificazione economica si intende un complesso di interventi organici dello Stato realizzati sulla
base di un piano pluriennale, al fine di stimolare e guidare lo sviluppo della produzione. Avviene sia attraverso una rigida regolamentazione di ogni settore della vita economica da parte dell’autorità centrale (già tipica dei paesi socialisti, detti appunto a economia pianificata), sia attraverso un sistema più flessibile di erogazioni, investimenti pubblici, incentivazioni fiscali e creditizie. Si parla di pianificazione soprattutto per le economie collettiviste, riservandosi il termine programmazione per quelle dei paesi occidentali.
I primi contributi a una teoria della pianificazione si ebbero da parte di economisti liberali: per L. von Mises, l’ordinato svolgimento del processo economico richiede la soluzione del problema dell’efficienza, in qualunque contesto istituzionale (liberista o collettivista) si svolga, cioè che l’obiettivo prefissato sia raggiunto con il minimo impiego possibile di mezzi o che con i mezzi a disposizione sia raggiunto il massimo risultato. Perché le scelte siano effettuate in modo tale che il processo economico si svolga in maniera efficiente occorre che i mezzi a disposizione possiedano rigorosi indici di scarsità, in mancanza dei quali mancano le basi stesse della gestione efficiente del processo economico. Questi indici di scarsità relativa delle risorse sono i prezzi di tali risorse che si vengono a formare sul mercato concorrenziale. Poiché in un’economia pianificata non esiste il mercato, e quindi non esiste un meccanismo per rilevare la scarsità relativa delle risorse, manca in essa la possibilità di scelte razionali, per cui sarebbe possibile prendere solo decisioni arbitrarie e pertanto non è risolvibile il problema dell’efficienza.
A questa tesi fu contrapposta quella (1908) di E. Barone: se si ammette, come si dimostra nella teoria dell’equilibrio economico generale, che il meccanismo mediante il quale sul mercato si formano i prezzi sia esprimibile attraverso un sistema di equazioni, una volta noti i dati del problema, e cioè la disponibilità di risorse, lo stato della tecnica e i gusti dei consumatori, è possibile, almeno teoricamente, calcolare i prezzi senza ricorrere al mercato. Ma F.A. von Hayek e L. Robbins negarono la possibilità di realizzare un’economia pianificata a causa delle enormi difficoltà di calcolo che si sarebbero incontrate per il fatto che il sistema di equazioni nel quale si esprime l’equilibrio economico generale è così vasto da sfuggire a qualsiasi possibilità di calcolo effettivo, e perché, anche se tale calcolo fosse possibile, esso richiederebbe un tempo tale che durante la sua esecuzione i dati del problema sarebbero cambiati.
Le risposte a tali critiche hanno costituito la base per l’elaborazione della teoria della pianificazione: O. Lange ritenne che in un’economia pianificata i prezzi potessero essere calcolati mediante un meccanismo sostanzialmente simile al mercato concorrenziale. Il mercato prefigurato da Lange è costituito da un insieme di unità di produzione di proprietà pubblica, con una notevole autonomia di decisioni nell’ambito di regole generali di comportamento prefissate, le stesse cui si atterrebbe un’azienda privata in un mercato perfettamente concorrenziale.
M. Dobb affermò che il problema per il quale la pianificazione si dimostra particolarmente efficace è l’accumulazione, cioè l’aumento delle risorse stesse. In particolare sostenne che, ai fini del problema dell’accumulazione, cioè dello sviluppo, la pianificazione fornisce un meccanismo decisamente superiore al mercato, in quanto consente di coordinare a priori quelle decisioni d’investimento che altrimenti devono necessariamente essere coordinate a posteriori, cioè in base al sistema di valori espressi dal mercato.
Nell’Unione Sovietica piani quinquennali furono formulati a partire dal 1928 trascurando sostanzialmente il problema del calcolo economico, cioè dell’efficienza. Si ritenne preminente il problema di garantire la coerenza dei piani, nel senso che il livello della produzione di un settore non impedisse lo sviluppo di altri settori. Questo problema fu risolto con il cosiddetto ‘metodo dei bilanci
materiali’, cioè in quantità e non in valore, schema molto approssimativo di quella che poi è stata chiamata analisi delle interdipendenze settoriali o modello di Leontief. Dopo la Seconda guerra mondiale, grazie al soddisfacente livello d’industrializzazione raggiunto si pose la possibilità e l’esigenza di allargare la sfera del consumo e di operare una scelta tra gli investimenti possibili, sia quelli riguardanti il consumo finale (case, scuole, trasporti, sanità ecc.), sia quelli riguardanti più direttamente il tipo di sviluppo (industria leggera o pesante, viabilità, ricerche spaziali, armamento missilistico ecc.). Negli anni 1960 furono effettuati alcuni tentativi di riforma. Alcuni economisti sovietici, fra i quali il più noto è E.G. Liberman, sostennero la necessità di un ampliamento delle zone di mercato al fine di garantire le condizioni di efficienza per il sistema economico, ma questa tesi prevalse solo per breve tempo. Si ritenne infatti che il ripristino e la creazione di più ampie zone di mercato cui affidare il problema del calcolo economico avrebbero compromesso le possibilità proprie di una economia pianificata di decidere ex ante del tipo di sviluppo che sul piano politico si stabilisce di conseguire e che inoltre sarebbe stato inutile per una maggiore efficienza del sistema perché le moderne tecniche econometriche, statistiche e matematiche, nonché gli elaboratori elettronici, consentivano la soluzione rigorosa di ogni problema di calcolo economico e addirittura di realizzare in maniera efficiente un piano economico sia in una situazione nella quale tutte le decisioni sono prese in un’unica sede, sia in una situazione nella quale si realizzi un ampio decentramento delle decisioni. L’economia sovietica rimase rigidamente pianificata fino al crollo dell’URSS (1991).
Nel contempo, in Occidente si sviluppava il dibattito sulla programmazione economica, nota in Italia come programmazione democratica, intendendo con essa, il complesso degli interventi dello Stato nell’economia, realizzati spesso sulla base di un piano pluriennale (in questo senso il termine si alterna, nell’uso, con pianificazione). Nella terminologia corrente, e anche da parte di alcuni studiosi, si è però soliti distinguere tra pianificazione e programmazione, tra piano e programma, riferendosi con il primo termine ai paesi socialisti e con il secondo ai paesi a economia di mercato.
La storia della programmazione nelle economie di mercato descrive il processo attraverso il quale da una situazione, quale quella dei paesi occidentali nella seconda metà dell’Ottocento, in cui lo Stato aveva compiti estremamente circoscritti sul piano economico, si è passati a una situazione nella quale lo Stato svolge, o ci si auspica che svolga, un ruolo determinante nel processo di sviluppo.
Il fondamento teorico della programmazione nelle economie di mercato va ricercato innanzitutto nel pensiero di J.M. Keynes. Questi dimostrò che nel breve periodo il mercato lasciato a sé stesso può trovarsi in una situazione di equilibrio di non piena occupazione e che solo un certo ammontare di spesa pubblica improduttiva è in grado di portarlo al livello di piena occupazione. Dagli sviluppi della teoria keynesiana è risultato che il mercato non solo temporaneamente, cioè nel breve periodo, ma anche nel lungo periodo può trovarsi in situazione di non piena occupazione o può tendere alla stagnazione, sicché si dimostra indispensabile per il perseguimento dell’obiettivo della piena occupazione e dello sviluppo un certo ammontare di spesa pubblica produttiva, cioè di spesa pubblica volta a garantire indirettamente (per es. con le opere pubbliche), o direttamente (per es. con aziende produttive di proprietà pubblica), un certo livello di reddito. Quando l’intervento dello Stato nell’economia diventa un elemento determinante, sistematico, per il conseguimento di un determinato livello del reddito e dell’occupazione e di un determinato tipo di sviluppo (giacché questo è diverso a seconda di dove è occupata l’offerta di lavoro, cosa produce e con quali tecniche produce), la distinzione tra politica economica in generale e politica di piano diventa difficile.
Con riferimento al dibattito, che trae origine dal contributo di molti studiosi, quali per es. J.K. Galbraith, W. Leontief, J.A. Schumpeter, J. Tinbergen, si possono individuare due modi attraverso i quali si ritiene che la politica di piano, pur nel rispetto dei meccanismi di mercato, debba regolare il
processo di sviluppo. Il primo suggerisce un’azione programmatica direttamente nel campo produttivo, sia attraverso la creazione di infrastrutture, sia attraverso la presenza di aziende produttive di proprietà pubblica, sia attraverso un’appropriata politica di incentivi creditizi, fiscali, doganali ecc., alle imprese produttive private. Il secondo suggerisce un’azione programmatica che punti prevalentemente sull’aumento dei consumi pubblici e sociali, quali la scuola, l’edilizia popolare e l’edilizia pubblica, l’assistenza sanitaria, il trasporto pubblico, la ricerca scientifica ecc.
Secondo questo schema, una domanda pubblica programmata nel campo dei consumi è garanzia perché i meccanismi produttivi si mettano in moto, dal momento che è assicurato lo sbocco per la produzione. Evidentemente si tratta di due modelli alternativi, che come tutti i modelli danno una rappresentazione schematica di due linee antagoniste, ma che nella pratica comportano che, una volta sceltone uno come strategia dello sviluppo, non si escludano sul piano tattico alcuni elementi dell’altro.
Dal secondo dopoguerra, la programmazione economica è stata caratterizzata dallo sviluppo di strumenti econometrici in grado di fornire proiezioni corrette sul sistema produttivo, sul bilancio pubblico, sull’andamento del mercato finanziario e di individuare gli strumenti di politica economica necessari per il conseguimento dei risultati desiderati.
Lo strumento della programmazione economica è stato ampiamente sfruttato nei paesi che adottano un’economia di mercato e i relativi obiettivi sono stati trasfusi in piani di attuazione, generalmente pluriennali. Nel Regno Unito il primo documento programmatico (White paper on employment policy) fu elaborato dal governo di coalizione nel 1944; negli anni 1947 e 1948 le linee di politica economica ebbero il loro fondamento negli Economic Surveys. Negli Stati Uniti, sotto la presidenza di F.D. Roosevelt, vi fu un importante esempio di programmazione economica territoriale con la creazione della Tennessee Valley Authority, ente territoriale federale di sviluppo, destinato a occuparsi del risanamento economico del bacino del fiume Tennessee. In Francia, nel 1947 fu varato il Piano Monnet (per il periodo 1947-53), frutto di una programmazione concertata tra rappresentanti dello Stato, delle imprese e dei lavoratori.
In Italia la politica di piano, come insieme coordinato di interventi di politica economica volti a correggere lo spontaneismo del mercato, fu prefigurata per la prima volta nel 1954 con lo Schema di sviluppo dell’occupazione e del reddito in Italia nel decennio 1955-1964 (Schema Vanoni) e nel 1967 fu costituito il Comitato Interministeriale per la Programmazione Economica (CIPE). La programmazione finanziaria, in Italia, è stata introdotta con la l. 468/5 agosto 1978, che prescrive alcuni atti di governo concernenti la finanza del settore pubblico allargato: il DPEF (Documento di programmazione economico-finanziaria), nel quale, ogni anno, il governo delinea le strategie pluriennali di politica economica, la legge finanziaria, la legge di bilancio annuale che deve contenere anche un bilancio pluriennale, il Rendiconto generale dello Stato e la legge di assestamento del bilancio annuale.
Queste considerazioni ci riportano al punto di partenza, in particolare alla questione dell'efficienza del mercato. Il mercato infatti può funzionare in modo efficiente solo i condizioni di concorrenza perfetta. Come scrisse Angelo Castaldo, il mercato ideale di concorrenza perfetta si fonda su 5 ipotesi fondamentali ed è descritto da due caratteristiche principali.
Ipotesi. Per la prima ipotesi, il prodotto venduto da tutte le imprese e acquistato dai consumatori è perfettamente omogeneo. Per la seconda, la numerosità degli operatori, tanto di quelli che offrono quanto di quelli che domandano il bene, è molto elevata, sicché nessuno di essi singolarmente è in grado di determinare il prezzo, ma tutti lo considerano come un dato su cui non hanno influenza. Ciò
implica che ogni impresa, massimizzando il proprio profitto, produce fino al punto in cui il costo marginale dell’ultima unità, generalmente crescente all’aumentare delle quantità, sia uguale al prezzo; e che ogni consumatore, massimizzando il suo benessere individuale o, come si dice, la sua utilità, acquisti volumi dei vari beni fino a che l’utilità marginale (il beneficio ottenuto dalla dose addizionale, positivo ma decrescente all’aumentare della quantità), ponderata per il prezzo, sia uguale per tutti i beni. Con la terza condizione, vi è assoluta libertà d’ingresso nel mercato, sicché, se il costo marginale fosse – data la seconda ipotesi – reso pari al prezzo, non al livello dove quello è minimo e sussistessero sovra-profitti, nuove imprese entrerebbero nel mercato, offrendo ulteriori unità: questo fa scendere il prezzo al più basso costo marginale, compatibile con le migliori tecniche, con la produttività marginale dei fattori e con i loro compensi. Con la quarta ipotesi si assume esista perfetta informazione, senza asimmetrie fra compratori e venditori e senza opacità, in modo che non rimangano opportunità non sfruttate e che si possa formare un prezzo unico per lo stesso bene. Tale risultato è assicurato anche dalla quinta e ultima ipotesi, secondo cui le numerose contrattazioni sul mercato sono tutte simultanee e avvengono una volta espletata la fase delle trattative. I meccanismi previsti per queste ultime sono molteplici: per es., F.Y. Edgeworth suppone che si svolgano scambi di opinione individuali, mentre L.M.E. Walras descrive un caso di banditore che funge da informatore centralizzato di tutte le proposte di domanda e di offerta, il quale immediatamente alza il prezzo quando inizialmente appare che la domanda ecceda l’offerta e lo abbassa nel caso contrario. Il prezzo di equilibrio si ottiene quando la domanda eguaglia l’offerta. A quel punto si apre la fase dello scambio, in cui chiunque voglia comperare trova la sua controparte disposta a vendere e viceversa.
Date queste 5 ipotesi, si dimostra che si raggiunge un equilibrio, con eguaglianza di domanda e di offerta in tutti i mercati: esso esiste, è unico ed è stabile, nel senso che il movimento verso l’equilibrio è istantaneo e infinitamente veloce. In tale equilibrio generale, due caratteristiche descrittive emergono per la loro importanza. In primo luogo, in concorrenza perfetta esso è efficiente. Infatti non vengono prodotti quei beni che danno una utilità marginale così scarsa da non invogliare i consumatori a pagare un prezzo positivo. D’altra parte non esistono sprechi, nel senso che solo le imprese capaci di produrre al minimo costo rimangono sul mercato e i volumi prodotti non sono né di meno né di più di quelli desiderati dagli acquirenti. Poiché il prezzo di equilibrio corrisponde sia al costo marginale sia all’utilità marginale dei beni, la concorrenza perfetta assicura che venga messo sul mercato solo ciò che dà una soddisfazione identica alla spesa necessaria per realizzarlo. In secondo luogo, oltre che per l’efficienza, l’equilibrio di concorrenza perfetta si caratterizza principalmente per l’equità, perché i sovraprofitti sono eliminati e i costi marginali minimi pagati sono quelli a cui ogni mezzo di produzione riceve un compenso esattamente eguale alla sua produttività marginale. Non può ricevere di più perché, se così fosse, le imprese incorrerebbero in perdite e uscirebbero, pertanto, dal mercato, riducendo l’offerta, il che contrasta con l’ipotesi iniziale dell’equilibrio. Ma nessun fattore di produzione può nemmeno ottenere una retribuzione inferiore alla sua produttività marginale, perché se così fosse, si creerebbero sovraprofitti e nuove aziende entrerebbero nel mercato, il che è contrario all’ipotesi di equilibrio da cui si è partiti. L’eguaglianza fra compenso e produttività marginale di ogni mezzo di produzione identifica quindi un risultato che garantisce insieme l’equità e l’efficienza.
Dal punto di visto prescrittivo, l’equilibrio di concorrenza perfetta, pur essendo conseguito attraverso la massimizzazione sotto vincolo dei tornaconti personali, è in grado di portare al massimo benessere sociale. Per capirlo e per comprendere i due teoremi fondamentali dell’economia del benessere, è necessario premettere una precisazione sul concetto di ottimo paretiano: date le risorse produttive e la loro distribuzione fra individui, date le tecnologie produttive e i gusti dei consumatori, un’allocazione è detta ottimale per una società se non ne esiste alcun’altra che consenta di accrescere l’utilità di un individuo senza diminuire quella di almeno un altro. I due teoremi del benessere sono allora formulabili nel modo seguente: a) ogni allocazione corrispondente a un equilibrio di concorrenza perfetta è ottima
in senso paretiano, e vi sono molteplici allocazioni ottime in funzione della diversa distribuzione iniziale delle risorse; b) ogni ottimo paretiano può essere ottenuto da un equilibrio di concorrenza perfetta, purché le risorse iniziali siano opportunamente allocate tra gli individui.
La concorrenza perfetta implica dunque efficienza, equità e ottimalità sociale, ma la realtà dei mercati non corrisponde al modello teorico basato sulle 5 ipotesi sopra evidenziate. È compito della politica economica adoperarsi per avvicinare le condizioni fattuali a quelle paradigmatiche del benchmark. Una situazione concorrenziale non è assimilabile a una di laissez faire. Tuttavia, l’approssimazione rimane parziale, perché quegli assunti restano in ogni caso astratti e tendenzialmente irraggiungibili. Il policy making ha però molti strumenti a sua disposizione, prima di tutto per imporre regole adeguate agli agenti economici, secondariamente per controllare e, se è il caso, sanzionare, i loro comportamenti anticompetitivi attraverso istituzioni appropriate. Le prassi corrette, laddove si instaurano nella società, sono la conseguenza di interventi normativi e istituzionali e sono tanto più probabili quanto più questi ultimi si fondano su principi solidi e coerenti con le 5 ipotesi della concorrenza perfetta.
Violazione della prima condizione. Si verifica in presenza di asimmetria informativa tra gli operatori economici. Considerati gli esiti subottimali a cui, così, giungono i mercato, frutto di comportamenti opportunistici degli operatori dotati di un maggiore patrimonio informativo (Akerlof, Stiglitz), l’intervento pubblico dovrebbe essere volto ad ampliare l’accessibilità dell’informazione alla totalità degli agenti economici (per es., mediante l’imposizione di obblighi di divulgazione o altre forme di regolazione).
Violazione della seconda condizione. Si verifica qualora i beni prodotti e scambiati siano beni pubblici. In questo caso, il fenomeno del free rider impedisce la creazione di un mercato privato. Tale circostanza impone un’iniziativa da parte del settore pubblico, volta ad assicurare la produzione di beni e servizi considerati essenziali per la collettività. L’assenza di un meccanismo di mercato capace di garantire la fissazione di prezzi di risorse scarse, che influenzano una pluralità di m., si manifesta anche quando si è in presenza di esternalità. In tali casi si impone il ricorso a un intervento pubblico per mezzo di tassazione e sussidi (Pigou), diretto a far contabilizzare i costi e i benefici esterni, o tramite una attenta definizione dei diritti di proprietà sulla risorsa, finalizzata a consentire l’internalizzazione degli effetti esterni mediante la contrattazione privata (Coase).
Violazione della terza condizione. Avviene quando i mercati non sono contendibili. In presenza di tale anomalia, l’operatore  pubblico, soprattutto tramite il ricorso al diritto antitrust e alla regolazione, dovrebbe avere come obiettivo la rimozione degli ostacoli che impediscono lo svilupparsi della dinamica concorrenziale all’interno del mercato.
Violazione della quarta condizione. Tale condizione è disattesa allorquando gli agenti economici godono di potere di mercato. Poiché essi, in questi casi, sono in grado di fissare il prezzo, spingendo il mercato verso equilibri sub-ottimali, emergono come necessari interventi correttivi che si sostanziano nel ricorso alla disciplina antitrust e nella regolazione dei mercati.
COMUNISMO
Con comunismo si intende la dottrina che, sulla base delle teorie di Marx ed Engels, propugna un sistema sociale nel quale la proprietà privata dei mezzi di produzione sia sostituita dalla loro socializzazione, la gestione e distribuzione dei beni sia esercitata collettivamente dall'intera società, e l’economia sia organizzata attraverso un piano che superi l’anarchia del mercato. Più in generale si intende l'insieme dei movimenti, dei partiti e dei sistemi politici che hanno fatto propria tale dottrina a partire dal secolo 19°. Sebbene prima del c. moderno, vi fossero stati dei precedenti teorici e pratici di stampo comunistico (dal c. primitivo a quello antico; da T. More e T. Campanella al socialismo utopistico di Fourier, Cabet, Owen, Blanqui e Saint-Simon; dalla Congiura degli eguali di Babeuf e Buonarroti al movimento cartista), in senso proprio il c. prende le mosse dal socialismo scientifico di K. Marx e F. Engels. Questi ultimi, nel Manifesto del partito comunista (1848), partendo dal presupposto che la storia è storia di lotte di classi ed è legata alla continua dialettica tra sviluppo delle forze produttive e corrispondenti rapporti sociali, concepirono il c. come conseguenza dello sviluppo e delle contraddizioni della società capitalistica, la quale promuoveva un enorme progresso della produzione, ma al tempo stesso allargava la polarizzazione tra una sempre più ristretta élite di detentori dei mezzi di produzione e la massa crescente dei lavoratori salariati; di qui il verificarsi di crisi economiche sempre più gravi e la necessità di una rivoluzione comunista, la quale avrebbe sostituito la «dittatura della borghesia» con la «dittatura del proletariato», ossia col dominio della larga maggioranza, che avrebbe instaurato la proprietà collettiva dei mezzi di produzione e di scambio. Distruggendo i vecchi rapporti sociali, il proletariato avrebbe abolito anche «le condizioni d’esistenza dell’antagonismo di classe», per cui liberando se stesso avrebbe liberato l’intera umanità; in tal senso Marx ed Engels parlano della classe operaia come «classe generale». Attraverso una fase di transizione (il socialismo), si sarebbero poste le basi per il c., ossia per una società in cui «il libero sviluppo di ciascuno è la condizione per il libero sviluppo di tutti» e in cui da ciascuno viene dato secondo le sue possibilità e a ciascuno si dà secondo i suoi bisogni. Questi temi furono ampiamente discussi nella prima Internazionale, in cui la lotta politica e teorica tra il c. di Marx e l’anarchismo di Bakunin si concluse in favore del primo (1866-69). Nel 1870 una prima esperienza di autogoverno popolare di stampo comunistico si realizzava nella Comune di Parigi.
Il «comunismo storico» novecentesco. Benché il pensiero marxiano preconizzasse la rivoluzione socialista come effetto del massimo sviluppo delle forze produttive capitalistiche, storicamente il c. trovò le sue prime realizzazioni in un paese arretrato come la Russia. Il sorgere del «c. storico» novecentesco è legato peraltro alla profonda crisi che colpì la seconda Internazionale allo scoppio della Prima guerra mondiale, allorché l’«internazionalismo proletario» lasciò il campo allo schierarsi dei partiti socialisti ciascuno col proprio governo. Nel movimento socialista emerse allora un’ala sinistra, il cui leader principale fu V.I. Lenin, che già in Che fare? (1902) aveva elaborato la teoria del partito rivoluzionario e nel 1904 aveva guidato la frazione bolscevica del socialismo russo nel costituirsi in partito. Allorché dunque, nel febbraio 1917 rinacquero i soviet di operai, contadini e soldati, e iniziò la Rivoluzione russa, Lenin tornò in patria dall’esilio e sostenne la necessità di trasformare il movimento in rivoluzione socialista, saltando la fase democratico-borghese. In Stato e rivoluzione elaborò la teoria dello Stato-Comune, e sotto la sua guida i bolscevichi portarono a termine la Rivoluzione d’ottobre. I primi decreti del nuovo governo riguardarono la pace immediata, l’abolizione dei latifondi, il controllo operaio sulla produzione, il passaggio del potere ai soviet. All’inizio del 1918, l’ondata rivoluzionaria si era già espansa in quasi tutta la Russia, e anche a Berlino e Vienna si costituivano dei soviet. K. Kautsky, intanto, accusava i bolscevichi di giacobinismo, suscitando la replica di Lenin. Ma critiche furono avanzate anche da R. Luxemburg, che, pur d'accordo sul fine rivoluzionario, dissentiva sul
primato del partito. Intanto la presenza delle truppe di 19 paesi stranieri al fianco delle armate bianche acuì la guerra civile nella Russia sovietica, imponendo le accelerazioni del «c. di guerra», da cui Lenin deciderà di recedere, avviando un percorso di transizione più graduale, col lancio nel 1921 della Nuova politica economica (NEP). Per i bolscevichi la rivoluzione mondiale era iniziata in Russia in quanto «anello debole della catena imperialista», ma era destinata ad allargarsi, e la sua vittoria nei Paesi più avanzati avrebbe consentito lo sviluppo della stessa Russia sovietica. Occorreva quindi creare ovunque partiti comunisti, che rompessero col riformismo e portassero avanti l’ondata rivoluzionaria. Nel marzo 1918 si costituì dunque la terza Internazionale. Ma il fallimento della rivoluzione in Occidente, e in particolare in Germania (repressione dei moti spartachisti di K. Liebknecht e R. Luxemburg, 1919; sconfitta dell’azione del marzo 1921 e dei moti del 1923), indusse i comunisti russi ad avviare l’esperienza del «socialismo in un solo paese», al termine di un aspro dibattito in cui a tale opzione, sostenuta da J.V. Stalin, si era contrapposta la linea della «rivoluzione permanente» di L.D. Trotzkij. La «scommessa» sulla costruzione del socialismo in Russia fu affidata all'industrializzazione e alla collettivizzazione delle terre, realizzate a tappe forzate. N. Bucharin sostenne la necessità di un processo di transizione più graduale, che intanto lasciasse margini all’iniziativa privata dei contadini. Ma prevalse la linea di Stalin, cosa a cui seguì il rapido sviluppo dell’URSS, ma anche il crearsi di gravi distorsioni nella società e nel sistema politico, fino ai processi e alle «grandi purghe» del 193638. Intanto partiti comunisti si sviluppavano nel mondo, sotto la guida del Comintern ma anche seguendo vie peculiari: tipico il caso del partito cinese guidato da Mao Zedong, protagonista di un lungo percorso rivoluzionario; ma significativo anche il ruolo dei comunisti italiani, che con A. Gramsci svilupparono un’acuta riflessione sulla transizione in Occidente (teoria dell’egemonia) e con P. Togliatti contribuirono alla svolta dei fronti popolari (1935). Con la Seconda guerra mondiale, la vittoria sul nazifascismo col ruolo determinante dell’URSS determinò una nuova fase espansiva del movimento; si costituì un vasto fronte di paesi di orientamento comunista nell’Est europeo e di partiti comunisti nell’area occidentale, cui si aggiunse la vittoria della rivoluzione in Cina e il sorgere della Repubblica popolare guidata da Mao (1949). Il c. inoltre era ormai largamente diffuso nel mondo della cultura, annoverando tra i suoi sostenitori intellettuali e artisti quali B. Brecht, R. Alberti, P. Neruda, N. Hikmet, P. Picasso, R. Guttuso ecc. Intanto il Comintern era stato sciolto (1943) e il collegamento tra partiti comunisti affidato al Cominform e a periodiche conferenze internazionali, mentre il «campo socialista» si dotava di strutture di coordinamento economico (Comecon) e militare. Si diffondeva inoltre il «c.-decolonizzazione», legato al processo di liberazione dei popoli indotto dalla crisi del colonialismo. Nel 1959 la rivoluzione, guidata da F. Castro e E. Che Guevara, trionfava a Cuba; in Indonesia cresceva la presenza comunista nel governo di Sukarno. In Europa orientale, le «democrazie popolari», che in teoria avrebbero dovuto tentare vie diverse al socialismo, tendevano invece a riprodurre il modello sovietico, a eccezione della Jugoslavia, che avviava con J.B. Tito l’esperienza dell’autogestione e del «socialismo di mercato». Intanto, morto Stalin (1953), elementi di crisi erano emersi nel 1956, prima col 20° Congresso del Partito comunista dell’Unione Sovietica, poi coi moti di Poznań e la rivolta di Budapest. La «destalinizzazione» e la coesistenza pacifica avviate da N. Chruščëv suscitavano inoltre le diffidenze di Mao; a partire dal 1960 iniziò dunque la polemica cinosovietica, col tentativo cinese di costituire una leadership alternativa al «revisionismo» sovietico e la creazione di partiti «marxisti-leninisti» in molti paesi. La rivoluzione culturale (1966) accentuò questa posizione, mentre la proposta togliattiana di «unità nella diversità» rimaneva inascoltata. Nel 1968 l’esperienza del nuovo corso cecoslovacco guidato da A. Dubček veniva bloccata dall’intervento del Patto di Varsavia; dal canto loro, i comunisti vietnamiti, guidati da Ho Chi Minh, reggevano il confronto militare con gli USA, giungendo infine alla vittoria nel 1975. Intanto la messa in discussione del modello sovietico – che con L. Brežnev viveva una fase di stagnazione – trovava espressione, oltre che nel crescere del dissenso interno ai Paesi socialisti, nell’«eurocomunismo» di alcuni partiti comunisti europei (Partito comunista italiano in primo luogo). Alla difficoltà dei Paesi socialisti, innanzitutto economica (tanto che alcuni di essi caddero nella spirale prestiti/debito), tentò di
rispondere con qualche imprudenza la perestrojka di M.S. Gorbačëv; la crisi però precipitava, complici i rinati nazionalismi, nella disarticolazione dell’economia e dello Stato sovietico, oltre che del sistema di alleanze dell’URSS, sfociando nel crollo del muro di Berlino (1989) e nella dissoluzione dei Paesi socialisti dell’Est europeo e della stessa Unione Sovietica (1991). Il crollo chiudeva un’intera fase storica. Tuttavia nel mondo restano numerosi partiti e movimenti (e taluni Stati) che tuttora si richiamano alla prospettiva del comunismo.
CONCLUSIONI
La crisi finanziaria del 2008 ha scatenato quella che potrebbe essere chiamata la terza crisi della teoria economica. La prima, come ricordò Joan Robinson, venne provocata dal Great Crash del 1929 che mandò a catafascio le consolidate certezze liberali relative ad un mondo retto dal sicuro operare della mano invisibile di cui Adam Smith parlò in Ricchezza delle nazioni e spianò la strada per l'avvento di quella che Karl Polany chiamò la"Grande trasformazione".
"La civiltà del diciannovesimo secolo è crollata", scrisse Polany "La civiltà del diciannovesimo secolo poggiava su quattro istituzioni. La prima era il sistema dell'equilibrio del potere che per un secolo impedì che tra le grandi potenze scoppiassero guerre lunghe e devastatrici. La seconda era la base aurea internazionale, che simboleggiava un'organizzazione unica dell'economia mondiale. La terza era il mercato autoregolato che produceva un benessere economico senza precedenti. La quarta era lo stato liberale.
Tra queste istituzioni la base aurea si dimostrò decisiva; la sua caduta fu la causa prossima della catastrofe e al tempo in cui essa cadde la maggior parte delle altre istituzioni erano state sacrificate in un vano sforzo di salvarla. La fonte e la matrice del sistema era tuttavia il mercato autoregolato: fu questa innovazione a dare origine ad una civiltà specifica. La base aurea era semplicemente il tentativo di estendere il sistema del mercato interno al campo internazionale; il sistema dell'equilibrio del potere era una sovrastruttura eretta sulla base aurea e in parte operante su di essa; lo stato liberale era esso stesso una creazione del mercato autoregolato. La chiave del sistema istituzionale del diciannovesimo secolo si trovava nelle leggi che governavano l'economia di mercato.
L'idea di un mercato autoregolato, notò Karl Polany, implicava una grande utopia. Un'istituzione del genere non poteva esistere per un qualunque periodo di tempo senza annullare la sostanza naturale e sociale della società; essa avrebbe distrutto l'uomo fisicamente e avrebbe trasformato il suo ambiente in un deserto. Era inevitabile che la società prendesse delle misure per difendersi, ma qualunque misura avesse preso, essa ostacolava l'autoregolazione del mercato, disorganizzava la vita industriale e metteva così l società in pericolo in un altro modo. Fu questo dilemma a spingere lo sviluppo del sistema di mercato in un solco preciso ed infine a far crollare l'organizzazione sociale che si basava su di esso."
Polany, nel suo libro, ricostruisce l'avvento del sistema di mercato nell'Inghilterra dell'800, la sua evoluzione reale, la sua trascrizione ideologica nei paradigmi dell'economia classica e, infine, le sue conseguenze devastanti per il tessuto umano e sociale; illustra le difese poste in atto dalla società nel tentativo di arginare tali conseguenze; descrive il processo di trasformazione o meglio di degenerazione
che interviene per effetto della spinta del sistema di mercato e del cedimento delle difese sociali.
Il centro vitale del libro è rappresentato dall'analisi dell’ascesa e della caduta della  economia di mercato. Polany critica il fondamento antropologico del liberismo, quello per cui la pulsione fondamentale dell’attività economica è, sulla scorta di A. Smith, la "propensione [dell’uomo] al baratto, al commercio e allo scambio di una cosa con l’altra". Su questa base, osservò Polany, venne costruito l’utilitarismo e il perseguimento dell’interesse individuale si è configurato come un dovere, legittimo e alla fin dei conti utile per l’intera società. Polanyi viceversa scrive. "Nonostante il coro di invenzioni accademiche tanto insistente nel diciannovesimo secolo, il guadagno e il profitto nello scambio non hanno mai prima svolto una parte importante nell’economia e per quanto l’istituzione del mercato fosse abbastanza comune a partire dalla tarda Età della Pietra, il suo ruolo era soltanto incidentale nei confronti della vita economica".
"L’economia dell’uomo, di regola, è immersa nei suoi rapporti sociali. L’uomo non agisce in modo da salvaguardare il suo interesse individuale nel possesso di beni materiali, agisce in modo da salvaguardare la sua posizione sociale, le sue pretese sociali, i suoi vantaggi sociali, Egli valuta i beni materiali soltanto nella misura in cui essi servono a questo fine. Né il processo di produzione né quello di distribuzione sono legati a specifici interessi economici vincolati al possesso dei beni; tuttavia ogni passo di questo processo è collegato ad una molteplicità di interessi sociali, che alla fine assicurano che il passo necessario venga compiuto". In breve, "il sistema economico è in realtà una semplice funzione dell’organizzazione sociale". In altre parole, "gli atti individuali di baratto o di scambio… non conducono di regola all’istituzione di mercati in società nelle quali prevalgono altri principi di comportamento economico" (p. 79)
Con l’invenzione del mercato autoregolato, invece, "non è più l’economia ad essere inserita nei rapporti sociali, ma sono i rapporti sociali ad essere inseriti nel sistema economico. L’importanza vitale del fattore economico per l’esistenza della società preclude qualunque altro risultato poiché una volta che il sistema economico sia organizzato in istituzioni separate, basate su motivi specifici e conferenti uno speciale status. La società deve essere formata in modo da permettere a questo sistema di funzionare secondo le proprie leggi".
"Un’economia di mercato è un sistema economico controllato, regolato e diretto soltanto dai mercati; l’ordine nella produzione e nella distribuzione delle merci è affidato a questo meccanismo autoregolantesi. Un’economia di questo tipo deriva dall’aspettativa che gli esseri umani si comportino in modo tale da raggiungere un massimo di guadagno monetario. Essa assume l’esistenza di mercati nei quali la fornitura di merci (e di servizi) disponibili ad un determinato prezzo sarà pari alla domanda a quel prezzo. Essa assume la presenza della moneta come potere di acquisto nelle mani dei suoi possessori. La produzione sarà poi controllata dai prezzi poiché i profitti di coloro che dirigono la produzione dipenderanno da essi; anche la distribuzione delle merci dipenderà dai prezzi perché i prezzi formano i redditi ed è per mezzo di questi redditi che le merci prodotte sono distribuite tra i membri della società. Sulla base di questi assunti l’ordine nella produzione e nella distribuzione delle merci è assicurato soltanto dai prezzi. L’autoregolazione implica che tutta la produzione è in vendita sul mercato e che tutti i redditi derivano da questa vendita. Di conseguenza vi sono mercati per tutti gli elementi dell’industria, non soltanto per le merci (e i servizi) ma anche per il lavoro, la terra e la moneta".
Ne deriva che "non si deve permettere niente che ostacoli la formazione di mercati né si deve permettere che i redditi si formino altrimenti che attraverso le vendite, né deve esservi alcuna interferenza con l’aggiustamento dei prezzi alle mutate condizioni del mercato, siano i prezzi quelli
delle merci prodotte, del lavoro, della terra o del denaro" . "Il punto cruciale è questo: lavoro, terra e moneta sono elementi essenziali dell’industria; anch’essi debbono essere organizzati in mercati poiché formano una parte assolutamente vitale del sistema economico; tuttavia essi non sono ovviamente delle merci, e il postulato per cui tutto ciò che è comprato e venduto deve essere stato prodotto per la vendita è per questi manifestamente falso. Il lavoro è soltanto un altro nome per un’attività umana che si accompagna alla vita stessa la quale a sua volta non è prodotta per essere venduta ma per ragioni del tutto diverse… La terra è soltanto un altro nome per la natura che non è prodotta dall’uomo. La moneta infine è soltanto un simbolo del potere d’acquisto che di regola non è affatto prodotto ma si sviluppa attraverso il meccanismo della banca o della finanza di stato. Nessuno di questi elementi è prodotto per la vendita. La descrizione, quindi, del lavoro, della terra e della moneta come merci è interamente fittizia. E’ nondimeno con il contributo di questa finzione che sono organizzati i mercati del lavoro, della terra e della moneta… La finzione della merce fornisce un principio di organizzazione vitale per tutta la società, il quale influisce su quasi tutte le sue istituzioni nel modo più vario: si tratta cioè del principio secondo il quale non si dovrebbe permettere l’esistenza di nessuna organizzazione o comportamento che impedisca l’effettivo funzionamento del meccanismo di mercato sulla linea della finzione della merce.
Tuttavia per quanto riguarda lavoro, terra e moneta questo postulato non può essere sostenuto; permettere al meccanismo di mercato di essere l’unico elemento direttivo del destino degli esseri umani e del loro ambiente naturale e perfino della quantità e dell’impiego del potere d’acquisto porterebbe alla demolizione la società. La presunta merce "forza-lavoro" non può infatti essere fatta circolare, usata indiscriminatamente e neanche lasciata priva d’impiego, senza influire nche sull’individuo umano che risulta essere il portatore di questa merce particolare. Nel disporre della forza-lavoro di un uomo, il sistema disporrebbe tra l’altro dell’entità fisica, psicologica e morale "uomo" che si collega a quest’etichetta… La natura verrebbe ridotta ai suoi elementi, l’ambiente e il paesaggio deturpati, i fiumi inquinati, la capacità di produrre cibo e materie prime distrutta.
Indubbiamente i mercati del lavoro, della terra e della moneta sono essenziali per un’economia di mercato, ma nessuna società potrebbe sopportare gli effetti di un simile sistema di rozze finzioni neanche per il più breve periodo di tempo a meno che la sua sostanza umana e naturale, oltre che la sua organizzazione commerciale, fossero protette dalle distruzioni arrecate da questo diabolico meccanismo".
Una volta messo in moto dai processi sociali, vale a dire dalla spietata avidità dei capitalisti, avallato dalle forze politiche che rappresentavano i loro interessi e teorizzato dagli utilitaristi e dagli economisti classici, il meccanismo diabolico produce di fatto, nel corso dell’800, i suoi effetti: la crescita prodigiosa della ricchezza è pagata al prezzo di un enorme aumento della miseria e della degradazione umana. La conclusione era che per ovviare a questo stato di cose, occorreva superare la "nostra obsoleta mentalità di mercato"
Affatto diversa era la critica di Keynes. Come egli ebbe a scrivere inLa fine del lasciar fare: "Liberiamoci dai metafisici o generali sui quali, in varie occasioni, si è basato il laissez-faire. Non è vero che gli individui posseggano una «libertà naturale» nelle loro attività economiche. Non vi è alcun patto che conferisca diritti perpetui a coloro che posseggono o a coloro che acquistano. Il mondo non è governato dall'alto in modo che gli interessi privati e sociali coincidano sempre. Esso non è condotto quaggiù in modo che in pratica essi coincidano. Non è una deduzione corretta dai principi di economia che l'interesse egoistico illuminato operi sempre nell'interesse pubblico. Né è vero che l'interesse egoistico sia generalmente illuminato; più spesso individui che agiscono separatamente per promuovere i propri fini sono troppo ignoranti o troppo deboli persino per raggiungere questi. L'esperienza non
mostra che gli individui,  quando costituiscono un'unità sociale, siano sempre di vista meno acuta di quando agiscono separatamente.
Quindi non possiamo risolvere su basi astratte, ma dobbiamo trattare dei suoi meriti in particolare ciò che Burke chiamava «uno dei problemi più interessanti del legiferare, ossia determinare ciò che lo Stato dovrebbe prendere su di sé per dirigere attraverso il giudizio del pubblico e quanto dovrebbe lasciare, con la minima interferenza possibile, all'attività privata » (Citato da McCulloch nei suoi Principles of Political Economy). Dobbiamo distinguere fra ciò che Bentham, nella sua dimenticata ma utile nomenclatura, usava chiamare Agenda e Non-Agenda, e dobbiamo far questo senza il previo presupposto di Bentham che l'interferenza è, nello stesso tempo, «generalmente inutile» e «generalmente dannosa». (Bentham, Manual of Political Economy, pubblicazione postuma, nell'edizione di Bowring - 1843). Forse il compito principale degli economisti in quest'ora è di distinguere di nuovo l'Agenda del governo dalla Non-Agenda; ed il compito connesso della politica è di escogitare forme di governo, nei limiti della democrazia, che siano in grado di realizzare l'Agenda. Illustrerò con due esempi ciò che ho in mente:
Credo che in molti casi la dimensione ideale per l'unità di controllo e di organizzazione è in un punto intermedio fra l'individuo e lo Stato moderno. Sostengo perciò che il progresso sta nello sviluppo e nel riconoscimento di enti semi-autonomi entro lo Stato - enti il cui criterio di azione entro il proprio campo sia unicamente il bene pubblico come essi lo concepiscono, e dalle cui deliberazioni siano esclusi motivi di vantaggio privato, benché possa ancora essere necessario, finché non diventi maggiore l'ambito dell'altruismo umano, lasciare un certo campo al vantaggio separato di particolari gruppi, classi o facoltà - enti che nel corso ordinario degli affari siano di massima autonomi entro le proprie prescritte limitazioni, ma siano soggetti in estrema istanza alla sovranità della democrazia quale è espressa attraverso il Parlamento.
Io propongo un ritorno, si può dire, verso concezioni medioevali di autonomie separate. Ma, almeno in Inghilterra, gli enti pubblici sono un modo di governo che non ha mai cessato dall'essere importante ed è in armonia con le istituzioni inglesi. È facile dare esempi da quanto già esiste, di autonomie separate che hanno raggiunto o si stanno avvicinando al modo cui alludo : le università, la Banca d'Inghilterra, la Port of London Authority e forse anche le compagnie ferroviarie. In Germania vi sono indubbi esempi analoghi.
Ma più interessante di questi è la tendenza delle società azionarie, quando hanno raggiunto una certa età ed una certa importanza, ad avvicinarsi alla situazione di enti pubblici piuttosto che a quella di imprese individualistiche private. Uno degli sviluppi più interessanti ed inosservati degli ultimi decenni è stata la tendenza delle grandi imprese a socializzarsi. Arriva un momento nello sviluppo di un grosso ente - particolarmente una grossa impresa ferroviaria o di pubblica utilità, ma anche una grande banca o una grande compagnia d'assicurazioni - in cui i proprietari del capitale, ossia gli azionisti, sono quasi interamente dissociati dall'amministrazione, col risultato che l'interesse personale diretto degli amministratori nel conseguimento di grandi profitti diventa del tutto secondario. Quando si è raggiunto questo stadio, saranno più considerate dagli amministratori la stabilità generale e la reputazione dell'ente che il massimo profitto per gli azionisti. Gli azionisti devono contentarsi di dividendi convenzionalmente adeguati; ma una volta assicurato ciò, l'interesse diretto degli amministratori spesso consiste nell'evitare critiche da parte del pubblico e dei clienti della ditta. Ciò avviene i particolare quando le grandi dimensioni dell'impresa o la sua posizione semi-monopolistica la rendono molto visibile agli occhi del pubblico e vulnerabile ad un pubblico attacco. Forse l'esempio estremo di questa tendenza, nel caso di un'istituzione che teoricamente è di proprietà assoluta di alcune persone private, è la Banca
d'Inghilterra. È quasi esatto asserire che non vi è classe di persone nel Regno, quanto i suoi azionisti, cui il Governatore della Banca d'Inghilterra pensi di meno quando decide circa la sua politica. I loro diritti, oltre al loro dividendo convenzionale, sono già discesi fin quasi a zero. Ma lo stesso è vero di molti altri grandi enti: col passar del tempo si vanno socializzando.
Non che questo sia puro vantaggio. Le stesse cause provocano spirito conservatore e difetto di iniziativa.  Infatti abbiamo già in questi casi molti dei difetti oltre che i vantaggi del Socialismo di Stato. Ciò non di meno abbiamo qui, credo, una linea naturale di evoluzione. La battaglia del socialismo contro il guadagno privato illimitato si sta vincendo in particolare di ora in ora. In questi campi specifici non vi è più il problema urgente, mentre questo rimane acuto altrove. Per esempio, non vi è alcuna così detta questione politica importante così sostanzialmente insignificante, così irrilevante agli effetti della riorganizzazione della vita economica della Gran Bretagna, come la nazionalizzazione delle ferrovie.
È vero che molte grandi imprese, particolarmente imprese di pubblica utilità ed altre aziende richiedenti un vasto capitale fisso, abbisognano ancora di essere socializzate. Ma dobbiamo avere concetti elastici riguardo alle forme di questo semi-socialismo. Dobbiamo avvantaggiarci in pieno delle tendenze naturali del giorno e dobbiamo probabilmente preferire società semi-autonome ad organi del governo centrale dei quali siano direttamente responsabili ministri di Stato.
Io critico il Socialismo di Stato dottrinario non perché esso cerchi di assoldare al servizio della società gli impulsi altruisti degli uomini o perché si discosti dal laissez-faire, o perché esso sottragga una parte della libertà naturale dell'uomo di crearsi una gran ricchezza, o perché esso abbia il coraggio di effettuare audaci esperimenti. Io encomio tutto ciò. Io lo critico perché non afferra il significato di quanto accade realmente; perché, in sostanza, è poco meglio della riesumazione di un piano polveroso per far fronte ai problemi di cinquant'anni fa, basato su fraintendimento di ciò che qualcuno disse cent'anni or sono. Il Socialismo di Stato del secolo XIX sorse da Bentham, dalla libera concorrenza, ecc., ed è sotto alcuni riguardi una versione più chiara, e sotto altri più confusa, proprio della stessa filosofia che forma la base dell'individualismo del secolo XIX. Ambedue insistettero al massimo sulla libertà, l'una in senso negativo, per evitare limitazioni alla libertà esistente, l'altro in senso positivo, per distruggere i monopoli naturali o acquisiti. Essi sono reazioni differenti alla stessa atmosfera intellettuale.
Vengo poi ad un criterio di Agenda che è particolarmente rilevante su ciò che è urgente e desiderabile fare nel prossimo futuro. Dobbiamo tendere a separare quei servizi che sono tecnicamente sociali da quelli che sono tecnicamente individuali. L'intervento più importante dello Stato si riferisce non a quelle attività che gli individui privati esplicano già, ma a quelle funzioni che cadono al di fuori del raggio d'azione degli individui, a quelle decisioni che nessuno compie se non vengono compiute dallo Stato. La cosa importante per il governo non è fare ciò che gli individui fanno già, e farlo un po' meglio o un po' peggio, ma fare ciò che presentemente non si fa del tutto.
Non rientra nei limiti dei miei intendimenti sviluppare in questa occasione politiche pratiche. Mi limito perciò a nominare alcuni esempi di ciò che io intendo, scelti fra quei problemi sui quali mi è capitato d'aver ragionato di più.
Molti dei maggiori mali economici del nostro tempo sono frutto del rischio, dell'incertezza e dell'ignoranza. È perché certi individui sono in grado di trarre vantaggio dall'incertezza e dall'ignoranza, ed anche perché i grossi affari sono spesso una lotteria, che si creano grandi diseguaglianze di ricchezza; e questi stessi fattori sono pure causa della disoccupazione dei lavoratori o
della delusione di ragionevoli aspettative commerciali e della caduta di efficienza e di produzione. Tuttavia la cura è al di fuori dell'operato degli individui; può essere nell'interesse degli individui persino di aggravare il male. Credo che la cura per tali cose si debba cercare in parte nel controllo deliberato della moneta e del credito da parte di un'istituzione centrale e in parte nella raccolta e nella diffusione su vasta scala di dati riferentisi alla situazione commerciale, compresa la piena pubblicità, obbligatoria per legge se necessario, di tutti i fatti commerciali che sia utile conoscere. Queste misure porterebbero la società ad esercitare una intelligenza direttiva attraverso alcuni organi appositi di azione su molte delle intime complicazioni delle aziende private; e tuttavia lascerebbero intatta l'iniziativa privata. Anche se queste misure si dimostrassero insufficienti, ciò non di meno ci fornirebbero una miglior cognizione di quanta ne abbiamo ora per compiere il passo successivo.
Il mio secondo esempio si riferisce al risparmio ed agli investimenti. Credo sia opportuna una certa azione coordinata di giudizio intelligente circa la misura in cui è desiderabile che la comunità nel suo complesso risparmi, la misura in cui questi risparmi debbano andare all'estero sotto forma di investimenti e la questione se l'organizzazione presente del mercato degli investimenti distribuisca i risparmi lungo i canali più produttivi dal punto di vista nazionale. Non credo che questi argomenti debbano lasciarsi interamente all'arbitrio del giudizio privato e dei profitti privati, come avviene attualmente.
Il mio terzo esempio concerne la popolazione. È già venuto il tempo in cui ogni paese richiede una ponderata politica nazionale circa la questione di quale volume di popolazione, se maggiore, eguale o minore dell'attuale sia più opportuno. E, una volta stabilita questa politica, si devono fare dei passi per metterla in atto. Può venire il tempo in seguito, in cui la comunità nel suo complesso debba dedicare attenzione alla qualità intrinseca oltre che al semplice ammontare dei suoi membri futuri.
Queste riflessioni sono indirizzate verso possibili miglioramenti nella tecnica del capitalismo moderno per mezzo dell'azione collettiva. Non vi è nulla in esse che sia seriamente incompatibile con ciò che mi pare sia la caratteristica essenziale del capitalismo, ossia la dipendenza da un estremo appello all'istinto del guadagno ed all'amore del denaro da parte degli individui come la forza motrice principale della macchina economica. Né io devo, così vicino al mio fine, sviarmi verso altri campi. Ciò non di meno può essere utile ricordarvi, in conclusione, che le più aspre contese e le diversità di opinione più profondamente sentite si avranno probabilmente negli anni prossimi non su questioni tecniche, in cui gli argomenti da ambo i lati sono principalmente economici, ma su quelle che, in mancanza di termini migliori, possono chiamarsi psicologiche, o, forse, morali.
In Europa, o almeno in alcune parti dell'Europa - ma non, penso, negli Stati Uniti d'America - vi è una reazione latente alquanto diffusa contro il basare la società, fino al punto in cui noi la basiamo, sul favorire, incoraggiare e proteggere i moventi di guadagno degli individui. Una preferenza per ordinare i nostri affari in modo tale da fare appello il minimo possibile al movente di guadagno, anziché il massimo possibile, non deve essere interamente a priori, ma può basarsi sul confronto di esperienze. Differenti persone, a seconda della scelta della loro professione, trovano che il movente di guadagno rappresenta una parte grande o piccola nella loro vita quotidiana, e gli storici possono narrarci di altre fasi di organizzazione sociale in cui questo movente ha rappresentato una parte assai meno importante di quella che ha attualmente. La maggior parte delle religioni e la maggior parte delle filosofie deprecano, per non dir di più, un sistema di vita influenzato principalmente da considerazioni di guadagno monetario personale. D'altronde in maggioranza gli uomini oggi respingono le idee ascetiche e non dubitano dei vantaggi reali della ricchezza. Per di più sembra loro ovvio che non si può fare a meno del movente di guadagno e che, a parte certi abusi riconosciuti, questo adempia bene la sua funzione. Come risultato l'uomo medio distrae la sua attenzione dal problema e non ha alcuna idea
chiara di quanto egli idealmente pensi e senta circa tutta questa confusa materia.
La confusione di pensiero e di sentimento porta ad una confusione di linguaggio. Molta gente che in realtà condanna il capitalismo come sistema di vita, ragiona come se lo condannasse a motivo della sua inefficacia a raggiungere i propri scopi. Al contrario, i devoti del capitalismo sono spesso eccessivamente conservatori e respingono riforme nella sua tecnica, che in realtà potrebbero rafforzarlo e preservarlo, per timore che queste si dimostrassero i primi passi verso l'abbandono del capitalismo stesso. Ciò non di meno può essere prossimo il tempo in cui sarà divenuto più chiaro di adesso ciò che andiamo dicendo circa il capitalismo come tecnica efficiente o inefficiente e ciò che andiamo dicendo come desiderabile o criticabile in sé stesso. Da parte mia credo che il capitalismo, saggiamente governato, può probabilmente essere reso più efficiente di qualsiasi altro sistema ora in vista nel raggiungere obbiettivi economici, ma che in sé stesso è per molti aspetti estremamente criticabile. Il nostro problema è di far sorgere un'organizzazione sociale che sia la più efficiente possibile senza offendere le nostre nozioni di un soddisfacente sistema di vita.
Il successivo passo in avanti deve venire non da agitazione politica o esperimenti prematuri, ma dalla riflessione. Ci occorre elucidare i nostri propri sentimenti per mezzo di uno sforzo dell'intelletto. Al giorno d'oggi può accadere che la nostra simpatia e il nostro giudizio vengano a trovarsi su due lati differenti, ciò che è uno stato di mente penoso e paralizzante. Nel campo dell'azione i riformatori non avranno successo finché essi non potranno perseguire tenacemente uno scopo chiaro e definito con i loro intelletti ed i loro sentimenti in sintonia fra loro. Non vi è partito al mondo, attualmente, che mi sembri persegua scopi giusti con metodi opportuni. La povertà materiale fornisce l'incentivo al cambiamento precisamente in situazioni in cui vi è un margine assai piccolo per gli esperimenti; la prosperità materiale toglie l'incentivo proprio quando potrebbe essere prudente tentare la sorte. L'Europa difetta dei mezzi, e l'America della volontà di compiere una mossa. Abbiamo bisogno di un nuovo complesso di convinzioni che sorga naturalmente da un esame sereno dei nostri sentimenti interni in relazione con i fatti nel mondo esterno."
Milton Friedman
La seconda crisi fu provocata dall'oil shock del 1973-1979 da cui prese origine la crisi dell'economia
keynesiana che favorì il ritorno del liberismo nella forma assunta nel pensiero di Federico Augusto von Hayek e di Milton Friedman. Nella pubblicistica economica esso prese il nome di monetarismo.
Dagli anni Cinquanta all'inizio degli anni Ottanta,scrisse Fabio Bagliano, la teoria economica nota con il nome di m. ha rappresentato la principale alternativa critica alla dominante teoria di determinazione del reddito d'ispirazione keynesiana. Nel corso del tempo la critica monetarista alla teoria keynesiana si è sviluppata su diversi fronti. In un periodo iniziale (gli anni Cinquanta e Sessanta), oggetto principale di critica è stato il ruolo di secondo piano attribuito alla moneta nella spiegazione keynesiana delle fluttuazioni nell'attività economica. Secondo tale teoria, l'impulso generatore del ciclo economico è da attribuirsi a variazioni nelle componenti della domanda aggregata, e in particolar modo negli investimenti privati. Il m., invece, sostiene l'importanza della quantità di moneta nel determinare il livello di attività reale dell'economia nel breve periodo e il livello dei prezzi (o il tasso d'inflazione) nel lungo periodo. Da qui anche la critica alle misure di politica economica di stampo keynesiano, basate sulla manovra della domanda aggregata (demand management) − attraverso soprattutto la spesa pubblica − in funzione anticiclica, a cui il m. contrappone la crescita programmata degli aggregati monetari come strumento per ottenere il controllo del livello dei prezzi, lasciando al settore privato dell'economia − ritenuto intrinsecamente stabile − la determinazione del livello reale di attività.
Dalla fine degli anni Sessanta la critica monetarista s'indirizza principalmente nei confronti dell'interpretazione keynesiana del legame inverso fra inflazione e disoccupazione, considerato fino a quel momento come una forte regolarità empirica, sintetizzata nella nota ''curva di Phillips''. Secondo tale interpretazione, un'espansione della domanda aggregata, comportando aumento della produzione e diminuzione della disoccupazione, determina tensioni sul mercato del lavoro che si traducono in un aumento del livello dei salari nominali e, conseguentemente, dei prezzi dei prodotti. La risultante relazione inversa fra disoccupazione e inflazione, ritenuta stabile anche nel lungo periodo, permetterebbe ai responsabili della politica economica di scegliere la combinazione desiderata delle due variabili (un ''punto'' sulla curva di Phillips), ottenibile poi mediante l'opportuna regolazione della domanda aggregata.
L'esistenza di una stabile intersostituibilità (trade-off) fra inflazione e disoccupazione è radicalmente criticata da M. Friedman e da altri monetaristi, i quali sostengono che tale relazione inversa è un fenomeno solo temporaneo e che l'inflazione è destinata inevitabilmente ad accelerare nel corso del tempo, in risposta a un'espansione della domanda aggregata, per effetto delle aspettative inflazionistiche, fino a che il tasso di disoccupazione non sia tornato al suo livello definito ''naturale'', nella terminologia di Friedman. In corrispondenza di tale tasso il numero di posti di lavoro vacanti è uguale al numero dei disoccupati, determinando la sostanziale uguaglianza di domanda e offerta di lavoro. Il ruolo delle aspettative nel determinare il comportamento degli agenti economici e l'efficacia delle misure di politica economica inizia così ad assumere un ruolo centrale nell'analisi, ruolo che verrà ulteriormente rafforzato, come si vedrà, dagli sviluppi teorici degli anni seguenti.
Durante gli anni Settanta, il manifestarsi congiunto di elevata inflazione e disoccupazione crescente genera una profonda crisi di fiducia nelle possibilità esplicative della teoria keynesiana e nelle prescrizioni di politica economica da essa derivate. Il m., invece, con la sua enfasi sul controllo della crescita monetaria come semplice strumento per contenere l'inflazione, acquista crescente importanza nella conduzione effettiva della politica economica, tanto che in numerosi paesi europei, oltre che negli Stati Uniti, vengono adottate, a partire dalla metà degli anni Settanta, politiche monetarie direttamente ispirate ai precetti monetaristi. Parallelamente, e fino alla metà degli anni Ottanta, nasce e si sviluppa una corrente teorica che riprende alcuni temi di fondo del m. (in particolare la fiducia nella stabilità del settore privato dell'economia e l'importanza attribuita alla formazione delle aspettative da parte degli
agenti economici) sviluppandoli però in maniera diversa e giungendo a conclusioni nuove e più radicali sull'efficacia delle azioni di politica economica. Tale corrente teorica è nota con il nome di ''nuova macroeconomia classica'' (e anche, forse più impropriamente, di ''neomonetarismo'') ed è associata principalmente ai nomi di R. Lucas, R. Barro, Th. Sargent e N. Wallace.Le principali proposizioni teoriche del monetarismo− Il m. non costituisce una teoria economica omogenea, dotata di un ben definito e universalmente accettato insieme di proposizioni teoriche rigorosamente dimostrate. Al suo interno convivono diverse posizioni, e, almeno secondo i critici del m., alcuni importanti aspetti della teoria sono lasciati senza una soddisfacente trattazione analitica. È bene però ricordare come l'elaborazione teorica del m. si sia sempre accompagnata a numerosi e approfonditi studi empirici tendenti a documentare la validità delle idee monetariste prima ancora e al di là della loro formale dimostrazione. Ciò è particolarmente evidente nei monumentali lavori di Friedman e A. Schwartz (1963, 1970, 1982) sulla storia monetaria degli Stati Uniti e della Gran Bretagna, e risponde anche a precisi canoni epistemologici enunciati da Friedman fin dagli anni Cinquanta. Per Friedman, infatti, la validità di una teoria va giudicata sulla base della sua capacità di predire i fatti e non dal realismo delle assunzioni o dalla compattezza della struttura logica.
Nonostante queste difficoltà, è possibile individuare in quattro punti le caratteristiche distintive del m. al termine degli anni Settanta:
a) Nucleo centrale della teoria monetarista rimane la riformulazione, dovuta a Friedman, della classica teoria quantitativa della moneta in primo luogo come teoria della domanda di moneta e quindi come teoria della determinazione del reddito nominale.
Il ruolo della moneta nell'economia era visto dalla teoria quantitativa attraverso la cosiddetta ''equazione degli scambi'', nella forma MV=Py, dove M è lo stock di moneta, P il livello generale dei prezzi, y il reddito nazionale in termini reali e V è la velocità di circolazione della moneta (definita come il numero medio di volte in cui lo stock di moneta esistente è impiegato per il pagamento di beni e servizi finali). L'ipotizzata costanza di V e y (la prima determinata da fattori istituzionali e il secondo fisso al livello di pieno impiego dei fattori produttivi) crea, per la teoria quantitativa, un legame diretto fra variazioni della quantità di moneta (M) e variazioni del livello dei prezzi (P).
La moneta viene quindi vista, dalla teoria quantitativa, esclusivamente nella sua funzione di mezzo di scambio, mentre il punto di partenza della riformulazione monetarista della teoria sta proprio nel considerare la moneta soprattutto come attività patrimoniale, nella sua funzione di ''temporaneo deposito del potere d'acquisto''. Come tale, essa è domandata nel quadro delle complessive scelte di portafoglio dei soggetti economici e compete, in termini di tassi attesi di rendimento, con una vasta gamma di attività finanziarie (titoli, azioni) e reali (beni capitale, immobili, beni di consumo durevoli). Determinanti della domanda di moneta dell'economia divengono quindi, nella teoria monetarista, non solo il livello del reddito e il tasso atteso di rendimento sui titoli a reddito fisso (come nella teoria keynesiana), ma anche i tassi attesi di rendimento sulle varie attività alternative e il tasso atteso d'inflazione, come misura del rendimento atteso delle attività reali non soggette a deprezzamento. Adottando l'ipotesi di Friedman, secondo la quale una variazione del reddito nominale si traduce in una variazione proporzionale della quantità desiderata di moneta da parte dell'economia, è possibile esprimere la funzione di domanda di moneta in forma semplificata come M=f (y, rb, re, π, w)Y, dove rb ed re denotano il tasso reale atteso di rendimento rispettivamente sui titoli a reddito fisso e sulle azioni, π è il tasso atteso d'inflazione, w lo stock di ricchezza dell'economia e Y è il reddito nazionale in termini nominali (Y=Py). La riformulazione monetarista della teoria quantitativa si nota più chiaramente se si riesprime la funzione di domanda di moneta come Y=V(y, rb, re, π, w)M. Ora la velocità di circolazione della moneta viene a dipendere da una serie di variabili che influenzano le
scelte di portafoglio degli agenti economici. È questo l'aspetto essenziale della riformulazione monetarista della classica equazione degli scambi richiamata sopra.
Tuttavia, il legame fra M e Y appena descritto non costituisce ancora una vera e propria teoria della determinazione del reddito nominale in funzione della quantità di moneta. Due condizioni, che costituiscono altrettante ipotesi chiave della teoria monetarista, sono necessarie: l'''esogenità'' dell'offerta di moneta, e la stabilità della domanda di moneta (o della velocità di circolazione V). La prima ipotesi equivale a dire che le determinanti della domanda di moneta incluse nella funzione V non esercitano alcun effetto sulla quantità di moneta in circolazione nell'economia, controllata e manovrata dalle autorità monetarie. La seconda ipotesi dev'essere interpretata non come costanza numerica di V, ma come stabilità della relazione funzionale che lega V alle sue determinanti. L'effetto congiunto delle due ipotesi è di trasformare la relazione fra M e Y in un legame causale: variazioni della quantità di moneta in circolazione, decise dalle autorità monetarie, determinano, secondo una relazione stabile e perciò prevedibile, variazioni del reddito nominale.
b) Dopo aver stabilito, sulla base di una teoria della domanda di moneta, un legame causale fra quantità di moneta in circolazione e livello del reddito nominale, restano da individuare i canali attraverso cui, per il m., una variazione della moneta si trasmette ai prezzi e alla produzione (il ''meccanismo di trasmissione'').
Su questo punto il m. si differenzia nettamente dalla teoria keynesiana, secondo la quale un'immissione di moneta nell'economia, comportando una diminuzione del tasso d'interesse sui titoli a reddito fisso, determina un aumento della domanda di moneta per fini ''speculativi'', fino a ristabilire l'uguaglianza di equilibrio fra domanda e offerta di moneta. La diminuzione del tasso d'interesse stimola gli investimenti privati, generando effetti moltiplicativi su reddito, consumo e occupazione, senza mutamenti nel livello generale dei prezzi. Variazioni del tasso d'interesse su attività finanziarie direttamente sostituibili alla moneta costituiscono quindi il canale keynesiano di trasmissione di un impulso monetario al settore reale dell'economia. A questa teoria il m. contrappone una visione ben più articolata del processo di aggiustamento dei portafogli di attività (finanziarie e reali) detenute dal settore privato. Come sopra ricordato, per il m. la moneta compete nei portafogli dei soggetti con una vasta gamma di attività patrimoniali. Un eccesso di offerta di moneta, quindi, determina un riordinamento dei portafogli che interessa non solo le attività finanziarie che possono essere più direttamente sostituite alla moneta, ma anche le azioni e un'ampia serie di attività reali. Accanto a variazioni dei tassi di rendimento su tutte le attività finanziarie interessate, quindi, si aggiunge, per il m., un effetto diretto di un aumento dell'offerta di moneta sulla spesa complessiva in beni (per es. beni di consumo durevoli) e servizi. Il risultato ultimo di questi aggiustamenti è quindi un aumento della spesa globale in termini nominali.
La complessità, rispetto alla teoria keynesiana, del meccanismo di trasmissione monetarista sopra sommariamente descritto (v. anche App. IV, ii, p. 499) ha portato i teorici monetaristi a non proporne un'analisi dettagliata con una ben definita scansione temporale dei vari effetti, ma piuttosto a orientare la ricerca empirica verso la verifica della stabilità del legame fra moneta e reddito nominale. Nell'interpretazione monetarista dell'evidenza empirica, l'esistenza di una stabile relazione di lungo periodo fra moneta e reddito è la conclusione principale tratta dall'approfondita analisi friedmaniana della storia monetaria degli Stati Uniti. Tuttavia, la relazione di breve periodo fra le due variabili è meno sicura e prevedibile: l'effetto sul reddito di un impulso monetario, infatti, si manifesta nel tempo con ritardi ''lunghi e variabili'', che inducono i monetaristi a riporre una maggior fiducia nelle proposizioni teoriche riguardanti il lungo periodo. Queste conclusioni, tratte dall'analisi storica dei dati, hanno importanti implicazioni, come si vedrà, per le prescrizioni monetariste di politica economica.
c) Il modo in cui il m. ha affrontato il problema di una suddivisione delle variazioni del reddito nominale in mutamenti del livello dei prezzi e variazioni della produzione costituisce un terzo caposaldo della teoria monetarista, e uno dei contributi più importanti offerti dal m. alla teoria economica negli anni Settanta.
Le risposte fornite a tale problema dalla teoria classica e keynesiana sono da ritenersi piuttosto estreme. Nel caso di perfetta flessibilità di tutti i prezzi nominali, le variabili reali sono totalmente indipendenti dalle variabili monetarie e, di conseguenza, variazioni dell'offerta di moneta si traducono esclusivamente in variazioni proporzionali del livello dei prezzi. Nel caso di completa rigidità dei prezzi, d'altro canto, variazioni monetarie hanno soltanto effetti reali. Una posizione intermedia si è sviluppata a seguito dei lavori empirici di Phillips (1958), che hanno portato a supporre l'esistenza di una relazione stabile fra produzione e inflazione. Il conflitto di obiettivi è chiaro: il problema rilevante per le autorità è di stabilire quali livelli d'inflazione si è disposti ad accettare in cambio di una maggiore utilizzazione delle risorse.
L'evidenza empirica successiva ha dimostrato però che la ''curva di Phillips'' è cambiata nel tempo: non è quindi così semplice per le autorità ottenere i livelli di produzione e inflazione desiderati manovrando la domanda aggregata. Prima ancora che gli eventi ne avessero rivelato l'instabilità, Friedman ed E. Phelps, sul finire degli anni Sessanta, avevano messo in discussione la coerenza logica e la validità della ''curva di Phillips'': nella loro visione, la produzione può aumentare rispetto al valore ipotetico ''naturale'' con prezzi stabili solo nel caso in cui si verifichino errori di previsione dell'inflazione da parte del settore privato dell'economia. In altre parole, la vera curva di Phillips dovrebbe esprimere una relazione fra la produzione e l'inflazione attesa, non attuale. Il problema cruciale è quindi quello della formazione delle aspettative da parte degli operatori economici: è lecito presumere che all'aumentare dell'inflazione realizzata si verifichi un adeguamento delle aspettative tale da rendere di fatto impossibile il conseguimento, in maniera permanente, degli obiettivi di politica economica desiderati. Il costo del mantenimento dell'occupazione e della produzione permanentemente al di sopra dei loro livelli ''naturali'' è costituito da un aumento continuo, e non una tantum, dell'inflazione, in quanto l'inflazione corrente dovrebbe mantenersi sempre al di sopra delle aspettative del settore privato.
In sintesi, la critica di Friedman ridimensiona in maniera notevole l'entusiasmo per politiche economiche attive. Solo nel breve periodo è possibile intravvedere una qualche possibilità d'intervento delle autorità a fini di stabilizzazione, ma politiche di domanda non possono in alcun modo stimolare l'attività produttiva in maniera duratura.
d) L'analisi svolta in precedenza ha implicazioni immediate in tema di politica economica. L'importanza della quantità di moneta per la determinazione del reddito nominale nel lungo periodo, l'esistenza di ritardi lunghi e variabili nella trasmissione al reddito di un impulso monetario e l'impossibilità di ottenere, mediante manovre monetarie, uno scostamento permanente dal tasso ''naturale'' di disoccupazione, portano alla formulazione della più nota regola di politica economica del m.: la crescita della quantità nominale di moneta a un tasso costante nel tempo.
Il rispetto di tale regola assicurerebbe il controllo del tasso d'inflazione nel lungo periodo senza creare, nel breve periodo, effetti incerti e potenzialmente destabilizzanti sull'attività reale.
I monetaristi prendono quindi posizione contro l'uso della politica monetaria diretto alla regolazione anticongiunturale dell'economia, obiettivo impossibile da raggiungere con precisione a causa dell'incerta lunghezza del ritardo con cui variazioni della quantità di moneta influenzano il reddito.
Inoltre, i monetaristi manifestano una totale sfiducia nell'efficacia di misure di politica fiscale (manovra della spesa pubblica e del livello di tassazione) quando esse non vengano accompagnate da variazioni dell'offerta di moneta. A parità di quantità di moneta, infatti, un aumento della spesa pubblica effettuato al fine di stimolare la domanda aggregata e il reddito, provocherebbe solo un aumento del tasso d'interesse e uno ''spiazzamento'' di investimenti e consumi privati, senza effetti durevoli nella produzione complessiva.
L'indicazione di Friedman dello specifico tasso di crescita costante della quantità di moneta che le autorità dovrebbero adottare come regola si basa sull'ipotizzata stretta proporzionalità fra reddito reale e quantità di moneta in termini reali che la collettività desidera detenere. La crescita dello stock di moneta a un tasso pari al tasso di crescita del reddito reale sarebbe quindi compatibile con la stabilità dei prezzi nel lungo periodo. Adottando questa regola, le autorità monetarie offrirebbero al sistema la quantità di moneta desiderata, compatibile con lo sviluppo del reddito reale e con il controllo dei prezzi. Proprio l'enfasi posta dal m. sul controllo del livello dei prezzi come obiettivo e sulla crescita programmata della moneta come strumento della politica monetaria è stata la ragione fondamentale dell'affermarsi di politiche monetarie d'ispirazione monetarista in numerosi paesi durante gli anni Settanta, quando il contenimento dell'inflazione ha assunto il ruolo di obiettivo prioritario.La ''nuova macroeconomia classica'' e il ruolo della politica economica− Il pur notevole ridimensionamento operato da Friedman nei confronti delle teorie di stampo keynesiano è stato portato all'estremo dai teorici della cosiddetta ''Nuova Macroeconomia Classica'' (NMC), che hanno negato qualsivoglia spazio a politiche attive anche nel breve periodo. Secondo questa teoria, non esisterebbe alcuna relazione fra inflazione attesa e produzione (ovvero, la curva di Phillips sarebbe da considerarsi verticale sia nel breve che nel lungo periodo). Quest'affermazione sembrerebbe, a prima vista, non tenere conto del fatto che, almeno fino agli anni Sessanta, la curva di Phillips si era rivelata piuttosto stabile. La spiegazione è che nel momento stesso in cui le autorità hanno cercato di ottenere in maniera decisa gli obiettivi desiderati d'inflazione e produzione, l'ipotizzata relazione tra le due variabili è drasticamente cambiata. Questa è l'essenza della nota critica di Lucas all'uso di modelli che non incorporino esplicitamente i cambiamenti di comportamento del settore privato al variare delle politiche economiche perseguite. Gli operatori economici reagiscono in maniera intelligente a mutamenti nelle manovre di politica economica. Non è quindi possibile centrare gli obiettivi desiderati manipolando la domanda aggregata e assumendo nel contempo un comportamento totalmente passivo da parte degli agenti. Nell'ipotesi di aspettative razionali, quando gli operatori utilizzano tutte le informazioni in loro possesso per prevedere le variabili rilevanti, la curva di Phillips è verticale anche nel breve periodo, in assenza di rigidità nominali.
L'ipotesi di aspettative razionali (per un approfondimento, v. aspettative, in questa Appendice), anche se estrema, è l'unica che permetta di assumere che il settore privato non commetta errori di previsione in maniera sistematica; per questo motivo essa è considerata la meno insoddisfacente dal punto di vista teorico nel dibattito contemporaneo. Le implicazioni di tale ipotesi non sono chiaramente univoche, in quanto la rilevanza di manovre alternative di politica economica dipende in maniera cruciale dalla struttura del modello economico di riferimento. È evidente che, partendo da una situazione di equilibrio non inflazionistico con prezzi perfettamente flessibili e aspettative razionali, a un aumento annunciato dell'offerta di moneta corrisponderà un'aspettativa di aumento dei prezzi nella stessa misura in modo da lasciare invariate le variabili reali. Ne consegue che la produzione può essere influenzata solo nel caso in cui le manovre di politica economica siano interpretate in maniera non corretta. Non esiste comunque spazio per effetti duraturi di politiche discrezionali: qualora, per es., le autorità aumentassero sistematicamente ''a sorpresa'' l'offerta di moneta, gli agenti non avrebbero difficoltà a rendersi conto del carattere permanente e non transitorio di tale manovra; l'aggiustamento delle aspettative verrebbe a vanificarne del tutto l'efficacia.
Non esiste quindi la possibilità di aumentare la produzione al di sopra del suo livello ''naturale''. Se, e solo se, le autorità avessero a disposizione informazioni privilegiate rispetto al settore privato, potrebbe esistere la possibilità di diminuire le oscillazioni stocastiche delle variabili reali intorno ai loro valori di equilibrio. In questo caso, l'obiezione dei teorici della NMC è che sarebbe preferibile rendere di dominio pubblico queste informazioni addizionali; in tal modo le forze di mercato garantirebbero l'allocazione ottimale delle risorse senza che le autorità debbano effettuare alcun tipo d'intervento.
Le risposte neo-keynesiane alla NMC sono state molteplici: pur mantenendo l'ipotesi di aspettative razionali, ma assumendo l'esistenza di rigidità nominali, risultano preferibili regole monetarie attive. L'esistenza di tali rigidità, anche se dovuta alle procedure contrattuali in uso nel mercato del lavoro, comporterebbe perdite secche di benessere e non sarebbe pertanto compatibile, secondo la NMC, con un comportamento ottimizzante degli agenti.
Il dibattito teorico di politica economica si è comunque spostato dal dilemma riguardante l'adozione di regole di politica economica in contrapposizione a discrezionalità pura da parte delle autorità, al problema di quale tipo di regola perseguire. È infatti possibile formulare modelli con aspettative razionali di tipo sia neo-keynesiano sia classico, dove regole monetarie anticicliche sono senz'altro superiori a regole fisse (''non contingenti'') e invarianti nel tempo. Dal punto di vista puramente logico, regole che prevedano un'espansione temporanea della domanda in fase di recessione e una contrazione in periodi di boom dovrebbero essere preferite a regole fisse. Anche nel caso in cui il paradigma della NMC dovesse rivelarsi come un'accurata rappresentazione della realtà, tali regole, al pari di qualsiasi altra regola, sarebbero neutrali. L'avversione a politiche attive da parte dei teorici della NMC si basa sul fatto che, in pratica, è difficile identificare gli shock a cui reagire; regole non rigorosamente fisse verrebbero inevitabilmente a iniettare addizionale incertezza nel sistema economico e a pregiudicarne il corretto funzionamento. Una riprova empirica è che presunte politiche anticicliche si sono rivelate procicliche ex post, con l'effetto di esacerbare, anziché ridurre, le fluttuazioni economiche. L'adozione di regole fisse può limitare l'evidente continuo ricorso alla discrezionalità che caratterizza le politiche economiche dei governi; regole attive possono fornire lo stesso grado di disciplina per le autorità solo in teoria ma non in pratica.
In sostanza, le implicazioni di politica economica derivate dalla NMC si sposano perfettamente con le idee di Friedman, che ne escono notevolmente rafforzate: politiche economiche attive non sono desiderabili al fine di stabilizzare l'economia neppure nel breve periodo. Il mantenimento di regole fisse raggiungerebbe invece il duplice scopo di favorire un corretto funzionamento dell'economia nel lungo periodo e di eliminare fluttuazioni transitorie indotte proprio da interventi attivi. Il ruolo delle autorità consisterebbe quindi nel formulare regole fiscali e monetarie fisse e nel controllare che esse vengano rigorosamente mantenute costanti nel tempo. È opportuno ribadire che anche tali prescrizioni di politica economica vengono derivate non tanto tenendo conto di risultati teorici ma anche, e forse soprattutto, in base a considerazioni sul modo in cui di fatto politiche economiche attive vengono interpretate e messe in atto dai governi.Le politiche economiche ''monetariste'' degli anni Settanta e Ottanta− Durante gli anni Settanta la politica monetaria di numerosi paesi (fra cui Germania Federale, Svizzera, Canada, Giappone, Stati Uniti e Gran Bretagna) ha cominciato a essere formulata in termini di tasso di crescita della quantità di moneta, accogliendo − almeno apparentemente − le idee monetariste. Nella conduzione pratica della politica monetaria, però, è emerso un problema generale riguardo alla particolare definizione di moneta da adottare come strumento. In sistemi finanziari sviluppati, infatti, numerose attività finanziarie possono svolgere la funzione di moneta (dal circolante ai depositi bancari di vario tipo fino ad attività che, pur non essendo mezzi di pagamento, posseggono caratteristiche di liquidità tali da essere considerate altamente sostituibili alla moneta vera e propria). Da ciò deriva una
pluralità di aggregati monetari comprendenti serie più o meno ampie di attività finanziarie. La scelta dell'aggregato monetario di riferimento diventa perciò il primo problema da risolvere nella formulazione di una politica monetarista. A questo proposito, i teorici del m. offrono una soluzione pragmatica: dev'essere considerato moneta, ai fini della politica monetaria, quell'aggregato di attività che dimostra (sulla base dell'analisi dei dati storici) di essere più stabilmente correlato con il reddito nominale, vale a dire di possedere una stabile velocità di circolazione. Tuttavia, in periodi come quello qui considerato, caratterizzati da un processo continuo e generalizzato d'innovazione finanziaria (v. innovazione: Innovazione finanziaria, in questa Appendice), come creazione di nuovi strumenti finanziari e innovazioni nel sistema dei pagamenti, il requisito della stabilità della velocità di circolazione è posseduto in maggior misura da aggregati monetari ampi, comprendenti anche attività finanziarie il cui andamento è solo indirettamente influenzabile dalle autorità monetarie. Per tali aggregati, quindi, si riduce il potere di controllo da parte delle autorità, fondamentale per l'attuazione di una politica monetarista. L'esistenza di questo problema ha portato in alcuni casi al mancato rispetto dei tassi di crescita monetari annunciati e in altri all'adozione di obiettivi di crescita contemporaneamente per più aggregati monetari. Questa prassi, oltre a rendere più difficile un giudizio complessivo sulla politica monetaria, è stata criticata dagli stessi monetaristi, secondo i quali la precisione e la chiarezza dell'obiettivo monetario da rispettare sono elementi essenziali per la riuscita della politica.
I due esempi di politica economica che nel dibattito corrente vengono più insistentemente definiti monetaristi si riferiscono alla politica monetaria adottata dagli Stati Uniti nel periodo 1979-82 e alla politica economica del governo inglese dal 1980 al 1983. Nel caso degli Stati Uniti, venne abbandonato (ottobre 1979) il tasso d'interesse come oggetto principale di controllo da parte della banca centrale, sostituito dall'obiettivo del tasso di crescita della moneta, annunciato periodicamente. In Gran Bretagna, dal 1980, agli obiettivi di crescita monetaria, formalmente già adottati dal 1976, fu attribuita importanza centrale nel quadro complessivo della politica economica del governo. In entrambi i casi il fine ultimo delle autorità era la riduzione dell'inflazione, arrivata al 20% in Gran Bretagna all'inizio del 1980 e al 9% negli Stati Uniti nel 1979.
Nel corso degli anni seguenti, la crescita monetaria è stata ridotta rispetto al passato e mantenuta a un livello inferiore al tasso d'inflazione, con conseguente riduzione in termini reali della quantità di moneta in circolazione. L'inflazione ha subito una drastica riduzione, scendendo sotto il 5% in entrambi i paesi nel 1983. Tuttavia, il prezzo pagato in termini di ristagno della produzione e soprattutto di maggiore tasso di disoccupazione è stato elevato: esso infatti è passato dal 6 al 10% negli Stati Uniti dal 1979 al 1982, e dal 5,5 al 12,5% in Gran Bretagna dall'inizio del 1980 all'inizio del 1983. Tale tasso risulta certamente superiore alle aspettative dei teorici monetaristi.
La valutazione di questi ultimi sugli esperimenti ''monetaristi'' appena ricordati è pressoché unanime: i due episodi non si possono considerare validi test dell'efficacia delle politiche monetariste, in quanto i principi essenziali di tali politiche non sono stati rispettati. In particolare, i tassi di crescita degli aggregati monetari, lungi dall'essere mantenuti costanti, hanno mostrato un'elevatissima variabilità, riflessasi anche nella variabilità dei tassi d'interesse. Un'adesione più stretta ai principi monetaristi, comportando una maggiore stabilità degli aggregati monetari, avrebbe assicurato una riduzione (anche se più lenta e graduale) dell'inflazione con minori costi in termini di produzione e disoccupazione. I critici del monetarismo, invece, hanno visto negli stessi episodi una conferma sia delle difficoltà tecniche di attuazione di una politica basata su di un troppo rigido controllo della moneta, sia, visto l'effetto sui tassi d'interesse e sulle variabili reali, della sua improponibilità pratica
Gli anni di Reagan videro il trionfo delle politiche economiche neo-liberali improntate al taglio delle spese pubbliche sociali e all'incremento delle spese militari - pensiamo alle guerre stellari di reaganiana memoria - e l'acutizzarsi dello scontro tra capitalismo e comunismo. In URSS erano gli anni della glaciazione breznevina. Morto Breznev, il potere passò, dopo un breve interregno di Andropov e di Cernienko,  a Michail Corbaciov il quale lanciò un programma di rinnovamento basato sui concetti di perestroika e di glasnost.
Reagan, Ronald Wilson Politico statunitense (Tampico, Illinois, 1911-Bel-Air, California, 2004). Laureatosi in economia e sociologia in una piccola univ. dell’Illinois, nel 1937 iniziò una lunga carriera di attore cinematografico, che lo vide interpretare numerosi film (soprattutto western) e dirigere per qualche tempo il sindacato degli attori cinematografici. Negli anni Cinquanta passò dalle originarie posizioni democratiche alla destra repubblicana e nel 1964 partecipò alla campagna presidenziale di B. Goldwater. Governatore della California dal 1966 al 1974, venne battuto di misura da G. Ford nella nomination repubblicana del 1976 e nelle successive elezioni del nov. 1980 riportò una larga vittoria sul presidente uscente J. Carter. Entrato in carica nel genn. 1981, adottò una politica di dura contrapposizione all’URSS, di drastico aumento delle spese militari, di riaffermazione del primato internazionale degli Stati Uniti, che suscitò vasti consensi all’interno del Paese. La sua politica economica (riduzione delle tasse, delle spese sociali e dei controlli pubblici sull’economia; rivalutazione del dollaro, crescita del deficit di bilancio e dei tassi d’interesse) favorì il calo dell’inflazione, ma produsse anche un forte aumento del disavanzo commerciale con l’estero. Rieletto con ampia maggioranza nel nov. 1984, in politica estera R. accentuò l’interventismo degli USA, suscitando tensioni anche fra gli alleati europei (come avvenne in occasione dei bombardamenti su Tripoli e Bengasi dell’apr. 1986), mentre un progressivo miglioramento delle relazioni con l’URSS caratterizzò il biennio finale della sua presidenza. Ronald Wilson Reagan
Il crollo dell'URSS pose fine alla Guerra Fredda, favorì l'espansione del capitalismo in tutto il mondo e avviò una serie di processi di democratizzazionenei paesi dell'ex blocco sovietico. Ciò, creò una situazione affatto nuova sia dal punto di vista economico che politico che mise in difficoltà i pesi capitalistici avanzati.
Durante la crisi degli anni 30 del secolo scorso, von Haeek fece una famosa visita a Cambridge, UK dove spiegò ai suoi colleghi britannici, fra i quali Keynes, Sraffa, Khan, Robinson, la sua teoria in base alla quale, per usare le parole di Khan, se compero un cappotto nuovo creo disoccupazione.
In realtà,il lungo boom del secondo dopo-guerra venne favorito dalla continua crescita dei consumi, indotta da un continuo aumento dei salari causato da un continuo aumento della produttività; ovvero, dalla felice combinazione della legge di Engel e dell'effetto Duesenberry. Ciò stimolò a sua volta la crescita delle spese pubbliche sociali che portarono alla creazione di un effettivo stato del benessere. La crisi del 1973 fece saltare il coperchio che per lunghi anni aveva tenuto sotto pressione la pentola bollente del debito pubblico. Nacque così quella crisi fiscale dello stato di cui stiamo pagando ancora il conto.
Ciò ha creato una situazione di stallo teorico, dal momento che per sconfiggere l'attuale disoccupazione di massa occorrerebbero dei massicci interventi pubblici che, però, sono resi impossibili dal desolante stato dei conti pubblici che imporrebbe, per contro, dei drastici tagli di spesa per ricondurre il rapporto debito/PIL entro limiti accettabili.