Lavoce.info

Tag: Monografie Pagina 2 di 4

Tav, o non Tav: questo è il dilemma

Su staging.lavoce.info, il dibattito sulla linea ferroviaria ad alta velocità tra Torino e Lione è iniziato ben prima che la questione diventasse “nazionale”. E’ un’opera “strategica”? I contrari ritengono che i costi sarebbero ben più alti dei benefici. E che altre infrastrutture sono ben più urgenti. D’altra parte, il progetto potrebbe essere rimodulato in funzione della sola domanda merci, riducendo così i rischi di una domanda insufficiente. Anche perché non è affatto certo che riesca a liberare le valli piemontesi dai Tir. Ma c’è anche chi sostiene che con la Tav si avrebbe un miglioramento delle condizioni ambientali, mentre rinunciarvi comporta una perdita di competitività e di quote del commercio mondiale.

L’Europa nel Patto

Un nostro sondaggio ha confermato che i giovani italiani continuano a essere filo-europei e voterebbero a favore del Trattato costituzionale. Perché hanno poca fiducia nel nostro sistema politico e nelle nostre istituzioni e l’Europa piace perché ci protegge dai nostri stessi errori. Eppure, il nuovo Patto resta troppo indulgente verso alcuni paesi. Affidare il giudizio sul rispetto delle regole all’Ecofin è svantaggioso per noi. Perché senza la garanzia che i deficit eccessivi siano osservati da vicino da un’istituzione indipendente, le agenzie di rating alzeranno lo spread sui titoli italiani. Se poi si vuole rilanciare la crescita economica, va attuato il processo di riforme strutturali di Lisbona.

Non solo devolution

Oggi alla Camera si vota per la riforma costituzionale del Polo. E’ il secondo passaggio. Dopo resta solo l’approvazione definitiva da parte del Senato. Ma non è chiaro se la riforma sarà mai applicata.

Antitrust e concorrenza

Riproponiamo ai lettori una serie di interventi che staging.lavoce.info ha offerto in tema di concorrenza e antitrust.

Pensioni e TFR

In vista del tavolo con le parti sociali, riproponiamo ai lettori una serie di interventi che staging.lavoce.info ha dedicato al decreto del Governo in tema di trasferimento del Tfr ai fondi pensione.

Bisogna brevettare il software?

In Italia e in Europa le l’idea di incoraggiare la ricerca e l’innovazione è ormai diventata un luogo comune del dibattito politico. MA non c’è identità di vedute su come fare. Proprio in questi giorni (luglio 2005), ad esempio, in Europa si discute di politiche per la brevettabilità del software e, più in generale, della tutela dei diritti di proprietà intellettuale.
Gli articoli in questa monografia trattano di questi temi offrendo punti di vista anche differenziati sulle politiche da adottare e – comunque – tanti spunti per riflettere.

 

Il software è un’opera dell’ingegno, tutelata dal diritto d’autore. Non serve permetterne la brevettazione, come si chiede ora anche in Europa sull’esempio americano. Intanto, il brevetto è uno strumento sempre meno utile a incentivare l’innovazione. Nel caso del sofware non accelera il processo di diffusione delle conoscenze né ci sono da ripagare ingenti investimenti iniziali. Infatti, vi si affidano soprattutto le imprese più grandi e meno innovative, spesso con l’intento di bloccare le invenzioni altrui, più che di proteggere le proprie.

Perché il software non ha bisogno del brevetto

 

Raimondello Orsini e Massimo Portolani


Il software è un’opera dell’ingegno, tutelata dal diritto d’autore (copyright). Viene inoltre commercializzato con un nome o marchio depositato: oggi quindi un’impresa che sviluppa software è già protetta dal diritto d’autore e dalla legge sui marchi industriali. Negli Usa, a partire dalla fine degli anni Ottanta, si è ritenuto di permettere anche la brevettazione del software: proteggere quindi non più solo il programma (la forma nella quale è scritto), ma anche la funzione che assolve. L’Europa si sta interrogando sull’opportunità di seguire gli Usa su questa strada. Tra i motivi che inducono a rispondere negativamente si intrecciano sia ragioni generali che rendono il brevetto in sé uno strumento sempre meno utile a incentivare l’innovazione, sia ragioni specifiche che rendono il software inadatto al brevetto.

Le ragioni del brevetto

La concessione del brevetto è finalizzata a incentivare l’innovazione, che viene remunerata dai profitti monopolistici, e ad accelerare il processo di diffusione delle conoscenze, tramite il disvelamento, o “rivelazione dell’insegnamento inventivo” contestuale al deposito del brevetto.
Entrambe queste motivazioni sociali sembrano mancare nel caso del software. L’equazione “maggiore protezione uguale maggiore incentivo a innovare” solitamente non vale se le innovazioni hanno natura sequenziale (ovvero si appoggiano su innovazioni precedenti, avendo carattere complementare o incrementale): ampliare la protezione può avere un effetto deterrente superiore all’effetto incentivante (si incentiva il primo innovatore, ma si disincentivano i potenziali innovatori successivi). Riguardo al disvelamento, la brevettazione del software così come intesa negli Usa permette all’innovatore di depositare il software senza svelarne il codice sorgente. È quindi scarso il beneficio che la società riceve come corrispettivo alla concessione del monopolio. Il brevetto ricompensa chi ha ottenuto l’innovazione impiegando ingenti risorse in un progetto complesso e rischioso, investimenti che necessitano di anni di protezione monopolistica per essere recuperati (per esempio, nel settore farmaceutico). Lo sviluppo di soluzioni software non ha questi requisiti. Risolvere un problema con un algoritmo richiede delle valutazioni astratte e capacità creativa, non investimenti. Anche per questo è stato finora escluso dalla brevettabilità, come gli algoritmi matematici. Inoltre, la complessità dell’oggetto software è tale da non consentire un facile giudizio sia in sede di deposito del brevetto, sia in caso di contenzioso: difficilissimo accertare i requisiti di novità e non ovvietà, necessari perché il brevetto sia valido. Negli Usa, visto che l’Uspto si finanzia con le tasse di deposito, il brevetto viene concesso praticamente sempre, e la sua validità viene valutata in tribunale, dove il detentore si ritiene autorizzato a trascinare coloro che considera illegali imitatori. L’esplosione della litigiosità brevettuale – che non riguarda solo il software – costituisce un problema economico rilevante: le risorse spese nel deposito di brevetti inutili e nelle cause legali da questi generate sono spese di rent-seeking che non creano alcun valore per la società. Uno spreco di risorse di cui beneficiano solo gli studi tecnico-legali. (1)

A chi è utile

La natura burocratica e costosa dell’attività di brevettazione fa sì che a essa si affidino soprattutto le imprese più grandi e – paradossalmente – meno innovative, spesso con l’intento non di proteggere le proprie invenzioni, ma di bloccare quelle altrui. La possibilità di essere trascinati in costose cause legali è in grado di scoraggiare sia le numerose piccole imprese che operano in ambito proprietario, sia la miriade di operatori che collaborano al circolo virtuoso dei progetti Open Source. L’incertezza, i lunghi tempi dei processi e l’impegno finanziario sono un’arma nelle mani delle grandi imprese detentrici di brevetti (validi o no), per indurre altre imprese ad accettare accordi extragiudiziali che possono anche implicare restrizioni della concorrenza. La legislazione sul diritto di proprietà intellettuale deve essere chiara e ridurre le incertezze. La concessione di brevetti dalla validità opinabile non va evidentemente in questa direzione.
In Europa ci sono poche grandi case di software che non siano distributrici o sussidiarie di grandi imprese americane. Queste non aspettano altro che l’estensione dei propri brevetti ai paesi europei. A desiderare un esito simile, possono essere solo la potente lobby degli avvocati o i funzionari dell’European Patent Office (Epo), i quali hanno pensato bene di organizzare, il 30 marzo 2005, un Information Day presso il Parlamento europeo.
http://events.european-patent-office.org/2005/0330/ Tra le motivazioni della “urgenza” della brevettabilità del software ve ne è una davvero singolare: il Parlamento europeo deve legiferare in proposito, perché ormai l’Epo ha già concesso più di 30mila brevetti in ambito software (in palese violazione della normativa vigente: “la prassi ha ormai scavalcato i vincoli normativi”). Resta da vedere se il Parlamento è ancora sovrano, o deve limitarsi a recepire le pressioni dei lobbisti avvallandone i comportamenti mediante modifiche legislative che ne sanino gli abusi.

Per saperne di più

Sul ruolo controproducente dei brevetti, si veda J. Bessen- E. Maskin (2000), “Sequential innovation, patents, and imitation”, Working Paper del Mit: http://www.researchoninnovation.org/patent.pdf .

(1) Per rendersi conto direttamente dell’esplosione del numero dei brevetti depositati negli Usa senza avere i requisiti di novità e non ovvietà, si può consultare il sito ufficiale Uspto: http://patft.uspto.gov/netahtml/search-adv.htm facendo una ricerca con parole chiave come “computer” o “internet”.

L’Europa potrebbe risolvere la diatriba tra fautori e critici della brevettabilità del software istituzionalizzando la Generalized Public License. E’ il contratto principe dell’open source e impone a chi migliora un programma open di mettere a disposizione il codice sorgente dei nuovi apporti. E’ anche facilmente applicabile ad altri contesti. Questa soluzione stimolerebbe la concorrenza tra i due sistemi: chi inventa potrebbe scegliere tra brevettare o mettere le proprie innovazioni in campo aperto.

Licenza d’innovare

 

Alfonso Gambardella

Il 7 marzo, il Consiglio sulla competitività della Commissione europea ha rimandato al Parlamento il testo della “direttiva sulla brevettabilità del software“. È l’atto più recente di una diatriba che va avanti dal 2002, da quando Commissione e Parlamento si rimpallano il documento a suon di emendamenti in cui la prima amplia ciò che può essere brevettato come software e il secondo lo restringe.

Chi brevetta. E chi no

Per entrare nel merito della disputa, possiamo valutare l’esperienza degli Stati Uniti, che hanno avviato la brevettazione “forte” sin dai primi anni Ottanta.
I problemi sono la crescita dei brevetti mirati non tanto a proteggere le proprie invenzioni quanto a bloccare quelle degli altri e il grande aumento delle citazioni in giudizio su questioni brevettuali. D’altra parte, brevetti più forti non sembrano aver scoraggiato le piccole-medie imprese high-tech. Sam Kortum e Joshua Lerner mostrano che nella seconda metà degli anni Ottanta, la quota di imprese che non avevano brevettato nel quinquennio precedente è aumentata rispetto alla seconda metà degli anni Settanta. Brownyn Hall e Rosemarie Ziedonis documentano entrambi gli effetti nei semiconduttori. E mostrano che l’effetto dell’aumento della litigiosità brevettuale e dei “blocking patent” è più marcato degli stimoli alle piccole-medie imprese innovative. Jim Bessen e Robert Hunt ottengono risultati analoghi proprio nel software. Anzitutto, i brevetti delle grandi imprese manifatturiere sono aumentati molto di più di quelli delle imprese di software: secondo i loro dati, le prime impiegano l’11 per cento dei programmatori e analisti di software e detengono il 75 per cento dei brevetti, mentre le seconde impiegano il 33 per cento dei programmatori e analisti e posseggono il 13 per cento dei brevetti software. Una differenza così marcata nella produttività brevettuale non può essere spiegata da differenze di efficienza, ma solo da differenze nella propensione a brevettare. Inoltre, Bessen e Hunt mostrano che, a parità di altre condizioni, le imprese con una maggiore propensione a brevettare hanno una intensità più bassa di ricerca & sviluppo (R&S). Un brevetto più forte, che protegge meglio chi brevetta nella difesa delle proprie innovazioni, rende la R&S più remunerativa, e dunque dovrebbe aumentarla e non diminuirla. Il sospetto è perciò che i brevetti non servano a proteggere le proprie innovazioni, ma a qualcos’altro, e probabilmente ad avere più potere contrattuale rispetto ai concorrenti e a bloccarne le innovazioni.

Il modello open source

Insomma, gli Stati Uniti sembrano essersi spinti un po’ troppo in là. E, in effetti, due rapporti della Federal Trade Commission e della National Academy of Science suggeriscono strade per riequilibrare il sistema. Ora, la posizione della Commissione è più articolata di quanto gli oppositori della direttiva sostengono. La direttiva metterebbe solo ordine in una materia in cui non c’è disciplina in Europa e, comunque, l’Ufficio brevetti europeo sta brevettando software da tempo senza guida da parte del legislatore. Inoltre, come ribadito l’8 marzo di fronte al Parlamento dal commissario alla Direzione mercato interno e servizi, Charlie McCreevy, la direttiva non consente di brevettare nulla che non sia già brevettabile oggi, ed è fatta in modo da consentire di brevettare soltanto contributi tecnologici importanti.
L’esperienza Usa ha mostrato però che la corsa alla brevettazione e l’aumento delle citazioni in giudizio sono stati un fenomeno troppo grande e socialmente costoso per sentirsi rassicurati dalle parole di un Consiglio comunitario, per quanto autorevole. Al tempo stesso, l’open source è un modello nuovo e interessante di produzione del software, sta realizzando progetti e innovazioni utili per la società e andrebbe incoraggiato.
Perché non pensare anche a una direttiva che istituzionalizzi la Generalized Public License (Gpl)? La Gpl è il contratto principe dell’open source che impone a chi contribuisce a un programma open, del quale viene cioè messo a disposizione pubblicamente il codice sorgente, di mettere a disposizione il codice sorgente dei relativi miglioramenti. Il modello potrebbe essere adottato in contesti diversi e difatti si sta diffondendo in altri sistemi tecnologici, come le biotecnologie. La direttiva potrebbe definire il meccanismo e in particolare l’estensione del vincolo di pubblicità dei miglioramenti a valle, standardizzare le caratteristiche dei contratti Gpl, articolarne la tipologia e assicurarne il rispetto. Al di fuori del software, la Gpl potrebbe imporre pubblicità e licenze non esclusive sui migliormenti di un’innovazione.
La direttiva stimolerebbe poi la concorrenza tra i due sistemi. Chi inventa può brevettare o mettere le proprie innovazioni in campo aperto. Il meccanismo va studiato e precisato, ma sarebbe una bella innovazione istituzionale europea, una volta tanto in anticipo e non a rimorchio degli Stati Uniti.

Per saperne di più

Bessen, J. e R. Hunt (2004) “An Empirical Look at Software Patents”, Working Paper 03-17, Federal Reserve Bank of Philadelphia.
Gambardella, A. e B.H. Hall (2005) “Proprietary vs Public Domain Licensing in Software and Research Products”, NBER Working Paper 11120,
www.nber.org.
Hall, B.H. e R. Ziedonis (2001) “The Patent Paradox Revisited: Determinants of Patenting in the US Semiconductor Industry, 1980-1994”, Rand Journal of Economics 32 (1), 101-128.
Kortum, S. e J. Lerner (1999) “What is Behind the Recent Surge in Patenting”, Research Policy 28, 1-22.

Link ai rapporti Ftc e Nas:
http://www.ftc.gov/opp/intellect/
http://www7.nationalacademies.org/ocga/briefings/Patent_system_21st_Century.asp

 

Si può trasferire l’esperienza dell’open source in campo informatico ad altri aspetti del progresso tecnologico? A dispetto del problema del free-riding, la ricerca sullo sviluppo di un input comune a più processi produttivi può risultare addirittura maggiore in un contesto di General Public Licence rispetto a un regime di monopolio protetto da brevetto. Accade quando si ha un effetto di accrescimento del profitto totale dell’industria dovuto a un miglioramento tecnologico dell’input comune. Ciò suggerisce una nuova politica della brevettabilità.

 

Oltre Linux

 

Philippe Aghion e Salvatore Modica


Il dibattito sull’open source, o più propriamente sulla General Public Licence, è generalmente centrato sul software, dove in termini di miglioramento del prodotto la Gpl ha dato risultati estremamente positivi, in particolare con Linux.
Lavoce.info ha già discusso gli aspetti fondamentali del problema negli articoli di Gambardella e Santarelli-Bono. (LINK) Vorremmo aggiungere qualche commento su un’altra questione: cosa possiamo astrarre dall’esperienza di Linux pensando al progresso tecnologico in generale, non necessariamente “digitale”?

I due problemi dell’open source

Conviene tener distinte le due fasi principali del ciclo di vita di un nuovo prodotto: (i) la nascita, con l’invenzione primaria (per il software si pensi alla versione 0.01 di Linux, che Linus Torvalds mise in giro a beneficio di un centinaio di hackers, o al sistema Dos di Microsoft) e (ii) il successivo sviluppo, generato dai miglioramenti apportati da ricerca incrementale (ad opera della collettività degli sviluppatori o del monopolista proprietario del brevetto). Della General Public Licence si dice che permette a ognuno di “dare un mattone per avere in cambio una casa intera”. (1)
Ma lo slogan non racconta proprio tutto: primo, qualcuno deve aver gettato le fondamenta. (2) Secondo, vero è che in fase di sviluppo uno può dare un mattone e avere una casa intera in cambio, ma è altrettanto vero che la casa è sua anche se il mattone non ce lo mette: quindi, perché sprecarlo? In altre parole, l’adozione della Gpl presenta due problemi. Il primo, classico, è che l’assenza di brevettabilità riduce l’incentivo a inventare – in fase (i). L’altro, che a invenzione avvenuta, miglioramenti incrementali di qualità possono essere frustrati dal free-riding – in fase (ii).
Il primo problema, discusso già da Schumpeter e poi da Nordhaus in un famoso libro del 1969, è ancora più chiaro alla luce della teoria della crescita contemporanea che individua nel processo innovativo il motore principale dello sviluppo economico. (3) La prospettiva di profitti monopolistici garantita dalla brevettabilità rende profittevole l’attività di ricerca in quanto consente di recuperare costi iniziali che vendendo al costo marginale andrebbero inevitabilmente perduti. Fortunatamente, i processi innovativi non si arrestano del tutto in assenza di brevettabilità, e Linux ne è esempio eloquente. D’altra parte, è difficile contestare il fatto che tipicamente la brevettabilità costituisce un importante incentivo alla ricerca. (4)

Se l’input è comune a più processi produttivi

Il problema di free-riding creato dalla Gpl sugli sviluppi della nuova invenzione, con conseguente livello subottimale dell’investimento, è tipico dei beni pubblici (il risultato della ricerca diventa un bene pubblico con la General Public Licence). Tuttavia, il volume di ricerca su Linux ha di gran lunga superato quello messo in atto da Microsoft su Windows, e da un paio d’anni allo sviluppo di Linux concorre un pool di grosse imprese di telecomunicazioni e di produttori di hardware (in concorrenza fra loro) che finanziano l’Open Source Development Labs, dove non a caso lavora Torvalds a tempo pieno. Cosa sta succedendo? La nostra opinione è che stia accadendo qualcosa che non ha tanto a che fare con la natura digitale di Linux, quanto con la sua funzione di input comune a molteplici processi produttivi (5).
Per ricorrere a un esempio non digitale e non high-tech, si pensi agli impianti frenanti che entrano nella produzione delle automobili, dei camion, degli aeroplani. La nostra idea, confermata nel contesto di un modello biperiodale, è che a dispetto del problema di free-riding, la ricerca sullo sviluppo di un input comune a più processi in un contesto di General Public Licence può risultare addirittura maggiore che in regime di monopolio protetto da brevetto. Accade quando a fronte dell’effetto negativo di bene pubblico, è presente un abbastanza forte effetto di accrescimento del profitto totale dell’industria dovuto alla qualità dell’input comune e alla conseguente crescente produttività dei processi produttivi delle singole imprese. In altre parole, l’impresa investe nell’input/bene comune nonostante così facendo avvantaggi non solo se stessa ma anche i concorrenti, se al contempo accresce abbastanza la dimensione della “torta” da dividere con loro. Questa dei beni intermedi largamente usati sembra dunque la categoria di prodotti su cui concentrarsi, al di là del software, per pensare alla possibilità di adozione della Gpl.

Quale politica dei brevetti

Ristretta in tal modo l’attenzione a un campo di applicazione potenzialmente proficuo, emerge comunque un tradeoff per la politica dei brevetti: orientarsi sulla brevettabilità, favorendo innovazioni primarie che andrebbero incontro a uno sviluppo di prodotto relativamente lento. Oppure imporre una Gpl sulle nuove invenzioni (del tipo in questione) garantendo uno sviluppo sostenuto di qualità, accettando però un rallentamento del loro tasso di natalità. Ci sono vie d’uscita? Alla ricerca di un intervento pubblico che riesca ad aggirare il tradeoff appena descritto, sembrerebbe ragionevole esplorare la possibilità di mantenere sì la brevettabilità, ma poi per quei beni in cui c’è più ricerca incrementale con Gpl che sotto regime di monopolio (del tipo da noi individuato), lo Stato acquisti i brevetti, e li rilasci con licenza Gpl.

(1) Sono parole di Ganesh Prasad, un web designer affascinato dalle implicazioni economiche e sociali di Linux, che utilizza dal 1996.
(2) Per Linux è stato Linus Torvalds, un finlandese freddoloso che voleva fare tutto da casa, come ricorda nella sua autobiografia “Rivoluzionario per caso” pubblicata da Garzanti.
(3) Si vedano ad esempio i capitoli disponibili dell’
Handbook edito da Philippe Aghion e Steven Durlauf, di prossima pubblicazione.
(4) Il caso della brevettabilità del software piuttosto che la sua protezione con copyright, che tocca anche delicate questioni di brevettabilità delle idee, potrebbe essere un’eccezione, anche a causa degli intricati problemi legali che verrebbero a crearsi. Vedi il sito della Foundation for a Free Information Infrastructure,
ffii.org, per il dibattito in Europa.
(5) Aghion, P. e Modica S., “Open Source without Free-Riding”, in preparazione.


La Commissione Europea e i ministri europei reponsabili della Competitività hanno varato una controversa direttiva sulla brevettabilità di “computer-implemented inventions”. Lungi da poter essere considerato concluso, il dibattito dovrebbe ora investire l’intero sistema di tutela della proprietà intellettuale. Se si vuole incoraggiare l’attività innovativa e favorire la circolazione dei suoi risultati, le strategie copyleft sembrano le più adatte a promuovere la ricerca di base. E potrebbero innescare meccanismi per il recupero di competitività e di rilancio verso l’economia basata sulla conoscenza, perno della strategia di Lisbona.

L’Europa tra copyright e copyleft

Giovanni Bono e Enrico Santarelli

In passato, i programmi per elaboratori elettronici (“software”) erano soggetti alla disciplina sul diritto d’autore: le idee contenute nel programma non potevano essere brevettate. Sulla scorta dell’idea che il software contiene invenzioni come ogni altra realizzazione tecnologica, gli Stati Uniti (USA) hanno da tempo rotto con questa tradizione ed il software – come gli algoritmi matematici, i “business methods”, etc. – è entrato a pieno titolo fra le materie di brevetto. Nello stesso tempo, il “copyright” sul software è stato messo in crisi da una comunità transnazionale di sviluppatori, detta del “software libero” o “movimento open source”. Questa comunità è cresciuta grazie all’uso di licenze cosiddette “copyleft”, che mettono in comune i risultati invece di negoziarne la circolazione sul mercato. Tale pratica, che ha prodotto esperienze di successo nel settore del software – come GNU, Linux e Apache – e ha contagiato giganti come Netscape, IBM e Sun Microsystem si sta estendendo anche ad altri settori, dalla musica alle biotecnologie.
Commissione europea ed Europarlamento hanno dibattuto a lungo attorno alla possibilità di brevettare software.
La querelle si è aperta con un Green Paper presentato dalla Commissione nel 1997. Il 24 settembre 2003, l’Europarlamento ha approvato un testo fortemente limitativo, la direttiva dell’Unione Europea sulla brevettabilità di “computer-implemented inventions”. A sua volta, la Commissione ha presentato, il 18 maggio 2004, un testo modificato nella direzione opposta. Quest’ultimo, tuttavia, non ha raccolto sufficienti consensi, tanto che il 2 febbraio 2005 l’Europarlamento ha chiesto l’azzeramento dell’intera procedura, invitando la Commissione a soprassedere rispetto alla decisione in tema di brevettabilità del software. Infine, tra il 3 e il 7 marzo 2005, prima la Commissione poi i ministri europei responsabili della Competitività, hanno respinto questo invito e, malgrado l’opposizione più o meno ferma di alcuni paesi membri (la Spagna in testa, ma anche Cipro, Danimarca Lettonia, Paesi Bassi, Polonia, Ungheria) e l’astensione di altri (Austria, Belgio e Italia), manifestato una preferenza per l’orientamento copyright. In attesa di un nuovo pronunciamento dell’Europarlamento, è nostra opinione che la politica comunitaria per l’innovazione dovrebbe invece operare una scelta di campo diversa e decidere di sfruttare a fondo le opportunità di crescita generate dal copyleft.

Fautori e oppositori della brevettabilità

I fautori ritengono la brevettabilità del software un incentivo necessario all’attività innovativa: ne garantirebbe il futuro in Europa proteggendo le invenzioni sia delle piccole che delle grandi imprese. Gli oppositori osservano che, mentre negli altri campi la concessione del brevetto è subordinata alla divulgazione dell’informazione tecnologica su cui esso si basa, nel caso del software tale protezione è accordata anche se il codice sorgente rimane segreto. Di conseguenza, l’estensione del meccanismo brevettuale frenerebbe l’innovazione, mettendo l’industria europea del software saldamente in mano a un cartello di grandi imprese in grado di eliminare i concorrenti più piccoli grazie al pieno controllo che esercitano sui codici sorgente del software più diffuso. In effetti, il dibattito è stato talvolta letto come uno scontro tra gli interessi delle grandi e delle piccole imprese del settore.
La prassi ha tuttavia da tempo scavalcato i vincoli normativi, posti ad esempio dall’articolo 52 della European Patent Convention, e di fatto sono stati concessi numerosissimi brevetti sul software. Il problema, però, è di portata maggiore. Il punto di fondo è infatti se l’Unione europea debba seguire gli Stati Uniti sulla strada di una politica intransigente di tutela della proprietà intellettuale o se vi sia la possibilità di imboccare percorsi diversi. Si tratta, in altre parole, di scegliere con chiarezza il sistema prevalente di accesso alle conoscenze codificate, che rappresentano sia il principale input che il principale output di ogni attività innovativa.

Copyright e copyleft

La regolamentazione privata dell’accesso alle conoscenze codificate prende forme diverse in settori e sistemi giuridici diversi. Questa varietà di forme, pratiche e strategie negoziali può essere ricondotta a due tipologie generali: “copyright” e “copyleft”.
La strategia copyright, che include i brevetti, è tipicamente “chiusa” e comporta un’attribuzione selettiva dei diritti di accesso. La strategia copyleft, adottata dalla comunità degli sviluppatori di software libero, è invece “aperta” e attribuisce i diritti di accesso non selettivamente. Nel primo caso, la conoscenza generata dall’attività innovativa è una collezione di beni privati, accessibili soltanto a seguito di una negoziazione privata. Nel secondo, è un “commons”, cioè una risorsa di proprietà comune la cui riproduzione, circolazione e modifica sono limitate in modo tale da garantire la loro permanenza nel “commons”. Gli esempi di “commons” nella moderna società dell’informazione sono molteplici. Basti pensare, ad esempio, che gli standard tecnologici del world wide web sono in larga parte un “commons” e che l’istituzione che orienta la loro produzione – iniziata al Cern di Ginevra nel 1989 – è una joint venture franco-nippo-statunitense, il World Wide Web Consortium (w3c). E recenti esempi di successo di software copyleft come quelli del sistema operativo Linux e del server http (hyper text transfer protocol) Apache dovrebbero attenuare la diffidenza attorno a questa modalità di accesso alle conoscenze codificate. Tra l’altro, il ciclo di vita del software tende a diventare sempre più breve. Tutelarlo con una strategia copyright rigida e protratta nel tempo non sembra avere molto senso, anche in considerazione del fatto che la profittabilità di un prodotto software è di regola alta subito dopo la sua immissione sul mercato, ma rapidamente decrescente nel periodo successivo (Forrest, 2003).

Imparare dagli Usa?

L’esperienza Usa non sembra d’altra parte un modello da imitare. In un recente libro, due tra i massimi studiosi statunitensi di economia dell’innovazione, Adam Jaffe e Josh Lerner, sostengono che il sistema americano di tutela della proprietà intellettuale tramite i brevetti è andato in crisi proprio a partire dalla prima metà degli anni Ottanta.
Le cause sono l’introduzione di una Corte d’Appello centralizzata (Cafc) che ha unificato e potenziato il trattamento giudiziario dei diritti brevettuali, e la trasformazione dell’ufficio brevettuale (Uspto) in agenzia di servizi i cui costi di mantenimento sono pagati attraverso le fees dei “clienti” (i patent applicants, coloro che presentano domanda di concessione di brevetto), anziché dal governo federale. L’orientamento pregiudizialmente favorevole della Cafc nei confronti dei titolari di brevetto (“patent holders”) e la trasformazione dello Uspto in una struttura di servizio dei “patent applicants”, ha determinato una autentica esplosione dell’attività brevettale, cresciuta tra il 1982 e il 2002 al ritmo medio del 5,7 per cento l’anno, contro l’1 per cento medio annuo del periodo 1930-1982. Accompagnata, però, da una crescita esponenziale nel numero dei contenziosi giudiziari, da una sostanziale perdita di rigore nelle procedure di valutazione delle domande e di attribuzione dei brevetti da parte dello Uspto, nonché da un aumento dei costi di transazione per l’acquisto e la cessione di licenze sui brevetti. Oltre tutto, la proliferazione di brevetti di scarsa o nessuna rilevanza tecnologica e i costi sempre più elevati di difesa dei brevetti in sede giudiziale, non hanno portato all’incremento sperato nella realizzazione di innovazioni di prodotto.

Cosa fare in Europa

Naturalmente, occorre valutare con estrema cautela se una politica tradizionale – di impostazione copyright – sia preferibile all’esplorazione di politiche nuove – di ispirazione copyleft. Oltre a suggerire un ripensamento della normativa sulla brevettabilità del software, il dibattito europeo dovrebbe investire l’intero sistema di tutela della proprietà intellettuale. Gli strumenti per la “tutela della proprietà intellettuale” e quelli per la formazione di “commons” di conoscenza servono lo stesso duplice scopo: incentivare l’attività innovativa e favorire la circolazione dei suoi risultati. L’esperienza delle economie industriali induce a considerare i primi come i più adatti a promuovere gli investimenti privati in ricerca & sviluppo, perché consentono una esplorazione sistematica e ordinata delle prospettive aperte da una invenzione primaria. I secondi sembrano invece i più adatti a favorire la ricerca di base, svolta o finanziata da fondazioni ed enti pubblici, le università in testa.
Se l’Europa riuscisse a coniugare il regime di tutela e riconoscimento dell’innovazione nel suo complesso con politiche ispirate a esperienze copyleft, potrebbe gettare le basi per lo sviluppo di un meccanismo incentivante originale e capace di indurre individui e imprese a scegliere strategie di innovazione aperte. Sarebbe uno strumento di recupero di competitività e di rilancio nel cammino verso un’economia basata sulla conoscenza, l’obiettivo prioritario individuato dal Consiglio europeo di Lisbona nel marzo 2000.

Per saperne di più

Sulle recenti tendenze negli Usa e in Europa abbiamo citato:
Jaffe, Adam J e Josh Lerner (2004), Innovation and Its Discontents, Princeton e Oxford, Princeton University Press.
Forrest, Heather (2003), “Europe: Open Market … Open Source?”, Duke Law & Technology Review, http://www.law.duke.edu/journals/dltr/articles/2003dltr0028.html

Per quanto riguarda il “copyleft”, rinviamo alle pagine web delle più importanti istituzioni di governo di “knowledge commons”, la Free Software Foundation (http://www.fsf.org/), la Open Source Initiative (http://www.opensource.org/) e il Creative Commons (http://creativecommons.org/).

Un’introduzione tecnica ma accessibile al problema della circolazione delle conoscenze codificate è contenuta in:
Quah, Danny (2004), “Digital Goods and the New Economy”, Centre for Economic Policy Research, Discussion Paper Series No. 3846,
www.cepr.org/pubs/dps/DP3846.asp

Un’utile risorsa bibliografica per il lettore economista si può trovare al seguente indirizzo:
http://www.dklevine.com/general/intellectual/intellectual.htm

 


La pubblica amministrazione ha difficoltà a utilizzare le tecnologie con efficienza e efficacia. Lo dimostra la limitata diffusione di software open source. Per non aggravare i ritardi già accumulati servono scelte precise e un sistema di incentivi e disincentivi per realizzarle. E si potrebbe così rivitalizzare l’industria italiana del software.

Perchè la PA diffida di Apache

Lucio Picci


Il 63 per cento nel mondo, ma solo il 38 per cento nell
amministrazione pubblica italiana: questo il confronto della diffusione di un importante software open source (Os), il server web Apache, il programma che permette di far funzionare i siti web (compreso quello de staging.lavoce.info). (1) Sono necessarie politiche precise per colmare questa distanza, che è un sintomo della difficoltà dellamministrazione italiana a utilizzare le tecnologie con efficacia ed efficienza. Da un punto di vista pratico, e con qualche approssimazione, la differenza tra software proprietario e Os consiste nel fatto che nel primo caso, di solito dopo il pagamento di una licenza duso, lutente può eseguire il programma, ma non vede come è stato scritto e non può modificarlo, mentre il software open source può essere modificato e ulteriormente distribuito, ed è gratuito.

Non sempre vince il migliore

La scelta tra software proprietario (come quello prodotto da Microsoft) e Os non è ovvia. È importante considerare la presenza di effetti di rete, che si hanno quando il beneficio del possesso di un prodotto dipende positivamente dal numero di consumatori che già ne dispongono. Come telefono o fax, anche il software è tanto più utile quanto più è diffuso. Per questo è difficile contrastare un prodotto che gode di un mercato ampio anche quando si dispone di una tecnologia più vanzata: nelle industrie in cui vi sono effetti di rete, non sempre vince il migliore. Ed è questo il vantaggio di cui godono i prodotti Microsoft nel mercato del software per la produttività di ufficio (videoscrittura e fogli di calcolo, per esempio): abbandonarli significa anche rinunciare allestrema comodità con cui si scambiano per e-mail documenti in un formato che è divenuto uno standard de facto, oltre che alla consulenza gratuita dei vicini di scrivania.
Nel mercato
lato server, come nel caso del server web Apache, la situazione è diversa. Per esempio, Apache è dominante, gratuito, eccellente, ben documentato e utilizza un sistema operativo, Unix, disponibile (anche) a titolo gratuito, secondo molti migliore del concorrente Microsoft. Al di là di una generale avversione per il software che non proviene da un produttore importante, con la relativa deresponsabilizzazione dei tecnici che comporta una tale attitudine, vi sono dunque poche ragioni per non adottarlo: la ridotta diffusione di Apache nellamministrazione pubblica indica una scarsa propensione ad avvalersi di soluzioni tecnologiche efficaci ed efficienti.

Dalla commissione le consuete raccomandazioni

Il Governo dovrebbe riflettere. Il ministro dellInnovazione, Lucio Stanca, istituì lo scorso novembre una commissione sul software Os che ha da poco terminato i suoi lavori. Senza prendere posizione precisa, e cercando di accontentare un po’ tutti, la commissione propone lusuale armamentario: qualche misura concreta, qualche risorsa, ma soprattutto raccomandazioni assortite, il più delle volte senza occuparsi degli incentivi e disincentivi perchè queste non rimangano sulla carta. Invece, trascura completamente il fatto che la scelta di una tecnologia di rete non è analizzabile al livello del singolo utente, ma deve tenere conto degli effetti che abbiamo indicato e del conseguente problema del coordinamento delle scelte individuali. Esiste unampia letteratura scientifica su questo tema, e Stanca avrebbe fatto bene a non affidarsi soltanto, o prevalentemente, a (ingegneri) informatici, le cui competenze sono altre.

È tempo di decisioni

Nei fatti se non nelle intenzioni, le commissioni dagli esiti ecumenici, molto spesso servono per non decidere, o per decidere di non fare nulla. Per il software Os, con i ritardi già accumulati e dopo decenni di decadenza dellindustria italiana del software, sono invece necessarie iniziative, magari di portata ridotta, ma concrete.
Un obiettivo ragionevole consiste nel promuovere il software Os
lato server, dove gli effetti di rete non sono avversi. Servirebbe un misto di prescrizioni e di incentivi verso quei tecnici e quelle amministrazioni che si comportano virtuosamente, e un servizio di consulenza e di formazione, allinterno di strutture già presenti, che permetta ai tecnici di adeguarsi e renda ingiustificabili le eventuali resistenze. Si otterrebbero risparmi, si incoraggerebbe lutilizzo di tecnologie avanzate, si creerebbe un primo presupposto per un maggiore controllo delle tecnologie e si valorizzerebbero le competenze tecniche migliori dentro lamministrazione. Esistono però obiettivi più ambiziosi, che il Governo farebbe bene a considerare con attenzione maggiore di quanto non abbia fatto sino ad ora, e senza timore reverenziale verso Microsoft. Lamministrazione pubblica spende per il software circa 700 milioni di euro allanno. C’è spazio per una politica che promuova linsieme della produzione Os, tanto più che uno spostamento della domanda dellamministrazione pubblica sarebbe di grande beneficio per lindustria italiana del software, in un certo senso la reinventerebbe. Ma sarebbero necessari interventi veramente incisivi e una notevole capacità di gestire una strategia coraggiosa e innovativa.
Il primo, più
modesto, obiettivo, può essere considerato intermedio rispetto al secondo: lanalisi dei primi risultati ottenuti potrebbe servire per decidere se allungare il passo.
In ogni caso, però
, il Governo dovrebbe dichiarare che cosa vuole fare e con quali strumenti. Tenendo presente che le scelte, o le non scelte, del passato, hanno già danneggiato la diffusione del software Os nell’amministrazione pubblica.

(1) I dati derivano da una rilevazione realizzata presso il corso di laurea in Economia di Internet dellUniversità di Bologna, e si riferiscono a un campione di siti dei soli comuni, province e regioni. Oltre alla diffusione del server web Apache, essi mostrano la diffusione degli analoghi prodotti Microsoft, utilizzati nel 58 per cento dei casi, contro il 27 per cento a livello mondiale (il confronto mondiale è reso possibile dalla rilevazione di Netcraft).

IRAP

Il rischio di bocciatura dell’Irap da parte della Corte di Giustizia Europea, per quanto immotivato dal punto di vista giuridico ed economico, ha riportato alla ribalta il dibattito su come sostituire la terza imposta del nostro ordinamento.
Fra le opzioni che sono discusse negli articoli che seguono, alcune puntano a preservare le caratteristiche dell’Irap (ipotesi dello “spacchettamento”), altre considerano imposte alternative, sui redditi o sui consumi. Fra queste, assumono particolare interesse quelle che garantiscano autonomia impositiva alle regioni, e sono meno sperequate sul territorio. Su un tema così delicato è comunque fondamentale evitare l’improvvisazione.

Pluralismo, chi era costui?

Sommario a cura di Michele Polo

Il 2004 è stato un anno importante per l’informazione e i media nel mercato italiano. A maggio è stata approvata la nuova legge che regolamenta gli assetti del settore delle comunicazioni, la Legge Gasparri, che introduce profondi cambiamenti rispetto al quadro recedente. Ma mantiene un dato di continuità con le precedenti normative, nel fotografare la situazione esistente senza incidere sul quadro allarmante dell’informazione e del pluralismo in Italia. Il mercato televisivo viene sottoposto a vincoli antitrust, calcolati tuttavia su un mercato di riferimento talmente ampio e eterogeneo da consentire non solo il mantenimento, ma la crescita delle attuali posizioni dominanti. Ma il pluralismo in Italia non è solamente un problema di televisioni. Anche la stampa, settore apparentemente più frammentato, si caratterizza come un insieme di piccoli oligopoli locali, all’interno dei quali pochissime testate vantano quote di mercato molto elevate. In questo quadro di concentrazione persistente e non intaccato dalle nuove norme inizia a profilarsi all’orizzonte una revisione della par condicio, che in un contesto come quello italiano appare uno dei pochi vincoli che garantiscano un bilanciamento delle opportunità tra le diverse posizioni politiche.

Una regolamentazione per il pluralismo, di Michele Polo

Le dinamiche di mercato difficilmente possano portare a una offerta diversificata e ampia di posizioni politiche tra operatori dell’informazione o all’interno di ciascuno di essi, come abbiamo illustrato nell’intervento a fianco. Da questo fallimento del mercato nel garantire il pluralismo deriva l’esigenza di appropriate politiche pubbliche.

L’antitrust non basta

È bene sottolineare subito che le politiche antitrust, per quanto utili a mantenere la concorrenza e i mercati aperti ai nuovi entranti, non possono da sole supplire alle esigenze di pluralismo, e ubbidiscono a obiettivi di efficienza economica che non sempre coincidono con quelli di un libero accesso di tutte le opinioni ai mezzi di comunicazione.
Si rende quindi necessario il disegno di appropriate politiche regolatorie per il pluralismo.

Abbiamo argomentato come in molti mercati dei media esiste una tendenza alla concentrazione, dovuta a dinamiche in parte diverse, che ben difficilmente le politiche pubbliche possono evitare. Esiste tuttavia uno spazio su cui intervenire per evitare che la concentrazione risulti anche maggiore di quanto le dinamiche concorrenziali giustifichino, sottoponendo a un attento controllo la creazione di gruppi multimediali su uno stesso o su più mercati.
In primo luogo la concentrazione, in una prospettiva di pluralismo, dovrebbe essere valutata mercato per mercato, con riferimento alla distribuzione degli ascoltatori e dei lettori, in modo da verificare se qualcuno tra i media presenta problemi di insufficiente pluralismo esterno. Siamo quindi ben lontani da quel singolare coacervo di mercati e di fatturati, il sistema integrato di comunicazione, creato dalla Legge Gasparri per annacquare ogni posizione dominante.

L’impostazione che riteniamo meno intrusiva sulle dinamiche di mercato dovrebbe limitare la concentrazione sul singolo mercato dei media (pur sacrificando in questo eventuali sinergie), qualora questa si realizzi attraverso la proprietà di più mezzi (molti canali televisivi, o numerosi giornali o stazioni radio) attivi sul mercato stesso. Se tuttavia con un singolo mezzo, un operatore fosse in grado di raccogliere un ampio pubblico grazie alla bontà dei suoi contenuti, non riteniamo che le politiche pubbliche dovrebbero intervenire con dei vincoli alle quote di mercato.
Al contempo, tali sinergie dovrebbero essere invece consentite tra diversi segmenti dei media, laddove l’operatore multimediale non raggiunga posizioni dominanti in nessuno dei singoli mercati. In una parola, gruppi multimediali risultano desiderabili se attivi su più mercati, ma dovrebbero essere contrastati se dominanti in un singolo mercato

Gli strumenti da utilizzare

Gli strumenti che in questa prospettiva appaiono più utili risultano le limitazioni al numero di licenze in capo a uno stesso operatore, applicabili in quei mercati (televisione e radio) nei quali una autorizzazione è necessaria per l’uso dello spettro elettromagnetico. Utilizzando questo strumento è possibile quindi limitare la crescita di un operatore che disponga di un portafoglio con più licenze per canali televisivi, laddove la sua quota cumulata di audience superi determinate soglie (in Germania è attualmente posta al 30 per cento), costringendolo a cedere licenze nel caso di superamento dei limiti consentiti. Analogamente, vincoli alla partecipazione su più mercati (giornali, televisioni, radio) dovrebbero intervenire laddove l’operatore raggiunga una posizione dominante in qualcuno di essi, imponendo anche in questo caso la cessione di licenze.

Più difficile intervenire in caso di forte dominanza realizzata da gruppi editoriali attivi solo nella carta stampata con numerose testate, per le quali evidentemente non esistono licenze da ottenere. Solamente in caso di fusioni e acquisizione, ma non di creazione ex-novo di testate, ci sarebbe spazio per intervenire. Quando questi interventi volti a garantire il pluralismo esterno risultano poco efficaci, vanno associate misure per il pluralismo interno.
Il pericolo maggiore per il pluralismo interno nei contenuti dei singoli operatori, ritengo derivi dalle motivazioni lobbistiche dei gruppi proprietari, che inducono a privilegiare la rappresentazione di posizioni politiche specifiche. Questa componente risulta enfatizzata quando la proprietà dei gruppi di comunicazione veda coinvolti investitori attivi in altre industrie regolate (public utilities, banche, trasporti, eccetera). Occorre quindi fissare dei limiti alla partecipazione azionaria di queste categorie di soggetti al settore dei media.

Le motivazioni lobbistiche o partigiane espresse dalla proprietà dei media sono tuttavia in parte ineliminabili. Occorre quindi pensare, in particolare nelle fasi (campagne elettorali) nelle quali distorsioni informative eserciterebbero effetti di lungo periodo, a una regolazione diretta degli spazi, del diritto di replica, dell’accesso, secondo criteri di par condicio. Questa regolamentazione è stata sino a oggi applicata all’informazione televisiva. La situazione di forte concentrazione nei mercati locali della carta stampata pone tuttavia l’esigenza di iniziare a discutere di quello che sinora è considerato un tabù, il diritto di accesso sui giornali. Infine, il mantenimento di un canale pubblico televisivo (ben diverso dalla attuale Rai) sottoposto a un controllo diretto da parte di una autorità di vigilanza indipendente dovrebbe offrire un ulteriore, parziale, tassello, a garanzia di una informazione più articolate e pluralista.

Regole, monitoraggi e sanzioni, Antonio Zizzoli

Nel dibattito politico italiano, il tema del pluralismo nei mass media ha un ruolo centrale. L’Osservatorio di Pavia svolge monitoraggi in Italia da più di dieci anni e più di cinquanta sono state le missioni elettorali all’estero. (1)
Forse proprio perché ha il polso delle variegate situazioni, ha maturato la convinzione che su questo aspetto del funzionamento del processo democratico sia necessaria una riflessione attenta e pacata, poco legata alla contingenza e alle pressioni dei vari attori.

La par condicio in Italia e all’estero

È bene sgombrare subito il campo dall’idea che la regolamentazione della comunicazione politica sia una peculiarità italiana.
Un memorandum di intenti di trentadue pagine, che stabiliva minuziosamente tutti i particolari del confronto, ha regolato i tre recenti dibattiti presidenziali Bush–Kerry.
Sempre negli Usa, i tempi di presenza dei canditati sono rigidamente contingentati. Per esempio, durante la campagna per governatore della California, secondo le leggi federali sulla par condicio i film di Arnold Schwarzenegger costituivano spazio televisivo e quindi mandarli in onda non rispettava la parità di accesso. Qualora fossero stati trasmessi film come Terminator o Atto Forza, i rivali di Schwarzenegger avrebbero potuto chiedere e ottenere analoghi spazi televisivi gratis. Libertà certo, ma ben regolamentata.

In Italia, la legge 28/2000, detta della par condicio, “promuove e disciplina, al fine di garantire la parità di trattamento e l’imparzialità rispetto a tutti i soggetti politici, l’accesso ai mezzi di informazione per la comunicazione politica”.
I principi di tale legge sono relativamente chiari e sinteticamente così riassumibili:
– durante le campagne elettorali la comunicazione politica viene compressa in spazi rigidamente regolamentati e vietata in qualsiasi altro genere televisivo, fatta eccezione per le notizie dei telegiornali (le news).
– Sono vietati gli spot e permessi spazi autogestiti (i messaggi autogestiti), anche questi rigidamenti normati
– Gli spazi concessi ai soggetti partecipanti alla competizione sono un mix tra rappresentanza esistente e candidature ex-novo.
– Infine sono date indicazione di massima sull’uso corretto del mezzo televisivo (“I registi ed i conduttori sono altresì tenuti ad un comportamento corretto ed imparziale nella gestione del programma, così da non esercitare, anche in forma surrettizia, influenza sulle libere scelte degli elettori”).

I monitoraggi

La Commissione parlamentare di vigilanza e l’Autorità delle comunicazioni (Agcom), previa consultazione tra loro, e ciascuna nell’ambito della propria competenza, regolano il riparto degli spazi tra i soggetti politici e stilano il regolamento dei messaggi autogestiti. Quest’attività ha il fine di rendere operativi i principi “astratti” sanciti dalla legge 28/2000 e di calarli nel contesto delle diverse campagne elettorali.

Contestualmente vengono svolti due monitoraggi (2) che controllano la conformità di quanto trasmesso con le disposizioni regolamentari. Un monitoraggio è a cura dell’Agcom e disponibile continuativamente sul sito www.agcom.it, l’altro è a cura dell’Osservatorio di Pavia per conto della Rai. In questo modo gli organi di controllo, le emittenti e i cittadini hanno a disposizione gli strumenti per controllare, valutare e sanzionare la correttezza della campagna elettorale per quanto riguarda il pluralismo politico.

Punti di forza e limiti

Nelle recenti campagne elettorali la parte relativa alle disposizioni su “Messaggi autogestiti, ripartizione dei tempi dei soggetti nei programmi dedicati alla campagna elettorale e la loro assenza al di fuori di tali programmi” è stata per lo più rispettata.
Punti critici invece, perché di difficile interpretazione, sono risultati:
– gli spazi dei soggetti politici nei telegiornali
– gli spazi dei soggetti politici dedicati alla cronaca al di fuori dei telegiornali
– il comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.

Il trade off tra libertà di informazione e regole del pluralismo è forse il punto più delicato della normativa sulle campagne elettorali, poiché va a incidere sul diritto-dovere del giornalista di informare e scegliere le notizie. Come distribuire i tempi tra i partiti in modo equo rispettando l’esigenza del pubblico di essere informato su ciò che accade? Gli esponenti del Governo candidati come devono essere conteggiati? Se un ministro inaugura una strada in campagna elettorale, questo tempo è da attribuire alla competizione elettorale o al diritto-dovere del Governo di informare sulla propria attività? Questa distinzione appare più agevole nelle campagne elettorali per le elezioni politiche, durante le quali l’attività governativa si limita all’ordinaria amministrazione. Più difficile è distinguere tra informazione sull’attività governativa e propaganda per i candidati nel caso di elezioni (europee, regionali) che avvengono mentre il Governo in carica è pienamente operativo.

Problematico risulta poi valutare la qualità della comunicazione soprattutto in relazione al comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.
I casi di aperta violazione di questa regola sono rari e quasi sempre riconducibili a pochi conduttori: la delicatezza del tema è evidente perché la partigianeria di un giornalista può essere valutata come comportamento coraggioso e “libero” dalla parte in sintonia con la sua posizione politica. Va tuttavia ricordato che in questi casi, oltre alla prudenza nell’intervenire, occorre che le sanzioni siano tempestive, cosa che non sempre avviene.

L’attuale legge italiana, sicuramente perfettibile, costituisce una buona base per il conseguimento del pluralismo. Lasciare non regolamentato questo campo, come in modo ricorrente viene sostenuto, significa rischiare gravi squilibri soprattutto in situazioni in cui le risorse delle emittenti sono molto concentrate e il controllo indiretto sul trasmesso è quasi inevitabile.


(1) Si veda il sito
www.osservatorio.it

(2) I monitoraggi, che coprono tutto il trasmesso 24 ore su 24 per 365 giorni l’anno, tra l’altro evidenziano:
– la presenza di un soggetto politico e la sua anagrafica (nome, cognome, sesso, partito, carica istituzionale, eccetera)
– la durata dell’intervento in secondi
– l’anagrafica della presenza (giorno, ora, minuto, rete e programma,)
– il tema dell’interevento.

La concentrazione nascosta, di Marco Gambaro

Nel dibattito sul pluralismo, il tema della concentrazione nel mercato dei quotidiani è spesso sostanzialmente sottovalutato. Si dà per scontato, almeno in Italia, che il pluralismo esista perché è alto il numero di testate presenti sul piano nazionale.

La dimensione locale

Una valutazione della concentrazione del mercato dovrebbe tuttavia tenere conto del fatto che i quotidiani competono prevalentemente su scala locale e che negli specifici mercati il grado di concentrazione può essere molto elevato.
Negli Stati Uniti, ad esempio, negli ultimi vent’anni vi è stato un continuo processo di concentrazione che ha portato la quasi totalità delle aree urbane ad avere un’unica testata oppure più testate dello stesso proprietario (in precedenza in circa i due terzi dei mercati operavano più testate ed editori concorrenti). Se si escludono l’unico quotidiano nazionale, Usa Today, e poche grandi città con più quotidiani in concorrenza tra loro (taluni prestigiosi, ma sempre locali), il mercato statunitense è configurato come un insieme di monopoli locali sostanzialmente autonomi dove operano 1.457 testate che vendono circa cinquantacinque milioni di copie giornaliere.

Nel nostro paese la situazione non è così polarizzata e i singoli mercati non sono così separati, ma la dimensione locale della concorrenza è comunque molto importante. In Italia si pubblicano novantuno testate e le prime due, Corriere della Sera e Repubblica, hanno quote di mercato di poco superiori al 10 per cento della diffusione giornaliera, mentre i gruppi cui fanno capo totalizzano assieme poco più del 40 per cento della diffusione complessiva. (1)

Misurare la concentrazione

Questi dati a livello nazionale non rappresentano tuttavia l’indicatore più corretto per una valutazione della concentrazione, poiché anche le maggiori testate hanno una diffusione molto disomogenea sul territorio. La Stampa (2) ad esempio vende nelle sue prime tre province di diffusione (Torino, Cuneo e Alessandria) il 50 per cento delle copie totali e nelle prime dieci province il 75per cento delle copie, mentre in ciascuna delle province restanti vende mediamente lo 0,3 per cento della sua diffusione. Il Corriere della Sera vende nelle sue prime tre province (Milano, Roma e Varese) il 45 per cento delle copie e nelle prime dieci il 60 per cento mentre nel resto d’Italia realizza mediamente lo 0,44 per cento delle sue vendite in ogni provincia. Anche la Repubblica, che pure ha una diffusione più omogenea, vende il 54 per cento nelle prime dieci province.

Per meglio valutare la concentrazione sui mercati rilevanti si è quindi proceduto a identificare, per ciascun quotidiano, l’insieme delle province nelle quali viene realizzata la maggior parte delle vendite, definibile come mercato di riferimento. Due sono le misure utilizzate, in modo da cogliere sia le realtà di giornali con una distribuzione molto concentrata in poche province (in questo caso sono state considerate le aree che cumulativamente rappresentano il 90 per cento delle vendite della testata), sia quelle di quotidiani con una diffusione relativamente più estesa (prendendo in questo caso tutte le province con una diffusione almeno pari allo 0,5 per cento delle vendite totali del quotidiano, senza necessariamente raggiungere in questo caso il 90 per cento delle vendite). (3)
Per ogni testata, sull’insieme di province che costituiscono il suo mercato di riferimento, sono stati calcolati diversi indici di concentrazione. (4) In questo modo è possibile verificare se nella sua area territoriale di diffusione, il quotidiano fronteggia un numero elevato di concorrenti o ha una posizione dominante. I risultati così ottenuti confermano una forte concentrazione nei mercati di riferimento. Delle cinquantaquattro testate di cui sono disponibili i dati Ads (Accertamenti diffusione stampa) delle vendite provinciali, ventiquattro operano in mercati con un indice di Herfindahl-Hirschmann superiore a 0,15 considerato normalmente la soglia di attenzione delle autorità antitrust. Ventisei quotidiani nel loro mercato di riferimento hanno una quota di mercato superiore al 30 per cento e ben quarantadue testate contribuiscono all’indice HH del loro mercato per più del 50 per cento.
Ad esempio, un quotidiano come Il Messaggero ha una quota del mercato nazionale inferiore al 5 per cento, ma nelle province del suo mercato specifico ha una quota del 23 per cento, l’indice di HH del suo mercato è 0,1068 cui contribuisce per circa il 50 per cento. Oppure Il Gazzettino di Venezia ha una quota del 33 per cento del suo mercato specifico che a sua volta ha un indice di HH di 0,1529 cui Il Gazzettino contribuisce per il 73 per cento.

Distinguendo per tipologie di quotidiani e calcolando per ciascuno di essi i valori medi della categoria, quelli nazionali operano in un mercato di riferimento relativamente ampio e poco concentrato, mentre le testate multiregionali, regionali e provinciali, con diffusione e mercati di riferimento via via più ristretti, evidenziano una forte concentrazione dei lettori, come si può notare nella tabella.
Questo dato conferma indirettamente il fatto che nei mercati locali (corrispondenti ai mercati di riferimento per queste testate) quasi sempre un numero molto limitato di quotidiani si contende il pubblico. Dall’analisi emerge quindi come la concentrazione effettiva nei mercati dei quotidiani sia superiore a quanto comunemente si crede per effetto della forte polarizzazione geografica della diffusione, anche per i quotidiani tradizionalmente considerati nazionali.



(1) La Federazione degli editori indica otto testate nazionali che complessivamente hanno venduto nel 2002 il 36 per cento delle copie giornaliere: Avvenire, Corriere della Sera, Foglio, Il Giornale, Il Giorno, La Repubblica, La Stampa, Libero.

(2) Questi dati e le altre elaborazioni di questo articolo derivano da uno studio da me svolto presso l’Università Statale di Milano e si riferiscono a dati 2000; la situazione relativa alla diffusione non è tuttavia sostanzialmente cambiata.

(3) Si tratta di confini piuttosto ampi se si considera che l’Autorità per le comunicazioni norvegese considera come mercato di riferimento di un quotidiano quelle province dove vende oltre il 10 per cento della sua diffusione.

(4) Si è calcolata nel mercato di riferimento la quota di mercato della testata, il rapporto tra quota della prima e della seconda testata (quota di mercato relativa), l’indice di Herfindahl-Hirschmann (somma delle quote di mercato al quadrato), utilizzato solitamente nelle valutazioni antitrust, e il contributo della prima testata al valore complessivo di questo indicatore

Quando il mercato non salva il pluralismo, di Michele Polo

Il pluralismo è un malato grave nel nostro paese. Ma non gode di buona salute in molti altre realtà, nonostante negli ultimi dieci anni i mezzi attraverso cui raggiungere il pubblico si siano moltiplicati, con lo sviluppo della televisione commerciale, il prossimo avvento di quella digitale e il fenomeno di Internet. A fronte di queste maggiori possibilità, i fenomeni di concentrazione sono tutt’oggi molto diffusi, e non rappresentano solamente il retaggio di un passato oramai chiuso, ma appaiono semmai come il risultato delle nuove modalità di concorrenza nei settori della comunicazione.

Concentrazione in televisione

Quando guardiamo al tema del pluralismo nel settore dei media, ci occupiamo prevalentemente di mercati nei quali operano imprese e gruppi di comunicazione privati, dalle cui scelte e dalle cui dinamiche competitive occorre partire per rispondere alla domanda se il mercato sia in grado di sfruttare le nuove opportunità tecnologiche (digitale, Internet) garantendo un accesso bilanciato e non discriminatorio a tutte le opinioni politiche.
In questa prospettiva solitamente si distingue tra pluralismo esterno, che considera se nell’offerta complessiva di un particolare mercato dei media (giornali, o televisione o radio, eccetera) tutte le opinioni politiche trovano spazio, e pluralismo interno, che invece guarda a come le diverse opinioni politiche sono rappresentate nell’offerta di un singolo operatore.

Se osserviamo il mercato dei media in una prospettiva di pluralismo esterno, due fenomeni appaiono frenare il raggiungimento di questo obiettivo. La perdurante concentrazione in segmenti come la televisione commerciale finanziata con pubblicità è sostenuta dalla forte concorrenza per i programmi più richiesti, che determina una forte lievitazione dei costi strettamente correlata ai futuri ricavi dai proventi pubblicitari. In questa corsa al rialzo c’è posto per pochi vincitori, come i dati sulla concentrazione televisiva testimoniano in tutti i paesi europei e parzialmente, dopo vent’anni di erosione da parte delle pay-tv, negli stessi Stati Uniti, dove i principali network raccolgono ancora circa la metà della audience nel prime time.

E nei giornali

Ma la concentrazione non è un fenomeno unicamente televisivo, interessa marcatamente anche la carta stampata.
Se andiamo al di là dei dati nazionali sulle vendite di quotidiani per studiarne la distribuzione geografica, troviamo una forte segmentazione nella quale in ogni mercato locale, quello in cui ciascuno di noi lettori abita,
uno o due giornali raccolgono la maggior parte dei lettori. E questo riguarda non solo, e ovviamente, i giornali locali, ma gli stessi quotidiani di opinione, che, con pochissime eccezioni, vantano un forte radicamento regionale. Fenomeno che non è solo nostrano, come testimonia l’evoluzione dei mercati locali della stampa negli Stati Uniti e la sempre più frequente sopravvivenza di un solo quotidiano locale. Le dimensioni relativamente limitate dei mercati provinciali e regionali spiegano quindi perché solamente pochi quotidiani possano sopravvivere in ciascuna area coprendo i significativi costi di struttura e di personale necessari per una edizione locale.

Il pluralismo interno

In mercati fortemente concentrati, per loro natura impossibilitati a sostenere una offerta di media ampia e diversificata (pluralismo esterno), rimane la strada del pluralismo interno.
Vorremmo fosse affidato in primo luogo agli incentivi di un operatore o gruppo di comunicazione a coprire più segmenti di mercato (opinioni politiche) con la propria offerta, analogamente a come si coprono molte discipline sportive, vari temi di intrattenimento, molti generi di film. L’ostacolo maggiore in questa prospettiva si ritrova nel forte ruolo che i media esercitano come strumento di lobbying, che li trasforma in un mezzo ideale in quel terreno scivoloso di contrattazione politica tanto prezioso soprattutto per i gruppi economici fortemente regolati.
Analoghe distorsioni possono poi nascere dalla stessa identificazione politica dei gruppi di comunicazione, dove a fronte dei fin troppo ovvi esempi nostrani, non possiamo che registrare con preoccupazione un fenomeno, relativamente nuovo per il mercato americano, quale la spregiudicata propaganda di parte di un grande network come Fox.

La conclusione cui giungiamo, guardando alle possibilità che il mercato trasformi le nuove e grandi opportunità tecnologiche di comunicazione in una offerta ampia e diversificata di contenuti e informazioni politiche, è quindi venata di una forte preoccupazione.
Oggi disponiamo di mezzi sempre più ricchi, sempre più persuasivi ma, apparentemente, sempre più concentrati. E il cittadino difficilmente trova i mezzi per formarsi una opinione informata e libera da distorsioni e condizionamenti.
Di fronte a questo nuovo fallimento del mercato, si richiedono quindi adeguate politiche pubbliche per il pluralismo.

La legge Gasparri, una vera best practice, di Ferruccio De Bortoli

Tutti coloro, e io tra questi, che hanno duramente criticato la legge Gasparri sul riordino (a casa Berlusconi) del sistema delle comunicazioni dovrebbero ammettere che alla fine non è poi male. Anzi, che tutto sommato rappresenta un esempio di efficienza legislativa e di inusuale velocità nella sua applicazione pratica. Mai legge, a dispetto dello scontro istituzionale che ne ha preceduto il varo, è entrata in vigore così rapidamente e ha prodotto effetti così vasti e duraturi. E mai la volontà del legislatore è stata così prontamente accolta dal mercato. Una straordinaria sintonia.

Per usare una celebre espressione di Umberto Bossi un “idem sentire” incredibilmente armonico. Come se gli attori del mercato della comunicazione, del sistema televisivo, l’avessero studiata in anticipo quella legge. Con una tale attenzione che potrebbe far sorgere il dubbio, sicuramente infondato, che qualcuno se la sia scritta direttamente. In casa. Malignità degli outsider.

È il mercato, bellezza

Ma non c’è dubbio che la Gasparri rappresenti una best practice. In pochi mesi Mediaset si è mossa sul mercato del digitale terrestre acquistando i diritti criptati per le dirette casalinghe di Juventus, Milan e Inter, che verranno offerte grazie a una carta prepagata a due euro l’una.

“Questo è il mercato, bellezza”, avrebbero esclamato i difensori ministeriali della legge a lungo osteggiata da Carlo Azelio Ciampi. Una risposta a tutti coloro che protestavano per la mossa, sicuramente tempestiva, del gruppo di proprietà del presidente del Consiglio e ormai gestito, con grande abilità va riconosciuto, da suo figlio Pier Silvio.

Peccato che gli stessi che difendono la libertà, di chi è forte e conosce il mercato, di muoversi liberamente siano gli stessi che in altri settori dell’economia invocano l’intervento dello Stato, hanno nostalgia della Cassa del Mezzogiorno e sostengono che il metodo Alitalia, ovvero procrastinare il destino di una compagnia sprecando ancora denaro pubblico, sia un esempio virtuoso nel rapporto fra politica ed economia. Peccato.

E peccato ancora che quella carta prepagata per il digitale terrestre sia stata studiata e messa a punto nei laboratori della Rai, l’operatore del servizio pubblico, il cui consiglio d’amministrazione è territorio di caccia delle forze di governo e di strage intellettuale di molti personaggi, alcuni di spicco e di grande qualità professionale e morale. E pensare che la Rai entrò a suo tempo come socio in Telepiù, facendosi pagare e non poco in cambio di un pacchetto di canali. Con una semplice autorizzazione e ora assiste impotente allo sviluppo di una sua ricerca. Lo ha bene notato sul Sole-24Ore Marco Mele, il quale non ha mancato di sottolineare come sia virtualmente cambiata la natura del digitale terrestre: da piattaforma gratuita e, in qualche modo, alternativa alla televisione generalista, a nuovo terreno di sfida e di conquista perché abbondante di spazi pubblicitari appetiti dall’utenza (grazie al calcio, vero driver dell’espansione televisiva).

Dunque, Publitalia avrà un’offerta aggiuntiva da proporre ai suoi grandi clienti e potrà ulteriormente, come gli consente la legge, allargare la propria quota di mercato.

La Gasparri e la pubblicità

Ma proprio sul mercato pubblicitario sta accadendo qualcosa di assolutamente inedito che dovrebbe preoccupare fortemente gli editori di carta stampata.

Per la prima volta una fase di ripresa degli investimenti pubblicitari, che difficilmente torneranno ai valori dell’anno 2000, vede quotidiani e periodici continuare a soffrire sugli spazi e sulle tariffe.

La televisione, e in particolare le reti del Cavaliere, viaggiano secondo gli ultimi dati, con un tasso di crescita a due cifre, rispetto all’anno scorso, mentre la carta stampata annaspa, nel migliore dei casi registra un progresso fra il due e il quattro per cento. Colpa dei costi contatto? Colpa delle difficoltà in cui versano quotidiani e periodici? Della migliore qualità della programmazione? Forse. Ma è anche vero che le reti generaliste, e in particolare quelle Mediaset, possono ormai espandersi senza limiti. I problemi di affollamento, importanti per misurare l’efficacia della pubblicità, sembrano non esistere più. I palinsesti televisivi sono in overbooking pubblicitario fino a ottobre. Una volta l’estate era un periodo di magra per gli spot. Non è più così. Una volta il medio-piccolo investitore pubblicitario non andava in televisione e riteneva più conveniente per la propria comunicazione apparire sui mezzi tradizionali. Oggi la rete della pubblicità televisiva, in crescita bulimica, prende tutto: pesci grandi e pesci piccoli. E i grandi, i cosiddetti big spender, pensiamo soltanto alle case automobilistiche, preferiscono concentrare i propri investimenti sulla televisione.

È diventata di colpo così efficace? Forse, certo molti imprenditori e amministratori delegati hanno capito che l’investimento pubblicitario può avere anche un dividendo, diciamo così, politico. E non c’è da biasimarli: nell’ottica di massimizzare il rendimento del loro investimento compiono senza dubbio la scelta migliore. La più razionale. E molti di loro redigono un conto economico in cui l’andamento delle tariffe è cruciale. E le tariffe sono fortemente influenzate da fattori politici. Anche questa è una malignità da outsider, ma forse è un sospetto con una qualche fondatezza.

La Gasparri ha mosso il mercato. E questo è positivo.

Dovrebbe anche favorire la privatizzazione della Rai. Ma sul versante dell’operatore pubblico, anche per colpe sue per carità, non si assiste alla stessa effervescenza progettuale che si registra su quello privato. Tutt’altro. E pensare che proprio dopo le dimissioni del ministro dell’Economia, Giulio Tremonti, e l’interim di Berlusconi, palazzo Chigi è diventato direttamente l’azionista di Rai Holding. E noi cittadini che paghiamo il canone saremmo particolarmente felici che, al di là delle riconosciute capacità manageriali del direttore generale di viale Mazzini, l’azienda pubblica ricevesse qualche buon consiglio da parte del suo azionista diretto che il mercato televisivo conosce come le proprie tasche.

Non solo la tv va bene, sotto il profilo pubblicitario, ma anche la radio. Ed ecco muoversi a poche settimane dall’approvazione della Gasparri, la Mondadori, uno dei primi gruppi editoriali del paese che ha manifestato la propria intenzione di entrare nel mercato della radio con un’offerta per acquisire Radio 101. Tutto bene. Naturalmente in questo caso va sottolineato che la mia è un’opinione di parte, lavorando io in Rcs-Mediagroup (1).

Ecco perché sostengo che la Gasparri rappresenti uno straordinario benchmark legislativo. Lo dico senza ironia. Mi sarebbe piaciuto che lo stesso grado di attenzione e di compattezza politica fosse stato riservato anche ad altri temi, all’economia per esempio. E forse non ci saremmo trovati a questo punto. Con il dubbio rovente che i conti pubblici siano stati falsati e che le promesse fatte al paese siano ormai accantonate. Se ai temi che interessano il futuro del paese fosse stato dedicato soltanto un decimo del tempo che hanno richiesto la Gasparri o la Cirami, staremmo tutti meglio. Come paese. Ma quelli forse erano interessi diffusi, pubblici. Gli altri erano interessi un po’ più privati. E dunque meritevoli di maggior riguardo.

Buon compleanno a staging.lavoce.info

Così, buon compleanno a staging.lavoce.info. Non è vero che in questo paese di voci ce ne siano poche. Ce ne sono ancora tante e libere. Ma ce ne vorrebbero molte di più. Il pluralismo esiste ancora. Non viviamo in alcun regime. Ma purtroppo assistiamo a una lenta deriva e a una progressiva assuefazione all’idea che l’informazione debba essere schierata, strumentale, ancillare e direttamente soggetta agli interessi dei proprietari. Non parlo solo del Cavaliere e non mi riferisco solo a questa maggioranza. Le voci libere danno fastidio. Eppure se qualcuno obnubilato dal potere le avesse ascoltate non si troverebbe oggi in fondo al baratro. E anche l’Italia starebbe un po’ meglio.

(1) E la mia è un’opinione strettamente personale.

Va in onda la Gasparri, di Marco Gambaro

Dopo un tormentato, ma accelerato, iter di discussione la legge Gasparri è stata pubblicata in Gazzetta ufficiale nella sua versione definitiva.
Si tratta di una legge che tocca molti punti, con diversi interventi condivisibili.

Dalle tv locali alla privatizzazione della Rai

È condivisibile, ad esempio, l’articolo 8 quando amplia da sei a dodici ore lo spazio di interconnessione nazionale per le emittenti locali e consente loro di raccogliere pubblicità nazionale. Si pongono così le prime basi per il progressivo superamento di una situazione che le rende quasi insignificanti nel panorama televisivo. Anche se, per favorirne la crescita, sarebbe stato meglio consentire il possesso di stazioni in mercati diversi, invece di aumentare fino a tre il numero di emittenti che un soggetto può possedere nello stesso bacino di utenza.
Una parte rilevante della legge è dedicata alle procedure di nomina del consiglio d’amministrazione Rai e alla sua privatizzazione.
Sul primo punto, occorre prendere atto che finora l’influenza politica sulla Rai e sulla scelta dei dirigenti è stata assolutamente indipendente dai criteri di nomina via via adottati.

La privatizzazione ipotizzata dalla legge Gasparri non prevede, però, interventi strutturali che allontanino l’influenza dei partiti dalla televisione pubblica. E l’idea di vendere una minoranza del capitale azionario con quote che non possono superare il 2 per cento, senza modificare la struttura saldamente duopolistica del mercato televisivo, sembra un esempio da manuale di come non cogliere i vantaggi della privatizzazione. Se non quello, meramente finanziario, di scaricare sui piccoli risparmiatori i rischi di un’azienda dalla redditività incerta e in cui le possibilità di controllo degli azionisti sono modeste.

Il caso delle telepromozioni

Aumenta lo spazio per le telepromozioni, soprattutto per Mediaset, con un approccio che allontana l’Italia da diversi altri paesi europei. (1)
Ma la norma non modifica la struttura del mercato né è in grado di sottrarre quote ad altri mezzi.
Le ragioni della limitata raccolta pubblicitaria di quotidiani e periodici vanno cercate nella ridotta diffusione della stampa in Italia più che nel potere di mercato della televisione. Se si effettuano confronti internazionali considerando i ricavi pubblicitari per copia, si scoprono indicatori abbastanza omogenei tra i vari paesi: sembrano mostrare come sia possibile conquistare investimenti pubblicitari, una volta raggiunti i lettori.

Tra Sic e digitale terrestre

Il problema della struttura del mercato – limitazione o riduzione della concentrazione e aumento dei concorrenti e delle voci disponibili – ha implicazioni sia economiche che politiche.
La legge Gasparri lo affronta con la definizione del Sic (sistema integrato delle comunicazioni, di cui nessun operatore può controllare più del 20 per cento) e la promozione accelerata della televisione digitale terrestre.
Il Sic è stato ridotto con la riscrittura della legge, in seguito al rinvio alle Camere da parte del presidente della Repubblica. Sono stati eliminati dal perimetro libri e pubbliche relazioni e corrette alcune vistose ingenuità.
Per esempio, l’avervi compreso all’inizio le agenzie di stampa, le produzioni televisive e le produzioni cinematografiche: tutti mercati intermedi che entrano rispettivamente nel fatturato di giornali, televisioni e sale cinematografiche, e dunque erano banalmente contati due volte.
In questo modo, il Sic raggiunge una dimensione di circa 22 miliardi di euro.
Una quota del 20 per cento corrisponde a 4,5 miliardi di euro: cifra opportunamente al di sopra di quella attuale dei maggiori operatori (Rai 3 miliardi, Mediaset 4 miliardi, Rcs per ora 2,3 miliardi).

Il Sic non è un mercato rilevante nel senso comunemente inteso dall’economia industriale e dalle autorità antitrust. Si tratta piuttosto di un aggregato arbitrario, di una convenzione dove conta solo il prodotto tra perimetro complessivo e quota consentita. E la combinazione scelta non è stringente per nessun operatore presente sul mercato, nonostante in diversi mercati delle comunicazioni si registrino tassi di concentrazione assai elevati: in quello televisivo nazionale, nella televisione a pagamento, nelle directory o in molti mercati locali dei quotidiani.
La televisione digitale terrestre rappresenta un’innovazione di sistema perseguita da molti paesi. Per la sua inevitabilità tecnologica, e perché utilizzando in modo più efficiente lo spettro elettromagnetico, permette alternativamente di aumentare il numero di canali o di destinare parte delle frequenze televisive ad altri utilizzi.
La legge italiana progetta una transizione accelerata soprattutto per ovviare all’obbligo imposto dalla norma precedente e dalla Corte costituzionale di spostare Rete 4 sul satellite e di togliere la pubblicità a Rai 3.
Purtroppo, la concentrazione del mercato televisivo è legata alle economie di scala nei programmi più che alla scarsità di frequenze: appare probabile che i nuovi canali trasmessi sul digitale terrestre si limitino ad aumentare il numero teorico dei canali e non riescano a erodere le quote di mercato degli incumbent. (vedi staging.lavoce.info del 03-07-2003)

Nel segno della continuità

Nell’insieme si tratta di misure che non sembrano in grado di perseguire una riduzione della concentrazione nel mercato televisivo. Vi è cioè un’incoerenza tra finalità dichiarate e strumenti utilizzati.
Va detto però che su questo terreno la Gasparri mantiene una forte continuità con le altre leggi sulla televisione promulgate negli ultimi vent’anni, che si occupano di molte cose per lasciare sostanzialmente invariata la struttura del settore, caratterizzato da un duopolio dove i due operatori controllano circa il 90 per cento del mercato di riferimento. Ha un approccio comune con la legge Mammì del 1990 e la legge Maccanico del 1997, peraltro emanate da Governi diversi.

Nonostante le polemiche, l’Italia è solo parzialmente un’anomalia nel contesto televisivo europeo. In Germania i primi due operatori controllano il 68 per cento degli ascolti, in Gran Bretagna il 60 per cento, in Francia il 71 per cento. Si tratta ovunque di tassi di concentrazione elevati, ma inferiori all’89 per cento italiano. In questi altri paesi vi è spazio normalmente per almeno tre-quattro gruppi televisivi significativi, più gli operatori della pay-tv.
Un accettabile grado di concorrenza nel settore televisivo è rilevante per il buon funzionamento degli altri mercati, attraverso la pubblicità, ma anche per il buon funzionamento del sistema politico perché ormai i cittadini ricevono gran parte delle informazioni proprio dalla televisione.
Dunque, è probabile che la legge Gasparri sia solo una tappa provvisoria nella costruzione di un assetto accettabile del sistema televisivo italiano.
Si continuerà inevitabilmente a parlare di questo tema: sarebbe opportuno farlo con meno ideologia, meno preconcetti ma con più dati oggettivi, più confronti internazionali, con profondità e consapevolezza crescenti.

(1) In Francia le telepromozioni non sono consentite nei programmi e in Germania rientrano nella normativa generale sugli spot.

Par condicio con l’handicap, di Nicola Lacetera e Mario Macis

La legge sulla par condicio regolamenta l’attribuzione degli spazi televisivi ai partiti e ai candidati nelle campagne elettorali, per garantire parità di accesso ai mezzi di informazione.
Il presidente del Consiglio Silvio Berlusconi ha annunciato di voler modificare la legge. Il vicepremier Gianfranco Fini ha affermato che “non è certo una provocazione pensare di attribuire a ciascun partito uno spazio diverso in base alla sua forza elettorale”. Fini e Berlusconi ritengono dunque che spazi maggiori dovrebbero essere attribuiti a partiti con più peso in Parlamento.

L’handicapping applicato alle campagne elettorali

In un paese democratico i cittadini debbono essere messi nelle condizioni di scegliere la forza politica per cui votare in maniera consapevole. Devono quindi essere a conoscenza delle alternative disponibili. Le forze politiche devono essere incentivate a fornire informazioni veritiere e sostanziali sulle proprie posizioni e i propri programmi.
Se accettiamo queste premesse, e più in generale l’esigenza di garanzia del pluralismo nelle competizioni elettorali, l’impostazione di riforma della legge sulla comunicazione elettorale suggerita da Fini e Berlusconi non è necessariamente quella corretta.
Per capire perché consideriamo cosa avviene negli Stati Uniti in diverse competizioni sportive.

Negli incontri di golf non professionistici, ma anche nelle corse di cavalli, nel baseball o nel basket, è molto comune la pratica di assegnare un certo svantaggio ai giocatori più dotati. Per esempio, nelle corse di cavalli i fantini più leggeri sono caricati con del peso extra. Nel golf, i giocatori più bravi partono con alcuni punti di svantaggio. Queste pratiche, cosiddette di handicapping, pongono il giocatore più dotato in condizioni iniziali più simili rispetto a quello meno dotato.
Quando i valori in campo sono in partenza squilibrati in favore di una parte, per cui il risultato dell’incontro è scontato, la competizione perde di interesse per il pubblico, perché tanto il giocatore più dotato quanto quello meno dotato non sono incentivati a giocare al meglio delle loro possibilità: il primo perché è sicuro di vincere, e il secondo perché certo di perdere. Nel rendere la competizione più equa, l’handicapping fornisce più stimoli a tutti i contendenti.

Recentemente, un filone di letteratura economica ha discusso l’utilità delle pratiche di handicapping nelle imprese, per le promozioni dei manager a posizioni gerarchiche superiori.
È possibile trasferire la logica dell’handicapping dal mondo dello sport (e dell’impresa) a quello delle competizioni elettorali, dove si applica forse ancor meglio.
Nelle campagne elettorali, l’utilità per i cittadini di rafforzare posizioni precostituite non è per nulla scontata. Al contrario, nelle democrazie compiute l’esigenza di garantire effettiva parità di condizioni ai partiti e ai candidati dovrebbe essere ben superiore a quella di garantire parità di condizioni in un incontro di golf, dal quale dipendono le emozioni dei tifosi, ma non certo le sorti di un paese.
Ora, dal momento che la maggioranza in Parlamento, proprio per il suo ruolo di governo, gode di una maggiore esposizione mediatica tra una legislatura e l’altra, la logica dell’handicapping attribuirebbe più spazi ai partiti meno rappresentati in Parlamento: l’esatto contrario rispetto a quanto suggerito da Berlusconi e Fini.

In tal modo, non solo la competizione partirebbe da basi più eque, ma sarebbe anche più ricca e vivace.
La maggioranza sarebbe stimolata a impegnarsi di più sulla qualità dei messaggi di propaganda (sostituendo qualità per quantità). L’opposizione, sapendo di avere spazi a sufficienza per presentare le proprie, sarebbe spronata a farlo. Al contrario, laddove si attribuissero gli spazi in base ai risultati delle passate elezioni, sarebbe lo status quo a prevalere, e ci sarebbero meno incentivi a cambiare, con una perdita secca per i cittadini.
Inoltre, con un esito elettorale più incerto, il voto del singolo cittadino diventa più influente, e ciò stimola la partecipazione al voto. È noto che nelle democrazie “bloccate” e laddove il risultato delle elezioni è più scontato, l’assenteismo degli elettori è maggiore.

Uguaglianza di condizioni

La proposta di modifica della legge sulla par condicio nella direzione accennata dal presidente del Consiglio e dal suo vice può essere giustificata con la volontà di creare un disincentivo all’eccessiva proliferazione di sigle politiche. Privilegiare le forze esistenti, in un regime democratico, può anche rappresentare un argine contro l’emergere di forze non democratiche.
Tuttavia, argomenti altrettanto validi spingono esattamente nella direzione opposta. Al punto che potrebbe essere più opportuno offrire maggiori spazi (rispetto alla loro forza elettorale) ai partiti minori e a quelli di opposizione, nonché garantire una qualche visibilità alle nuove formazioni.
Infatti, la realtà socio-politica di un paese (specie se democratico e pluralistico) è intrinsecamente dinamica. Nuovi gruppi ed esigenze emergono continuamente. Importanti eventi e processi storici possono sostanzialmente modificare le posizioni e le attitudini dei cittadini, con profondi effetti sulla competizione politico-elettorale.

Si considerino, ad esempio, la fine dei regimi comunisti, e le inchieste giudiziarie su “Tangentopoli” nei primi anni Novanta: questi eventi hanno cambiato il panorama politico italiano. Tale cambiamento (compresa la nascita del partito “Forza Italia”) sarebbe stato ostacolato da regole della comunicazione elettorale basate sul peso storico delle forze politiche.
Garantire uguali spazi a tutte le forze appare coerente con un criterio intuitivo di uguaglianza delle condizioni di partenza. Dalle considerazioni esposte in precedenza, la par condicio può anche essere considerata come una soluzione di compromesso virtuoso fra argomenti che spingono verso soluzioni opposte per la distribuzione degli spazi televisivi ai partiti in campagna elettorale.
In ogni caso, se le regole sulla par condicio devono essere riviste, la riflessione dovrà essere ben più profonda e complessa della semplice logica proposta da Berlusconi e Fini.

Si tenga conto, infine, che con questi argomenti si è “finto” di parlare di un paese in cui vi sia effettiva separazione tra i poteri economico, mediatico e politico. Se accade, come in Italia, che il partito politico che guida la maggioranza di Governo controlla attraverso il suo leader larga parte dei mezzi di comunicazione televisiva, la situazione è assai più complicata e delicata, e l’handicapping attribuito ai partiti di Governo dovrebbe essere ancora più forte.

Che fine ha fatto la Devolution?

Inserita in quella sorta di patchwork di bandierine elettorali, una per ciascuna componente politica della maggioranza, che è l’ultima riforma della Costituzione.
Sepolta da una ridda di numeri sui suoi costi, spesso presunti. Privata del meccanismo
automatico di perequazione nella distribuzione delle risorse fra le Regioni. Da quasi tutti voluta e da nessuno realizzata, la devolution continua a dibattersi negli stessi problemi di sempre. A partire dalla mancanza di chiarezza sui sistemi di
finanziamento e sugli spazi di autonomia da riconoscere agli enti decentrati. Anche perché il dualismo economico del paese rende necessario un sistema perequativo efficiente e l’assenza di un quadro di regole condivise tra centro e periferia espone al rischio di fenomeni d’irresponsabilità finanziaria, come quelli che si sono prodotti nel
caso della sanità.

Scuola e università

Sommario a cura di Daniele Checchi

La scuola italiana non funziona. Ma non è un problema di risorse: nei paesi che spendono quanto l’Italia in formazione primaria e secondaria, la performance dei quindicenni è di gran lunga migliore che da noi. E’ un problema di qualità degli insegnanti? E’ difficile, ma non impossibile, misurarla e dovrebbe essere maggiormente incentivata. Ma per farlo bisogna affermare la cultura della valutazione, vincendo fortissime resistenze alle rilevazioni. La valutazione sulla base di parametri oggettivi è ancora più importante nel caso dei concorsi universitari. Apriamo il confronto su due proposte alternative. La prima propone di mantenere i concorsi per l’ingresso nella carriera universitaria a livello decentrato, attribuendo agli atenei locali anche la responsabilità finale (e l’onere economico corrispondente) della conversione a tempo indeterminato dei contratti di docenza e/o ricerca. La seconda propone di tornare ai concorsi nazionali per combattere il malcostume dei concorsi fasulli. Ma non basta probabilmente riformare i concorsi. Perchè l’università italiana incentivi la ricerca bisogna smettere di premiare solo (e troppo) l’anzianità di servizio, rendendo il sistema impermeabile alla concorrenza esterna, come dimostrano i dati sui pochissimi docenti stranieri presenti in Italia. Mentre le risorse disponibili al sistema universitario italiano non sono cresciute in termini reali negli ultimi 5 anni, il governo ha scommesso sulle iniziative di eccellenza come l’Istituto italiano di tecnologia. Se ne è parlato più prima della sua nascita che adesso che sta per concludersi la fase di startup. Al commissario unico e al direttore scientifico dell’Iit abbiamo formulato alcune domande per capire lo stato di avanzamento di questo progetto. Ospitiamo le risposte di Vittorio Grilli, commissario unico dell’Iit e Roberto Cingolani, direttore scientifico dell’istituto.

Il concorso? Meglio nazionale, di Pietro Ichino

Per il reclutamento dei professori universitari, fino alla riforma del 1998 la legge italiana prevedeva che si svolgesse un concorso unico nazionale ad anni alterni, un anno per quelli di prima fascia e nell’altro anno per quello degli associati. Quanto alla commissione giudicatrice, per la prima fascia, tutti i professori della materia erano chiamati a eleggere dieci possibili commissari, tra i quali venivano sorteggiati i cinque membri. Per gli associati, il sorteggio dei possibili commissari precedeva l’elezione. Alle singole facoltà interessate era data poi la scelta tra i vincitori per la copertura delle cattedre messe a concorso.

Il circolo vizioso del passato

Perché quel sistema funzionasse bene (nei limiti consentiti dal contesto del sistema universitario italiano), mancava solo una regola: scioglimento automatico della commissione che non avesse esaurito i propri lavori entro tre o quattro mesi; ed elezione di una nuova, con esclusione dall’elettorato passivo per i vecchi commissari.
Poiché questa regola non c’era, i lavori delle commissioni erano sovente interminabili, essendo intralciati dai veti incrociati e dai complessi giochi di alleanze e contro-alleanze accademiche in cui i commissari venivano invischiati. I concorsi duravano anni. Così, a ogni nuovo concorso, il numero di posti in palio era molto elevato; il che contribuiva ulteriormente a rallentare i lavori. L’intervallo lungo tra un concorso e l’altro e il numero abnorme dei posti in palio contribuivano a drammatizzare l’importanza del concorso e a rallentarne lo svolgimento, in un evidente circolo vizioso. La drammatizzazione portava poi con sé un altissimo numero di ricorsi dei candidati perdenti al Tribunale amministrativo, dai quali il ministro dell’Istruzione era letteralmente sommerso.

I gravi difetti dell’attuale sistema

Questa alluvione di ricorsi giudiziali è stata una ragione non secondaria della scelta del ministro Berlinguer di decentrare i concorsi: con la riforma del 1998 sono ora i singoli atenei a bandirli (e quindi a doversi eventualmente difendere davanti al Tar). Ma il nuovo sistema ha due difetti gravissimi. In primo luogo, garantisce un forte privilegio al candidato appartenente all’università che bandisce il concorso, alla quale compete la nomina di uno dei membri della commissione; è rarissimo, infatti, che il “candidato interno” risulti perdente; l’unico dato incerto, quando è incerto, è il nome del secondo vincitore, destinato a essere chiamato altrove. Inoltre, il nuovo sistema prevede l’elezione di tante commissioni quanti sono i concorsi banditi dagli atenei: ciò che comporta un gran numero di voti e di candidature, con corrispondente enorme lavorio elettorale (praticamente ininterrotto: le “tornate” elettorali sono due, tre, persino quattro all’anno), seguito da giochi estremamente complessi tra le commissioni di concorsi diversi cui partecipano contemporaneamente gli stessi candidati. E poiché per questo lavorio elettorale e post-elettorale sono normalmente più disponibili i professori che si dedicano meno intensamente alla ricerca e all’insegnamento, il sistema presenta un alto rischio di favorire nettamente gli interessi di questi ultimi rispetto a quelli dei professori migliori.
Questo spiega e in qualche misura giustifica la prassi, invalsa in numerosi comparti accademici, di affidare a uno o più professori anziani il compito di “dirigere il traffico” concorsuale, raccogliendo le candidature, valutandone il merito, stabilendo una sorta di graduatoria di precedenza ragionata e proponendo alla comunità accademica le corrispondenti indicazioni elettorali per la costituzione delle commissioni. Anche se comprensibile – e, dove funziona in modo pulito, giustificabile come male minore – questa prassi significa che, in realtà, i concorsi tendono a ridursi a una formalità vuota: la vera sede in cui si decidono i vincitori è l’organo informale di “coordinamento”. Quando poi il coordinatore – rafforzato dagli alti costi di transazione che si impongono a chi tenti di scalzarlo dalla sua posizione – si trasforma in dittatore, minacciando e applicando sanzioni contro chi disattende le sue indicazioni, si verifica la grave degenerazione del sistema denunciata da Gino Giugni due settimane or sono. L’ordinamento statale, come ci ha insegnato Ronald Coase, serve essenzialmente per ridurre i costi di transazione. Quando esso, invece di ridurli, li moltiplica, tende a nascere spontaneamente qualche altro ordinamento finalizzato a ridurre quei costi, che si sovrappone all’ordinamento statale. Con risultati sovente pessimi: la spontaneità del fenomeno non costituisce affatto una garanzia di bontà del rimedio.

Una possibile soluzione

Alla radice di questi mali del nostro sistema universitario sta, certo, il “valore legale” della laurea che toglie gran parte del significato alla concorrenza tra gli atenei; e a questo si accompagnano altri difetti strutturali che non si eliminano con la sola riforma – per quanto ben congegnata – del reclutamento dei docenti (per un disegno di riforma organica vedi qui sotto l’articolo di Gagliarducci, Ichino, Peri, Perotti). Ma il sistema di reclutamento oggi in vigore fa troppi danni per essere lasciato sopravvivere anche solo per poco. Nel contesto attuale, forse la scelta migliore è quella di un ritorno al sistema precedente al 1998 per i professori di prima fascia, con il correttivo di cui si è detto sopra: i professori di ciascuna materia votano una volta all’anno e una sola, per una commissione composta da membri non rieleggibili nella tornata successiva; la commissione designa ogni anno un piccolo numero di idonei alla cattedra; e se non lo fa entro tre mesi decade automaticamente. Libero poi ciascun ateneo di chiamare uno degli idonei, se concorda con la commissione nel ritenerlo tale, anche rispetto ai propri standard, alle proprie esigenze didattiche e ai propri programmi di ricerca.

Come reclutare i migliori, di Pietro Reichlin e Filippo Taddei

Questo scritto propone un sistema per il reclutamento dei docenti universitari che possa facilitare l’accesso alla carriera accademica a chi è giovane e si dedica principalmente alla ricerca. Il nostro schema adotta la produzione scientifica come criterio fondamentale per l’assunzione e l’entrata in ruolo dei giovani ricercatori il cui lavoro verrebbe valutato dai dipartimenti di riferimento e da commissioni composte da ricercatori di “chiara fama” (come nel Comitato di indirizzo per la valutazione della ricerca). Tuttavia, il nostro schema ha il pregio di non proporre un meccanismo esclusivo rispetto ad altri sistemi di reclutamento. In particolare, riteniamo che debba affiancare un sistema concorsuale completamente decentrato regolato da incentivi e disincentivi pecuniari per il miglioramento della qualità (scientifica e didattica) degli atenei.

Perché intervenire

Nella seduta del 13 e 14 aprile del 2005, il Consiglio universitario nazionale ha approvato un parere sul riordino dello stato giuridico e del reclutamento dei professori universitari che, esprimendo contrarietà alla messa in esaurimento del ruolo dei “ricercatori”, propone l’articolazione “della docenza universitaria in tre livelli, con precisa definizione delle funzioni specifiche di ognuno di essi”. (1)
Chi ritiene che la qualità della ricerca e l’inserimento dei giovani nell’università italiana siano obiettivi fondamentali, non può che essere deluso dal documento del Cun. Non si capisce a cosa serva un terzo livello di docenza. Non si avverte l’allarme per l’automatismo che caratterizza la progressione di carriera dei professori. Del resto, nemmeno il ministro Moratti offre proposte soddisfacenti. Il prospettato ritorno al “concorso nazionale” non risolve nessuno dei problemi principali. Alcuni sostengono giustamente l’esigenza di “liberalizzare” il reclutamento per concentrarsi sui meccanismi di finanziamento degli atenei, incentivando così comportamenti virtuosi. Gli atenei che assumono ricercatori bravi dovrebbero avere più soldi, quelli che assumono parenti e amici dovrebbero essere penalizzati. Il criterio di ripartizione dei fondi dovrebbe essere affidato a una commissione composta da accademici di fama italiani e stranieri. Questa proposta, che chiameremo “liberista”, semplifica enormemente le procedure, cerca di premiare il merito scientifico, ma, secondo noi, soffre di alcuni difetti che la nostra prospettiva cerca di risolvere.
In base al sistema liberista, i dipartimenti hanno incentivi deboli: possono aspettarsi di conseguire solo vantaggi marginali da un comportamento virtuoso perché l’assegnazione dei fondi avverrebbe sulla base degli atenei, non dei dipartimenti. Inoltre, la penalizzazione pecuniaria ex post ha due problemi. In primo luogo, non è facilmente praticabile perché sanziona, negando i finanziamenti, sulla base di criteri stabiliti posteriormente alle condotte.
In secondo luogo, ha il difetto di colpire tutti i dipartimenti e le facoltà compresi nell’ateneo, indipendentemente dal loro comportamento individuale. Infine, la proposta liberista sembra penalizzare gli atenei periferici e di recente formazione, generalmente caratterizzati da una breve serie di risultati scientifici e una scarsa capacità di attrazione.

La nostra proposta

Questi difetti non rendono inopportuno il principio meritocratico alla base del sistema liberista, ma richiedono l’introduzione di un meccanismo parallelo per il reclutamento dei docenti rivolti alla ricerca. Già oggi le unità di ricerca che si formano nei dipartimenti possono ottenere dal ministero il finanziamento di posizioni a contratto nell’ambito dei progetti di ricerca. Si tratta, in generale, di contributi inadeguati e limitati a un massimo di tre anni.
Questo sistema dovrebbe essere potenziato e adeguato. Vogliamo fare in modo che i contratti di lavoro per i ricercatori così finanziati (1) siano retribuiti in modo adeguato, (2) abbiano maggiore durata riducendo l’incertezza dei giovani ricercatori e, soprattutto, (3) permettano l’immissione nell’organico di ruolo dell’università, previo parere favorevole di una commissione ministeriale e degli organi accademici di riferimento. Il sistema che abbiamo in mente potrebbe essere facilmente organizzato. Ogni anno ciascun dipartimento può sottoporre al ministero alcuni progetti di ricerca di durata compresa tra tre e sei anni. La flessibilità è completa: ciascun progetto risponde a esigenze e caratteristiche della disciplina di riferimento, ma include sempre la richiesta dei fondi necessari al suo completamento e, in particolare, del finanziamento del numero di ricercatori desiderati. I rapporti di lavoro prodotti sono quindi motivati dal progetto di ricerca, e perciò di eguale durata. Le retribuzioni di ciascun ricercatore sono flessibili e decise in autonomia da ciascun dipartimento: soggette a un limite minimo, non ne hanno uno massimo. I dipartimenti possono essere incoraggiati, da incentivi fiscali ai donatori e premi ministeriali, a “cofinanziare” il progetto procurandosi finanziamenti aggiuntivi (privati, ateneo, eccetera). Il ministero costituisce un fondo per ciascuna disciplina e i dipartimenti che vi appartengono competono per l’attribuzione delle risorse ministeriali. Naturalmente, questi fondi devono essere ben più consistenti di quelli oggi stanziati. Potrebbero essere aumentati anche prelevando denaro dal fondo per la gestione ordinaria degli atenei.
approvazione dei progetti e la conseguente assegnazione dei fondi viene quindi decisa sulla base del giudizio di una commissione nazionale composta da studiosi di chiara fama impegnati in Italia e all’estero, per ciascuna disciplina di riferimento. Non tutti i progetti presentati devono necessariamente essere finanziati: una preselezione esclude quelli non meritevoli. Come si vede, la caratteristica fondamentale del sistema fin qui proposto è quella di garantire un punto di partenza paritetico a ciascun dipartimento, tenendo fermo l’obiettivo di incentivare comportamenti virtuosi, come nel sistema liberista, e fornendo un canale aggiuntivo per l’assunzione dei giovani ricercatori.
Una volta attribuiti i fondi, i dipartimenti bandiscono con procedura pubblica e trasparente le posizioni a contratto coerenti col progetto approvato. Non hanno però alcun vincolo riguardo alle procedure di selezione, ai possibili vincitori e alle remunerazioni, eccetto l’incompatibilità con altri incarichi di docenza a tempo pieno.
Infine, alla scadenza dei termini del progetto di ricerca, le commissioni nazionali valutano la coerenza tra obiettivi e risultati dei progetti finanziati (numero e qualità delle pubblicazioni scientifiche, risultati di esperimenti, brevetti, eccetera). Il risultato di queste valutazioni porta all’assegnazione del finanziamento necessario a trasformare, presso il dipartimento ove si è svolta la ricerca, una o più posizioni a tempo determinato in posti di ruolo per professori di prima o seconda fascia (ad arbitrio della commissione). Oppure, alternativamente, alla negazione di tale finanziamento e alla conclusione del rapporto di lavoro degli assunti. Il numero delle posizioni di ruolo finanziate mediante questa procedura dipende dall’ammontare dei fondi ministeriali stanziati. Il sistema non subisce la pressione corporativa: da una parte la limitatezza dei fondi e dall’altra il doppio livello di controllo (commissione ministeriale e dipartimento afferente) garantiscono la selettività delle “conferme in ruolo”.

I vantaggi

Riassumiamo i principali vantaggi di questo sistema. Innanzitutto, è basato sul merito scientifico perché “incentiva” comportamenti virtuosi nella selezione dei ricercatori, condizionando la concessione dei fondi ai risultati della ricerca. È un obiettivo condiviso dal sistema “liberista”, che pensiamo debba essere introdotto come sistema principale per l’assunzione e la promozione dei docenti universitari. Tuttavia, crediamo che il nostro meccanismo possa funzionare come “complemento” sia dell’attuale ordinamento che di quello “liberista”. Il sistema da noi proposto interviene ex-ante, cioè all’inizio del progetto quando i ricercatori vengono selezionati, garantendo un punto di partenza paritetico a tutti i dipartimenti in competizione. Inoltre, è maggiormente selettivo: concede premi o penalità ai singoli dipartimenti, evitando che “le politiche di ateneo” possano contrastare l’efficacia degli incentivi ministeriali, mentre consente ai docenti più impegnati nella ricerca di acquisire un maggiore potere accademico.

(1) Sessione 174, 13 e 14/4/2005

Rilevazioni senza qualità, di Solomon Gursky

Quest’anno per la prima volta si è registrata nelle scuole una notevole opposizione alle rilevazioni del Servizio nazionale di valutazione degli apprendimenti, a diversi livelli e con diverse motivazioni. Alcune critiche sembrano francamente poco condivisibili, altre sono decisamente più fondate. Come l’obbligatorietà, l’oggetto e il campo delle rilevazioni e il periodo in cui vengono effettuate. Ma soprattutto la scarsa qualità delle prove. Si rischia così di bloccare la diffusione della cultura della valutazione nella scuola.

In aprile si sono svolte le rilevazioni del “Servizio nazionale di valutazione degli apprendimenti”, organizzate e gestite dall’Invalsi.
Per la prima volta da quando sono stati organizzati i cosiddetti “Progetti pilota”, nel 2001-2002, si è registrata nelle scuole una notevole opposizione alle rilevazioni, a diversi livelli e con diverse motivazioni. Allo stesso tempo, prese di posizione critiche sono state assunte da parte di organizzazioni sindacali, di associazioni professionali e di genitori, di comitati spontanei che si sono formati in questi ultimi due anni in opposizione alla legge di riforma della scuola promossa dal ministro Moratti.

I motivi delle resistenze

Basta navigare un po’ in Internet per raccogliere un campionario dei motivi all’origine delle proteste che si sono manifestate nelle scuole. Alcuni di questi motivi sembrano francamente poco condivisibili, altri hanno ben diversa e più fondata motivazione. Tra i primi rientrano quelli che denunciano ipotetiche situazioni di stress a cui verrebbero sottoposti i “bambini” della scuola elementare; oppure quelli che sottolineano l’impossibilità e l’illegittimità di qualsiasi forma di rilevazione esterna, che non sia preventivamente negoziata e concordata con insegnanti e genitori. Altri motivi appaiono invece più fondati e più mirati.
Obbligatorietà delle prove Da quest’anno la partecipazione alle rilevazioni è obbligatoria per il primo ciclo dell’istruzione (scuole elementari e medie). In realtà, non c’è alcuna circolare ministeriale che sancisca questa obbligatorietà. La comunicazione alle scuole è arrivata dall’Invalsi e sulla base della approvazione di alcuni provvedimenti normativi: la legge di riforma della scuola che prevede l’istituzione del Servizio nazionale di valutazione; il decreto legislativo con il quale è stato riordinato l’Invalsi, trasformandolo definitivamente (per ora) in Istituto nazionale per la valutazione del sistema dell’istruzione e della formazione; la pubblicazione delle Indicazioni nazionali, allegate al decreto legge 59/2004. Ma in nessuno di questi documenti è sancita esplicitamente la obbligatorietà della partecipazione alle rilevazioni. Il Miur ha interpretato in termini di obbligatorietà quanto nel decreto istitutivo del Servizio nazionale di valutazione viene presentato in termini di “concorrenza“: “(…) al conseguimento degli obiettivi di cui al comma 1 concorrono l’Istituto nazionale di valutazione di cui all’articolo 2 e le istituzioni scolastiche e formative“.
L’oggetto della rilevazione. Per la costruzione delle prove si è fatto riferimento agli Osa (Obiettivi specifici di apprendimento) contenuti nelle Indicazioni nazionali. Le Indicazioni sono allegate al decreto 59/04 e di fatto non si possono ancora considerare obbligatorie (anche in riferimento alla normativa vigente sull’autonomia delle istituzioni scolastiche).
Il campo della rilevazione. La rilevazione è limitata agli apprendimenti. Non viene utilizzato alcun questionario che consenta di interpretare i risultati conseguiti con le variabili socio-culturali di provenienza degli studenti. Il cosiddetto “questionario di sistema” a tutto aprile non era stato ancora inviato alle scuole e, comunque, non è prevista una sua utilizzazione per analizzare le variabili di contesto (scolastico) in rapporto ai risultati conseguiti dagli studenti nelle prove. Ulteriori critiche vengono rivolte all’attendibilità e alla trasparenza delle procedure di rilevazione, alla valenza culturale delle prove, all’uso dei risultati della rilevazione.

Le ambiguità e le contraddizioni

Queste critiche sarebbero già di per sé abbastanza rilevanti. In realtà la situazione è ancora peggiore, gli elementi di ambiguità e di contraddizione sono più numerosi.
Innanzitutto, permane l’ambiguità sull’oggetto delle rilevazioni. Leggendo i vari documenti normativi e i materiali pubblicati sul sito dell’Invalsi, di volta in volta si parla di Osa, di conoscenze e abilità, di competenze. Su questo punto specifico va ricordato che la legge di riforma riserva esplicitamente alle rilevazioni nazionali il compito di individuare soltanto le conoscenze e le abilità, ma non le competenze, la cui valutazione è spetta in modo esclusivo degli insegnanti.
In secondo luogo, anche se l’obiettivo dichiarato sembra essere quello di contribuire alla valutazione del sistema scolastico, la decisione di condurre una rilevazione non campionaria, ma censimentaria farebbe pensare alla volontà di utilizzare i risultati delle rilevazioni per valutare le singole scuole. Del resto, il ministro Moratti ha più volte affermato che, grazie al Servizio nazionale di valutazione, i genitori avranno utili elementi di giudizio per decidere a quale scuola iscrivere i propri figli.
In terzo luogo, il periodo dell’anno scolastico in cui vengono effettuate le rilevazioni è quanto meno singolare. Non siamo ancora alla fine dell’anno scolastico e quindi le rilevazioni non possono riferirsi a quanto gli studenti hanno acquisito nelle classi che stanno frequentando. D’altro canto, sono passati ormai troppi mesi perché le rilevazioni possano essere destinate a misurare i risultati conseguiti nel precedente anno scolastico.  È chiaro quindi che, da questo punto di vista, la rilevazione non è né carne, né pesce. Ma dopo tre progetti pilota non è più accettabile che ancora si parli di una prova volta a “testare la macchina organizzativa”. La riforma prevede che queste rilevazioni debbano in futuro essere effettuate all’inizio dell’anno scolastico per poter essere utilizzate in funzione diagnostica da parte degli insegnanti e delle scuole. Chi abbia un minimo di consuetudine con i problemi connessi alla realizzazione di rilevazioni su scala così larga e con i problemi legati alla elaborazione e alla analisi dei dati, sa bene che tutto ciò richiede alcuni mesi di lavoro e che quindi tale obiettivo è chiaramente non perseguibile.
Un quarto motivo di ambiguità, anzi di forte critica, è relativo alla qualità delle prove utilizzate e delle modalità con cui sono state elaborate. Fino ad ora non un solo dato è stato reso pubblico sulle caratteristiche metriche delle prove.
Preoccupa anche il fatto che tali prove non sono accompagnate – come è prassi normale in tutte le indagini – da questionari volti ad acquisire informazioni sulle variabili di contesto. In che modo interpretare, quindi, i dati raccolti? L’assenza di informazioni su tali variabili sarebbe giustificabile solo se la rilevazione avesse per obiettivo la certificazione di livelli di prestazione predefiniti. Ma questo non accade nelle “valutazioni di sistema” e, comunque, presuppone la definizione di standard di prestazione, articolati per ciascun anno scolastico, che nessuno ha provveduto a predisporre.

I rischi e i danni in prospettiva futura

Purtroppo, le reazioni negative determinate dal modo in cui le rilevazioni vengono impostate e realizzate stanno trasformandosi in un rifiuto generalizzato nei confronti della valutazione tout court. Il rischio è che sarà sempre più difficile distinguere tra posizioni di conservazione, contrarie a qualsiasi introduzione di momenti seri di valutazione nel nostro sistema scolastico, e posizioni che giustamente individuano le ambiguità e le caratteristiche negative delle rilevazioni in atto. Per anni, si è parlato della necessità di lavorare per la diffusione di una cultura della valutazione nella scuola, tra gli insegnanti e anche tra studenti e genitori.
L’impressione è che la (scarsissima) qualità delle rilevazioni proposte dall’Invalsi nell’ambito del nuovo sistema di valutazione vadano in direzione opposta, con il rischio di buttare il “bambino” della valutazione insieme all’acqua sporca delle rilevazioni di quest’anno.

Quanto conta il bravo maestro, di Salvatore Modica

È da poco apparsa su Econometrica una importante ricerca sulla qualità della scuola, alla quale hanno lavorato studiosi che si occupano di scuola da trent’anni. Le due questioni che l’articolo affronta sono queste: quanto contano gli insegnanti nel determinare la qualità dell’apprendimento? E cosa determina la qualità degli insegnanti?

Un insegnante vale l’altro?

A giudicare dall’alacrità con cui i genitori si informano sui possibili insegnanti dei figli, e da tutto quello che sono disposti a fare per ottenere che i figli entrino nelle classi degli insegnanti che vengono giudicati bravi, sembrerebbe del tutto evidente che la risposta alla prima domanda non possa che essere: “gli insegnanti contano quasi più di tutto il resto”.
Il problema è che quando per la prima volta, negli Stati Uniti con il Coleman Report del 1966 si cominciarono a misurare gli effetti delle caratteristiche principali degli insegnanti, quali per esempio la loro esperienza di insegnamento e il loro livello di istruzione, sui risultati degli alunni, si trovò che risultavano sorprendentemente deboli. Da allora, le ricerche si sono ovviamente moltiplicate, gli strumenti di misurazione raffinati, sono poi cominciati ad arrivare risultati dei test sulla qualità dell’apprendimento, si sono evolute le tecniche econometriche di analisi dei dati, e così via. Tutte queste ricerche non hanno fatto altro che riconfermare quelle strane conclusioni del Coleman Report: le caratteristiche che comunemente si pensa stiano alla base della qualità degli insegnanti non influenzano più di tanto la qualità dell’apprendimento. Pochi credo abbiano pensato di potersi basare su questa pur schiacciante evidenza per dire convinti a un genitore “Rilassati, in fin dei conti un insegnante vale l’altro”. Ma come dimostrare il contrario?
La svolta è arrivata con l’idea di un gruppo di ricerca della University of Texas, guidato da
Eric Hanushek. I ricercatori disponevano di campioni longitudinali adiacenti (sequenze di due coorti di studenti elementari e medi), e hanno potuto misurare la correlazione fra i loro rendimenti prima nello stesso anno (quando le coorti avevano insegnanti diversi), e dopo in anni adiacenti (quando le coorti passavano dallo stesso anno di corso e dallo stesso insegnante). (1)

Il principale risultato osservato è che la correlazione era alta fra i rendimenti scolastici di due coorti esposte allo stesso insegnante (entrambe buone o entrambe scarse), mentre nello stesso anno solare la correlazione era praticamente zero (il risultato di una coorte non diceva nulla su quello dell’altra). (2)

Questa era finalmente un’evidenza forte, anche se indiretta: i dati erano perfettamente compatibili con una realtà sottostante in cui l’elemento che fa la differenza è l’insegnante. Tuttavia, fino a questo punto, avrebbe potuto trattarsi di correlazione spuria, ovvero di un legame solo apparente tra fenomeni, in realtà spiegabili da eventi esterni non osservabili.
Le tecniche econometriche correntemente utilizzate permettono però l’identificazione diretta dell’effetto dell’insegnante sull’apprendimento, grazie all’utilizzo di modelli a effetti fissi, che tengano conto delle regolarità ricorrenti associate ai fattori familiari, a quelli della scuola e per l’appunto quelli relativi all’insegnante. In un modello di questo tipo, in pratica, si riesce a misurare quanto sistematicamente migliora l’apprendimento di uno studente esposto all’attività didattica di un insegnante, al netto delle caratteristiche ricorrenti sia nella famiglia dello studente che nelle caratteristiche della scuola frequentata. Solo così ci si pone al riparo della classica obiezione che dice “non si può confrontare il contributo all’apprendimento dovuto a diversi insegnanti, perché gli insegnanti operano in contesti socio-culturali molto diversificati”. È evidente che uno studente del liceo in media possiede più competenze di uno studente della scuola professionale, ma è meno evidente che le sue competenze crescano relativamente di più quando viene esposto a un buon insegnante, di quanto non possa per esempio accadere allo studente delle scuole professionali.
Con questa metodologia i risultati attesi sono emersi: l’insegnante risulta influenzare il rendimento dello studente in misura apprezzabile. È difficile ottenere misure precise, ma il paragone con la numerosità delle classi rende l’idea: un incremento del dieci per cento nella qualità dell’insegnante equivarrebbe all’effetto quasi di un dimezzamento del numero di alunni per classe.
Risultato addizionale, anche quello non inatteso, e che l’effetto insegnante va scemando con l’età dello studente.

La qualità della classe docente

Allora tutto a posto? Purtroppo niente affatto. Perché siamo rimasti che la qualità dell’insegnante è certamente importante, ma non dipende dalle variabili che si possono influenzare più facilmente, tipo il suo livello di istruzione. L’insegnante brava è brava perché è brava, punto e basta; ognuno può dire la sua (la mia è che è brava quando ci mette il cuore), ma niente che sia facile da tradurre in misure concrete di intervento pubblico.
Cosa suggerisce il gruppo di Hanushek? Testualmente, loro osservano che “the substantial differences in quality among those with similar observable backgrounds highlight the importance of effective hiring, firing, mentoring and promotion practices”. Elegantemente, “segnalano l’importanza di” una politica del personale di tipo privatistico. I termini usati sono molto americani, ma in sostanza vogliono solo suggerire che “un più stretto legame fra rendimenti e premi alzerebbe alla lunga il livello della classe insegnante”. Questo piaccia o no è difficile da contestare, sicché sembrerebbe più utile cominciare subito a pensare come farlo meglio, piuttosto che discutere se sia giusto farlo o meno. Il che non è una faccenda da poco, perché la “azienda scuola” ha centinaia di migliaia di dipendenti, non una dozzina.
Resta la legittima aspirazione dell’insegnante a far bene, che è fra l’altro completamente in linea con gli interessi dei beneficiari del servizio da loro fornito. E a questa non si può semplicemente rispondere “Se ce la fai bene, altrimenti a casa”.
Come migliorare la qualità dell’insegnante è l’altro tema su cui potrebbe essere utile (ri)focalizzare la discussione alla luce della nuova evidenza empirica. Anche qui la strada è lunga e sarà inevitabile procedere in modo sperimentale. Giusto per dirne una, se qualcosa di impalpabile sta sotto la capacità di insegnare, cioè di trasmettere, comunicare nuova conoscenza, allora potrebbe essere utile mandare i giovani insegnanti a vedere da vicino, cioè da dentro la classe, cosa/come fanno i docenti più bravi, non per dieci ore, ma per mille (due al giorno per due anni).

(1) In pratica, negli esperimenti cui i dati si riferiscono c’è un insegnante per anno (per eliminare l’effetto scuola i dati utilizzati riguardano solo scuole nelle quali esistono osservazioni per entrambi gli anni), e si procede così: si registrano i risultati di N classi “prime” ed N “seconde”, in N scuole, per esempio nell’anno 2000, siano essi P(1),…P(N) ed S(1),…S(N). Poi nel 2001 si registrano i risultati delle ex-prime diventate seconde, diciamo SS(1),…SS(N). Si noti che essendoci un insegnante per anno in ogni scuola, P ed S non hanno lo stesso insegnante, mentre S ed SS sì. Le correlazioni misurate sono fra P ed S e fra S ed SS.

(2) In termini delle variabili sopra definite, la correlazione fra S ed SS è alta (cioè in genere S(n) e SS(n) sono entrambe alte — possibilmente l’insegnante della scuola è bravo — o entrambe basse — possibilmente l’insegnante è scarso; mentre la correlazione è bassa fra P e S (la relazione fra P(n) e S(n) non è regolare – possibilmente perché in alcune scuole è più bravo l’insegnante di P, in altre quello di S).

Miti e realtà della scuola italiana, di Andrea Prat

In molti paesi sviluppati, dagli Stati Uniti alla Germania, è in corso un dibattito profondo sul futuro della scuola. In Italia, invece, si parla molto di alcune vicende specifiche, come i buoni per la scuola privata decisi da alcune Regioni, ma manca un dibattito a tutto campo su come vogliamo che l’istruzione evolva nei prossimi decenni. Anche staging.lavoce.info ne ha parlato poco, ad eccezione di alcuni interventi molto interessanti di Solomon Gursky e Daniele Checchi.

I miti da sfatare

In questo intervento vorrei fare un confronto, molto rozzo, tra la scuola italiana e quella di altri paesi sviluppati e non. Cominciamo sfatando alcuni miti:
Tutto sommato, la scuola italiana non è male. Un confronto internazionale tra sistemi scolastici è svolto dal Programme for International Student Assessment dell’Ocse. Invito i lettori de staging.lavoce.info a consultare i rapporti del 2000 e del 2003, disponibili sul sito Pisa. Tali rapporti, basati su test svolti da 4.500/10mila quindicenni per paese, indicano senza ombra di dubbio che gli italiani hanno risultati peggiori dei loro coetanei degli altri paesi dell’Europa occidentale (con la possibile eccezione, ma solo in alcuni casi, della Grecia e del Portogallo). Questo vale per tutte e tre le aree considerate: scienze, lettura e matematica. I nostri risultati sono peggiori anche di quelli di paesi con un Pil pro capite più basso del nostro, come Spagna, Corea del Sud e molti paesi dell’Europa dell’Est. (1)
Il problema è che mancano le risorse. Al contrario, l’Italia è uno dei paesi al mondo con la spesa per studente più alta (vedi Tabella 1). Solo l’Austria, la Svizzera e gli Stati Uniti spendono di più. Spendiamo il 50 per cento in più della Germania, che ci batte sistematicamente in tutte le materie. (2)

Tabella 1

Spesa cumulativa per studente (dai 6 ai 15 anni)

in dollari PPP adjusted

Australia

58 480

Austria

77 255

Belgio

63 571

Canada

59 810

R. Ceca

26 000

Danimarca

72 934

Finlandia

54 373

Francia

62 731

Germania

49 145

Grecia

32 990

Ungheria

25 631

Islanda

65 977

Irlanda

41 845

Italia

75 693

Giappone

60 004

Corea

41 802

Messico

15 312

Olanda

55 416

Norvegia

74 040

Polonia

23 387

Portogallo

48 811

Slovacchia

14 874

Spagna

46 774

Svezia

60 130

Svizzera

79 691

Stati Uniti

79 716

Il problema è la Moratti. Al di là dell’opinione che si può avere sull’operato di Letizia Moratti (la mia è molto negativa), la situazione era più o meno la stessa nel rapporto Pisa 2000.

I fatti

E adesso passiamo ai tre fatti.
In Italia ci sono tanti insegnanti. Secondo dati Ocse 2002, il numero di studenti per insegnante in Italia è ai minimi mondiali. La Tabella 2 riporta i dati per le quattro maggiori nazioni europee. Questo spiega perché in Italia la spesa per studente è così alta.

Tabella 2

Germania

Francia

GB

Italia

Primaria

18,9

19,4

19,9

10,6

Secondaria inferiore

15,7

13,7

17,6

9,9

Secondaria superiore

13,7

10,6

12,5

10,3

Manca un meccanismo di valutazione esterna degli studenti. Le commissioni esaminatrici ai vari livelli sono composte unicamente o in maggioranza da membri interni. Questa situazione è stata peggiorata dal ministro attuale, ma esisteva già prima. Nella maggior parte degli altri paesi europei esistono meccanismi di valutazione esterni, che cercano di offrire un giudizio imparziale e standardizzato. (3)
Manca un meccanismo di valutazione esterna degli insegnanti e delle scuole. La valutazione esterna degli studenti non serve solo per valutare gli studenti, ma permette anche di formare un’opinione, seppure imperfetta, sulla qualità dei singoli insegnanti e delle singole scuole. In Italia, ciò è impossibile. L’esperienza di altri paesi – soprattutto della Gran Bretagna e degli Stati Uniti – dimostra che quando ci si rende conto che un sistema scolastico non funziona non esistono soluzioni facili, e soprattutto non esistono soluzioni rapide. I sistemi di valutazione presentano problemi enormi e in alcuni casi possono essere controproducenti. (4)
Altre opzioni, come l’autonomia scolastica, gli incentivi per gli insegnanti o la libertà di scelta della scuola da parte dei genitori, sono controverse. Non esiste consenso su quale sia il sistema ideale. Però non possiamo continuare a nascondere la testa sotto la sabbia. La scuola italiana è in crisi. E non possiamo dire che non ci sono i soldi o che è tutta colpa di questo Governo. I mali della nostra scuola hanno radici profonde. È ora di aprire un dibattito a tutto campo, senza escludere a priori alcuna alternativa.

(1) Il rapporto Pisa mostra come, a parità di scuola, i risultati del singolo studente dipendano dalla situazione socio-economica della sua famiglia. Quindi gli studenti italiani potrebbero andare peggio di quelli tedeschi perché in media le famiglie italiane sono meno ricche ed istruite di quelle tedesche. Però, questo ragionamento non spiega perché gli studenti italiani vadano peggio di tutta una serie di paesi con condizioni socio-economiche meno avanzate. Su staging.lavoce.info Salvatore Modica nell’articolo “L’educazione di Zu’ Vice’” ha messo in evidenza un’importante differenza tra i risultati dei ragazzi del Nord e di quelli del Sud. Sarebbe interessante capire quanta parte di questo divario è dovuta all’eterogeneità delle condizioni socio-economiche piuttosto che a differenze nel sistema scolastico.

(2) Non è neanche vero che gli insegnanti italiani siano necessariamente sottopagati. È vero che alcuni paesi, come la Germania e la Svizzera offrono stipendi nettamente più alti. Però i dati Ocse (2002) mostrano che un insegnante di secondaria superiore italiano di prima nomina guadagna come il suo collega francese o inglese (circa 25mila dollari all’anno).

(3) Anche negli Stati Uniti manca, per tradizione, un sistema nazionale di valutazione. Per un’analisi del costo di introdurre tale sistema si veda Caroline Hoxby, The cost of accountability.

(4) Si veda ad esempio il lavoro di Jacob e Levitt, Catching Cheating Teachers: The Results of an Unusual Experiment in Implementing Theory.

Le Retribuzioni Perverse dell’Universita’ Italiana, di Stefano Gagliarducci, Andrea Ichino, Giovanni Peri e Roberto Perotti

La “fuga dei cervelli” dall’Italia ha recentemente trovato spazio nelle prime pagine dei quotidiani ed è stata ampiamente confermata da numerose analisi statistiche. Tuttavia, ciò che forse dovrebbe fare riflettere maggiormente è che quasi nessun ricercatore straniero è attratto dal nostro paese. Nei corsi di Dottorato Italiani soltanto il 2% degli studenti proviene dall’estero e, in tutto, meno di 3,500 persone provenienti da altri paesi dell’Unione Europea lavorano nel settore scientifico-tecnologico in Italia. Nel Regno Unito (e risultati simili valgono per altri paesi europei) il 35% degli studenti nei corsi di Ph.D. sono stranieri e piu’ di 42,000 cittadini della U.E. (non Britannici) lavorano come ricercatori in quel paese.
Il nostro obiettivo in questo contributo (che si basa su Gagliarducci, Ichino, Peri e Perotti, 2005) e’ di illustrare tre punti fondamentali. Primo, mostrare che – contrariamente ad una interpretazione diffusa – un’ analisi corretta dei dati bibliometrici rivela che la qualita’ della produzione scientifica Italiana e’ modesta. Secondo, discutere come l’attuale sistema di remunerazioni e carriere induca incentivi sbagliati e allontani i “talenti”. Terzo, formulare una proposta di riforma a costo zero che modifichi profondamente il sistema di incentivi attuali.

Produttivita’ Scientifica dei Ricercatori Italiani

La prima e la seconda colonna della Tavola 1 mostrano il numero medio di pubblicazioni e di citazioni per ricercatore (nei settori di Scienza e Ingegneria) durante il periodo 1997-2001 (i dati sul numero dei ricercatori si riferiscono al 1999). L’Italia risulterebbe avere un rapporto “pubblicazioni / ricercatore” e “citazioni / ricercatore” tra i piu’ alti in assoluto (si vedano le colonne 1 e 2 della Tavola 1). Questi risultati, apparentemente incoraggianti, sono stati ampiamente citati nella stampa italiana, in particolare nella risposta del ministro Moratti ad un articolo di Francesco Giavazzi sul Corriere della Sera del 22 Novembre 2004. C’è tuttavia qualcosa di strano in questi dati: gli Stati Uniti appaiono agli ultimi posti di questa classifica – un risultato assai implausibile. Il mistero è facilmente svelato: la definizione di ricercatore include una varietà di figure professionali, ma le pubblicazioni scientifiche provengono per la maggior parte da una sola di queste figure: i ricercatori accademici. Essi sono una maggioranza nei paesi sud europei inclusa l’ Italia, ma sono una minoranza (e molto piccola negli Stati Uniti) in quasi tutti gli altri paesi. Quando al denominatore usiamo i ricercatori accademici l’Italia ha rapporti “pubblicazioni / ricercatore” (colonna 4) e “citazione / ricercatore” (colonna 5) ben inferiori agli USA, ma anche a Regno Unito, Olanda e Danimarca.
Una misura della qualità, anziché della quantità, di pubblicazioni è data dal loro fattore di impatto, cioè dal numero di citazioni che essa riceve. La colonna 6 della Tabella 1 mostra il numero medio di citazioni per lavoro pubblicato nel periodo 1997-2001. L’Italia ha un valore simile alla Francia, e superiore solo a Spagna e Portogallo.

Retribuzioni

Il sistema retributivo italiano ha tre caratteristiche. Primo, la progressione retributiva dipende quasi esclusivamente dall’ anzianità di servizio: all’interno di ciascuna categoria di docenza (Ricercatore, Associato, Ordinario), la produttività è completamente irrilevante per la determinazione del salario. Le analisi di Daniele Checchi (1999) di Roberto Perotti (2002) mostrano chiaramente che il numero di pubblicazioni ha un’influenza marginale nelle decisioni di promozione di categoria. Secondo, il profilo temporale della progressione salariale è molto “ripido”: si guadagna poco a inizio carriera, ma l’ anzianità viene remunerata molto bene. Consideriamo un giovane che diventi ricercatore a 25 anni, associato a 35 anni e ordinario a 45 anni: tra inizio e fine carriera il suo salario aumenta di un fattore pari a 5, sostanzialmente per effetto della sola anzianita’ (vedi Tabella 2).
Terzo, per effetto di questa progressione, e contrariamente ad una credenza assai diffusa, un ordinario italiano con 35 annni di anzianità è ben pagato anche rispetto ai suoi colleghi statunitensi. Come si vede confrontando la Tabella 2 con la Tabella 3, egli riceve un salario superiore a quello dell’ 80 percento dei professori ordinari nelle migliori università statunitensi (quelle con un programma di PhD), e superiore a quello del 95 percento degli ordinari nelle università con al più un corso di master (la stragrande maggiornaza delle università americane).
Il sistema retributivo dei docenti universitari negli Stati Uniti segue regole assai diverse. Il salario è negoziato individualmente, ed è quindi funzione delle opportunità di lavoro alternative, cioè, essenzialmente, dalla produttività di un professore. In conseguenza, a qualsiasi livello di anzianità la dispersione salariale è molto elevata (mentre in Italia è nulla). Ad esempio il rapporto tra i salario massimo (113,636 euro nelle piu’ prestigiose università con corsi di Ph.D.) e minimo (27,273 euro in un community college) di un assistant professor (ricercatore) è pari a circa 4.2. E un assistant professor di 25 anni molto produttivo e promettente può benissimo guadagnare ben più di un ordinario a fine carriera ma poco produttivo. D’altro canto, la progressione salariale in carriera è sempre ancorata alla produttività scientifica e non così accentuata come in Italia: a fine carriera un ottimo professore guadagna tra 1.5 e 2 volte il suo salario iniziale.
Questa è esattamente la struttura salariale che ci si apetterebbe se il salario fosse usato come strumento per incentivare la produttività e per premiare gli anni di ricerca più produttivi, che tipicamente sono quelli da inizio fino a metà carriera.

Proposte per una Riforma

La causa principale dei problemi dell’ università italiana non è dunque la mancanza di fondi, bensì l’esistenza di meccanismi sbagliati di distribuzione delle risorse. Le nostre proposte sono quindi volte a modificare il sistema di incentivi in modo che, a parità di risorse, nell’accademia italiana venga premiata l’eccellenza scientifica secondo parametri condivisi dalla comunità internazionale. Il nostro lavoro “Lo Splendido Isolamento dell’ Università Italiana” discute queste proposte in maggiore dettaglio.

1. Liberalizzare le retribuzioni del personale accademico.
2. Liberalizzare le assunzioni: ogni università assume chi vuole e come vuole; di conseguenza, è abolito l’attuale sistema concorsuale.
3. Liberalizzare i percorsi di carriera: ogni università promuove chi e come vuole.
4. Liberalizzare completamente la didattica: ogni università è libera di organizzare i corsi come vuole e di offrire i titoli che preferisce.
5. Liberalizzare le tasse universitarie: ogni università si appropria delle tasse pagate da i propri studenti.
6. In alternativa alla proposta precedente, mantenere il controllo pubblico sulle tasse universitarie aumentandole però considerevolmente.
7. Utilizzare i risparmi statali così ottenuti per istituire un sistema di vouchers, borse di studio e prestiti con restituzione graduata in base al reddito ottenuto dopo la laurea.
8. Allocare ogni eventuale altro finanziamento statale alle università in modo fortemente selettivo sulla base di indicatori di produttività scientifica condivisi dalla comunità internazionale.
9. Consentire l’accesso a finanziamenti privati senza limitazioni.
10. Abolire il valore legale del titolo di studio.

Tabella 1. La produttività e la qualità dei ricercatori italiani

pubblicazioni / ricercatori tot

citazioni / ricercatori tot

Ricercatori accademici / ricercatori tot

pubblicazioni / ricercatori accademici

citazioni / ricercatori accademici

impact factor medio

impact factor standardizzato

1

2

3

4

5

6

7

USA

1.00

8.60

0.15

6.80

58.33

8.57

1.48

Germania

1.25

8.64

0.26

4.77

32.98

6.91

1.33

Regno Unito

2.17

15.86

0.31

6.99

51.00

7.30

1.39

Francia

1.45

9.43

0.35

4.09

26.68

6.52

1.12

Italia

2.26

14.81

0.38

5.88

38.57

6.56

1.12

Spagna

1.68

9.09

0.55

3.06

16.54

5.41

.97

Portogallo

0.86

3.99

0.52

1.65

7.62

4.62

.82

Danimarca

1.96

15.57

0.30

6.50

51.56

7.93

1.48

Olanda

2.29

18.79

0.31

7.41

59.58

8.20

1.39

Canada

1.68

11.79

0.33

5.04

35.28

7.00

1.18

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Definizioni: Colonna 6: impact factor: definito come numero totale di citazioni / numero totale di pubblicazioni, entrambe per il periodo 1997-2001;. Colonna 7: impact factor standardizzato, 2002; vedi testo per la definizione.
Fonti: Pubblicazioni e citazioni: King (2004), dati riferiti agli anni 1997-2001; Impact factor standardizzato: King (2004), dati riferiti al 2002; Numero di ricercatori: OECD, Main Science and Technology Indicators database, dati 1999 (1998 per Regno Unito). Il numero di ricercatori è espresso in unità full time equivalent.

Tabella 2. Distribuzione dei salari accademici in Italia

Anzianità di servizio

in anni

Professore Ordinario

a tempo pieno

Professore Associato

a tempo pieno

Ricercatore

a tempo pieno

0 (non conf.)

47631

36053

20225

3

50412

37999

29244

5

54207

40684

31150

7

56900

42596

32516

9

60696

45280

34422

11

63388

47192

35788

13

67184

49876

37694

15

70979

52560

39601

17

73968

54683

41117

19

76957

56806

42633

21

79946

58928

44149

23

82935

61051

45665

25

85924

63174

47181

27

88913

65296

48698

29

91902

67419

50214

31

94891

69542

51730

33

96735

70851

52665

35

98578

72160

53600

37

100421

73469

54535

39

102264

74778

55470

Media

77242

57020

42415

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati aggiornati all’anno 2004. La tabella riporta il salario annuo in euro al lordo delle tasse per le tre categorie di docenti italiani al variare della anzianità di servizio, secondo la tabella elaborata dal CNU di Bari e pubblicata sul sito http://xoomer.virgilio.it/alpagli/. Poiché non disponiamo della distribuzione dei docenti italiani per anzianità, le retribuzioni medie nell’ultima riga sono calcolate ipotizzando una distribuzione uniforme.

Tabella 3. Distribuzione dei salari accademici negli Stati Uniti

Università con corsi undergraduate

e corsi di dottorato

Università con corsi undergraduate

e corsi di master

College senza corsi graduate

Percentile

Full

Associate

Assistant

Full

Associate

Assistant

Full

Associate

Assistant

1

49,091

38,182

30,909

41,818

34,545

29,091

36,364

29,091

27,273

5

56,364

43,636

36,364

47,273

40,000

32,727

41,818

34,545

32,727

10

68,969

52,678

44,994

53,526

44,728

38,386

42,749

37,871

32,906

20

73,139

55,133

46,742

56,721

47,005

40,217

47,956

40,698

35,404

30

77,091

57,091

48,378

59,075

48,733

41,338

51,109

42,951

37,047

40

79,738

58,875

50,493

61,465

50,515

42,336

53,589

44,857

38,552

50

83,820

61,747

51,825

63,913

51,879

43,435

56,944

46,835

39,592

60

89,466

63,622

54,266

66,523

53,535

44,788

59,843

48,796

40,931

70

94,616

65,989

55,896

70,540

55,623

46,265

63,037

50,730

42,147

80

98,730

69,816

58,476

75,203

58,567

48,661

67,198

53,529

44,383

90

108,003

73,599

63,804

81,060

63,645

51,465

78,941

59,007

48,832

95

119,212

79,177

65,953

86,323

66,372

53,279

86,854

64,672

51,373

99

195,455

122,727

113,636

122,727

92,727

80,000

122,727

83,636

69,091

Media

91,529

62,400

53,251

69,193

54,555

45,417

65,293

50,392

41,901

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati riferiti all’anno accademico 2003-04. La tabella riporta i percentili in euro della distribuzione del salario annuo al lordo delle tasse per i Full Professor, gli Associate Professor e gli Assistant Professor in tre categorie di università degli Stati Uniti. La fonte è il rapporto della AAUP (2004), in particolare le Tabelle 4, 8 e 9a. I dati si riferiscono a 1446 università per un totale di 1775 campus. Per la conversione della valuta abbiamo utilizzato il tasso di cambio corretto per Purchasing Power Parity pari a 1.11 dollari per euro.

Bibliografia:

Checchi, D., 1999, Tenure. An Appraisal of a National Selection Process for Associate Professorship, Giornale degli Economisti ed Annali di Economia, 58 (2), 137-181.

Gagliarducci S., A. Ichino , G.Peri e R. Perotti (2005) “Lo Splendido Isolamento dell’ Universita’ Italiana” Working Paper, Fondazione Rodolfo De Benedetti, Milano, www.igier.uni-bocconi.it/perotti.

Kalaitzidakis P., Stengos T. e Mamuneas T.P., 2003, Rankings of Academic Journals and Institutions in Economics, Journal of the European Economic Association, 1 (6), 1346-1366.

Perotti, R., 2002, The Italian University System: Rules vs. Incentives, www.igier.uni-bocconi.it/perotti

Pagina 2 di 4

Powered by WordPress & Theme by Anders Norén