Román Reyes (Dir): Diccionario Crítico de Ciencias Sociales

Método e Técniche nelle Scienze Sociale  
 
Giancarlo Gasperoni y Alberto Marradi
Universitá degli Studi di Firenza

>>> ficha técnica
 
 
[I capitoli 1 e 2 sono stati redatti da Alberto Marradi; gli altri capitoli sono stati redatti da Giancarlo Gasperoni]
SOMMARIO: 1. Il metodo: a) il termine nel linguaggio comune; b) concetti di metodo nelle riflessioni sulla scienza; c) metodo, metodi, metodologia.
2. Tecnica per conoscere e per intervenire: a) le tecniche per conoscere; b) metodologia (e metodo) fra gnoseologia/epistemologia e tecnica.
3. Una classificazione delle tecniche per conoscere usate nelle scienze sociali.
4. Tecniche di raccolta: a) scelta delle unità; b) rilevazione non strutturata; c) rilevazione di informazioni process-produced
d) rilevazione strutturata; e) produzione e rilevazione. 5. Tecniche di analisi: a) analisi ermeneutica; b) analisi dei datiBibliografia.


1. Metodo

1a. Il termine nel linguaggio comune.

    Oltre che al linguaggio filosofico-scientifico, il termine ‘metodo’ appartiene al linguaggio comune. In tutta la gamma, peraltro non molto estesa, di significati che assume nel linguaggio comune esso si incontra di frequente anche nelle opere classiche delle scienze sociali. Ecco una breve lista senza alcuna pretesa di esaustività:
a) criterio: “ogni società deve avere un metodo per distribuire ai suoi membri i beni materiali che produce” (v. Homans, 1950, p. 275);
b) modo (fra vari alternativi): “Un nobile ha vari metodi di perdere il suo stato: la sconfitta militare, la vendita della sua patente...” (v. Sorokin, 1947, p. 259); “Nulla sarebbe visto con più sospetto di questo metodo per espandere la produzione” (v. Galbraith, 1958, p. 106);
c) strada (per conseguire un fine): “La fede in una dose maggiore di pianificazione e di nazionalizzazioni come metodo di miglioramento economico” (v. Goldthorpe et al., 1968, p. 23); “L’ideale di uguaglianza è forte ma non ha metodi regolari e garantiti per affermarsi” (v. Cooley, 1909, p. 14);
d) procedura ricorrente, prassi: “Secondo il vecchio metodo di passare da madre a figlia le nozioni tradizionali di economia domestica” (v. Lynd e Lynd, 1929, p. 157); “I vecchi metodi per chiedere deferenza divennero sempre meno percorribili” (v. Collins, 1975, p. 224); “Stanno ancora trascurando l’erosione sociale ascrivibile all’attuale metodo di introdurre rapidi cambiamenti tecnologici” (v. Merton, 1949, p. 325);
e) procedimento: “Tutti i metodi noti di valutare o calcolare il tempo comportano ripetizioni” (v. Giddens, 1979, p. 204);
f) tecnica: “I metodi per soddisfare la fame e la sete sono appresi con l’esperienza e con l’insegnamento” (v. Hobhouse, 1906, p. 2); “A causa del miglioramento nei metodi agricoli la terra è in grado di sostenere una maggiore popolazione” (v. Riesman et al., 1950, p. 14);
g) artificio, trucco: “Tutti i metodi conosciuti per dissolvere una folla implicano un qualche metodo per distrarre l’attenzione...” (v. Park e Burgess, 1921, pp. 876-877).
    Il termine nacque in greco, come composto del sostantivo o‘?o´? (strada) e della preposizione ???a´, che aveva vari significati: quello che entrava in gioco in questo caso era il significato ‘con’. Etimologicamente il composto significava quindi “strada con [la quale]”, e dal sostantivo ‘strada’ (o,‘do,´V) esso ereditava il genere femminile, che trasmise poi ai suoi derivati francese e tedesco. All’etimo rimase vicino il significato nel linguaggio comune greco (successione di atti miranti a conseguire un fine).
    Nel “Fedro” Platone parla del metodo di Ippocrate e del metodo dei retori, in un senso che non pare diverso da quello del linguaggio comune. Aristotele e autori successivi rafforzano l’idea di percorso ricorrendo spesso all’espressione "la direzione del cammino". L’idea di una successione di passi è sottolineata anche dai logici di Port Royal: “ars bene disponendi seriem plurimarum cogitationum” (v. Arnauld e Nicole, 1662).

1b. Concetti di metodo nelle riflessioni sulla scienza.

    L’accentuazione degli aspetti intellettuali nel significato del termine è già evidente quando Jean Bodin dedica (v., 1566) una riflessione specifica al metodo nelle scienze storico-politiche. Cartesio fa della riflessione sul metodo il cardine della sua posizione filosofica (v., 1637), e — nella quarta Regula ad directionem ingenii (v., 1628) — dà una celebre definizione di metodo come “delle regole certe e facili che, da chiunque esattamente osservate, gli renderanno impossibile prendere il falso per vero, senza consumare inutilmente alcuno forzo della mente, ma aumentando sempre gradatamente il [suo] sapere, lo condurranno alla conoscenza vera di tutto ciò che sarà capace di conoscere”.
    Questa natura universale del metodo era già stata sottolineata qualche anno prima da Bacone nell’aforisma 122 del Novum Organum (v., 1620): “Il nostro metodo di ricerca mette quasi alla pari tutti gli ingegni, perché lascia poco spazio alle capacità individuali, ma le lega con regole solidissime e con dimostrazioni”.
    Non può sfuggire la straordinaria consonanza delle posizioni di questi pensatori che per altri aspetti i testi di storia della filosofia contrappongono:
a)  le regole sono facili, automatiche (“senza consumare alcuno sforzo della mente”), buone per tutti (“da chiunque”, “mette alla pari tutti gli ingegni”);
b) sono anche cogenti per tutti, non lasciando margini di intervento alle conoscenze, capacità, iniziative personali (“regole certe, esattamente osservate”, “lascia poco spazio alle capacità individuali, ma le lega con regole solidissime e con dimostrazioni”);
c) se seguite e rispettate, “condurranno alla conoscenza vera”.
    Sull’onda dei successi che la matematizzazione della scienza ha già conseguito con Keplero e Galilei, e sta conseguendo con Newton, si afferma “l’idea pitagorico-platonica di un metodo matematico universale, applicabile in tutti i campi della conoscenza scientifica” (v. Berka, 1983, p. 8). In tal modo si possono coniugare verum e certum, parlare del mondo con la certezza di dire cose vere che garantisce la matematica: è la stessa coniugazione che tenterà e proclamerà possibile (sin dall’etichetta che si sceglie) l’empirismo logico.
    Il concetto di un programma che regoli in anticipo una serie fissa e invariabile di operazioni da compiere per raggiungere la conoscenza scientifica su un qualsiasi argomento è tuttora uno dei significati prevalenti dell’espressione ‘metodo scientifico’ — anche se raramente si arriva a specificare proprio la lista delle operazioni. Vi sono arrivati, per esempio, due sociologi inglesi redigendo la voce Scientific Method del loro dizionario di sociologia (v. Theodorson e Theodorson, 1970, p. 370): “L’applicazione del metodo scientifico a un problema comporta i seguenti passi. Primo, il problema è definito. Secondo, il problema è formulato nei termini di un particolare quadro teorico, e collegato ai risultati rilevanti delle ricerche precedenti. Terzo, si immaginano una o più ipotesi relative al problema, utilizzando principi teorici già accettati. Quarto, si determina la procedura da usare nel raccogliere dati per controllare l’ipotesi. Quinto, si raccolgono i dati. Sesto, si analizzano i dati per appurare se l’ipotesi è verificata o respinta. Infine, le conclusioni dello studio sono collegate al corpus precedente della teoria, che viene modificato per accordarlo alle nuove risultanze”.
    Si tratta, come il lettore avrà osservato, del cosiddetto “metodo ipotetico-deduttivo” elaborato dalla riflessione filosofica sulla fisica dal Seicento in poi (v. Losee, 1972, capp. 7-9). La convinzione che esso sia l’unico metodo possibile per la scienza è molto diffusa anche nelle scienze umane. Ecco, ad es., l’antropologo Nadel: “C’è un solo metodo scientifico, per quanto praticato con diverso rigore e coerenza, e a questo riguardo la fisica e la chimica hanno raggiunto i migliori risultati. Ogni ricerca è vincolata a questo metodo, e nessun altro è concepibile” (v., 1949; tr. it. 1972, p. 227. Per dichiarazioni altrettanto categoriche, si vedano lo psicologo Skinner, 1953, p. 5; il sociologo Lundberg, 1938, pp. 191-192; l’antropologo Murdock, 1949, p. 183).
    Con maggior cautela, giungono praticamente alla stessa conclusione molti epistemologi: “Si può ragionevolmente affermare che le diverse discipline scientifiche hanno lo stesso metodo se ci si riferisce alla procedura o al complesso di regole che la integrano” (v. Pera, 1978, p. 11. Per dichiarazioni analoghe, si vedano Neurath, 1931-32, p. 407; Hempel, 1935, rist. 1949, p. 382; Kemeny, 1959, tr. it. 1972, p. 27; Feigl, 1963, tr. it. 1974, p. 211; Rudner, 1966, tr. it. 1968, pp. 18-19; Bhaskar, 1979, p. 3).
    Ma non tutti sono d’accordo. Dalton osserva polemicamente: “Si presume che una sequenza invariabile: formulazione di ipotesi / controllo / conferma sia condivisa da tutti gli scienziati, che tutti concordino che è l’unica via alla conoscenza; insomma, che c’è un solo metodo scientifico” (v., 1964, p. 59). E invece “ci si può domandare — osserva Becker — se i metodologi, i guardiani istituzionali della metodologia, affrontino davvero l’intero arco delle questioni metodologiche rilevanti per la sociologia, oppure se si limitino a un sotto-insieme non casuale (come direbbero loro) di tali questioni” — e conclude: “la metodologia è troppo importante per esser lasciata ai metodologi!” (v., 1970, p. 3). Sulla stessa falsariga il polacco Mokrzycki: “Le fondamenta di questo ‘metodo’ sono fuori della sociologia, prive di contatti col pensiero sociologico. La ‘metodologia delle scienze sociali’ è divenuta una cinghia di trasmissione che distribuisce ai sociologi il ‘metodo scientifico’, cioè le idee di quegli autori che passano per esperti sul tema” (v., 1983, p. 72). “Molti di noi — aggiunge Dalton — accettano il ‘metodo scientifico’ perché sono convinti che sia stato sviluppato nelle scienze naturali... Ma nelle scienze naturali non si professa deferenza a quel modello come facciamo noi” (v., 1964, p. 59).
    La vivacità di queste reazioni si spiega con il loro riferirsi a un periodo, certo non lontano, in cui l’orientamento scientista dominava nelle scienze umane: si sosteneva — come si è visto nei passi citati — non solo che la scienza ha un solo metodo, ma che si tratta di quel metodo, santificato dal successo delle scienze fisiche.
    C’erano, e ci sono, anche posizioni più prudenti: “Il metodo di una scienza è la comune base logica sulla quale essa fonda l’accettazione o il rifiuto di ipotesi e teorie” (v. Rudner, 1966; tr. it. 1968, pp. 19-20). Anche questa posizione minimalista, condivisa per esempio da Dewey (v., 1938) e da Popper (v., 1944-45), per la quale il metodo è uno solo perché si riduce all’uso della logica nell’argomentazione, è stata contestata da chi vi leggeva in trasparenza “l’assunto ingiustificato che il solo metodo logico è quello usato nelle scienze naturali, e nella fisica in particolare” (v. Schutz, 1954, p. 272). Più severamente, qualcuno ha parlato di “insignificanti generalizzazioni che intendono coprire tutta l’attività scientifica, e in realtà coprono quasi tutta l’attività intellettuale” (v. Nickles, 1986, p. 115).
    Ma anche indipendentemente dalle letture in trasparenza (peraltro pienamente fondate, quanto meno riguardo a Rudner, Popper e molti altri), l’idea stessa dell’unicità del metodo è stata criticata. “La stessa idea di ‘un metodo’ accresce la fiducia nei propri risultati e riduce la disponibilità a domandarsi se le procedure consolidate abbiamo senso nel caso particolare” (v. Kriz, 1988, p. 184). Con gli stessi accenti l’epistemologo francese Haroun Jamous parla di “repulsione per l’incertezza,... bisogno acuto di briglie stabili e definitive che possano dispensare dal ricorrere a quell’apporto individuale e incerto che, proprio perché difficilmente formalizzabile, è forse indispensabile ad ogni opera creatrice” (v., 1968, p. 27).
    Collegata alla precedente, una seconda linea critica segnala il pericolo che una particolare serie di procedure, identificata con “il metodo scientifico” venga reificata e diventi un fine in sé. La situazione “diffusa in psicologia [è una] di esaltazione e quasi feticismo del metodo, se non addirittura dello strumento tecnico che da mezzo diventa fine di molte ricerche” (v. Parisi e Castelfranchi, 1978, p. 79).
    “Come in tutti i rituali, l’attenzione passa dal contenuto alla forma, e la virtù finisce per consistere nell’esecuzione corretta di una sequenza fissa di atti” (v. Kaplan, 1964, p. 146; analogamente Cipolla, 1988, p. 104; Direnzo, 1966, p. 249). “Se il criterio è il rispetto di un sistema di regole — osserva maliziosamente Lecuyer — anche un elenco telefonico è una buona ricerca scientifica” (v., 1968, p. 124).
    Sicuramente esagerano in malizia sia il filosofo convenzionalista Leroy quando parla di “superstizione” (v., 1899, p. 377), sia il sociologo Weigert quando fa notare che “caratteristica della magia è l’attribuzione di efficacia a rituali minutamente osservati senza indagare il nesso causale fra rito ed effetti” (v., 1970, p. 116). Ma la natura tendenzialmente rituale dell’adesione di molti scienziato sociali al “metodo scientifico” è stata notata più volte. In parecchi hanno rilevato che la sequenza rigorosa di atti compare invariabilmente al momento di stendere i rapporti di ricerca (v. Merton, 1949, p. 506; v. Phillips, 1966, tr. it. 1972, pp. 138-139; v. Bollen e Jackman, 1990, p. 268) — il che ci ricorda le pungenti osservazioni di Fleck sul processo di razionalizzazione ex post che subiscono le procedure sperimentali (v., 1935, § 4.2). Kaplan ironizza sui “prologhi metodologici, premessi come invocazione rituale alle divinità tutelari del metodo scientifico” (v., 1964, p. 20).
    Pur condividendo molte di queste critiche alla tesi dell’unicità e fissità del metodo scientifico, non si può accedere alla battuta degli statistici Wallis e Roberts, per i quali “non c’è nulla che si possa chiamare il metodo scientifico. Cioè non ci sono procedure che dicano allo scienziato come partire, come proseguire, quali conclusioni raggiungere” (v., 1956, p. 5).
    Anche se raramente codificata per esteso, e fatta segno di un ossequio largamente rituale, nella coscienza collettiva dei ricercatori in scienze umane una certa idea di quel metodo scientifico esiste: la si riscontra ad esempio nel ricorso quasi universale a termini-chiave quali ‘ipotesi’, ‘verificare’. La questione è, se mai, se un ossequio più che rituale, cioè non limitato ai prologhi e ai resoconti, non abbia condotto, e continui a condurre, molti a considerare i loro oggetti e problemi cognitivi solo in quanto riflessi in un prisma, a scambiare quelle immagine deformate per la realtà, e a perdere l’occasione di conoscerli più da vicino e penetrarli più a fondo. Forse ha in mente qualcosa del genere chi rileva che “l’enorme fioritura di scritti di filosofia della scienza avvenuta nel ventesimo secolo ha, nell’insieme, più soffocato che incentivato lo sviluppo metodologico” (v. Nickles, 1986, pp. 94-95).
    “La qualità di uno scienziato — ricorda Toulmin — è dimostrata meno dalla sua fedeltà a un ‘metodo’ universale che dalla sua sensibilità alle specifiche esigenze del suo problema” (v., 1972, vol. I, p. 150). “Sii un buon artigiano, che sceglie di volta in volta quale procedimento seguire” raccomanda Mills; e aggiunge: “chiediamo a chi ha prodotto lavori di qualità di raccontarci in dettaglio come ha operato: solo in queste conversazioni con ricercatori esperti i giovani potranno acquisire un’utile sensibilità metodologica” (v., 1959, pp. 224 e 28).
    Che il metodo sia soprattutto scelta sono parecchi a dirlo. “La questione metodologica propriamente detta è la scelta fra le tecniche in funzione della natura del trattamento che ciascuna tecnica fa subire al suo oggetto” (v. Bourdieu et al., 1968, p. 59). “Ogni ricerca è un lungo sentiero con molti bivi e diramazioni, e ad ogni bivio dev’essere presa una decisione... Nessuna regola, nessun algoritmo può dire qual è la decisione giusta... Più il ricercatore concepisce il metodo come una sequenza rigida di passi, più decisioni prenderà senza riflettere e senza rendersene conto” (v. Kriz, 1988, pp. 81 e 131). Tra l’altro, dover scegliere non significa necessariamente dover affrontare ogni problema con una tecnica sola: è anzi saggio non affidarsi a una sola tecnica “per vedere nuovi aspetti del fenomeno che interessa e tener conto di vari tipi di dati relativi a uno stesso fenomeno” in modo da “essere sicuri di star studiando qualcosa di reale” anziché qualcosa che può essere un artefatto della tecnica usata (v. Parisi e Castelfranchi, 1978, p. 79).
    Se la ricerca dev’essere “un processo cognitivo piuttosto che un semplice processo di validazione di idee già formulate” (v. Bailyn, 1977, p. 101), è necessario “restare aperti a nuove informazioni e idee, resistendo alle inevitabili pressioni verso interpretazioni premature” (v. Blaikie e Stacy, 1982, p. 32). O quanto meno “saper mantenere la tensione fra la necessaria funzione di riduzione della complessità fenomenica e l’apertura a dimensioni che permettano di aumentare la complessità degli schemi concettuali” (v. Crespi, 1985, p. 343).
    Il metodo è quindi qualcosa di molto più complesso di una semplice sequenza unidimensionale di passi (in tal senso v. anche Cipolla, 1988, in particolare p. 34). Non basta, come ammetteva persino Comte, “aver letto i precetti di Bacone e il Discours di Descartes” (v., 1830, vol. 1; ediz. 1926, p. 71). “Senza dubbio — come osserva Polanyi — lo scienziato procede in modo metodico. Ma il suo metodo sono come le massime di un’arte che egli applica nel suo modo originale al suo problema” (v., 1958, p. 311). La sua opera è “molto simile a una creazione artistica... ma non è un’arte come scultura e pittura, in cui uno è libero di trarre qualunque cosa dal materiale grezzo. E’ un’arte come l’architettura, in cui si può mostrare creatività lavorando con materiali grezzi caratterizzati da limitate proprietà ingegneristiche, e per committenti con bilanci vincolanti e obiettivi precisi” (v. Davis, 1964, pp. 267-268). La gestione di risorse in presenza di vincoli è un aspetto caratterizzante del concetto di metodo, e vi torneremo nel § 2a.

1c. Metodo, metodi, metodologia.

    Dal punto di vista linguistico, una conseguenza inevitabile del fatto che l’orientamento a lungo prevalente nella filosofia delle scienze umane reificava il metodo in una successione di passi procedurali è stata il passaggio del termine ‘metodo’ a designare non solo una particolare maniera di compiere quei passi (“metodo sperimentale”, “metodo ipotetico-deduttivo”), ma anche ciascun singolo passo, e anche gli strumenti operativi che permettevano di compiere i vari passi (cioè le tecniche: v. § 2a). In questa accezione — in cui designava sostanzialmente un oggetto — il termine ha sviluppato un plurale (il complesso delle tecniche, il gruppo delle tecniche di un certo tipo), che non si giustificava in alcuna delle accezioni esaminate nella sezione precedente.
    L’impiego di ‘metodo/metodi’ nel senso di tecnica/tecniche è stato ed è endemico nelle discipline più orientate alla ricerca empirica, che vengono più spesso a contatto con strumenti operativi. Ma se ne incontrano molti casi anche in opere di sociologi teorici (si vedano, ad esempio, Sorokin, 1947, p. 22; Znaniecki, 1950, p. 220; Homans, 1950, pp. 40, 371 e 372; Riesman et al., 1950, p. 180; Alberoni, 1967, p. 11; Goldthorpe et al., 1968, p. 8; Sztompka, 1979, p. 72; Collins, 1975, p. 8). Qualche autore manifesta un certo disagio, e quindi parla di “una tecnica e metodo di analisi” (Capecchi, 1967, p. clx) o di technical methods (v. Collins, 1975, p. 414). Kaplan distingue i metodi dalle tecniche in quanto i primi sono abbastanza generali da valere in tutte le scienze o in una parte importante di esse (v., 1964, p. 23). C’è in effetti nell’uso una certa stratificazione gerarchica nel senso indicato da Kaplan (i metodi sono più generali e/o più nobili delle tecniche), ma nessun altro autore — a quanto ci risulta — l’ha codificata, e meno che mai ha proposto un qualsiasi confine.
    Si è detto dell’indebita espansione semantica del termine ‘metodo’. Di un abuso ben più grave, come vedremo tra breve, soffre il termine ‘metodologia’. In decine e decine di termini scientifici — molti dei quali, peraltro, passati nel linguaggio comune — il suffisso -logia sta per “discorso su”, “studio di”. Così geologia è lo studio della terra (da gaza terra e logos discorso), psicologia lo studio della psiche, sociologia lo studio della società, e così via. ‘Metodologia’ dovrebbe pertanto essere discorso, studio, riflessione sul metodo — in una o più delle accezioni che abbiamo visto fin qui. E infatti in questo senso è usato dagli autori che non hanno dimenticato le radici greche della terminologia scientifica e meta-scientifica: “La metodologia intraprende l’analisi delle procedure scientifiche e degli strumenti di ricerca” (v. Nowak, 1976, p. xv); “metodologia è la valutazione critica dell’attività di ricerca in relazione agli standards scientifici” (v. Smelser, 1976, p. 3); “la metodologia può essere definita una conoscenza che risulta da una riflessione sugli aspetti empirici della ricerca” (v. Stoetzel, 1965; tr. it. 1969, p. 10). Definizioni analoghe hanno dato Weber (v., 1922; tr. it. 1958, p. 147), Von Wright (v., 1971; tr. it. 1977, p. 19), Kaplan (v., 1964, p. 23), Opp (v., 1970, p. 7), Holt e Turner (v., 1970, p. 4), Hooker (v., 1977, p. 3), Nickles (v., 1986, p. 114) e molti altri.
    Nelle definizioni riportate e in quelle analoghe l’elemento ‘metodo’ (cioè l’oggetto studiato dalla -logia) è inteso in modo piuttosto ampio, come un terreno vagamente definito fra l’epistemologia e le tecniche (v. § 2b).
    Solo Lazarsfeld restringe l’accezione dell’elemento ‘metodo’ a qualcosa di molto simile all’accezione qui presentata nella parte finale del § 1b: “la metodologia codifica le pratiche della ricerca in atto per evidenziarne ciò che merita di essere tenuto presente le prossime volte” (v. Lazarsfeld e Rosenberg, 1955, p. 3); “la metodologia esamina le ricerche per esplicitare le procedure che furono usate, gli assunti sottostanti, e i modi di spiegazione offerti” (v. Lazarsfeld et al., 1972, p. xi). “Questa codificazione di procedimenti mette in evidenza i pericoli, indica le possibilità trascurate e suggerisce eventuali miglioramenti. Inoltre, rende possibile la generalizzazione della conoscenza metodologica, trasmettendo i contributi specifici di un dato ricercatore al patrimonio della comunità scientifica” (v. Barton e Lazarsfeld, 1967; tr. it. 1967, p. 307). Con una bella immagine, Lazarsfeld sintetizza il suo punto di vista: “La poesia è emozione cui si ritorna con animo tranquillo. Considero la metodologia un riandare al lavoro creativo con lo stesso stato d’animo” (v., 1959; tr. it. 1967, p. 186). Pur non definendo mai direttamente il termine ‘metodo’, Lazarsfeld mostra in questi passi di concepirlo come un’attività creativa al pari di Mills, Polanyi, Davis e altri — anzi, mostra che questa concezione è talmente chiara e solida in lui da resistere anche all’ampliamento semantico che il termine ‘metodo’ subisce quasi inevitabilmente quando diviene parte del termine ‘metodologia’.
    Definendo ‘metodologia’, molti sentono il bisogno di precisare che essa non va confusa con il metodo stesso, e meno che mai con le tecniche (si vedano, ad esempio, Parsons, 1937, pp. 23-24; Selvin, 1958, p. 607; Rudner, 1966, tr. it. 1968, pp. 19; Kaplan, 1964, pp. 18-19; Lecuyer, 1968, p. 126; Holzner, 1964, p. 425). La precisazione parrebbe superflua, perché confondere “X” con “lo studio di X” costituisce un palese errore categoriale. Purtroppo non è affatto superflua: nella ricerca sociale americana — i cui cultori hanno quasi tutti una coscienza a dir poco tenue delle radici greche del linguaggio scientifico — si è da tempo diffusa (ed è stata felicemente esportata dal nostro lato dell’Atlantico) l’abitudine di chiamare methodology la singola tecnica. E’ questo l’abuso terminologico cui si accennava sopra; se ne rendono responsabili anche autori di notevole sofisticazione intellettuale, come Galtung (v., 1967, ad es. p. 376). Si comprendono le proteste dell’interazionista Blumer per questa “stupefacente inclinazione a identificare la metodologia con una limitata porzione del suo oggetto di studio” (v., 1969, p. 22; con toni meno accesi, v. Sartori, 1984, p. 9; v. Stinchcombe, 1968, p. 28; v. Driscoll e Hyneman, 1955, p. 192).
    Talvolta il termine viene usato per “insieme di tecniche” (v. Statera, 1968, p. 26) o per “i principi delle procedure di ricerca” (v. McKinney, 1966, p. 70; analogamente Alexander, 1982, pp. 10 e 144; Bogdan e Taylor, 1975, p. 1).
    A proposito della metodologia in senso proprio, si discute se essa debba essere una disciplina prescrittiva o descrittiva. Per la seconda alternativa si è pronunciato con forza Dewey (v., 1938). Altri fanno notare che lo studio empirico di come lavorano gli scienziati è compito di storiografia e sociologia della scienza; la metodologia dev’essere normativa (v. Holzner, 1964; v. Nickles, 1986, p. 107); deve “fissare e giustificare un sistema di regole tali che assicurino la correttezza delle specifiche mosse compiute” (v. Pera, 1978, p. 7). “La metodologia — scrive Bruschi — implica una concezione logico-razionale della scienza...
    L’aspetto normativo che nella filosofia della scienza può essere latente, qui è manifesto e diretto... Il metodologo dichiara ciò che il ricercatore deve fare per ottenere scienza” (v., 1991, pp. 38-39). Decisamente normativo è anche Felix Kaufmann, l’esponente del Circolo di Vienna più vicino al primo Wittgenstein: “La metodologia non parla della scienza nello stesso senso in cui la scienza parla del mondo. Piuttosto, essa chiarisce il significato del termine ‘scienza’” (v., 1941, p. 240).
    Si può accettare l’idea che la metodologia sia, in ultima analisi, anche una disciplina normativa, in quanto dà indicazioni su cosa sia opportuno fare in ciascuna specifica situazione di ricerca. Ma tali indicazioni non devono essere date in base a un modello astratto e generale di scienza, bensì alla luce proprio di quello che storiografia e sociologia della scienza ci riferiscono. Ad esempio, alla luce del fatto che quella data tecnica, perfettamente adeguata in astratto, si è in realtà più volte rivelata portatrice di gravi distorsioni, magari a causa di un'insufficiente o errata valutazione dei processi psico-socio-antropologici che la sua applicazione tende a mettere in moto fra i soggetti osservati e/o fra gli osservatori.
    La contrapposizione descrittivo/prescrittivo collima piuttosto bene con la distinzione fra i due significati che il termine ‘metodologo’ ha nel linguaggio corrente delle università e della ricerca sociale — significati che poi corrispondono ai due ruoli del metodologo professionista. Quando studia e insegna, il metodologo deve avere un atteggiamento descrittivo, cioè aperto ad apprendere dalle varie esperienze di ricerca altrui valutandole senza preconcetti, e disposto a riferire in modo sistematico e sintetico quanto ha appreso. Quando mette le proprie competenze, capacità ed esperienza al servizio di una ricerca, sua o altrui, il metodologo non può che essere prescrittivo, in quanto deve scegliere quali strumenti usare e come usarli; meglio se nelle sue prescrizioni saprà tener conto di tutto ciò che ha imparato svolgendo l’altro ruolo.


2. Tecnica: per conoscere o per intervenire.

    Anche il termine ‘tecnica’ deriva dal greco, dove ?e´??? designa una capacità artistica: non quella individuale e irripetibile del genio, ma quella più domestica, tramandabile di padre in figlio, dell’artigiano (infatti il termine ha una probabile parentela con "figlio").
    La definizione di Gallino (“complesso più o meno codificato di norme e modi di procedere, riconosciuto da una collettività, trasmesso o trasmissibile per apprendimento, elaborato allo scopo di svolgere una data attività manuale o intellettuale di carattere ricorrente... Una procedure estemporanea, che non viene cioè reiterata, né subisce qualche forma di codificazione, non è una tecnica anche se per una volta risulti eccezionalmente ingegnosa ed efficace”: v., 1978, pp. 712-713) mostra che molti elementi dell’originario significato greco si sono tramandati in almeno uno dei significati centrali del termine.
    Gallino ne coglie infatti il significato antropologico, molto diffuso anche nel linguaggio comune. Ma accanto ad esso se ne possono distinguere almeno altri due, che hanno in comune un rapporto strumentale tra il loro referente e la scienza, ma si distinguono fra loro per la direzione di tale rapporto. Nel secondo significato, una tecnica si serve delle conoscenze acquisite dalle scienze sulla realtà per modificarne questo o quell’aspetto. Nel terzo significato, è una scienza a servirsi delle tecniche per conoscere meglio questo o quell’aspetto della realtà. In entrambi i concetti — e in particolare nell’ultimo, che qui ci interessa — sono presenti elementi del concetto enunciato da Gallino.
    Nell’ambito delle discipline mediche, la clinica si serve delle conoscenze acquisite da fisiologia e patologia — che sono scienze — per curare i malati, ed è quindi una tecnica nel secondo significato. Analogamente l’ingegneria edile, quando si serve delle conoscenze di statica e dinamica per fabbricare edifici, strade, ponti. E’ vero — come fa notare Cini — che “la tecnologia fornisce alla ricerca scientifica contributi originali” (v., 1990, p. xiv; analogamente Lecuyer, 1987, p. 65); ma la distinzione è analitica: se nell’ambito della ricerca tecnologica si acquisiscono nuove conoscenze sulla realtà che si vuol modificare, in quel momento si sta facendo scienza. Inoltre, dire che la tecnica (nel secondo significato) applica le conoscenze scientifiche per intervenire sulla realtà non significa affatto sminuirla: siamo tutti consapevoli del fatto che “l’invenzione di uno strumento spesso ha marcato un’epoca” (v. Jevons, 1874, p. 272).

2a. Le tecniche per conoscere.

Le tecniche che ci interessano in questa sede sono strumentali ai fini conoscitivi delle varie scienze.
Sono “le specifiche procedure usate in una data scienza, o per un particolare genere di indagine entro quella scienza... Sono i modi di compiere il lavoro di quella scienza che sono considerati, per ragioni più o meno convincenti, accettabili da quella comunità scientifica. L’addestramento scientifico è in larga misura l’acquisto di padronanza sulle tecniche” (v. Kaplan, 1964, p. 19). In larga misura, ma certo non interamente, come avverte Lazarsfeld (v., 1959; tr. it. 1967, p. 229) — e molti, compreso Kaplan, sarebbero d’accordo con lui.
Come osserva McIver, il termine ‘tecnica’ designa sia una certa procedura, sia lo strumento che la esegue (v., 1942, p. 283); si può aggiungere che designa anche l’insieme di competenze pratiche (know-how) necessarie per gestire correttamente ed efficacemente tale strumento. Questo triplice designatum del termine è corrente anche nella vita quotidiana.
    Il rapporto fra metodo e tecnica (nel significato analizzato in questa sezione) può essere chiarito da un’immagine. Ogni ricerca ha un obiettivo cognitivo: vuole cioè migliorare, approfondire, articolare la conoscenza intorno a un certo argomento. Possiamo immaginare questo obiettivo come una radura in una foresta: si confida che sia raggiungibile, si spera di raggiungerla, ma non si sa esattamente dov’è; tanto meno si hanno le idee chiare su come arrivarci.
    Possiamo immaginare che il ricercatore (e/o chi per lui prende le decisioni su come procedere) parta da un punto qualsiasi ai bordi della foresta. Raramente è solo e pienamente libero: di solito ha degli aiuti, ma anche dei vincoli. Dispone di fondi pubblici o privati, e quasi sempre ha collaboratori più o meno esperti nei vari compiti. Può ricorrere, se lo ritiene opportuno, a enti specializzati per la raccolta delle informazioni e/o analisi dei dati. Tra le sue risorse anche il bagaglio di conoscenze desunte da precedenti esperienze di ricerca proprie o altrui. Il vincolo principale è una scadenza entro la quale deve essere consegnato il rapporto sui risultati della ricerca: spesso tale scadenza è fissata da un committente che non ha alcuna idea della complessità del compito. Talvolta la natura del committente, o più genericamente il clima politico-culturale, pongono dei limiti alla libertà di approfondimento in questa o quella direzione. Talaltra la natura del problema investigato pone dei limiti etici alle tecniche che si possono usare.
    La foresta da attraversare è percorsa per tratti più o meno lunghi, e in varie direzioni, da sentieri già tracciati, più o meno battuti: sono le tecniche che altri ricercatori hanno già ideato, modificato, sviluppato. Naturalmente è molto più comodo percorrere sentieri già battuti; ma non si sa se porteranno alla radura desiderata o da qualche altra parte.
    Compito del ricercatore-metodologo è scegliere via via il percorso, tenendo conto della natura dei sentieri esistenti, del tempo a disposizione, delle risorse (e in particolare del grado di addestramento/predisposizione dei suoi collaboratori a gestire le varie tecniche). In questo il suo compito somiglia alla combinazione dei fattori produttivi che l’imprenditore effettua in presenza di restrizioni e di vincoli, disponendo di risorse limitate e di economie esterne (v. Schumpeter, 1942). E anche le decisioni sono altrettanto frequenti che per l’imprenditore: a ogni passo si deve scegliere se affidarsi a collaborazioni esterne per un certo compito, oppure seguire in proprio un sentiero battuto, oppure un altro appena tracciato, oppure più sentieri in combinazione; se ripercorrere fedelmente questi sentieri, oppure tentare brevi variazioni di percorso (modifiche a tecniche esistenti), oppure addentrarsi nella foresta, immaginando procedure del tutto nuove, magari per confrontarne gli esiti a quelli delle tecniche esistenti.
    L’essenziale del concetto di metodo sta in questo: nella scelta delle tecniche da applicare, nella capacità di modificare tecniche esistenti adattandole ai propri specifici problemi, e di immaginarne delle nuove. Una volta che una procedura nuova, o una modifica a una procedura esistente, è stata ideata e viene codificata e diffusa, essa è già reificata e diviene una tecnica a disposizione della comunità dei ricercatori: non più una capacità privata ma un oggetto pubblico. Come la parole saussuriana: una volta comunicata è già langue (v. Saussure, 1916).
    Naturalmente, i risultati di una ricerca dipendono in larghissima misura dal complesso delle scelte che il ricercatore/metodologo ha fatto lungo tutto il tragitto. Per questo motivo, nel rapporto di ricerca si dovrebbe dare ampio spazio al resoconto e alla giustificazione delle scelte operate, valutando per quanto possibile il loro impatto sui risultati. Purtroppo invece è molto raro che tale spazio venga dato (per una lodevole eccezione v. ad es. Schussler, 1982).
    Nel determinare questa situazione, che documenta una coscienza scientifica ancora embrionale, convergono vari fattori: l’oggettivismo del ricercatore, che crede inficiato il valore dei suoi risultati se si mostra quanto essi dipendano dalle scelte effettuate (o comunque attribuisce con fondamento tale convinzione al suo pubblico); il fatto che buona parte del pubblico si comporta come se leggesse un romanzo giallo: vuol sapere chi è l’assassino e non si interessa ai dettagli del processo investigativo (v. Cohen e Nagel, 1934, pp. 399-400). Infine il fatto che i responsabili editoriali di case editrici e riviste condividono in larga misura l’oggettivismo di autori e pubblico e il “fattismo” del pubblico — e in ogni caso ne devono tener conto. Succede così che anche autori molto scrupolosi confinino le informazioni metodologiche in un’appendice, immaginando che “chi vorrà sapere di più su ciò che è stato effettivamente fatto dal ricercatore e sul modo in cui è stato fatto... disporrà di pazienza pari alla curiosità” (v. Calvi, 1980, p. 21).
Il fatto che le tecniche non abbiano la natura impalpabile del metodo, ma siano oggetti tangibili e disponibili non implica una loro minore nobiltà o rilevanza per il lavoro scientifico. L’atteggiamento del grand theorist (v. Mills, 1959) che disprezza le tecniche è pre-scientifico, dato che solo attraverso l’impiego delle tecniche una grand theory può essere controllata empiricamente — e solo attraverso un loro impiego competente può esserlo in modo attendibile.
    Ha un atteggiamento errato anche chi feticizza una o più tecniche, cioè diventa magari bravo nell’applicarle, ma le considera soltanto come oggetti ready-made, privi di spessore e di storia: ignora e vuole ignorare il fatto che ogni tecnica è stata ideata e sviluppata entro un certo quadro di assunti onto-gnoseo-epistemologici (su com’è la realtà, su come possiamo conoscerla e su quali sono gli obiettivi e i limiti della scienza), che legittimano sia il ricorso a certe manipolazioni delle informazioni sia certe interpretazioni dei risultati.
    Da tempo questa tendenza alla “specializzazione stretta” è stata rilevata e denunciata negli Stati Uniti (v. ad es. Hill, 1970, p. 14): i “metodologi” sono in realtà specialisti di una o due tecniche, e non sono in grado di affrontare più generali problemi di ricerca. E’ pensabile che la super-specializzazione vada di pari passo con la tendenza al consumo di massa, perché ne presenta due caratteristiche strettamente collegate: la propensione a orientarsi verso il prodotto nuovo abbandonando il vecchio indipendentemente dai suoi pregi, e la propensione a orientarsi verso prodotti sempre più artificiali e mirabolanti (che nel nostro caso vorrebbe dire: sempre più computer-intensive). Basta pensare alla rapida successione delle mode che hanno portato via via alla ribalta varie tecniche di elaborazione di dati negli ultimi 50 anni: prima la regressione multipla, poi l’analisi fattoriale, poi la path analysis, poi i loglineari, l’analisi delle corrispondenze, e così via. Lo rilevava in modo incisivo Labovitz: “Che nell’analisi dei dati delle scienze sociali imperino le mode è sin troppo evidente. Chi usa più lo scalogramma di Guttman? Questa tecnica démodée è stata sostituita da altre... Si usa la tecnica in voga, che sia adatta o no. La gente si domanda: ‘voglio usare l’analisi fattoriale: qual è il problema?’ oppure ti dice: ‘Voglio usare l’ultimo grido, la path analysis: hai dei dati?’” (v., 1968, p. 221).
    Si è portato ad esempio il settore dell’analisi dei dati perché esso è stato teatro di questo recente impetuoso sviluppo. Ricolfi lo giudica, un po’ severamente, un “progresso apparente” (v., 1982, p. 338), e Davis pensa che “le tecniche statistiche avanzate non ci hanno detto molto di più dell’analisi tabulare dei tempi di Lazarsfeld” (v., 1987, p. 179). Ma, a parte il giudizio sull’effettiva utilità, l’opinione generale è che le tecniche di elaborazione matematico-statistica dei dati siano attualmente molto più sviluppate delle tecniche di raccolta delle informazioni o di presentazione grafica dei risultati (si vedano, ad esempio, Phillips, 1966, tr. it. 1972, p. 345; Etzioni e Lehman, 1967, p. 11; Becker, 1972, p. 169; Capecchi, 1972, p. 46; McKennell, 1973, pp. 206-207; Blalock, 1974, p. 2; Nowak, 1979, pp. 158-159; Singer, 1982, p. 212; Duncan, 1984, p. 97; Freedman, 1985, pp. 345-352; Bernard et al., 1986, p. 382; Lutynski, 1988, p. 174; per una voce dissenziente v. Somers, 1972, p. 406).
    “Hanno un bel dire i testi di metodologia — ironizza Troy Duster — che ogni tecnica vale l’altra, basta che sia adatta alla questione che si deve affrontare. Di fatto, il programma dei corsi e il tipo di articoli accettati per la pubblicazione danno subito il messaggio a studenti e dottorandi: le tecniche sono stratificate!” (v., 1981, p. 112).
    Qualche anno fa Capecchi lamentava “lo squilibrio esistente fra lo sviluppo autonomo di questi metodi matematici e le loro effettive applicazioni”, sostenendo che “la conoscenza della matematica e della statistica procura... un prestigio di riflesso. L’importante è che il ricercatore riesca a dimostrare... che sa padroneggiare questi metodi” (v., 1972, p. 39). Anche Davis dice che “essi servono più che altro come medaglie da esibire” (v., 1987, p. 179).
    Naturalmente, ci si può domandare il motivo di questo maggior prestigio. Per le tecniche di analisi nel loro complesso, sembra sempre meno proponibile uno dei motivi addotti sopra per la tendenza alla specializzazione: nei dipartimenti di scienze sociali americani e nord-europei le tecniche statistiche non sono una novità nei curricula da almeno 20-30 anni. Vale invece senza dubbio l’altro motivo, cioè la propensione a procedure computer-intensive piuttosto che field-intensive (cioè più simili a un videogame che ad una passeggiata con gli amici nel bosco). Questo fattore agisce per forza propria e per via di imitazione delle scienze fisico-naturali, dove le simulazioni al calcolatore hanno un ruolo sempre più importante: anche per questo esso sembra destinato ad esercitare influenza ancora per molto.
    Non si può trascurare, infine, una spiegazione di sapore kuhniano: buona parte dei giovani emergenti nelle scienze umane negli anni sessanta e settanta hanno percepito la preparazione statistica come un canale per costituirsi rapidamente un patrimonio di expertise che i loro majores non possedevano, il che permetteva loro di rendersi indispensabili nel breve periodo, e di avanzare nel medio periodo pretese di successione anticipata (v. Collins, 1975, p. 54).
 
2b. Metodologia (e metodo) fra gnoseologia/epistemologia e tecniche

    C’è consenso generale sul fatto che la metodologia occupa “la porzione centrale di un continuum di analisi critica... [fra] l’analisi dei postulati epistemologici che rendono possibile la conoscenza del sociale e... l’elaborazione delle tecniche di ricerca” (v. Gallino, 1978, p. 465). Occuparsi di metodologia è tenersi in continua tensione dialettica fra i due poli di questo continuum, perché “se la metodologia abbandona il suo lato epistemologico, si appiattisce su una tecnologia o una pratica che non controlla più intellettualmente. Se abbandona il lato tecnico, si trasforma in una pura riflessione filosofica sulle scienze sociali, incapace di incidere sulle attività di ricerca” (v. Bruschi, 1991, p. 41).
    C’è da aggiungere che a un polo non sta solo l’epistemologia (riflessione su scopi, condizioni e limiti delle conoscenza scientifica) ma anche la gnoseologia (riflessione su scopi, condizioni e limiti della conoscenza tout court).
    La gnoseologia è spesso dimenticata in questo genere di enunciazioni. Le ragioni possono essere due, una linguistica ed una sostanziale. Il termine gemello (sarebbe gnoseology) non esiste in inglese, e quindi non ricorre mai nella imponente letteratura anglo-americana sul tema. In inglese infatti si usa epistemology per designare la filosofia della conoscenza, e prevalentemente philosophy of science per quello che noi chiamiamo epistemologia. Il secondo motivo può derivare dal fatto che tutti i tentativi di dare un fondamento di certezza assoluta alla conoscenza scientifica (ultimi il fenomenismo di Schlick e Carnap e il fisicalismo di Neurath e del secondo Carnap) sono naufragati contro la constatazione, inevitabile in gnoseologia, che non ci possono essere “giunti rigidi” tra sfera del referente (la realtà), sfera del pensiero e sfera del linguaggio (v. Marradi, 1994, Referenti...). Può darsi che questa situazione, accettata con scarso entusiasmo da molti che si occupano di scienza, abbia provocato un senso di fastidio per una disciplina che mette in evidenza i limiti delle pretese cognitive delle altre.
    Se questa è la posizione della metodologia, qual è la posizione del metodo? Si è detto (v. § 2a) che esso consiste essenzialmente nell’arte di scegliere le tecniche più adatte ad affrontare un problema cognitivo, eventualmente combinandole, confrontandole, apportando modifiche e al limite proponendo qualche soluzione nuova. Quello che non è emerso nelle precedenti sezioni, e che è il caso di sottolineare prima di chiudere l’argomento, è che il metodologo — o chi per lui — non compie queste scelte solo alla luce delle sue competenze tecniche e delle esperienze di ricerca sue e altrui. Le sue propensioni per questa o quella tecnica, la sua maniera di interpretare le esperienze di ricerca sono condizionate dalle sue opzioni gnoseo-epistemologiche: “Le soluzioni tecniche presuppongono soluzioni metodologiche generali e queste ultime, d’altra parte, implicano che siano date risposte adeguate a certe questioni epistemologiche” (v. Ammassari, 1985, p. 178; per un giudizio analogo, v. Gallino, 1978, p. 464).


3. Una classificazione delle tecniche (per conoscere) usate nelle scienze sociali.

    Approfondiamo ora la distinzione già anticipata fra tecniche di raccolta e tecniche di analisi. Nella fase di raccolta — dopo aver definito i problemi cognitivi da risolvere — si scelgono il tipo di oggetto e l’ambito spazio-temporale sui quali indagare, si individuano gli specifici oggetti di cui rilevare gli stati, si decidono le definizioni operative delle proprietà oggetto dell’indagine e le procedure di registrazione delle informazioni e, infine, si rilevano e registrano gli stati degli oggetti sulle proprietà. In breve, le tecniche di raccolta sono le procedure mediante le quali si producono i dati che successivamente verranno sottoposti ad analisi. Dopo la raccolta non si è ancora in grado di dare una risposta agli interrogativi che ci si è posti; ma si hanno le informazioni per rispondere (v. Goode e Hatt, 1952; tr. it. 1962, p. 517). La fase di analisi presuppone dunque l’esistenza dei dati, e consiste nella loro elaborazione al fine di acquisire elementi conoscitivi intorno alla distribuzione degli stati sulle proprietà e alle relazioni tra esse (v. § 5).
    Sia le tecniche di raccolta sia quelle di analisi comportano una semplificazione della realtà: nella raccolta si selezionano soltanto alcuni elementi della realtà da studiare (oggetti, proprietà, stati), e le relative informazioni prendono la forma di dati; questi ultimi vengono manipolati e ulteriormente sintetizzati dall’analisi. “Il ricercatore solitamente forma la sua opinione su un processo o su un fenomeno soltanto in base a una qualche parte dei suoi dati, e poi presenta la sua opinione con la necessaria documentazione ai lettori" (v. Lutynski, 1982, p. 94).
    La scelta delle tecniche di raccolta e di analisi da adottare dipende dalla natura del problema cognitivo affrontato, dal numero di oggetti e/o di proprietà che si intendono studiare, dalla disponibilità di risorse, dalla particolare sensibilità del ricercatore e da molti altri fattori. Per quanto siano attinenti a fasi concettualmente distinte della ricerca, tecniche di raccolta e tecniche di analisi non sono indipendenti fra loro. La scelta di una determinata tecnica di raccolta (o analisi) pone limiti a quali tecniche di analisi (o raccolta) possono essere impiegate: determinate tecniche di analisi presuppongono che le informazioni siano state rilevate in un certo modo; determinate tecniche di raccolta pregiudicano la possibilità di ricorrere ad alcune tecniche di analisi.
In ciascuna indagine, tecniche di raccolta e tecniche di analisi, come si è detto, sottostanno a un vincolo cronologico: la raccolta precede l’analisi. Se si allarga la prospettiva si può scorgere un percorso circolare: gli esiti di precedenti ricerche — stima della cogenza dei risultati ottenuti con una determinata tecnica di analisi o della fedeltà dei dati raccolti con una particolare tecnica (v. Marradi, 1990) — rappresentano elementi che influenzano (o quanto meno dovrebbero influenzare) il ricercatore nelle sue decisioni metodologiche.
    La già rilevata preminenza delle tecniche di analisi viene comunemente attribuita allo sviluppo e alla diffusione di mezzi di elaborazione informatica di elevata potenza e di impiego facile ed economico (v. Fox e Long, 1990, p. 8). L’affermarsi dei personal computers ha favorito la diffusione di tecniche avanzate di analisi multi-variata, e quindi una maggiore valorizzazione dei dati raccolti. “Con il software moderno si possono effettuare in pochi secondi analisi... che prima degli elaboratori richiedevano mesi di lavoro di un’équipe di valenti matematici” (v. Ricolfi, 1984, p. 37; corsivo nell’originale).
    Lo sviluppo delle tecniche di analisi non è stato accompagnato da una corrispondente evoluzione delle tecniche di raccolta: ad esempio, “gli strumenti più usati per raccogliere informazioni su atteggiamenti e valori... sono stati ideati nel quarto di secolo che va dal 1928 al 1953” (v. Marradi, 1988, p. 7). Da allora vi è stata una scarsa preoccupazione da parte della comunità scientifica di controllare la fedeltà dei dati che vengono utilizzati: “il problema dell’effettiva corrispondenza delle cifre manipolate agli stati dei soggetti sulla proprietà [è] stato perso di vista” (v. Marradi, 1990, p. 66).
    Di conseguenza, tecniche di analisi sempre più avanzate vengono applicate a insiemi di dati la cui fedeltà non è migliorata — forse è addirittura peggiorata — rispetto a qualche decennio fa. Si consideri, inoltre, che la facilità d’uso degli elaboratori elettronici fa sì che possono diventarne utenti anche ricercatori che nulla sanno delle procedure con cui sono stati raccolti i dati e che comunque non posseggono le competenze necessarie per valutarne la fedeltà. “I risultati che [il computer] produce possono valere soltanto quanto i dati iniziali che vi vengono immessi, le operazioni che gli si chiede di compiere e le interpretazioni che si effettuano su quei dati” (v. Ackroyd e Hughes, 1992, p. 2). Per questo complesso di motivi è opportuno concentrare gli sforzi sul miglioramento dell’affidabilità delle procedure di rilevazione, piuttosto che sull’ulteriore potenziamento delle tecniche di analisi.


4. Tecniche di raccolta.

    Le tecniche di raccolta abitualmente usate nelle scienze sociali si differenziano lungo numerose dimensioni: tipo e numero di proprietà che possono essere operativizzate; tipo di unità e numero di casi sui quali si raccolgono informazioni; prevalenza di intenti idiografici o nomotetici; vincoli posti alle tecniche di analisi utilizzabili per elaborare le informazioni rilevate; possibilità di replicare la rilevazione; quantità di risorse umane e/o materiali richieste per effettuare la raccolta; ambiti disciplinari tipici; grado di collaborazione alla rilevazione da parte dei soggetti osservati; grado di conoscenza del contesto che presuppongono; e così via.
    In questa sede si classificheranno le attività di raccolta in base al grado di strutturazione dei processi attraverso i quali si producono i dati che verranno successivamente sottoposti ad analisi. A un estremo si ha il caso in cui la raccolta di informazioni non altera affatto la realtà osservata; all’altro estremo l’intervento del ricercatore modifica sensibilmente la realtà, arrivando perfino a provocare eventi che altrimenti non si sarebbero prodotti.
    Si possono individuare quattro tipi: a) rilevazione non strutturata delle informazioni, in cui il ricercatore si avvale di un apparato ridotto e in cui sono gli oggetti osservati a determinare le informazioni che vengono fornite al ricercatore; b) rilevazione di informazioni process-produced, in cui il ricercatore raccoglie informazioni già prodotte e registrate nel corso di normali processi sociali; c) rilevazione strutturata, in cui le informazioni raccolte vengono ricondotte a schemi prestabiliti dal ricercatore; d) rilevazioni che comportano un intervento sulla realtà al fine di produrre informazioni non preesistenti all’indagine.
    Questi tipi di rilevazione non si escludono a vicenda: un’indagine può ricorrere a una loro combinazione . Anzi, al fine di dissipare il sospetto, spesso abbastanza giustificato, che i risultati di un’indagine siano determinati più dalla tecnica di rilevazione impiegata che non dai fenomeni studiati, è consigliabile ricorrere a una molteplicità di tecniche (v. § 1b; v. Campbell e Fiske, 1959; v. Denzin, 1970). Purtroppo, molti ostacoli (che vanno dai limitati fondi di ricerca alla limitata fantasia e flessibilità dei ricercatori) impediscono di fare ricorso a questa “triangolazione metodologica” tanto spesso quanto sarebbe auspicabile.

4a. Scelta delle unità.

    La rilevazione presuppone un insieme di procedure attraverso le quali il ricercatore passa “dall’astratta determinazione dell’unità (cioè del tipo di oggetti che gli interessano)... all’individuazione dei casi concreti” che saranno oggetto della sua indagine (v. Marradi, 1987, p. 21). Gli oggetti che vengono osservati nell’ambito delle scienze sociali sono di diversi tipi. Di solito si tratta di individui; tuttavia, le informazioni da raccogliere possono anche riferirsi ad altre unità socialmente rilevanti: gruppi strutturati di individui (famiglie, associazioni di volontariato, sette religiose, gruppi etnici, bande di criminali, istituzioni pubbliche, unità amministrative territoriali, società intere), testi scritti (storici, letterari, giornalistici) e altri prodotti culturali (fotografie, rappresentazioni teatrali, programmi televisivi, dipinti, filmati), eventi e situazioni (guerre, elezioni, cerimonie, attività economiche). Naturalmente, la scelta dell’unità varia in funzione degli interessi del ricercatore e dei problemi cognitivi che cerca di risolvere.
    A tale scelta deve accompagnarsi anche l’individuazione di un ambito spazio-temporale, che definisce i limiti entro i quali il ricercatore sceglie gli oggetti da osservare. L’ambito spazio-temporale e l’unità insieme determinano la popolazione, ovvero l’insieme dei potenziali casi della ricerca. L’ambito spazio-temporale definisce anche i confini entro i quali, a rigore, sono generalizzabili i risultati della ricerca; per questo motivo, l’individuazione dell’ambito spazio-temporale deve essere esplicita e inequivoca.
    Definita questa popolazione, il ricercatore deve decidere se raccogliere informazioni su tutti gli oggetti che le appartengono (enumerazione completa) oppure soltanto su un sotto-insieme di essi (campione) — a meno che abbia optato di studiare un solo caso. Di solito si ricorre al campionamento per motivi pratici: minori costi in termini economici e di risorse umane; minor tempo richiesto per la raccolta delle informazioni; maggiore semplicità di gestione; possibilità di operativizzare un maggior numero di proprietà. A meno che la popolazione dei possibili casi non sia molto ridotta, una sua emunerazione completa comporterebbe un’imponente mobilitazione di mezzi. Spesso quindi si è virtualmente costretti a ricorrere al campionamento. Ci sono inoltre motivi che rendono il campionamento comunque preferibile all’enumerazione completa: l’U.S. Census Bureau, ad esempio, sostiene che l’esigenza di ricorrere — per un censimento integrale della popolazione americana — a grandi quantità di rilevatori inesperti e di elaborare masse enormi di informazioni produce dati più infedeli e meno generalizzabili di quelli prodotti da un’indagine campionaria eseguita con criterio (v. Smith, 1975, p. 106).
    Nella scelta dei casi effettivamente osservati si cerca in genere di applicare criteri che giustifichino la generalizzazione dei risultati all’intera popolazione. Quasi tutte le strategie di individuazione degli oggetti da osservare sono riconducibili a due: a) scelta ragionata, in cui si mette l’accento sull’esito del campionamento; b) scelta casuale, in cui si tiene conto solo della procedura di campionamento.
    Se la scelta è ragionata, la decisione di inserire o meno un oggetto nel campione dipende dal suo stato su una o più proprietà. Si può optare per oggetti che presentano distribuzioni isomorfe a quelle della popolazione su una o più proprietà; per oggetti con stati estremi su determinate proprietà; per oggetti molto diversi (o, viceversa, molto simili) tra loro; per oggetti che presentano un’ampia varietà di stati, al limite in modo che tutti i possibili stati siano presenti; per oggetti che occupano una particolare posizione nell’ambito o in un sotto-ambito (testimoni qualificati, reti amicali, leaders comunitari, etc.); per un solo oggetto, ritenuto emblematico; e così via. Per i motivi visti il campionamento ragionato richiede che siano note al ricercatore almeno le caratteristiche che servono ad orientare la scelta dei casi (v. Marradi, 1989).
    Nel campionamento casuale, gli oggetti da osservare vengono individuati sulla base di criteri probabilistici. La casualità — che nell’accezione rigorosa implica che tutti i membri della popolazione abbiano la stessa probabilità di entrare a far parte del campione; in un’accezone più debole, basta che tale probabilità sia nota — presenta due vantaggi: permette di servirsi della teoria dell’inferenza statistica per ottenere stime circa la generalizzabilità delle caratteristiche del campione alla popolazione e i relativi margini di errore; esercita una funzione di garanzia negativa, in quanto elimina i potenziali effetti distorcenti di un qualsiasi altro criterio di selezione.
    Le due strategie sono tendenzialmente alternative. Nonostante ciò, spesso “le espressioni ‘campione casuale’ e ‘campione rappresentativo’... sono considerate intercambiabili: molti sembrano ritenere che un campione sia rappresentativo in quanto è casuale”, mentre invece “fra i due concetti [casualità e rappresentatività]... non esiste alcuna relazione logicamente necessaria” (ibi, pp. 51 e 52).
    E’ opportuno distinguere tra l’insieme di tutti gli oggetti che appartengono all’ambito spazio-temporale al quale si vogliono riferire i risultati della ricerca e il sotto-insieme di quegli oggetti che sono effettivamente noti e accessibili al ricercatore e tra i quali verranno scelti i casi (v. Sjoberg e Nett, 1968, p. 130). La distinzione è rilevante in quanto nelle scienze sociali di rado si può accedere al primo insieme per scegliere gli oggetti da osservare; nel migliore dei casi, i risultati dell’indagine sono riferibili soltanto al sotto-insieme, che si può considerare qualcosa di analogo a una definizione operativa della popolazione.
    Un’altra distinzione importante intercorre tra insieme di oggetti sui quali si desidera raccogliere informazioni (campione iniziale) e insieme di casi sui quali si riesce effettivamente a rilevarle (campione effettivo). I due insiemi possono coincidere, ma di solito una quota più o meno ampia di oggetti inseriti nel campione iniziale sfugge alla rilevazione. Nella misura in cui gli oggetti che finiscono per essere casi della ricerca lo diventano grazie a meccanismi non casuali e/o danno luogo a un campione effettivo con una composizione diversa da quella prevista, si introducono distorsioni nei risultati.
    Un’ulteriore distinzione di rilievo è quella fra unità di raccolta e unità di analisi. E’ possibile che una ricerca preveda che informazioni vengano rilevate presso un tipo di oggetto e poi riferite a un altro tipo di oggetto: ad esempio, si possono raccogliere informazioni riguardanti le coppie coniugate (unità di analisi) intervistando soltanto mariti (unità di raccolta); oppure si possono raccogliere informazioni riguardanti la qualità di vita nelle province (unità di analisi) registrando i livelli di benessere di un insieme di famiglie (unità di raccolta) in ogni provincia. Ogni volta che i due tipi di unità non coincidono il ricercatore dovrebbe evitare che le particolari caratteristiche, percezioni, aspettative degli oggetti osservati vengano attribuite indebitamente ad oggetti di altro tipo.
    Si è già accennato alla prevalenza dell’individuo quale unità di analisi nelle scienze sociali. Galtung critica questa tendenza in quanto essa “implica una concezione atomista della società, vista come una massa di individui, in cui i fattori strutturali vengono scontati o si presume che siano rispecchiati nel singolo”. Inoltre, “concentrarsi sull’individuo quale attore sociale, poiché sembra facile e convincente, scoraggia la considerazione di altre unità” (v., 1967, p. 37) che magari amplierebbero la nostra comprensione del sociale. Le osservazioni di Galtung rinviano alla distinzione tra unità di raccolta e unità di analisi: si raccolgono informazioni sull’unità-individuo, in quanto ciò è conveniente e conforme al nostro modo di vedere il mondo, per poi riferirle ad unità più estese, con distorsioni di entità ignota. Inoltre, la concezione atomista sottesa alla ricerca su unità-individuo induce a sottovalutare le implicazioni negative della presunta fungibilità degli individui. Un campione effettivo non coincide quasi mai con quello iniziale per la mancata collaborazione o reperibilità di alcuni soggetti, i quali spesso si differenziano dagli altri casi su proprietà rilevanti per la ricerca in questione (v. Marradi, 1989, cap. 2).
    Come si è detto, l’unità di ricerca può essere una situazione sociale. Denzin (v., 1970, pp. 89-91) classifica le unità di questo tipo in cinque categorie: incontri (interazioni temporanee fra estranei), strutture diadiche (interazioni più durature fra due individui), gruppi sociali (interazioni durature fra tre o più individui), organizzazioni sociali (insiemi di persone che condividono obiettivi, caratterizzati da una divisione interna del lavoro, etc.) e comunità. Nel caso degli incontri, delle strutture diadiche e di molti gruppi sociali, l’unità di riferimento è molto astratta, ed è praticamente impossibile tracciare i confini della popolazione: gli oggetti da osservare vengono individuati in base alle opportunità che offre lo specifico ambito della ricerca.
    Le organizzazioni sociali, le comunità e alcuni tipi di gruppi sociali sono più facilmente identificabili; pertanto è più agevole individuare una popolazione. Sul piano della scelta degli oggetti da osservare, questi tipi di unità presentano specifici problemi. Ad esempio, organizzazioni e comunità sono di solito composte da aggregazioni di altri tipi di oggetto, ognuno dei quali può essere preso in considerazione dalla ricerca (in una ricerca sui sindacati, Lipset et al. 1956 hanno rilevato informazioni su 17 tipi di oggetto): l’inclusione/esclusione di determinate sotto-unità può influire sensibilmente sui risultati. Inoltre, la conduzione della ricerca va ad innestarsi su dinamiche interne preesistenti e sarà influenzata da esse: ad esempio, Blau (v., 1964) riferisce che il fatto che la dirigenza di un’azienda gli abbia consentito di rilevare informazioni su un gruppo di operai ha insospettito questi ultimi, rendendoli poco disposti a collaborare.
    Se le situazioni da osservare sono eventi (conflitti armati, scioperi, elezioni), la scelta degli oggetti deve fare i conti con i processi mediante i quali tali eventi sono definiti tali e con l’esistenza di fonti di documentazione (archivi, raccolte di stampa periodica, resoconti personali, etc.). Anche in questo caso la difficoltà sta nel definire una popolazione.
    Quando l’unità è un testo scritto, si parla di corpus piuttosto che di popolazione. Anche in questo caso può essere piuttosto arduo stabilirne i confini. La scelta degli oggetti da osservare può obbedire a criteri più rigorosi quando l’unità prescelta è riferita ai testi e ai messaggi tipicamente studiati mediante l’analisi del contenuto: la periodicità regolare della stampa e dei notiziari e l’elevata tipizzazione che caratterizza i palinsesti televisivi e radiofonici permettono di definire la popolazione e agevolano strategie di campionamento formalizzate (v. Amaturo, 1993, pp. 36-38).

4b. Rilevazione non strutturata.

    Le tecniche di rilevazione non strutturata mirano ad osservare e registrare la realtà studiata, il più delle volte interagendo direttamente con essa — ma senza l’intenzione di modificarla. La rilevazione viene effettuata appositamente per i fini cognitivi del ricercatore, direttamente presso le fonti delle informazioni e avvalendosi di una strumentazione materiale ridotta.
    L’osservazione partecipante — tipica dell’antropologia e dell’etnografia — è forse la tecnica di raccolta meno strutturata. In linea di massima, il ricercatore che vi ricorre non ha ipotesi precostituite e neppure strumenti di rilevazione (al di là dei propri sensi). Nell’osservazione partecipante il ricercatore cerca di diventare membro (o comunque di stabilire legami personali significativi con i membri) di un gruppo per un periodo relativamente lungo al fine di penetrare i loro mondi vitali. Il ricercatore “partecipa alla vita quotidiana delle persone oggetto di studio... osservando le cose che accadono, ascoltando ciò che viene detto, rivolgendo domande alla gente, per un periodo più o meno lungo” (v. Becker e Geer, 1957, Participant..., p. 28). L’assunto è che un ricercatore, o un piccolo gruppo di ricercatori, possano acquisire conoscenze significative mediante l’esplorazione approfondita delle normali attività di un gruppo sociale.
    Normalmente si ricorre all’osservazione partecipante quando il gruppo che interessa il ricercatore è molto coeso e relativamente isolato da altri gruppi, se ne conosce molto poco, si ritiene che esso abbia una concezione del mondo peculiare e/o le sue attività non sono comunque facilmente accessibili dall’esterno: sette religiose, bande di delinquenti, omosessuali, caserme, ospedali, quartieri popolari, etc. Alcuni studiosi la ritengono opportuna per indagini esplorative, dirette alla preparazione di rilevazioni più strutturate. In ogni caso, la tecnica è indicata quando si vuole “capire un particolare gruppo o problema sociale sostanziale piuttosto che controllare ipotesi circa le relazioni tra variabili” (v. Becker e Geer, 1957, Rejoinder, p. 37).
    Questa tecnica è particolarmente impegnativa, in quanto comporta una parziale ri-socializzazione del ricercatore in termini di ruoli sociali, di etichetta, di linguaggio; richiede un lungo processo di adattamento; implica un atteggiamento molto aperto e flessibile da parte del ricercatore, che deve essere dotato anche di notevoli capacità relazionali. Per riuscire non solo ad assorbire e comprendere le interazioni che osserva ma anche a individuare significati salienti e a comunicarli alla sua comunità scientifica, il ricercatore deve acquisire la capacità di pensare, agire e comunicare in modo conforme alle concezioni del mondo di due diversi gruppi, quello di origine e quello osservato (v. Becker, 1958, p. 652), e sviluppare un rapporto dialettico tra l’essere ricercatore e l’essere partecipe.
    Nell’osservazione partecipante non si può tracciare una chiara demarcazione tra fase di raccolta e quella di analisi. Mano a mano che il ricercatore si inserisce nella rete di interazioni del gruppo, egli è “spinto a rivedere e ad adattare il suo orientamento teorico e [l’interesse per] specifici problemi dal [loro] maggiore rilievo per il fenomeno oggetto di studio” (v. Becker e Geer, 1957, Participant..., p. 32).
    L’osservatore partecipante deve chiedersi in che misura può riuscire a trasmettere fedelmente la sua comprensione della cultura osservata alla comunità scientifica. Egli osserva eventi unici, in modo selettivo e non sistematico, e quindi non replicabile da altri; non è possibile definire una sequenza di fasi-tipo. Anche gli studiosi che adottano questa tecnica ammettono che due osservatori partecipanti della stessa situazione giungeranno quasi sicuramente a conclusioni divergenti. Eppure, per lo spessore delle informazioni raccolte, per la relativa immediatezza della rilevazione, per il fatto di basarsi su comportamenti spontanei piuttosto che su dichiarazioni o su comportamenti in qualche modo provocati dal ricercatore, questa tecnica ha un’importanza fondamentale per le scienze sociali.
    Si può immaginarla come una gamma di tecniche di raccolta distribuite lungo la dimensione osservazione-partecipazione: il ricercatore deve decidere dove collocarsi tra questi due poli. Se privilegia l’osservazione, egli sottolinea il suo ruolo di ricercatore e quindi il suo status di estraneo, con il rischio di compromettere la sua capacità di interagire significativamente con i membri del gruppo osservato. D’altra parte, la gente talvolta è più propensa a confidarsi con un estraneo (v. Pearsall, 1965, p. 342). Se si privilegia la partecipazione e quindi lo sviluppo di relazioni interpersonali e il coinvolgimento, si rischia di modificare indebitamente la realtà che si sta studiando. Inoltre, l’immersione nella nuova cultura può essere talmente riuscita da provocare una ridefinizione dell’identità del ricercatore. Diversi studiosi hanno tematizzato il rischio del “passare dall’altra parte” (going native, come dicono gli antropologi): il ricercatore diventa effettivamente (o sente di essere diventato) un membro del gruppo osservato, e sviluppa sentimenti di lealtà nei suoi confronti; di conseguenza, trascura o tralascia gli iniziali propositi scientifici (v. Vidich, 1955, pp. 355-357; v. Cicourel, 1964, p. 45).
    A causa del carattere non strutturato della rilevazione e del rilievo che assume la personalità del ricercatore, le procedure da seguire nell’ambito dell’osservazione partecipante non sono codificate: si passa molto tempo a riempire taccuini (o dischetti) di appunti (v. Schatzman e Strauss, 1973, pp. 99-105; v. Bogdan e Taylor, 1975, pp. 41-42).
    Un’altra dimensione centrale dell’osservazione partecipante si riferisce agli specifici soggetti che il ricercatore privilegia nelle sue interazioni con il gruppo. In primo luogo, non tutte le informazioni né tutte le fonti di informazione sono egualmente importanti. E’ probabile che il ricercatore graviti su persone che ritiene essere particolarmente informate circa le attività e le conoscenze del gruppo e/o che ricoprono posizioni di prestigio (v. Vidich e Shapiro, 1955, p. 28). D’altra parte, è possibile anche che individui marginali, che possono offrire prospettive illuminanti, siano attratti dall’osservatore e cerchino di comunicare con lui (v. Vidich, 1955, p. 357). La natura e la proficuità dei contatti che il ricercatore riesce a stabilire probabilmente variano anche a seconda del suo sesso, età e di altre sue caratteristiche.
    L’osservatore partecipante si avvale spesso di tecniche fotografiche e cinematografiche per registrare gli eventi osservati. Nelle scienze sociali la raccolta di informazioni visive non gode di una tradizione consolidata (se si esclude il cinema documentario nel campo dell’antropologia), per quanto la fotografia e la cinematografia abbiano esercitato sin dalle prime fasi del loro sviluppo rilevanti funzioni sociali. In parte ciò deriva dalle particolari competenze, tecniche e non, che fotografare e filmare richiedono — competenze che non fanno parte del bagaglio del ricercatore-tipo. A ciò si aggiungono costi considerevoli sia per la raccolta delle informazioni sia per la loro divulgazione. Questi fattori tecnici ed economici stanno peraltro venendo meno a causa della crescente diffusione dei mezzi di registrazione e riproduzione videoelettronica.
    Un altro motivo della scarsa diffusione delle tecniche di raccolta che producono informazioni visive attiene alle funzioni sociali storicamente rilevanti assunte dalla fotografia e dalla cinematografia — imperniate sull’indagine di denuncia sociale la prima, sullo spettacolo di intrattenimento di massa la seconda. Esse si sovrappongono alle funzioni di documentazione visiva, e contrastano con il rigore del “metodo scientifico”, nonché con tradizioni di ricerca formatesi intorno all’uso della parola scritta. Pure fotografare e filmare presentano vantaggi notevoli per l’immediatezza e la ricchezza delle informazioni, alle quali si aggiunge la possibilità di “rivedere la realtà” molte volte e coglierne ogni volta nuovi elementi.
    Chi raccoglie informazioni visive su pellicola o nastro deve misurarsi con un dilemma fondamentale che caratterizza questo tipo di rilevazione: la potenziale contrapposizione fra “bellezza estetica e vocazione restitutiva del reale” (v. Cipolla, 1993, p. 33). Da una parte, fotografia e cinematografia vengono percepite come tecniche che producono immagini fedeli e oggettive; perciò esse si avvantaggiano della “fiducia da noi accordata ad apparecchiature che sfruttano materiali fotosensibili e circuiti elettronici in grado di riprodurre la realtà secondo le leggi ottiche e processi tecnologici che noi riteniamo incontestabili” (v. Mattioli, 1991, p.9).   Dall’altra, chi ricorre a questi strumenti viene inevitabilmente tentato dalle funzioni espressive e dalle gratificazioni estetizzanti della dimensione artistica della riproduzione iconica. L’imprescindibilità di questa componente estetica e interpretativa viene percepita per lo più come una minaccia sul piano metodologico (v. ad es. Ferrarotti, 1974); ma non manca chi sa apprezzare il modo in cui essa “produce una miglior comprensione dei fenomeni sociali verso l’empatia... eleva l’interesse per il prodotto scientifico, lo rende più appetibile e facile, riduce le distanze fra senso comune quotidiano e senso comune scientifico” (v. Cipolla, 1993, p. 40).
    Si deve convenire, tuttavia, che la corretta fruizione delle informazioni visive presuppone grande padronanza di un complesso di codici di trasmissione (relativi ad aspetti tecnici quali l’inquadratura, l’illuminazione, il montaggio, etc.), iconici (relativi alla riconoscibilità degli oggetti fotografati o filmati), iconografici (relativi alla riconoscibilità delle combinazioni di oggetti) e socio-culturali (relativi all’uso fatto delle immagini) al fine di ridurre l’ambiguità delle informazioni stesse (v. Mattioli, 1991, pp. 157-161). Questa difficoltà ha senz’altro contribuito a limitare l’affermarsi di tecniche fotografiche, cinematografiche e di videoregistrazione nelle scienze sociali.
    Mattioli suggerisce che “le tecniche e i dati visivi vanno utilizzati soltanto quando offrono informazione aggiuntiva” rispetto a ciò che si può rilevare con tecniche più tradizionali (ibi, p. 177). Faccioli individua tre ambiti in cui si può procedere in questo senso: a) indagini sull’identità e sul senso oggettivamente inteso; b) la situazione di intervista; c) la restituzione delle informazioni visive raccolte ai soggetti-oggetti della ricerca stessa (v., 1993, p. 57).
    Nella situazione sub a, si tratta di indurre i soggetti della ricerca a fotografare/filmare se stessi, un determinato fenomeno, o quanto meno a partecipare alle decisioni circa cosa riprendere. Si procede successivamente a un’analisi delle immagini al fine di individuare assunti, percezioni, significati che hanno guidato la loro produzione. Un lavoro emblematico di questo filone viene descritto da Worth e Adair (v., 1972): ad alcuni membri di una tribù indiana nordamericana è stato insegnato a usare mezzi di ripresa perché registrassero usi, costumi, luoghi, etc. Nel caso sub b, oggetto della ricerca è l’interazione tra osservatore e osservato in una situazione di intervista. Filmare l’interazione permette di registrare elementi della comunicazione, sia verbale che non, che condizionano il processo di intervista (e ne possono eventualmente distorcere gli esiti). Nella situazione sub c, infine, si tratta di photo-elicitation: le immagini, che possono essere state prodotte sia dal ricercatore sia dai soggetti della ricerca, vengono mostrate a questi ultimi al fine di stimolare un’intervista libera, di approfondire una storia orale, insomma di alimentare l’autoriflessione e di registrare le interpretazioni, presumibilmente più informate di quelle che potrebbe formulare il ricercatore, di ciò che è stato fissato su pellicola (v. Harper, 1978).
    Ai filoni indicati dalla Faccioli se ne può aggiungere un quarto: filmare e fotografare periodicamente paesaggi, zone urbane, quartieri, etc. permette di documentare gli effetti dell’intervento dell’uomo sul territorio.
    Se si ricorre a tecniche di registrazione visiva occorre tener presente una serie di problematiche specifiche. Ad esempio, i mezzi di ripresa probabilmente influenzano i soggetti della registrazione (v. Smith et al., 1975). Mattioli (v., 1986) e Secondulfo (v., 1993) individuano alcune regole che è bene osservare quando si impiegano queste forme di rilevazione.
    Altre tecniche esigono dal ricercatore un impegno meno assiduo rispetto all’osservazione partecipante, ma si ispirano sempre alla ricostruzione di (parti di) mondi vitali. Le storie orali e gli approcci biografici, ad esempio, permettono di far rivivere mediante la narrazione situazioni sociali passate: memorie collettive (sotto forma di resoconti storici, proverbi, canzoni, formule rituali) tramandate ai posteri per via orale o racconti di ricordi personali di esperienze dirette.
    La narrazione svolge una funzione più centrale nelle culture ad oralità primaria, in cui ci si serve del racconto e di altre forme di espressione orale per conservare, organizzare e trasmettere conoscenze. Nelle società avanzate queste funzioni hanno ceduto il passo alla cultura scritta, ma — anche grazie all’oralità di ritorno che le contraddistingue (v. Ong, 1982) — in certi contesti culturalmente periferici (ceti popolari, zone rurali, minoranze etniche, comunità di immigrati, etc.) le storie orali consentono di ricostruire in modo proficuo il passato, l’universo simbolico e il sistema di percezioni di un gruppo sociale.
    Alcune tecniche si basano sulla ricostruzione di storie di vita attraverso i racconti. Gli approcci biografici si distinguono dalle storie orali in quanto la memoria viene indirizzata sulle esperienze personali del narratore, anche se l’uso di questa tecnica presuppone, di solito, che i racconti di vita permettano di rilevare informazioni non soltanto sul passato degli specifici individui interpellati (solitamente in numero ridotto), ma anche sui contesti in cui essi hanno vissuto, e perciò su altre vite con caratteristiche analoghe (v. Olagnero e Saraceno, 1993, pp. 12-14). La rilevazione di storie di vita è utile anche per indagare su fenomeni altrimenti difficilmente osservabili (come le attività sessuali o criminali e i tentativi di suicidio).
    A volte le vite possono essere ricostruite con l’ausilio di materiale documentale (diari, agende, curricula professionali, registri anagrafici, corrispondenze epistolari, foto, etc.; vedi § 4c) o in maniera relativamente strutturata mediante la compilazione di storie di eventi di vita (carriera scolastica, matrimonio, parti, morti familiari, mobilità geografica, carriera lavorativa).
    Quando, di converso, ci si prefigge di rilevare percezioni e rappresentazioni di situazioni e di processi, si sollecitano autobiografie scritte (di rado) o resoconti narrativi orali, i quali richiedono la collaborazione attiva dei soggetti le cui vite si vogliono ricostruire. Con un approccio biografico non strutturato si intende rilevare informazioni intorno a fenomeni sociali per i quali sia rilevante l’evoluzione nel tempo — devianza; trasformazioni di ruolo, status, identità; spostamenti nello spazio; e così via — con l’ausilio di soggetti che ne hanno avuto un’esperienza diretta.
    Evidentemente gioca un ruolo centrale la (selettività della) memoria del narratore, la quale rappresenta elementi del passato nella misura in cui sono, e in modo che siano, salienti per il presente, con diversi gradi di dettaglio e di verosimiglianza. Le informazioni rilevate comprendono sia notizie biografiche o storiche fattuali sia distorsioni di vario genere — che anch’esse possono costituire elementi significativi, pur se difficilmente distinguibili da quelli fattuali.
    E’ probabile che il ricercatore partecipi attivamente alla registrazione delle storie orali o delle storie di vita, magari svolgendola per intero. In ogni caso, occorre che il rilevatore sia dotato di notevoli capacità relazionali e di indirizzo della spontaneità del racconto. La registrazione può anche svolgersi nel corso di una lunga serie di sedute, ma il tempo è comunque una risorsa molto più scarsa che nell’osservazione partecipante, per cui il rilevatore deve poter sollecitare ulteriori informazioni appena gli se ne presenta l’occasione.
    La rilevazione di informazioni mediante colloqui o lunghe interviste non strutturate è indicata quando il ricercatore ha determinato le aree tematiche generali su cui vuole indagare, ma possiede ancora relativamente poche conoscenze intorno a queste tematiche e/o ai soggetti da studiare. Quando il ricercatore è interessato a indagare su ambiti con i quali è già familiare e su un insieme tendenzialmente pre-definito di proprietà, egli può ricorrere a tecniche di rilevazione basate sull’intervista semi-strutturata o strutturata (vedi oltre).
    La distinzione tra colloquio e intervista non strutturata non è nitida. Secondo Trentini (v., 1980), il colloquio ha carattere clinico e finalità diagnostiche e terapeutiche, sulle quali possono innestarsi quelle conoscitive del ricercatore, ed è spesso sollecitato dai soggetti stessi; l’intervista invece ha soltanto fini cognitivi. I colloqui e le interviste non strutturate lasciano molto spazio alla spontaneità dell’intervistato e alla trattazione di tematiche non previste. I compiti dell’intervistatore (che dovrebbe avere buone competenze relazionali e una certa esperienza) si limitano a garantire che tutti gli argomenti di interesse (previamente riportati su una traccia di conduzione) vengano affrontati, e a porre domande di approfondimento: si tratta di un ruolo “maieutico” (v. Montesperelli, 1996, § 4.3.2). Le informazioni vengono registrate o per iscritto, magari mediante una codifica in situ da parte dell’intervistatore, oppure, più comunemente, mediante una registrazione fonica o audiovisiva con eventuale trascrizione successiva. I colloqui e le interviste non strutturate possono anche avere funzioni esplorative, propedeutiche a una rilevazione strutturata, nel qual caso si potrebbe anche non ricorrere a una registrazione completa.
    La registrazione delle storie orali, dei racconti biografici, dei colloqui e delle interviste non strutturate viene normalmente seguita dalla trascrizione. E’ bene che essa venga effettuata dallo stesso rilevatore in quanto il suo contatto diretto con i oggetti gli permette di cogliere “valenze del contesto ambientale... e altri aspetti dell’interazione che vanno irrimediabilmente perduti in una registrazione fonica” (v. Montesperelli, 1996, § 4.5). Le modalità di trascrizione oscillano tra i due criteri contrapposti della fedeltà assoluta (compresi silenzi, rumori, errori grammaticali, forme gergali e dialettali, comportamenti non verbali) e dell’adattamento a un linguaggio standard: la prima soluzione può produrre un testo di difficile lettura, la seconda rischia di eliminare informazioni essenziali per la comprensione del mondo vitale del soggetto (ibidem).
    L’intervista strutturata si avvale di un questionario e prevede che all’intervistato si rivolga, in un ordine non modificabile e con testi standardizzati, un insieme di domande e si imponga di rispondere secondo schemi prestabiliti (v. Pitrone, 1984, pp. 33-43; v. Fideli e Marradi, 1995, § 2). L’invarianza degli stimoli e dei formati di reazione garantisce una semplice registrazione delle risposte e la loro (presunta) comparabilità, facilita la separazione del ruolo di ricercatore da quello di intervistatore (con i rischi che ne derivano; v. Boccuzzi, 1985) e consente di raccogliere informazioni su ampi gruppi sotto forma di sondaggio. La situazione di intervista ospita quindi una tecnica di rilevazione strutturata (v. § 4d), anche se le informazioni rilevabili non si esauriscono in quelle registrate sul questionario.
    A differenza delle forme di rilevazione non strutturata, l’impiego di un questionario solitamente non dà luogo a un contatto diretto tra il ricercatore e i fenomeni e/o gli individui studiati, per l’interposizione di una rete di intervistatori. Ciò permette al ricercatore di non attivare le proprie competenze nel campo delle relazioni umane (bensì quelle degli intervistatori), ma comporta anche una potenziale perdita di informazioni.
    Nelle situazioni di intervista sarebbero infatti rilevabili molte informazioni che solitamente non vengono registrate — se non mentalmente — dall’intervistatore, né tanto meno vengono comunicate al ricercatore: le modalità attraverso le quali i soggetti accettano (o meno) di essere intervistati, i comportamenti non-verbali o comunque non previsti dal questionario, eventuali segnali attinenti alla salienza degli argomenti affrontati e alla fedeltà delle risposte, le distorsioni introdotte dall’intervistatore — insomma, tutte le informazioni relative all’interazione tra intervistatore e intervistato che potrebbero costituire elementi conoscitivi di rilievo anche per il fenomeno oggetto di studio. Il recupero di queste informazioni richiederebbe un maggiore grado di coinvolgimento e di partecipazione degli intervistatori nella pianificazione della rilevazione e nella successiva analisi dei risultati (v. Boccuzzi, 1985). Se le interviste vengono somministrate telefonicamente oppure, peggio ancora, mediante questionari da autocompilare o mediante computer, le reazioni dell’intervistato sfuggono a qualsiasi rilevazione.

4c. Rilevazione di informazioni process-produced.

    Le informazioni si dicono process-produced quando sono state create nell’ambito delle normali attività di individui o di enti sia privati che pubblici, anziché nel corso di rilevazioni aventi scopi precipuamente scientifici. Ne sono esempi le registrazioni anagrafiche e su altri registri pubblici, le notizie pubblicate sui quotidiani, i programmi televisivi, le statistiche raccolte da organizzazioni economiche al fine di orientare le attività di mercato, i dati censuari, le fotografie raccolte negli album di famiglia, i programmi ufficiali dei partiti politici, etc. La rilevazione di informazioni process-produced si contraddistingue quindi per il fatto che tali informazioni sono già state rilevate da qualcun altro per scopi diversi dalla ricerca: il ricercatore si limita a sceglierle, acquisirle e adattarle agli scopi della sua analisi.
    A tale scopo si ricorre spesso alla cosiddetta “analisi del contenuto”: l’espressione designa un insieme di approcci finalizzati allo studio di “fatti di comunicazione (emittenti, messaggi, destinatari e loro relazioni) e che a tale scopo utilizzano procedure di scomposizione analitica e di classificazione... di testi e di altri insiemi simbolici” (v. Rositi, 1988, p. 66). Di solito la rilevazione viene effettuata su un corpus più o meno esteso di messaggi veicolati dai mezzi di comunicazione di massa, anche se altri oggetti sono possibili (ad esempio, le verbalizzazioni di interviste aperte).
    Rositi (v., 1970) ha proposto una tipologia dell’analisi del contenuto che usa come fundamentum divisionis il modo in cui le “unità comunicative” vengono scomposte in elementi più semplici, le “unità di classificazione”. Nel primo tipo la rilevazione si incentra su unità linguistiche quali termini, simboli-chiave, temi, proposizioni. Il ricercatore deve decidere quali specifici termini, etc. rilevare e elaborare uno schema per classificarli. Spesso ciò avviene dopo aver esaminato e essersi familiarizzato con una parte del corpus. Lo schema di classificazione verrà determinato, oltre che dagli interessi cognitivi del ricercatore, dalla particolare analisi che ci si propone di effettuare: frequenza con cui determinate (categorie) di unità linguistiche compaiono; co-occorrenze; costruzione di indici verbali; valutazioni espresse nei confronti di determinati simboli-chiave; corrispondenze lessicali (v. Losito, 1993, cap. 2). In questo caso si assume che “la frequenza di una determinata parola o simbolo-chiave è un indicatore dell’interesse... dei testi analizzati nei confronti di ciò che la parola o il simbolo-chiave designa” (ibi, p. 43).
    Dato che privilegia unità prettamente linguistiche, questo primo tipo di analisi del contenuto si presta all’informatizzazione. Sono stati sviluppati e vengono ampiamente usati diversi softwares (v. Amaturo, 1993, cap. 3; v. Losito, 1993, § 2.6), i quali richiedono che i messaggi vengano tradotti in un formato leggibile per il computer (ad esempio, immettendo testi da tastiera, avvalendosi di corpora già disponibili in formati leggibili, usando scanners ottici). Se il ricorso al calcolatore facilita la rilevazione e la successiva analisi — ed elimina le difficoltà connesse al coordinamento di un’équipe di rilevatori/classificatori — esso può scontrarsi con alcuni problemi (in parte superabili mediante un intervento umano o, in misura crescente, di softwares sofisticati) riguardanti la polisemia, l’omonimia, le forme varianti, i termini stranieri, i referenti dei pronomi, le allusioni.
    Gli altri tipi proposti da Rositi mettono l’accento sui significati dei messaggi, su elementi che “non hanno una riconoscibilità linguistica a livello di significanti” (v., 1988, p. 72): si tratta, ad esempio, di comportamenti descritti nelle notizie di cronaca, di caratteristiche di personaggi di programmi televisivi o di romanzi, di situazioni raffigurate nelle immagini pubblicitarie. Si prende in esame il testo (o immagine o narrazione) nella sua globalità, utilizzando “come strumento di rilevazione una scheda... del tutto simile, quanto a struttura, a un questionario”. Questa scheda è paragonabile a un insieme di “domande rivolte ai testi oggetto d’analisi, alle quali sono chiamati a rispondere uno o più analisti che interpretano i contenuti stessi in base a regole definite e uguali per tutti” (v. Losito, 1993, pp. 76 e 87).
    L’analogia tra questo tipo di analisi del contenuto e la somministrazione di un questionario strutturato regge solo fino a un certo punto. Ad esempio, le domande sulla scheda di rilevazione vengono ordinate in modo da risultare conveniente per il rilevatore, non per l’oggetto dell’analisi. Inoltre, normalmente non sarà possibile rilevare informazioni su tutte le proprietà operativizzate per ogni testo preso in esame: i testi, infatti, non sono stati prodotti tenendo conto degli scopi della ricerca. E’ quindi probabile che questo tipo di rilevazione dia luogo a molti dati mancanti nella matrice. La differenza di maggiore rilievo, tuttavia, attiene al ruolo del rilevatore; anche se si immagina che egli “rivolga domande” ai testi, non sono questi ultimi a rispondere, bensì lo stesso rilevatore. Garantire una ragionevole omogeneità dei criteri di rilevazione da parte di rilevatori diversi costituisce quindi il problema metodologico principale di questa tecnica.
    Occorre, infine, ricordare il fatto che l’analisi del contenuto si basa sull’assunto che i messaggi studiati siano socialmente rilevanti e influenti. Tuttavia, messaggi diversi avranno impatti diversi, l’entità dei quali è determinata, tra l’altro, dal numero di lettori/spettatori raggiunti dal messaggio, dall’autorità riconosciuta alla fonte del messaggio, etc. E’ bene che la rilevazione tenga conto del presunto impatto socio-culturale di ogni messaggio.
    Al di là delle tecniche riconducibili all’analisi del contenuto, esistono anche altri approcci per lo studio dei testi prodotti nel corso di attività socialmente rilevanti. Avvalendosi degli strumenti elaborati dalla semiotica, dalla linguistica e dall’analisi strutturale, tali approcci valorizzano in chiave ermeneutica la specificità dei codici, le strutture tematiche e funzionali dei testi, i modelli di significazione e di argomentazione, l’esigenza di recuperare la complessità della comunicazione. Esistono ad esempio svariate forme di analisi del discorso, ognuna con un proprio modo di classificare e operativizzare le funzioni e il contenuto degli atti comunicativi e con proprie regole di preparazione e di trascrizione/riduzione dei testi: analisi automatica del discorso, analisi proposizionale del discorso, analisi dei modi dell’argomentazione, analisi della conversazione e via dicendo.
    Un altro insieme di tecniche ricorre alla costruzione di files ecologici, in cui sono riportati dati aggregati per unità territoriale. Le informazioni sono rilevate, elaborate e pubblicate da parte di enti istituzionali (come Istat, ministeri, enti locali, anagrafi), altri enti pubblici (Enel, Siae, Sip, Cnel) e strutture private (sindacati, camere di commercio, organizzazioni religiose). La disponibilità di questo genere di dati consente al ricercatore di risolvere alcuni problemi cognitivi a costi molto ridotti rispetto a quelli di un’apposita rilevazione.
Il ricercatore in un paese sviluppato può solitamente avvalersi di pubblicazioni statistiche specialistiche a periodicità fissa; delle stesse informazioni riportate su dischetto; di pubblicazioni riportanti indicatori sociali espressi sotto forma di indici, rapporti, etc.; dell’accesso a banche-dati. Al fine di costruire files ecologici, il ricercatore — dopo aver deciso il livello territoriale al quale riferire la rilevazione, il relativo ambito temporale e i rapporti di indicazione che intende stipulare — deve scegliere le fonti e le informazioni alle quali accedere. A questo proposito, gli indubbi vantaggi  pratici della costruzione di files ecologici sono accompagnati da una serie di limiti. Zajczyk (v., 1991, cap. 1) distingue tra problemi dovuti all’inadeguatezza delle informazioni sul piano dell’aggregazione territoriale, all’inadeguatazza delle informazioni rispetto ai problemi cognitivi e alla molteplicità e scarso coordinamento degli enti produttori.
    L’inadeguatezza territoriale deriva dalla possibile mancata corrispondenza tra le unità amministrative di cui gli enti produttori si servono come base per aggregare le informazioni e le unità geografiche che il ricercatore ritiene rilevanti per i suoi interessi. In Italia, ad esempio, le informazioni ecologiche sono disponibili quasi esclusivamente sotto forma di distribuzioni per comune, provincia o regione. Se il ricercatore è interessato a un altro tipo di ripartizione geografica, egli può solo sperare di poter accedere ad informazioni abbastanza disaggregate da consentire opportune riaggregazioni. Chi cerca di costruire serie storiche può imbattersi in un’altra difficoltà inerente al cambiamento dei confini delle unità amministrative (sui problemi inerenti ai livelli di aggregazione territoriale, v. Schadee e Corbetta, 1984, cap. 4).
    I dati process-produced possono rivelarsi inadeguati anche sul piano delle definizioni e delle classificazioni. Il ricercatore che se ne serve deve accettare le definizioni operative adottate dagli enti produttori, che spesso non coincidono con quelle che lui avrebbe usato. A volte gli enti produttori di dati continuano ad applicare definizioni non più adeguate in quanto ciò consente la comparabilità con dati rilevati in passato, quando quelle definizioni erano ancora opportune. D’altra parte, eventuali revisioni possono introdurre nei files ecologici distorsioni delle quali magari il ricercatore non è consapevole. Inoltre, è facile che le fonti statistiche non esprimano le informazioni in formati immediatamente fruibili per gli specifici intenti del ricercatore (valori assoluti, valori percentuali, indici, quantità di beni prodotti, valore economico dei beni prodotti, etc.), non riportino determinate tabulazioni incrociate, non disarticolino le informazioni in base ad altre variabili interessanti, e così via.
    Nei paesi sviluppati esiste un elevato numero di enti produttori e di fonti di informazioni process-produced, il che favorisce ridondanze e sovrapposizioni nelle informazioni. La molteplicità degli enti produttori implica una forte disomogeneità nei dati che essi mettono a disposizione. Ne consegue che il ricercatore deve essere particolarmente attento non solo quando combina informazioni provenienti da fonti diverse, ma anche quando decide da quale attingere fra più fonti che offrono (o sembrano offrire) lo stesso prodotto.
    Nella costruzione di files ecologici il ricercatore esercita uno scarso controllo sul processo di produzione iniziale dei dati che utilizza. Affinché egli possa valutare la fedeltà dei dati e la fondatezza di eventuali comparazioni nello spazio e nel tempo, “occorre che il ricercatore disponga di una puntuale ‘informazione sull’informazione’” (v. Zajczyk, 1991, p. 14; v. anche cap. 7). Occorre altresì che il ricercatore sia motivato ad approfondire queste conoscenze, dedicando una parte delle sue risorse ad indagare sui processi di costruzione dei dati messi in atto dagli enti produttori. La cautela è particolarmente indicata nel caso di alcuni dati forniti da enti istituzionali: se il fruitore è portato ad inchinarsi di fronte alla “ufficialità” del dato, in alcuni casi chi è oggetto della rilevazione (extra-comunitario, evasore fiscale, costruttore abusivo) può avere ottimi motivi per cercare di sfuggire ad essa (v. Linz, 1969, pp. 103-104), e lo stesso ente produttore può avere interesse ad alterare i dati (v. Merritt, 1970, p. 40).
    La rilevazione di informazioni process-produced può riferirsi anche a documenti personali: diari, lettere, fotografie. Questi documenti permettono di rilevare informazioni relativamente aderenti al mondo della vita di chi li ha prodotti. A differenza dei dati divulgati da enti produttori, tuttavia, i documenti personali non sono stati creati a fini conoscitivi né con una periodicità sistematica, e presentano formati inevitabilmente non standardizzati.
    Le maggiori difficoltà riguardano le distorsioni inerenti alla conservazione e all’accesso a questo genere di documenti. In linea generale, è più facile che lettere, diari, fotografie, etc. siano stati prodotti e conservati da individui con un elevato grado di istruzione e/o visibilità. Inoltre, i documenti personali attraversano processi selettivi di sopravvivenza, sui quali il ricercatore non esercita alcun controllo e dei quali può anche non sapere alcunché: molto materiale viene deliberatamente distrutto o si deteriora col passare del tempo; vengono conservate soltanto le lettere ritenute importanti e le foto “belle”; la conservazione dipende anche dalle modalità di circolazione dei documenti.
    I processi selettivi attengono non solo all’attività dei produttori dei documenti ma anche alle procedure di raccolta e di catalogazione messe in atto da centri di documentazione e di ricerca storica e da archivi, ai quali il ricercatore si rivolge per accedere ad ampi repertori di documenti personali. Occorre tenere conto del fatto che questi centri solitamente si dedicano a periodi, eventi e fenomeni storici circoscritti (la resistenza, l’immigrazione, etc.) o a personaggi celebri. Alcuni centri di documentazione sono dediti specificamente alla raccolta e conservazione di informazioni visive (v. Mattioli, 1991, pp. 135-137), che possono anche essere prodotte sistematicamente da professionisti (valgono sempre le avvertenze, sottoposte in § 4b, circa la tensione tra rappresentazione oggettiva e intervento estetizzante).
    Non si deve, infine, trascurare la possibilità di rilevare informazioni prodotte nel corso di precedenti indagini scientifiche. La cosiddetta “analisi secondaria” (che, nonostante il suo appellativo, si contraddistingue per come raccoglie le informazioni, non per come le analizza) prevede “l’estrazione di conoscenza su argomenti diversi da quelli che erano il fuoco dei sondaggi originari”, estrazione che permette di “espandere i tipi e il numero di osservazioni per coprire in modo più adeguato una varietà più ampia di condizioni sociali, procedure di misurazione e variabili” di quanto sarebbe altrimenti possibile (v. Hyman, 1972, pp. 1 e 11). Le opportunità di analisi secondaria stanno aumentando grazie ai progressi tecnologici che permettono un’efficiente archi-viazione e trasferimento di dati, alla creazione e consolidamento di molti centri di raccolta, alla diffusione di prodotti informatici che consentono un agevole trattamento dei dati, ai vantaggi economici di cui gode chi rinuncia a intraprendere rilevazioni ad hoc, e infine alle sue potenzialità didattiche. D’altra parte, l’analisi secondaria si scontra spesso con problemi inerenti alla mancata conservazione dei dati, all’insufficiente documentazione dei files, alla sopravvenuta obsolescenza dei sistemi di archiviazione e alla resistenza opposta da qualche ricercatore a chi vorrebbe usare i “suoi” dati.
    Si distinguono dall’analisi secondaria la “ri-analisi” — termine che designa una ricerca in cui l’oggetto cognitivo è il medesimo della ricerca originaria e si vuole far emergere e correggere difetti dell’analisi “prima-ria” — e la “meta-analisi”, che invece mira a una sintesi degli esiti di precedenti studi, in cui cioè le informazioni da rilevare sono le conclusioni di un insieme di ricerche. In entrambi questi casi, gli argomenti trattati sono gli stessi delle ricerche originarie, mentre l’analisi secondaria mira — di solito mediante la stipulazione di nuovi rapporti di indicazione — a sfruttare dati di indagini precedenti per indagare su argomenti non necessariamente coincidenti con quelli delle rilevazioni originarie.

4d. Rilevazione strutturata.

    Nella rilevazione strutturata le informazioni vengono raccolte, classificate e registrate secondo schemi tendenzialmente rigidi, pre-stabiliti dal ricercatore e rispondenti più alle sue esigenze cognitive che a quella della fedeltà agli stati e alle concezioni dei soggetti studiati. Vi si ricorre quando il ricercatore dispone (o ritiene di disporre) di conoscenze intorno al fenomeno indagato sufficienti per individuare quali proprietà e quali stati siano rilevanti. La rilevazione strutturata dà luogo a una notevole riduzione della complessità delle attività di ricerca e consente di operativizzare molti concetti, di semplificare le procedure di registrazione e codifica, di riunire tutti i dati prodotti in un’unica matrice (vedi oltre), di comparare agevolmente stati di casi diversi, di controllare ipotesi precise. Questi vantaggi comportano un costo relativamente elevato: il rischio di comprimere eccessivamente la natura variegata dei fenomeni sociali, di trattare argomenti non salienti per i mondi vitali degli individui indagati, di produrre dati che non ne riflettono gli stati effettivi.
    Alcune tecniche relative a questo tipo di rilevazione comportano la strutturazione della raccolta delle informazioni sin dal primo contatto con gli individui o oggetti indagati (ad es., mediante la somministrazione di un questionario con domande chiuse, l’analisi del contenuto, etc.). Queste tecniche, tuttavia, possono anche essere applicate a informazioni rilevate mediante tecniche non strutturate (osservazione partecipante, storie orali, interviste non strutturate, etc.; v. § 4b); in questo caso la collaborazione dei soggetti indagati non è richiesta per le procedure descritte nel resto di questo paragrafo.
    Nella rilevazione strutturata si procede alla divisione dell’estensione del concetto-proprietà che interessa al ricercatore in estensioni più ristrette, ciascuna delle quali corrisponde a un concetto più specifico, ovvero a una classe del concetto-proprietà. Questa divisione, o classificazione intensionale, si ottiene articolando uno o più aspetti (detti fundamenta divisionis) dell’intensione del concetto-proprietà e produce uno schema di classificazione o una tipologia (v. Marradi, 1992, § 1a). In seguito si assegnano gli oggetti o eventi osservati alle classi o ai tipi precedentemente costituiti a seconda dei loro stati (o combinazioni di stati) sulle relative proprietà, e poi si registrano gli esiti di questa operazione.
    “E’ assai opportuno ammettere la rivedibilità dello schema di classificazione sulla base delle risultanze emerse nella fase di assegnazione, per correggere i difetti” (ibi, p. 26), che possono riguardare l’imprecisione delle regole di attribuzione; la necessità di prevedere una o più classi residuali per tener conto di casi con stati imprevisti; l’opportunità di evitare distribuzioni squilibrate (in cui, cioè, una classe contiene una proporzione troppo alta, o troppo bassa, di casi). Per affinare lo schema sarebbe opportuno effettuare pre-tests di questionari o classificazioni di una parte del materiale raccolto con tecniche non strutturate prima di procedere alla rilevazione definitiva. Inoltre, alcune di queste difficoltà vengono attenuate se ai soggetti, i cui stati sono da classificare, viene reso noto lo schema di classificazione e permesso di partecipare alle procedure di assegnazione.
    Le caratteristiche dello schema di classificazione e il processo di assegnazione dei casi sono sostanzialmente identici se il ricercatore vuole riprodurre l’ordine che percepisce tra gli stati di una proprietà nei rapporti fra le classi dello schema di classificazione (ibi, § 2a). Tale ordine può essere attribuito a stati percepibili come appartenenti a una serie ordinata (ad es., quando si operativizza il livello di istruzione mediante la rilevazione del titolo di studio conseguito); percepiti come allineabili lungo un continuum segmentabile mediante una procedura di scaling (ad es., rilevazione di atteggiamenti; vedi oltre) o un’unità di misura (ad es., età); o accertabili mediante un conteggio (ad es., numero di figli; v. anche Marradi, 1980-81). A seconda di come vengono ideate le classi, si dà luogo a variabili categoriali, ordinali (più correttamente ‘categoriali ordinate’) o cardinali; gli esiti delle attività di classificazione avranno rilevanti conseguenze sul piano delle tecniche di analisi statistica che si potranno usare (v. § 5b).
    La possibilità di ricondurre gli stati di un insieme di soggetti a una classificazione è influenzata dalla natura dello stimolo che viene loro rivolto. La domanda aperta consente all’intervistato di esprimere pienamente e in maniera spontanea la sua posizione, ma la ricchezza di informazioni viene persa quando gli intervistatori riconducono le risposte a poche classi. Inoltre, vi è il pericolo di sollecitare risposte non riconducibili allo schema di classificazione prestabilito (v. Palumbo, 1992). La domanda chiusa è accompagnata dall’elenco delle risposte ritenute accettabili dal ricercatore: il compito dell’intervistato viene facilitato, col rischio però di suggerirgli risposte che non avrebbe indicato in modo spontaneo o di imporgli uno schema di classificazione da lui non condiviso. Una soluzione intermedia prevede che una risposta diversa da quelle pre-definite venga registrata e successivamente post-codificata. Per tutte e tre le forme l’interazione tra intervistatore e intervistato svolge un ruolo centrale nell’introdurre o meno distorsioni (v. § 4b).
    Altre difficoltà derivano dai termini usati per esprimere la domanda e dalla sua struttura semantica. Pitrone (v., 1984, cap. 8) individua quattro fonti di distorsione attinenti alla formulazione delle domande: complessità / oscurità dei termini; sotto-determinazione, quando la formulazione è ambigua o comunque non consente all’intervistato di comprendere cosa gli viene chiesto; sovra-determinazione, quando la formulazione induce a privilegiare indebitamente alcune alternative di risposta rispetto ad altre; “obtrusività”, quando la domanda imbarazza l’intervistato o in altro modo incoraggia risposte infedeli (per un’eccellente trattazione dei problemi riguardanti la redazione di domande e questionari, v. Payne, 1951).
    Mentre le proprietà concepibili come continue sono numerose, poche di quelle misurabili in senso stretto (data la disponibilità di un’unità di misura) rivestono interesse per le scienze umane. La potenza delle tecniche di analisi statistica applicabili alle variabili cardinali (v. § 5b) incoraggia i ricercatori ad escogitare definizioni operative che permettono di assegnare etichette numeriche agli stati e di trattare tali etichette come se avessero le proprietà cardinali dei numeri. Per questi motivi si ricorre in modo diffuso alle già menzionate tecniche di scaling, specie per operativizzare dimensioni concettuali relative a valori e atteggiamenti e per costruire indici (per alcune delle tecniche più note, v. Arcuri e Flores d’Arcais, 1974; v. McIver e Carmines, 1981). La maggior parte di queste tecniche consiste nella somministrazione di una serie di stimoli e prevede che i soggetti facciano riferimento a schemi di risposta pre-definiti ed eguali per ogni stimolo.
    Queste serie di sollecitazioni (composte il più delle volte da frasi compiute, ma anche da termini/espressioni, immagini, etc.), dette anche “batterie”, permettono di raccogliere grandi masse di informazioni facilmente analizzabili e relativamente conformi alle esigenze conoscitive del ricercatore. D’altra parte, le relative tecniche sono esposte a diversi tipi di distorsione (tra cui primeggiano gli stili di risposta; v., ad es., Broen e Wirt, 1958), che vanificano non solo la pretesa di “misurare” gli stati degli intervistati, ma anche quella di stabilire un ordine tra le classi di risposta. Inoltre, è assai improbabile che gli assunti sottesi alle diverse tecniche siano condivisi dagli intervistati (sui pregi e difetti di alcune tecniche di scaling, si vedano Marradi 1987, capp. 4 e 5; Cacciola e Marradi, 1988; Gasperoni e Giovani, 1992; Sapignoli, 1992; Marradi, 1994, L’analisi..., § 5.2). Un altro rischio attiene al fatto che, una volta che è stata formulata e usata in una ricerca — specie se quest’ultima diventa celebre — una batteria tende ad essere riproposta in contesti diversi da quello originale senza eliminarne difetti evidenti e senza che essa venga adattata alle specifiche caratteristiche del nuovo contesto (basti pensare alla nota “scala-F”; v. Adorno et al., 1950).
    Come si è accennato, le interviste strutturate permettono di operativizzare un numero elevato di proprietà. Pertanto un questionario può ospitare domande e batterie riguardanti un’ampia varietà di argomenti. Pitrone ne propone la seguente classificazione (v., 1984, § 4.1): caratteristiche socio-anagrafiche di rilievo “strutturale” (età, sesso, etc.); mutamento delle caratteristiche “strutturali” (occupazione, stato civile, etc.); conoscenza e percezione di fatti; sentimenti e credenze; opinioni e valori; standards di azione; previsioni; motivazioni. Il questionario solitamente inizia con una breve presentazione, che serve a illustrare gli obiettivi della rilevazione e ad ottenere la collaborazione dell’intervistando. Fanno parte del questionario anche le istruzioni dirette all’intervistatore (ad es., su come riformulare domande complesse, codificare stati imprevisti, trattare intervistati ricalcitranti, etc.) e le eventuali domande, solitamente poste in calce, rivolte all’intervistatore al fine di rilevare alcune informazioni relative alla situazione di intervista e all’intervistato (v. § 4b).
    Nella redazione del questionario è opportuno fare molta attenzione alla successione delle domande, la quale dovrebbe tener conto di diversi elementi: carattere potenzialmente delicato degli argomenti trattati; naturalezza dei passaggi da un argomento all’altro; possibilità che alcune domande influenzino le risposte ad altre; opportunità di suddividere e distribuire nel corpo del questionario le “batterie” di quesiti per evitare che l’intervistato si stanchi o perda interesse; e così via.
    E’ importante distinguere tra strumenti strutturati (come il questionario) aventi lo scopo di rilevare atteggiamenti, interessi, opinioni, aspirazioni, etc., e altri strumenti strutturati (come i test e le prove d’esame) usati per rilevare capacità, attitudini, livelli di conoscenza, patologie, etc. e magari anche prendere decisioni che influiranno sulle vite dei soggetti (per certi versi, questa distinzione rispecchia quella tra intervista e colloquio; v. § 4b). In questo secondo caso, quindi, la rilevazione ha scopi non solo cognitivi, ma anche operativi e talvolta persino prescrittivi. Il test spesso ha un obiettivo cognitivo più circoscritto del questionario, e quindi mira a rilevare poche proprietà simili o anche una sola; inoltre, si compone di quesiti altamente standardizzati. Un’altra differenza inerisce al fatto che i soggetti esaminati spesso sono tenuti a sottoporsi a un test al fine di raggiungere un determinato traguardo (un titolo di studio, un lavoro, etc.). In misura ancora più accentuata che nell’uso di un questionario strutturato, il ricercatore deve nutrire molta fiducia nelle teorie che hanno guidato la redazione del test e nella capacità di quest’ultimo di registrare fedelmente gli stati degli individui.
    A differenza del questionario, il test prevede risposte giuste e risposte sbagliate alle domande; questa distinzione accentua la strutturazione della rilevazione. L’esaminato non contribuisce in alcun modo alla determinazione di quali siano le risposte giuste ai quesiti rivoltigli (mentre, naturalmente, l’intervistato è l’unico a conoscere le risposte fedeli alle domande che gli vengono somministrate). Inoltre, di solito, l’esaminato è comprensibilmente motivato a scegliere certe alternative di risposta piuttosto che altre e a presentare una certa immagine di sé, anche a costo di distorcere deliberatamente (se vi riesce) il modo con cui vengono registrate le proprie capacità, etc. (l’espressione ‘response set’ designa questo fenomeno; v. Cronbach 1946). Nel valutare la fedeltà dei dati, il ricercatore deve fare i conti con questa volontà, che è tanto più presente fra gli intervistati quanto più essi si sentono sottoposti a un esame; v. Edwards, 1957; v. Converse, 1970, p. 170).
    Le informazioni rilevate mediante rilevazioni strutturate possono essere raccolte in griglie chiamate matrici, i cui elementi fondamentali sono i casi, le variabili e i valori. Sono possibili sei tipi non ridondanti di matrice bidimensionale: casi per casi; casi per variabili; casi per valori; variabili per variabili; variabili per valori; e valori per valori. Le matrici si distinguono in primarie, nelle quali i casi rappresentano almeno uno degli elementi, e derivate, prodotte dall’incrocio di coppie di vettori-riga e vettori-colonna estratti delle matrici primarie (v. Delli Zotti, 1985, § 2). Le matrici primarie sono usati per la raccolta dei dati; quelle derivate si prestano all’analisi.
    Il tipo di matrice di rilevazione più usata nelle scienze sociali è la matrice “casi per variabili” (o matrice dei dati). In essa i vettori-riga hanno per referente gli oggetti indagati e i vettori-colonna hanno per referente le proprietà. Pertanto una matrice dei dati ha tante righe quanti sono i casi e tante colonne quante sono le variabili. Le celle della matrice ospitano i dati, ossia i valori che sono stati assegnati agli stati presentati dai relativi casi sulle relative variabili. Questa matrice concentra tutti i dati prodotti nel corso della rilevazione e li prepara per l’analisi statistica (v. § 5b). Inoltre, da essa sono ricavabili non solo le matrici derivate ma anche gli altri due tipi di matrice primaria.
    I dati possono essere raccolti anche in matrici “casi per casi”, le cui celle ospitano dati relativi alla presenza, la natura o l’intensità della relazione tra due casi. Dato che i vettori-riga e i vettori-colonna si riferiscono allo stesso tipo di elemento, è possibile riportare dati relativi a due relazioni distinte (ad es., importazioni ed esportazioni se i casi sono paesi; flussi di voti se i casi sono partiti) nelle celle dei due triangoli speculari rispetto alla diagonale; altrimenti, le celle di uno dei triangoli contengono informazioni ridondanti. Le celle collocate lungo la diagonale possono essere lasciate vuote oppure contenere ciascuna un dato riferito a un solo caso e utile per contestualizzare i dati delle altre celle (ad es., rispetto agli esempi sopra esposti, prodotto interno lordo di un paese; totale dei voti ottenuti da un partito) .
    Infine, i dati possono essere raccolti anche in una matrice “casi per valori”. A differenza di quanto può accadere con la matrice “casi per casi”, non sembra che vi siano circostanze nelle quali il ricorso a questo tipo di matrice sia vantaggioso (ibi, § 8).

4e. Produzione e rilevazione.

    Le tecniche di raccolta trattate fino a questo punto si distinguono per il fatto che il ricercatore si inserisce in una realtà che esiste indipendentemente dai suoi interessi e attività di ricerca; egli cercherà di far sì che i suoi atti di rilevazione modifichino la realtà il meno possibile. I dati prodotti corrispondono a informazioni che si presumono essere (o che comunque vengono trattate come se fossero) preesistenti all’indagine.
    Le tecniche di raccolta trattate in questo paragrafo — basate sulla (quasi-) sperimentazione e sulla simulazione — presuppongono invece un’elevata capacità di controllare e manipolare le proprietà oggetto di indagine, e pertanto la specifica situazione che viene studiata: si producono (o si contribuisce a produrre) informazioni appositamente per poterle rilevare.
    Le tecniche sperimentali prevedono che le proprietà vengano divise in almeno tre classi: quelle ritenute irrilevanti per il fenomeno in questione e quindi ignorate; quelle ritenute rilevanti e i cui stati vengono tenuti costanti (o in qualche altro modo controllati) affinché si possa escludere una loro influenza sul fenomeno; quelle ritenute rilevanti, i cui stati vengono lasciati o fatti variare. Nella versione paradigmatica della sperimentazione, queste ultime proprietà, opportunamente operativizzate, si dividono in variabili indipendenti e dipendenti: le prime vengono fatte variare al fine di osservare la natura e l’entità delle eventuali variazioni conseguenti nelle seconde.
    Nelle scienze umane, per ovviare alle difficoltà nel tenere costanti molte variabili, i soggetti osservati vengono divisi in due gruppi: in uno (gruppo sperimentale) gli stati sulla variabile indipendente vengono fatti variare in modo controllato; nell’altro (gruppo di controllo) gli stati non vengono fatti variare. Eventuali variazioni negli stati medi del primo gruppo sulla variabile dipendente — se non si manifestano anche nel secondo gruppo — vengono attribuite all’influenza della variabile indipendente (v. Campbell e Stanley, 1963).
    Per cercare di neutralizzare l’influenza di terze variabili, si scelgono gli oggetti osservati in modo che quelle variabili presentino distribuzioni isomorfe nei due gruppi (matching). Ciò presuppone la conoscenza di questi stati, e pertanto l’operativizzazione delle proprietà. In alternativa o ad integrazione dei suddetti accorgimenti, il ricercatore può assegnare i soggetti osservati ai gruppi sperimentale e di controllo in modo casuale (randomizzazione).
    La sperimentazione si distingue anche per il fatto che si prefigge di acquisire conoscenze unicamente sulle relazioni tra variabili, non sulla distribuzione dei casi rispetto a una o più proprietà, e tanto meno su oggetti specifici. Anzi, la sperimentazione presuppone la perfetta interscambiabilità degli oggetti osservati, e quindi la generalizzabilità dei risultati a tutti gli oggetti dello stesso tipo, una volta che siano stati controllati i loro stati sulle proprietà operativizzate.
    Inoltre, il ricorso a un esperimento presuppone che il ricercatore abbia previamente formulato una precisa ipotesi; altrimenti non si giustifica l’operativizzazione di un numero relativamente basso di proprietà (v. Marradi, 1987, cap. 7). D’altra parte, si può formulare un’ipotesi così circoscritta solo se in merito al settore indagato esiste già un robusto impianto teorico.
    Agli occhi di molti ricercatori — come dell’uomo della strada — la sperimentazione costituisce il “metodo scientifico” per eccellenza a causa della sua centralità nelle scienze fisiche: “l’esperimento fornisce la giustificazione più convincente delle proposizioni empiriche” (v. Sztompka, 1979, p. 74). In effetti, la sperimentazione — quando è possibile applicarla — è una tecnica potentissima: grazie al controllo esercitato su ogni proprietà ritenuta rilevante per il fenomeno studiato, l’esperimento non si limita ad individuare l’esistenza di relazioni tra proprietà ma permette anche di portare validi elementi a sostegno della presenza di certi rapporti causali.
    L’applicazione delle tecniche sperimentali nelle scienze sociali incontra diversi ostacoli, tant’è che alcuni le ritengono non applicabili tout court (tra gli altri, v. Durkheim, 1895). Al di là dei fattori che possono inficiare la fondatezza dei risultati di uno specifico esperimento (v. Campbell e Stanley, 1963, pp. 5-6 per una tipologia dei fattori che ne minacciano la “validità interna” e la “validità esterna”; v. anche Wiggins, 1968), i problemi incontrati dalla sperimentazione in ambito sociale ineriscono alla natura delle unità di analisi, delle proprietà e delle relazioni fra le proprietà (v. Marradi, 1987, cap. 8).
    Quando la sperimentazione si effettua su esseri umani (non intesi come oggetti fisici o organismi biologici), non si può ragionevolmente adottare l’assunto di fungibilità degli oggetti dello stesso tipo. Inoltre, nella sperimentazione in fisica “si presume, almeno implicitamente, che il soggetto dell’esperimento reagisca passivamente agli stimoli” (v. Orne, 1962, p. 776). Ma “i soggetti non si comportano in modo naturale quando sanno di essere studiati” (v. Ross e Smith, 1968, p. 333); “lo sperimentatore impone al soggetto una decisione di definizione di ruolo” (v. Webb et al., 1966, p. 16). Così il soggetto che partecipa a un esperimento tende a interpretare quello che percepisce come il proprio ruolo e comportarsi di conseguenza, modificando quelle che sarebbero state le sue reazioni spontanee, “adeguandosi a quelle che crede essere le richieste dello sperimentatore” (v. Strodtbeck, 1968; v. anche Wiggins, 1968, p. 413). L’esempio classico delle conseguenze della consapevolezza di partecipare a un esperimento va sotto il nome di “effetto Hawthorne”: i lavoratori della fabbrica Hawthorne, studiati negli anni trenta, miglioravano la loro produttività (variabile dipendente) perché erano consci del fatto che essa veniva rilevata, non a causa delle variazioni introdotte nelle condizioni di lavoro, intese come complesso di variabili indipendenti (v. Roethlisberger e Dickson, 1939).
    Bynner aggiunge che il ruolo attivo del soggetto presenta anche alcune opportunità, delle quali tuttavia si tende a non approfittare: nella sperimentazione “l’importanza attribuita alla neutralizzazione di ogni possibile influenza distorcente durante la raccolta dei dati è talmente pervasiva che viene in genere trascurata una delle migliori fonti di informazioni su queste distorsioni — il soggetto stesso” (v., 1980, p. 316).
    Nelle scienze sociali, le proprietà studiate fanno parte di reti di relazioni particolarmente estese e articolate. Se a ciò si aggiunge la penuria di teorizzazioni consolidate e largamente condivise fra gli specialisti, risulta particolarmente difficile isolare poche proprietà rilevanti da operativizzare in un disegno sperimentale. Inoltre, anche se ci si riesce, di solito non è possibile controllare gli stati sulle variabili: né tenere costanti gli stati sulle proprietà rilevanti escluse dal modello, né tanto meno far variare in modo controllato gli stati sulla variabile indipendente (v. Cook e Selltiz, 1964, p. 53; v. Chiari e Corbetta, 1973, p. 654).
    Insomma, il contesto sperimentale comporta un’eccessiva semplificazione della complessa natura dei fenomeni sociali. “L’ambiente sociale non può essere riprodotto in laboratorio” (v. Cerroni, 1985, p. 7). “In qualunque esperimento abbiamo un’alterazione radicale della struttura sociale e delle regole di azione che prevarrebbero fuori dal laboratorio... E’ improbabile che si scopra qualcosa che possa valere per le situazioni reali” (v. Harré e Secord, 1972; tr. it. 1977, p. 106). Gli esperimenti “tendono ad essere frammenti isolati, non connessi ad alcunché di ciò che altrimenti accade nel flusso dell’attività quotidiana” (v. Deutscher, 1973, p. 201; anche 1966, p. 243).
    Nonostante i forti vincoli che impediscono l’effettuazione di esperimenti veri e propri, rimane assai difficile per il ricercatore “scartare la possibilità di applicare la logica della sperimentazione” (v. Pawson, 1989, p. 207; v. anche Friedrichs, 1970, pp. 169-171). Al proposito, Ritzer parla di “scambio/sostituzione di obiettivi” (displacement of goals) da parte di molti ricercatori: si privilegia il rigore metodologico a scapito delle specificità dell’argomento studiato (v., 1975, p. 181).
    E’ comunque opportuno che le rilevazioni vengano impostate e svolte tenendo presenti alcuni criteri della sperimentazione atti ad eliminare quanti più fattori di distorsione sia possibile. Per le indagini “sul campo” è stata sviluppata una gamma molto ampia di tecniche “quasi-sperimentali”. La quasi-sperimentazione cerca di adattare le procedure dell’esperimento, allentandone alcuni requisiti e il controllo che implicano, ai fattori che condizionano lo studio dei fenomeni sociali al fine di trarne inferenze casuali (v. Campbell e Stanley, 1963; v. Bickman e Henachy, 1972; v. Cook e Campbell, 1979).
    Pertanto, la “quasi-sperimentazione” può suggerire alcune buone regole di lavoro. Ciò non significa affatto che si possano dimenticare le radicali differenze strutturali fra un esperimento e altre forme di ricerca. Non si possono quindi sottoscrivere affermazioni come questa: “il questionario può essere considerato non solo come uno strumento per ottenere risposte ma come un metodo per esporre i soggetti a stimoli sperimentali, ancorché verbali” (v. Hyman, 1955, p. 210). Si tratta di uno degli innumerevoli tentativi ad opera dei ricercatori sociali per appropriarsi del prestigio delle scienze fisiche adottando il nome dei loro strumenti — viste le difficoltà nell’usare gli strumenti stessi.
    Le simulazioni sono rappresentazioni dinamiche di ipotetiche situazioni sociali oppure di contesti storici specifici in cui si chiede a un numero relativamente contenuto di soggetti di interagire. Il ricercatore definisce i ruoli degli attori, le risorse di cui dispongono, i vincoli che ne condizionano l’azione, la situazione di partenza e alcune altre caratteristiche del contesto comune in cui i soggetti interagiscono: “una rappresentazione operativa delle caratteristiche centrali della realtà” (v. Guetzkow, 1959, p. 183). Si ricorre alle simulazioni soprattutto in ambito economico o politologico (specie nella sfera delle relazioni internazionali), ma anche ogniqualvolta si vogliano evitare gli elevati costi o gli effetti permanenti e/o nocivi che una (quasi-)sperimentazione comporterebbe (ad esempio, quando si vogliono studiare situazioni di crisi sociale o politica). Le origini storiche della simulazione risalgono ai Kriegsspiele, o giochi di guerra, svolti in Germania all’inizio dell’Ottocento al fine di studiare gli effetti di diverse strategie di combattimento; anche il gioco degli scacchi è stato considerato un antenato delle simulazioni (v. Smith, 1975, p. 255).
    La simulazione è assimilabile all’esperimento per il controllo che il ricercatore può esercitare sull’ambiente in cui avvengono la produzione e la rilevazione delle informazioni; ma se ne differenzia per alcuni aspetti. Ad esempio, nelle simulazioni la specifica identità degli oggetti (gli attori) è ancora meno rilevante che nella sperimentazione; spesso si chiede ai partecipanti di assumere ruoli che non assumeranno mai nella realtà (diplomatici, capi di stato, generali, persino organizzazioni e altri soggetti collettivi) oppure di fingere di essere personaggi storici (role-playing); in alcuni casi i partecipanti non sono neppure esseri umani (vedi oltre).
    Inoltre, spesso ciò che interessa non è tanto l’esito finale delle interazioni, quanto i processi attraverso i quali la situazione di partenza viene modificata. Piuttosto che trarre inferenze di tipo causale circa le relazioni tra proprietà, nella simulazione si cerca di acquisire conoscenze intorno al funzionamento e al mutamento del sistema “imitato” dai partecipanti. Ancora, a differenza di quanto accade nella sperimentazione, il disegno di una simulazione può tener sotto controllo, facendone variare gli stati, un numero anche molto elevato di variabili (specie se ci si avvale di un computer); i partecipanti, invece, tendono ad essere relativamente pochi.
    La simulazione si caratterizza, infine, per la funzione sempre più centrale che i computers vi svolgono. Si distingue, a questo proposito, tra simulazioni in senso stretto, che prevedono l’apporto di elaboratori elettronici in qualità di attori (v. Guetzkow e altri, 1963) e/o di gestori di un complesso insieme di regole e di altre informazioni che strutturano l’ambiente (v. Rapoport, 1964), e giochi, nei quali prevalgono decisori umani (v. Singer, 1977, p. 15; v. Hermann, 1968, p. 275). Già negli anni sessanta si sosteneva che il termine ‘simulazione’ va riferito soltanto a situazioni di indagine così complesse che una loro rappresentazione dinamica richiede necessariamente il ricorso a un elaboratore elettronico (v. Adelman, 1968, p. 268).


5. Tecniche di analisi.

5a. Analisi ermeneutica.

    L’accezione moderna del termine ‘ermeneutica’ trae origine dalla filologia biblica, e in particolare dal recupero del significato autentico di quanto era scritto nei testamenti. Per estensione l’ermeneutica è una procedura — di cui sono elementi centrali il riferimento al linguaggio, la collocazione del testo nel suo contesto storico-culturale e la chiarificazione di passaggi oscuri — che consiste nell’interpretazione dei significati che un autore ha voluto esprimere mediante un insieme di rappresentazioni simboliche.
    Nelle scienze sociali l’analisi ermeneutica caratterizza gli approcci fenomenologici, e più in generale quelle strategie di ricerca che tentano di accedere ai significati che gli individui assegnano alle proprie azioni, ai loro mondi della vita. Di solito essa si accompagna all’assunto che la realtà sociale sia costruita dagli individui, anche se essi la percepiscono come un sistema naturale e oggettivo; all’assunto che questo accesso sia possibile grazie alla condivisione di alcune province di significato da parte del ricercatore e dell’attore osservato; alla convinzione che conoscere i fenomeni sociali richieda tecniche diverse da quelle usate per studiare i fenomeni naturali (v. Schutz, 1932; v. Gadamer, 1960; v. Berger e Luckmann, 1966).
    Mediante l’analisi ermeneutica ci si prefigge di “ricostruire la realtà” nei termini delle regole e delle motivazioni che guidano il comportamento dei soggetti osservati (v. Schwartz e Jacobs, 1979); il punto di partenza è l’esame delle informazioni registrate nel corso di rilevazioni non strutturate (v. § 4b), sotto forma di testi, registrazioni foniche, rappresentazioni visive, etc. Le conoscenze estraibili da queste informazioni sono più cogenti se prodotte nel corso di un’interazione tra soggetti-attori e ricercatore, nell’ambito cioè di una dialettica dialogica tra estraneità e familiarità.
    Sarebbe opportuno che le conclusioni del ricercatore fossero accompagnate dal materiale interpretato (trascrizioni di registrazioni e altri testi, immagini), in versione integrale o a stralci, preferibilmente organizzato secondo i criteri interpretativi adottati (v. Montesperelli, 1996, § 4.6). Tuttavia, è difficile riportare queste informazioni e le inferenze che se ne traggono in forma succinta; si corre il rischio di seppellirvi il lettore.
La critica più spesso avanzata nei confronti dell’analisi ermeneutica attiene alla fondatezza delle conclusioni alle quali giunge un ricercatore: in linea di massima, nulla permette di stabilire se un’interpretazione di un testo o di un’azione sia migliore di un’altra. Questa incertezza si innesta su un’altra problematica: il ricercatore-interprete deve tendere alla ricostruzione del senso inteso dall’attore, alla formulazione di un resoconto che quest’ultimo saprebbe riconoscere e autenticare, oppure deve formulare un resoconto che tenga conto di tutti gli elementi della situazione socio-culturale in cui l’attore opera, al costo di renderlo incomprensibile o inaccettabile agli occhi di quest’ultimo? Sono immaginabili situazioni in cui la convalida delle interpretazioni del ricercatore da parte degli attori osservati le rende più convincenti, sia situazioni nelle quali una tale convalida le infirma. Peraltro, questo problema si può porre (anche se non viene praticamente mai posto) anche per le conclusioni cui si giunge con l’analisi statistica dei dati.
    Questa e altre critiche mosse all’ermeneutica possono quindi essere rivolte anche alle altre tecniche per conoscere. Una caratteristica peraltro contraddistingue l’ermeneutica: chi vi fa ricorso assai difficilmente può — per riprendere la metafora in § 2.1 — avvalersi di sentieri già battuti.

5b. Analisi dei dati.

    Le tecniche di analisi statistica dei dati presuppongono che le informazioni da sottoporre ad analisi siano state raccolte e organizzate in una matrice dei dati (v. § 4d). Ci si può prefiggere sia di esplorare i dati senza sottoporre a controllo aspettative particolari, proprio al fine di individuare in quali direzioni approfondire l’analisi (questo è l’orientamento implicato dalle accezioni anglosassone e francese di ‘analisi dei dati’; v. Amaturo, 1989, cap. 1), sia di controllare previsioni e ipotesi precise, formulate nel corso dell’analisi o prima di essa. Un altro obiettivo, che non verrà trattato in questa sede, è la stima, con l’ausilio della statistica inferenziale, di quanto i risultati ottenuti siano generalizzabili alla popolazione (v. anche § 4a).
    Al fine di descrivere le distribuzioni di frequenza, semplici e congiunte, le tecniche di analisi statistica fanno ampio uso di forme di rappresentazione tabulare e grafica (o displays) e di valori caratteristici e coefficienti (cifre che danno informazioni su alcune caratteristiche delle distribuzioni). Sulla base del numero di variabili prese in considerazione, le tecniche di analisi dei dati si distinguono in monovariata, bivariata e multi-variata. Una tecnica si dice monovariata se si occupa della distribuzione dei casi su una variabile soltanto; bivariata se si riferisce alla distribuzione congiunta di due variabili; multi-variata se investiga la distribuzione congiunta di tre o più variabili.
    L’applicabilità delle diverse tecniche di analisi monovariata, bivariata e multi-variata dipende dal fatto che ai valori assegnati ai diversi stati della variabile siano legittimamente attribuibili “tutte le proprietà cardinali dei numeri, o solo quelle ordinali, oppure neppure quelle ordinali” (v. Marradi, 1994, L’analisi..., p. 14), quindi dal tipo di variabili (categoriali, ordinali, cardinali) prodotte dalle definizioni operative, che a loro volta dipendono dal tipo di proprietà che operativizzano (categoriali-non-ordinate, categoriali-ordinate, con stati enumerabili, continue-misurabili e continue-non-misurabili; ibi, pp. 12-15; v. anche § 4d). Le categorie delle variabili categoriali godono di un’elevata autonomia semantica (cioè assumono significato senza dover ricorrere al significato delle altre categorie e dell’intera variabile); le variabili cardinali, di converso, in genere ne mancano. L’autonomia semantica delle categorie influenza il modo in cui il ricercatore analizza le distribuzioni delle relative variabili: minore è l’autonomia, minore è l’importanza delle frequenze relative alle singole categorie, maggiore è quella della dispersione dei dati.
    Di solito si raccolgono informazioni su molte variabili e si è interessati a studiare le relazioni fra esse; quindi alcuni pensano che l’analisi monovariata sia superflua. Invece essa svolge funzioni centrali, anche se preliminari, rispetto all’analisi bi-/multi-variata: essa permette, mediante l’individuazione di valori implausibili, di correggere errori compiuti durante la registrazione dei dati; mette in evidenza squilibri nelle distribuzioni e opportunità di aggregazione in vista di analisi più complesse; fornisce al lettore le basi su cui fondare un giudizio delle interpretazioni del ricercatore (v. Marradi, 1994, L’analisi..., cap. 2). Anche in mancanza di ulteriori analisi, le tecniche monovariate permettono di descrivere alcune caratteristiche del fenomeno osservato e di rispondere ad alcuni quesiti cognitivi.
    Se i dati si riferiscono a variabili con categorie non ordinate, il valore caratteristico più semplice è la moda, che corrisponde alla categoria che raccoglie il maggior numero di casi. Nessuno dei valori caratteristici proposti per rilevare il grado di equilibrio presentato da una distribuzione (ibi, § 3.4) viene comunemente usato — anche perché le conseguenze negative di una distribuzione squilibrata non sono ancora sufficientemente considerate.
    I displays adatti per le variabili categoriali si possono raggruppare in due famiglie: in una, i segni (aree di ampiezza o linee di lunghezza proporzionale alle frequenze da rappresentare) sono ordinati lungo una retta (istogramma, diagramma a barre o a nastri) e preferibilmente separati tra loro al fine di non suggerire un ordine fra le categorie; nell’altra famiglia, i segni sono disposti in ordine circolare (diagramma a torta, grafico a raggi).
    Nel caso delle variabili ordinali, il fatto che alle categorie sia stato conferito un ordine permette di ricorrere a rappresentazioni più articolate. Ad esempio, le frequenze percentuali possono essere accompagnate da frequenze cumulate e retrocumulate; questo accorgimento è tanto più opportuno quanto minore è l’autonomia semantica delle categorie. Tra i valori caratteristici, alcuni sono posizionali come la mediana (la categoria che bipartisce la sequenza dei dati in modo da lasciarne lo stesso numero dalle due parti, e pertanto indica la tendenza centrale della distribuzione) e i quartili (il primo e il terzo separano, rispettivamente, il 25% e il 75% dei casi dagli altri; il secondo quartile corrisponde alla mediana). Il d* di Leti quantifica invece la dispersione dei dati in modo sintetico (considerando, cioè, l’intera distribuzione piuttosto che specifici valori collocati in alcuni suoi punti particolari).
    L’istogramma (con colonne contigue, al fine di sottolineare la contiguità delle categorie) è la forma di rappresentazione più semplice per le variabili ordinali; ma le forme che meglio rispecchiano la loro natura sono l’istogramma di composizione, costituito da una sola colonna divisa in fasce di altezza proporzionale alle frequenze delle categorie (in modo da richiamarne la ridotta autonomia semantica) e la spezzata a gradini (che sottolinea la natura cumulativa delle frequenze nelle categorie).
    In genere, come si è detto, le categorie delle variabili cardinali mancano di autonomia semantica; quindi al ricercatore interessano non le frequenze relative alle singole categorie bensì l’andamento complessivo della distribuzione. Spesso, tuttavia, specialmente se sono molto numerose, le categorie vengono aggregate in un numero più ridotto di classi, ed è utile ricorrere alle frequenze (retro-)cumulate. La scarsa autonomia semantica delle categorie fa sì che i più importanti valori caratteristici abbiano natura sintetica. Il più familiare è la media aritmetica, che rivela la tendenza centrale della distribuzione.
    I più comuni valori caratteristici che quantificano la dispersione sono basati sullo scarto, cioè sulla distanza di un valore dalla media aritmetica della distribuzione. La devianza è la somma dei quadrati degli scarti dalla media, e ovviamente dipende, oltre che dalla dispersione dei dati attorno alla media, dal numero dei casi. Se si divide la devianza per il numero di casi, si ottiene la varianza, che come la devianza è una grandezza quadratica. Estraendone la radice quadratica si ottiene lo scarto-tipo (deviazione standard). Di questi tre valori caratteristici, si usa la devianza se non occorre confrontare distribuzioni basate su un diverso numero di casi; la varianza se serve una grandezza quadratica (magari per effettuare confronti con altre grandezze quadratiche); si usa lo scarto-tipo quando serve una grandezza lineare. Ad ogni modo, se si vogliono operare confronti con altre distribuzioni, è opportuno usare il coefficiente di variazione (il rapporto tra scarto-tipo e media aritmetica).
    La standardizzazione è un altro accorgimento che facilita le comparazioni — tra dati e fra distribuzioni relativi a variabili diverse — quando i dati sono stati rilevati con unità di misura o di conto diverse. I dati vengono trasformati in punti standard, dividendo i relativi scarti dalla media aritmetica della relativa distribuzione per il corrispondente scarto-tipo. I punti standard non sono più espressi nell’unità di misura o di conto della variabile originaria, bensì in unità del suo scarto-tipo. Di conseguenza, la distribuzione di una variabile standardizzata ha alcune proprietà particolari — la media è eguale a 0, la varianza e lo scarto-tipo sono eguali a 1 — ed elimina quindi l’effetto delle differenze nelle scale dei valori e nelle dispersioni. E’ sempre opportuno procedere alla standardizzazione prima di formare un indice con criteri additivi.
    Altri valori caratteristici sono stati ideati per rilevare altri aspetti della distribuzione monovariata di variabili cardinali. Gli aspetti più interessanti sono l’asimmetria (quanto i dati non si distribuiscono simmetricamente attorno alla sua media) e la curtosi (quanto la distribuzione è piatta oppure appuntita).
    Le forme di rappresentazione adatte per le variabili cardinali sono l’istogramma (se i valori da rappresentare corrispondono ad aggregazioni di stati contigui), il diagramma a barre (se i valori derivano da stati discreti enumerabili) e il poligono di frequenza (quando i valori sono numerosi).
    Con le tecniche di analisi bivariata, che sono riconducibili al canone delle variazioni concomitanti di J.S. Mill (v., 1843), si cerca di individuare quali siano la forma, la direzione, la forza delle relazioni fra due variabili. Le tecniche statistiche applicate a dati organizzati in matrice permettono soltanto di stabilire l’esistenza e la forza di una relazione, non la sua direzione; soltanto un disegno sperimentale (v. § 4e) consente di accertare la direzione causale delle relazioni. L’esame delle relazioni tra variabili presenta aspetti sia semantici (inerenti al loro significato) sia sintattici (relativi alla loro descrizione in termini matematico-statistici). In generale, le tecniche di analisi descrivono gli aspetti sintattici delle relazioni, mentre occorre l’intervento del ricercatore per mettere in evidenza quelli semantici. Distinguendo le relazioni bivariate in base a due dimensioni — grado di sovrapposizione semantica fra le variabili e grado di asimmetria — Ricolfi individua quattro tipi: affinità, indicazione, co-occorrenza e dipendenza (v., 1994, § 2.2). Questa tipologia è particolarmente utile per inquadrare gli aspetti semantici delle relazioni. Tocca al ricercatore collocare le relazioni analizzate lungo le due suddette dimensioni in base alle sue ipotesi e alla sua conoscenza del contesto.
    Per analizzare una relazione fra due variabili categoriali, i dati vengono rappresentati con una tabulazione incrociata (che corrisponde a una matrice “valori per valori”, nella quale le celle contengono le frequenze; v. § 4d). L’analisi consiste nel confronto tra frequenze attese (che si avrebbero qualora ognuna delle categorie di una variabile fosse priva di relazioni con ognuna delle categorie dell’altra) e quelle effettivamente osservate. Questo confronto è equivalente all’ispezione delle percentuali di riga e di colonna.
    Il più noto coefficiente usato per rilevare la presenza di una relazione tra due variabili categoriali è ?2, che si basa sul confronto tra frequenze osservate e quelle attese. Dato che, a parità di forza della relazione, il suo valore è una funzione lineare del numero dei casi (N), questo coefficiente rileva la significatività statistica di una relazione, non la sua forza. Il coefficiente ?2, pari a ?2/ N, elimina l’effetto del numero dei casi, e pertanto rileva la forza della relazione. Resta da chiedersi, tuttavia, se abbia senso cercare di rilevare in forma globale la forza di una relazione fra variabili quando la relazione si colloca più propriamente al livello delle categorie.
    Si ha un caso speciale di relazione bivariata quando le due variabili sono dicotomiche. L’ispezione della tabulazione incrociata rimane la tecnica di analisi più indicata. Le formule dei coefficienti usati per rilevare la forza della relazione si basano sul prodotto incrociato, cioè sulla differenza fra il prodotto delle due frequenze di cella nella diagonale principale e lo stesso prodotto nella diagonale secondaria. I due coefficienti da preferire sono ? e ?c (v. Gangemi, 1977). Il?? ha il prodotto incrociato al numeratore e la radice quadrata del prodotto delle quattro frequenze marginali al denominatore. Al numeratore ?c ha il quadruplo del prodotto incrociato, e il quadrato del numero dei casi al denominatore. Entrambi i coefficienti stimano bene la forza della relazione quando nessuna o una sola variabile presenta una distribuzione squilibrata. Se, di converso, entrambe le distribuzioni monovariate sono squilibrate, allora tutti i coefficienti (compresi ? e ?c) sovra-stimano la forza della relazione.
    Se le due variabili messe in relazione presentano categorie ordinate, i coefficienti che rilevano la forza della loro relazione si basano sulla co-graduazione, cioè prevedono il controllo di ogni possibile coppia di casi per accertare se l’ordine relativo dei due casi su una delle variabili si mantiene anche nell’altra (nel qual caso si ha una coppia co-graduata) oppure si inverte (nel qual caso la coppia è contro-graduata). Il confronto tra il numero di coppie co-graduate e il numero di coppie contro-graduate determina il valore dei coefficienti (tra cui il ?b di Kendall, il ??di Goodman e Kruskal e il d di Somer), i quali si differenziano tra loro per il trattamento riservato alle coppie di casi che assumono lo stesso valore su almeno una variabile, per il fatto di essere adatto per variabili con un numero eguale oppure diverso di categorie, per la necessità o meno di formulare in via preliminare un’ipotesi circa la direzione della relazione.
    Per una relazione fra una variabile cardinale e una categoriale è utile calcolare la media della variabile cardinale (e altri valori caratteristici) per ogni classe della variabile categoriale e ispezionare gli eventuali dislivelli tra questi valori. Se invece di una variabile categoriale si tratta di una variabile ordinale, si può applicare la stessa procedura, e inoltre si può anche controllare se le medie della variabile cardinale riferite alle categorie (esaminate in sequenza) presentino o meno un andamento monotonico. Un coefficiente che stimi la forza della relazione tra una variabile cardinale e una categoriale (con categorie ordinate o meno) si ottiene mediante l’analisi della varianza. Questa tecnica scompone la varianza della variabile cardinale in due parti: la varianza all’interno delle classi della variabile categoriale e la varianza fra tali classi. Il coefficiente che stima la forza della relazione — ?2 (eta quadrato) — è pari al rapporto fra varianza fra le classi e varianza complessiva.
    Ogni coefficiente usato per rilevare la forza di una relazione bivariata nella quale una delle variabili è categoriale presenta un difetto fondamentale: conoscere il suo valore permette di affermare molto poco intorno alla relazione. Uno stesso valore può corrispondere a situazioni anche molto diverse, e queste differenze possono emergere soltanto se si ispeziona anche una rappresentazione articolata della relazione. Inoltre, il valore del coefficiente può variare in modo sensibile al variare del numero di categorie previste dalla definizione operativa che ha prodotto la variabile categoriale (ordinata o meno).
    Una relazione fra due variabili cardinali può essere efficacemente rappresentata da un diagramma a dispersione: su un piano cartesiano i valori di una variabile (quella ritenuta indipendente nell’ipotesi formulata dal ricercatore) vengono situati in ascissa, i valori dell’altra (dipendente) in ordinata; ogni coppia di valori relativi a un caso è rappresentata da un punto. Da un’ispezione di questo diagramma dovrebbe risultare evidente se (magari dopo aver adottato scale logaritmiche e/o escluso dall’analisi eventuali outliers) la relazione abbia o meno natura lineare.
    Se la relazione appare lineare, si può interpolare una retta (detta retta di regressione) fra i punti del diagramma e trarne alcuni coefficienti sintetici (in particolare, quelli di regressione, di correlazione e di determinazione). La retta di regressione passa per il punto di incrocio delle due medie e rende minima la somma dei quadrati degli scarti tra i valori della variabile dipendente e i valori previsti dalla retta stessa. Il coefficiente di regressione (b), pari al rapporto tra il prodotto delle codevianze delle due variabili e la devianza di quella indipendente, rappresenta la variazione prevista nel valore della variabile dipendente per ogni variazione del valore della variabile indipendente, date le unità di misura delle due variabili.             L’interpolazione di una retta di regressione e il calcolo del coefficiente di regressione presuppongono che il ricercatore abbia ipotizzato che una delle variabili influenzi l’altra senza esserne influenzata.
    Il coefficiente di correlazione (r), che stima la forza della relazione, è pari al rapporto fra la codevianza delle due variabili e la media geometrica delle loro devianze, e corrisponde a quanto le due variabili variano insieme rispetto a quanto ciascuna varia per conto suo. Esso presuppone che la relazione sia bidirezionale; è infatti pari alla radice quadrata del prodotto dei due coefficienti di regressione relativi alle due opposte ipotesi di relazione unidirezionale che è possibile formulare. Elevando al quadrato il coefficiente di correlazione, si ottiene il coefficiente di determinazione (r2), che rappresenta la porzione della varianza della variabile dipendente riprodotta dalla sua relazione con l’indipendente. Tale coefficiente ha un significato analogo a quello di ?2.
    Le tecniche multi-variate possono suddividersi in tre famiglie. Una famiglia (della quale fanno parte l’analisi delle componenti principali, l’analisi delle corrispondenze, i modelli log-lineari) ha un orientamento prevalentemente descrittivo e privilegia l’esigenza di rappresentare le relazioni. Un’altra famiglia (che comprende la regressione multipla, la correlazione parziale, la path analysis, i modelli logit) ha un orientamento esplicativo e tenta di stabilire se (l’assenza di) una relazione tra due variabili sia dovuta all’effetto di altre variabili (cioè di altre proprietà operativizzate nell’ambito dell’indagine); in questo caso si presuppone che le relazioni osservate siano tra variabili semanticamente indipendenti. Un’altra famiglia (che comprende l’analisi fattoriale e l’analisi della struttura latente) ha un orientamento interpretativo e cerca di inferire l’esistenza di variabili “latenti” (ovvero proprietà non operativizzate) dalle relazioni intercorrenti tra quelle “manifeste” (operativizzate), di controllare cioè se si possono far dipendere (in termini sintattici) le relazioni tra variabili da un numero ridotto di proprietà; in questo caso l’analisi si incentra su variabili che presentano un’interrelazione statistica (sui confini tra queste famiglie, v. Ricolfi, 1993, § 4; 1994, § 3.1).
    Esistono anche altre tecniche di analisi avanzate che non sono multi-variate nell’accezione sopra illustrata, in quanto non prendono in esame un insieme di vettori-colonna di una matrice dei dati. Le procedure di cluster analysis, ad esempio, si incentrano sui vettori-riga della matrice; e il multidimensional scaling fa addirittura a meno della matrice “casi per variabili”. Anche per le serie storiche (matrici alle quali si aggiunge un ulteriore elemento rispetto a quelli specificati in § 4c: il tempo) sono state escogitate potenti tecniche di analisi statistica.
    Come si è visto, le tecniche di analisi sono relativamente deboli nel caso di variabili categoriali, più potenti per le variabili cardinali. In genere, i valori caratteristici, i coefficienti e le forme di rappresentazione (sia tabulare sia grafica) che possono essere usati per descrivere distribuzioni di variabili categoriali e ordinali hanno senso anche per variabili cardinali, mentre non è vero il contrario. Inoltre, le tecniche che presuppongono un ordine fra le categorie non possono naturalmente essere usate per le variabili categoriali non ordinate.
    La potenza delle tecniche di analisi per variabili cardinali e delle tecniche multi-variate incentiva lo sfruttamento delle proprietà cardinali piuttosto che di quelle ordinali dei numeri usati come codici nella matrice-dati. Si dibatte da tempo sulla legittimità del ricorso a tecniche cardinali anche su variabili le cui definizioni operative non lo giustificherebbero. Baker et al. (v., 1966) hanno caratterizzato questo dibattito in termini di “strong statistics versus weak measurement”: i fautori della prima posizione sostengono l’opportunità di avvantaggiarsi della potenza delle tecniche più avanzate; i fautori della seconda ritengono più importante tener conto della natura delle tecniche di raccolta nelle decisioni afferenti all’analisi. Acock e Martin (v., 1974) hanno giustamente notato che nella summenzionata espressione gli aggettivi ‘forte’ e ‘debole’ ineriscono al tipo di tecnica statistica preferita dalle opposte fazioni, le quali perciò optano per un legame, rispettivamente, debole o forte tra tecnica di analisi e tecnica di raccolta. Questa sottovalutazione del nesso fra rilevazione delle informazioni e analisi dei dati — aggravata dalla già ricordata diffusione di softwares che rendono accessibili a tutti anche le tecniche di analisi più complesse — rappresenta un altro indizio di quanto scarsa sia stata per ora l’attenzione dedicata ai problemi della raccolta delle informazioni nelle scienze sociali.



BIBLIOGRAFIA

ACKROYD, S., HUGHES, J., Data Collection in Context, London 1992, 2.a ed.
ACOCK, A. C. e MARTIN, J. D., The Undermeasurement Controversy: Should Ordinal Data Be Treated as Interval?, in “Sociology and Social Research”, 1974, LVIII, 4, pp. 427-433.
ADELMAN, I., Simulation: Economic Processes, in International Encyclopedia of the Social Sciences, vol. XIV, London 1968, pp. 268-273.
ADORNO, T. W., FRENKEL-BRUNSWICK, E., LEVINSON, D. J., SANFORD, R. N., The Authoritarian Personality, New York 1950.
ALBERONI, F., Introduzione a ALBERONI E ALTRI, L’attivista di partito. Un’indagine sui militanti di base nel Pci e nella Dc, Bologna 1967.
ALEXANDER, J., Theoretical Logic in Sociology, vol. I: Positivism, Presuppositions, and Current Controversies, London 1982.
AMATURO, E., Analyse des données e analisi dei dati nelle scienze sociali, Torino 1989.
AMATURO, E., Messaggio, simbolo, comunicazione. Introduzione all’analisi del contenuto. Roma 1993.
AMMASSARI, P., I fondamentali problemi di metodologia della ricerca sociale, in “Studi di sociologia”, 1985, XXIII, 2-3, pp. 176-93.
ARCURI, L., FLORES D’ARCAIS, G. B., La misura degli atteggiamenti, s.l. 1974.
ARNAULD, A., NICOLE, P., Logique, ou art de penser, Paris 1662.
BACON, F., Novum Organum, 1620.
BAILYN, L., Research as a Cognitive Process: Implications for Data Analysis, in “Quality and Quantity”, 1977, XI, 2, pp. 97-117.
BAKER, B. O., HARDYCK, C. D., PETRINOVICH, L. F., Weak Measurement vs. Strong Statistics: An Empirical Critique of S.S. Stevens’ Proscriptions on Statistics, in “Educational and Psychological Measurement”, 1966, XXVI, 2, pp. 291-309.
BARTON, A. H., LAZARSFELD, P. F., Some Functions of Qualitative Analysis in Social Research, in “Frankfurter Beiträge zur Soziologie”, 1967, I, pp. 321-61 (tr. it.: Alcune funzioni dell’analisi qualitativa nella ricerca sociale, in P. F. Lazarsfeld, Metodologia della ricerca sociologica, Bologna 1967, pp. 307-368).
BECKER, H. S., Problems of Inference and Proof in Participant Observation, in “American Sociological Review”, 1958, XX, pp. 652-660.
BECKER, H. S., Sociological Work: Method and Substance, Chicago 1970.
BECKER, H. S., Observation by Informants in Institutional Research, in “Quality and Quantity”, 1972, VI, 1, pp. 157-69.
BECKER, H. S., GEER, B., Participant Observation and Interviewing: A Comparison, in “Human Organization”, 1957, XVI, pp. 28-32.
BECKER, H. S., GEER, B., Rejoinder, in “Human Organization”, 1957, XVI, pp. 35-37.
BERGER, P. L., LUCKMANN, T., The Social Construction of Reality. A Treatise in the Sociology of Knowledge, New York 1966.
BERKA, K., Measurement. Its Concepts, Theories and Problems, Dordrecht, 1983.
BERNARD, H. R., E ALTRI, The Construction of Primary Data in Cultural Anthropology, in “Current Anthropology”, 1986, XXVII, 4, pp. 382-96.
BHASKAR, R., The Possibility of Naturalism: A Philosophical Critique of the Contemporary Human Sciences, Brighton 1979.
BICKMAN, L., HENACHY, T. (a cura di), Beyond the Laboratory: Field Research in Social Psychology, New York 1972.
BLAIKIE, N. W. H., STACY, S. J. G., The Dialogical Generation of Typologies, Mejico, X Congreso Mundial de Sociologìa 1982.
BLALOCK, H. M., Introduction, in Measurement in the Social Sciences. Theories and Strategies (a cura di H. M. Blalock), Chicago 1974, pp. 1-7.
BLAU, P. M., The Research Process in the Study of ‘The Dynamics of Bureaucracy’, in Sociologists at Work (a cura di P. E. Hammond), Garden City 1964, pp. 18-57.
BLUMER, H., Symbolic Interactionism: Perspective and Method, Englewood Cliffs 1969.
BOCCUZZI, E., Parcellizzazioni e reificazioni nelle ricerche sociologiche: il punto di vista di un’intervistatrice, in "Rassegna italiana di sociologia”, 1985, XXVI, 2, pp. 239-260.
BODIN, J., Methodus ad facilem historiarum cognitionem, Paris 1566.
BOGDAN, R., TAYLOR, S. J., An Introduction to Qualitative Research Methods. A Phenomenological Approach to the Social Sciences, New York 1975.
BOLLEN, K. A., JACKMAN, R. W., Regression Diagnostics: An Expository Treatment of Outliers and Influential Cases, in Modern Methods of Data Analysis (a cura di J. Fox e J. S. Long), London 1990, pp. 257-91.
BOURDIEU, P., CHAMBOREDON, J.-C., PASSERON, J.-C., Le métier de sociologue. Problèmes épistémologiques, Paris 1968.
BROEN, W. E., WIRT, R. D., Varieties of Response Sets, in “Journal of Consulting Psychology”, 1958, XXII, pp. 237-240.
BRUSCHI, A., Logica e metodologia, in “Sociologia e ricerca sociale”, 1991, XII, 35, pp. 30-55.
BYNNER, J., Some Problems with Psychological Research Practice, in “Bulletin of the British Psychological Society”, 1980, XXXIII, pp. 315-318.
CACCIOLA, S., MARRADI, A., Contributo al dibattito sulle scale Likert basato sull’analisi di interviste registrate, in Costruire il dato (a cura di A. Marradi), Milano 1988, pp. 63-105.
CALVI, G., La classe fortezza. Scelte degli elettori e responsabilità della classe politica in Italia, Milano 1980.
CAMPBELL, D. T., FISKE, D. W., Convergent and Discriminant Validation by the Multitrait-Multimethod Matrix, in “Psychological Bulletin”, 1959, LVI, pp. 81-105.
CAMPBELL, D. T., STANLEY, J. C., Experimental and Quasi-Experimental Designs for Research, Chicago 1963.
CAPECCHI, V., Metodologia e ricerca nell’opera di Paul F. Lazarsfeld, in P. F. Lazarsfeld, Metodologia e ricerca sociologica, Bologna 1967, pp. vii-clxxxii.
CAPECCHI, V., Struttura e tecniche della ricerca, in Ricerca sociologica e ruolo del sociologo (a cura di P. Rossi), Bologna 1972, pp. 23-120.
CERRONI, U., Esperimento e esperienza, in “Scienzasocietà”, 1985, 13-14, pp. 3-14.
CHIARI, G., CORBETTA, P., Il problema del campionamento nella ricerca sociologica, in “Rassegna italiana di sociologia”, 1973, XIV, 3, pp. 473-513; 4, pp. 643-667.
CICOUREL, A., Method and Measurement in Sociology, New York 1964.
CINI, M., Trentatré variazioni su un tema. Soggetti dentro e fuori la scienza, Roma 1990.
CIPOLLA, C., Teoria della metodologia sociologica. Una metodologia integrata per la ricerca sociale, Milano 1988.
CIPOLLA, C., L’apporto della comunicazione iconica alla conoscenza sociologica: un bilancio metodologico, in Introduzione alla sociologia visuale (a cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 11-48.
COHEN, M. R., NAGEL, E., An Introduction to Logic and Scientific Method, New York 1934.
COLLINS, R., Conflict Sociology: Toward an Explanatory Science, New York 1975.
COMTE, A., Cours de philosophie positive, Paris 1830-42. Citazioni dall’ediz. Garnier, Paris 1926.
CONVERSE, P. E., Attitudes and Non Attitudes: Continuation of a Dialogue, in The Quantitative Analysis of Social Problems (a cura di E. R. Tufte, Reading 1970. COOK, S. W., SELLTIZ, C., A Multiple-Indicator Approach to Attitude Measurement, in “Psychological Bulletin”, 1964, LXII, pp. 32-55.
COOK, T. D., CAMPBELL, D. T., Quasi-Experimentation: Design and Analysis Issues for Field Settings, Chicago 1979.
COOLEY, C. H., Social Organization, New York 1909.
CRESPI, F., Le vie della sociologia. Problemi, teorie, metodi, Bologna 1985.
CRONBACH, L. J., Response Sets and Test Validity, in “Educational and Psychological Measurement”, 1946, VI, pp. 475-494.
DALTON, M. E., Preconceptions and Methods in ‘Men Who Manage’, in Sociologists at Work (a cura di P. E. Hammond), New York 1964, pp. 58-110.
DAVIS, J. A., ‘Great Books and Small Groups’: An Informal History of a National Survey, in Sociologists at Work (a cura di P. E. Hammond), New York 1964, pp. 244-269.
DAVIS, J. A., The Future Study of Public Opinion, in “Public Opinion Quarterly”, 1987, LI, 4, pp. 178-179.
DELLI ZOTTI, G., Tipologia della matrici utilizzate nella ricerca sociale, in “Rassegna italiana di sociologia”, 1985, XXVI, 2, pp. 141-168.
DENZIN, N. K., The Research Act, Chicago 1970.
DESCARTES, R., Regulae ad directionem ingenii, 1628.
DESCARTES, R., Discours de la méthode, 1637.
DEUTSCHER, I., Words and Deeds: Social Science and Social Policy, in “Social Problems”, 1966, XIII, pp. 233-254.
DEUTSCHER, I., What We Say/What We Do. Sentiments and Acts, Glenview 1973.
DEWEY, J., Logic, the Theory of Inquiry, New York 1938.
DIRENZO, G. J., Toward Explanation in the Behavioral Sciences, in Concepts, Theories, and Explanation in the Behavioral Sciences (a cura di G. J. Direnzo), New York 1966, pp. 231-91.
DRISCOLL, J. M., HYNEMAN, C. S., Methodology for Political Scientists: Perspectives for Study, in “American Political Science Review”, 1955, XLIX, pp. 192-217.
DUNCAN, O. D., Notes on Social Measurement. Historical and Critical, New York 1984.
DURKHEIM, E., Les règles de la méthode sociologique, Paris 1895.
DUSTER, T., Intermediate Steps Between Micro- and Macro-Integration: the Case of Screening for Inherited Disorders, in Advances in Social Theory and Methodology. Toward an Integration of Micro- and Macro-Sociologies (a cura di K. D. Knorr-Cetina e A. Cicourel), London 1981, pp. 109-35.
EDWARDS, A. L., The Social Desirability Variable in Personality Assessment and Research, New York 1957.
ETZIONI, A., LEHMANN, E. W., Some Dangers in “Valid” Social Measurement, in “Annals of the American Academy of Political and Social Science”, 1967, CCCLXXIII, pp. 1-15.
FACCIOLI, P., La sociologia visuale. Tecniche e campi di applicazione, in Introduzione alla sociologia visuale (a cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 49-71.
FEIGL, H., Physicalism, Unity of Science and the Foundations of Psychology, in The Philosophy of Rudolf Carnap (a cura di P. A. Schilpp), vol. I, La Salle 1963 (tr. it.: Fisicalismo, unità della scienza e i fondamenti della psicologia, in La filosofia di Rudolf Carnap (a cura di P. A. Schilpp), vol. I, Milano 1974, pp. 211-48).
FERRAROTTI, F., Dal documento alla testimonianza. La fotografia nelle scienze sociali, Napoli 1974.
FIDELI, R., MARRADI, A., Intervista, in Enciclopedia delle scienze sociali, 19XX, vol. XX, Roma 1995, pp. XX-XX.
FLECK, L., Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einfuehrung in die Lehre vom Denkstil und Denkkollektiv, Basel 1935.
FOX, J., LONG, J. S., Introduction, pp. 7-10, a Modern Methods of Data Analysis (a cura di Fox e Long), London 1990.
FREEDMAN, D. A., Statistics and the Scientific Method, 343-367 in Cohort Analysis in Social Research. Beyond the Identification Problem (a cura di W. M. Mason e S. E. Fienberg), New York 1985.
FRIEDRICHS, R. W., A Sociology of Sociology, New York 1970, pp. 169-171.
GADAMER, G., Warheit und Methode, Tübingen 1960.
GALBRAITH, J. K., The Affluent Society, Boston 1958.
GALLINO, L., Dizionario di Sociologia, Torino 1978 (voci ‘Neopositivismo e sociologia’ e ‘Tecnica’).
GALTUNG, J.,Theory and Methods of Social Research, London 1967.
GANGEMI, G., Le misure di associazione tra due dicotomie nella ricerca sociale, in “Rassegna italiana di sociologia”, 1977, XVIII, 4, pp. 599-628.
GASPERONI, G., GIOVANI, F., Come e perché non funzionano le scale Likert a polarità semantica invertita, in Costruire il dato 2 (a cura di A. Marradi e G. Gasperoni), Milano 1992, pp. 60-99.
GIDDENS, A., Central Problems in Social Theory. Action, Structure and Contradiction in Sociological Analysis, London 1979.
GOLDTHORPE, J. E ALTRI, The Affluent Worker: Political Attitudes and Behaviour, Cambridge 1968.
GOODE, W. J., HATT, P. K., Methods in Social Research, New York 1952 (tr. it.: Metodologia della ricerca sociale, Bologna 1962).
GUETZKOW, H., A Use of Simulation in the Study of International Relations, in “Behavioral Science”, 1959, IV, 3, pp. 183-191.
GUETZKOW, H. et al., Simulation in International Relations, Englewood Cliffs 1963.
HARPER, D., At Home on the Rails. Ethics in a Photographic Project, in “Qualitative Sociology”, 1978, I, 2.
HARRÈ, H. R., SECORD, P. F., The Explanation of Social Behaviour, Oxford 1972 (tr. it.: La spiegazione del comportamento sociale, Bologna 1977).
HEMPEL, C. G., L’analyse logique de la psychologie, in “Revue de Synthèse”, 1935 (tr. ingl.: The Logical Analysis of Psychology, in Readings in Philosophical Analysis (a cura di H. Feigl e W. Sellars), New York 1949, pp. 373-84).
HERMANN, C., Simulation: Political Processes, in International Encyclopedia of the Social Sciences, vol. XIV, London 1968, pp. 275-281.
HILL, R. J., On the Relevance of Methodology, in Sociological Methods (a cura di N. K. Denzin), Chicago 1970, pp. 12-26.
HOBHOUSE, L. T., Morals in Evolution. A Study in Comparative Ethics, London 1906.
HOLT, R., TURNER, J. E.,The Methodology of Comparative Research, in The Methodology of Comparative Research (a cura di R. T. Holt e J. E. Turner), New York 1970, pp. 1-20.
HOLZNER, B. Methodology, in A Dictionary of the Social Sciences (a cura di J. Gould e W. L. Kolb), Glencoe 1964, pp. 425-426.
HOMANS, G. C., The Human Group, New York 1950.
HOOKER, C., Methodology and Systematic Philosophy, in Basic Problems in Methodology and Linguistics (a cura di R. Butts e J. Hintikka), Dordrecht 1977.
HYMAN, H. H., Survey Design and Analysis, New York 1955.
HYMAN, H. H., Secondary Analysis of Sample Surveys: Principles, Procedures, and Potentialities, New York 1972.
JAMOUS, H., Technique, méthode, épistémologie, in “Epistémologie Sociologique”, 1968, 6, pp. 21-38.
JEVONS, W. S. The Principles of Science. A Treatise on Logic and Scientific Method, London 1874.
KAPLAN, A., The Conduct of Inquiry, San Francisco 1964.
KAUFMANN, F., Methodology of the Social Sciences, London 1941 (citazioni dall’edizione del 1944).
KEMENY, J. G., A Philosopher Looks at Science, Princeton 1959 (tr. it.: Il filosofo e la scienza. Introduzione alla filosofia della scienza, Milano 1972).
KRIZ, J., Facts and Artefacts in Social Science. An Epistemological and Methodological Analysis of Empirical Social Science Research Techniques, New York 1988.
LABOVITZ, S., Criteria for Selecting a Significance Level: A Note on the Sacredness of .05, in “American Sociologist”, 1968, III, 3, pp. 220-222.
LAZARSFELD, P. F., Problems in Methodology, in Sociology Today: Problems and Prospects (a cura di R. K. Merton, L. Broom e L. S. Cottrell), New York 1959, pp. 39-78 (tr. it.: Problemi di metodologia, in P. F. Lazarsfeld, Metodologia e ricerca sociologica, Bologna 1967, pp. 179-229).
LAZARSFELD, P. F., PASANELLA, A. K., ROSENBERG, M., Preface, in Continuities in the Language of Social Research (a cura di Lazarsfeld, Pasanella e Rosenberg), New York 1972.
LAZARSFELD, P. F., ROSENBERG, M., Introduction, pp. 1-12 in The Language of Social Research, New York 1955.
LECUYER, B.-P., Histoire et sociologie de la recherche sociale empirique: problèmes de théorie et de méthode, in “Epistémologie Sociologique”, 1968, 6, pp. 119-31.
LECUYER, B.-P., Società post-industriale e professionalizzazione degli scienziati, in “Sociologia e ricerca sociale”, 1987, VIII, 24, pp. 51-67.
LEROY, E., Science et philosophie, in “Revue de métaphysique et morale”, 1899, VII, pp. 364-381.
LINZ, J., Ecological Analysis and Survey Research, in Quantitative Ecological Analysis in the Social Sciences (a cura di M. Dogan e S. Rokkan), Cambridge 1969, pp. 99-131.
LIPSET, S. M., TROW, M., COLEMAN, S. J., Union Democracy, Glencoe 1956.
LOSEE, J., A Historical Introduction to the Philosophy of Science, Oxford 1972.
LOSITO, G., L’analisi del contenuto nella ricerca sociale, Milano 1993.
LUNDBERG, G. A., The Concept of Law in the Social Sciences, in “Philosophy of Science”, 1938, V, 2, pp. 189-203.
LUTYNSKI, J., Methodological Issues in Research Based on Autobiographies, in “Sisyphus”, 1982, II, pp. 87-96.
LUTYNSKI, J., Un centro di ricerca sulle tecniche di raccolta dei dati, in Costruire il dato (a cura di A. Marradi), Milano 1988, pp. 173-87.
LYND, R., LYND, H., Middletown: A Study in Contemporary American Culture, New York 1929.
MARRADI, A., Misurazione e scale: qualche riflessione e una proposta, in “Quaderni di sociologia”, 1980-81, XXIX, 4, pp. 595-639.
MARRADI, A., Concetti e metodo per la ricerca sociale, Firenze 1987.
MARRADI, A., Prefazione a Costruire il dato (a cura di A. Marradi), Milano 1988, pp. 7-9.
MARRADI, A., Casualità e rappresentatività di un campione: contributo a una sociologia del linguaggio scientifico, in I sondaggi elettorali e le scienze politiche (a cura di R. Mannheimer), Milano 1989, pp. 51-133.
MARRADI, A., Fedeltà di un dato, affidabilità di una definizione operativa, in “Rassegna di sociologia”, 1990, XXXI, 1, pp. 55-96.
MARRADI, A., Classificazione, in Enciclopedia delle scienze sociali, vol. II, Roma 1992, pp. 22-30.
MARRADI, A., Referenti, pensiero e linguaggio: una questione rilevante per gli indicatori, in “Sociologia e ricerca sociale”, 1994, XV, 43, pp. 137-207.
MARRADI, A., L’analisi monovariata, Milano 1994.
MATTIOLI, F., Gli indicatori visivi nella ricerca sociale: validità e attendibilità, in “Sociologia e ricerca sociale”, 1986, VII, 20, pp. 41-69.
MATTIOLI, F., Sociologia visuale, Roma 1991.
MCIVER, J. P., CARMINES, E. G., Unidimensional Scaling, Beverly Hills 1981.
MCIVER, R. M., Social Causation, Boston 1942.
MCKENNELL, A. C., Surveying Attitude Structures: A Discussion of Principles and Procedures, in “Quality and Quantity”, 1973, VII, 2, pp. 203-94.
MCKINNEY, J. C., Constructive Typology and Social Theory, New York 1966.
MERRITT, R. L., Systematic Approaches to Comparative Politics, Chicago 1970.
MERTON, R. K., Social Theory and Social Structure. Toward the Codification of Theory and Research, Glencoe 1949.
MILL, J. S., A System of Logic, Ratiocinative and Inductive, London 1843.
MILLS, C. W., The Sociological Imagination, Oxford 1959.
MOKRZYCKI, E., Philosophy of Science and Sociology. From the Methodological Doctrine to Research Practice, London 1983.
MONTESPERELLI, P., L’intervista ermeneutica, Milano 1996.
MURDOCK, G. P., Social Structure, New York 1949.
NADEL, S. F., The Foundations of Social Anthropology, London 1949 (tr. it.: Lineamenti di antropologia sociale, Bari 1974).
NEURATH, O., Soziologie im Physikalismus, in “Erkenntnis”, 1931-32, II, pp. 393-431.
NICKLES, T., Metodologia, euristica e razionalità, in I modi del progresso: teorie e episodi della razionalità scientifica (a cura di M. Pera e J. Pitt), Milano 1986, pp. 87-116.
NOWAK, S., Understanding and Prediction. Essays in the Methodology of Social and Behavioral Theories, Dordrecht 1976.
NOWAK, S., Methodological Dilemmas of Contemporary Sociology, in Polish Essays in the Methodology of the Social Sciences (a cura di J. J. Wiatr), Dordrecht 1979, pp. 157-171.
OLAGNERO, M., SARACENO, C., Che vita è. L’uso dei materiali biografici nell’analisi sociologica, Roma 1993.
ONG, W. J., Orality and Literacy, London 1982.
OPP, K. D., Methodologie der Sozialwissenschaften, Hamburg 1970.
ORNE, M. T., On the Social Psychology Experiment: with Particular Reference to Demand Characteristics and Their Implications, in “American Psychologist”, 1962, XVII, 11, pp. 776-783.
PALUMBO, M., Concetti dell’uomo della strada e concetti del ricercatore, in Costruire il dato 2 (a cura di A. Marradi e G. Gasperoni), Milano 1992, pp. 15-43.
PARISI, D., CASTELFRANCHI, C., Una definizione della psicologia cognitivista, in Psicologia della gestalt e psicologia cognitivista (a cura di G. Kanizsa e P. Legrenzi), Bologna 1978, pp. 63-84.
PARK, R. E., BURGESS, E. W., Introduction to the Science of Sociology, Chicago 1921.
PARSONS, T., The Structure of Social Action. A Study in Sociological Theory with Special Reference to a Group of Recent European Writers, New York 1937.
PAWSON, R., A Measure for Measures, London 1989.
PAYNE, S. L., The Art of Asking Questions, Princeton 1951.
PEARSALL, M., Participant Observation as Role and Method in Behavioral Research, in “Nursing Research”, 1965, XIV, 1. Citazioni dalla versione ristampata in Qualitative Methodology: Firsthand Involvement with the Social World (a cura di W. J. Filstead), Chicago 1970, pp. 340-352.
PERA, M., Induzione e metodo scientifico, Pisa 1978.
PHILLIPS, B. S., Social Research. Strategy and Tactics, London 1966 (tr. it.: Metodologia della ricerca sociale, Bologna 1972).
PITRONE, M. C., Il sondaggio, Milano 1984.
POLANYI, M., Personal Knowledge. Towards Post-Critical Philosophy, London 1958.
POPPER, K. R., The Poverty of Historicism, in “Economica”, 1944, XI, 42, pp. 86-103; 43, pp. 119-137; 1945, XII, 46, pp. 69-89.
RAPOPORT, A., Strategy and Conscience, New York 1964.
RICOLFI, L., Modelli di analisi e software per le scienze sociali, in “Rassegna italiana di sociologia”, 1982, XXIII, 3, pp. 331-72.
RICOLFI, L., Modelli dell’attore e analisi dei dati. Utilitarismo e sociologia, Torino 1984.
RICOLFI, L., Tre variabili. Un’introduzione all’analisi multivariata, Milano 1994.
RICOLFI, L., L’arte della descrizione. Un’introduzione alla ricerca standard, Torino 1993.
RIESMAN, D., GLAZER, N., DENNEY, R., The Lonely Crowd. A Study of the Changing American Character, New Haven 1950.
RITZER, G., Sociology: A Multiple Paradigm Science, Boston 1975.
ROETHLISBERGER, F. J., DICKSON, W. J., Management and the Worker, Cambridge, (Mass.) 1939.
ROSITI, F., L’analisi del contenuto come interpretazione, Torino 1970.
ROSITI, F., Analisi del contenuto, in La ricerca sull’industria culturale (a cura di F. Rositi e M. Livolsi), Roma 1988, pp. 59-94.
ROSS, J., SMITH, P., Orthodox Experimental Designs, in Methodology in Social Research (a cura di H. M. Blalock e A. B. Blalock), New York 1968.
RUDNER, R. S., Philosophy of Social Science, Englewood Cliffs 1966 (tr. it.: Filosofia delle scienze sociali, Bologna 1968).
SAPIGNOLI, M., L’intervistato reagisce all’intera frase o solo a singole parole?, in Costruire il dato 2 (a cura di A. Marradi e G. Gasperoni), Milano 1992, pp. 100-129.
SARTORI, G., Foreword in Social Science Concepts. A Systematic Analysis (a cura di G. Sartori), London 1984.
SAUSSURE, F. DE, Cours de linguistique générale, Paris 1916.
SCHADEE, H. M. A., CORBETTA P., Metodi e modelli di analisi dei dati elettorali, Bologna 1984.
SCHATZMAN, L., STRAUSS, A. L., Field Research: Strategies for a Natural Sociology, Englewood Cliffs 1973.
SCHUMPETER, J. A., Capitalism, Socialism, and Democracy, New York 1942.
SCHUSSLER, K., Measuring Social Life Feelings, San Francisco 1982.
SCHUTZ, A., Concept and Theory Formation in the Social Sciences, in “Journal of Philosophy”, 1954, LI, 9, pp. 257-73.
SCHUTZ, A., Der sinnhafte Aufbau der sozialen Welt, Wien 1932.
SCHWARTZ, H., JACOBS, J., Qualitative Sociology: A Method to the Madness, New York 1979.
SECONDULFO, D., Un’immagine vale più di mille parole? Alcune notazioni in margine all’uso sociologico della fotografia, in Introduzione alla sociologia visuale (a cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 159-172.
SELVIN, H. C., Durkheim’s “Suicide” and Problems of Empirical Research, in “American Journal of Sociology”, 1958, LXIII, pp. 607-19.
SINGER, J. D., The Historical Experiment as a Research Strategy in the Study of World Politics, in “Social Science History”, 1977, II, 1, pp. 1-22.
SINGER, J. D., Variables, Indicators, and Data, in “Social Science History”, 1982, VI, 2, pp. 181-217.
SKINNER, B. F., Science and Human Behaviour, Glencoe 1953.
SJOBERG, G., NETT, R., A Methodology for Social Research, New York 1968.
SMELSER, N. J., Comparative Methods in the Social Sciences, Englewood Cliffs 1976.
SMITH, R. L., MCPHAIL, P., PICKENS, R. G., Reactivity to Systematic Observation with Film: A Field Experiment, in “Sociometry”, 1975, XXXVIII, 4.
SMITH, W. H., Strategies of Social Research. The Methodological Imagination, Englewood Cliffs 1975.
SOMERS, R. H., Applications of an Expanded Survey Research Model to Comparative Institutional Studies, in Comparative Methods in Sociology (a cura di I. Vallier), Berkeley 1972, pp. 357-420.
SOROKIN, P. A., Society, Culture, and Personality: Their Structure and Dynamics. A System of General Sociology, New York 1947.
STATERA, G., La conoscenza sociologica. Problemi e metodo, Roma 1968.
STINCHCOMBE, A. L., Constructing Social Theories, New York 1968.
STOETZEL, J., Préface a Méthodes de la sociologie (a cura di R. Boudon e P. F. Lazarsfeld), Paris 1965 (tr. it.: Prefazione all’edizione francese, in L’analisi empirica nelle scienze sociali (a cura di R. Boudon e P. F. Lazarsfeld), Bologna 1969, pp. 9-14).
STRODTBECK, F. L., Recensione di Experimenter Effects in Behavioral Research (di R. Rosenthal), in “American Sociological Review”, 1968, XXXIII, 3, pp. 459.460.
SZTOMPKA, P., Sociological Dilemmas. Toward a Dialectic Paradigm, New York 1979.
THEODORSON, G. A., THEODORSON, A. G., A Modern Dictionary of Sociology, London 1970.
TOULMIN, S. E., Human Understanding, vol. I: The Evolution of Collective Understanding, Princeton 1972.
TRENTINI, G., Tassonomia generale del colloquio e dell’intervista, in Manuale del colloquio e dell’intervista (a cura di G. Trentini), Milano 1980.
VIDICH, A. J., Participant Observation and the Collection and Interpretation of Data, in “American Journal of Sociology”, 1955, LX, pp. 354-360.
VIDICH, A. J., SHAPIRO, G., A Comparison of Participant Observation and Survey Data, in “American Sociological Review”, 1955, XX, 1, pp. 28-33.
WALLIS, W. A., ROBERTS, H. V., Statistics: A New Approach, New York 1956.
WEBB, E. J., CAMPBELL, D. T., SCHWARTZ, R. D., SECHREST, L., Unobtrusive Measures: Nonreactive Research in the Social Sciences, Chicago 1966.
WEBER, M., Gesammelte Aufsätze zur Wissenschaftslehre, Tübingen 1922 (tr. it.: Il metodo delle scienze storico-sociali, Torino 1958).
WEIGERT, A. J., The Immoral Rhetoric of Scientific Sociology, in “American Sociologist”, 1970, V, pp. 110-23.
WIGGINS, J. A., Hypothesis Validity and Experimental Laboratory Methods, in Methodology in Social Research (a cura di H. M. Blalock, Jr. e A. B. Blalock), New York 1968, pp. 390-427.
WORTH, S., ADAIR, J., Through Navajo Eyes, Bloomington 1972.
WRIGHT, G. H., VON, Explanation and Understanding, Ithaca 1971 (tr. it.: Spiegazione e comprensione, Bologna 1977).
ZAJCZYK, F., La conoscenza sociale del territorio. Fonti e qualità dei dati, Milano 1991.
ZNANIECKI, F. European and American Sociology After Two World Wars, in “American Journal of Sociology”, 1950, LVI, 3, pp. 217-221.


THEORIA  | Proyecto Crítico de Ciencias Sociales - Universidad Complutense de Madrid