Román Reyes (Dir): Diccionario Crítico de Ciencias Sociales |
Método e Técniche
nelle Scienze Sociale
|
Giancarlo Gasperoni
y Alberto Marradi
Universitá
degli Studi di Firenza
|
1a. Il termine nel linguaggio comune.
Oltre
che al linguaggio filosofico-scientifico, il termine ‘metodo’ appartiene
al linguaggio comune. In tutta la gamma, peraltro non molto estesa, di
significati che assume nel linguaggio comune esso si incontra di frequente
anche nelle opere classiche delle scienze sociali. Ecco una breve lista
senza alcuna pretesa di esaustività:
a) criterio: “ogni società
deve avere un metodo per distribuire ai suoi membri i beni materiali che
produce” (v. Homans, 1950, p. 275);
b) modo (fra vari alternativi):
“Un nobile ha vari metodi di perdere il suo stato: la sconfitta militare,
la vendita della sua patente...” (v. Sorokin, 1947, p. 259); “Nulla sarebbe
visto con più sospetto di questo metodo per espandere la produzione”
(v. Galbraith, 1958, p. 106);
c) strada (per conseguire
un fine): “La fede in una dose maggiore di pianificazione e di nazionalizzazioni
come metodo di miglioramento economico” (v. Goldthorpe et al., 1968, p.
23); “L’ideale di uguaglianza è forte ma non ha metodi regolari
e garantiti per affermarsi” (v. Cooley, 1909, p. 14);
d) procedura ricorrente,
prassi: “Secondo il vecchio metodo di passare da madre a figlia le nozioni
tradizionali di economia domestica” (v. Lynd e Lynd, 1929, p. 157); “I
vecchi metodi per chiedere deferenza divennero sempre meno percorribili”
(v. Collins, 1975, p. 224); “Stanno ancora trascurando l’erosione sociale
ascrivibile all’attuale metodo di introdurre rapidi cambiamenti tecnologici”
(v. Merton, 1949, p. 325);
e) procedimento: “Tutti
i metodi noti di valutare o calcolare il tempo comportano ripetizioni”
(v. Giddens, 1979, p. 204);
f) tecnica: “I metodi per
soddisfare la fame e la sete sono appresi con l’esperienza e con l’insegnamento”
(v. Hobhouse, 1906, p. 2); “A causa del miglioramento nei metodi agricoli
la terra è in grado di sostenere una maggiore popolazione” (v. Riesman
et al., 1950, p. 14);
g) artificio, trucco: “Tutti
i metodi conosciuti per dissolvere una folla implicano un qualche metodo
per distrarre l’attenzione...” (v. Park e Burgess, 1921, pp. 876-877).
Il termine
nacque in greco, come composto del sostantivo o‘?o´? (strada) e della
preposizione ???a´, che aveva vari significati: quello che entrava
in gioco in questo caso era il significato ‘con’. Etimologicamente il composto
significava quindi “strada con [la quale]”, e dal sostantivo ‘strada’ (o,‘do,´V)
esso ereditava il genere femminile, che trasmise poi ai suoi derivati francese
e tedesco. All’etimo rimase vicino il significato nel linguaggio comune
greco (successione di atti miranti a conseguire un fine).
Nel “Fedro”
Platone parla del metodo di Ippocrate e del metodo dei retori, in un senso
che non pare diverso da quello del linguaggio comune. Aristotele e autori
successivi rafforzano l’idea di percorso ricorrendo spesso all’espressione
"la direzione del cammino". L’idea di una successione di passi è
sottolineata anche dai logici di Port Royal: “ars bene disponendi seriem
plurimarum cogitationum” (v. Arnauld e Nicole, 1662).
1b. Concetti di metodo nelle riflessioni sulla scienza.
L’accentuazione
degli aspetti intellettuali nel significato del termine è già
evidente quando Jean Bodin dedica (v., 1566) una riflessione specifica
al metodo nelle scienze storico-politiche. Cartesio fa della riflessione
sul metodo il cardine della sua posizione filosofica (v., 1637), e — nella
quarta Regula ad directionem ingenii (v., 1628) — dà una celebre
definizione di metodo come “delle regole certe e facili che, da chiunque
esattamente osservate, gli renderanno impossibile prendere il falso per
vero, senza consumare inutilmente alcuno forzo della mente, ma aumentando
sempre gradatamente il [suo] sapere, lo condurranno alla conoscenza vera
di tutto ciò che sarà capace di conoscere”.
Questa
natura universale del metodo era già stata sottolineata qualche
anno prima da Bacone nell’aforisma 122 del Novum Organum (v., 1620): “Il
nostro metodo di ricerca mette quasi alla pari tutti gli ingegni, perché
lascia poco spazio alle capacità individuali, ma le lega con regole
solidissime e con dimostrazioni”.
Non può
sfuggire la straordinaria consonanza delle posizioni di questi pensatori
che per altri aspetti i testi di storia della filosofia contrappongono:
a) le regole sono
facili, automatiche (“senza consumare alcuno sforzo della mente”), buone
per tutti (“da chiunque”, “mette alla pari tutti gli ingegni”);
b) sono anche cogenti per
tutti, non lasciando margini di intervento alle conoscenze, capacità,
iniziative personali (“regole certe, esattamente osservate”, “lascia poco
spazio alle capacità individuali, ma le lega con regole solidissime
e con dimostrazioni”);
c) se seguite e rispettate,
“condurranno alla conoscenza vera”.
Sull’onda
dei successi che la matematizzazione della scienza ha già conseguito
con Keplero e Galilei, e sta conseguendo con Newton, si afferma “l’idea
pitagorico-platonica di un metodo matematico universale, applicabile in
tutti i campi della conoscenza scientifica” (v. Berka, 1983, p. 8). In
tal modo si possono coniugare verum e certum, parlare del mondo con la
certezza di dire cose vere che garantisce la matematica: è la stessa
coniugazione che tenterà e proclamerà possibile (sin dall’etichetta
che si sceglie) l’empirismo logico.
Il concetto
di un programma che regoli in anticipo una serie fissa e invariabile di
operazioni da compiere per raggiungere la conoscenza scientifica su un
qualsiasi argomento è tuttora uno dei significati prevalenti dell’espressione
‘metodo scientifico’ — anche se raramente si arriva a specificare proprio
la lista delle operazioni. Vi sono arrivati, per esempio, due sociologi
inglesi redigendo la voce Scientific Method del loro dizionario di sociologia
(v. Theodorson e Theodorson, 1970, p. 370): “L’applicazione del metodo
scientifico a un problema comporta i seguenti passi. Primo, il problema
è definito. Secondo, il problema è formulato nei termini
di un particolare quadro teorico, e collegato ai risultati rilevanti delle
ricerche precedenti. Terzo, si immaginano una o più ipotesi relative
al problema, utilizzando principi teorici già accettati. Quarto,
si determina la procedura da usare nel raccogliere dati per controllare
l’ipotesi. Quinto, si raccolgono i dati. Sesto, si analizzano i dati per
appurare se l’ipotesi è verificata o respinta. Infine, le conclusioni
dello studio sono collegate al corpus precedente della teoria, che viene
modificato per accordarlo alle nuove risultanze”.
Si tratta,
come il lettore avrà osservato, del cosiddetto “metodo ipotetico-deduttivo”
elaborato dalla riflessione filosofica sulla fisica dal Seicento in poi
(v. Losee, 1972, capp. 7-9). La convinzione che esso sia l’unico metodo
possibile per la scienza è molto diffusa anche nelle scienze umane.
Ecco, ad es., l’antropologo Nadel: “C’è un solo metodo scientifico,
per quanto praticato con diverso rigore e coerenza, e a questo riguardo
la fisica e la chimica hanno raggiunto i migliori risultati. Ogni ricerca
è vincolata a questo metodo, e nessun altro è concepibile”
(v., 1949; tr. it. 1972, p. 227. Per dichiarazioni altrettanto categoriche,
si vedano lo psicologo Skinner, 1953, p. 5; il sociologo Lundberg, 1938,
pp. 191-192; l’antropologo Murdock, 1949, p. 183).
Con maggior
cautela, giungono praticamente alla stessa conclusione molti epistemologi:
“Si può ragionevolmente affermare che le diverse discipline scientifiche
hanno lo stesso metodo se ci si riferisce alla procedura o al complesso
di regole che la integrano” (v. Pera, 1978, p. 11. Per dichiarazioni analoghe,
si vedano Neurath, 1931-32, p. 407; Hempel, 1935, rist. 1949, p. 382; Kemeny,
1959, tr. it. 1972, p. 27; Feigl, 1963, tr. it. 1974, p. 211; Rudner, 1966,
tr. it. 1968, pp. 18-19; Bhaskar, 1979, p. 3).
Ma non
tutti sono d’accordo. Dalton osserva polemicamente: “Si presume che una
sequenza invariabile: formulazione di ipotesi / controllo / conferma sia
condivisa da tutti gli scienziati, che tutti concordino che è l’unica
via alla conoscenza; insomma, che c’è un solo metodo scientifico”
(v., 1964, p. 59). E invece “ci si può domandare — osserva Becker
— se i metodologi, i guardiani istituzionali della metodologia, affrontino
davvero l’intero arco delle questioni metodologiche rilevanti per la sociologia,
oppure se si limitino a un sotto-insieme non casuale (come direbbero loro)
di tali questioni” — e conclude: “la metodologia è troppo importante
per esser lasciata ai metodologi!” (v., 1970, p. 3). Sulla stessa falsariga
il polacco Mokrzycki: “Le fondamenta di questo ‘metodo’ sono fuori della
sociologia, prive di contatti col pensiero sociologico. La ‘metodologia
delle scienze sociali’ è divenuta una cinghia di trasmissione che
distribuisce ai sociologi il ‘metodo scientifico’, cioè le idee
di quegli autori che passano per esperti sul tema” (v., 1983, p. 72). “Molti
di noi — aggiunge Dalton — accettano il ‘metodo scientifico’ perché
sono convinti che sia stato sviluppato nelle scienze naturali... Ma nelle
scienze naturali non si professa deferenza a quel modello come facciamo
noi” (v., 1964, p. 59).
La vivacità
di queste reazioni si spiega con il loro riferirsi a un periodo, certo
non lontano, in cui l’orientamento scientista dominava nelle scienze umane:
si sosteneva — come si è visto nei passi citati — non solo che la
scienza ha un solo metodo, ma che si tratta di quel metodo, santificato
dal successo delle scienze fisiche.
C’erano,
e ci sono, anche posizioni più prudenti: “Il metodo di una scienza
è la comune base logica sulla quale essa fonda l’accettazione o
il rifiuto di ipotesi e teorie” (v. Rudner, 1966; tr. it. 1968, pp. 19-20).
Anche questa posizione minimalista, condivisa per esempio da Dewey (v.,
1938) e da Popper (v., 1944-45), per la quale il metodo è uno solo
perché si riduce all’uso della logica nell’argomentazione, è
stata contestata da chi vi leggeva in trasparenza “l’assunto ingiustificato
che il solo metodo logico è quello usato nelle scienze naturali,
e nella fisica in particolare” (v. Schutz, 1954, p. 272). Più severamente,
qualcuno ha parlato di “insignificanti generalizzazioni che intendono coprire
tutta l’attività scientifica, e in realtà coprono quasi tutta
l’attività intellettuale” (v. Nickles, 1986, p. 115).
Ma anche
indipendentemente dalle letture in trasparenza (peraltro pienamente fondate,
quanto meno riguardo a Rudner, Popper e molti altri), l’idea stessa dell’unicità
del metodo è stata criticata. “La stessa idea di ‘un metodo’ accresce
la fiducia nei propri risultati e riduce la disponibilità a domandarsi
se le procedure consolidate abbiamo senso nel caso particolare” (v. Kriz,
1988, p. 184). Con gli stessi accenti l’epistemologo francese Haroun Jamous
parla di “repulsione per l’incertezza,... bisogno acuto di briglie stabili
e definitive che possano dispensare dal ricorrere a quell’apporto individuale
e incerto che, proprio perché difficilmente formalizzabile, è
forse indispensabile ad ogni opera creatrice” (v., 1968, p. 27).
Collegata
alla precedente, una seconda linea critica segnala il pericolo che una
particolare serie di procedure, identificata con “il metodo scientifico”
venga reificata e diventi un fine in sé. La situazione “diffusa
in psicologia [è una] di esaltazione e quasi feticismo del metodo,
se non addirittura dello strumento tecnico che da mezzo diventa fine di
molte ricerche” (v. Parisi e Castelfranchi, 1978, p. 79).
“Come
in tutti i rituali, l’attenzione passa dal contenuto alla forma, e la virtù
finisce per consistere nell’esecuzione corretta di una sequenza fissa di
atti” (v. Kaplan, 1964, p. 146; analogamente Cipolla, 1988, p. 104; Direnzo,
1966, p. 249). “Se il criterio è il rispetto di un sistema di regole
— osserva maliziosamente Lecuyer — anche un elenco telefonico è
una buona ricerca scientifica” (v., 1968, p. 124).
Sicuramente
esagerano in malizia sia il filosofo convenzionalista Leroy quando parla
di “superstizione” (v., 1899, p. 377), sia il sociologo Weigert quando
fa notare che “caratteristica della magia è l’attribuzione di efficacia
a rituali minutamente osservati senza indagare il nesso causale fra rito
ed effetti” (v., 1970, p. 116). Ma la natura tendenzialmente rituale dell’adesione
di molti scienziato sociali al “metodo scientifico” è stata notata
più volte. In parecchi hanno rilevato che la sequenza rigorosa di
atti compare invariabilmente al momento di stendere i rapporti di ricerca
(v. Merton, 1949, p. 506; v. Phillips, 1966, tr. it. 1972, pp. 138-139;
v. Bollen e Jackman, 1990, p. 268) — il che ci ricorda le pungenti osservazioni
di Fleck sul processo di razionalizzazione ex post che subiscono le procedure
sperimentali (v., 1935, § 4.2). Kaplan ironizza sui “prologhi metodologici,
premessi come invocazione rituale alle divinità tutelari del metodo
scientifico” (v., 1964, p. 20).
Pur condividendo
molte di queste critiche alla tesi dell’unicità e fissità
del metodo scientifico, non si può accedere alla battuta degli statistici
Wallis e Roberts, per i quali “non c’è nulla che si possa chiamare
il metodo scientifico. Cioè non ci sono procedure che dicano allo
scienziato come partire, come proseguire, quali conclusioni raggiungere”
(v., 1956, p. 5).
Anche
se raramente codificata per esteso, e fatta segno di un ossequio largamente
rituale, nella coscienza collettiva dei ricercatori in scienze umane una
certa idea di quel metodo scientifico esiste: la si riscontra ad esempio
nel ricorso quasi universale a termini-chiave quali ‘ipotesi’, ‘verificare’.
La questione è, se mai, se un ossequio più che rituale, cioè
non limitato ai prologhi e ai resoconti, non abbia condotto, e continui
a condurre, molti a considerare i loro oggetti e problemi cognitivi solo
in quanto riflessi in un prisma, a scambiare quelle immagine deformate
per la realtà, e a perdere l’occasione di conoscerli più
da vicino e penetrarli più a fondo. Forse ha in mente qualcosa del
genere chi rileva che “l’enorme fioritura di scritti di filosofia della
scienza avvenuta nel ventesimo secolo ha, nell’insieme, più soffocato
che incentivato lo sviluppo metodologico” (v. Nickles, 1986, pp. 94-95).
“La qualità
di uno scienziato — ricorda Toulmin — è dimostrata meno dalla sua
fedeltà a un ‘metodo’ universale che dalla sua sensibilità
alle specifiche esigenze del suo problema” (v., 1972, vol. I, p. 150).
“Sii un buon artigiano, che sceglie di volta in volta quale procedimento
seguire” raccomanda Mills; e aggiunge: “chiediamo a chi ha prodotto lavori
di qualità di raccontarci in dettaglio come ha operato: solo in
queste conversazioni con ricercatori esperti i giovani potranno acquisire
un’utile sensibilità metodologica” (v., 1959, pp. 224 e 28).
Che il
metodo sia soprattutto scelta sono parecchi a dirlo. “La questione metodologica
propriamente detta è la scelta fra le tecniche in funzione della
natura del trattamento che ciascuna tecnica fa subire al suo oggetto” (v.
Bourdieu et al., 1968, p. 59). “Ogni ricerca è un lungo sentiero
con molti bivi e diramazioni, e ad ogni bivio dev’essere presa una decisione...
Nessuna regola, nessun algoritmo può dire qual è la decisione
giusta... Più il ricercatore concepisce il metodo come una sequenza
rigida di passi, più decisioni prenderà senza riflettere
e senza rendersene conto” (v. Kriz, 1988, pp. 81 e 131). Tra l’altro, dover
scegliere non significa necessariamente dover affrontare ogni problema
con una tecnica sola: è anzi saggio non affidarsi a una sola tecnica
“per vedere nuovi aspetti del fenomeno che interessa e tener conto di vari
tipi di dati relativi a uno stesso fenomeno” in modo da “essere sicuri
di star studiando qualcosa di reale” anziché qualcosa che può
essere un artefatto della tecnica usata (v. Parisi e Castelfranchi, 1978,
p. 79).
Se la
ricerca dev’essere “un processo cognitivo piuttosto che un semplice processo
di validazione di idee già formulate” (v. Bailyn, 1977, p. 101),
è necessario “restare aperti a nuove informazioni e idee, resistendo
alle inevitabili pressioni verso interpretazioni premature” (v. Blaikie
e Stacy, 1982, p. 32). O quanto meno “saper mantenere la tensione fra la
necessaria funzione di riduzione della complessità fenomenica e
l’apertura a dimensioni che permettano di aumentare la complessità
degli schemi concettuali” (v. Crespi, 1985, p. 343).
Il metodo
è quindi qualcosa di molto più complesso di una semplice
sequenza unidimensionale di passi (in tal senso v. anche Cipolla, 1988,
in particolare p. 34). Non basta, come ammetteva persino Comte, “aver letto
i precetti di Bacone e il Discours di Descartes” (v., 1830, vol. 1; ediz.
1926, p. 71). “Senza dubbio — come osserva Polanyi — lo scienziato procede
in modo metodico. Ma il suo metodo sono come le massime di un’arte che
egli applica nel suo modo originale al suo problema” (v., 1958, p. 311).
La sua opera è “molto simile a una creazione artistica... ma non
è un’arte come scultura e pittura, in cui uno è libero di
trarre qualunque cosa dal materiale grezzo. E’ un’arte come l’architettura,
in cui si può mostrare creatività lavorando con materiali
grezzi caratterizzati da limitate proprietà ingegneristiche, e per
committenti con bilanci vincolanti e obiettivi precisi” (v. Davis, 1964,
pp. 267-268). La gestione di risorse in presenza di vincoli è un
aspetto caratterizzante del concetto di metodo, e vi torneremo nel §
2a.
1c. Metodo, metodi, metodologia.
Dal punto
di vista linguistico, una conseguenza inevitabile del fatto che l’orientamento
a lungo prevalente nella filosofia delle scienze umane reificava il metodo
in una successione di passi procedurali è stata il passaggio del
termine ‘metodo’ a designare non solo una particolare maniera di compiere
quei passi (“metodo sperimentale”, “metodo ipotetico-deduttivo”), ma anche
ciascun singolo passo, e anche gli strumenti operativi che permettevano
di compiere i vari passi (cioè le tecniche: v. § 2a). In questa
accezione — in cui designava sostanzialmente un oggetto — il termine ha
sviluppato un plurale (il complesso delle tecniche, il gruppo delle tecniche
di un certo tipo), che non si giustificava in alcuna delle accezioni esaminate
nella sezione precedente.
L’impiego
di ‘metodo/metodi’ nel senso di tecnica/tecniche è stato ed è
endemico nelle discipline più orientate alla ricerca empirica, che
vengono più spesso a contatto con strumenti operativi. Ma se ne
incontrano molti casi anche in opere di sociologi teorici (si vedano, ad
esempio, Sorokin, 1947, p. 22; Znaniecki, 1950, p. 220; Homans, 1950, pp.
40, 371 e 372; Riesman et al., 1950, p. 180; Alberoni, 1967, p. 11; Goldthorpe
et al., 1968, p. 8; Sztompka, 1979, p. 72; Collins, 1975, p. 8). Qualche
autore manifesta un certo disagio, e quindi parla di “una tecnica e metodo
di analisi” (Capecchi, 1967, p. clx) o di technical methods (v. Collins,
1975, p. 414). Kaplan distingue i metodi dalle tecniche in quanto i primi
sono abbastanza generali da valere in tutte le scienze o in una parte importante
di esse (v., 1964, p. 23). C’è in effetti nell’uso una certa stratificazione
gerarchica nel senso indicato da Kaplan (i metodi sono più generali
e/o più nobili delle tecniche), ma nessun altro autore — a quanto
ci risulta — l’ha codificata, e meno che mai ha proposto un qualsiasi confine.
Si è
detto dell’indebita espansione semantica del termine ‘metodo’. Di un abuso
ben più grave, come vedremo tra breve, soffre il termine ‘metodologia’.
In decine e decine di termini scientifici — molti dei quali, peraltro,
passati nel linguaggio comune — il suffisso -logia sta per “discorso su”,
“studio di”. Così geologia è lo studio della terra (da gaza
terra e logos discorso), psicologia lo studio della psiche, sociologia
lo studio della società, e così via. ‘Metodologia’ dovrebbe
pertanto essere discorso, studio, riflessione sul metodo — in una o più
delle accezioni che abbiamo visto fin qui. E infatti in questo senso è
usato dagli autori che non hanno dimenticato le radici greche della terminologia
scientifica e meta-scientifica: “La metodologia intraprende l’analisi delle
procedure scientifiche e degli strumenti di ricerca” (v. Nowak, 1976, p.
xv); “metodologia è la valutazione critica dell’attività
di ricerca in relazione agli standards scientifici” (v. Smelser, 1976,
p. 3); “la metodologia può essere definita una conoscenza che risulta
da una riflessione sugli aspetti empirici della ricerca” (v. Stoetzel,
1965; tr. it. 1969, p. 10). Definizioni analoghe hanno dato Weber (v.,
1922; tr. it. 1958, p. 147), Von Wright (v., 1971; tr. it. 1977, p. 19),
Kaplan (v., 1964, p. 23), Opp (v., 1970, p. 7), Holt e Turner (v., 1970,
p. 4), Hooker (v., 1977, p. 3), Nickles (v., 1986, p. 114) e molti altri.
Nelle
definizioni riportate e in quelle analoghe l’elemento ‘metodo’ (cioè
l’oggetto studiato dalla -logia) è inteso in modo piuttosto ampio,
come un terreno vagamente definito fra l’epistemologia e le tecniche (v.
§ 2b).
Solo
Lazarsfeld restringe l’accezione dell’elemento ‘metodo’ a qualcosa di molto
simile all’accezione qui presentata nella parte finale del § 1b: “la
metodologia codifica le pratiche della ricerca in atto per evidenziarne
ciò che merita di essere tenuto presente le prossime volte” (v.
Lazarsfeld e Rosenberg, 1955, p. 3); “la metodologia esamina le ricerche
per esplicitare le procedure che furono usate, gli assunti sottostanti,
e i modi di spiegazione offerti” (v. Lazarsfeld et al., 1972, p. xi). “Questa
codificazione di procedimenti mette in evidenza i pericoli, indica le possibilità
trascurate e suggerisce eventuali miglioramenti. Inoltre, rende possibile
la generalizzazione della conoscenza metodologica, trasmettendo i contributi
specifici di un dato ricercatore al patrimonio della comunità scientifica”
(v. Barton e Lazarsfeld, 1967; tr. it. 1967, p. 307). Con una bella immagine,
Lazarsfeld sintetizza il suo punto di vista: “La poesia è emozione
cui si ritorna con animo tranquillo. Considero la metodologia un riandare
al lavoro creativo con lo stesso stato d’animo” (v., 1959; tr. it. 1967,
p. 186). Pur non definendo mai direttamente il termine ‘metodo’, Lazarsfeld
mostra in questi passi di concepirlo come un’attività creativa al
pari di Mills, Polanyi, Davis e altri — anzi, mostra che questa concezione
è talmente chiara e solida in lui da resistere anche all’ampliamento
semantico che il termine ‘metodo’ subisce quasi inevitabilmente quando
diviene parte del termine ‘metodologia’.
Definendo
‘metodologia’, molti sentono il bisogno di precisare che essa non va confusa
con il metodo stesso, e meno che mai con le tecniche (si vedano, ad esempio,
Parsons, 1937, pp. 23-24; Selvin, 1958, p. 607; Rudner, 1966, tr. it. 1968,
pp. 19; Kaplan, 1964, pp. 18-19; Lecuyer, 1968, p. 126; Holzner, 1964,
p. 425). La precisazione parrebbe superflua, perché confondere “X”
con “lo studio di X” costituisce un palese errore categoriale. Purtroppo
non è affatto superflua: nella ricerca sociale americana — i cui
cultori hanno quasi tutti una coscienza a dir poco tenue delle radici greche
del linguaggio scientifico — si è da tempo diffusa (ed è
stata felicemente esportata dal nostro lato dell’Atlantico) l’abitudine
di chiamare methodology la singola tecnica. E’ questo l’abuso terminologico
cui si accennava sopra; se ne rendono responsabili anche autori di notevole
sofisticazione intellettuale, come Galtung (v., 1967, ad es. p. 376). Si
comprendono le proteste dell’interazionista Blumer per questa “stupefacente
inclinazione a identificare la metodologia con una limitata porzione del
suo oggetto di studio” (v., 1969, p. 22; con toni meno accesi, v. Sartori,
1984, p. 9; v. Stinchcombe, 1968, p. 28; v. Driscoll e Hyneman, 1955, p.
192).
Talvolta
il termine viene usato per “insieme di tecniche” (v. Statera, 1968, p.
26) o per “i principi delle procedure di ricerca” (v. McKinney, 1966, p.
70; analogamente Alexander, 1982, pp. 10 e 144; Bogdan e Taylor, 1975,
p. 1).
A proposito
della metodologia in senso proprio, si discute se essa debba essere una
disciplina prescrittiva o descrittiva. Per la seconda alternativa si è
pronunciato con forza Dewey (v., 1938). Altri fanno notare che lo studio
empirico di come lavorano gli scienziati è compito di storiografia
e sociologia della scienza; la metodologia dev’essere normativa (v. Holzner,
1964; v. Nickles, 1986, p. 107); deve “fissare e giustificare un sistema
di regole tali che assicurino la correttezza delle specifiche mosse compiute”
(v. Pera, 1978, p. 7). “La metodologia — scrive Bruschi — implica una concezione
logico-razionale della scienza...
L’aspetto
normativo che nella filosofia della scienza può essere latente,
qui è manifesto e diretto... Il metodologo dichiara ciò che
il ricercatore deve fare per ottenere scienza” (v., 1991, pp. 38-39). Decisamente
normativo è anche Felix Kaufmann, l’esponente del Circolo di Vienna
più vicino al primo Wittgenstein: “La metodologia non parla della
scienza nello stesso senso in cui la scienza parla del mondo. Piuttosto,
essa chiarisce il significato del termine ‘scienza’” (v., 1941, p. 240).
Si può
accettare l’idea che la metodologia sia, in ultima analisi, anche una disciplina
normativa, in quanto dà indicazioni su cosa sia opportuno fare in
ciascuna specifica situazione di ricerca. Ma tali indicazioni non devono
essere date in base a un modello astratto e generale di scienza, bensì
alla luce proprio di quello che storiografia e sociologia della scienza
ci riferiscono. Ad esempio, alla luce del fatto che quella data tecnica,
perfettamente adeguata in astratto, si è in realtà più
volte rivelata portatrice di gravi distorsioni, magari a causa di un'insufficiente
o errata valutazione dei processi psico-socio-antropologici che la sua
applicazione tende a mettere in moto fra i soggetti osservati e/o fra gli
osservatori.
La contrapposizione
descrittivo/prescrittivo collima piuttosto bene con la distinzione fra
i due significati che il termine ‘metodologo’ ha nel linguaggio corrente
delle università e della ricerca sociale — significati che poi corrispondono
ai due ruoli del metodologo professionista. Quando studia e insegna, il
metodologo deve avere un atteggiamento descrittivo, cioè aperto
ad apprendere dalle varie esperienze di ricerca altrui valutandole senza
preconcetti, e disposto a riferire in modo sistematico e sintetico quanto
ha appreso. Quando mette le proprie competenze, capacità ed esperienza
al servizio di una ricerca, sua o altrui, il metodologo non può
che essere prescrittivo, in quanto deve scegliere quali strumenti usare
e come usarli; meglio se nelle sue prescrizioni saprà tener conto
di tutto ciò che ha imparato svolgendo l’altro ruolo.
2. Tecnica: per conoscere o per intervenire.
Anche
il termine ‘tecnica’ deriva dal greco, dove ?e´??? designa una capacità
artistica: non quella individuale e irripetibile del genio, ma quella più
domestica, tramandabile di padre in figlio, dell’artigiano (infatti il
termine ha una probabile parentela con "figlio").
La definizione
di Gallino (“complesso più o meno codificato di norme e modi di
procedere, riconosciuto da una collettività, trasmesso o trasmissibile
per apprendimento, elaborato allo scopo di svolgere una data attività
manuale o intellettuale di carattere ricorrente... Una procedure estemporanea,
che non viene cioè reiterata, né subisce qualche forma di
codificazione, non è una tecnica anche se per una volta risulti
eccezionalmente ingegnosa ed efficace”: v., 1978, pp. 712-713) mostra che
molti elementi dell’originario significato greco si sono tramandati in
almeno uno dei significati centrali del termine.
Gallino
ne coglie infatti il significato antropologico, molto diffuso anche nel
linguaggio comune. Ma accanto ad esso se ne possono distinguere almeno
altri due, che hanno in comune un rapporto strumentale tra il loro referente
e la scienza, ma si distinguono fra loro per la direzione di tale rapporto.
Nel secondo significato, una tecnica si serve delle conoscenze acquisite
dalle scienze sulla realtà per modificarne questo o quell’aspetto.
Nel terzo significato, è una scienza a servirsi delle tecniche per
conoscere meglio questo o quell’aspetto della realtà. In entrambi
i concetti — e in particolare nell’ultimo, che qui ci interessa — sono
presenti elementi del concetto enunciato da Gallino.
Nell’ambito
delle discipline mediche, la clinica si serve delle conoscenze acquisite
da fisiologia e patologia — che sono scienze — per curare i malati, ed
è quindi una tecnica nel secondo significato. Analogamente l’ingegneria
edile, quando si serve delle conoscenze di statica e dinamica per fabbricare
edifici, strade, ponti. E’ vero — come fa notare Cini — che “la tecnologia
fornisce alla ricerca scientifica contributi originali” (v., 1990, p. xiv;
analogamente Lecuyer, 1987, p. 65); ma la distinzione è analitica:
se nell’ambito della ricerca tecnologica si acquisiscono nuove conoscenze
sulla realtà che si vuol modificare, in quel momento si sta facendo
scienza. Inoltre, dire che la tecnica (nel secondo significato) applica
le conoscenze scientifiche per intervenire sulla realtà non significa
affatto sminuirla: siamo tutti consapevoli del fatto che “l’invenzione
di uno strumento spesso ha marcato un’epoca” (v. Jevons, 1874, p. 272).
2a. Le tecniche per conoscere.
Le tecniche che ci interessano
in questa sede sono strumentali ai fini conoscitivi delle varie scienze.
Sono “le specifiche procedure
usate in una data scienza, o per un particolare genere di indagine entro
quella scienza... Sono i modi di compiere il lavoro di quella scienza che
sono considerati, per ragioni più o meno convincenti, accettabili
da quella comunità scientifica. L’addestramento scientifico è
in larga misura l’acquisto di padronanza sulle tecniche” (v. Kaplan, 1964,
p. 19). In larga misura, ma certo non interamente, come avverte Lazarsfeld
(v., 1959; tr. it. 1967, p. 229) — e molti, compreso Kaplan, sarebbero
d’accordo con lui.
Come osserva McIver, il
termine ‘tecnica’ designa sia una certa procedura, sia lo strumento che
la esegue (v., 1942, p. 283); si può aggiungere che designa anche
l’insieme di competenze pratiche (know-how) necessarie per gestire correttamente
ed efficacemente tale strumento. Questo triplice designatum del termine
è corrente anche nella vita quotidiana.
Il rapporto
fra metodo e tecnica (nel significato analizzato in questa sezione) può
essere chiarito da un’immagine. Ogni ricerca ha un obiettivo cognitivo:
vuole cioè migliorare, approfondire, articolare la conoscenza intorno
a un certo argomento. Possiamo immaginare questo obiettivo come una radura
in una foresta: si confida che sia raggiungibile, si spera di raggiungerla,
ma non si sa esattamente dov’è; tanto meno si hanno le idee chiare
su come arrivarci.
Possiamo
immaginare che il ricercatore (e/o chi per lui prende le decisioni su come
procedere) parta da un punto qualsiasi ai bordi della foresta. Raramente
è solo e pienamente libero: di solito ha degli aiuti, ma anche dei
vincoli. Dispone di fondi pubblici o privati, e quasi sempre ha collaboratori
più o meno esperti nei vari compiti. Può ricorrere, se lo
ritiene opportuno, a enti specializzati per la raccolta delle informazioni
e/o analisi dei dati. Tra le sue risorse anche il bagaglio di conoscenze
desunte da precedenti esperienze di ricerca proprie o altrui. Il vincolo
principale è una scadenza entro la quale deve essere consegnato
il rapporto sui risultati della ricerca: spesso tale scadenza è
fissata da un committente che non ha alcuna idea della complessità
del compito. Talvolta la natura del committente, o più genericamente
il clima politico-culturale, pongono dei limiti alla libertà di
approfondimento in questa o quella direzione. Talaltra la natura del problema
investigato pone dei limiti etici alle tecniche che si possono usare.
La foresta
da attraversare è percorsa per tratti più o meno lunghi,
e in varie direzioni, da sentieri già tracciati, più o meno
battuti: sono le tecniche che altri ricercatori hanno già ideato,
modificato, sviluppato. Naturalmente è molto più comodo percorrere
sentieri già battuti; ma non si sa se porteranno alla radura desiderata
o da qualche altra parte.
Compito
del ricercatore-metodologo è scegliere via via il percorso, tenendo
conto della natura dei sentieri esistenti, del tempo a disposizione, delle
risorse (e in particolare del grado di addestramento/predisposizione dei
suoi collaboratori a gestire le varie tecniche). In questo il suo compito
somiglia alla combinazione dei fattori produttivi che l’imprenditore effettua
in presenza di restrizioni e di vincoli, disponendo di risorse limitate
e di economie esterne (v. Schumpeter, 1942). E anche le decisioni sono
altrettanto frequenti che per l’imprenditore: a ogni passo si deve scegliere
se affidarsi a collaborazioni esterne per un certo compito, oppure seguire
in proprio un sentiero battuto, oppure un altro appena tracciato, oppure
più sentieri in combinazione; se ripercorrere fedelmente questi
sentieri, oppure tentare brevi variazioni di percorso (modifiche a tecniche
esistenti), oppure addentrarsi nella foresta, immaginando procedure del
tutto nuove, magari per confrontarne gli esiti a quelli delle tecniche
esistenti.
L’essenziale
del concetto di metodo sta in questo: nella scelta delle tecniche da applicare,
nella capacità di modificare tecniche esistenti adattandole ai propri
specifici problemi, e di immaginarne delle nuove. Una volta che una procedura
nuova, o una modifica a una procedura esistente, è stata ideata
e viene codificata e diffusa, essa è già reificata e diviene
una tecnica a disposizione della comunità dei ricercatori: non più
una capacità privata ma un oggetto pubblico. Come la parole saussuriana:
una volta comunicata è già langue (v. Saussure, 1916).
Naturalmente,
i risultati di una ricerca dipendono in larghissima misura dal complesso
delle scelte che il ricercatore/metodologo ha fatto lungo tutto il tragitto.
Per questo motivo, nel rapporto di ricerca si dovrebbe dare ampio spazio
al resoconto e alla giustificazione delle scelte operate, valutando per
quanto possibile il loro impatto sui risultati. Purtroppo invece è
molto raro che tale spazio venga dato (per una lodevole eccezione v. ad
es. Schussler, 1982).
Nel determinare
questa situazione, che documenta una coscienza scientifica ancora embrionale,
convergono vari fattori: l’oggettivismo del ricercatore, che crede inficiato
il valore dei suoi risultati se si mostra quanto essi dipendano dalle scelte
effettuate (o comunque attribuisce con fondamento tale convinzione al suo
pubblico); il fatto che buona parte del pubblico si comporta come se leggesse
un romanzo giallo: vuol sapere chi è l’assassino e non si interessa
ai dettagli del processo investigativo (v. Cohen e Nagel, 1934, pp. 399-400).
Infine il fatto che i responsabili editoriali di case editrici e riviste
condividono in larga misura l’oggettivismo di autori e pubblico e il “fattismo”
del pubblico — e in ogni caso ne devono tener conto. Succede così
che anche autori molto scrupolosi confinino le informazioni metodologiche
in un’appendice, immaginando che “chi vorrà sapere di più
su ciò che è stato effettivamente fatto dal ricercatore e
sul modo in cui è stato fatto... disporrà di pazienza pari
alla curiosità” (v. Calvi, 1980, p. 21).
Il fatto che le tecniche
non abbiano la natura impalpabile del metodo, ma siano oggetti tangibili
e disponibili non implica una loro minore nobiltà o rilevanza per
il lavoro scientifico. L’atteggiamento del grand theorist (v. Mills, 1959)
che disprezza le tecniche è pre-scientifico, dato che solo attraverso
l’impiego delle tecniche una grand theory può essere controllata
empiricamente — e solo attraverso un loro impiego competente può
esserlo in modo attendibile.
Ha un
atteggiamento errato anche chi feticizza una o più tecniche, cioè
diventa magari bravo nell’applicarle, ma le considera soltanto come oggetti
ready-made, privi di spessore e di storia: ignora e vuole ignorare il fatto
che ogni tecnica è stata ideata e sviluppata entro un certo quadro
di assunti onto-gnoseo-epistemologici (su com’è la realtà,
su come possiamo conoscerla e su quali sono gli obiettivi e i limiti della
scienza), che legittimano sia il ricorso a certe manipolazioni delle informazioni
sia certe interpretazioni dei risultati.
Da tempo
questa tendenza alla “specializzazione stretta” è stata rilevata
e denunciata negli Stati Uniti (v. ad es. Hill, 1970, p. 14): i “metodologi”
sono in realtà specialisti di una o due tecniche, e non sono in
grado di affrontare più generali problemi di ricerca. E’ pensabile
che la super-specializzazione vada di pari passo con la tendenza al consumo
di massa, perché ne presenta due caratteristiche strettamente collegate:
la propensione a orientarsi verso il prodotto nuovo abbandonando il vecchio
indipendentemente dai suoi pregi, e la propensione a orientarsi verso prodotti
sempre più artificiali e mirabolanti (che nel nostro caso vorrebbe
dire: sempre più computer-intensive). Basta pensare alla rapida
successione delle mode che hanno portato via via alla ribalta varie tecniche
di elaborazione di dati negli ultimi 50 anni: prima la regressione multipla,
poi l’analisi fattoriale, poi la path analysis, poi i loglineari, l’analisi
delle corrispondenze, e così via. Lo rilevava in modo incisivo Labovitz:
“Che nell’analisi dei dati delle scienze sociali imperino le mode è
sin troppo evidente. Chi usa più lo scalogramma di Guttman? Questa
tecnica démodée è stata sostituita da altre... Si
usa la tecnica in voga, che sia adatta o no. La gente si domanda: ‘voglio
usare l’analisi fattoriale: qual è il problema?’ oppure ti dice:
‘Voglio usare l’ultimo grido, la path analysis: hai dei dati?’” (v., 1968,
p. 221).
Si è
portato ad esempio il settore dell’analisi dei dati perché esso
è stato teatro di questo recente impetuoso sviluppo. Ricolfi lo
giudica, un po’ severamente, un “progresso apparente” (v., 1982, p. 338),
e Davis pensa che “le tecniche statistiche avanzate non ci hanno detto
molto di più dell’analisi tabulare dei tempi di Lazarsfeld” (v.,
1987, p. 179). Ma, a parte il giudizio sull’effettiva utilità, l’opinione
generale è che le tecniche di elaborazione matematico-statistica
dei dati siano attualmente molto più sviluppate delle tecniche di
raccolta delle informazioni o di presentazione grafica dei risultati (si
vedano, ad esempio, Phillips, 1966, tr. it. 1972, p. 345; Etzioni e Lehman,
1967, p. 11; Becker, 1972, p. 169; Capecchi, 1972, p. 46; McKennell, 1973,
pp. 206-207; Blalock, 1974, p. 2; Nowak, 1979, pp. 158-159; Singer, 1982,
p. 212; Duncan, 1984, p. 97; Freedman, 1985, pp. 345-352; Bernard et al.,
1986, p. 382; Lutynski, 1988, p. 174; per una voce dissenziente v. Somers,
1972, p. 406).
“Hanno
un bel dire i testi di metodologia — ironizza Troy Duster — che ogni tecnica
vale l’altra, basta che sia adatta alla questione che si deve affrontare.
Di fatto, il programma dei corsi e il tipo di articoli accettati per la
pubblicazione danno subito il messaggio a studenti e dottorandi: le tecniche
sono stratificate!” (v., 1981, p. 112).
Qualche
anno fa Capecchi lamentava “lo squilibrio esistente fra lo sviluppo autonomo
di questi metodi matematici e le loro effettive applicazioni”, sostenendo
che “la conoscenza della matematica e della statistica procura... un prestigio
di riflesso. L’importante è che il ricercatore riesca a dimostrare...
che sa padroneggiare questi metodi” (v., 1972, p. 39). Anche Davis dice
che “essi servono più che altro come medaglie da esibire” (v., 1987,
p. 179).
Naturalmente,
ci si può domandare il motivo di questo maggior prestigio. Per le
tecniche di analisi nel loro complesso, sembra sempre meno proponibile
uno dei motivi addotti sopra per la tendenza alla specializzazione: nei
dipartimenti di scienze sociali americani e nord-europei le tecniche statistiche
non sono una novità nei curricula da almeno 20-30 anni. Vale invece
senza dubbio l’altro motivo, cioè la propensione a procedure computer-intensive
piuttosto che field-intensive (cioè più simili a un videogame
che ad una passeggiata con gli amici nel bosco). Questo fattore agisce
per forza propria e per via di imitazione delle scienze fisico-naturali,
dove le simulazioni al calcolatore hanno un ruolo sempre più importante:
anche per questo esso sembra destinato ad esercitare influenza ancora per
molto.
Non si
può trascurare, infine, una spiegazione di sapore kuhniano: buona
parte dei giovani emergenti nelle scienze umane negli anni sessanta e settanta
hanno percepito la preparazione statistica come un canale per costituirsi
rapidamente un patrimonio di expertise che i loro majores non possedevano,
il che permetteva loro di rendersi indispensabili nel breve periodo, e
di avanzare nel medio periodo pretese di successione anticipata (v. Collins,
1975, p. 54).
2b.
Metodologia (e metodo) fra gnoseologia/epistemologia e tecniche
C’è
consenso generale sul fatto che la metodologia occupa “la porzione centrale
di un continuum di analisi critica... [fra] l’analisi dei postulati epistemologici
che rendono possibile la conoscenza del sociale e... l’elaborazione delle
tecniche di ricerca” (v. Gallino, 1978, p. 465). Occuparsi di metodologia
è tenersi in continua tensione dialettica fra i due poli di questo
continuum, perché “se la metodologia abbandona il suo lato epistemologico,
si appiattisce su una tecnologia o una pratica che non controlla più
intellettualmente. Se abbandona il lato tecnico, si trasforma in una pura
riflessione filosofica sulle scienze sociali, incapace di incidere sulle
attività di ricerca” (v. Bruschi, 1991, p. 41).
C’è
da aggiungere che a un polo non sta solo l’epistemologia (riflessione su
scopi, condizioni e limiti delle conoscenza scientifica) ma anche la gnoseologia
(riflessione su scopi, condizioni e limiti della conoscenza tout court).
La gnoseologia
è spesso dimenticata in questo genere di enunciazioni. Le ragioni
possono essere due, una linguistica ed una sostanziale. Il termine gemello
(sarebbe gnoseology) non esiste in inglese, e quindi non ricorre mai nella
imponente letteratura anglo-americana sul tema. In inglese infatti si usa
epistemology per designare la filosofia della conoscenza, e prevalentemente
philosophy of science per quello che noi chiamiamo epistemologia. Il secondo
motivo può derivare dal fatto che tutti i tentativi di dare un fondamento
di certezza assoluta alla conoscenza scientifica (ultimi il fenomenismo
di Schlick e Carnap e il fisicalismo di Neurath e del secondo Carnap) sono
naufragati contro la constatazione, inevitabile in gnoseologia, che non
ci possono essere “giunti rigidi” tra sfera del referente (la realtà),
sfera del pensiero e sfera del linguaggio (v. Marradi, 1994, Referenti...).
Può darsi che questa situazione, accettata con scarso entusiasmo
da molti che si occupano di scienza, abbia provocato un senso di fastidio
per una disciplina che mette in evidenza i limiti delle pretese cognitive
delle altre.
Se questa
è la posizione della metodologia, qual è la posizione del
metodo? Si è detto (v. § 2a) che esso consiste essenzialmente
nell’arte di scegliere le tecniche più adatte ad affrontare un problema
cognitivo, eventualmente combinandole, confrontandole, apportando modifiche
e al limite proponendo qualche soluzione nuova. Quello che non è
emerso nelle precedenti sezioni, e che è il caso di sottolineare
prima di chiudere l’argomento, è che il metodologo — o chi per lui
— non compie queste scelte solo alla luce delle sue competenze tecniche
e delle esperienze di ricerca sue e altrui. Le sue propensioni per questa
o quella tecnica, la sua maniera di interpretare le esperienze di ricerca
sono condizionate dalle sue opzioni gnoseo-epistemologiche: “Le soluzioni
tecniche presuppongono soluzioni metodologiche generali e queste ultime,
d’altra parte, implicano che siano date risposte adeguate a certe questioni
epistemologiche” (v. Ammassari, 1985, p. 178; per un giudizio analogo,
v. Gallino, 1978, p. 464).
3. Una classificazione delle tecniche (per conoscere) usate nelle scienze sociali.
Approfondiamo
ora la distinzione già anticipata fra tecniche di raccolta e tecniche
di analisi. Nella fase di raccolta — dopo aver definito i problemi cognitivi
da risolvere — si scelgono il tipo di oggetto e l’ambito spazio-temporale
sui quali indagare, si individuano gli specifici oggetti di cui rilevare
gli stati, si decidono le definizioni operative delle proprietà
oggetto dell’indagine e le procedure di registrazione delle informazioni
e, infine, si rilevano e registrano gli stati degli oggetti sulle proprietà.
In breve, le tecniche di raccolta sono le procedure mediante le quali si
producono i dati che successivamente verranno sottoposti ad analisi. Dopo
la raccolta non si è ancora in grado di dare una risposta agli interrogativi
che ci si è posti; ma si hanno le informazioni per rispondere (v.
Goode e Hatt, 1952; tr. it. 1962, p. 517). La fase di analisi presuppone
dunque l’esistenza dei dati, e consiste nella loro elaborazione al fine
di acquisire elementi conoscitivi intorno alla distribuzione degli stati
sulle proprietà e alle relazioni tra esse (v. § 5).
Sia le
tecniche di raccolta sia quelle di analisi comportano una semplificazione
della realtà: nella raccolta si selezionano soltanto alcuni elementi
della realtà da studiare (oggetti, proprietà, stati), e le
relative informazioni prendono la forma di dati; questi ultimi vengono
manipolati e ulteriormente sintetizzati dall’analisi. “Il ricercatore solitamente
forma la sua opinione su un processo o su un fenomeno soltanto in base
a una qualche parte dei suoi dati, e poi presenta la sua opinione con la
necessaria documentazione ai lettori" (v. Lutynski, 1982, p. 94).
La scelta
delle tecniche di raccolta e di analisi da adottare dipende dalla natura
del problema cognitivo affrontato, dal numero di oggetti e/o di proprietà
che si intendono studiare, dalla disponibilità di risorse, dalla
particolare sensibilità del ricercatore e da molti altri fattori.
Per quanto siano attinenti a fasi concettualmente distinte della ricerca,
tecniche di raccolta e tecniche di analisi non sono indipendenti fra loro.
La scelta di una determinata tecnica di raccolta (o analisi) pone limiti
a quali tecniche di analisi (o raccolta) possono essere impiegate: determinate
tecniche di analisi presuppongono che le informazioni siano state rilevate
in un certo modo; determinate tecniche di raccolta pregiudicano la possibilità
di ricorrere ad alcune tecniche di analisi.
In ciascuna indagine, tecniche
di raccolta e tecniche di analisi, come si è detto, sottostanno
a un vincolo cronologico: la raccolta precede l’analisi. Se si allarga
la prospettiva si può scorgere un percorso circolare: gli esiti
di precedenti ricerche — stima della cogenza dei risultati ottenuti con
una determinata tecnica di analisi o della fedeltà dei dati raccolti
con una particolare tecnica (v. Marradi, 1990) — rappresentano elementi
che influenzano (o quanto meno dovrebbero influenzare) il ricercatore nelle
sue decisioni metodologiche.
La già
rilevata preminenza delle tecniche di analisi viene comunemente attribuita
allo sviluppo e alla diffusione di mezzi di elaborazione informatica di
elevata potenza e di impiego facile ed economico (v. Fox e Long, 1990,
p. 8). L’affermarsi dei personal computers ha favorito la diffusione di
tecniche avanzate di analisi multi-variata, e quindi una maggiore valorizzazione
dei dati raccolti. “Con il software moderno si possono effettuare in pochi
secondi analisi... che prima degli elaboratori richiedevano mesi di lavoro
di un’équipe di valenti matematici” (v. Ricolfi, 1984, p. 37; corsivo
nell’originale).
Lo sviluppo
delle tecniche di analisi non è stato accompagnato da una corrispondente
evoluzione delle tecniche di raccolta: ad esempio, “gli strumenti più
usati per raccogliere informazioni su atteggiamenti e valori... sono stati
ideati nel quarto di secolo che va dal 1928 al 1953” (v. Marradi, 1988,
p. 7). Da allora vi è stata una scarsa preoccupazione da parte della
comunità scientifica di controllare la fedeltà dei dati che
vengono utilizzati: “il problema dell’effettiva corrispondenza delle cifre
manipolate agli stati dei soggetti sulla proprietà [è] stato
perso di vista” (v. Marradi, 1990, p. 66).
Di conseguenza,
tecniche di analisi sempre più avanzate vengono applicate a insiemi
di dati la cui fedeltà non è migliorata — forse è
addirittura peggiorata — rispetto a qualche decennio fa. Si consideri,
inoltre, che la facilità d’uso degli elaboratori elettronici fa
sì che possono diventarne utenti anche ricercatori che nulla sanno
delle procedure con cui sono stati raccolti i dati e che comunque non posseggono
le competenze necessarie per valutarne la fedeltà. “I risultati
che [il computer] produce possono valere soltanto quanto i dati iniziali
che vi vengono immessi, le operazioni che gli si chiede di compiere e le
interpretazioni che si effettuano su quei dati” (v. Ackroyd e Hughes, 1992,
p. 2). Per questo complesso di motivi è opportuno concentrare gli
sforzi sul miglioramento dell’affidabilità delle procedure di rilevazione,
piuttosto che sull’ulteriore potenziamento delle tecniche di analisi.
Le tecniche
di raccolta abitualmente usate nelle scienze sociali si differenziano lungo
numerose dimensioni: tipo e numero di proprietà che possono essere
operativizzate; tipo di unità e numero di casi sui quali si raccolgono
informazioni; prevalenza di intenti idiografici o nomotetici; vincoli posti
alle tecniche di analisi utilizzabili per elaborare le informazioni rilevate;
possibilità di replicare la rilevazione; quantità di risorse
umane e/o materiali richieste per effettuare la raccolta; ambiti disciplinari
tipici; grado di collaborazione alla rilevazione da parte dei soggetti
osservati; grado di conoscenza del contesto che presuppongono; e così
via.
In questa
sede si classificheranno le attività di raccolta in base al grado
di strutturazione dei processi attraverso i quali si producono i dati che
verranno successivamente sottoposti ad analisi. A un estremo si ha il caso
in cui la raccolta di informazioni non altera affatto la realtà
osservata; all’altro estremo l’intervento del ricercatore modifica sensibilmente
la realtà, arrivando perfino a provocare eventi che altrimenti non
si sarebbero prodotti.
Si possono
individuare quattro tipi: a) rilevazione non strutturata delle informazioni,
in cui il ricercatore si avvale di un apparato ridotto e in cui sono gli
oggetti osservati a determinare le informazioni che vengono fornite al
ricercatore; b) rilevazione di informazioni process-produced, in cui il
ricercatore raccoglie informazioni già prodotte e registrate nel
corso di normali processi sociali; c) rilevazione strutturata, in cui le
informazioni raccolte vengono ricondotte a schemi prestabiliti dal ricercatore;
d) rilevazioni che comportano un intervento sulla realtà al fine
di produrre informazioni non preesistenti all’indagine.
Questi
tipi di rilevazione non si escludono a vicenda: un’indagine può
ricorrere a una loro combinazione . Anzi, al fine di dissipare il sospetto,
spesso abbastanza giustificato, che i risultati di un’indagine siano determinati
più dalla tecnica di rilevazione impiegata che non dai fenomeni
studiati, è consigliabile ricorrere a una molteplicità di
tecniche (v. § 1b; v. Campbell e Fiske, 1959; v. Denzin, 1970). Purtroppo,
molti ostacoli (che vanno dai limitati fondi di ricerca alla limitata fantasia
e flessibilità dei ricercatori) impediscono di fare ricorso a questa
“triangolazione metodologica” tanto spesso quanto sarebbe auspicabile.
La rilevazione
presuppone un insieme di procedure attraverso le quali il ricercatore passa
“dall’astratta determinazione dell’unità (cioè del tipo di
oggetti che gli interessano)... all’individuazione dei casi concreti” che
saranno oggetto della sua indagine (v. Marradi, 1987, p. 21). Gli oggetti
che vengono osservati nell’ambito delle scienze sociali sono di diversi
tipi. Di solito si tratta di individui; tuttavia, le informazioni da raccogliere
possono anche riferirsi ad altre unità socialmente rilevanti: gruppi
strutturati di individui (famiglie, associazioni di volontariato, sette
religiose, gruppi etnici, bande di criminali, istituzioni pubbliche, unità
amministrative territoriali, società intere), testi scritti (storici,
letterari, giornalistici) e altri prodotti culturali (fotografie, rappresentazioni
teatrali, programmi televisivi, dipinti, filmati), eventi e situazioni
(guerre, elezioni, cerimonie, attività economiche). Naturalmente,
la scelta dell’unità varia in funzione degli interessi del ricercatore
e dei problemi cognitivi che cerca di risolvere.
A tale
scelta deve accompagnarsi anche l’individuazione di un ambito spazio-temporale,
che definisce i limiti entro i quali il ricercatore sceglie gli oggetti
da osservare. L’ambito spazio-temporale e l’unità insieme determinano
la popolazione, ovvero l’insieme dei potenziali casi della ricerca. L’ambito
spazio-temporale definisce anche i confini entro i quali, a rigore, sono
generalizzabili i risultati della ricerca; per questo motivo, l’individuazione
dell’ambito spazio-temporale deve essere esplicita e inequivoca.
Definita
questa popolazione, il ricercatore deve decidere se raccogliere informazioni
su tutti gli oggetti che le appartengono (enumerazione completa) oppure
soltanto su un sotto-insieme di essi (campione) — a meno che abbia optato
di studiare un solo caso. Di solito si ricorre al campionamento per motivi
pratici: minori costi in termini economici e di risorse umane; minor tempo
richiesto per la raccolta delle informazioni; maggiore semplicità
di gestione; possibilità di operativizzare un maggior numero di
proprietà. A meno che la popolazione dei possibili casi non sia
molto ridotta, una sua emunerazione completa comporterebbe un’imponente
mobilitazione di mezzi. Spesso quindi si è virtualmente costretti
a ricorrere al campionamento. Ci sono inoltre motivi che rendono il campionamento
comunque preferibile all’enumerazione completa: l’U.S. Census Bureau, ad
esempio, sostiene che l’esigenza di ricorrere — per un censimento integrale
della popolazione americana — a grandi quantità di rilevatori inesperti
e di elaborare masse enormi di informazioni produce dati più infedeli
e meno generalizzabili di quelli prodotti da un’indagine campionaria eseguita
con criterio (v. Smith, 1975, p. 106).
Nella
scelta dei casi effettivamente osservati si cerca in genere di applicare
criteri che giustifichino la generalizzazione dei risultati all’intera
popolazione. Quasi tutte le strategie di individuazione degli oggetti da
osservare sono riconducibili a due: a) scelta ragionata, in cui si mette
l’accento sull’esito del campionamento; b) scelta casuale, in cui si tiene
conto solo della procedura di campionamento.
Se la
scelta è ragionata, la decisione di inserire o meno un oggetto nel
campione dipende dal suo stato su una o più proprietà. Si
può optare per oggetti che presentano distribuzioni isomorfe a quelle
della popolazione su una o più proprietà; per oggetti con
stati estremi su determinate proprietà; per oggetti molto diversi
(o, viceversa, molto simili) tra loro; per oggetti che presentano un’ampia
varietà di stati, al limite in modo che tutti i possibili stati
siano presenti; per oggetti che occupano una particolare posizione nell’ambito
o in un sotto-ambito (testimoni qualificati, reti amicali, leaders comunitari,
etc.); per un solo oggetto, ritenuto emblematico; e così via. Per
i motivi visti il campionamento ragionato richiede che siano note al ricercatore
almeno le caratteristiche che servono ad orientare la scelta dei casi (v.
Marradi, 1989).
Nel campionamento
casuale, gli oggetti da osservare vengono individuati sulla base di criteri
probabilistici. La casualità — che nell’accezione rigorosa implica
che tutti i membri della popolazione abbiano la stessa probabilità
di entrare a far parte del campione; in un’accezone più debole,
basta che tale probabilità sia nota — presenta due vantaggi: permette
di servirsi della teoria dell’inferenza statistica per ottenere stime circa
la generalizzabilità delle caratteristiche del campione alla popolazione
e i relativi margini di errore; esercita una funzione di garanzia negativa,
in quanto elimina i potenziali effetti distorcenti di un qualsiasi altro
criterio di selezione.
Le due
strategie sono tendenzialmente alternative. Nonostante ciò, spesso
“le espressioni ‘campione casuale’ e ‘campione rappresentativo’... sono
considerate intercambiabili: molti sembrano ritenere che un campione sia
rappresentativo in quanto è casuale”, mentre invece “fra i due concetti
[casualità e rappresentatività]... non esiste alcuna relazione
logicamente necessaria” (ibi, pp. 51 e 52).
E’ opportuno
distinguere tra l’insieme di tutti gli oggetti che appartengono all’ambito
spazio-temporale al quale si vogliono riferire i risultati della ricerca
e il sotto-insieme di quegli oggetti che sono effettivamente noti e accessibili
al ricercatore e tra i quali verranno scelti i casi (v. Sjoberg e Nett,
1968, p. 130). La distinzione è rilevante in quanto nelle scienze
sociali di rado si può accedere al primo insieme per scegliere gli
oggetti da osservare; nel migliore dei casi, i risultati dell’indagine
sono riferibili soltanto al sotto-insieme, che si può considerare
qualcosa di analogo a una definizione operativa della popolazione.
Un’altra
distinzione importante intercorre tra insieme di oggetti sui quali si desidera
raccogliere informazioni (campione iniziale) e insieme di casi sui quali
si riesce effettivamente a rilevarle (campione effettivo). I due insiemi
possono coincidere, ma di solito una quota più o meno ampia di oggetti
inseriti nel campione iniziale sfugge alla rilevazione. Nella misura in
cui gli oggetti che finiscono per essere casi della ricerca lo diventano
grazie a meccanismi non casuali e/o danno luogo a un campione effettivo
con una composizione diversa da quella prevista, si introducono distorsioni
nei risultati.
Un’ulteriore
distinzione di rilievo è quella fra unità di raccolta e unità
di analisi. E’ possibile che una ricerca preveda che informazioni vengano
rilevate presso un tipo di oggetto e poi riferite a un altro tipo di oggetto:
ad esempio, si possono raccogliere informazioni riguardanti le coppie coniugate
(unità di analisi) intervistando soltanto mariti (unità di
raccolta); oppure si possono raccogliere informazioni riguardanti la qualità
di vita nelle province (unità di analisi) registrando i livelli
di benessere di un insieme di famiglie (unità di raccolta) in ogni
provincia. Ogni volta che i due tipi di unità non coincidono il
ricercatore dovrebbe evitare che le particolari caratteristiche, percezioni,
aspettative degli oggetti osservati vengano attribuite indebitamente ad
oggetti di altro tipo.
Si è
già accennato alla prevalenza dell’individuo quale unità
di analisi nelle scienze sociali. Galtung critica questa tendenza in quanto
essa “implica una concezione atomista della società, vista come
una massa di individui, in cui i fattori strutturali vengono scontati o
si presume che siano rispecchiati nel singolo”. Inoltre, “concentrarsi
sull’individuo quale attore sociale, poiché sembra facile e convincente,
scoraggia la considerazione di altre unità” (v., 1967, p. 37) che
magari amplierebbero la nostra comprensione del sociale. Le osservazioni
di Galtung rinviano alla distinzione tra unità di raccolta e unità
di analisi: si raccolgono informazioni sull’unità-individuo, in
quanto ciò è conveniente e conforme al nostro modo di vedere
il mondo, per poi riferirle ad unità più estese, con distorsioni
di entità ignota. Inoltre, la concezione atomista sottesa alla ricerca
su unità-individuo induce a sottovalutare le implicazioni negative
della presunta fungibilità degli individui. Un campione effettivo
non coincide quasi mai con quello iniziale per la mancata collaborazione
o reperibilità di alcuni soggetti, i quali spesso si differenziano
dagli altri casi su proprietà rilevanti per la ricerca in questione
(v. Marradi, 1989, cap. 2).
Come
si è detto, l’unità di ricerca può essere una situazione
sociale. Denzin (v., 1970, pp. 89-91) classifica le unità di questo
tipo in cinque categorie: incontri (interazioni temporanee fra estranei),
strutture diadiche (interazioni più durature fra due individui),
gruppi sociali (interazioni durature fra tre o più individui), organizzazioni
sociali (insiemi di persone che condividono obiettivi, caratterizzati da
una divisione interna del lavoro, etc.) e comunità. Nel caso degli
incontri, delle strutture diadiche e di molti gruppi sociali, l’unità
di riferimento è molto astratta, ed è praticamente impossibile
tracciare i confini della popolazione: gli oggetti da osservare vengono
individuati in base alle opportunità che offre lo specifico ambito
della ricerca.
Le organizzazioni
sociali, le comunità e alcuni tipi di gruppi sociali sono più
facilmente identificabili; pertanto è più agevole individuare
una popolazione. Sul piano della scelta degli oggetti da osservare, questi
tipi di unità presentano specifici problemi. Ad esempio, organizzazioni
e comunità sono di solito composte da aggregazioni di altri tipi
di oggetto, ognuno dei quali può essere preso in considerazione
dalla ricerca (in una ricerca sui sindacati, Lipset et al. 1956 hanno rilevato
informazioni su 17 tipi di oggetto): l’inclusione/esclusione di determinate
sotto-unità può influire sensibilmente sui risultati. Inoltre,
la conduzione della ricerca va ad innestarsi su dinamiche interne preesistenti
e sarà influenzata da esse: ad esempio, Blau (v., 1964) riferisce
che il fatto che la dirigenza di un’azienda gli abbia consentito di rilevare
informazioni su un gruppo di operai ha insospettito questi ultimi, rendendoli
poco disposti a collaborare.
Se le
situazioni da osservare sono eventi (conflitti armati, scioperi, elezioni),
la scelta degli oggetti deve fare i conti con i processi mediante i quali
tali eventi sono definiti tali e con l’esistenza di fonti di documentazione
(archivi, raccolte di stampa periodica, resoconti personali, etc.). Anche
in questo caso la difficoltà sta nel definire una popolazione.
Quando
l’unità è un testo scritto, si parla di corpus piuttosto
che di popolazione. Anche in questo caso può essere piuttosto arduo
stabilirne i confini. La scelta degli oggetti da osservare può obbedire
a criteri più rigorosi quando l’unità prescelta è
riferita ai testi e ai messaggi tipicamente studiati mediante l’analisi
del contenuto: la periodicità regolare della stampa e dei notiziari
e l’elevata tipizzazione che caratterizza i palinsesti televisivi e radiofonici
permettono di definire la popolazione e agevolano strategie di campionamento
formalizzate (v. Amaturo, 1993, pp. 36-38).
4b. Rilevazione non strutturata.
Le tecniche
di rilevazione non strutturata mirano ad osservare e registrare la realtà
studiata, il più delle volte interagendo direttamente con essa —
ma senza l’intenzione di modificarla. La rilevazione viene effettuata appositamente
per i fini cognitivi del ricercatore, direttamente presso le fonti delle
informazioni e avvalendosi di una strumentazione materiale ridotta.
L’osservazione
partecipante — tipica dell’antropologia e dell’etnografia — è forse
la tecnica di raccolta meno strutturata. In linea di massima, il ricercatore
che vi ricorre non ha ipotesi precostituite e neppure strumenti di rilevazione
(al di là dei propri sensi). Nell’osservazione partecipante il ricercatore
cerca di diventare membro (o comunque di stabilire legami personali significativi
con i membri) di un gruppo per un periodo relativamente lungo al fine di
penetrare i loro mondi vitali. Il ricercatore “partecipa alla vita quotidiana
delle persone oggetto di studio... osservando le cose che accadono, ascoltando
ciò che viene detto, rivolgendo domande alla gente, per un periodo
più o meno lungo” (v. Becker e Geer, 1957, Participant..., p. 28).
L’assunto è che un ricercatore, o un piccolo gruppo di ricercatori,
possano acquisire conoscenze significative mediante l’esplorazione approfondita
delle normali attività di un gruppo sociale.
Normalmente
si ricorre all’osservazione partecipante quando il gruppo che interessa
il ricercatore è molto coeso e relativamente isolato da altri gruppi,
se ne conosce molto poco, si ritiene che esso abbia una concezione del
mondo peculiare e/o le sue attività non sono comunque facilmente
accessibili dall’esterno: sette religiose, bande di delinquenti, omosessuali,
caserme, ospedali, quartieri popolari, etc. Alcuni studiosi la ritengono
opportuna per indagini esplorative, dirette alla preparazione di rilevazioni
più strutturate. In ogni caso, la tecnica è indicata quando
si vuole “capire un particolare gruppo o problema sociale sostanziale piuttosto
che controllare ipotesi circa le relazioni tra variabili” (v. Becker e
Geer, 1957, Rejoinder, p. 37).
Questa
tecnica è particolarmente impegnativa, in quanto comporta una parziale
ri-socializzazione del ricercatore in termini di ruoli sociali, di etichetta,
di linguaggio; richiede un lungo processo di adattamento; implica un atteggiamento
molto aperto e flessibile da parte del ricercatore, che deve essere dotato
anche di notevoli capacità relazionali. Per riuscire non solo ad
assorbire e comprendere le interazioni che osserva ma anche a individuare
significati salienti e a comunicarli alla sua comunità scientifica,
il ricercatore deve acquisire la capacità di pensare, agire e comunicare
in modo conforme alle concezioni del mondo di due diversi gruppi, quello
di origine e quello osservato (v. Becker, 1958, p. 652), e sviluppare un
rapporto dialettico tra l’essere ricercatore e l’essere partecipe.
Nell’osservazione
partecipante non si può tracciare una chiara demarcazione tra fase
di raccolta e quella di analisi. Mano a mano che il ricercatore si inserisce
nella rete di interazioni del gruppo, egli è “spinto a rivedere
e ad adattare il suo orientamento teorico e [l’interesse per] specifici
problemi dal [loro] maggiore rilievo per il fenomeno oggetto di studio”
(v. Becker e Geer, 1957, Participant..., p. 32).
L’osservatore
partecipante deve chiedersi in che misura può riuscire a trasmettere
fedelmente la sua comprensione della cultura osservata alla comunità
scientifica. Egli osserva eventi unici, in modo selettivo e non sistematico,
e quindi non replicabile da altri; non è possibile definire una
sequenza di fasi-tipo. Anche gli studiosi che adottano questa tecnica ammettono
che due osservatori partecipanti della stessa situazione giungeranno quasi
sicuramente a conclusioni divergenti. Eppure, per lo spessore delle informazioni
raccolte, per la relativa immediatezza della rilevazione, per il fatto
di basarsi su comportamenti spontanei piuttosto che su dichiarazioni o
su comportamenti in qualche modo provocati dal ricercatore, questa tecnica
ha un’importanza fondamentale per le scienze sociali.
Si può
immaginarla come una gamma di tecniche di raccolta distribuite lungo la
dimensione osservazione-partecipazione: il ricercatore deve decidere dove
collocarsi tra questi due poli. Se privilegia l’osservazione, egli sottolinea
il suo ruolo di ricercatore e quindi il suo status di estraneo, con il
rischio di compromettere la sua capacità di interagire significativamente
con i membri del gruppo osservato. D’altra parte, la gente talvolta è
più propensa a confidarsi con un estraneo (v. Pearsall, 1965, p.
342). Se si privilegia la partecipazione e quindi lo sviluppo di relazioni
interpersonali e il coinvolgimento, si rischia di modificare indebitamente
la realtà che si sta studiando. Inoltre, l’immersione nella nuova
cultura può essere talmente riuscita da provocare una ridefinizione
dell’identità del ricercatore. Diversi studiosi hanno tematizzato
il rischio del “passare dall’altra parte” (going native, come dicono gli
antropologi): il ricercatore diventa effettivamente (o sente di essere
diventato) un membro del gruppo osservato, e sviluppa sentimenti di lealtà
nei suoi confronti; di conseguenza, trascura o tralascia gli iniziali propositi
scientifici (v. Vidich, 1955, pp. 355-357; v. Cicourel, 1964, p. 45).
A causa
del carattere non strutturato della rilevazione e del rilievo che assume
la personalità del ricercatore, le procedure da seguire nell’ambito
dell’osservazione partecipante non sono codificate: si passa molto tempo
a riempire taccuini (o dischetti) di appunti (v. Schatzman e Strauss, 1973,
pp. 99-105; v. Bogdan e Taylor, 1975, pp. 41-42).
Un’altra
dimensione centrale dell’osservazione partecipante si riferisce agli specifici
soggetti che il ricercatore privilegia nelle sue interazioni con il gruppo.
In primo luogo, non tutte le informazioni né tutte le fonti di informazione
sono egualmente importanti. E’ probabile che il ricercatore graviti su
persone che ritiene essere particolarmente informate circa le attività
e le conoscenze del gruppo e/o che ricoprono posizioni di prestigio (v.
Vidich e Shapiro, 1955, p. 28). D’altra parte, è possibile anche
che individui marginali, che possono offrire prospettive illuminanti, siano
attratti dall’osservatore e cerchino di comunicare con lui (v. Vidich,
1955, p. 357). La natura e la proficuità dei contatti che il ricercatore
riesce a stabilire probabilmente variano anche a seconda del suo sesso,
età e di altre sue caratteristiche.
L’osservatore
partecipante si avvale spesso di tecniche fotografiche e cinematografiche
per registrare gli eventi osservati. Nelle scienze sociali la raccolta
di informazioni visive non gode di una tradizione consolidata (se si esclude
il cinema documentario nel campo dell’antropologia), per quanto la fotografia
e la cinematografia abbiano esercitato sin dalle prime fasi del loro sviluppo
rilevanti funzioni sociali. In parte ciò deriva dalle particolari
competenze, tecniche e non, che fotografare e filmare richiedono — competenze
che non fanno parte del bagaglio del ricercatore-tipo. A ciò si
aggiungono costi considerevoli sia per la raccolta delle informazioni sia
per la loro divulgazione. Questi fattori tecnici ed economici stanno peraltro
venendo meno a causa della crescente diffusione dei mezzi di registrazione
e riproduzione videoelettronica.
Un altro
motivo della scarsa diffusione delle tecniche di raccolta che producono
informazioni visive attiene alle funzioni sociali storicamente rilevanti
assunte dalla fotografia e dalla cinematografia — imperniate sull’indagine
di denuncia sociale la prima, sullo spettacolo di intrattenimento di massa
la seconda. Esse si sovrappongono alle funzioni di documentazione visiva,
e contrastano con il rigore del “metodo scientifico”, nonché con
tradizioni di ricerca formatesi intorno all’uso della parola scritta. Pure
fotografare e filmare presentano vantaggi notevoli per l’immediatezza e
la ricchezza delle informazioni, alle quali si aggiunge la possibilità
di “rivedere la realtà” molte volte e coglierne ogni volta nuovi
elementi.
Chi raccoglie
informazioni visive su pellicola o nastro deve misurarsi con un dilemma
fondamentale che caratterizza questo tipo di rilevazione: la potenziale
contrapposizione fra “bellezza estetica e vocazione restitutiva del reale”
(v. Cipolla, 1993, p. 33). Da una parte, fotografia e cinematografia vengono
percepite come tecniche che producono immagini fedeli e oggettive; perciò
esse si avvantaggiano della “fiducia da noi accordata ad apparecchiature
che sfruttano materiali fotosensibili e circuiti elettronici in grado di
riprodurre la realtà secondo le leggi ottiche e processi tecnologici
che noi riteniamo incontestabili” (v. Mattioli, 1991, p.9).
Dall’altra, chi ricorre a questi strumenti viene inevitabilmente tentato
dalle funzioni espressive e dalle gratificazioni estetizzanti della dimensione
artistica della riproduzione iconica. L’imprescindibilità di questa
componente estetica e interpretativa viene percepita per lo più
come una minaccia sul piano metodologico (v. ad es. Ferrarotti, 1974);
ma non manca chi sa apprezzare il modo in cui essa “produce una miglior
comprensione dei fenomeni sociali verso l’empatia... eleva l’interesse
per il prodotto scientifico, lo rende più appetibile e facile, riduce
le distanze fra senso comune quotidiano e senso comune scientifico” (v.
Cipolla, 1993, p. 40).
Si deve
convenire, tuttavia, che la corretta fruizione delle informazioni visive
presuppone grande padronanza di un complesso di codici di trasmissione
(relativi ad aspetti tecnici quali l’inquadratura, l’illuminazione, il
montaggio, etc.), iconici (relativi alla riconoscibilità degli oggetti
fotografati o filmati), iconografici (relativi alla riconoscibilità
delle combinazioni di oggetti) e socio-culturali (relativi all’uso fatto
delle immagini) al fine di ridurre l’ambiguità delle informazioni
stesse (v. Mattioli, 1991, pp. 157-161). Questa difficoltà ha senz’altro
contribuito a limitare l’affermarsi di tecniche fotografiche, cinematografiche
e di videoregistrazione nelle scienze sociali.
Mattioli
suggerisce che “le tecniche e i dati visivi vanno utilizzati soltanto quando
offrono informazione aggiuntiva” rispetto a ciò che si può
rilevare con tecniche più tradizionali (ibi, p. 177). Faccioli individua
tre ambiti in cui si può procedere in questo senso: a) indagini
sull’identità e sul senso oggettivamente inteso; b) la situazione
di intervista; c) la restituzione delle informazioni visive raccolte ai
soggetti-oggetti della ricerca stessa (v., 1993, p. 57).
Nella
situazione sub a, si tratta di indurre i soggetti della ricerca a fotografare/filmare
se stessi, un determinato fenomeno, o quanto meno a partecipare alle decisioni
circa cosa riprendere. Si procede successivamente a un’analisi delle immagini
al fine di individuare assunti, percezioni, significati che hanno guidato
la loro produzione. Un lavoro emblematico di questo filone viene descritto
da Worth e Adair (v., 1972): ad alcuni membri di una tribù indiana
nordamericana è stato insegnato a usare mezzi di ripresa perché
registrassero usi, costumi, luoghi, etc. Nel caso sub b, oggetto della
ricerca è l’interazione tra osservatore e osservato in una situazione
di intervista. Filmare l’interazione permette di registrare elementi della
comunicazione, sia verbale che non, che condizionano il processo di intervista
(e ne possono eventualmente distorcere gli esiti). Nella situazione sub
c, infine, si tratta di photo-elicitation: le immagini, che possono essere
state prodotte sia dal ricercatore sia dai soggetti della ricerca, vengono
mostrate a questi ultimi al fine di stimolare un’intervista libera, di
approfondire una storia orale, insomma di alimentare l’autoriflessione
e di registrare le interpretazioni, presumibilmente più informate
di quelle che potrebbe formulare il ricercatore, di ciò che è
stato fissato su pellicola (v. Harper, 1978).
Ai filoni
indicati dalla Faccioli se ne può aggiungere un quarto: filmare
e fotografare periodicamente paesaggi, zone urbane, quartieri, etc. permette
di documentare gli effetti dell’intervento dell’uomo sul territorio.
Se si
ricorre a tecniche di registrazione visiva occorre tener presente una serie
di problematiche specifiche. Ad esempio, i mezzi di ripresa probabilmente
influenzano i soggetti della registrazione (v. Smith et al., 1975). Mattioli
(v., 1986) e Secondulfo (v., 1993) individuano alcune regole che è
bene osservare quando si impiegano queste forme di rilevazione.
Altre
tecniche esigono dal ricercatore un impegno meno assiduo rispetto all’osservazione
partecipante, ma si ispirano sempre alla ricostruzione di (parti di) mondi
vitali. Le storie orali e gli approcci biografici, ad esempio, permettono
di far rivivere mediante la narrazione situazioni sociali passate: memorie
collettive (sotto forma di resoconti storici, proverbi, canzoni, formule
rituali) tramandate ai posteri per via orale o racconti di ricordi personali
di esperienze dirette.
La narrazione
svolge una funzione più centrale nelle culture ad oralità
primaria, in cui ci si serve del racconto e di altre forme di espressione
orale per conservare, organizzare e trasmettere conoscenze. Nelle società
avanzate queste funzioni hanno ceduto il passo alla cultura scritta, ma
— anche grazie all’oralità di ritorno che le contraddistingue (v.
Ong, 1982) — in certi contesti culturalmente periferici (ceti popolari,
zone rurali, minoranze etniche, comunità di immigrati, etc.) le
storie orali consentono di ricostruire in modo proficuo il passato, l’universo
simbolico e il sistema di percezioni di un gruppo sociale.
Alcune
tecniche si basano sulla ricostruzione di storie di vita attraverso i racconti.
Gli approcci biografici si distinguono dalle storie orali in quanto la
memoria viene indirizzata sulle esperienze personali del narratore, anche
se l’uso di questa tecnica presuppone, di solito, che i racconti di vita
permettano di rilevare informazioni non soltanto sul passato degli specifici
individui interpellati (solitamente in numero ridotto), ma anche sui contesti
in cui essi hanno vissuto, e perciò su altre vite con caratteristiche
analoghe (v. Olagnero e Saraceno, 1993, pp. 12-14). La rilevazione di storie
di vita è utile anche per indagare su fenomeni altrimenti difficilmente
osservabili (come le attività sessuali o criminali e i tentativi
di suicidio).
A volte
le vite possono essere ricostruite con l’ausilio di materiale documentale
(diari, agende, curricula professionali, registri anagrafici, corrispondenze
epistolari, foto, etc.; vedi § 4c) o in maniera relativamente strutturata
mediante la compilazione di storie di eventi di vita (carriera scolastica,
matrimonio, parti, morti familiari, mobilità geografica, carriera
lavorativa).
Quando,
di converso, ci si prefigge di rilevare percezioni e rappresentazioni di
situazioni e di processi, si sollecitano autobiografie scritte (di rado)
o resoconti narrativi orali, i quali richiedono la collaborazione attiva
dei soggetti le cui vite si vogliono ricostruire. Con un approccio biografico
non strutturato si intende rilevare informazioni intorno a fenomeni sociali
per i quali sia rilevante l’evoluzione nel tempo — devianza; trasformazioni
di ruolo, status, identità; spostamenti nello spazio; e così
via — con l’ausilio di soggetti che ne hanno avuto un’esperienza diretta.
Evidentemente
gioca un ruolo centrale la (selettività della) memoria del narratore,
la quale rappresenta elementi del passato nella misura in cui sono, e in
modo che siano, salienti per il presente, con diversi gradi di dettaglio
e di verosimiglianza. Le informazioni rilevate comprendono sia notizie
biografiche o storiche fattuali sia distorsioni di vario genere — che anch’esse
possono costituire elementi significativi, pur se difficilmente distinguibili
da quelli fattuali.
E’ probabile
che il ricercatore partecipi attivamente alla registrazione delle storie
orali o delle storie di vita, magari svolgendola per intero. In ogni caso,
occorre che il rilevatore sia dotato di notevoli capacità relazionali
e di indirizzo della spontaneità del racconto. La registrazione
può anche svolgersi nel corso di una lunga serie di sedute, ma il
tempo è comunque una risorsa molto più scarsa che nell’osservazione
partecipante, per cui il rilevatore deve poter sollecitare ulteriori informazioni
appena gli se ne presenta l’occasione.
La rilevazione
di informazioni mediante colloqui o lunghe interviste non strutturate è
indicata quando il ricercatore ha determinato le aree tematiche generali
su cui vuole indagare, ma possiede ancora relativamente poche conoscenze
intorno a queste tematiche e/o ai soggetti da studiare. Quando il ricercatore
è interessato a indagare su ambiti con i quali è già
familiare e su un insieme tendenzialmente pre-definito di proprietà,
egli può ricorrere a tecniche di rilevazione basate sull’intervista
semi-strutturata o strutturata (vedi oltre).
La distinzione
tra colloquio e intervista non strutturata non è nitida. Secondo
Trentini (v., 1980), il colloquio ha carattere clinico e finalità
diagnostiche e terapeutiche, sulle quali possono innestarsi quelle conoscitive
del ricercatore, ed è spesso sollecitato dai soggetti stessi; l’intervista
invece ha soltanto fini cognitivi. I colloqui e le interviste non strutturate
lasciano molto spazio alla spontaneità dell’intervistato e alla
trattazione di tematiche non previste. I compiti dell’intervistatore (che
dovrebbe avere buone competenze relazionali e una certa esperienza) si
limitano a garantire che tutti gli argomenti di interesse (previamente
riportati su una traccia di conduzione) vengano affrontati, e a porre domande
di approfondimento: si tratta di un ruolo “maieutico” (v. Montesperelli,
1996, § 4.3.2). Le informazioni vengono registrate o per iscritto,
magari mediante una codifica in situ da parte dell’intervistatore, oppure,
più comunemente, mediante una registrazione fonica o audiovisiva
con eventuale trascrizione successiva. I colloqui e le interviste non strutturate
possono anche avere funzioni esplorative, propedeutiche a una rilevazione
strutturata, nel qual caso si potrebbe anche non ricorrere a una registrazione
completa.
La registrazione
delle storie orali, dei racconti biografici, dei colloqui e delle interviste
non strutturate viene normalmente seguita dalla trascrizione. E’ bene che
essa venga effettuata dallo stesso rilevatore in quanto il suo contatto
diretto con i oggetti gli permette di cogliere “valenze del contesto ambientale...
e altri aspetti dell’interazione che vanno irrimediabilmente perduti in
una registrazione fonica” (v. Montesperelli, 1996, § 4.5). Le modalità
di trascrizione oscillano tra i due criteri contrapposti della fedeltà
assoluta (compresi silenzi, rumori, errori grammaticali, forme gergali
e dialettali, comportamenti non verbali) e dell’adattamento a un linguaggio
standard: la prima soluzione può produrre un testo di difficile
lettura, la seconda rischia di eliminare informazioni essenziali per la
comprensione del mondo vitale del soggetto (ibidem).
L’intervista
strutturata si avvale di un questionario e prevede che all’intervistato
si rivolga, in un ordine non modificabile e con testi standardizzati, un
insieme di domande e si imponga di rispondere secondo schemi prestabiliti
(v. Pitrone, 1984, pp. 33-43; v. Fideli e Marradi, 1995, § 2). L’invarianza
degli stimoli e dei formati di reazione garantisce una semplice registrazione
delle risposte e la loro (presunta) comparabilità, facilita la separazione
del ruolo di ricercatore da quello di intervistatore (con i rischi che
ne derivano; v. Boccuzzi, 1985) e consente di raccogliere informazioni
su ampi gruppi sotto forma di sondaggio. La situazione di intervista ospita
quindi una tecnica di rilevazione strutturata (v. § 4d), anche se
le informazioni rilevabili non si esauriscono in quelle registrate sul
questionario.
A differenza
delle forme di rilevazione non strutturata, l’impiego di un questionario
solitamente non dà luogo a un contatto diretto tra il ricercatore
e i fenomeni e/o gli individui studiati, per l’interposizione di una rete
di intervistatori. Ciò permette al ricercatore di non attivare le
proprie competenze nel campo delle relazioni umane (bensì quelle
degli intervistatori), ma comporta anche una potenziale perdita di informazioni.
Nelle
situazioni di intervista sarebbero infatti rilevabili molte informazioni
che solitamente non vengono registrate — se non mentalmente — dall’intervistatore,
né tanto meno vengono comunicate al ricercatore: le modalità
attraverso le quali i soggetti accettano (o meno) di essere intervistati,
i comportamenti non-verbali o comunque non previsti dal questionario, eventuali
segnali attinenti alla salienza degli argomenti affrontati e alla fedeltà
delle risposte, le distorsioni introdotte dall’intervistatore — insomma,
tutte le informazioni relative all’interazione tra intervistatore e intervistato
che potrebbero costituire elementi conoscitivi di rilievo anche per il
fenomeno oggetto di studio. Il recupero di queste informazioni richiederebbe
un maggiore grado di coinvolgimento e di partecipazione degli intervistatori
nella pianificazione della rilevazione e nella successiva analisi dei risultati
(v. Boccuzzi, 1985). Se le interviste vengono somministrate telefonicamente
oppure, peggio ancora, mediante questionari da autocompilare o mediante
computer, le reazioni dell’intervistato sfuggono a qualsiasi rilevazione.
4c. Rilevazione di informazioni process-produced.
Le informazioni
si dicono process-produced quando sono state create nell’ambito delle normali
attività di individui o di enti sia privati che pubblici, anziché
nel corso di rilevazioni aventi scopi precipuamente scientifici. Ne sono
esempi le registrazioni anagrafiche e su altri registri pubblici, le notizie
pubblicate sui quotidiani, i programmi televisivi, le statistiche raccolte
da organizzazioni economiche al fine di orientare le attività di
mercato, i dati censuari, le fotografie raccolte negli album di famiglia,
i programmi ufficiali dei partiti politici, etc. La rilevazione di informazioni
process-produced si contraddistingue quindi per il fatto che tali informazioni
sono già state rilevate da qualcun altro per scopi diversi dalla
ricerca: il ricercatore si limita a sceglierle, acquisirle e adattarle
agli scopi della sua analisi.
A tale
scopo si ricorre spesso alla cosiddetta “analisi del contenuto”: l’espressione
designa un insieme di approcci finalizzati allo studio di “fatti di comunicazione
(emittenti, messaggi, destinatari e loro relazioni) e che a tale scopo
utilizzano procedure di scomposizione analitica e di classificazione...
di testi e di altri insiemi simbolici” (v. Rositi, 1988, p. 66). Di solito
la rilevazione viene effettuata su un corpus più o meno esteso di
messaggi veicolati dai mezzi di comunicazione di massa, anche se altri
oggetti sono possibili (ad esempio, le verbalizzazioni di interviste aperte).
Rositi
(v., 1970) ha proposto una tipologia dell’analisi del contenuto che usa
come fundamentum divisionis il modo in cui le “unità comunicative”
vengono scomposte in elementi più semplici, le “unità di
classificazione”. Nel primo tipo la rilevazione si incentra su unità
linguistiche quali termini, simboli-chiave, temi, proposizioni. Il ricercatore
deve decidere quali specifici termini, etc. rilevare e elaborare uno schema
per classificarli. Spesso ciò avviene dopo aver esaminato e essersi
familiarizzato con una parte del corpus. Lo schema di classificazione verrà
determinato, oltre che dagli interessi cognitivi del ricercatore, dalla
particolare analisi che ci si propone di effettuare: frequenza con cui
determinate (categorie) di unità linguistiche compaiono; co-occorrenze;
costruzione di indici verbali; valutazioni espresse nei confronti di determinati
simboli-chiave; corrispondenze lessicali (v. Losito, 1993, cap. 2). In
questo caso si assume che “la frequenza di una determinata parola o simbolo-chiave
è un indicatore dell’interesse... dei testi analizzati nei confronti
di ciò che la parola o il simbolo-chiave designa” (ibi, p. 43).
Dato
che privilegia unità prettamente linguistiche, questo primo tipo
di analisi del contenuto si presta all’informatizzazione. Sono stati sviluppati
e vengono ampiamente usati diversi softwares (v. Amaturo, 1993, cap. 3;
v. Losito, 1993, § 2.6), i quali richiedono che i messaggi vengano
tradotti in un formato leggibile per il computer (ad esempio, immettendo
testi da tastiera, avvalendosi di corpora già disponibili in formati
leggibili, usando scanners ottici). Se il ricorso al calcolatore facilita
la rilevazione e la successiva analisi — ed elimina le difficoltà
connesse al coordinamento di un’équipe di rilevatori/classificatori
— esso può scontrarsi con alcuni problemi (in parte superabili mediante
un intervento umano o, in misura crescente, di softwares sofisticati) riguardanti
la polisemia, l’omonimia, le forme varianti, i termini stranieri, i referenti
dei pronomi, le allusioni.
Gli altri
tipi proposti da Rositi mettono l’accento sui significati dei messaggi,
su elementi che “non hanno una riconoscibilità linguistica a livello
di significanti” (v., 1988, p. 72): si tratta, ad esempio, di comportamenti
descritti nelle notizie di cronaca, di caratteristiche di personaggi di
programmi televisivi o di romanzi, di situazioni raffigurate nelle immagini
pubblicitarie. Si prende in esame il testo (o immagine o narrazione) nella
sua globalità, utilizzando “come strumento di rilevazione una scheda...
del tutto simile, quanto a struttura, a un questionario”. Questa scheda
è paragonabile a un insieme di “domande rivolte ai testi oggetto
d’analisi, alle quali sono chiamati a rispondere uno o più analisti
che interpretano i contenuti stessi in base a regole definite e uguali
per tutti” (v. Losito, 1993, pp. 76 e 87).
L’analogia
tra questo tipo di analisi del contenuto e la somministrazione di un questionario
strutturato regge solo fino a un certo punto. Ad esempio, le domande sulla
scheda di rilevazione vengono ordinate in modo da risultare conveniente
per il rilevatore, non per l’oggetto dell’analisi. Inoltre, normalmente
non sarà possibile rilevare informazioni su tutte le proprietà
operativizzate per ogni testo preso in esame: i testi, infatti, non sono
stati prodotti tenendo conto degli scopi della ricerca. E’ quindi probabile
che questo tipo di rilevazione dia luogo a molti dati mancanti nella matrice.
La differenza di maggiore rilievo, tuttavia, attiene al ruolo del rilevatore;
anche se si immagina che egli “rivolga domande” ai testi, non sono questi
ultimi a rispondere, bensì lo stesso rilevatore. Garantire una ragionevole
omogeneità dei criteri di rilevazione da parte di rilevatori diversi
costituisce quindi il problema metodologico principale di questa tecnica.
Occorre,
infine, ricordare il fatto che l’analisi del contenuto si basa sull’assunto
che i messaggi studiati siano socialmente rilevanti e influenti. Tuttavia,
messaggi diversi avranno impatti diversi, l’entità dei quali è
determinata, tra l’altro, dal numero di lettori/spettatori raggiunti dal
messaggio, dall’autorità riconosciuta alla fonte del messaggio,
etc. E’ bene che la rilevazione tenga conto del presunto impatto socio-culturale
di ogni messaggio.
Al di
là delle tecniche riconducibili all’analisi del contenuto, esistono
anche altri approcci per lo studio dei testi prodotti nel corso di attività
socialmente rilevanti. Avvalendosi degli strumenti elaborati dalla semiotica,
dalla linguistica e dall’analisi strutturale, tali approcci valorizzano
in chiave ermeneutica la specificità dei codici, le strutture tematiche
e funzionali dei testi, i modelli di significazione e di argomentazione,
l’esigenza di recuperare la complessità della comunicazione. Esistono
ad esempio svariate forme di analisi del discorso, ognuna con un proprio
modo di classificare e operativizzare le funzioni e il contenuto degli
atti comunicativi e con proprie regole di preparazione e di trascrizione/riduzione
dei testi: analisi automatica del discorso, analisi proposizionale del
discorso, analisi dei modi dell’argomentazione, analisi della conversazione
e via dicendo.
Un altro
insieme di tecniche ricorre alla costruzione di files ecologici, in cui
sono riportati dati aggregati per unità territoriale. Le informazioni
sono rilevate, elaborate e pubblicate da parte di enti istituzionali (come
Istat, ministeri, enti locali, anagrafi), altri enti pubblici (Enel, Siae,
Sip, Cnel) e strutture private (sindacati, camere di commercio, organizzazioni
religiose). La disponibilità di questo genere di dati consente al
ricercatore di risolvere alcuni problemi cognitivi a costi molto ridotti
rispetto a quelli di un’apposita rilevazione.
Il ricercatore in un paese
sviluppato può solitamente avvalersi di pubblicazioni statistiche
specialistiche a periodicità fissa; delle stesse informazioni riportate
su dischetto; di pubblicazioni riportanti indicatori sociali espressi sotto
forma di indici, rapporti, etc.; dell’accesso a banche-dati. Al fine di
costruire files ecologici, il ricercatore — dopo aver deciso il livello
territoriale al quale riferire la rilevazione, il relativo ambito temporale
e i rapporti di indicazione che intende stipulare — deve scegliere le fonti
e le informazioni alle quali accedere. A questo proposito, gli indubbi
vantaggi pratici della costruzione di files ecologici sono accompagnati
da una serie di limiti. Zajczyk (v., 1991, cap. 1) distingue tra problemi
dovuti all’inadeguatezza delle informazioni sul piano dell’aggregazione
territoriale, all’inadeguatazza delle informazioni rispetto ai problemi
cognitivi e alla molteplicità e scarso coordinamento degli enti
produttori.
L’inadeguatezza
territoriale deriva dalla possibile mancata corrispondenza tra le unità
amministrative di cui gli enti produttori si servono come base per aggregare
le informazioni e le unità geografiche che il ricercatore ritiene
rilevanti per i suoi interessi. In Italia, ad esempio, le informazioni
ecologiche sono disponibili quasi esclusivamente sotto forma di distribuzioni
per comune, provincia o regione. Se il ricercatore è interessato
a un altro tipo di ripartizione geografica, egli può solo sperare
di poter accedere ad informazioni abbastanza disaggregate da consentire
opportune riaggregazioni. Chi cerca di costruire serie storiche può
imbattersi in un’altra difficoltà inerente al cambiamento dei confini
delle unità amministrative (sui problemi inerenti ai livelli di
aggregazione territoriale, v. Schadee e Corbetta, 1984, cap. 4).
I dati
process-produced possono rivelarsi inadeguati anche sul piano delle definizioni
e delle classificazioni. Il ricercatore che se ne serve deve accettare
le definizioni operative adottate dagli enti produttori, che spesso non
coincidono con quelle che lui avrebbe usato. A volte gli enti produttori
di dati continuano ad applicare definizioni non più adeguate in
quanto ciò consente la comparabilità con dati rilevati in
passato, quando quelle definizioni erano ancora opportune. D’altra parte,
eventuali revisioni possono introdurre nei files ecologici distorsioni
delle quali magari il ricercatore non è consapevole. Inoltre, è
facile che le fonti statistiche non esprimano le informazioni in formati
immediatamente fruibili per gli specifici intenti del ricercatore (valori
assoluti, valori percentuali, indici, quantità di beni prodotti,
valore economico dei beni prodotti, etc.), non riportino determinate tabulazioni
incrociate, non disarticolino le informazioni in base ad altre variabili
interessanti, e così via.
Nei paesi
sviluppati esiste un elevato numero di enti produttori e di fonti di informazioni
process-produced, il che favorisce ridondanze e sovrapposizioni nelle informazioni.
La molteplicità degli enti produttori implica una forte disomogeneità
nei dati che essi mettono a disposizione. Ne consegue che il ricercatore
deve essere particolarmente attento non solo quando combina informazioni
provenienti da fonti diverse, ma anche quando decide da quale attingere
fra più fonti che offrono (o sembrano offrire) lo stesso prodotto.
Nella
costruzione di files ecologici il ricercatore esercita uno scarso controllo
sul processo di produzione iniziale dei dati che utilizza. Affinché
egli possa valutare la fedeltà dei dati e la fondatezza di eventuali
comparazioni nello spazio e nel tempo, “occorre che il ricercatore disponga
di una puntuale ‘informazione sull’informazione’” (v. Zajczyk, 1991, p.
14; v. anche cap. 7). Occorre altresì che il ricercatore sia motivato
ad approfondire queste conoscenze, dedicando una parte delle sue risorse
ad indagare sui processi di costruzione dei dati messi in atto dagli enti
produttori. La cautela è particolarmente indicata nel caso di alcuni
dati forniti da enti istituzionali: se il fruitore è portato ad
inchinarsi di fronte alla “ufficialità” del dato, in alcuni casi
chi è oggetto della rilevazione (extra-comunitario, evasore fiscale,
costruttore abusivo) può avere ottimi motivi per cercare di sfuggire
ad essa (v. Linz, 1969, pp. 103-104), e lo stesso ente produttore può
avere interesse ad alterare i dati (v. Merritt, 1970, p. 40).
La rilevazione
di informazioni process-produced può riferirsi anche a documenti
personali: diari, lettere, fotografie. Questi documenti permettono di rilevare
informazioni relativamente aderenti al mondo della vita di chi li ha prodotti.
A differenza dei dati divulgati da enti produttori, tuttavia, i documenti
personali non sono stati creati a fini conoscitivi né con una periodicità
sistematica, e presentano formati inevitabilmente non standardizzati.
Le maggiori
difficoltà riguardano le distorsioni inerenti alla conservazione
e all’accesso a questo genere di documenti. In linea generale, è
più facile che lettere, diari, fotografie, etc. siano stati prodotti
e conservati da individui con un elevato grado di istruzione e/o visibilità.
Inoltre, i documenti personali attraversano processi selettivi di sopravvivenza,
sui quali il ricercatore non esercita alcun controllo e dei quali può
anche non sapere alcunché: molto materiale viene deliberatamente
distrutto o si deteriora col passare del tempo; vengono conservate soltanto
le lettere ritenute importanti e le foto “belle”; la conservazione dipende
anche dalle modalità di circolazione dei documenti.
I processi
selettivi attengono non solo all’attività dei produttori dei documenti
ma anche alle procedure di raccolta e di catalogazione messe in atto da
centri di documentazione e di ricerca storica e da archivi, ai quali il
ricercatore si rivolge per accedere ad ampi repertori di documenti personali.
Occorre tenere conto del fatto che questi centri solitamente si dedicano
a periodi, eventi e fenomeni storici circoscritti (la resistenza, l’immigrazione,
etc.) o a personaggi celebri. Alcuni centri di documentazione sono dediti
specificamente alla raccolta e conservazione di informazioni visive (v.
Mattioli, 1991, pp. 135-137), che possono anche essere prodotte sistematicamente
da professionisti (valgono sempre le avvertenze, sottoposte in § 4b,
circa la tensione tra rappresentazione oggettiva e intervento estetizzante).
Non si
deve, infine, trascurare la possibilità di rilevare informazioni
prodotte nel corso di precedenti indagini scientifiche. La cosiddetta “analisi
secondaria” (che, nonostante il suo appellativo, si contraddistingue per
come raccoglie le informazioni, non per come le analizza) prevede “l’estrazione
di conoscenza su argomenti diversi da quelli che erano il fuoco dei sondaggi
originari”, estrazione che permette di “espandere i tipi e il numero di
osservazioni per coprire in modo più adeguato una varietà
più ampia di condizioni sociali, procedure di misurazione e variabili”
di quanto sarebbe altrimenti possibile (v. Hyman, 1972, pp. 1 e 11). Le
opportunità di analisi secondaria stanno aumentando grazie ai progressi
tecnologici che permettono un’efficiente archi-viazione e trasferimento
di dati, alla creazione e consolidamento di molti centri di raccolta, alla
diffusione di prodotti informatici che consentono un agevole trattamento
dei dati, ai vantaggi economici di cui gode chi rinuncia a intraprendere
rilevazioni ad hoc, e infine alle sue potenzialità didattiche. D’altra
parte, l’analisi secondaria si scontra spesso con problemi inerenti alla
mancata conservazione dei dati, all’insufficiente documentazione dei files,
alla sopravvenuta obsolescenza dei sistemi di archiviazione e alla resistenza
opposta da qualche ricercatore a chi vorrebbe usare i “suoi” dati.
Si distinguono
dall’analisi secondaria la “ri-analisi” — termine che designa una ricerca
in cui l’oggetto cognitivo è il medesimo della ricerca originaria
e si vuole far emergere e correggere difetti dell’analisi “prima-ria” —
e la “meta-analisi”, che invece mira a una sintesi degli esiti di precedenti
studi, in cui cioè le informazioni da rilevare sono le conclusioni
di un insieme di ricerche. In entrambi questi casi, gli argomenti trattati
sono gli stessi delle ricerche originarie, mentre l’analisi secondaria
mira — di solito mediante la stipulazione di nuovi rapporti di indicazione
— a sfruttare dati di indagini precedenti per indagare su argomenti non
necessariamente coincidenti con quelli delle rilevazioni originarie.
Nella
rilevazione strutturata le informazioni vengono raccolte, classificate
e registrate secondo schemi tendenzialmente rigidi, pre-stabiliti dal ricercatore
e rispondenti più alle sue esigenze cognitive che a quella della
fedeltà agli stati e alle concezioni dei soggetti studiati. Vi si
ricorre quando il ricercatore dispone (o ritiene di disporre) di conoscenze
intorno al fenomeno indagato sufficienti per individuare quali proprietà
e quali stati siano rilevanti. La rilevazione strutturata dà luogo
a una notevole riduzione della complessità delle attività
di ricerca e consente di operativizzare molti concetti, di semplificare
le procedure di registrazione e codifica, di riunire tutti i dati prodotti
in un’unica matrice (vedi oltre), di comparare agevolmente stati di casi
diversi, di controllare ipotesi precise. Questi vantaggi comportano un
costo relativamente elevato: il rischio di comprimere eccessivamente la
natura variegata dei fenomeni sociali, di trattare argomenti non salienti
per i mondi vitali degli individui indagati, di produrre dati che non ne
riflettono gli stati effettivi.
Alcune
tecniche relative a questo tipo di rilevazione comportano la strutturazione
della raccolta delle informazioni sin dal primo contatto con gli individui
o oggetti indagati (ad es., mediante la somministrazione di un questionario
con domande chiuse, l’analisi del contenuto, etc.). Queste tecniche, tuttavia,
possono anche essere applicate a informazioni rilevate mediante tecniche
non strutturate (osservazione partecipante, storie orali, interviste non
strutturate, etc.; v. § 4b); in questo caso la collaborazione dei
soggetti indagati non è richiesta per le procedure descritte nel
resto di questo paragrafo.
Nella
rilevazione strutturata si procede alla divisione dell’estensione del concetto-proprietà
che interessa al ricercatore in estensioni più ristrette, ciascuna
delle quali corrisponde a un concetto più specifico, ovvero a una
classe del concetto-proprietà. Questa divisione, o classificazione
intensionale, si ottiene articolando uno o più aspetti (detti fundamenta
divisionis) dell’intensione del concetto-proprietà e produce uno
schema di classificazione o una tipologia (v. Marradi, 1992, § 1a).
In seguito si assegnano gli oggetti o eventi osservati alle classi o ai
tipi precedentemente costituiti a seconda dei loro stati (o combinazioni
di stati) sulle relative proprietà, e poi si registrano gli esiti
di questa operazione.
“E’ assai
opportuno ammettere la rivedibilità dello schema di classificazione
sulla base delle risultanze emerse nella fase di assegnazione, per correggere
i difetti” (ibi, p. 26), che possono riguardare l’imprecisione delle regole
di attribuzione; la necessità di prevedere una o più classi
residuali per tener conto di casi con stati imprevisti; l’opportunità
di evitare distribuzioni squilibrate (in cui, cioè, una classe contiene
una proporzione troppo alta, o troppo bassa, di casi). Per affinare lo
schema sarebbe opportuno effettuare pre-tests di questionari o classificazioni
di una parte del materiale raccolto con tecniche non strutturate prima
di procedere alla rilevazione definitiva. Inoltre, alcune di queste difficoltà
vengono attenuate se ai soggetti, i cui stati sono da classificare, viene
reso noto lo schema di classificazione e permesso di partecipare alle procedure
di assegnazione.
Le caratteristiche
dello schema di classificazione e il processo di assegnazione dei casi
sono sostanzialmente identici se il ricercatore vuole riprodurre l’ordine
che percepisce tra gli stati di una proprietà nei rapporti fra le
classi dello schema di classificazione (ibi, § 2a). Tale ordine può
essere attribuito a stati percepibili come appartenenti a una serie ordinata
(ad es., quando si operativizza il livello di istruzione mediante la rilevazione
del titolo di studio conseguito); percepiti come allineabili lungo un continuum
segmentabile mediante una procedura di scaling (ad es., rilevazione di
atteggiamenti; vedi oltre) o un’unità di misura (ad es., età);
o accertabili mediante un conteggio (ad es., numero di figli; v. anche
Marradi, 1980-81). A seconda di come vengono ideate le classi, si dà
luogo a variabili categoriali, ordinali (più correttamente ‘categoriali
ordinate’) o cardinali; gli esiti delle attività di classificazione
avranno rilevanti conseguenze sul piano delle tecniche di analisi statistica
che si potranno usare (v. § 5b).
La possibilità
di ricondurre gli stati di un insieme di soggetti a una classificazione
è influenzata dalla natura dello stimolo che viene loro rivolto.
La domanda aperta consente all’intervistato di esprimere pienamente e in
maniera spontanea la sua posizione, ma la ricchezza di informazioni viene
persa quando gli intervistatori riconducono le risposte a poche classi.
Inoltre, vi è il pericolo di sollecitare risposte non riconducibili
allo schema di classificazione prestabilito (v. Palumbo, 1992). La domanda
chiusa è accompagnata dall’elenco delle risposte ritenute accettabili
dal ricercatore: il compito dell’intervistato viene facilitato, col rischio
però di suggerirgli risposte che non avrebbe indicato in modo spontaneo
o di imporgli uno schema di classificazione da lui non condiviso. Una soluzione
intermedia prevede che una risposta diversa da quelle pre-definite venga
registrata e successivamente post-codificata. Per tutte e tre le forme
l’interazione tra intervistatore e intervistato svolge un ruolo centrale
nell’introdurre o meno distorsioni (v. § 4b).
Altre
difficoltà derivano dai termini usati per esprimere la domanda e
dalla sua struttura semantica. Pitrone (v., 1984, cap. 8) individua quattro
fonti di distorsione attinenti alla formulazione delle domande: complessità
/ oscurità dei termini; sotto-determinazione, quando la formulazione
è ambigua o comunque non consente all’intervistato di comprendere
cosa gli viene chiesto; sovra-determinazione, quando la formulazione induce
a privilegiare indebitamente alcune alternative di risposta rispetto ad
altre; “obtrusività”, quando la domanda imbarazza l’intervistato
o in altro modo incoraggia risposte infedeli (per un’eccellente trattazione
dei problemi riguardanti la redazione di domande e questionari, v. Payne,
1951).
Mentre
le proprietà concepibili come continue sono numerose, poche di quelle
misurabili in senso stretto (data la disponibilità di un’unità
di misura) rivestono interesse per le scienze umane. La potenza delle tecniche
di analisi statistica applicabili alle variabili cardinali (v. § 5b)
incoraggia i ricercatori ad escogitare definizioni operative che permettono
di assegnare etichette numeriche agli stati e di trattare tali etichette
come se avessero le proprietà cardinali dei numeri. Per questi motivi
si ricorre in modo diffuso alle già menzionate tecniche di scaling,
specie per operativizzare dimensioni concettuali relative a valori e atteggiamenti
e per costruire indici (per alcune delle tecniche più note, v. Arcuri
e Flores d’Arcais, 1974; v. McIver e Carmines, 1981). La maggior parte
di queste tecniche consiste nella somministrazione di una serie di stimoli
e prevede che i soggetti facciano riferimento a schemi di risposta pre-definiti
ed eguali per ogni stimolo.
Queste
serie di sollecitazioni (composte il più delle volte da frasi compiute,
ma anche da termini/espressioni, immagini, etc.), dette anche “batterie”,
permettono di raccogliere grandi masse di informazioni facilmente analizzabili
e relativamente conformi alle esigenze conoscitive del ricercatore. D’altra
parte, le relative tecniche sono esposte a diversi tipi di distorsione
(tra cui primeggiano gli stili di risposta; v., ad es., Broen e Wirt, 1958),
che vanificano non solo la pretesa di “misurare” gli stati degli intervistati,
ma anche quella di stabilire un ordine tra le classi di risposta. Inoltre,
è assai improbabile che gli assunti sottesi alle diverse tecniche
siano condivisi dagli intervistati (sui pregi e difetti di alcune tecniche
di scaling, si vedano Marradi 1987, capp. 4 e 5; Cacciola e Marradi, 1988;
Gasperoni e Giovani, 1992; Sapignoli, 1992; Marradi, 1994, L’analisi...,
§ 5.2). Un altro rischio attiene al fatto che, una volta che è
stata formulata e usata in una ricerca — specie se quest’ultima diventa
celebre — una batteria tende ad essere riproposta in contesti diversi da
quello originale senza eliminarne difetti evidenti e senza che essa venga
adattata alle specifiche caratteristiche del nuovo contesto (basti pensare
alla nota “scala-F”; v. Adorno et al., 1950).
Come
si è accennato, le interviste strutturate permettono di operativizzare
un numero elevato di proprietà. Pertanto un questionario può
ospitare domande e batterie riguardanti un’ampia varietà di argomenti.
Pitrone ne propone la seguente classificazione (v., 1984, § 4.1):
caratteristiche socio-anagrafiche di rilievo “strutturale” (età,
sesso, etc.); mutamento delle caratteristiche “strutturali” (occupazione,
stato civile, etc.); conoscenza e percezione di fatti; sentimenti e credenze;
opinioni e valori; standards di azione; previsioni; motivazioni. Il questionario
solitamente inizia con una breve presentazione, che serve a illustrare
gli obiettivi della rilevazione e ad ottenere la collaborazione dell’intervistando.
Fanno parte del questionario anche le istruzioni dirette all’intervistatore
(ad es., su come riformulare domande complesse, codificare stati imprevisti,
trattare intervistati ricalcitranti, etc.) e le eventuali domande, solitamente
poste in calce, rivolte all’intervistatore al fine di rilevare alcune informazioni
relative alla situazione di intervista e all’intervistato (v. § 4b).
Nella
redazione del questionario è opportuno fare molta attenzione alla
successione delle domande, la quale dovrebbe tener conto di diversi elementi:
carattere potenzialmente delicato degli argomenti trattati; naturalezza
dei passaggi da un argomento all’altro; possibilità che alcune domande
influenzino le risposte ad altre; opportunità di suddividere e distribuire
nel corpo del questionario le “batterie” di quesiti per evitare che l’intervistato
si stanchi o perda interesse; e così via.
E’ importante
distinguere tra strumenti strutturati (come il questionario) aventi lo
scopo di rilevare atteggiamenti, interessi, opinioni, aspirazioni, etc.,
e altri strumenti strutturati (come i test e le prove d’esame) usati per
rilevare capacità, attitudini, livelli di conoscenza, patologie,
etc. e magari anche prendere decisioni che influiranno sulle vite dei soggetti
(per certi versi, questa distinzione rispecchia quella tra intervista e
colloquio; v. § 4b). In questo secondo caso, quindi, la rilevazione
ha scopi non solo cognitivi, ma anche operativi e talvolta persino prescrittivi.
Il test spesso ha un obiettivo cognitivo più circoscritto del questionario,
e quindi mira a rilevare poche proprietà simili o anche una sola;
inoltre, si compone di quesiti altamente standardizzati. Un’altra differenza
inerisce al fatto che i soggetti esaminati spesso sono tenuti a sottoporsi
a un test al fine di raggiungere un determinato traguardo (un titolo di
studio, un lavoro, etc.). In misura ancora più accentuata che nell’uso
di un questionario strutturato, il ricercatore deve nutrire molta fiducia
nelle teorie che hanno guidato la redazione del test e nella capacità
di quest’ultimo di registrare fedelmente gli stati degli individui.
A differenza
del questionario, il test prevede risposte giuste e risposte sbagliate
alle domande; questa distinzione accentua la strutturazione della rilevazione.
L’esaminato non contribuisce in alcun modo alla determinazione di quali
siano le risposte giuste ai quesiti rivoltigli (mentre, naturalmente, l’intervistato
è l’unico a conoscere le risposte fedeli alle domande che gli vengono
somministrate). Inoltre, di solito, l’esaminato è comprensibilmente
motivato a scegliere certe alternative di risposta piuttosto che altre
e a presentare una certa immagine di sé, anche a costo di distorcere
deliberatamente (se vi riesce) il modo con cui vengono registrate le proprie
capacità, etc. (l’espressione ‘response set’ designa questo fenomeno;
v. Cronbach 1946). Nel valutare la fedeltà dei dati, il ricercatore
deve fare i conti con questa volontà, che è tanto più
presente fra gli intervistati quanto più essi si sentono sottoposti
a un esame; v. Edwards, 1957; v. Converse, 1970, p. 170).
Le informazioni
rilevate mediante rilevazioni strutturate possono essere raccolte in griglie
chiamate matrici, i cui elementi fondamentali sono i casi, le variabili
e i valori. Sono possibili sei tipi non ridondanti di matrice bidimensionale:
casi per casi; casi per variabili; casi per valori; variabili per variabili;
variabili per valori; e valori per valori. Le matrici si distinguono in
primarie, nelle quali i casi rappresentano almeno uno degli elementi, e
derivate, prodotte dall’incrocio di coppie di vettori-riga e vettori-colonna
estratti delle matrici primarie (v. Delli Zotti, 1985, § 2). Le matrici
primarie sono usati per la raccolta dei dati; quelle derivate si prestano
all’analisi.
Il tipo
di matrice di rilevazione più usata nelle scienze sociali è
la matrice “casi per variabili” (o matrice dei dati). In essa i vettori-riga
hanno per referente gli oggetti indagati e i vettori-colonna hanno per
referente le proprietà. Pertanto una matrice dei dati ha tante righe
quanti sono i casi e tante colonne quante sono le variabili. Le celle della
matrice ospitano i dati, ossia i valori che sono stati assegnati agli stati
presentati dai relativi casi sulle relative variabili. Questa matrice concentra
tutti i dati prodotti nel corso della rilevazione e li prepara per l’analisi
statistica (v. § 5b). Inoltre, da essa sono ricavabili non solo le
matrici derivate ma anche gli altri due tipi di matrice primaria.
I dati
possono essere raccolti anche in matrici “casi per casi”, le cui celle
ospitano dati relativi alla presenza, la natura o l’intensità della
relazione tra due casi. Dato che i vettori-riga e i vettori-colonna si
riferiscono allo stesso tipo di elemento, è possibile riportare
dati relativi a due relazioni distinte (ad es., importazioni ed esportazioni
se i casi sono paesi; flussi di voti se i casi sono partiti) nelle celle
dei due triangoli speculari rispetto alla diagonale; altrimenti, le celle
di uno dei triangoli contengono informazioni ridondanti. Le celle collocate
lungo la diagonale possono essere lasciate vuote oppure contenere ciascuna
un dato riferito a un solo caso e utile per contestualizzare i dati delle
altre celle (ad es., rispetto agli esempi sopra esposti, prodotto interno
lordo di un paese; totale dei voti ottenuti da un partito) .
Infine,
i dati possono essere raccolti anche in una matrice “casi per valori”.
A differenza di quanto può accadere con la matrice “casi per casi”,
non sembra che vi siano circostanze nelle quali il ricorso a questo tipo
di matrice sia vantaggioso (ibi, § 8).
Le tecniche
di raccolta trattate fino a questo punto si distinguono per il fatto che
il ricercatore si inserisce in una realtà che esiste indipendentemente
dai suoi interessi e attività di ricerca; egli cercherà di
far sì che i suoi atti di rilevazione modifichino la realtà
il meno possibile. I dati prodotti corrispondono a informazioni che si
presumono essere (o che comunque vengono trattate come se fossero) preesistenti
all’indagine.
Le tecniche
di raccolta trattate in questo paragrafo — basate sulla (quasi-) sperimentazione
e sulla simulazione — presuppongono invece un’elevata capacità di
controllare e manipolare le proprietà oggetto di indagine, e pertanto
la specifica situazione che viene studiata: si producono (o si contribuisce
a produrre) informazioni appositamente per poterle rilevare.
Le tecniche
sperimentali prevedono che le proprietà vengano divise in almeno
tre classi: quelle ritenute irrilevanti per il fenomeno in questione e
quindi ignorate; quelle ritenute rilevanti e i cui stati vengono tenuti
costanti (o in qualche altro modo controllati) affinché si possa
escludere una loro influenza sul fenomeno; quelle ritenute rilevanti, i
cui stati vengono lasciati o fatti variare. Nella versione paradigmatica
della sperimentazione, queste ultime proprietà, opportunamente operativizzate,
si dividono in variabili indipendenti e dipendenti: le prime vengono fatte
variare al fine di osservare la natura e l’entità delle eventuali
variazioni conseguenti nelle seconde.
Nelle
scienze umane, per ovviare alle difficoltà nel tenere costanti molte
variabili, i soggetti osservati vengono divisi in due gruppi: in uno (gruppo
sperimentale) gli stati sulla variabile indipendente vengono fatti variare
in modo controllato; nell’altro (gruppo di controllo) gli stati non vengono
fatti variare. Eventuali variazioni negli stati medi del primo gruppo sulla
variabile dipendente — se non si manifestano anche nel secondo gruppo —
vengono attribuite all’influenza della variabile indipendente (v. Campbell
e Stanley, 1963).
Per cercare
di neutralizzare l’influenza di terze variabili, si scelgono gli oggetti
osservati in modo che quelle variabili presentino distribuzioni isomorfe
nei due gruppi (matching). Ciò presuppone la conoscenza di questi
stati, e pertanto l’operativizzazione delle proprietà. In alternativa
o ad integrazione dei suddetti accorgimenti, il ricercatore può
assegnare i soggetti osservati ai gruppi sperimentale e di controllo in
modo casuale (randomizzazione).
La sperimentazione
si distingue anche per il fatto che si prefigge di acquisire conoscenze
unicamente sulle relazioni tra variabili, non sulla distribuzione dei casi
rispetto a una o più proprietà, e tanto meno su oggetti specifici.
Anzi, la sperimentazione presuppone la perfetta interscambiabilità
degli oggetti osservati, e quindi la generalizzabilità dei risultati
a tutti gli oggetti dello stesso tipo, una volta che siano stati controllati
i loro stati sulle proprietà operativizzate.
Inoltre,
il ricorso a un esperimento presuppone che il ricercatore abbia previamente
formulato una precisa ipotesi; altrimenti non si giustifica l’operativizzazione
di un numero relativamente basso di proprietà (v. Marradi, 1987,
cap. 7). D’altra parte, si può formulare un’ipotesi così
circoscritta solo se in merito al settore indagato esiste già un
robusto impianto teorico.
Agli
occhi di molti ricercatori — come dell’uomo della strada — la sperimentazione
costituisce il “metodo scientifico” per eccellenza a causa della sua centralità
nelle scienze fisiche: “l’esperimento fornisce la giustificazione più
convincente delle proposizioni empiriche” (v. Sztompka, 1979, p. 74). In
effetti, la sperimentazione — quando è possibile applicarla — è
una tecnica potentissima: grazie al controllo esercitato su ogni proprietà
ritenuta rilevante per il fenomeno studiato, l’esperimento non si limita
ad individuare l’esistenza di relazioni tra proprietà ma permette
anche di portare validi elementi a sostegno della presenza di certi rapporti
causali.
L’applicazione
delle tecniche sperimentali nelle scienze sociali incontra diversi ostacoli,
tant’è che alcuni le ritengono non applicabili tout court (tra gli
altri, v. Durkheim, 1895). Al di là dei fattori che possono inficiare
la fondatezza dei risultati di uno specifico esperimento (v. Campbell e
Stanley, 1963, pp. 5-6 per una tipologia dei fattori che ne minacciano
la “validità interna” e la “validità esterna”; v. anche Wiggins,
1968), i problemi incontrati dalla sperimentazione in ambito sociale ineriscono
alla natura delle unità di analisi, delle proprietà e delle
relazioni fra le proprietà (v. Marradi, 1987, cap. 8).
Quando
la sperimentazione si effettua su esseri umani (non intesi come oggetti
fisici o organismi biologici), non si può ragionevolmente adottare
l’assunto di fungibilità degli oggetti dello stesso tipo. Inoltre,
nella sperimentazione in fisica “si presume, almeno implicitamente, che
il soggetto dell’esperimento reagisca passivamente agli stimoli” (v. Orne,
1962, p. 776). Ma “i soggetti non si comportano in modo naturale quando
sanno di essere studiati” (v. Ross e Smith, 1968, p. 333); “lo sperimentatore
impone al soggetto una decisione di definizione di ruolo” (v. Webb et al.,
1966, p. 16). Così il soggetto che partecipa a un esperimento tende
a interpretare quello che percepisce come il proprio ruolo e comportarsi
di conseguenza, modificando quelle che sarebbero state le sue reazioni
spontanee, “adeguandosi a quelle che crede essere le richieste dello sperimentatore”
(v. Strodtbeck, 1968; v. anche Wiggins, 1968, p. 413). L’esempio classico
delle conseguenze della consapevolezza di partecipare a un esperimento
va sotto il nome di “effetto Hawthorne”: i lavoratori della fabbrica Hawthorne,
studiati negli anni trenta, miglioravano la loro produttività (variabile
dipendente) perché erano consci del fatto che essa veniva rilevata,
non a causa delle variazioni introdotte nelle condizioni di lavoro, intese
come complesso di variabili indipendenti (v. Roethlisberger e Dickson,
1939).
Bynner
aggiunge che il ruolo attivo del soggetto presenta anche alcune opportunità,
delle quali tuttavia si tende a non approfittare: nella sperimentazione
“l’importanza attribuita alla neutralizzazione di ogni possibile influenza
distorcente durante la raccolta dei dati è talmente pervasiva che
viene in genere trascurata una delle migliori fonti di informazioni su
queste distorsioni — il soggetto stesso” (v., 1980, p. 316).
Nelle
scienze sociali, le proprietà studiate fanno parte di reti di relazioni
particolarmente estese e articolate. Se a ciò si aggiunge la penuria
di teorizzazioni consolidate e largamente condivise fra gli specialisti,
risulta particolarmente difficile isolare poche proprietà rilevanti
da operativizzare in un disegno sperimentale. Inoltre, anche se ci si riesce,
di solito non è possibile controllare gli stati sulle variabili:
né tenere costanti gli stati sulle proprietà rilevanti escluse
dal modello, né tanto meno far variare in modo controllato gli stati
sulla variabile indipendente (v. Cook e Selltiz, 1964, p. 53; v. Chiari
e Corbetta, 1973, p. 654).
Insomma,
il contesto sperimentale comporta un’eccessiva semplificazione della complessa
natura dei fenomeni sociali. “L’ambiente sociale non può essere
riprodotto in laboratorio” (v. Cerroni, 1985, p. 7). “In qualunque esperimento
abbiamo un’alterazione radicale della struttura sociale e delle regole
di azione che prevarrebbero fuori dal laboratorio... E’ improbabile che
si scopra qualcosa che possa valere per le situazioni reali” (v. Harré
e Secord, 1972; tr. it. 1977, p. 106). Gli esperimenti “tendono ad essere
frammenti isolati, non connessi ad alcunché di ciò che altrimenti
accade nel flusso dell’attività quotidiana” (v. Deutscher, 1973,
p. 201; anche 1966, p. 243).
Nonostante
i forti vincoli che impediscono l’effettuazione di esperimenti veri e propri,
rimane assai difficile per il ricercatore “scartare la possibilità
di applicare la logica della sperimentazione” (v. Pawson, 1989, p. 207;
v. anche Friedrichs, 1970, pp. 169-171). Al proposito, Ritzer parla di
“scambio/sostituzione di obiettivi” (displacement of goals) da parte di
molti ricercatori: si privilegia il rigore metodologico a scapito delle
specificità dell’argomento studiato (v., 1975, p. 181).
E’ comunque
opportuno che le rilevazioni vengano impostate e svolte tenendo presenti
alcuni criteri della sperimentazione atti ad eliminare quanti più
fattori di distorsione sia possibile. Per le indagini “sul campo” è
stata sviluppata una gamma molto ampia di tecniche “quasi-sperimentali”.
La quasi-sperimentazione cerca di adattare le procedure dell’esperimento,
allentandone alcuni requisiti e il controllo che implicano, ai fattori
che condizionano lo studio dei fenomeni sociali al fine di trarne inferenze
casuali (v. Campbell e Stanley, 1963; v. Bickman e Henachy, 1972; v. Cook
e Campbell, 1979).
Pertanto,
la “quasi-sperimentazione” può suggerire alcune buone regole di
lavoro. Ciò non significa affatto che si possano dimenticare le
radicali differenze strutturali fra un esperimento e altre forme di ricerca.
Non si possono quindi sottoscrivere affermazioni come questa: “il questionario
può essere considerato non solo come uno strumento per ottenere
risposte ma come un metodo per esporre i soggetti a stimoli sperimentali,
ancorché verbali” (v. Hyman, 1955, p. 210). Si tratta di uno degli
innumerevoli tentativi ad opera dei ricercatori sociali per appropriarsi
del prestigio delle scienze fisiche adottando il nome dei loro strumenti
— viste le difficoltà nell’usare gli strumenti stessi.
Le simulazioni
sono rappresentazioni dinamiche di ipotetiche situazioni sociali oppure
di contesti storici specifici in cui si chiede a un numero relativamente
contenuto di soggetti di interagire. Il ricercatore definisce i ruoli degli
attori, le risorse di cui dispongono, i vincoli che ne condizionano l’azione,
la situazione di partenza e alcune altre caratteristiche del contesto comune
in cui i soggetti interagiscono: “una rappresentazione operativa delle
caratteristiche centrali della realtà” (v. Guetzkow, 1959, p. 183).
Si ricorre alle simulazioni soprattutto in ambito economico o politologico
(specie nella sfera delle relazioni internazionali), ma anche ogniqualvolta
si vogliano evitare gli elevati costi o gli effetti permanenti e/o nocivi
che una (quasi-)sperimentazione comporterebbe (ad esempio, quando si vogliono
studiare situazioni di crisi sociale o politica). Le origini storiche della
simulazione risalgono ai Kriegsspiele, o giochi di guerra, svolti in Germania
all’inizio dell’Ottocento al fine di studiare gli effetti di diverse strategie
di combattimento; anche il gioco degli scacchi è stato considerato
un antenato delle simulazioni (v. Smith, 1975, p. 255).
La simulazione
è assimilabile all’esperimento per il controllo che il ricercatore
può esercitare sull’ambiente in cui avvengono la produzione e la
rilevazione delle informazioni; ma se ne differenzia per alcuni aspetti.
Ad esempio, nelle simulazioni la specifica identità degli oggetti
(gli attori) è ancora meno rilevante che nella sperimentazione;
spesso si chiede ai partecipanti di assumere ruoli che non assumeranno
mai nella realtà (diplomatici, capi di stato, generali, persino
organizzazioni e altri soggetti collettivi) oppure di fingere di essere
personaggi storici (role-playing); in alcuni casi i partecipanti non sono
neppure esseri umani (vedi oltre).
Inoltre,
spesso ciò che interessa non è tanto l’esito finale delle
interazioni, quanto i processi attraverso i quali la situazione di partenza
viene modificata. Piuttosto che trarre inferenze di tipo causale circa
le relazioni tra proprietà, nella simulazione si cerca di acquisire
conoscenze intorno al funzionamento e al mutamento del sistema “imitato”
dai partecipanti. Ancora, a differenza di quanto accade nella sperimentazione,
il disegno di una simulazione può tener sotto controllo, facendone
variare gli stati, un numero anche molto elevato di variabili (specie se
ci si avvale di un computer); i partecipanti, invece, tendono ad essere
relativamente pochi.
La simulazione
si caratterizza, infine, per la funzione sempre più centrale che
i computers vi svolgono. Si distingue, a questo proposito, tra simulazioni
in senso stretto, che prevedono l’apporto di elaboratori elettronici in
qualità di attori (v. Guetzkow e altri, 1963) e/o di gestori di
un complesso insieme di regole e di altre informazioni che strutturano
l’ambiente (v. Rapoport, 1964), e giochi, nei quali prevalgono decisori
umani (v. Singer, 1977, p. 15; v. Hermann, 1968, p. 275). Già negli
anni sessanta si sosteneva che il termine ‘simulazione’ va riferito soltanto
a situazioni di indagine così complesse che una loro rappresentazione
dinamica richiede necessariamente il ricorso a un elaboratore elettronico
(v. Adelman, 1968, p. 268).
5a. Analisi ermeneutica.
L’accezione
moderna del termine ‘ermeneutica’ trae origine dalla filologia biblica,
e in particolare dal recupero del significato autentico di quanto era scritto
nei testamenti. Per estensione l’ermeneutica è una procedura — di
cui sono elementi centrali il riferimento al linguaggio, la collocazione
del testo nel suo contesto storico-culturale e la chiarificazione di passaggi
oscuri — che consiste nell’interpretazione dei significati che un autore
ha voluto esprimere mediante un insieme di rappresentazioni simboliche.
Nelle
scienze sociali l’analisi ermeneutica caratterizza gli approcci fenomenologici,
e più in generale quelle strategie di ricerca che tentano di accedere
ai significati che gli individui assegnano alle proprie azioni, ai loro
mondi della vita. Di solito essa si accompagna all’assunto che la realtà
sociale sia costruita dagli individui, anche se essi la percepiscono come
un sistema naturale e oggettivo; all’assunto che questo accesso sia possibile
grazie alla condivisione di alcune province di significato da parte del
ricercatore e dell’attore osservato; alla convinzione che conoscere i fenomeni
sociali richieda tecniche diverse da quelle usate per studiare i fenomeni
naturali (v. Schutz, 1932; v. Gadamer, 1960; v. Berger e Luckmann, 1966).
Mediante
l’analisi ermeneutica ci si prefigge di “ricostruire la realtà”
nei termini delle regole e delle motivazioni che guidano il comportamento
dei soggetti osservati (v. Schwartz e Jacobs, 1979); il punto di partenza
è l’esame delle informazioni registrate nel corso di rilevazioni
non strutturate (v. § 4b), sotto forma di testi, registrazioni foniche,
rappresentazioni visive, etc. Le conoscenze estraibili da queste informazioni
sono più cogenti se prodotte nel corso di un’interazione tra soggetti-attori
e ricercatore, nell’ambito cioè di una dialettica dialogica tra
estraneità e familiarità.
Sarebbe
opportuno che le conclusioni del ricercatore fossero accompagnate dal materiale
interpretato (trascrizioni di registrazioni e altri testi, immagini), in
versione integrale o a stralci, preferibilmente organizzato secondo i criteri
interpretativi adottati (v. Montesperelli, 1996, § 4.6). Tuttavia,
è difficile riportare queste informazioni e le inferenze che se
ne traggono in forma succinta; si corre il rischio di seppellirvi il lettore.
La critica più spesso
avanzata nei confronti dell’analisi ermeneutica attiene alla fondatezza
delle conclusioni alle quali giunge un ricercatore: in linea di massima,
nulla permette di stabilire se un’interpretazione di un testo o di un’azione
sia migliore di un’altra. Questa incertezza si innesta su un’altra problematica:
il ricercatore-interprete deve tendere alla ricostruzione del senso inteso
dall’attore, alla formulazione di un resoconto che quest’ultimo saprebbe
riconoscere e autenticare, oppure deve formulare un resoconto che tenga
conto di tutti gli elementi della situazione socio-culturale in cui l’attore
opera, al costo di renderlo incomprensibile o inaccettabile agli occhi
di quest’ultimo? Sono immaginabili situazioni in cui la convalida delle
interpretazioni del ricercatore da parte degli attori osservati le rende
più convincenti, sia situazioni nelle quali una tale convalida le
infirma. Peraltro, questo problema si può porre (anche se non viene
praticamente mai posto) anche per le conclusioni cui si giunge con l’analisi
statistica dei dati.
Questa
e altre critiche mosse all’ermeneutica possono quindi essere rivolte anche
alle altre tecniche per conoscere. Una caratteristica peraltro contraddistingue
l’ermeneutica: chi vi fa ricorso assai difficilmente può — per riprendere
la metafora in § 2.1 — avvalersi di sentieri già battuti.
Le tecniche
di analisi statistica dei dati presuppongono che le informazioni da sottoporre
ad analisi siano state raccolte e organizzate in una matrice dei dati (v.
§ 4d). Ci si può prefiggere sia di esplorare i dati senza sottoporre
a controllo aspettative particolari, proprio al fine di individuare in
quali direzioni approfondire l’analisi (questo è l’orientamento
implicato dalle accezioni anglosassone e francese di ‘analisi dei dati’;
v. Amaturo, 1989, cap. 1), sia di controllare previsioni e ipotesi precise,
formulate nel corso dell’analisi o prima di essa. Un altro obiettivo, che
non verrà trattato in questa sede, è la stima, con l’ausilio
della statistica inferenziale, di quanto i risultati ottenuti siano generalizzabili
alla popolazione (v. anche § 4a).
Al fine
di descrivere le distribuzioni di frequenza, semplici e congiunte, le tecniche
di analisi statistica fanno ampio uso di forme di rappresentazione tabulare
e grafica (o displays) e di valori caratteristici e coefficienti (cifre
che danno informazioni su alcune caratteristiche delle distribuzioni).
Sulla base del numero di variabili prese in considerazione, le tecniche
di analisi dei dati si distinguono in monovariata, bivariata e multi-variata.
Una tecnica si dice monovariata se si occupa della distribuzione dei casi
su una variabile soltanto; bivariata se si riferisce alla distribuzione
congiunta di due variabili; multi-variata se investiga la distribuzione
congiunta di tre o più variabili.
L’applicabilità
delle diverse tecniche di analisi monovariata, bivariata e multi-variata
dipende dal fatto che ai valori assegnati ai diversi stati della variabile
siano legittimamente attribuibili “tutte le proprietà cardinali
dei numeri, o solo quelle ordinali, oppure neppure quelle ordinali” (v.
Marradi, 1994, L’analisi..., p. 14), quindi dal tipo di variabili (categoriali,
ordinali, cardinali) prodotte dalle definizioni operative, che a loro volta
dipendono dal tipo di proprietà che operativizzano (categoriali-non-ordinate,
categoriali-ordinate, con stati enumerabili, continue-misurabili e continue-non-misurabili;
ibi, pp. 12-15; v. anche § 4d). Le categorie delle variabili categoriali
godono di un’elevata autonomia semantica (cioè assumono significato
senza dover ricorrere al significato delle altre categorie e dell’intera
variabile); le variabili cardinali, di converso, in genere ne mancano.
L’autonomia semantica delle categorie influenza il modo in cui il ricercatore
analizza le distribuzioni delle relative variabili: minore è l’autonomia,
minore è l’importanza delle frequenze relative alle singole categorie,
maggiore è quella della dispersione dei dati.
Di solito
si raccolgono informazioni su molte variabili e si è interessati
a studiare le relazioni fra esse; quindi alcuni pensano che l’analisi monovariata
sia superflua. Invece essa svolge funzioni centrali, anche se preliminari,
rispetto all’analisi bi-/multi-variata: essa permette, mediante l’individuazione
di valori implausibili, di correggere errori compiuti durante la registrazione
dei dati; mette in evidenza squilibri nelle distribuzioni e opportunità
di aggregazione in vista di analisi più complesse; fornisce al lettore
le basi su cui fondare un giudizio delle interpretazioni del ricercatore
(v. Marradi, 1994, L’analisi..., cap. 2). Anche in mancanza di ulteriori
analisi, le tecniche monovariate permettono di descrivere alcune caratteristiche
del fenomeno osservato e di rispondere ad alcuni quesiti cognitivi.
Se i
dati si riferiscono a variabili con categorie non ordinate, il valore caratteristico
più semplice è la moda, che corrisponde alla categoria che
raccoglie il maggior numero di casi. Nessuno dei valori caratteristici
proposti per rilevare il grado di equilibrio presentato da una distribuzione
(ibi, § 3.4) viene comunemente usato — anche perché le conseguenze
negative di una distribuzione squilibrata non sono ancora sufficientemente
considerate.
I displays
adatti per le variabili categoriali si possono raggruppare in due famiglie:
in una, i segni (aree di ampiezza o linee di lunghezza proporzionale alle
frequenze da rappresentare) sono ordinati lungo una retta (istogramma,
diagramma a barre o a nastri) e preferibilmente separati tra loro al fine
di non suggerire un ordine fra le categorie; nell’altra famiglia, i segni
sono disposti in ordine circolare (diagramma a torta, grafico a raggi).
Nel caso
delle variabili ordinali, il fatto che alle categorie sia stato conferito
un ordine permette di ricorrere a rappresentazioni più articolate.
Ad esempio, le frequenze percentuali possono essere accompagnate da frequenze
cumulate e retrocumulate; questo accorgimento è tanto più
opportuno quanto minore è l’autonomia semantica delle categorie.
Tra i valori caratteristici, alcuni sono posizionali come la mediana (la
categoria che bipartisce la sequenza dei dati in modo da lasciarne lo stesso
numero dalle due parti, e pertanto indica la tendenza centrale della distribuzione)
e i quartili (il primo e il terzo separano, rispettivamente, il 25% e il
75% dei casi dagli altri; il secondo quartile corrisponde alla mediana).
Il d* di Leti quantifica invece la dispersione dei dati in modo sintetico
(considerando, cioè, l’intera distribuzione piuttosto che specifici
valori collocati in alcuni suoi punti particolari).
L’istogramma
(con colonne contigue, al fine di sottolineare la contiguità delle
categorie) è la forma di rappresentazione più semplice per
le variabili ordinali; ma le forme che meglio rispecchiano la loro natura
sono l’istogramma di composizione, costituito da una sola colonna divisa
in fasce di altezza proporzionale alle frequenze delle categorie (in modo
da richiamarne la ridotta autonomia semantica) e la spezzata a gradini
(che sottolinea la natura cumulativa delle frequenze nelle categorie).
In genere,
come si è detto, le categorie delle variabili cardinali mancano
di autonomia semantica; quindi al ricercatore interessano non le frequenze
relative alle singole categorie bensì l’andamento complessivo della
distribuzione. Spesso, tuttavia, specialmente se sono molto numerose, le
categorie vengono aggregate in un numero più ridotto di classi,
ed è utile ricorrere alle frequenze (retro-)cumulate. La scarsa
autonomia semantica delle categorie fa sì che i più importanti
valori caratteristici abbiano natura sintetica. Il più familiare
è la media aritmetica, che rivela la tendenza centrale della distribuzione.
I più
comuni valori caratteristici che quantificano la dispersione sono basati
sullo scarto, cioè sulla distanza di un valore dalla media aritmetica
della distribuzione. La devianza è la somma dei quadrati degli scarti
dalla media, e ovviamente dipende, oltre che dalla dispersione dei dati
attorno alla media, dal numero dei casi. Se si divide la devianza per il
numero di casi, si ottiene la varianza, che come la devianza è una
grandezza quadratica. Estraendone la radice quadratica si ottiene lo scarto-tipo
(deviazione standard). Di questi tre valori caratteristici, si usa la devianza
se non occorre confrontare distribuzioni basate su un diverso numero di
casi; la varianza se serve una grandezza quadratica (magari per effettuare
confronti con altre grandezze quadratiche); si usa lo scarto-tipo quando
serve una grandezza lineare. Ad ogni modo, se si vogliono operare confronti
con altre distribuzioni, è opportuno usare il coefficiente di variazione
(il rapporto tra scarto-tipo e media aritmetica).
La standardizzazione
è un altro accorgimento che facilita le comparazioni — tra dati
e fra distribuzioni relativi a variabili diverse — quando i dati sono stati
rilevati con unità di misura o di conto diverse. I dati vengono
trasformati in punti standard, dividendo i relativi scarti dalla media
aritmetica della relativa distribuzione per il corrispondente scarto-tipo.
I punti standard non sono più espressi nell’unità di misura
o di conto della variabile originaria, bensì in unità del
suo scarto-tipo. Di conseguenza, la distribuzione di una variabile standardizzata
ha alcune proprietà particolari — la media è eguale a 0,
la varianza e lo scarto-tipo sono eguali a 1 — ed elimina quindi l’effetto
delle differenze nelle scale dei valori e nelle dispersioni. E’ sempre
opportuno procedere alla standardizzazione prima di formare un indice con
criteri additivi.
Altri
valori caratteristici sono stati ideati per rilevare altri aspetti della
distribuzione monovariata di variabili cardinali. Gli aspetti più
interessanti sono l’asimmetria (quanto i dati non si distribuiscono simmetricamente
attorno alla sua media) e la curtosi (quanto la distribuzione è
piatta oppure appuntita).
Le forme
di rappresentazione adatte per le variabili cardinali sono l’istogramma
(se i valori da rappresentare corrispondono ad aggregazioni di stati contigui),
il diagramma a barre (se i valori derivano da stati discreti enumerabili)
e il poligono di frequenza (quando i valori sono numerosi).
Con le
tecniche di analisi bivariata, che sono riconducibili al canone delle variazioni
concomitanti di J.S. Mill (v., 1843), si cerca di individuare quali siano
la forma, la direzione, la forza delle relazioni fra due variabili. Le
tecniche statistiche applicate a dati organizzati in matrice permettono
soltanto di stabilire l’esistenza e la forza di una relazione, non la sua
direzione; soltanto un disegno sperimentale (v. § 4e) consente di
accertare la direzione causale delle relazioni. L’esame delle relazioni
tra variabili presenta aspetti sia semantici (inerenti al loro significato)
sia sintattici (relativi alla loro descrizione in termini matematico-statistici).
In generale, le tecniche di analisi descrivono gli aspetti sintattici delle
relazioni, mentre occorre l’intervento del ricercatore per mettere in evidenza
quelli semantici. Distinguendo le relazioni bivariate in base a due dimensioni
— grado di sovrapposizione semantica fra le variabili e grado di asimmetria
— Ricolfi individua quattro tipi: affinità, indicazione, co-occorrenza
e dipendenza (v., 1994, § 2.2). Questa tipologia è particolarmente
utile per inquadrare gli aspetti semantici delle relazioni. Tocca al ricercatore
collocare le relazioni analizzate lungo le due suddette dimensioni in base
alle sue ipotesi e alla sua conoscenza del contesto.
Per analizzare
una relazione fra due variabili categoriali, i dati vengono rappresentati
con una tabulazione incrociata (che corrisponde a una matrice “valori per
valori”, nella quale le celle contengono le frequenze; v. § 4d). L’analisi
consiste nel confronto tra frequenze attese (che si avrebbero qualora ognuna
delle categorie di una variabile fosse priva di relazioni con ognuna delle
categorie dell’altra) e quelle effettivamente osservate. Questo confronto
è equivalente all’ispezione delle percentuali di riga e di colonna.
Il più
noto coefficiente usato per rilevare la presenza di una relazione tra due
variabili categoriali è ?2, che si basa sul confronto tra frequenze
osservate e quelle attese. Dato che, a parità di forza della relazione,
il suo valore è una funzione lineare del numero dei casi (N), questo
coefficiente rileva la significatività statistica di una relazione,
non la sua forza. Il coefficiente ?2, pari a ?2/ N, elimina l’effetto del
numero dei casi, e pertanto rileva la forza della relazione. Resta da chiedersi,
tuttavia, se abbia senso cercare di rilevare in forma globale la forza
di una relazione fra variabili quando la relazione si colloca più
propriamente al livello delle categorie.
Si ha
un caso speciale di relazione bivariata quando le due variabili sono dicotomiche.
L’ispezione della tabulazione incrociata rimane la tecnica di analisi più
indicata. Le formule dei coefficienti usati per rilevare la forza della
relazione si basano sul prodotto incrociato, cioè sulla differenza
fra il prodotto delle due frequenze di cella nella diagonale principale
e lo stesso prodotto nella diagonale secondaria. I due coefficienti da
preferire sono ? e ?c (v. Gangemi, 1977). Il?? ha il prodotto incrociato
al numeratore e la radice quadrata del prodotto delle quattro frequenze
marginali al denominatore. Al numeratore ?c ha il quadruplo del prodotto
incrociato, e il quadrato del numero dei casi al denominatore. Entrambi
i coefficienti stimano bene la forza della relazione quando nessuna o una
sola variabile presenta una distribuzione squilibrata. Se, di converso,
entrambe le distribuzioni monovariate sono squilibrate, allora tutti i
coefficienti (compresi ? e ?c) sovra-stimano la forza della relazione.
Se le
due variabili messe in relazione presentano categorie ordinate, i coefficienti
che rilevano la forza della loro relazione si basano sulla co-graduazione,
cioè prevedono il controllo di ogni possibile coppia di casi per
accertare se l’ordine relativo dei due casi su una delle variabili si mantiene
anche nell’altra (nel qual caso si ha una coppia co-graduata) oppure si
inverte (nel qual caso la coppia è contro-graduata). Il confronto
tra il numero di coppie co-graduate e il numero di coppie contro-graduate
determina il valore dei coefficienti (tra cui il ?b di Kendall, il ??di
Goodman e Kruskal e il d di Somer), i quali si differenziano tra loro per
il trattamento riservato alle coppie di casi che assumono lo stesso valore
su almeno una variabile, per il fatto di essere adatto per variabili con
un numero eguale oppure diverso di categorie, per la necessità o
meno di formulare in via preliminare un’ipotesi circa la direzione della
relazione.
Per una
relazione fra una variabile cardinale e una categoriale è utile
calcolare la media della variabile cardinale (e altri valori caratteristici)
per ogni classe della variabile categoriale e ispezionare gli eventuali
dislivelli tra questi valori. Se invece di una variabile categoriale si
tratta di una variabile ordinale, si può applicare la stessa procedura,
e inoltre si può anche controllare se le medie della variabile cardinale
riferite alle categorie (esaminate in sequenza) presentino o meno un andamento
monotonico. Un coefficiente che stimi la forza della relazione tra una
variabile cardinale e una categoriale (con categorie ordinate o meno) si
ottiene mediante l’analisi della varianza. Questa tecnica scompone la varianza
della variabile cardinale in due parti: la varianza all’interno delle classi
della variabile categoriale e la varianza fra tali classi. Il coefficiente
che stima la forza della relazione — ?2 (eta quadrato) — è pari
al rapporto fra varianza fra le classi e varianza complessiva.
Ogni
coefficiente usato per rilevare la forza di una relazione bivariata nella
quale una delle variabili è categoriale presenta un difetto fondamentale:
conoscere il suo valore permette di affermare molto poco intorno alla relazione.
Uno stesso valore può corrispondere a situazioni anche molto diverse,
e queste differenze possono emergere soltanto se si ispeziona anche una
rappresentazione articolata della relazione. Inoltre, il valore del coefficiente
può variare in modo sensibile al variare del numero di categorie
previste dalla definizione operativa che ha prodotto la variabile categoriale
(ordinata o meno).
Una relazione
fra due variabili cardinali può essere efficacemente rappresentata
da un diagramma a dispersione: su un piano cartesiano i valori di una variabile
(quella ritenuta indipendente nell’ipotesi formulata dal ricercatore) vengono
situati in ascissa, i valori dell’altra (dipendente) in ordinata; ogni
coppia di valori relativi a un caso è rappresentata da un punto.
Da un’ispezione di questo diagramma dovrebbe risultare evidente se (magari
dopo aver adottato scale logaritmiche e/o escluso dall’analisi eventuali
outliers) la relazione abbia o meno natura lineare.
Se la
relazione appare lineare, si può interpolare una retta (detta retta
di regressione) fra i punti del diagramma e trarne alcuni coefficienti
sintetici (in particolare, quelli di regressione, di correlazione e di
determinazione). La retta di regressione passa per il punto di incrocio
delle due medie e rende minima la somma dei quadrati degli scarti tra i
valori della variabile dipendente e i valori previsti dalla retta stessa.
Il coefficiente di regressione (b), pari al rapporto tra il prodotto delle
codevianze delle due variabili e la devianza di quella indipendente, rappresenta
la variazione prevista nel valore della variabile dipendente per ogni variazione
del valore della variabile indipendente, date le unità di misura
delle due variabili.
L’interpolazione di una retta di regressione e il calcolo del coefficiente
di regressione presuppongono che il ricercatore abbia ipotizzato che una
delle variabili influenzi l’altra senza esserne influenzata.
Il coefficiente
di correlazione (r), che stima la forza della relazione, è pari
al rapporto fra la codevianza delle due variabili e la media geometrica
delle loro devianze, e corrisponde a quanto le due variabili variano insieme
rispetto a quanto ciascuna varia per conto suo. Esso presuppone che la
relazione sia bidirezionale; è infatti pari alla radice quadrata
del prodotto dei due coefficienti di regressione relativi alle due opposte
ipotesi di relazione unidirezionale che è possibile formulare. Elevando
al quadrato il coefficiente di correlazione, si ottiene il coefficiente
di determinazione (r2), che rappresenta la porzione della varianza della
variabile dipendente riprodotta dalla sua relazione con l’indipendente.
Tale coefficiente ha un significato analogo a quello di ?2.
Le tecniche
multi-variate possono suddividersi in tre famiglie. Una famiglia (della
quale fanno parte l’analisi delle componenti principali, l’analisi delle
corrispondenze, i modelli log-lineari) ha un orientamento prevalentemente
descrittivo e privilegia l’esigenza di rappresentare le relazioni. Un’altra
famiglia (che comprende la regressione multipla, la correlazione parziale,
la path analysis, i modelli logit) ha un orientamento esplicativo e tenta
di stabilire se (l’assenza di) una relazione tra due variabili sia dovuta
all’effetto di altre variabili (cioè di altre proprietà operativizzate
nell’ambito dell’indagine); in questo caso si presuppone che le relazioni
osservate siano tra variabili semanticamente indipendenti. Un’altra famiglia
(che comprende l’analisi fattoriale e l’analisi della struttura latente)
ha un orientamento interpretativo e cerca di inferire l’esistenza di variabili
“latenti” (ovvero proprietà non operativizzate) dalle relazioni
intercorrenti tra quelle “manifeste” (operativizzate), di controllare cioè
se si possono far dipendere (in termini sintattici) le relazioni tra variabili
da un numero ridotto di proprietà; in questo caso l’analisi si incentra
su variabili che presentano un’interrelazione statistica (sui confini tra
queste famiglie, v. Ricolfi, 1993, § 4; 1994, § 3.1).
Esistono
anche altre tecniche di analisi avanzate che non sono multi-variate nell’accezione
sopra illustrata, in quanto non prendono in esame un insieme di vettori-colonna
di una matrice dei dati. Le procedure di cluster analysis, ad esempio,
si incentrano sui vettori-riga della matrice; e il multidimensional scaling
fa addirittura a meno della matrice “casi per variabili”. Anche per le
serie storiche (matrici alle quali si aggiunge un ulteriore elemento rispetto
a quelli specificati in § 4c: il tempo) sono state escogitate potenti
tecniche di analisi statistica.
Come
si è visto, le tecniche di analisi sono relativamente deboli nel
caso di variabili categoriali, più potenti per le variabili cardinali.
In genere, i valori caratteristici, i coefficienti e le forme di rappresentazione
(sia tabulare sia grafica) che possono essere usati per descrivere distribuzioni
di variabili categoriali e ordinali hanno senso anche per variabili cardinali,
mentre non è vero il contrario. Inoltre, le tecniche che presuppongono
un ordine fra le categorie non possono naturalmente essere usate per le
variabili categoriali non ordinate.
La potenza
delle tecniche di analisi per variabili cardinali e delle tecniche multi-variate
incentiva lo sfruttamento delle proprietà cardinali piuttosto che
di quelle ordinali dei numeri usati come codici nella matrice-dati. Si
dibatte da tempo sulla legittimità del ricorso a tecniche cardinali
anche su variabili le cui definizioni operative non lo giustificherebbero.
Baker et al. (v., 1966) hanno caratterizzato questo dibattito in termini
di “strong statistics versus weak measurement”: i fautori della prima posizione
sostengono l’opportunità di avvantaggiarsi della potenza delle tecniche
più avanzate; i fautori della seconda ritengono più importante
tener conto della natura delle tecniche di raccolta nelle decisioni afferenti
all’analisi. Acock e Martin (v., 1974) hanno giustamente notato che nella
summenzionata espressione gli aggettivi ‘forte’ e ‘debole’ ineriscono al
tipo di tecnica statistica preferita dalle opposte fazioni, le quali perciò
optano per un legame, rispettivamente, debole o forte tra tecnica di analisi
e tecnica di raccolta. Questa sottovalutazione del nesso fra rilevazione
delle informazioni e analisi dei dati — aggravata dalla già ricordata
diffusione di softwares che rendono accessibili a tutti anche le tecniche
di analisi più complesse — rappresenta un altro indizio di quanto
scarsa sia stata per ora l’attenzione dedicata ai problemi della raccolta
delle informazioni nelle scienze sociali.
ACKROYD, S., HUGHES, J.,
Data Collection in Context, London 1992, 2.a ed.
ACOCK, A. C. e MARTIN, J.
D., The Undermeasurement Controversy: Should Ordinal Data Be Treated
as Interval?, in “Sociology and Social Research”, 1974, LVIII, 4, pp.
427-433.
ADELMAN, I., Simulation:
Economic Processes, in International Encyclopedia of the Social
Sciences, vol. XIV, London 1968, pp. 268-273.
ADORNO, T. W., FRENKEL-BRUNSWICK,
E., LEVINSON, D. J., SANFORD, R. N., The Authoritarian Personality,
New York 1950.
ALBERONI, F., Introduzione
a ALBERONI E ALTRI, L’attivista di partito. Un’indagine sui militanti
di base nel Pci e nella Dc, Bologna 1967.
ALEXANDER, J., Theoretical
Logic in Sociology, vol. I: Positivism, Presuppositions, and Current
Controversies, London 1982.
AMATURO, E., Analyse
des données e analisi dei dati nelle scienze sociali, Torino
1989.
AMATURO, E., Messaggio,
simbolo, comunicazione. Introduzione all’analisi del contenuto. Roma
1993.
AMMASSARI, P., I fondamentali
problemi di metodologia della ricerca sociale, in “Studi di sociologia”,
1985, XXIII, 2-3, pp. 176-93.
ARCURI, L., FLORES D’ARCAIS,
G. B., La misura degli atteggiamenti, s.l. 1974.
ARNAULD, A., NICOLE, P.,
Logique, ou art de penser, Paris 1662.
BACON, F., Novum Organum,
1620.
BAILYN, L., Research
as a Cognitive Process: Implications for Data Analysis, in “Quality
and Quantity”, 1977, XI, 2, pp. 97-117.
BAKER, B. O., HARDYCK, C.
D., PETRINOVICH, L. F., Weak Measurement vs. Strong Statistics: An Empirical
Critique of S.S. Stevens’ Proscriptions on Statistics, in “Educational
and Psychological Measurement”, 1966, XXVI, 2, pp. 291-309.
BARTON, A. H., LAZARSFELD,
P. F., Some Functions of Qualitative Analysis in Social Research,
in “Frankfurter Beiträge zur Soziologie”, 1967, I, pp. 321-61 (tr.
it.: Alcune funzioni dell’analisi qualitativa nella ricerca sociale,
in P. F. Lazarsfeld, Metodologia della ricerca sociologica, Bologna
1967, pp. 307-368).
BECKER, H. S., Problems
of Inference and Proof in Participant Observation, in “American Sociological
Review”, 1958, XX, pp. 652-660.
BECKER, H. S., Sociological
Work: Method and Substance, Chicago 1970.
BECKER, H. S., Observation
by Informants in Institutional Research, in “Quality and Quantity”,
1972, VI, 1, pp. 157-69.
BECKER, H. S., GEER, B.,
Participant Observation and Interviewing: A Comparison, in “Human
Organization”, 1957, XVI, pp. 28-32.
BECKER, H. S., GEER, B.,
Rejoinder, in “Human Organization”, 1957, XVI, pp. 35-37.
BERGER, P. L., LUCKMANN,
T., The Social Construction of Reality. A Treatise in the Sociology
of Knowledge, New York 1966.
BERKA, K., Measurement.
Its Concepts, Theories and Problems, Dordrecht, 1983.
BERNARD, H. R., E ALTRI,
The Construction of Primary Data in Cultural Anthropology, in “Current
Anthropology”, 1986, XXVII, 4, pp. 382-96.
BHASKAR, R., The Possibility
of Naturalism: A Philosophical Critique of the Contemporary Human Sciences,
Brighton 1979.
BICKMAN, L., HENACHY, T.
(a cura di), Beyond the Laboratory: Field Research in Social Psychology,
New York 1972.
BLAIKIE, N. W. H., STACY,
S. J. G., The Dialogical Generation of Typologies, Mejico, X
Congreso Mundial de Sociologìa 1982.
BLALOCK, H. M., Introduction,
in Measurement in the Social Sciences. Theories and Strategies (a cura
di H. M. Blalock), Chicago 1974, pp. 1-7.
BLAU, P. M., The Research
Process in the Study of ‘The Dynamics of Bureaucracy’, in Sociologists
at Work (a cura di P. E. Hammond), Garden City 1964, pp. 18-57.
BLUMER, H., Symbolic
Interactionism: Perspective and Method, Englewood Cliffs 1969.
BOCCUZZI, E., Parcellizzazioni
e reificazioni nelle ricerche sociologiche: il punto di vista di un’intervistatrice,
in "Rassegna italiana di sociologia”, 1985, XXVI, 2, pp. 239-260.
BODIN, J., Methodus ad
facilem historiarum cognitionem, Paris 1566.
BOGDAN, R., TAYLOR, S. J.,
An Introduction to Qualitative Research Methods. A Phenomenological
Approach to the Social Sciences, New York 1975.
BOLLEN, K. A., JACKMAN,
R. W., Regression Diagnostics: An Expository Treatment of Outliers and
Influential Cases, in Modern Methods of Data Analysis (a cura
di J. Fox e J. S. Long), London 1990, pp. 257-91.
BOURDIEU, P., CHAMBOREDON,
J.-C., PASSERON, J.-C., Le métier de sociologue. Problèmes
épistémologiques, Paris 1968.
BROEN, W. E., WIRT, R. D.,
Varieties of Response Sets, in “Journal of Consulting Psychology”,
1958, XXII, pp. 237-240.
BRUSCHI, A., Logica e
metodologia, in “Sociologia e ricerca sociale”, 1991, XII, 35, pp.
30-55.
BYNNER, J., Some Problems
with Psychological Research Practice, in “Bulletin of the British Psychological
Society”, 1980, XXXIII, pp. 315-318.
CACCIOLA, S., MARRADI, A.,
Contributo al dibattito sulle scale Likert basato sull’analisi di interviste
registrate, in Costruire il dato (a cura di A. Marradi), Milano
1988, pp. 63-105.
CALVI, G., La classe
fortezza. Scelte degli elettori e responsabilità della classe politica
in Italia, Milano 1980.
CAMPBELL, D. T., FISKE,
D. W., Convergent and Discriminant Validation by the Multitrait-Multimethod
Matrix, in “Psychological Bulletin”, 1959, LVI, pp. 81-105.
CAMPBELL, D. T., STANLEY,
J. C., Experimental and Quasi-Experimental Designs for Research,
Chicago 1963.
CAPECCHI, V., Metodologia
e ricerca nell’opera di Paul F. Lazarsfeld, in P. F. Lazarsfeld, Metodologia
e ricerca sociologica, Bologna 1967, pp. vii-clxxxii.
CAPECCHI, V., Struttura
e tecniche della ricerca, in Ricerca sociologica e ruolo del sociologo
(a cura di P. Rossi), Bologna 1972, pp. 23-120.
CERRONI, U., Esperimento
e esperienza, in “Scienzasocietà”, 1985, 13-14, pp. 3-14.
CHIARI, G., CORBETTA, P.,
Il problema del campionamento nella ricerca sociologica, in “Rassegna
italiana di sociologia”, 1973, XIV, 3, pp. 473-513; 4, pp. 643-667.
CICOUREL, A., Method
and Measurement in Sociology, New York 1964.
CINI, M., Trentatré
variazioni su un tema. Soggetti dentro e fuori la scienza, Roma 1990.
CIPOLLA, C., Teoria della
metodologia sociologica. Una metodologia integrata per la ricerca sociale,
Milano 1988.
CIPOLLA, C., L’apporto
della comunicazione iconica alla conoscenza sociologica: un bilancio metodologico,
in Introduzione alla sociologia visuale (a cura di C. Cipolla e P.
Faccioli), Milano 1993, pp. 11-48.
COHEN, M. R., NAGEL, E.,
An Introduction to Logic and Scientific Method, New York 1934.
COLLINS, R., Conflict
Sociology: Toward an Explanatory Science, New York 1975.
COMTE, A., Cours de philosophie
positive, Paris 1830-42. Citazioni dall’ediz. Garnier, Paris 1926.
CONVERSE, P. E., Attitudes
and Non Attitudes: Continuation of a Dialogue, in The Quantitative
Analysis of Social Problems (a cura di E. R. Tufte, Reading 1970. COOK,
S. W., SELLTIZ, C., A Multiple-Indicator Approach to Attitude Measurement,
in “Psychological Bulletin”, 1964, LXII, pp. 32-55.
COOK, T. D., CAMPBELL, D.
T., Quasi-Experimentation: Design and Analysis Issues for Field Settings,
Chicago 1979.
COOLEY, C. H., Social
Organization, New York 1909.
CRESPI, F., Le vie della
sociologia. Problemi, teorie, metodi, Bologna 1985.
CRONBACH, L. J., Response
Sets and Test Validity, in “Educational and Psychological Measurement”,
1946, VI, pp. 475-494.
DALTON, M. E., Preconceptions
and Methods in ‘Men Who Manage’, in Sociologists at Work (a
cura di P. E. Hammond), New York 1964, pp. 58-110.
DAVIS, J. A., ‘Great
Books and Small Groups’: An Informal History of a National Survey, in Sociologists
at Work (a cura di P. E. Hammond), New York 1964, pp. 244-269.
DAVIS, J. A., The Future
Study of Public Opinion, in “Public Opinion Quarterly”, 1987, LI, 4,
pp. 178-179.
DELLI ZOTTI, G., Tipologia
della matrici utilizzate nella ricerca sociale, in “Rassegna italiana
di sociologia”, 1985, XXVI, 2, pp. 141-168.
DENZIN, N. K., The Research
Act, Chicago 1970.
DESCARTES, R., Regulae
ad directionem ingenii, 1628.
DESCARTES, R., Discours
de la méthode, 1637.
DEUTSCHER, I., Words
and Deeds: Social Science and Social Policy, in “Social Problems”,
1966, XIII, pp. 233-254.
DEUTSCHER, I., What We
Say/What We Do. Sentiments and Acts, Glenview 1973.
DEWEY, J., Logic, the
Theory of Inquiry, New York 1938.
DIRENZO, G. J., Toward
Explanation in the Behavioral Sciences, in Concepts, Theories, and
Explanation in the Behavioral Sciences (a cura di G. J. Direnzo), New
York 1966, pp. 231-91.
DRISCOLL, J. M., HYNEMAN,
C. S., Methodology for Political Scientists: Perspectives for Study,
in “American Political Science Review”, 1955, XLIX, pp. 192-217.
DUNCAN, O. D., Notes
on Social Measurement. Historical and Critical, New York 1984.
DURKHEIM, E., Les règles
de la méthode sociologique, Paris 1895.
DUSTER, T., Intermediate
Steps Between Micro- and Macro-Integration: the Case of Screening for Inherited
Disorders, in Advances in Social Theory and Methodology. Toward
an Integration of Micro- and Macro-Sociologies (a cura di K. D. Knorr-Cetina
e A. Cicourel), London 1981, pp. 109-35.
EDWARDS, A. L., The Social
Desirability Variable in Personality Assessment and Research,
New York 1957.
ETZIONI, A., LEHMANN, E.
W., Some Dangers in “Valid” Social Measurement, in “Annals of the
American Academy of Political and Social Science”, 1967, CCCLXXIII, pp.
1-15.
FACCIOLI, P., La sociologia
visuale. Tecniche e campi di applicazione, in Introduzione alla sociologia
visuale (a cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 49-71.
FEIGL, H., Physicalism,
Unity of Science and the Foundations of Psychology, in The Philosophy
of Rudolf Carnap (a cura di P. A. Schilpp), vol. I, La Salle 1963 (tr.
it.: Fisicalismo, unità della scienza e i fondamenti della psicologia,
in La filosofia di Rudolf Carnap (a cura di P. A. Schilpp), vol.
I, Milano 1974, pp. 211-48).
FERRAROTTI, F., Dal documento
alla testimonianza. La fotografia nelle scienze sociali, Napoli 1974.
FIDELI, R., MARRADI, A.,
Intervista, in Enciclopedia delle scienze sociali, 19XX, vol.
XX, Roma 1995, pp. XX-XX.
FLECK, L., Entstehung
und Entwicklung einer wissenschaftlichen Tatsache. Einfuehrung in die Lehre
vom Denkstil und Denkkollektiv, Basel 1935.
FOX, J., LONG, J. S., Introduction,
pp. 7-10, a Modern Methods of Data Analysis (a cura di Fox e Long),
London 1990.
FREEDMAN, D. A., Statistics
and the Scientific Method, 343-367 in Cohort Analysis in Social
Research. Beyond the Identification Problem (a cura di W. M. Mason
e S. E. Fienberg), New York 1985.
FRIEDRICHS, R. W., A
Sociology of Sociology, New York 1970, pp. 169-171.
GADAMER, G., Warheit
und Methode, Tübingen 1960.
GALBRAITH, J. K., The
Affluent Society, Boston 1958.
GALLINO, L., Dizionario
di Sociologia, Torino 1978 (voci ‘Neopositivismo e sociologia’ e ‘Tecnica’).
GALTUNG, J.,Theory and
Methods of Social Research, London 1967.
GANGEMI, G., Le misure
di associazione tra due dicotomie nella ricerca sociale, in “Rassegna
italiana di sociologia”, 1977, XVIII, 4, pp. 599-628.
GASPERONI, G., GIOVANI,
F., Come e perché non funzionano le scale Likert a polarità
semantica invertita, in Costruire il dato 2 (a cura di A. Marradi
e G. Gasperoni), Milano 1992, pp. 60-99.
GIDDENS, A., Central
Problems in Social Theory. Action, Structure and Contradiction in Sociological
Analysis, London 1979.
GOLDTHORPE, J. E ALTRI,
The Affluent Worker: Political Attitudes and Behaviour, Cambridge
1968.
GOODE, W. J., HATT, P. K.,
Methods in Social Research, New York 1952 (tr. it.: Metodologia
della ricerca sociale, Bologna 1962).
GUETZKOW, H., A Use of
Simulation in the Study of International Relations, in “Behavioral
Science”, 1959, IV, 3, pp. 183-191.
GUETZKOW, H. et al., Simulation
in International Relations, Englewood Cliffs 1963.
HARPER, D., At Home on
the Rails. Ethics in a Photographic Project, in “Qualitative Sociology”,
1978, I, 2.
HARRÈ, H. R., SECORD,
P. F., The Explanation of Social Behaviour, Oxford 1972 (tr. it.:
La spiegazione del comportamento sociale, Bologna 1977).
HEMPEL, C. G., L’analyse
logique de la psychologie, in “Revue de Synthèse”, 1935 (tr.
ingl.: The Logical Analysis of Psychology, in Readings in Philosophical
Analysis (a cura di H. Feigl e W. Sellars), New York 1949, pp. 373-84).
HERMANN, C., Simulation:
Political Processes, in International Encyclopedia of the Social
Sciences, vol. XIV, London 1968, pp. 275-281.
HILL, R. J., On the Relevance
of Methodology, in Sociological Methods (a cura di N. K. Denzin),
Chicago 1970, pp. 12-26.
HOBHOUSE, L. T., Morals
in Evolution. A Study in Comparative Ethics, London 1906.
HOLT, R., TURNER, J. E.,The
Methodology of Comparative Research, in The Methodology of Comparative
Research (a cura di R. T. Holt e J. E. Turner), New York 1970, pp.
1-20.
HOLZNER, B. Methodology,
in A Dictionary of the Social Sciences (a cura di J. Gould e W.
L. Kolb), Glencoe 1964, pp. 425-426.
HOMANS, G. C., The Human
Group, New York 1950.
HOOKER, C., Methodology
and Systematic Philosophy, in Basic Problems in Methodology and Linguistics
(a cura di R. Butts e J. Hintikka), Dordrecht 1977.
HYMAN, H. H., Survey
Design and Analysis, New York 1955.
HYMAN, H. H., Secondary
Analysis of Sample Surveys: Principles, Procedures, and Potentialities,
New York 1972.
JAMOUS, H., Technique,
méthode, épistémologie, in “Epistémologie
Sociologique”, 1968, 6, pp. 21-38.
JEVONS, W. S. The Principles
of Science. A Treatise on Logic and Scientific Method, London 1874.
KAPLAN, A., The Conduct
of Inquiry, San Francisco 1964.
KAUFMANN, F., Methodology
of the Social Sciences, London 1941 (citazioni dall’edizione del 1944).
KEMENY, J. G., A Philosopher
Looks at Science, Princeton 1959 (tr. it.: Il filosofo e la scienza.
Introduzione alla filosofia della scienza, Milano 1972).
KRIZ, J., Facts and Artefacts
in Social Science. An Epistemological and Methodological Analysis of Empirical
Social Science Research Techniques, New York 1988.
LABOVITZ, S., Criteria
for Selecting a Significance Level: A Note on the Sacredness of .05,
in “American Sociologist”, 1968, III, 3, pp. 220-222.
LAZARSFELD, P. F., Problems
in Methodology, in Sociology Today: Problems and Prospects (a
cura di R. K. Merton, L. Broom e L. S. Cottrell), New York 1959, pp. 39-78
(tr. it.: Problemi di metodologia, in P. F. Lazarsfeld, Metodologia
e ricerca sociologica, Bologna 1967, pp. 179-229).
LAZARSFELD, P. F., PASANELLA,
A. K., ROSENBERG, M., Preface, in Continuities in the Language
of Social Research (a cura di Lazarsfeld, Pasanella e Rosenberg), New
York 1972.
LAZARSFELD, P. F., ROSENBERG,
M., Introduction, pp. 1-12 in The Language of Social Research, New
York 1955.
LECUYER, B.-P., Histoire
et sociologie de la recherche sociale empirique: problèmes de théorie
et de méthode, in “Epistémologie Sociologique”, 1968,
6, pp. 119-31.
LECUYER, B.-P., Società
post-industriale e professionalizzazione degli scienziati, in “Sociologia
e ricerca sociale”, 1987, VIII, 24, pp. 51-67.
LEROY, E., Science et
philosophie, in “Revue de métaphysique et morale”, 1899, VII,
pp. 364-381.
LINZ, J., Ecological
Analysis and Survey Research, in Quantitative Ecological Analysis
in the Social Sciences (a cura di M. Dogan e S. Rokkan), Cambridge
1969, pp. 99-131.
LIPSET, S. M., TROW, M.,
COLEMAN, S. J., Union Democracy, Glencoe 1956.
LOSEE, J., A Historical
Introduction to the Philosophy of Science, Oxford 1972.
LOSITO, G., L’analisi
del contenuto nella ricerca sociale, Milano 1993.
LUNDBERG, G. A., The
Concept of Law in the Social Sciences, in “Philosophy of Science”,
1938, V, 2, pp. 189-203.
LUTYNSKI, J., Methodological
Issues in Research Based on Autobiographies, in “Sisyphus”, 1982, II,
pp. 87-96.
LUTYNSKI, J., Un centro
di ricerca sulle tecniche di raccolta dei dati, in Costruire il
dato (a cura di A. Marradi), Milano 1988, pp. 173-87.
LYND, R., LYND, H., Middletown:
A Study in Contemporary American Culture, New York 1929.
MARRADI, A., Misurazione
e scale: qualche riflessione e una proposta, in “Quaderni di sociologia”,
1980-81, XXIX, 4, pp. 595-639.
MARRADI, A., Concetti
e metodo per la ricerca sociale, Firenze 1987.
MARRADI, A., Prefazione
a Costruire il dato (a cura di A. Marradi), Milano 1988, pp. 7-9.
MARRADI, A., Casualità
e rappresentatività di un campione: contributo a una sociologia
del linguaggio scientifico, in I sondaggi elettorali e le scienze
politiche (a cura di R. Mannheimer), Milano 1989, pp. 51-133.
MARRADI, A., Fedeltà
di un dato, affidabilità di una definizione operativa, in “Rassegna
di sociologia”, 1990, XXXI, 1, pp. 55-96.
MARRADI, A., Classificazione,
in Enciclopedia delle scienze sociali, vol. II, Roma 1992, pp. 22-30.
MARRADI, A., Referenti,
pensiero e linguaggio: una questione rilevante per gli indicatori,
in “Sociologia e ricerca sociale”, 1994, XV, 43, pp. 137-207.
MARRADI, A., L’analisi
monovariata, Milano 1994.
MATTIOLI, F., Gli indicatori
visivi nella ricerca sociale: validità e attendibilità,
in “Sociologia e ricerca sociale”, 1986, VII, 20, pp. 41-69.
MATTIOLI, F., Sociologia
visuale, Roma 1991.
MCIVER, J. P., CARMINES,
E. G., Unidimensional Scaling, Beverly Hills 1981.
MCIVER, R. M., Social
Causation, Boston 1942.
MCKENNELL, A. C., Surveying
Attitude Structures: A Discussion of Principles and Procedures, in
“Quality and Quantity”, 1973, VII, 2, pp. 203-94.
MCKINNEY, J. C., Constructive
Typology and Social Theory, New York 1966.
MERRITT, R. L., Systematic
Approaches to Comparative Politics, Chicago 1970.
MERTON, R. K., Social
Theory and Social Structure. Toward the Codification of Theory and Research,
Glencoe 1949.
MILL, J. S., A System
of Logic, Ratiocinative and Inductive, London 1843.
MILLS, C. W., The Sociological
Imagination, Oxford 1959.
MOKRZYCKI, E., Philosophy
of Science and Sociology. From the Methodological Doctrine to Research
Practice, London 1983.
MONTESPERELLI, P., L’intervista
ermeneutica, Milano 1996.
MURDOCK, G. P., Social
Structure, New York 1949.
NADEL, S. F., The Foundations
of Social Anthropology, London 1949 (tr. it.: Lineamenti di antropologia
sociale, Bari 1974).
NEURATH, O., Soziologie
im Physikalismus, in “Erkenntnis”, 1931-32, II, pp. 393-431.
NICKLES, T., Metodologia,
euristica e razionalità, in I modi del progresso: teorie e episodi
della razionalità scientifica (a cura di M. Pera e J. Pitt),
Milano 1986, pp. 87-116.
NOWAK, S., Understanding
and Prediction. Essays in the Methodology of Social and Behavioral Theories,
Dordrecht 1976.
NOWAK, S., Methodological
Dilemmas of Contemporary Sociology, in Polish Essays in the Methodology
of the Social Sciences (a cura di J. J. Wiatr), Dordrecht 1979, pp.
157-171.
OLAGNERO, M., SARACENO,
C., Che vita è. L’uso dei materiali biografici nell’analisi sociologica,
Roma 1993.
ONG, W. J., Orality and
Literacy, London 1982.
OPP, K. D., Methodologie
der Sozialwissenschaften, Hamburg 1970.
ORNE, M. T., On the Social
Psychology Experiment: with Particular Reference to Demand Characteristics
and Their Implications, in “American Psychologist”, 1962, XVII, 11,
pp. 776-783.
PALUMBO, M., Concetti
dell’uomo della strada e concetti del ricercatore, in Costruire
il dato 2 (a cura di A. Marradi e G. Gasperoni), Milano 1992, pp. 15-43.
PARISI, D., CASTELFRANCHI,
C., Una definizione della psicologia cognitivista, in Psicologia
della gestalt e psicologia cognitivista (a cura di G. Kanizsa e P.
Legrenzi), Bologna 1978, pp. 63-84.
PARK, R. E., BURGESS, E.
W., Introduction to the Science of Sociology, Chicago 1921.
PARSONS, T., The Structure
of Social Action. A Study in Sociological Theory with Special Reference
to a Group of Recent European Writers, New York 1937.
PAWSON, R., A Measure
for Measures, London 1989.
PAYNE, S. L., The Art
of Asking Questions, Princeton 1951.
PEARSALL, M., Participant
Observation as Role and Method in Behavioral Research, in “Nursing
Research”, 1965, XIV, 1. Citazioni dalla versione ristampata in Qualitative
Methodology: Firsthand Involvement with the Social World (a cura di
W. J. Filstead), Chicago 1970, pp. 340-352.
PERA, M., Induzione e
metodo scientifico, Pisa 1978.
PHILLIPS, B. S., Social
Research. Strategy and Tactics, London 1966 (tr. it.: Metodologia
della ricerca sociale, Bologna 1972).
PITRONE, M. C., Il sondaggio,
Milano 1984.
POLANYI, M., Personal
Knowledge. Towards Post-Critical Philosophy, London 1958.
POPPER, K. R., The Poverty
of Historicism, in “Economica”, 1944, XI, 42, pp. 86-103; 43, pp. 119-137;
1945, XII, 46, pp. 69-89.
RAPOPORT, A., Strategy
and Conscience, New York 1964.
RICOLFI, L., Modelli
di analisi e software per le scienze sociali, in “Rassegna italiana
di sociologia”, 1982, XXIII, 3, pp. 331-72.
RICOLFI, L., Modelli
dell’attore e analisi dei dati. Utilitarismo e sociologia, Torino 1984.
RICOLFI, L., Tre variabili.
Un’introduzione all’analisi multivariata, Milano 1994.
RICOLFI, L., L’arte della
descrizione. Un’introduzione alla ricerca standard, Torino 1993.
RIESMAN, D., GLAZER, N.,
DENNEY, R., The Lonely Crowd. A Study of the Changing American Character,
New Haven 1950.
RITZER, G., Sociology: A
Multiple Paradigm Science, Boston 1975.
ROETHLISBERGER, F. J., DICKSON,
W. J., Management and the Worker, Cambridge, (Mass.) 1939.
ROSITI, F., L’analisi
del contenuto come interpretazione, Torino 1970.
ROSITI, F., Analisi del
contenuto, in La ricerca sull’industria culturale (a cura di
F. Rositi e M. Livolsi), Roma 1988, pp. 59-94.
ROSS, J., SMITH, P., Orthodox
Experimental Designs, in Methodology in Social Research (a cura
di H. M. Blalock e A. B. Blalock), New York 1968.
RUDNER, R. S., Philosophy
of Social Science, Englewood Cliffs 1966 (tr. it.: Filosofia delle
scienze sociali, Bologna 1968).
SAPIGNOLI, M., L’intervistato
reagisce all’intera frase o solo a singole parole?, in Costruire
il dato 2 (a cura di A. Marradi e G. Gasperoni), Milano 1992, pp. 100-129.
SARTORI, G., Foreword
in Social Science Concepts. A Systematic Analysis (a cura di G. Sartori),
London 1984.
SAUSSURE, F. DE, Cours
de linguistique générale, Paris 1916.
SCHADEE, H. M. A., CORBETTA
P., Metodi e modelli di analisi dei dati elettorali, Bologna 1984.
SCHATZMAN, L., STRAUSS,
A. L., Field Research: Strategies for a Natural Sociology, Englewood
Cliffs 1973.
SCHUMPETER, J. A., Capitalism,
Socialism, and Democracy, New York 1942.
SCHUSSLER, K., Measuring
Social Life Feelings, San Francisco 1982.
SCHUTZ, A., Concept and
Theory Formation in the Social Sciences, in “Journal of Philosophy”,
1954, LI, 9, pp. 257-73.
SCHUTZ, A., Der sinnhafte
Aufbau der sozialen Welt, Wien 1932.
SCHWARTZ, H., JACOBS, J.,
Qualitative Sociology: A Method to the Madness, New York 1979.
SECONDULFO, D., Un’immagine
vale più di mille parole? Alcune notazioni in margine all’uso sociologico
della fotografia, in Introduzione alla sociologia visuale (a
cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 159-172.
SELVIN, H. C., Durkheim’s
“Suicide” and Problems of Empirical Research, in “American Journal
of Sociology”, 1958, LXIII, pp. 607-19.
SINGER, J. D., The Historical
Experiment as a Research Strategy in the Study of World Politics, in
“Social Science History”, 1977, II, 1, pp. 1-22.
SINGER, J. D., Variables,
Indicators, and Data, in “Social Science History”, 1982, VI, 2, pp.
181-217.
SKINNER, B. F., Science
and Human Behaviour, Glencoe 1953.
SJOBERG, G., NETT, R., A
Methodology for Social Research, New York 1968.
SMELSER, N. J., Comparative
Methods in the Social Sciences, Englewood Cliffs 1976.
SMITH, R. L., MCPHAIL, P.,
PICKENS, R. G., Reactivity to Systematic Observation with Film: A Field
Experiment, in “Sociometry”, 1975, XXXVIII, 4.
SMITH, W. H., Strategies
of Social Research. The Methodological Imagination, Englewood Cliffs
1975.
SOMERS, R. H., Applications
of an Expanded Survey Research Model to Comparative Institutional Studies,
in Comparative Methods in Sociology (a cura di I. Vallier), Berkeley
1972, pp. 357-420.
SOROKIN, P. A., Society,
Culture, and Personality: Their Structure and Dynamics. A System of General
Sociology, New York 1947.
STATERA, G., La conoscenza
sociologica. Problemi e metodo, Roma 1968.
STINCHCOMBE, A. L., Constructing
Social Theories, New York 1968.
STOETZEL, J., Préface
a Méthodes de la sociologie (a cura di R. Boudon e P. F. Lazarsfeld),
Paris 1965 (tr. it.: Prefazione all’edizione francese, in L’analisi
empirica nelle scienze sociali (a cura di R. Boudon e P. F. Lazarsfeld),
Bologna 1969, pp. 9-14).
STRODTBECK, F. L., Recensione
di Experimenter Effects in Behavioral Research (di R. Rosenthal), in
“American Sociological Review”, 1968, XXXIII, 3, pp. 459.460.
SZTOMPKA, P., Sociological
Dilemmas. Toward a Dialectic Paradigm, New York 1979.
THEODORSON, G. A., THEODORSON,
A. G., A Modern Dictionary of Sociology, London 1970.
TOULMIN, S. E., Human
Understanding, vol. I: The Evolution of Collective Understanding,
Princeton 1972.
TRENTINI, G., Tassonomia
generale del colloquio e dell’intervista, in Manuale del colloquio
e dell’intervista (a cura di G. Trentini), Milano 1980.
VIDICH, A. J., Participant
Observation and the Collection and Interpretation of Data, in “American
Journal of Sociology”, 1955, LX, pp. 354-360.
VIDICH, A. J., SHAPIRO,
G., A Comparison of Participant Observation and Survey Data, in
“American Sociological Review”, 1955, XX, 1, pp. 28-33.
WALLIS, W. A., ROBERTS,
H. V., Statistics: A New Approach, New York 1956.
WEBB, E. J., CAMPBELL, D.
T., SCHWARTZ, R. D., SECHREST, L., Unobtrusive Measures: Nonreactive
Research in the Social Sciences, Chicago 1966.
WEBER, M., Gesammelte
Aufsätze zur Wissenschaftslehre, Tübingen 1922 (tr. it.:
Il metodo delle scienze storico-sociali, Torino 1958).
WEIGERT, A. J., The Immoral
Rhetoric of Scientific Sociology, in “American Sociologist”, 1970,
V, pp. 110-23.
WIGGINS, J. A., Hypothesis
Validity and Experimental Laboratory Methods, in Methodology in
Social Research (a cura di H. M. Blalock, Jr. e A. B. Blalock), New
York 1968, pp. 390-427.
WORTH, S., ADAIR, J., Through
Navajo Eyes, Bloomington 1972.
WRIGHT, G. H., VON, Explanation
and Understanding, Ithaca 1971 (tr. it.: Spiegazione e comprensione,
Bologna 1977).
ZAJCZYK, F., La conoscenza
sociale del territorio. Fonti e qualità dei dati, Milano 1991.
ZNANIECKI, F. European
and American Sociology After Two World Wars, in “American Journal of
Sociology”, 1950, LVI, 3, pp. 217-221.
|