Una definizione di statistica

March 20, 2018 | Author: Anonymous | Category: Matematica, Estatística e Probabilidade
Share Embed


Short Description

Download Una definizione di statistica...

Description

Una definizione di statistica Si definisce statistica la scienza che ha per oggetto la raccolta, l’analisi e l’interpretazione dei dati empirici riguardanti un determinato fenomeno ed esprimibili con un numero. Verso la fine del XVI secolo, l’italiano Ghislini ha introdotto, il termine “statistica” per indicare “la scienza descrittiva degli Stati: la scienza, cioè, che ha per oggetto la descrizione degli elementi che compongono uno Stato e delle qualità che lo caratterizzano”. Nel linguaggio corrente, il termine statistica può indicare un dato numerico o una tabella di dati numerici, assoluti o percentuali, frutto di indagini sistematiche, di elaborazioni organiche, di sondaggi di inchieste. Ma il termine statistica, con significato notevolmente diverso dal precedente, indica la disciplina che, descrivendo ed investigando i fenomeni naturali e sociali, s’identifica come vera e propria scienza del collettivo, trovando impiego ovunque siano quantificabili fenomeni di massa. In tal modo, essa acquista la fisionomia di “metodologia scientifica ausiliaria” che parte dall’osservazione e dalla registrazione delle manifestazioni dei fenomeni predisponendo tecniche e procedure per l’acquisizione di dati individuali, per la loro elaborazione, per la formulazione delle ipotesi e delle teorie circa i meccanismi di regolazione dei fenomeni stessi, fino a giungere alla verifica delle ipotesi e delle teorie formulate. La statistica è in altre parole il momento empirico delle scienze di osservazione, nonché delle scienze sperimentali, per le quali i dati statistici costituiscono una particolare forma del contenuto empirico. Essa può rappresentare perciò l’essenza del processo scientifico che nello stadio dell’osservazione si confonde e si mimetizza con il suo stesso contenuto. In altre parole, la statistica non è matematica, ma fa semplicemente uso di algoritmi matematici (le formule) per i propri scopi, ovvero conoscere la realtà ad un livello formalizzato. Si potrebbe quasi formalizzare che la statistica (come scienza) è logica, anche se è più corretto considerarla una visione logico-matematica del mondo: matematica perché la statistica usa i numeri per descrivere i fenomeni del mondo; logica, perché il passaggio dalla realtà ai numeri segue regole piuttosto regole piuttosto rigorose che collegano i numeri al loro significato per il mondo. Nel modo di sentire comune esiste, però, un sentimento di “diffidenza” nei confronti di questa scienza, che alcuni ritengono la prima delle scienze inesatte. Scrisse Edouard Herriol che “la statistica è una signora compiacente che non nega mai nulla di ciò che le viene chiesto”. Disraeli da buon politico la definì come “l’arte per mentire con precisione: cioè una forma nobile, raffinata e scientifica di menzogna”. Conoscere le procedure proprie delle indagini statistiche può aiutare a capire il grado di affidabilità delle sintesi, dei grafici, delle statistiche come medie, mediana, che vengono continuamente proposte anche dai principali media di informazione. Lo studio della statistica può essere, perciò, uno strumento in grado di fornire i mezzi attraverso i quali potersi creare un’opinione personale, indipendente da quello che altri suggeriscono.

Statistica descrittiva, matematica e probabilistica La statistica moderna può essere distinta in tre parti: descrittiva, matematica, inferenziale: 1. La statistica descrittiva spiega come i dati raccolti devono essere riportati in tabella, rappresentati in grafici e sintetizzati in indici matematici, allo scopo di individuare le caratteristiche fondamentali del campione. Essa mira ad accertare le proprietà dei fenomeni nell’ambito delle osservazioni effettivamente eseguite. Proprio per questo essa prevede la fase della raccolta dei dati, la loro rappresentazione (in tabelle o grafici) e l’elaborazione di indici sintetici (medie o indici di variabilità). Quali sono le statistiche che si possono fare in questo settore della statistica: a. Statistiche della tendenza centrale: “regole” per produrre i numeri che forniscono informazioni sulla tendenza centrale di una distribuzione. Esempi: media, mediana, moda. b. Statistiche di posizione: posizione dei dati statistici in una distribuzione: quantili. c. Statistiche di dispersione: come e quanto sono dispersi i dati? Esempi: range, varianza, deviazione standard. d. Statistiche di forma: com’è fatta la curva di distribuzione dei dati: skewness e kurtosi. In particolare la statistica descrittiva univariata prende in esame una variabile alla volta, mentre la statistica bivariata considera contemporaneamente due variabili. La statistica multivariata analizza due o più variabili che devono sottostare a particolari regole. 2.

La statistica matematica presenta le distribuzioni teoriche sia per misure discrete sia per misure continue, allo scopo di illustrarne le caratteristiche fondamentali, le relazioni che esistono tra esse, gli usi possibili.

3. L’inferenza statistica serve per la verifica delle ipotesi. Essa può essere distinta in vari capitoli, in rapporto:  alle caratteristiche dei dati (se permettono o meno il ricorso alla distribuzione normale: statistica parametrica e non parametrica  al numero di variabili (se una, due o più: statistica univariata, bivariata, multivariata). Terminologia statistica     

Caso statistico/Individuo: singolo oggetto di studio su cui vengono fatte diverse misurazioni. Popolazione: insieme di tutte le possibili unità statistiche. Una popolazione può essere finita (se il numero dei casi rimane comunque limitato) o “infinita” (quando il numero dei casi è particolarmente elevato). Campione: sottoinsieme della popolazione, ossia una popolazione in formato ridotto. Variabile: una qualunque delle “qualità” che vogliamo misurare sul caso. Il valore varia al variare del caso statistico allo studio. Costante: contrario della variabile, ossia qualcosa che non cambia al variare del caso statistico.



Statistiche: numeri sintetici ottenuti tramite l’applicazione di particolari regole, che riassumono determinate informazioni sul campione o sulla popolazione. o Statistiche della tendenza centrale: si chiamano in questo modo le “regole” che producono numeri che danno informazioni sulla tendenza centrale di una distribuzione numerica. Normalmente gli indici di tendenza centrale sono considerati rappresentativi dell’intera distribuzione. o Statistiche di posizione: danno informazioni sulla posizione di alcuni valori all’interno della distribuzione. o Statistiche di dispersione: danno informazioni sull’omogeneità o sulla disomogeneità dei dati. o Statistiche di associazione: danno informazioni sul legame esistente tra due o più variabili.

Distribuzione: insieme delle misurazioni effettuate su un insieme di unità statistiche o casi statistici.

IL PROCESSO DELLA RICERCA E GLI STUDI SUL CAMPO Il metodo scientifico Un fattore fondamentale nella storia del processo scientifico è stato il graduale cambiamento nella metodologia con cui affrontare i problemi della scienza, verificatosi nel corso dei secoli. Fin dalla antichità scienziati e studiosi si sono dedicati all’osservazione dei fenomeni, per cercare di dar loro una spiegazione. Ma è stato solo a partire dalla seconda metà del XVII secolo che si è cominciato ad adottare un metodo più rigoroso e logico, il cosiddetto metodo scientifico. Le indagini condotte in questa maniera prevedono cinque fasi successive (fig.1.1): A. La teoria iniziale. Teorie sociali per spiegare un determinato fenomeno. Su fenomeni di natura sociale, come ad esempio la delinquenza o l’aggressività dei minori, si possono elaborare teorie generali e che possono essere verificate sulla base al riscontro dei dati raccolti. Esempio: la teoria che mette in relazione la delinquenza giovanile con l’ambito di provenienza sociale del minore (Hirschi, 1969). In questo modo si mettono a confronto la “genetica” e l’ambiente in cui il soggetto vive.

B. Formulazione delle ipotesi. Per qualche aspetto particolare della teoria risulta utile formulare specifiche ipotesi. Ad esempio, Hirschi ipotizza che i bambini collegati ad ambienti con valori classici sono meno delinquenti. Ossia si ipotizza un legame tra i concetti: a) società convenzionale e valori convenzionali; b) delinquenza giovanile.

C. Rilevazione dei dati. I concetti devono diventare numeri, ossia si deve essere in grado di quantificare il fenomeno che si sta osservando. Come? Ad esempio, nel caso sopra proposto somministrando dei questionari a dei soggetti selezionati secondo dei criteri definiti a priori (indagine sperimentale). a. b.

Questionari ai bambini (che tipo di scuola frequenti? Che tipo di famiglia?.....) per capire l’ambiente da cui derivano. Questionari per vedere gli atti “criminali” cui hanno assistito o hanno partecipato

Un’altra via può essere quella della rilevazione esterna. Si osserva “dal di fuori” il fenomeno allo studio, analizzo, ad esempio, i dati bibliografici che ho a disposizione (indagine storica). D. Definizione di una metodologia per analizzare i dati. E. Analisi ed interpretazione dei risultati. F. Conclusioni utili a validare o no le ipotesi iniziali. Si parte perciò dall’osservazione del fenomeno e si cerca di individuare eventuali rapporti di causalità tra variabili che apparentemente possono sembrare indipendenti tra di loro. Una volta definite quali può essere la teoria che spiega il fenomeno osservato, si predispone un disegno sperimentale, cui fa seguito un esperimento. Dall’analisi dei risultati possiamo scegliere se validare o no l’ipotesi di partenza.

Schematizzando: OSSERVAZIONE DEL FENOMENO

TEORIA

IPOTESI ESPLICATIVA

MISURA DEI CONCETTI

SELEZIONE DEI RISPONDENTI/PARTECIPANT I

DISEGNO SPERIMENTALE

INDAGINE STORICA (dati statistici/questionari/interviste)

ESPERIMENTO (gruppo sperimentale)

RACCOLTA DATI

ANALISI DEI DATI

RISULTATI

CONCLUSIONI

Figura 1.1 Il metodo scientifico

Criteri per definire rapporti di causalità tra le variabili Nello schema riportato in fig.1.1 viene riportato il processo teorico della ricerca. Uno dei principali scopi della ricerca è quello di definire rapporti di causalità tra le variabili, ossia valutare eventuali rapporti causa-effetto.

Qui si seguito vengono riportati alcuni esempi di rapporto causa-effetto tra variabili nominalmente indipendenti. CAUSA



EFFETTO

Fumo Violenza in TV Martellante pubblicità su diversi media Presenza di una centrale atomica Condizioni climatico-vegetazionali

    

Malattie cardiovascolari, cancro ai polmoni Comportamento violento dei bambini Aumento delle vendite dei prodotti Aumento delle malattie tipo cancro Predisposizione di un territorio agli incendi

A cosa serve definire questo tipo di relazione? Molteplici sono le utilità che possono derivare da una definizione precisa del rapporto causa-effetto. Riferendosi agli esempi di cui sopra si può pensare a:  Politica di prevenzione del comportamento “sbagliato”, fumo, ossia ridurre gli effetti partendo dalle cause (legge Sirchia sul fumo)  Cambiamenti della programmazione della TV  Strategia di marketing  Corretta pianificazione territoriale  …………………………. Giova però ricordare che la variabile dipendente (la malattia, il comportamento dei bambini o l’aumento del numero delle vendite…) non è mai completamente influenzata dalla variabile indipendente (il fumo, la violenza in TV o la pubblicità martellante), o almeno non unicamente da quella. Dalla difficoltà di stabilire in modo netto queste correlazioni, a causa dell’elevato numero delle variabili in gioco, nasce la difficoltà nel dimostrare la validità dei modelli teorici che vengono proposti. Allo scopo di definire un rapporto di causalità devono verificarsi tre condizioni. 1. Prima di tutto deve esistere una relazione almeno apparente tra le due variabili in gioco. Questo significa che la distribuzione dei dati relativi ad una variabile influenza in qualche modo la distribuzione dell’altra variabile. Come si può verificare nella tabella pubblicità-acquisti, si nota ad esempio che il numero dei minuti di pubblicità sembra influenzare il numero degli acquisti di un prodotto. Esempio. a. Gruppo 1 2 3 4 5 6 7 8 9 10

Esistenza di una relazione apparente tra due variabili Minuti pubblicitari per settimana 9’ 30’’ 9’ 15’’ 8’ 45’’ 8’ 25’’ 8’ 00’’ 5’ 50’’ 5’ 10’’ 4’ 55’’ 4’ 30’’ 4’ 00’’

n. acquisti 9 8 7 7 6 4 4 5 3 3

Questo può essere un esempio di una relazione non perfetta tra la variabile “minuti di pubblicità alla settimana” e la variabile “n. di acquisti”. Questo è il classico esempio di relazione “non perfetta”.

2. Secondo, bisogna dimostrare che la relazione non sia “spuria”, ossia non sia falsa. Questo significa che si dovrebbe essere in grado di controllare eventuali variabili “esterne” all’esperimento. Un esempio può essere il seguente: si è notato che persone con un elevato grado di istruzione trovano più facilmente lavoro. Però, in questo caso bisogna tenere conto della variabile età: difatti persone più giovani hanno un grado più elevato. Ma trovano lavoro facilmente perché sono maggiormente istruite o perché sono giovani? Bisogna dimostrare che la relazione non sia “spuria”.

Lavoro

Grado di istruzione

Età 3. Terzo, bisogna essere certi che la causa preceda l’effetto, il cosiddetto “time order”. Con un esempio, l’aggressività dei bambini potrebbe essere spiegata dal fatto che vedono programmi alla TV particolarmente violenti. Per validare questa ipotesi è necessario analizzare i dati relativi alla popolazione precedentemente all’esperienza “violenza in TV”.

TEORIA DELLA MISURAZIONE Come misurare concetti astratti Nell’analisi statistica, occorre porre sempre molta attenzione alle caratteristiche dei dati. Già la fase dell’esperimento che conduce alla raccolta delle informazioni è un punto fondamentale, poiché da essa dipendono sia i metodi di descrizione, sia i test da applicare. La statistica ha come oggetto di studio il mondo, dalla cui osservazione si parte per elaborare teorie scientifiche o più semplicemente rapporti di causalità tra le variabili. I concetti sono alla base delle ipotesi. Una volta definite quali sono le ipotesi bisogna rendere misurabili i concetti che in qualche modo descrivono ciò che si sta osservando. Le formule che si applicano per studiare i dati raccolti devono però tenere conto della natura delle variabili che si stanno analizzando. «Misurare è assegnare un modello formale ad oggetti ed eventi secondo una regola, una qualunque regola, purchè essa sia consistente » (Stevens, 1946). Il sistema numerico deriva dalla esperienza diretta nella vita, ossia “il sistema numerico deriva dal sistema empirico”. Cosa significa “consistente”? La misura deve rispettare la natura della “cosa” misurata. Esempio: “l’autobus ed il suo numero”. Non posso permettermi di fare operazioni di alcun genere sui numeri degli autobus, che non sono altro che etichette.

Le scale di misura (o livelli di misura) Le scale di misura sono l’applicazione della teoria della misurazione alla realtà studiata. Una prima classificazione, efficace ma grezza, distingue variabili qualitative da quantitative. Si parla di variabili di natura qualitativa, se ci si riferisce ad una qualità del caso statistico (e più in generale della popolazione) che si sta studiando (colore dei capelli, appartenenza ad una etnia, …), o di natura quantitativa, nel caso in cui si stia valutando qualche parametro di natura prettamente quantitativa come l’altezza, il reddito…. Le variabili qualitative o categoriali sono quantificate con conteggi ossia con numeri interi; le variabili quantitative richiedono risposte numeriche e possono essere espresse su una scala discreta. Cosa significa variabile continua o discreta? 1. continua : tra due valori c’è sempre l’intermedio (l’altezza o il peso delle persone.) 2. discreta: tra due valori non c’è l’intermedio (numero di macchine per famiglia, numero di risposte ad un test) Perciò una variabile relativa a un caso statistico può essere : Qualitativa (discreta) Variabile Quantitativa (discreta o continua)

Questa suddivisione, ormai storica nella presentazione ed elaborazione dei dati, è stata però resa più chiara e funzionale dalla classificazione delle scale di misurazione proposta dallo psicologo S.S. Stevens nel 1946, (vedi l’articolo On the theory of scales of measurement, pubblicato su Science, vol. 103, pp.:677-680). Tale classificazione è stata aggiornata nel 1951 con le operazioni statistiche “ammissibili” e in seguito divulgata da S. Siegel, nel suo manuale "Statistica non parametrica" del 1956. Una presentazione ampia e dettagliata può essere trovata pure nell’ultima edizione del testo di S. Siegel e N. J. Castellan del 1988 (Nonparametric Statistics for the Behavioral Sciences, 2nd ed., Mc Graw Hill, New York), tradotto anche in italiano. Prima di entrare nel dettaglio relativamente alla classificazione proposta da Stevens, si riporta di seguito un semplice esempio, per far comprendere come la teoria nasca dall’esperienza quotidiana. Sono alla cassa del supermercato e ci sono tre persone che mi precedono. Noto facilmente che due sono donne e una è maschio. Noto inoltre che una persona è magra, una è “normale”, la terza è grassa. Noto infine che la prima persona spende 20 Euro, la seconda 5 euro e la terza 52 euro. ID A B C

Sesso Femmina Maschio Femmina

Peso Magra Normale Grassa

Conto 20 Euro 5 Euro 52 Euro

Riassumendo i dati che ho raccolto posso affermare quanto segue in merito ai casi statistici (persone) esaminati:   

per quanto riguarda la variabile “sesso”, posso affermare che A=C, ma A≠B e B≠C, ossia posso determinare solo rapporti di uguaglianza o disuguaglianza. per quanto riguarda la variabile “peso” in funzione dei valori che essa assume posso ordinare i casi statistici predisponendo un ordine del tipo C > B > A. infine, per quanto riguarda la variabile “conto”, oltre a poter ordinare chi ha speso di più fino a chi ha speso di meno, posso vedere anche quanto ha pagato A più di B o meno di C.

Dal sistema relazionale empirico (le persone al supermercato)  Consistente ???? al sistema relazionale numerico (le mie misurazioni) Il sistema relazionale numerico deve rispecchiare il sistema relazionale empirico.

I quattro tipi di scale di misura Le misure possono essere, perciò, raggruppate in quattro tipi di scale (o quattro livelli di scala), che godono di proprietà formali differenti ossia ammettono operazioni differenti. Come per tutte le discipline, una scala di misurazione dei fenomeni può essere: 1) nominale (o classificatoria) 2) ordinale (o per ranghi) 3) ad intervalli 4) di rapporti 1. La scala nominale La scala nominale (o classificatoria) è il livello di misurazione più basso. È utilizzata quando i risultati possono essere classificati o raggruppati in categorie qualitative, dette anche nominali ed eventualmente identificate con simboli. I caratteri nominali, detti anche “sconnessi”, costituiscono variabili le cui modalità o attributi non assumono alcun ordine precostituito. In base alle variabili di tipo nominale i casi possono essere solo distinti gli uni dagli altri o associati alla stessa categoria. Ossia gli oggetti sono classificati in categorie discrete, categorie “discretizzate” sulla base delle etichetta. Esempi:  religione  numero di linea dell’autobus  prefissi dei numeri telefonici  gruppo etnico di appartenenza Un caso particolare è quello dei caratteri dicotomici che possono assumere solo due modalità, come il sesso (maschio o femmina). L'attribuzione di numeri per identificare categorie nominali, come avviene per individuare i giocatori nei giochi di squadra o per le linee degli autobus, è solamente un artificio. Ciò significa che non si deve elaborare quei numeri come se fossero reali (ad esempio calcolandone la media). In questo caso il numero associato alla variabile è solamente un simbolo. L’unica operazione ammessa è il conteggio degli individui o dei dati presenti in ogni categoria. I quesiti statistici che possono essere posti correttamente riguardano le frequenze, sia assolute che relative. Sono possibili confronti tra frequenze osservate (es.: "Una classe è significativamente meno numerosa dell’altra?") oppure tra le frequenze osservate e le rispettive frequenze attese sulla base di leggi biologiche, ipotesi od altro (es.: "I risultati ottenuti da un esperimento sulle leggi di Mendel sono in accordo con la sua distribuzione teorica?"). 2. La scala ordinale Nel caso di variabili afferenti alla scala ordinale (o per ranghi), oltre a poterle identificare in modo univoco è possibile ordinarle. Ovvero alla proprietà precedente di equivalenza tra gli individui della stessa classe, si aggiunge una gradazione tra le classi o tra individui di classi differenti.

Con la precedente scala nominale, si ha la sola informazione che gli individui appartenenti a gruppi differenti sono tra loro diversi, ma non è possibile stabilire un ordine. Con la scala per ranghi, le differenti classi possono essere ordinate sulla base dell’intensità del fenomeno. Esempi:  il livello socio-economico  la preparazione di uno studente (insufficiente, sufficiente, buono, discreto, ottimo)  classi di età come giovane, adulto, anziano Questa misura ha un limite fondamentale dato dal fatto che in una scala ordinale, non è possibile quantificare le differenze di intensità tra le osservazioni. Questo vuol dire che per quanto riguarda la preparazione di uno studente la differenza tra buono e ottimo non è quantificabile in termini numerici. La scala ordinale o per ranghi è pertanto una scala monotonica (ossia sempre crescente o sempre decrescente). Alle variabili così misurate è possibile applicare una serie di test non parametrici (test chi quadro); ma non quelli parametrici (test z, test t). In questi casi, non sarebbe possibile utilizzare quei test che fanno riferimento alla distribuzione normale, i cui parametri essenziali sono la media e la varianza, poiché non si possono definire le distanze tra i valori. Tuttavia questa indicazione di massima sulla utilizzazione della statistica non parametrica è spesso superata dall'osservazione che variabili discrete o nominali tendono a distribuirsi in modo approssimativamente normale, quando il numero di dati è sufficientemente elevato. 3. La scala ad intervalli Oltre ad avere le caratteristiche delle scale precedenti, la scala ad intervalli aggiunge la proprietà di misurare le distanze o differenze tra tutte le coppie di valori. Ossia essa possiede la caratteristica di uguaglianza (propria della scala nominale), la caratteristica di ordine (propria della scala ordinale), ed inoltre definisce distanze unitarie per le variabili, in modo tale da poter valutare eventuali differenze tra le variabili. La scala di intervalli si fonda su una misura oggettiva e costante, anche se il punto di origine e l'unità di misura sono arbitrari. Esempi classici di scale ad intervalli sono la temperatura (misurata in gradi Celsius o Fahrenheit, ma non Kelvin) ed il tempo (misurato secondo calendari differenti). Valori di temperatura, oltre a poter essere facilmente ordinati secondo l’intensità del fenomeno, godono della proprietà che le differenze tra loro sono direttamente confrontabili e quantificabili; le date di qualsiasi calendario, non importa se gregoriano, islamico, ebraico o cinese, possono essere tra loro ordinate dalla più antica a quella più recente e le differenze temporali sono misurate con precisione oggettiva. Ma la scala ad intervalli ha un limite, non gode di un'altra proprietà importante nella elaborazione statistica dei dati, quella del rapporto tra coppie di misure. Ad esempio, una temperatura di 80 gradi Celsius non è il doppio di una di 40 gradi. Se una persona ponesse la mano destra in una bacinella con acqua a 80 gradi e la mano sinistra in un’altra con acqua a 10 gradi, non direbbe certamente che la prima scotta 8 volte più della seconda, ma solo che la prima è molto calda e la seconda fredda. In una scala ad intervalli, solo le differenze tra i valori sono quantità continue ed isomorfiche alla struttura dell'aritmetica. Solo per le differenze sono permesse tutte le operazioni: possono essere tra loro sommate, elevate a potenza oppure divise, determinando le quantità che stanno alla base della statistica parametrica.

4. La scala a rapporti La scala di rapporti ha il vantaggio di avere un’origine reale. Sono tipiche scale di rapporti l'altezza, la distanza, la velocità, l'età, il peso, il reddito, la temperatura in gradi Kelvin; più in generale, tutte quelle misure in cui 0 (zero) significa quantità nulla. Ossia queste variabili hanno il vantaggio di avere definito uno “zero assoluto” (come, ad esempio, le risposte giuste ad un test). Non solo le differenze, ma gli stessi valori possono essere moltiplicati o divisi per quantità costanti, senza che l'informazione di maggiore importanza, il rapporto tra essi, ne risulti alterata. Alle variabili misurate con una scala di rapporti, il tipo di misurazione più sofisticato e completo, può essere applicato qualsiasi test statistico. Possono essere utilizzati anche la media geometrica ed il coefficiente di variazione, i quali richiedono che il punto 0 (zero) sia reale e non convenzionale.

Nominale Ordinale Intervallare A Rapporto = si si Si Si no si Si Si Intervallo unitario no no Si Si Zero assoluto no no No Si Tabella 2.1 Caratteristiche delle scale

Occorre, perciò, porre estrema attenzione al reale significato da attribuire ai valori numerici che vengono utilizzati. Si possono avere numeri che apparentemente hanno le stesse caratteristiche, ma che in realtà richiedono elaborazioni diverse ed impongono il ricorso a test differenti, per rispondere ai medesimi quesiti. Questo significa, ad esempio, che non potendo fare elaborazioni come somma o differenza per variabili di tipo ordinale, non possiamo elaborare la media aritmetica per variabili di questa natura.

Schematizzando si può affermare quanto riportato in tab.2.2.

VARIABILE

DISCRETA

QUALITATIVA

NOMINALE/ORDINALE

QUANTITATIVA

CONTINUA

INTERVALLARE/A RAPPORTO

Tabella 2.2 Schema della possibile natura delle variabili.

View more...

Comments

Copyright © 2017 DOCUMEN Inc.