(#384). MEJOR UN SÓLO ITEM QUE VARIOS PARA MEDIR ACTITUDES

[REVISIÓN DE ARTÍCULO] En este artículo publicado en el Journal of Advertising Research, los autores analizan los resultados de 189 estudios en el ámbito de la publicidad para concluir que las medidas de un sólo ítem son equivalentes a las de múltiples ítemes.

Como indican los autores, un gran número de académicos apuesta por medir los constructos con múltiples ítemes, en una especie de ritual que a veces carece de la reflexión adecuada sobre lo que realmente se está midiendo. Añadir ítemes con el fin de analizar su consistencia interna (como medida de fiabilidad) es perjudicial si ello perjudica a la propia validez de la medición. Y como bien sabemos los investigadores aplicados, agrandar las encuestas con baterías de preguntas interminables trae consecuencias desastrosas.

Por tanto, ¿por qué realizar 4 o 5 preguntas parecidas para medir un concepto que sería claramente indicado con una sóla? Los autores repasan posturas en la literatura que así lo atestiguan. Si el constructo es unidimensional (y en realidad un concepto complejo se puede desgranar unidimensionalmente) y hay cierta concreción respecto a lo que se está evaluando, las medidas de un sólo ítem son perfectamente adecuadas.

“Estoy satisfecho con este producto”, sería un indicador válido de la satisfacción. ¿Por qué entonces apabullar con una batería de ítemes del estilo: “me gusta este producto”, “el producto me hace feliz”, “el producto ha superado mis expectativas”….?

Es cierto que los autores también identifican críticas al respecto. Al fin y al cabo, el nivel de concreción de un constructo es difícil de discernir. La satisfacción del consumidor, por ejemplo, puede tener un significado diferente para cada participante en un estudio. Pero eso es consustancial con cualquier concepto psicológico similar, como la percepción de calidad, el valor percibido, la confianza, etc. Los autores no comentan esta apreciación, simplemente se ciñen a que el atributo evaluado posea un significado singular y no ambiguo.

Metodología

Los investigadores examinaron los resultados de 8 metanálisis, representando a 189 estudios con casi 40000 participantes.

Para cada metanálisis, los autores calculaban los tamaños de efecto encontrados en la relación entre las variables independientes y dependientes, y los dividían en función de si habían empleado un sólo ítem o escalas multi-ítem.

Resultados e implicaciones

Los resultados se muestran en la siguiente tabla:

b384_2Como puede observarse, sólo en un metanálisis los resultados fueron significativos (los tamaños de efecto entre ambos procedimientos diferían). Los autores también encontraron que la longitud de las escalas multi-ítem tampoco influía en los resultados.

Por tanto, medir las actitudes de los consumidores con un sólo ítem produce resultados análogos a medir con varios ítemes, pero tiene la ventaja de disminuir los costes de recogida de datos y producir una menor amenaza a la validez de estos.

Limitaciones/Comentarios

No sólo en el ámbito del marketing, sino también en la campo más especializado de la metodología en ciencias sociales hay voces que se han alzado en contra del aparente sinsentido de medir un constructo con varios indicadores cuando se podría hacer perfectamente con uno. Leslie Hayduk lo lleva defendiendo en el ámbito de las ecuaciones estructurales desde hace décadas (1 o 2 indicadores por variable latente)

Cualquiera que haya diseñado cuestionarios y hecho trabajo de campo sabe que las encuestas crean automáticamente rechazo, y que no es lo mismo responder a una encuesta de 5 preguntas que a una de 25. Si se define bien el concepto latente a través de un observable, no hay necesidad de marear al encuestado con diferentes formas de decir lo mismo. Es más, la validez es muy probable que se vea amenazada por diferentes sesgos (aquiescencia, cansancio, aprendizaje…).

Quizá la limitación más importante de este estudio reside en la propia comparación que hacen los autores. Si emplear múltiples ítemes afecta a la validez de los resultados, no se pueden usar estos entonces como criterio para comparar con las medidas de un sólo ítem. Y si se admite la validez de ambas aproximaciones, entonces habría que asumir que todos los sesgos anteriormente mencionados relacionados con cuestionarios largos no son relevantes. Y este es un asunto importante que los autores no mencionan, pero que pone un poco en cuestión la calidad de este artículo.

LEE EL ARTÍCULO ORIGINAL AQUÍ

Ang, L. & Eisend, M. (2017). Single versus multiple measurement of attitudes. A meta-analysis of advertising studies validates the single-item measure approach. Journal of Advertising Research, doi: 10.2501/JAR-2017-001

Indicadores de calidad de la revista*

  Impact Factor (2014) Cuartil Categoría
Thomson-Reuters (JCR) 2.328 Q2 BUSINESS
Scimago (SJR) 0.87 Q1 COMMUNICATION

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#380). ÍNDICES APROXIMADOS FLEXIBLES EN ECUACIONES ESTRUCTURALES

[REVISIÓN DE ARTÍCULO] En este artículo publicado en el Journal of the Academy of Marketing Science, los autores proponen desterrar definitivamente los umbrales para índices aproximados en ecuaciones estructurales, y a cambio emplear una perspectiva flexible, basada en los resultados de simulaciones para las condiciones de cada modelo especificado.

Esos índices aproximados no son test estadísticos como tal, porque su distribución es desconocida bajo la hipótesis nula, y los valores de corte se toman como criterio para decidir acerca de la validez del modelo.

Sin embargo, y como indican los autores, existe literatura convincente que especifica que tomar esos criterios de corte sin considerar las características propias de cada modelo (tamaño de muestra, grados de libertad, número de indicadores, etc.) puede producir resultados que contaminen esa capacidad de los índices aproximados para identificar modelos correctos y rechazar falsos.

Lo que plantean los autores es construir distribuciones empíricas para una multitud de formas de modelos de ecuaciones estructurales, y a través de esa distribución empírica (tras realizar cientos de simulaciones), reportar unos índices aproximados con criterios de corte flexibles para cada caso.

Un “no” a la chi-cuadrado

Los autores se posicionan claramente en contra respecto a las visiones de la idoneidad de confiar únicamente en el ajusto vía test de la chi-cuadrado, como hemos visto en otras entradas del blog. Para ellos, las limitaciones de la chi-cuadrado asociadas a su sensibilidad al tamaño de la muestra es motivo más que suficiente para no considerarla como índice de ajuste.

Los autores, sin embargo, argumentan también que el tamaño de la muestra, el tamaño del modelo, el modelo demedida, el tipo de modelo, y la normalidad de la distribución de datos afectan también a los índices aproximados. Esa es la razón por la cual no deben establecer criterios de corte univeresales.

Metodología

Los autores realizan 3 estudios de simulación Monte Carlo, pero lo hacen sólo con modelos de análisis factorial confirmatorio (CFA). Y esto es importante, porque aunque enfatizan que el CFA es más empleado que el resto de modelos causales, están obviando una parte esencial de la utilidad de SEM, la que para algunos autores como Leslie Hayduk es la principal.

Así, los autores configuraron 13851 modelos de CFA con diferentes combinaciones de cargas factoriales, tamaños de muestra, número de variables latentes e indicadores, así como la desviación de la normalidad.

Resultados e implicaciones

Los autores apuestan por el SRMR (como primera opción), CFI, TLI y RMSEA como segunda, en un enfoque de combinación de varios índices ya que todos tienes limitaciones. Concretamente, recomiendan el uso del SRMR (más sensible a la mala especifiación en el modelo estructural), junto a uno de los otros 3 mencionados (más sensibles a la especifiación en el modelo de medida).

Así, cualquier investigador interesado en esta propuesta puede emplear la web www.flexiblecutoffs.org, y especificar los datos de su propio modelo, obteniendo unas recomedaciones sobre los valores de corte de los índices aproximados comentados.

Limitaciones/Comentarios

Los autores reconocen que su propuesta no es sobre la idoneidad de los índices aproximados, sino sobre la estipulación de criterios de corte universales. Es decir, las limitaciones de cada índice aproximado siguen estando ahí, independientemente de que se adopte esta perspectiva flexible.

Sin embargo, es interesante el recorrido que hacen por la literatura que argumenta que los índices aproximados se ven afectados por características del modelo que no están relacionadas con la mala especificación. Su primer estudio, también ofrece resultados consistentes con este hecho.

Los autores separan el modelo de medida del modelo estructural pero no discuten el hecho de que en ambos se especifican relaciones causales. Por tanto, incluso un CFA tiene relaciones causales explicitadas en la relación entre las variables latentes y sus observables. Desde ese punto de vista, la distinción puede resultar engañosa y ocultar problemas mayores, como que los investigadores separen ambos modelos (en el típico test en 2 pasos, primero CFA y luego el modelo causal entre variables latentes), cuando el planteamiento de un modelo es global, integrando la medición observable junto con la causalidad entre latentes.

En definitiva, una propuesta relevante que puede ayudar a investigadores a interpretar mejor los análisis factoriales confirmatorios, pero que obvia el papel del test de la chi-cuadrado al considerarlo muy limitado por su dependencia al tamaño muestral, lo que choca con otras posturas ya comentadas en este blog.

LEE EL ARTÍCULO AQUÍ

Niemand, T. & Mai, R. (2018). Flexible cutoff values for fit indices in the evaluation of structural equation models. Journal of the Academy of Marketing Science, doi:10.1007/s11747-018-0602-9.

Indicadores de calidad de la revista*

  Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 8.488 Q1 BUSINESS
Scimago (SJR) 4.614 Q1 MARKETING

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#365). BÁSICOS DE ECUACIONES ESTRUCTURALES (V): MATRIZ DE DATOS BRUTOS

[MONOTEMA] En esta quinta entrega, vamos a explicar en qué consiste la matriz de datos brutos que debemos emplear como entrada para realizar los análisis, que no es más que la matriz de covarianzas entre todos los observables de la muestra. Esa matriz se suele denominar como S.

El profesor Leslie A. Hayduk, explica perfectamente en su libro de 1987 cómo se construye esa matriz (pp. 62-63). Lo que quizá llame la atención a los estudiantes es que esa matriz de entrada no es una matriz de n x m, es decir casos en filas y m variables en columnas, que es el tipo de disposición habitual para realizar un análisis de regresión por mínimos cuadrados, por ejemplo, donde debemos especificar las puntuaciones de cada caso en cada variable.

Aquí no es así. Y no lo es porque, como ya hemos explicado en capítulos anteriores, las relaciones entre los coeficientes de los modelos se pueden obtener a partir de las covarianzas directamente. Obviamente, las covarianzas se construyen desde los datos individuales, pero no necesitamos especificarlos en SEM.

Si partimos de una matriz X de n filas y m columnas (casos x variables), podemos construir la matríz X’X, donde X’ es la transpuesta de X. La matriz X’ es de dimensión m x n. De este modo, la matriz resultante es una matriz de m x m, es decir, una matriz cuadrada donde sólo hay relaciones entre las variables observables.

Esas relaciones son relaciones de covarianza cuando se divide esa matriz resultante por n, es decir, S=Cov(X’X)=(X’X)/n. Eso es así porque recordemos que los datos estaban tomados en desviaciones sobre la media, y que por tanto la multiplicación de las dos matrices da una suma de cuadrados. La matriz S es simétrica, y en la diagonal están las varianzas de los observables.

Ejemplo con Stata

Vamos a realizar una entrada manual de datos en Stata a través de una matriz de 3 casos x 2 variables, muy sencillo por tanto.

/*Generamos la matriz, primero metiendo las filas y después las columnas*/
matrix input X = (3,2\1,0\0,1)
/*Le pedimos un listado para asegurarnos que los datos están como queremos*/
matrix list X
/*Calculamos la matriz traspuesta*/
mat Xtraspuesta=X’
/*Le pedimos un listado para asegurarnos que los datos están como queremos*/
matrix list Xtraspuesta
/*Multiplicamos ambas matrices, y nos da una suma de cuadrados*/
mat sumcuad=X’*X
/*Le pedimos un listado para asegurarnos que los datos están como queremos*/
matrix list sumcuad
/*Dividimos la suma de cuadrados por el tamaño de la muestra (3 casos)*/
mat covar=sumcuad/3
/*Y le pedimos un listado para ver la matriz de covarianzas, que es la matriz S de datos brutos*/
matrix list covar

De este modo, por muy grande que sea el número de casos, nuestra matriz de datos brutos siempre tendrá el tamaño de m x m variables observables.

Dos cosas importantes a considerar son: (1) Los datos de entrada están en desviaciones con respecto a la media. Es decir, los vectores de datos el ejemplo con Stata [3,1,0] y [2,0,1] son datos en desviaciones sobre la media. Si no lo están, basta con hacer ese cálculo previo para seguir con el procedimiento indicado; (2) De momento no vamos a considerar ni la posibilidad de incluir en la matriz de entrada los valores medios, ni la ocurrencia de casos perdidos (ambos temas de índole más avanzado).

El efecto del tamaño de muestra

Aunque usemos una matriz de covarianzas, el tamaño de la muestra, es decir, el número de casos, es fundamental. Quizá se pueda pensar que el tamaño muestral no importa si dos matrices de covarianzas son iguales cuando provienen de muestras de tamaño diferente (lo que puede suceder perfectamente).

Pero sí que importa, porque esas covarianzas estarán mejor estimadas si provienen de muestras más grandes. Para comprobar empíricamente esta cuestión, vamos a ejecutar el siguiente código:

/* Borrramos lo anterior */
clear
/* Generamos una muestra aleatoria Normal (500 casos) con media 0 y varianza=1*/
drawnorm x1, n(500)
/* Ahora dividimos la muestra en 10 grupos diferentes*/
gen g1=1 in 1/50
gen g2=2 in 51/100
gen g3=3 in 101/150
gen g4=4 in 151/200
gen g5=5 in 201/250
gen g6=6 in 251/300
gen g7=7 in 301/350
gen g8=8 in 351/400
gen g9=9 in 401/450
gen g10=10 in 451/500
/* Generamos la desviación típica para cada uno de los grupos*/
egen SD = sd(x1), by(g1 g2 g3 g4 g5 g6 g7 g8 g9 g10)
/* Convertimos esas desviaciones típicas en varianzas*/
gen varianza=SD*SD
/* Listamos el primer valor de cada grupo, generando las 10 varianzas diferentes*/
list var in 1
list var in 51
list var in 101
list var in 151
list var in 201
list var in 251
list var in 301
list var in 351
list var in 401
list var in 451
/* Obtenemos la varianza de la muestra de 500 casos y así podemos compararla con las obtenidas para las submuestras*/
sum x1, detail

Lo que hemos hecho es un simple ejercicio de simulación donde podemos ver que, siempre que corremos el código, la varianza de la muestra de 500 casos es muy cercana a 1. Sin embargo, en los 10 subgrupos esa varianza puede oscilar mucho, pudiendo obtener varianzas muy cercanas pero también muy lejanas a 1.

Por tanto, aunque la varianza de la población sea realmente 1, escoger muestras pequeñas puede hacer que algunas varianzas (y también covarianzas) de la matriz S disten mucho de su valor real, lo que a su vez puede distorsionar la comparación que ha de hacerse con la matriz implicada por el modelo (que explicaremos en capítulos posteriores).

Conclusión

La matriz de entrada en SEM es una matriz cuadrada de covarianzas de las variables observables, donde en la diagonal están las varianzas,y que además es simétrica. Esa matriz se denomina S, y está sujeta a la inherente variabilidad muestral.

Tamaños de muestra pequeños pueden distorsionar de forma importante esta matriz, por lo que aunque el número de casos no esté explícitamente expresado en S, es fundamental para que S sea válida. Es cierto que, en algunas ocasiones SEM puede funcionar bien con muestras relativamente pequeñas, pero probablemente sea arriesgarse demasiado.

Todos los posts relacionados




(#358). BÁSICOS DE ECUACIONES ESTRUCTURALES (IV): REGRESIÓN LINEAL SIMPLE CON FIABILIDADES DIVERSAS

[MONOTEMA] En esta cuarta entrega, vamos a pasar del modelo de dos variables correlacionadas a un modelo de regresión en el que una se postula como causa de la otra.

La especificación gráfica se muestra en la Figura 4.1.

Figura 4.1. Modelo de regresión entre dos variables latentes

Como puede apreciarse, la Figura 4.1 es una pequeña variación de la Figura 3.1. Las ecuaciones son las mismas, salvo que ahora la relación entre Z1 y Z2 es planteada como causal. Esto indica que existe covarianza entre las dos variables (como en la Figura 3.1), pero ahora esa covariación se produce porque hay una dependencia entre ambas. Variaciones en Z1 influyen en Z2, pero variaciones en Z2 no influyen en Z1.

La relación entre Z1 y Z2, de este modo, debe ser planteada así:

Todas estas expresiones representan la relación de dependencia entre Z1 y Z2, asumiendo (como hemos hecho hasta ahora) que el error ε1 es ruido blanco y que Cov(ε1Z1)=0.

Como vimos en el tercer capítulo, a través de las covarianzas observadas podemos llegar a esta expresión:

que escalando a 1 las variables latentes y especificando una covarianza nula entre los errores observables, se simplifica a:

Por tanto, realmente la estimación de la covarianza entre las variables latentes es la misma aunque el modelo pase de ser “correlacional” a “causal”

Para estimar el coeficiente estructural Gamma1 (,) que es el que muestra el peso que tiene la causa Z1 sobre el efecto Z2, sólo necesitamos conocer Var(Z1), que como hemos comentado ya en anteriores capítulos, depende del observable z1:

Usando una escala unitaria, vemos que Var(Z1)=Var(z1)-Var(e1), es decir, la varianza de la variable latente depende de nuestra especificación de la fiabilidad del observable. A medida que la fiabilidad aumenta, Var(e1) disminuye, con lo que Var(Z1) aumenta, y disminuye. Y, de manera opuesta, a medida que la fiabilidad disminuye, Var(e1) aumenta, con lo que Var(Z1) disminuye, y aumenta.

Por tanto, si la fiabilidad es perfecta (100%), Var(Z1)=Var(z1), y el coeficiente de regresión (coeficiente estructural) se estima sin sesgo. Sin embargo, si la fiabilidad no es perfecta (<100%), se produce un inflado de la varianza observable por lo que hay que “corregir” la varianza de la variable latente. De este modo, la estimación del coeficiente depende de la especificación de la fiabilidad de z1, es decir, de la varianza del observable que actúa como causa.

Ejemplo con Stata

Vamos a realizar un ejemplo empleando la misma matriz de covarianzas que en la  Figura 3.1, y con fiabilidades perfectas, sin error de medida en los observables.

/*Generamos la matriz de covarianzas deseada*/
matrix D=(2, .8 \ .8, 1)
/*Creamos 400 observaciones para cada una de las variables z1 y z2*/
corr2data z1 z2, n(400) cov(D)
/*Realizamos un rápido descriptivo de las variables*/
sum
/* Analizamos la normalidad univariante y multivariante*/
swilk z1 z2
mvtest normality z1 z2
/* Hacemos una regresión lineal simple y luego una regresión sin término constante*/
regress z2 z1
regress y2 z1, no constant
/*Especificamos el modelo SEM con las restricciones sobre las medias, varianzas y parámetros deseados*/
sem (Z2 <- _cons@0, ) (Z2@1 -> z2, ) (z1 <- _cons@0, ) (z2 <- _cons@0, ) (Z1 -> Z2, ) (Z1@1 -> z1, ), latent(Z2 Z1 ) cov( e.z1@0 e.z2@0 Z1@2) means( Z1@0) nocapslatent

Los resultados que provee Stata son sencillos de interpretar. En la Figura 4.2 vemos los estadísticos descriptivos de las variables observables, ambas con media cero y con varianzas 2 y 1, respectivamente. Los datos se han generado para que esas variables estén normalmente distribuidas, tal y como muestra el test de Shapiro-Wilk, y además multivariantemente distribuidas, como indica el test de Doornik-Hansen. Veremos más adelante la importancia de estos aspectos de las distribución.

Figura4.2

Figura 4.2. Estadísticos descriptivos y test de normalidad de los observables

En la Figura 4.3 hemos realizado una regresión lineal simple entre los observables. En el primer caso se estima también un término constante, pero vemos que es cero (o prácticamente cero debido a la inherente variabilidad muestral). Recordemos que tenemos las variables estandarizadas, y como explicamos en su momento esto hace que el término constante o intercept en los modelos de regresión sea cero. El coeficiente de regresión estimado es 0.4. De interés también es el valor de 0.6817, que es el cociente entre la suma de cuadrados de los residuos (SS) y los grados de libertad (df). Como los datos están centrados sobre la media, la suma de cuadrados de los residuos dividido por el tamaño de la muestra menos 1 (n-1) es similar a la varianza del error. Como hay 398 grados de libertad, ese valor es de 0.6817 es prácticamente idéntico al de la varianza del error: 0.68, que es precisamente el resultado que obtenemos cuando no estimamos el término constante y sumamos un grado de libertad adicional. Esa diferencia en el denominador (dividir por los grados de libertad o dividir por n-1) es la diferencia entre el “Adj R-squared” y el “R-squared”, que son medidas de la capacidad explicativa del modelo. Así, a mayor varianza de error, menor “R-squared”, es decir, menos varianza de la variable dependiente explica nuestro modelo. Por ahora, es lo que necesitamos saber.

Figura4.3

Figura 4.3. Regresión lineal simple entre los observables

En la Figura 4.4. testamos el modelo SEM. Ahora no empleamos la estimación por mínimos cuadrados ordinarios como en el anterior análisis, sino la de máxima verosimilitud. Consideramos las fiabilidades de los observables como perfectas, por lo que no existe varianza de error para z1 y para z2. Esto nos lleva a una estimación prácticamente idéntica. El coeficiente estructural es 0.4, y la varianza de error de Z2 es 0.6783

Figura4.4

Figura 4.4. Modelo de regresión SEM con fiabilidades perfectas

Pero la real utilidad de SEM proviene cuando tenemos en cuenta los errores de medida. En este caso, fijamos la fiabilidad al 90% en ambos observables, z1 y z2.

/*Especificamos el mismo modelo SEM anterior, pero con fiabilidades al 90%*/
sem (Z2 <- _cons@0, ) (Z2@1 -> z2, ) (z1 <- _cons@0, ) (z2 <- _cons@0, ) (Z1 -> Z2, ) (Z1@1 -> z1, ), latent(Z2 Z1 ) cov( e.z1@0.2 e.z2@0.1 Z1@1.8) means( Z1@0) nocapslatent

Y ya los resultados cambian de manera ostensible (Figura 4.5). Ahora el coeficiente de regresión es 0.44 y no 0.4, y la varianza de error de Z2 es de 0.54 y no 0.68. Es decir, teniendo en cuenta que existe el error de medida, hemos estimado un modelo en el que el tamaño del efecto es mayor (cómo influye Z1 sobre Z2) y la capacidad explicativa del modelo es mejor. Si no hubiésemos tenido en cuenta el error de medida, las estimaciones habrían estado sesgadas (el tamaño de efecto se habría atenuado).

Figura4.5

Figura 4.5. Modelo de regresión SEM con fiabilidad del 90% en los observables

Rápidamente se puede comprobar que se cumplen las fórmulas que planteábamos al inicio. En el caso de fiabilidades perfectas:

Y en el caso de que la fiabilidad es del 90% en los observables:

Cambio en la fiabilidad de la variable dependiente

Aunque los cambios en la fiabilidad del observable exógeno afectan a la estimación del coeficiente de regresión, no ocurre lo mismo con la fiabilidad del observable endógeno, es decir, de la variable dependiente. De este modo, el tamaño de efecto o coeficiente estructural no depende de la calidad de la medición de la variable dependiente.

Sin embargo, la fiabilidad del observable de la latente que actúa como efecto sí que influye en la estimación de la varianza de error de la variable latente. Un poco de manejo de las ecuaciones que hemos visto lo ilustra sin problema:

No obstante, hemos de indicar también que las fiabilidades de los observables no afectan a la covarianza entre las variables latentes Cov(Z1Z2), siempre y cuando la Cov(e1e2)=0.

Conclusión

Pasar de un modelo correlacional a uno casual implica realizar unas asunciones cualitativas sobre la especificación del modelo en el que unas variables latentes influyen sobre otras. No olvidemos, asimismo, que los modelos de variables latentes correlacionadas también son modelos causales en el sentido de que la variable latente causa variación en los observables. Sin embargo, el uso común de “modelo causal” es cuando esa relación de causalidad se establece entre variables latentes.

En este post hemos visto la importancia de considerar la fiabilidad de los indicadores observables, y como la especificación de ésta en la variable que actúa como causa afecta a la estimación del coeficiente estructural (parámetro de regresión) y a la varianza explicada por el modelo. Las fiabilidades no afectan a la covariación entre las latentes, pero sí que la fiabilidad de la variable endógena incide en la estimación de su varianza de error.

De este modo, queda patente la gran relevancia que tiene la especificación de los errores de medida a la hora de interpretar los resultados de cualquier modelo de investigación. 

Todos los posts relacionados




(#354). BÁSICOS DE ECUACIONES ESTRUCTURALES (III): COVARIANZA Y CORRELACIÓN ENTRE VARIABLES LATENTES

[MONOTEMA] En este tercera entrega de nuestra introducción a SEM, vamos ir avanzando en el modelo simple de variable latente e indicador, planteando un modelo en el que deseamos saber la covarianza entre 2 variables latentes Z1 y Z2.

Para ello, partimos de esta representación gráfica (Figura 3.1), en el que ya conocemos toda la notación y su significado, y donde estamos interesados en hallar  Cov(Z1Z2) y su correlación r(Z1Z2). Recordemos que la correlación es simplemente una covarianza estandarizada, es decir:

Figura 3.1. Modelo de dos variables latentes y dos indicadores sin covariación de errores

Como bien sabemos, sólo observamos z1 y z2, y no las variables latentes, pero podemos conocer Cov(Z1Z2) a partir de la información del modelo. Para ello, practicamos un poco de álgebra.

Cov(z1z2)=E[(z1-E(z1))(z2-E(z2))]=E(z1z2)

ya que los datos están en desviaciones respecto a la media.

Ahora sustimos el valor de z1 y z2 por la ecuación que implican, es decir:

Cov(z1z2)= E[(b1Z1+e1)(b2Z2+e2)]=E(b1b2Z1Z2+b1Z1e2+b2Z2e1+e1e2)

Dado que la esperanza de una suma es la suma de las esperanzas, y sacando fuera las constantes, tenemos:

Cov(z1z2)=b1b2E(Z1Z2)+b1E(Z1e1)+b2E(Z2e1)+E(e1e2)

Y, por tanto:

Cov(z1z2)=b1b2Cov(Z1Z2)+ b1Cov(Z1e1)+b2Cov(Z2e1)+Cov(e1e2)

Como en las asunciones básicas de la ecuación de medición suponemos que el error es ruido blanco y que no está asociado a la variable latente (ver capítulo 2), entonces cov(Ze)=0, y la ecuación anterior se simplifica a:

Cov(z1z2)=b1b2Cov(Z1Z2)+Cov(e1e2)

Y si reordenamos:

Cov(Z1Z2)= [Cov(z1z2)- Cov(e1e2)]/b1b2

De este modo, la covarianza entre las variables latentes depende de la covarianza observada de los datos y de si existe covarianza entre los errores. Ya que, tal y como indicamos, solemos escalar el observable como la variable latente, entonces b1=b2=1, la covarianza entre las variables latentes depende, básicamente, de si especificamos que los errores covarían. Sin embargo, por la propia definición de ruido blanco, tanto e1 y e2 no deben estar asociados, son errores aleatorios en la medición de sus respectivas variables latentes.

Covarianzas entre los errores

Cabe la posibilidad, no obstante, de que pensemos que puede haber algún factor que sistemáticamente afecta a los observables, y que no hemos tenido en cuenta. Ese es, precisamente el significado de la covariación de errores, cuyo esquema se muestra en la Figura 3.2.

Figura 3.2. Modelo de dos variables latentes y dos indicadores con covariación de errores

Es evidente que la covarianza entre las variables latentes va a decrecer con el incremento de la covarianza entre los errores.

Equivalencia con una nueva variable latente

La Figura 3.2 es equivalente a la que mostramos a continuación (Figura 3.3), donde se ha sustituido la covarianza entre los errores por una nueva variable latente M que afecta a los indicadores observables.

Figura 3.3. Modelo equivalente de dos variables latentes y dos indicadores con covariación de errores

Partiendo de las siguientes expresiones:

z1=b1Z1+m1M+e1

z2=b2Z2+m2M+e2

y considerando siempre un escalamiento unitario, es decir, b1=b2=m1=m2=1, llegamos a:

Cov(Z1Z2)= Cov(z1z2)- Cov(Z1M)-Cov(Z2M)-Var(M)

Así, para que haya equivalencia, y mirando las Figuras 3.2 y 3.3:

Cov(e1e2)= Cov(Z1M)+Cov(Z2M)+Var(M)

Es decir, especificar una covariación de errores es equivalente a incluir una nueva variable latente que cause variación en ambos indicadores, y cuyas restricciones de covarianza tienen que ser las especificadas en la ecuación anterior. Dado que, en algunos casos podremos suponer que Cov(ZM)=0, entonces: Cov(e1e2)= Var(M), por lo que realmente podemos ver que especificar una covariación entre errores de los observables es equivalente a admitir que existe una variable latente que afecta a ambos errores por igual, y que cuya varianza es la covarianza de los errores.

Estimación con Stata

Aunque todavía es muy pronto para entender las programaciones de SEM con LISREL y Stata, podemos ir haciendo ya algunos análisis para, simplemente, comprobar a nivel numérico qué sucede con los ejemplos descritos. Insisto en que más adelante explicaré con detalle los códigos, pero ahora lo importante es manejar ejemplos numéricos con lo que acabamos de exponer.

Vamos a crear dos observables z1 y z2, normalmente distribuidos y con 400 casos cada uno. Esas variables tendrán media=0 y varianza 2 y 1, respectivamente. La covarianza entre los observables será de 0.8.

Además, vamos a tomar un valor de fiabilidad del 90%, por lo que la varianza de error de ambos indicadores será un 10% de la varianza observable. Escalaremos unitariamente las variables latentes, y ya podremos estimar el modelo.

/*Generamos la matriz de covarianzas deseada*/
matrix D=(2, .8 \ .8, 1)
/*Creamos 400 observaciones para cada una de las variables z1 y z2*/
corr2data z1 z2, n(400) cov(D)
/*Especificamos el modelo SEM con las restricciones sobre las medias, varianzas y parámetros deseadas*/
sem (Z1@1 -> z1, ) (z1 <- _cons@0, ) (Z2@1 -> z2, ) (z2 <- _cons@0, ), covstruct(_lexogenous, diagonal) latent(Z1 Z2 ) cov( Z1@1.8 Z1*Z2 e.z1@0.2 Z2@0.9 e.z2@0.1) nocapslatent

Como puede verse en la salida de Stata, Cov(Z1Z2)=0.80 con un intervalo de confianza al 95% IC95%= (0.72 ; 0.88). Por tanto, la covarianza entre las variables latentes tiene el valor que esperábamos, ya que es el valor de la covarianza entre los observables, porque hemos especificado que la covarianza entre los errores sea cero.

Sin embargo la correlación entre las variables latentes no es r=0.57 como sí que lo es entre las variables observables, sino r=0.63, ya que las varianzas de las variable latentes son menores que las observables y, por ende, la correlación resultante es mayor. Por tanto, el error de medida ha atenuado el verdadero valor de la correlación, y esto es un tema muy a tener en cuenta en posteriores análisis.

Si ahora planteamos en el modelo que existe una covariación entre los errores: Cov(e1e2)=0.25, entonces podemos programar el siguiente modelo:

/*Especificamos el modelo SEM con las restricciones sobre las medias, varianzas y parámetros deseadas, añadiendo la covarianza entre los errores como un valor fijo*/
sem (Z1@1 -> z1, ) (z1 <- _cons@0, ) (Z2@1 -> z2, ) (z2 <- _cons@0, ), covstruct(_lexogenous, diagonal) latent(Z1 Z2 ) cov( Z1@1.8 Z1*Z2 e.z1@0.2 e.z1*e.z2@0.25 Z2@0.9 e.z2@0.1) nocapslatent

Vemos que Cov(Z1Z2)=0.55, IC95%=(0.47 ; 0.63), es decir, y como era de esperar la covarianza de las variables latentes se reduce (pasa de 0.80 a 0.55).en la cantidad de la varianza de error de los observales (0.25)

La correlación r=0.43, que es menor que la correlación estimada cuando no existía covarianza entre los errores.

Conclusión

La covarianza y correlación entre variables latentes depende de la estructura de errores de los observables que planteemos en el modelo. No tener en cuenta la fiabilidad de los datos atenúa el coeficiente de correlación entre las variables de interés, que recordemos no son los observables sino las variables latentes.

Considerar además una covarianza de error, reduce la covarianza entre las latentes, y también el coeficiente de correlación.

Todos los posts relacionados




(#353). BÁSICOS DE ECUACIONES ESTRUCTURALES (II): VARIABLES LATENTES Y FIABILIDAD

[MONOTEMA] En este segundo paso en nuestra introducción a conceptos básicos de SEM, vamos  a explicar el concepto de variable latente y las implicaciones que tiene para la partición de la varianza observable, lo que a su vez nos llevará a discutir sobre la fiabilidad de los datos.

Variable latente

Una variable latente Z es, por definición, no observable directamente, por lo que se manifiesta a través de algún observable z, que usualmente es llamado indicador. Es fácil deducir la siguiente ecuación:

z=bZ+e

donde b es el coeficiente estructural (a veces llamado “peso”) que define la escala del observable con respecto a la variable latente, y e es el error inherente a tener una observación que puede ser una simplificación de Z (porque es un término muy abstracto y complejo de aproximar), o porque, por ejemplo, haya errores de codificación o de registro en la recogida de datos. Este último hecho es esencial para entender qué significa que exista un error de medida y nos hace ver que todas las variables que manejemos pueden considerarse latentes porque, aunque sean variables aparentemente sencillas  (ej. sexo, edad), siempre pueden estar sujetas a error en el proceso de recogida y preparación de los datos.

Ahora podemos tomar esperanzas y varianzas para ver qué ocurre con la ecuación anterior:

E(z)=bE(Z)+E(e); 0=b(0)+0

Var(z)=b2Var(Z)+Var(e)

Si estamos manejando ya datos en desviaciones con respecto a la media como hablamos en el capítulo 1, no nos deben sorprender esos resultados.

La forma de representar gráficamente esta relación sigue unas normas muy sencillas. Con círculos u ovoides se representan las variables latentes y con cuadrados o rectángulos los indicadores observables. La relación entre esas variables viene determinada por flechas que tienen un sentido causal, es decir, apuntan desde la causa hasta el efecto, desde donde se produce el cambio hasta donde se manifiesta dicho cambio (ver Figura 2.1).

Figura1

Figura 2.1. Esquema básico de variable latente y observable

Como se aprecia en la Figura 2.1, el error e es también una variable latente, porque realmente no lo observamos, pero sabemos que existe. Y el sentido de las flechas es capital; ambas variables latentes afectan causalmente al indicador observable, ya que el cambio en ellas se manifiesta en un cambio en el indicador.

Así, si el error se mantiene constante y Z crece, también crece z en función del peso que tenga b. Y si Z se mantiene constante, z puede variar en la medida que lo haga el error de medición. Ese error de medición hemos supuesto que es ruido blanco, es decir, se considera aleatorio, por lo que no sesga el observable, sino que cuando se realizan muchas medidas, los errores se compensan, y de ahí que su esperanza matemática sea cero.

Aunque parezca una asunción fuerte, realmente no lo es. Si sospechamos que existe algún tipo de error sistemático en lugar de aleatorio siempre se puede incorporar al modelo. Por ejemplo, si z es la edad que medimos en una muestra de consumidores, es posible que el error e no sea aleatorio porque haya un grupo de personas que digan a la baja su edad (sesgo de presentación favorable). Pero este hecho se puede fácilmente modelar en SEM, de la siguiente manera (Figura 2.2.):

Figura 2

Figura 2.2. Esquema básico de variable latente y observable con un sesgo sistemático

De este modo, la ecuación quedaría así:

Var(z)=b2Var(Z)+m2Var(M)+Var(e)

Es decir, hemos introducido una nueva variable latente M, que influye con un peso m en el observable z, y que tiene en cuenta el sesgo producido por la presentación favorable. Así, seguiríamos manteniendo e como ruido blanco, y tendríamos un modelo que contemplar una causa adicional a la variación del observable z.

Fiabilidad

Pero estamos todavía muy al comienzo de la andadura en SEM, y debemos ir resolviendo las cuestiones más sencillas antes de las más complejas.

Volvamos, por tanto, a la ecuación básica:

Var(z)=b2Var(Z)+Var(e)

Hemos partido la varianza observable en la varianza real Var(Z) más la varianza de error Var(e). Recordemos que las varianzas siempre son positivas.

Si Var(e)=0, significa que la varianza observable es igual a la varianza de error, siempre que se midan en la misma escala, es decir, b=1. Por medir en la misma escala nos referimos a que si estamos midiendo la variable latente está en metros, el indicador observable lo vamos a medir en metros, o si está en una escala de 0 a 10, el observable lo vamos a medir en una escala de 0 a 10. Es algo muy recomendable que escalemos siempre con b=1, ya que esto nos evita de cometer muchos errores innecesarios.

De este modo, si Var(e)=0, los datos son totalmente fiables, en el sentido de que no hay error de medida, por tanto la fiabilidad es del 100%. Pero claro, una de las ventajas de SEM es que nos permite ser prudentes y admitir en nuestro modelo que puede haber algún error de medida que haga que la fiabilidad no sea del 100%.

¿Pero cómo se mide la fiabilidad cuando hay error de medida? Es sencillo, porque depende únicamente del tamaño relativo de la varianza de error. 

Fiabilidad=1-(Var(e)/Var(z))

O en porcentaje:

Fiabilidad=(1-(Var(e)/Var(z)))100

Por tanto, a medida que la varianza de error se incrementa disminuye la fiabilidad. Es evidente que son preferibles fiabilidades altas, porque en el grado en que la fiabilidad sea más baja la varianza observable Var(z) será más alta, es decir, se produce un inflado de la varianza de los datos que luego tiene efectos notables en la estimación de los coeficientes estructurales del modelo, produciendo una atenuación de los mismos (el efecto estimado es menor que el real, por lo que hay un sesgo). Con SEM podemos tener en cuenta esos errores de medida y obtener coeficientes insesgados con fiabilidades diferentes del 100%, y esta es otra de la grandes ventajas de esta metodología.

La relación que existe entre el cociente Var(e)/Var(z) y la fiabilidad se muestra en la Figura 2.3.

Figura 3

Figura 2.3. Fiabilidad en función del tamaño relativo de la varianza de error

 Para obtener esa figura hemos empleado el siguiente código de Stata:

/*Generamos una variable con 100 observaciones cuyos valores van del 1 al 100*/
set obs 100
/*Llamamos a esa variable Var_e que hace referencia los distintos valores a la varianza de error que vamos a simular*/
generate Var_e= _n
/*Ahora generamos un valor constante para la varianza observable Var_z=100*/
gen Var_z=100
/*El siguiente paso es construir la variable Fiabilidad, en función de la varianza de error y la varianza observable*/
gen Fiabilidad=1-(Var_e/Var_z)
/*Ahora generamos una nueva variable con el cociente entre ambas varianzas, con el fin de poder realizar un gráfico que nos permita ver cómo cambia la fiabilidad en función del valor de este nueva expresión.*/
gen Cociente_entre_varianzas= Var_e/ Var_z
/*Por último generamos un gráfico bidimensional donde podemos ver que la fiabilidad disminuye linealmente con el incremento del cociente de varianzas, es decir, con el aumento relativo de la varianza de error*/
twoway (line Fiabilidad Cociente_entre_varianzas, lcolor(magenta) lwidth(thick)), xtitle(Var(e)/Var(z)) xscale(line) xlabel(, grid)

Por tanto, para fijar la fiabilidad del indicador observable sólo hay que escoger el porcentaje de la varianza observada que constituye la varianza de error. Así, si por ejemplo Var(z)=5, y la fiabilidad es fijada al 90%, entonces Var(e)/Var(z)=0.10, por lo que la Var(e) debe fijarse a 0.05, es decir, un 10% de la varianza del indicador observable.

Conclusión

Hemos visto que es muy atractivo poder considerar a todas las variables que manejamos en nuestros modelos teóricos como latentes, incluso en los casos más sencillos donde esas variables no sean abstracciones psicológicas, sino variables claramente definidas y cuantificables.

Esto permite especificar errores de medida, que no son más que el tamaño relativo de la varianza de error, y de este modo indicar la fiabilidad de las mediciones, realizando (como veremos posteriormente) diferentes simulaciones con respecto a cómo variarían los resultados ante fiabilidades distintas.

Todos los posts relacionados




(#350). BÁSICOS DE ECUACIONES ESTRUCTURALES (I): COVARIANZAS Y DESVIACIONES SOBRE LA MEDIA

[MONOTEMA] Comenzamos una serie de entradas sobre una introducción práctica a los modelos de ecuaciones estructurales, en la que emplearemos los programas LISREL y Stata para estimar modelos sencillos, que pretenden ser una guía para estudiantes que comienzan a adentrarse en esta temática.

Para ello, necesitamos primeramente abordar varios aspectos de la idisosincrasia de esta metodología, con el fin de entender paso a paso qué estamos haciendo.

En este post inicial, vamos a explicar por qué se emplean covarianzas como input, y que debemos interpretar los datos en desviaciones sobre la media, y no en su naturaleza bruta.

La ecuación básica

Partimos de la siguiente ecuación básica, en la que relacionamos linealmente la variable aleatoria X con la variable aleatoria Y, mediante los parámetros (constantes) a y b.

Y=a + bX

Tomando esperanzas y varianzas, tenemos:

E(Y)=a+bE(X)

Var(Y)=b2Var(X)

El parámetro b, por tanto, es un coeficiente estructural que representa el cambio en Y cuando X cambia. En el caso de tomar esperanzas:

E(Y)-a=bE(X)

es decir, a simplemente es un parámetro de escala que modifica el valor esperado de Y.

Al tomar varianzas desaparece el parámetro a (la varianza de una constante es cero), por lo que obtenemos también una relación entre Y y X, pero esta vez sin la necesidad de conocer ese parámetro de escala.

Es fácil comprobar que si, por ejemplo, a=0 y b=2, para n=5, tenemos que x=[0,1,2,3,4] e y=[0,2,4,6,8], entonces la varianza de Y es 4 veces (b2) la varianza de X.

Asimismo, podemos expresar la relación entre Y e X a nivel de covarianzas con un poco de álgebra:

Por tanto:

De este modo, sabiendo las varianzas y covarianzas de X e Y podemos cuantificar el parámetro b, que es el que mide el peso de la asociación entre X e Y, o el tamaño del efecto si estamos usando terminología causal.

Ya tenemos una pista de por qué los modelos de ecuaciones estructurales se llaman también modelos de estructuras de covarianza (recordemos que una varianza no es más que la covarianza de una variable consigo misma).

Tomar desviaciones sobre la media

Lo que un investigador quiere al final no es solamente saber cuál es la relación entre las varianzas de dos variables, sino principalmente qué sucede en Y cuando X cambia en una unidad. Esto es básico para hacer predicciones sobre datos individuales.

Como hemos visto, para eso necesitamos conocer el parámetro a, y ese parámetro no aparece en las relaciones de covarianza. Pero esto no es un problema si interpretamos los datos en desviaciones sobre la media.

E(Y-E(Y))=a + bE(X-E(X))

0=a+0

Es decir, necesariamente a=0.

Por tanto, al tomar los datos en desviaciones sobre la media nos hemos quitado “el problema” del parámetro de escala. Y eso no es todo, podemos comprobar que las relaciones de covarianza no cambian.

De este modo, podemos seguir conociendo el parámetro estructural b a partir de únicamente las covarianzas cuando los datos están en desviaciones sobre la media. Ese parámetro b es exactamente el mismo que se habría obtenido con los datos brutos y la estimación de a, pero la interpretación cuando no se conoce a es en términos de desviaciones sobre la media, que al fin y al cabo no deja de ser una pequeña reparametrización de las variables originales, unos simples cambios de escala.

Simulación con Stata

El siguiente código en Stata nos proporciona una prueba empírica de lo que hemos explicado. Abrimos un fichero “Do-file”, copiamos el código y lo ejecutamos en un archivo .dta del programa que previamente hemos abierto en blanco.

/*Generamos una variable X Normal de media=10 y con varianza=1, con 100 observaciones*/
drawnorm X, n(100) means(10)
/*Ahora generamos dos variables Y(Y1,Y2), que son una combinación lineal de X, con igual pendiente (b1=b2=2), pero con diferente escala (a1=100, a2=0)*/
gen Y1=100+2*X
gen Y2=0+2*X
/*Ahora calculamos la media de todas las variables generadas*/
egen Xmean=mean( X)
egen Y1mean=mean(Y1)
egen Y2mean=mean(Y2)
/*Y entonces generamos las nuevas variables en desviaciones sobre sus medias*/
gen Xdif=X-Xmean
gen Y1dif=Y1-Y1mean
gen Y2dif=Y2-Y2mean
/*Una vez generadas todas las variables, pasamos a realizar un análisis de regresión lineal, donde podemos ver en los resultados que los parámetros se estiman correctamente, es decir, b1=b2=2, a1=100, a2=0*/
regress Y1 X
regress Y2 X
/*Ya hacemos los mismo pero ahora empleando las desviaciones sobre las medias.
Comprobamos que b1=b2=2, aunque el parámetro de escala a1=a2=0*/
regress Y1dif Xdif
regress Y2dif Xdif
/*Por tanto, usando los datos en desviaciones sobre la media, la estimación del efecto b es idéntico aunque el parámetro de escala (ordenada en el origen) sea diferente. De este modo, los coeficientes estructurales son estimados correctamente por medio de las covarianzas, independientemente del valorde la ordenada en el origen*/

Conclusión

Los modelos de ecuaciones estructurales emplean las covarianzas entre las variables como datos de entrada. La relación entre las covarianzas permite la estimación de los coeficientes estructurales, que son idénticos a si se hubieran computado empleando los datos brutos (de cada observación) tomados en desviaciones sobre la media.

Es decir, no necesitamos conocer los datos de cada observación, sólo las covarianzas entre las variables. Sin embargo, si queremos emplear esos coeficientes estimados para realizar predicciones individuales, hemos de tener en cuenta que habrá que hacerlo considerando que los datos de las variables están en desviaciones sobre sus medias.

Obviamente, realizar predicciones individuales tomando a=0 es un error, porque no conocemos a (aunque más adelante veremos que se puede estimar, pero eso es un tema más avanzado).

Todos los posts relacionados




(#331). LOS CONSTRUCTOS FORMATIVOS NO REFLEJAN ESTADOS PSICOLÓGICOS

[REVISIÓN DE ARTÍCULO] En este artículo publicado en Frontiers in Psychology, el autor aporta su visión sobre un debate intenso en la metodología en ciencias sociales; los constructos formativos.

El autor lleva la discusión entre realismo vs. constructivismo a un terreno a medio camino de ambos, lo que se denomina epistemología pragmática, o también pragmatismo epistemológico.

Un constructo es un concepto teórico que operativizamos a nivel empírico como una variable latente que es medida con indicadores observables. Los realistas piensan que ese constructo existe independiemente del observador, mientras que los constructivistas indican que puede ser simplemente una construcción en base a ciertas variables que observamos. En el primer caso, la variable latente causa cambios en los indicadores observables (reflectivos), pero en el segundo caso los indicadores observables (formativos) modifican el significado de la variable latente.

El pragmatismo epistemológico toma a esos conceptos como dependientes de la práctica social, es decir, no tienen por qué tener una existencia por sí mismos en el sentido biofísico (relacionados con ciertas conexiones cererbrales, procesos electroquímicos, etc.). Son una propiedad emergente de esos procesos biofísicos que sabemos que existe porque vemos algunas de sus manifestaciones.

Y es aquí donde está la parte más interesante de este artículo, porque el autor enfatiza que esa es precisamente la razón por la cual nunca podrían ser considerados constructos formativos, ya que si no hay manifestaciones en la realidad no hay constructo psicológico.

Un ejemplo es el estatus socieconómico (SES), una constructo claramente formativo, pero que no actúa como un constructo psicológico en sí, ya que no es una propiedad emergente de un estado mental. Sin embargo, si hablamos de “SES percibido”, es decir, de cómo cada individuo percibe su nivel socieconómico, entonces ese sí es un constructo reflectivo, porque se manifiesta en comportamientos, opiniones, etc. que el sujeto hace. El constructo psicológico existe (realismo), pero depende de la interacción social (pragmatismo). Los índices y las nuevas construcciones de variables a partir de otros observables (constructivismo) y que no se manifiestan observablemente no pueden ser considerados como constructos en psicología. Este es la visión del autor.

Comentarios

En este breve artículo, el autor aporta una sencilla explicación sobre cómo debemos considerar la medición en ciencias sociales. Tal y como hemos hablado en otras ocasiones en el blog, hay un buen número de conceptos en psicología que se miden de manera reflectiva cuando son de naturaleza formativa. Pero si, como ocurre también en la mayoría de los casos, ese constructo tiene manifestaciones observables, entonces ese constructo es en sí reflectivo, pero lo llamamos formativo porque tiene otros atributos o dimensiones que lo forman, pero no son parte del mismo concepto, sino otro tipo de constructos en sí mismos.

Un ejemplo sería la satisfacción del consumidor. Decimos que es un constructo formativo porque puede formarse a través de la valoración de diferentes atributos (ej. satisfacción con los empleados, satisfacción con las instalaciones) que no tienen por qué estar asociados. Pero la satisfacción es en realidad un concepto que puede medirse de manera reflectiva, por ejemplo mediante un único ítem de satisfacción global. Es más, cada uno de los atributos también pueden re especificarse como reflectivos y medirse con uno o varios ítems. Por tanto, un constructo sería puramente formativo si es una construcción algebraica que no puede medirse de manera reflectiva, tal y como publiqué hace ya varios años (ver Martínez & Martínez, 2011).

Todos los autores debemos reflexionar mucho antes de iniciar una investigación sobre cómo vamos a medir las variables de interés. Equivocarnos en la especificación reflectiva/formativa produce un gran riesgo de invalidar los resultados.

 

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Guyon, H. (2018).The Fallacy of the Theoretical Meaning of Formative Constructs. Frontiers in Psychology, doi: 10.3389/fpsyg.2018.00179

Indicadores de calidad de la revista*

  Impact Factor (2014) Cuartil Categoría
Thomson-Reuters (JCR) 2.321 Q2 PSYCHOLOGY-MULTIDISCIPLINARY
Scimago (SJR) 1.27 Q1 PSYCHOLOGY (MISCELLANEOUS)

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#287). MEDIAS VERDADES Y OCULTACIÓN; ACEPTACIÓN DEL ENGAÑO DE CORPORACIONES

[REVISIÓN DE ARTÍCULO] En esta investigación publicada en el International Journal of Strategic Communication, la autora hace un interesante planteamiento sobre la percepción de los engaños que cometen las empresas.

Pero la autora se centra en “medias verdades”, es decir, en engaños que están a medio entre la dicotomía de lo verdadero y lo falso. Entre ellas esconden la ocultación por secretismo, la ambigüedad, la exageración y la distorsión de la realidad que contiene sus mensajes. Un ejemplo claro sería el greenwashing, es decir, la distorsión de información acerca del compromiso ambiental de la compañía.

En un contexto en el que se prima estar continuamente comunicando para estar siempre en la línea de fuego mediática, la posibilidad de que se apele a este tipo de engaño es mayor.

La cuestión es que el público puede crearse una falsa creencia sobre lo que se está comunicando, y eso, al fin y al cabo, se llama engaño, e incluye formas de comunicación de marketing, como la publicidad, y todas sus vertientes de exageración, ocultación, encubrimiento.

Sin embargo, la autora indica que cierto tipo de engaños pueden verse legitimados por el público. Esto ocurre cuando existe una razón “protectora” detrás, o al menos, es a lo que se suele apelar. Por ejemplo, ocultar información para proteger la privacidad o para no crear “alarma social” o incrementar la percepción de riesgo, suelen ser razones (algunos dirían que excusas) para no contar toda la verdad, pero que al mismo tiempo sirven para que no se les castigue por ello.

El objetivo de esta investigación es analizar los factores que influyen en la aceptación de una mentira realizada por una empresa, y cómo esos engaños impactan en la defensa de esa corporación por parte del público.

Metodología

La autora plantea inicialmente un modelo conceptual sencillo, en el que la aceptación por parte del público depende de los motivos, funcionalidad, severdad y percepción del engaño. Es decir, las razones e importancia del engaño, unidos a si realmente ese engaño se percibe como tl, determinan el nivel de aceptación del comportamiento de la empresa.

b287_2Para realizar el estudio empírico la autora eleboró un cuestionario con 11 estímulos consistentes en descripciones cortas de casos en las que una coporación usaba medias verdades y ocultación. Cada participante recibía un único estímulo, y se les pedía que evaluaran su aceptación del comportamiento de la empresa y determinar si la empresa engañaba o no.

La autora contrató a una empresa especializada en trabajo de campo para realizar el estudio y la muestra final fue de 1417 participantes.

Resultados e implicaciones

La autora modificó ligeramente el planteamiento causal inicial para testar contra los datos empíricos el modelo que se muestra a continuación:

b287_3Como puede verse, el modelo se ajusta vía chi-cuadrado (p=0.11), por lo que los coeficientes pueden interpretarse con mayor seguridad. La aceptación se mide en sentido negativo (en una escala de 1 a 5, siendo 1 absolutamente aceptable y 5 absolutamente inaceptable), es decir, los coeficientes positvos de las variables exógenas indican que a medida que estas aumentan lo hace la no aceptación del engaño. De ahí que el coeficiente que relaciona la aceptación con el apoyo a la empresa tenga un coeficiente negativo.

Los participantes toleraban el engaño corporativo cuando percibían que producía realmente poco daño y que era realizado por motivos que connotaban algo de altruismo.

La autora concluye que estas acciones de engaño basadas en “medias verdades” y en la ocultación de información son vistas negativamente por el público y pone en juego la reputación de las corporaciones.

Limitaciones/Comentarios

El artículo explica el hecho de que en algunas situaciones de engaño donde existen motivos que son vistos como “socialmente justificados” el público puede comprender en cierto modo ese engaño. Cuando una multinacional no indica la composición completa de un pesticida por secreto comercial o cuando una farmaceútica una insitución sanitaria no detalla los efectos secundarios posibles de una vacuna para no incrementar innecesariamente (según ellos, claro), el riesgo percibido, estaríamos hablando de posibles casos en los que ese engaño es aceptado.

Sin embargo, el artículo tiene un tufillo demasiado políticamente correcto en el sentido de que obvia profundizar en dos aspectos fundamentales: (1) el engaño y la manipulación forma parte del día a día estratégico de muchas corporaciones; (2) aunque exista indignación por el engaño, la evidencia muestra que en repetidos casos las ventas no se ven afectadas.

Para el primer caso comentado nos remitimos al monotema sobre psicópatas e impunidad, y para el segundo podemos deternernos en casos muy recientes como el del fraude de emisiones de Volkswagen, o más directamente, el apoyo electoral a ciertos partidos políticos ante escandalosos y reiterados casos de corrupción.

El cómo el público reacciona ante el engaño corporativo e institucional es un tema realmente apasionante y de interés científico, y aunque este artículo realiza aportaciones interesantes, al final habla de percepciones e intenciones de comportamiento, que pueden o no ligarse a un comportamiento efectivo. Y ahí está la clave.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Thummes, K. (2017). In the Twilight Zone Between Veracity and Lying: A Survey on the Perceived Legitimacy of Corporate Deception in Reaction to Ethical Dilemmas, International Journal of Strategic Communication, doi:10.1080/1553118X.2017.1385463 

Indicadores de calidad de la revista*

 

Impact Factor (2016)

Cuartil

Categoría

Thomson-Reuters (JCR)

Scimago (SJR)

0.77

Q1

COMMUNICATIONS

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#163). CRECEN LAS DUDAS SOBRE PLS (PARTIAL LEAST SQUARES)

[REVISIÓN DE ARTÍCULO]  Partial Least Squares (PLS) es una técnica de análisis de datos cuyo uso ha crecido muchísimo en los últimos años, especialmente en las áreas de gestión de empresas o marketing. Se presenta típicamente como una alternativa a los modelos de ecuaciones estructurales (SEM) con una serie de supuestas ventajas sobre éstos, como la capacidad para manejar muestras pequeñas y distribuciones alejadas de la normalidad.

Sin embargo, existe un cuerpo de evidencia importante (los autores mencionan varios artículos recientes) que sugiere que muchas de esas supuestas ventajas de PLS no tienen un sustrato estadístico y empírico, y que además, el número de limitaciones de esta técnica es amplio y poco entendido.

En este artículos, los investigadores explican el porqué PLS debería ser evitado como técnica de análisis de datos.

Qué es PLS

Un análisis PLS consiste en dos etapas. En la primera de ellas, los indicadores de las variables latentes se combinan como sumas ponderadas; en la segunda de ellas esas sumas ponderadas se emplean en regresiones separadas, analizando su significación al comparar el ratio de ese coeficiente de regresión y su error estándar calculado por bootstrapping con una distribución t-Student. La idea es combinar esos indicadores con el fin de que esas ponderaciones sean más fiables que cualquiera de esas medidas por separado. Por tanto, esa suma ponderada es en realidad un proxy de la variable latente. De este modo, en realidad la diferencia con respecto a una regresión tradicional o un análisis de componentes principales es la forma en que esos indicadores se ponderan.

La cuestión aquí es cómo genera PLS esas ponderaciones de ítemes, y si el procedimiento es más óptimo que el de técnicas clásicas de resumir información como el análisis factorial (reflectivo) o el análisis factorial de componentes principales (formativo)

Ponderaciones

Los autores critican varios de los argumentos por los cuales se defiende el procedimiento de ponderación de los ítemes. En primer lugar no hay pruebas matemáticas de que ese procedimiento sea óptimo. Si es para maximizar el R-cuadrado de las regresiones entre las ponderaciones, los autores indican que otros procedimientos lo superan ampliamente, y que además no está clara la razón por la cual se debe buscar esa maximización del R-cuadrado.

Otro argumento en defensa de PLS es que las ponderaciones reducen el impacto del error de medida, algo que los autores desmontan aludiendo a varias simulaciones que demuestran que no es así.

Además la dependencia del modelo de los indicadores ponderados conlleva la inestabilidad de esas ponderaciones, y la aparición del “interpretional confounding“, algo que (y esto no lo dicen los autores en el artículo) puede ser mejor gestionado con los modelos de ecuaciones estructurales fijando el coeficiente del mejor indicador posible de cada variable latente (indicador “gold standar” en terminología del profesor Leslie Hayduk).

Estimadores sesgados e inconsistentes

Aproximar variables latentes con ponderaciones de indicadores produce estimadores sesgados e inconsistentes. Recordemos que la consistencia significa que el estimador se acercará al valor poblacional a medida que se incremente el tamaño muestral. La propia literatura sobre PLS admite que los estimadores no son consistentes, lo cual se produce en mayor medida cuando los indicadores no son extremadamente fiables.

Capitalization on chance

Los autores indican que se ha puesto poco énfasis en la literatura sobre PLS en la “capitalization on chance”, que se refiere a la obtención de resultados segados determinados por la propia aleatoriedad muestral, es decir, el tamaño del error debido al análisis de una muestra que es en sí un caso extremo. Este tipo de problemas se agudiza con muestras pequeñas, precisamente las que suele emplear PLS.

Problemas cuando se testan modelos

Testar un modelo significa establecer una serie de restricciones en los parámetros y evaluar la probabilidad de los estadísticos observados dadas esas restricciones. En terminología SEM, sería realizar restricciones causales (por ejemplo, fijar varios parámetros a cero entre relaciones de variables latentes) y luego testar esas restricciones contra los datos empíricos a través de la discrepancia entre la matriz de covarianzas estimada y la restringida por el modelo propuesto. Esa discrepancia se mide en términos estadísticos con el test de la chi-cuadrado, que no es más que un test que nos dice si esa divergencia entre las dos matrices es estadísticamente relevante o no.

Pero en PLS no se pueden testar esas restricciones usando un test estadístico, como el de la chi-cuadrado. Por tanto, no hay ninguna forma de conocer si la teoría propuesta (el modelo del investigador) es congruente con los datos empíricos o no, es decir, no es un método para testar modelos.

Aunque algunos defensores de PLS argumentan que no se trata de buscar el ajuste del modelo sino maximizar su capacidad predictiva, pero si el modelo de partida no es correcto, esa supuesta ventaja no es tal, ya que los estimadores serían sesgados, y probablemente esa capacidad predictiva alta mostrada en esa muestra específica no lo sería en una posible replicación.

Problemas para evaluar la calidad de las mediciones

Pese a que PLS emplea dos términos de SEM (fiabilidad compuesta y varianza extraída media), la forma de computarlos hace que su resultado sea cuestionable, ya que no están computados a través de la relación de análisis factorial, tal y como hace SEM, sino entre la correlación entre los indicadores y sus propias ponderaciones. Además, y como recalcan los autores, estos índices de calidad de la medición no están basados en ningún test estadístico.

A este respecto, vuelvo a remitirme a la perspectiva explicada por Hayduk en sus libros y en sus artículos sobre la estrategia de modelización y la calidad de las mediciones; es muy sencillo: primero ver si el modelo se ajusta vía chi-cuadrado, y luego valorar la fiabilidad de los ítemes de cada variable latente en función de las restricciones del indicador gold standard.

Uso del test t en situaciones alejadas de la normalidad

Los autores enfatizan una de las paradojas de PLS, y es el de usar remuestreo para calcular los errores estándar de los parámetros, pero luego emplear el t-test para estimar la significatividad de los parámetros en situaciones de no normalidad, lo que incrementa los falsos positivos. Además, y como bien referencian los autores, el uso de bootstrapping en muestras pequeñas (PLS es usado en muchas ocasiones en muestras muy reducidas) es muy arriesgado.

Muestras pequeñas

Incluso los defensores de PLS tienen problemas para justificar el uso de esta herramienta en muestras pequeñas, es como una especie de mantra sin evidencia sólida detrás. Los estudios que compararn PLS  y SEM en muestras pequeñas generalmente encuentran que el sesgo es menor en SEM que en PLS. Los autores abogan en ese tipo de muestras por usar mínimos cuadrados en dos etapas.

Datos alejados de la normalidad

PLS usa estimación por mínimos cuadrados ordinarios para la estimación de los parámetros, lo que conlleva la asunción de homocedasticidad de los errores y también normalidad. Es cierto que la normalidad no es indispensable para que los estimadores sean consistentes, insesgados y eficientes, pero  sí que se asume para los test estadísticos inferenciales.

Predicción frente explicación

Es cierto que otro mantra sobre PLS es que predice más que explica. Cuando  hablamos de predicción estamos penalizando el sustento teórico de los modelos y su correcta especificación por la construcción de algoritmos que proveen de buena capacidad predictiva /clasificatoria, pero cuya interpretabilidad es una quimera. Esas formas de predicción de caja negra, con algoritmos como las redes nueronales y otros similares son poco útiles para explicar.

Si PLS se enfatiza en la predicción frente a la explicación está enfatizando su débil capacidad para explicar teorías, pero al mismo tiempo debería de justificar que es superior algorítmicamente a otros métodos de predicción (redes neuronales, máquinas de vectores soporte, etc.)

Exploratorio frente a confirmatorio

Si PLS no puede detecatar malas especificaciones de los modelos, difícilmente puede ser de ayuda en tareas exploratorias (teoría en sus comienzos). En el caso de buscar patrones desde los datos, las técnicas comentadas anteriormente de data mining pueden ser empleadas, por lo que realmente PLS no añade “valor” como técnica a las ya existentes. En cualquier caso, como comentan los autores, parece incongruente que si se quiere explorar al estilo data mining se requiere que con PLS se plantee un modelo teórico para el modelo de medida y el modelo estructural.

Mediciones formativas

Esta es otra de las supuestas ventajas de PLS, aunque como bien indican los autores hace falta una discusión más profunda sobre en qué medida las mediciones formativas de un constructo no puede re-especificarse como variables latentes y un ítem reflectivo cada una de ellas. Esa re-epsecificación estaría en consonancia con la representación de las mediciones como reflejos de la variable que se quiere medir, y no como causa de ellas, algo que es, desde muchos puntos de vista, altamente cuestionable.

Conclusión/Comentarios

A pesar de las recientes aportaciones en la literatura que tratan de cubrir algunas de las limitaciones mencionadas, es evidente que PLS es una herramienta que debería ofrecer bastante desconfianza para ser usada por investigadores aplicados, al menos con la “alegría” que se suele hacer en las áreas de gestión de empresas o marketing, donde es común su uso para testar modelos, en el caso de usar muestras pequeñas, etc. Es como una especie de vía de escape para no emplear modelos de ecuaciones estructurales (SEM) y aplicar esta alternativa que promete ser más adecuada para teorías débiles, muestras pequeñas y datos alejados de la normailidad.

Los autores destacan el editorial de 2015 de la principal revista científica en el campo de la gestión de empresas, Journal of Operations Management, que argumentaba que las investigaciones que emplearan esta técnica serían muy probablemente rechazados de inmediato.

Concluyen comentando el hecho de que PLS no debería de enseñarse en las universidad a los estudiantes de doctorado, al menos, no de la forma que ahora se hace, donde cabrían priorizar otras herramientas con un soporte mucho más sólido desde el punto de vista estadístico.

En definitiva, como investigador llevo años desconfiando de esta herramienta, nunca la he usado y no he aconsejado nunca su empleo a mis estudiantes. Como revisor he rechazado los artículos que usaban PLS como alternativa a SEM,  y como profesor he desaconsejado que se organizaran cursos de doctorado o de formación de PLS si los presupuestos son limitados y se pueden priorizar otro tipo de cursos.  Sin embargo, puedo cambiar de opinión si la investigación en PLS muestra evidencias sólidas de mejora que cubran las limitaciones expuestas. Pero, de momento, parece prudente alinearse con las conclusiones derivadas de este artículo.

Rönkkö, M. et al. (2016). Partial Least Squares Path Modeling: Time for Some Serious Second Thoughts. Journal of Operations Management, doi: 10.1016/j.jom.2016.05.002

Indicadores de calidad de la revista*

 

Impact Factor (2015)

Cuartil

Categoría

Thomson-Reuters (JCR)

6.807

Q1

OPERATIONS RESEARCH & MANAGEMENT SCIENCE

Scimago (SJR)

5.05

Q1

STRATEGY & MANAGEMENT

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados