Técnicas de Investigación de Mercados: Guía Completa


Técnicas de Escalamiento

Comparativas

Comparan dos estímulos entre sí.

  1. Comparación Pareada: Se presentan dos estímulos y se solicita al encuestado que elija uno (¿Coca-Cola o Pepsi?).
  2. Rangos Ordenados: Se pide al encuestado que ordene las opciones según sus preferencias (por ejemplo, marcas del 1 al 8).
  3. Suma Constante: Se asignan unidades (puntos, dinero, etc.) a los estímulos según su importancia para el encuestado.
  4. Clasificación Q: De forma presencial, se entregan tarjetas con estímulos al encuestado para que las clasifique según su criterio.

No Comparativas

Cada estímulo se evalúa por separado, sin compararlo con otros en la pregunta.

  1. Clasificación Continua: Se utiliza una línea continua con dos polos opuestos (por ejemplo, una escala de satisfacción en una encuesta online).
  2. Clasificación por Ítem/Reactivo: Similar a la clasificación continua, pero con ítems específicos (por ejemplo, caritas que representan emociones).
    1. Likert: Escala impar que mide el nivel de acuerdo, satisfacción u opinión.
    2. Diferencial Semántico: Escalas de 5 o 7 puntos donde el encuestado marca con una cruz su posición entre dos polos opuestos.
    3. Stapel: Escala sin punto medio, que va de -5 a -1 y de 1 a 5.

Escalas de Uso Común

  1. Intención de Compra: Mide la probabilidad de que un consumidor compre un producto.
  2. NPS (Net Promoter Score): Mide la probabilidad de que un cliente recomiende una empresa, producto o servicio.
  3. CES (Customer Effort Score): Mide el esfuerzo o dificultad que un cliente experimenta durante una transacción (por ejemplo, ¿qué tan fácil fue resolver su problema? 1. Muy difícil / 5. Muy fácil).
  4. CSAT (Customer Satisfaction Score): Evalúa la satisfacción del cliente con un producto, servicio o experiencia (por ejemplo, ¿qué tan satisfecho está con el servicio? 1-5 o 1-7).

Confiabilidad

Indica si la medición es consistente y representa la realidad.

  1. Test-Retest: Se aplica la misma medición en dos momentos diferentes a la misma muestra para evaluar la congruencia de los resultados (por ejemplo, una encuesta de satisfacción y, después de un mes, se vuelve a aplicar a la misma muestra).
  2. Formas Alternativas: Se evalúa el mismo constructo con dos métodos diferentes y se espera que los resultados sean similares y confiables (por ejemplo, evaluar la calidad del servicio con SERVQUAL y luego con SERVPERF).
  3. Consistencia Interna: Evalúa la consistencia de los ítems dentro de una escala sin compararlos con otras mediciones. Existen dos formas principales:
    1. División por Mitades: Los ítems de la escala se dividen en dos mitades y se analiza la consistencia entre ambas.
    2. Alfa de Cronbach: Considera todas las posibles divisiones por mitades y calcula un promedio. Un valor superior a 0.6 se considera aceptable.

Validez

Indica si la medición realmente mide lo que se pretende medir (requiere confiabilidad previa).

  1. Validez de Contenido/Aparente: Se compara la escala con la definición teórica del constructo para asegurar que se cubran todos los aspectos relevantes (por ejemplo, evaluar si los ítems de una escala de satisfacción representan lo que la teoría define como satisfacción).
  2. Validez de Criterio: Examina si la escala de medición se relaciona con otras variables consideradas relevantes (criterios externos) como otros instrumentos, variables o constructos.
  3. Validez de Constructo: Grado en que el instrumento representa y conecta, a través de la teoría, el fenómeno observado con el constructo (requiere una teoría sólida del constructo medido y de cómo se relaciona con otros constructos). Incluye:
    1. Validez Convergente: Mide el grado en que la escala se correlaciona positivamente con otras medidas del mismo constructo.
    2. Validez Discriminante: Mide el grado en que una medida no se correlaciona con otros constructos de los que se espera que difiera.
    3. Validez Nomológica: Mide la relación entre constructos teóricos, buscando confirmar las correlaciones esperadas según la teoría.

Técnicas de Muestreo

Muestreo Tradicional

Se selecciona una muestra representativa utilizando únicamente datos actuales (por ejemplo, muestreo aleatorio simple).

Muestreo Bayesiano

Combina datos actuales con información previa (por ejemplo, utilizar datos históricos y actualizarlos con una nueva encuesta a 100 personas).

Muestreo con Reemplazo

Los elementos de la población pueden ser seleccionados más de una vez en la muestra.

Muestreo sin Reemplazo

Cada elemento de la población solo puede aparecer una vez en la muestra.

Muestreo Probabilístico

Todos los elementos de la población tienen una probabilidad conocida de ser seleccionados para la muestra.

  1. Aleatorio Simple: Se seleccionan aleatoriamente los elementos de la muestra a partir del marco muestral.
  2. Sistemático: Se elige un punto de partida aleatorio en el marco muestral y luego se selecciona cada cierto intervalo (por ejemplo, cada 5 personas).
  3. Estratificado: Se divide la población en estratos (grupos) según características relevantes y luego se selecciona una muestra aleatoria de cada estrato.
  4. Por Conglomerados: Se divide la población en conglomerados (grupos) y se seleccionan aleatoriamente algunos conglomerados para la muestra. Se incluyen todos los elementos de los conglomerados seleccionados.

Muestreo No Probabilístico

La selección de la muestra no se basa en el azar, sino en el juicio del investigador. No permite generalizar los resultados a la población.

  1. Por Conveniencia: Se seleccionan los elementos de la muestra por su fácil acceso (por ejemplo, grupos de Facebook).
  2. Por Juicio: El investigador selecciona los elementos de la muestra basándose en su experiencia y conocimiento (por ejemplo, expertos en un tema).
  3. Por Cuotas: Se establecen cuotas para diferentes características de la población (por ejemplo, 50 hombres, 50 mujeres, 25 mayores de 30 años) y se seleccionan participantes hasta alcanzar las cuotas.
  4. Bola de Nieve: Se contacta con un grupo inicial de personas que cumplen con los criterios de la muestra y se les pide que refieran a otras personas que también los cumplan.

Tabulación Cruzada

Mide el grado de relación entre dos variables categóricas.

  • Chi-cuadrado (χ²): Indica si existe una relación estadísticamente significativa entre las variables (valor p < 0.05).
  • V de Cramer: Mide la fuerza de la relación entre dos variables categóricas, donde al menos una es nominal (0.3: débil, 0.7: fuerte).
  • Tau-c: Similar a la V de Cramer, pero se utiliza cuando ambas variables son ordinales.

ANOVA (Análisis de Varianza)

Evalúa si existen diferencias significativas entre las medias de dos o más grupos (variable independiente categórica / variable dependiente métrica).

  • Prueba de Levene: Si el valor p es mayor a 0.05, se asume que las varianzas de los grupos son iguales y se puede continuar con el ANOVA. Si el valor p es menor a 0.05, se realiza la prueba de Welch.
  • Prueba de Welch: Se utiliza cuando las varianzas de los grupos no son iguales (valor p de la prueba de Levene < 0.05). Se utiliza la prueba post-hoc Games-Howell para las comparaciones múltiples.
  • Eta Parcial Cuadrado: Mide la fuerza de la relación entre la variable independiente y la variable dependiente (0.3: débil, 0.7: fuerte).
  • Prueba Post-Hoc: Se utiliza cuando la variable independiente tiene más de dos categorías para determinar qué grupos presentan diferencias significativas entre sus medias. La prueba de Bonferroni se utiliza comúnmente. Si el valor p es mayor a 0.05, las comparaciones no son significativas.

Tipos de ANOVA

  1. ANOVA de un Factor: Se utiliza cuando se tiene una variable independiente categórica y una variable dependiente métrica.
  2. ANOVA de N Factores: Se utiliza cuando se tienen dos o más variables independientes categóricas y una variable dependiente métrica.
  3. ANOVA de Medidas Repetidas: Compara las medias de una variable en diferentes momentos o condiciones para determinar si ha habido un cambio significativo (por ejemplo, medir la intención de compra antes y después de un cambio en el producto).
  4. ANCOVA (Análisis de Covarianza): Similar al ANOVA, pero permite controlar el efecto de una o más covariables métricas (por ejemplo, controlar el efecto de la edad en la relación entre el género y la satisfacción).
  5. MANOVA (Análisis Multivariado de Varianza): Se utiliza cuando se tiene una variable independiente categórica y dos o más variables dependientes métricas (por ejemplo, analizar si el género influye en la satisfacción con la compra y la satisfacción con el servicio).
  6. ANOVA No Paramétrico: Se utiliza cuando no se cumplen los supuestos del ANOVA paramétrico, como la normalidad de las variables o la homogeneidad de las varianzas.

Correlación de Pearson

Mide la fuerza y dirección de la relación lineal entre dos variables métricas.

  • Valor p: Si el valor p es menor a 0.05, se considera que existe una correlación significativa entre las variables.
  • Coeficiente de Correlación (r): Indica la fuerza y dirección de la relación. Un valor positivo indica una relación directa (a mayor valor en una variable, mayor valor en la otra), mientras que un valor negativo indica una relación inversa (a mayor valor en una variable, menor valor en la otra).

Correlación de Spearman

Se utiliza cuando al menos una de las variables es ordinal o cuando no se cumplen los supuestos de la correlación de Pearson.

Covarianza

Indica la dirección de la relación entre dos variables métricas, pero no su fuerza. Un valor positivo indica una relación directa, mientras que un valor negativo indica una relación inversa.

Tipos de Correlación

  1. Coeficiente de Correlación Parcial: Permite eliminar el efecto de una o más variables adicionales (covariables) en la relación entre dos variables (por ejemplo, eliminar el efecto de las horas de sueño en la relación entre el tiempo de estudio y las calificaciones).
  2. Coeficiente de Correlación de Partes: Se utiliza cuando una covariable afecta a una de las variables, pero no a la otra (por ejemplo, la dieta puede afectar el nivel de colesterol, pero no la cantidad de ejercicio semanal).
  3. Correlación No Métrica: Se utiliza para medir la relación entre dos variables ordinales, una variable métrica y una ordinal, o dos variables métricas que no cumplen con los supuestos de la correlación de Pearson (normalidad, linealidad u homocedasticidad). La correlación de Spearman es un ejemplo de correlación no métrica.

Regresión

Analiza la relación entre una variable dependiente métrica y una o más variables independientes métricas. Se utiliza para hacer predicciones y explicar el comportamiento de la variable dependiente.

  • Valor p: Si el valor p de una variable independiente es menor a 0.05, se considera que la variable es significativa para el modelo. Si el valor p es mayor a 0.05, se puede considerar eliminar la variable del modelo.
  • Coeficiente de Determinación (R²): Mide la proporción de la varianza de la variable dependiente que es explicada por las variables independientes (0.3: débil, 0.7: fuerte).
  • Prueba de Durbin-Watson: Mide la independencia de los errores. Un valor entre 1.5 y 2.5 indica que los errores son independientes, lo que cumple con uno de los supuestos de la regresión lineal.
  • Coeficiente Beta (β): Mide la dirección e intensidad de la relación entre una variable independiente y la variable dependiente, manteniendo constantes las demás variables independientes. Un valor positivo indica una relación directa, mientras que un valor negativo indica una relación inversa.
  • Coeficiente de Determinación Múltiple Ajustado (R² Ajustado): Similar al R², pero tiene en cuenta el número de variables independientes en el modelo. Es útil para comparar modelos con diferente número de variables.
  • Estadística de Colinealidad (VIF): Mide la multicolinealidad, es decir, la correlación entre las variables independientes. Un VIF mayor a 10 indica un problema de colinealidad. Si la tolerancia (1/VIF) es mayor a 0.1, no existe colinealidad.

Tipos de Regresión

  1. Regresión Lineal Simple: Se utiliza cuando se tiene una variable independiente métrica y una variable dependiente métrica.
  2. Regresión Lineal Múltiple: Se utiliza cuando se tienen dos o más variables independientes métricas y una variable dependiente métrica.
  3. Regresión Múltiple Progresiva (Stepwise): Se van agregando o eliminando variables independientes al modelo de forma iterativa, buscando el modelo que mejor se ajuste a los datos. Existen tres métodos principales:
    1. Inclusión Hacia Adelante (Forward): Se comienza con un modelo sin variables independientes y se van agregando una a una, seleccionando en cada paso la variable que más aporta al modelo (menor valor p).
    2. Eliminación Hacia Atrás (Backward): Se comienza con un modelo que incluye todas las variables independientes y se van eliminando una a una, seleccionando en cada paso la variable que menos aporta al modelo (mayor valor p).
    3. Solución Progresiva (Stepwise): Combina los métodos de inclusión hacia adelante y eliminación hacia atrás, agregando y eliminando variables en cada paso hasta encontrar el mejor modelo.
  4. Regresión Lineal Múltiple con Variable Dummy: Similar a la regresión lineal múltiple, pero se incluyen variables dummy (variables categóricas transformadas a numéricas) para representar variables independientes categóricas (por ejemplo, género: 0 = hombre, 1 = mujer).

Análisis Discriminante

Se utiliza para clasificar casos en grupos predefinidos en función de un conjunto de variables independientes métricas. La variable dependiente es categórica (por ejemplo, clasificar a los clientes en grupos de riesgo crediticio: bajo, medio, alto).

  • Prueba M de Box: Evalúa la homogeneidad de las matrices de covarianza entre los grupos. Un valor p mayor a 0.05 indica que se cumple el supuesto de homogeneidad.
  • Lambda de Wilks: Mide la capacidad del modelo para discriminar entre los grupos. Un valor cercano a 0 indica una mejor discriminación.
  • Correlación Canónica: Mide la correlación entre las variables independientes y las funciones discriminantes. Un valor cercano a 1 indica una mayor correlación.
  • Prueba de Igualdad de Medias: Determina si existen diferencias significativas entre las medias de las variables independientes entre los grupos. Un valor p menor a 0.05 indica que existen diferencias significativas.

Tipos de Análisis Discriminante

  1. Análisis Discriminante Simple: Se utiliza cuando la variable dependiente tiene dos categorías.
  2. Análisis Discriminante Múltiple: Se utiliza cuando la variable dependiente tiene tres o más categorías.

Análisis Factorial

Técnica estadística que busca reducir un conjunto de variables observadas (ítems) a un número menor de factores latentes o dimensiones subyacentes. Se utiliza para identificar las dimensiones subyacentes a un conjunto de variables y para crear escalas de medición más concisas.

  • KMO (Kaiser-Meyer-Olkin): Mide la adecuación de los datos para el análisis factorial. Un valor superior a 0.7 se considera aceptable.
    • < 0.5: Inaceptable
    • 0.5 – 0.6: Pobre
    • 0.6 – 0.7: Mediocre
    • 0.7 – 0.8: Mediano
    • 0.8 – 0.9: Buena
    • > 0.9: Muy buena
  • Prueba de Esfericidad de Bartlett: Evalúa si las variables están correlacionadas entre sí. Un valor p menor a 0.05 indica que existe suficiente correlación para realizar el análisis factorial.

Diseños de Investigación

  1. Descriptivo Transversal: Se recolecta información de una muestra en un único momento en el tiempo. La muestra es fija y se busca describir las características de la población en ese momento específico.
  2. Exploratorio: Se utiliza para investigar temas nuevos o poco explorados. El objetivo es obtener información preliminar que permita formular hipótesis o preguntas de investigación más precisas.
  3. Experimental: Se manipula una o más variables independientes para estudiar su efecto sobre una o más variables dependientes, controlando el efecto de variables extrañas. Permite establecer relaciones de causa-efecto.
  4. Solo Postest: Se recolectan datos después de la aplicación de un tratamiento o intervención para evaluar su impacto. No se recolectan datos antes del tratamiento.

Enfoque de Embudo

Se comienza con preguntas generales y se avanza hacia preguntas más específicas. Permite obtener información más precisa y relevante a medida que se avanza en la investigación.

Variables Extrañas

Variables que no son de interés para la investigación, pero que pueden influir en la relación entre las variables independientes y dependientes. Es importante controlar su efecto para obtener resultados válidos.

Unidades de Prueba

Individuos, organizaciones u otras entidades que son objeto de estudio en una investigación. Son las unidades a las que se les aplica el tratamiento o intervención y de las que se recolectan los datos.

Experimento

Situación controlada en la que se manipula una o más variables independientes para estudiar su efecto sobre una o más variables dependientes, controlando el efecto de variables extrañas. Permite establecer relaciones de causa-efecto.

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *