Tipos de Diseño Experimental: Preexperimentos, Cuasiexperimentos y Experimentos Verdaderos


Tipos de Diseño Experimental

Preexperimentos

Los preexperimentos se llaman así porque su grado de control es mínimo.

1. Estudio de caso con una sola medición

Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una medición en una o más variables para observar cuál es el nivel del grupo en estas variables.

Este diseño no cumple con los requisitos de un «verdadero» experimento. No hay manipulación de la variable independiente. El diseño adolece de los requisitos para lograr el control experimental: tener varios grupos de comparación. No se puede establecer causalidad con certeza. No se controlan las fuentes de invalidación interna.

2. Diseño de preprueba-postprueba con un solo grupo

A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental, después se le administra el tratamiento y finalmente se le aplica una prueba posterior al tratamiento.

El diseño ofrece una ventaja sobre el anterior: hay un punto de referencia inicial para ver qué nivel tenía el grupo en las variables dependientes antes del estímulo. Es decir, hay un seguimiento del grupo. Sin embargo, el diseño no resulta conveniente para fines científicos: no hay manipulación ni grupo de comparación y, además, varias fuentes de invalidación interna pueden actuar.

Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del experimento no se encuentre en su estado normal. Tampoco se puede establecer con certeza la causalidad.

Los dos diseños preexperimentales no son adecuados para el establecimiento de relaciones entre la variable independiente y la variable dependiente o dependientes. Son diseños que se muestran vulnerables en cuanto a la posibilidad de control y validez interna. Deben usarse sólo como ensayos de otros experimentos con mayor control.

Los diseños preexperimentales pueden servir como estudios exploratorios, pero sus resultados deben observarse con precaución. De ellos no pueden sacarse conclusiones seguras de investigación. Abren el camino, pero de ellos deben derivarse estudios más profundos.

Experimentos Verdaderos

Los experimentos «verdaderos» son aquellos que reúnen los dos requisitos para lograr el control y la validez interna:

  1. Grupos de comparación (manipulación de la variable independiente o de varias independientes)
  2. Equivalencia de los grupos.

Pueden abarcar una o más variables independientes y una o más dependientes. Pueden utilizar prepruebas y postpruebas para analizar la evolución de los grupos antes y después del tratamiento experimental. La postprueba es necesaria para determinar los efectos de las condiciones experimentales.

1. Diseño con postprueba únicamente y grupo de control

Este diseño incluye dos grupos: uno recibe el tratamiento experimental y el otro no (grupo de control). Es decir, la manipulación de la variable independiente alcanza sólo dos niveles: presencia y ausencia. Los sujetos son asignados a los grupos de manera aleatoria. Después de que concluye el periodo experimental, a ambos grupos se les administra una medición sobre la variable dependiente en estudio.

En este diseño, la única diferencia entre los grupos debe ser la presencia-ausencia de la variable independiente.

La prueba estadística que suele utilizarse en este diseño para comparar a los grupos es la prueba «t» para grupos correlacionados, al nivel de medición por intervalos.

El diseño con postprueba únicamente y grupo de control puede extenderse para incluir más de dos grupos; se usan dos o más tratamientos experimentales, además del grupo de control.

Si se carece de grupo de control, el diseño puede llamarse «diseño con grupos aleatorizados y postprueba únicamente».

En el diseño con postprueba únicamente y grupo de control, así como en sus posibles variaciones y extensiones, se logra controlar todas las fuentes de invalidación interna.

2. Diseño con preprueba-postprueba y grupo de control

Este diseño incorpora la administración de prepruebas a los grupos que componen el experimento. Los sujetos son asignados al azar a los grupos, después a éstos se les administra simultáneamente la preprueba, un grupo recibe el tratamiento experimental y el otro no (es el grupo de control), y finalmente se les administra, también simultáneamente, una postprueba.

La adición de la preprueba ofrece dos ventajas: primera, las puntuaciones de las prepruebas pueden usarse para fines de control en el experimento; al compararse las prepruebas de los grupos, se puede evaluar qué tan adecuada fue la aleatorización. La segunda ventaja reside en que se puede analizar el puntaje ganancia de cada grupo (la diferencia entre la preprueba y la postprueba).

El diseño controla todas las fuentes de invalidación interna por las mismas razones que se argumentaron en el diseño anterior (diseño con postprueba únicamente y grupo de control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para mantener la equivalencia de los grupos.

Cuasiexperimentos

Los diseños cuasiexperimentales también manipulan deliberadamente al menos una variable independiente, solamente que difieren de los experimentos «verdaderos» en el grado de seguridad o confiabilidad que pueda tenerse sobre la equivalencia inicial de los grupos. En los diseños cuasiexperimentales, los sujetos no son asignados al azar a los grupos ni emparejados, sino que dichos grupos ya estaban formados antes del experimento: son grupos intactos.

Se utilizan cuando no es posible asignar aleatoriamente a los grupos que recibirán los tratamientos experimentales. La falta de aleatorización introduce posibles problemas de validez interna y externa.

Problemas de los diseños cuasiexperimentales

La falta de aleatorización introduce posibles problemas de validez interna y externa. Debido a los problemas potenciales de validez interna, en estos diseños el investigador debe intentar establecer la semejanza entre los grupos; esto requiere considerar las características o variables que puedan estar relacionadas con las variables estudiadas.

Los cuasiexperimentos difieren de los experimentos «verdaderos» en la equivalencia inicial de los grupos (los primeros trabajan con grupos intactos y los segundos utilizan un método para hacer equivalentes a los grupos). Sin embargo, esto no quiere decir que sea imposible tener un caso de cuasiexperimento donde los grupos sean equiparables en las variables relevantes para el estudio.

Tipos de diseños cuasiexperimentales

Con excepción de la diferencia que acabamos de mencionar, los cuasiexperimentos son muy parecidos a los experimentos «verdaderos». Por lo tanto, podemos decir que hay casi tantos diseños cuasiexperimentales como experimentales «verdaderos». Sólo que no hay asignación al azar o emparejamiento. Pero, por lo demás, son iguales: la interpretación es similar, las comparaciones son las mismas y los análisis estadísticos iguales (salvo que, a veces, se consideran las pruebas para datos no correlacionados).

1. Diseño con postprueba únicamente y grupos intactos

Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro no. Los grupos son comparados en la postprueba para analizar si el tratamiento experimental tuvo un efecto sobre la variable dependiente.

Si los grupos no son equiparables entre sí, las diferencias en las postpruebas de ambos grupos pueden ser atribuidas a la variable independiente, pero también a otras razones diferentes, y lo peor es que el investigador puede no darse cuenta de ello.

Por ello, es importante que los grupos sean inicialmente comparables y que, durante el experimento, no ocurra algo que los haga diferentes, con excepción de la presencia-ausencia del tratamiento experimental.

Recuérdese que los grupos son intactos, no se crean, ya se habían constituido por motivos diferentes al cuasiexperimento.

2. Diseño de preprueba-postprueba y grupos intactos (uno de ellos de control)

Este diseño es similar al que incluye postprueba únicamente y grupos intactos, solamente que a los grupos se les administra una preprueba, la cual puede servir para verificar la equivalencia inicial de los grupos (si son equiparables, no debe haber diferencias significativas entre las prepruebas de los grupos).

Las posibles comparaciones entre las mediciones de la variable dependiente y las interpretaciones son las mismas que en el diseño experimental de preprueba-postprueba con grupo de control, solamente que, en este segundo diseño cuasiexperimental, los grupos son intactos y, en la interpretación de resultados, debemos tomarlo en cuenta.

Pasos de un Experimento o Cuasiexperimento

Los principales pasos en el desarrollo de un experimento o cuasiexperimento son:

  1. Decidir cuántas variables independientes y dependientes deberán ser incluidas en el experimento o cuasiexperimento.
  2. Elegir los niveles de manipulación de las variables independientes y traducirlos en tratamientos experimentales.
  3. Desarrollar el instrumento o instrumentos para medir la(s) variable(s) dependiente(s).
  4. Seleccionar una muestra de personas para el experimento (idealmente representativa de la población).
  5. Reclutar a los sujetos del experimento o cuasiexperimento. Esto implica tener contacto con ellos, darles las explicaciones necesarias e indicarles el lugar, día, hora y persona con quien deben presentarse. Siempre es conveniente darles el máximo de facilidades para que acudan al experimento.
  6. Seleccionar el diseño experimental o cuasiexperimental apropiado para muestras, hipótesis, objetivos y preguntas de investigación.
  7. Planear cómo vamos a manejar a los sujetos que participen en el experimento. Es decir, elaborar una ruta crítica de qué van a hacer los sujetos desde que llegan al lugar del experimento hasta que se retiran (paso a paso).
  8. En el caso de experimentos «verdaderos», dividirlos al azar o emparejarlos; y en el caso de cuasiexperimentos, analizar cuidadosamente las propiedades de los grupos intactos.
  9. Aplicar las prepruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de grupos de control) y las postpruebas. Resulta conveniente tomar nota del desarrollo del experimento. Ello nos ayudará a analizar la posible influencia de variables extrañas que generan diferencias entre los grupos y será un material invaluable para la interpretación de los resultados.

Uso de dietas alternativas en peces

Objetivo específico de un preexperimento

Evaluar el efecto de una dieta alternativa a base de insectos sobre el crecimiento de un grupo de peces en un periodo de un mes.

Ejemplo de una investigación con diseño experimental

Se dividen aleatoriamente 20 peces en dos grupos: uno alimentado con dieta tradicional y otro con dieta alternativa a base de insectos. Se mide el peso de ambos grupos al inicio y al final del experimento (dos meses).

Ejemplo de una investigación con diseño no experimental

Observar y registrar la dieta de 30 peces en su hábitat natural durante seis meses, analizando la relación entre su alimentación y su tamaño.

Ejemplo de una investigación con diseño cuasiexperimental

Se utilizan dos grupos de peces ya existentes en una piscifactoría, uno alimentado con dieta tradicional y otro con una dieta alternativa. Se mide el peso de ambos grupos al inicio y al final del experimento (tres meses).

Ejemplo de una hipótesis de una investigación de diferencia de grupos

Los peces alimentados con la dieta alternativa a base de insectos presentarán un mayor incremento de peso que los peces alimentados con la dieta tradicional.

Definición de Hipótesis

Una hipótesis puede definirse como una solución provisional (tentativa) para un problema dado. El nivel de verdad que se le asigne a tal hipótesis dependerá de la medida en que los datos empíricos recogidos apoyen lo afirmado en la hipótesis. Esto es lo que se conoce como contrastación empírica de la hipótesis o bien proceso de validación de la hipótesis. Este proceso puede realizarse de uno o dos modos: mediante confirmación (para las hipótesis universales) o mediante verificación (para las hipótesis existenciales).

Definición de Significancia Estadística

La significancia estadística (p) con frecuencia es mencionada y tenida en cuenta en la literatura científica para determinar si se presentó o no efecto del azar en la investigación. Técnicamente, la significancia estadística se define como la probabilidad de que, si no hubiere diferencia real entre los grupos comparados, se hubiese encontrado una diferencia igual o mayor solamente por efecto del azar; en otras palabras, que la diferencia encontrada sea verdadera y no producto del azar.

4 criterios a considerar al plantear una hipótesis

  1. Los términos deben ser claros, concretos y operacionalmente definidos para que cualquier investigador pueda replicar la investigación.
  2. Debe ser comprobable empíricamente. Una hipótesis sin referencia empírica no tiene validez científica.
  3. Debe ser objetiva, evitando juicios de valor como «mejor» o «peor».
  4. Debe ser específica, tanto en el problema como en los indicadores para medir las variables.

Adicionalmente, la hipótesis debe estar relacionada con los recursos y técnicas disponibles.

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *