Prueba de Hipótesis

Uno de los objetivos de la prueba estadística es el de probar una hipótesis relacionada con los valores de uno o más parámetros poblacionales. Por lo general, disponemos de una teoría (una hipótesis de investigación) respecto a los parámetros, que queremos sustentar.

Ejemplo: Un candidato arguye que obtendrá más de 50 % de los votos de una ciudad y, por consiguiente, que ganará las elecciones. Si los argumentos del candidato no son convincentes, podríamos plantear la hipótesis de investigación de que menos de 50 % del electorado es partidario del candidato.

La verificación de esta hipótesis, también llamada hipótesis alternativa, se consigue demostrando (con los datos de la muestra como evidencia) que la hipótesis contraria de la hipótesis alternativa, llamada hipótesis nula, es falsa. Por lo tanto, una teoría se comprueba demostrando que no hay evidencia que sustente la teoría opuesta: en cierto sentido, se realiza una prueba por contradicción.

Como se busca sustentar la hipótesis alternativa en la que se afirma que lo que dice el candidato es falso, nuestra hipótesis alternativa consiste en que p, la probabilidad de elegir un partidario del candidato, es menor que 0.5. Si se demuestra que los datos justifican rechazar la hipótesis nula P=0.5 (el valor mínimo necesario para conseguir una mayoría) y se inclinan a favor de la hipótesis alternativa p < 0.5, se habrá logrado el objetivo de la investigación.

Aunque con frecuencia se habla de probar un hipótesis nula, el objetivo de la investigación por lo general es el de presentar evidencias, que se puedan justificar, a favor de la hipótesis alternativa. Cualquier prueba de hipótesis estadística funciona exactamente de la misma manera y está formada por los mismos elementos esenciales.

Elementos de una Prueba de Hipótesis.
  Hipótesis Nula, H0.
  Hipótesis Alternativa, Ha.
  Estadístico de Prueba.
  Región de Rechazo.

Errores Tipo I y II.
Las hipótesis nula y alternativa son afirmaciones opuestas acerca de la población. Una de las dos, ya sea la hipótesis nula o la alternativa es verdadera, pero no ambas. Lo ideal es que la prueba de hipótesis lleve a la aceptación de Ho cuando Ho sea verdadera y al rechazo de Ho cuando Ha sea verdadera. Por desgracia, las conclusiones correctas no siempre son posibles. Como la prueba de hipótesis se basa en una información muestral debe tenerse en cuenta que existe la posibilidad de error.




Cuando se acepta Ho, si Ho es verdadera la conclusión es correcta. Pero, si Ha es verdadera se comete un error tipo II; es decir, se acepta Ho cuando es falsa.

Si la conclusión es rechazar Ho. Si Ho es verdadera se comete un error tipo I; es decir, se rechaza Ho cuando es verdadera. Pero si Ha es verdadera, es correcto rechazar Ho.

A la probabilidad de cometer un error tipo I cuando la hipótesis nula es verdadera como igualdad se le conoce como nivel de significancia. En la práctica la persona responsable de la prueba de hipótesis especifica el nivel de significancia. Al elegir α se controla la probabilidad de cometer un error tipo I. Si el costo de cometer un error tipo I es elevado, los valores pequeños de α son preferibles. Si el costo de cometer un error tipo I no es demasiado elevado, entonces se usan valores mayores para α.

A las aplicaciones de la prueba de hipótesis en que sólo se controla el error tipo I se les llama pruebas de significancia. Muchas aplicaciones de las pruebas de hipótesis son de este tipo. Aunque en la mayor parte de las aplicaciones de las pruebas de hipótesis se controla la probabilidad de cometer un error tipo I, no siempre sucede lo mismo con un error tipo II. Por tanto, si se decide aceptar Ho no es posible establecer la confianza en esa decisión. Debido a la incertidumbre de cometer un error tipo II al realizar una prueba de significancia los dedicados a la estadística suelen recomendar que se diga “no se rechaza Ho” en lugar de “se acepta Ho”.

Decir “no se rechaza Ho” implica la recomendación de reservarse tanto el juicio como la acción. En efecto al no aceptar directamente Ho, se evita el riesgo de cometer un error tipo II. Siempre que no se determine y controle la probabilidad de cometer un error tipo II, no se dirá “se acepta Ho”. En esos casos sólo son posibles dos conclusiones: no se rechaza Ho o se rechaza Ho.

Prueba t.
El modelo de regresión lineal simple es y = β0+ β1x+Є. Si x y y están relacionadas linealmente, entonces β1≠0. El objetivo de la prueba t es determinar si se puede concluir que β1≠0. Para probar la hipótesis siguiente acerca del parámetro β1 se empleara los datos muestrales:

  Ho: β1 =0
  Ha: β1≠0

Si se rechaza Ho, se concluirá que β1≠0 y que entre las dos variables existe una relación estadísticamente significante. La base para esta prueba de hipótesis la proporcionan las propiedades de la distribución muestral de b1, el estimador de β1, obtenido mediante el método de mínimos cuadrados.






Distribución F.
Una prueba F, basada en la distribución de probabilidad F puede emplearse también para probar la significancia en la regresión. Cuando sólo se tiene una variable independiente, la prueba F lleva a la misma conclusión que la prueba t; es decir, si la prueba t indica que β1≠0 y por lo tanto que existe una relación significante, la prueba F también indicará que existe una relación significante. Pero cuando hay más de una variable independiente, sólo la prueba F puede usarse para probar que existe una relación significante general.

La lógica detrás del uso de la prueba F para determinar si la relación de regresión es estadísticamente significativa se basa en la obtención de dos estimaciones independiente de σ2. Se explicó cómo ECM proporciona una estimación de σ2. Si la hipótesis nula Ho: β1 = 0 es verdadera, la suma de cuadrados debida a la regresión, SCR, dividida entre sus grados de libertad proporciona otra estimación independiente de σ2.

A esta estimación se le llama el cuadrado medio debido a la regresión o simplemente el cuadrado medio de la regresión. Y se denota CMR. En general:

CMR = SCR/Grados de Libertad de la Regresión.

El número de grados de libertad de la regresión es siempre igual al número de variables independientes en el modelo.

Grados de Libertad=Variables Independientes.



Cuando se rechaza la hipótesis nula Ho: β1 =0, concluir que la relación que existe entre x y y es significativa no permite que se concluya que existe una relación de causa y efecto entre x y y. Que exista una relación de causa y efecto sólo puede concluirse cuando el analista pueda dar justificaciones teóricas de que en efecto la relación es causal.

Además, el hecho de que se pueda rechazar Ho: β1 =0 y demostrar que hay significancia estadística no permite concluir que la relación entre x y y sea lineal. Lo único que se puede decir es que x y y están relacionadas y que la relación lineal explica una porción significante de la variabilidad de y sobre el rango de los valores de x observados en la muestra.






Fuente: 
Dennis Wackerly – Estadística Matemática con Aplicaciones; David R. Anderson – Estadística para Administración y Economía.









No hay comentarios.:

Publicar un comentario

La recomendación del momento

Cielito lindo

Una flecha en el aire tiró Cupido, y la tiró jugando —cielito lindo—

Lo más popular de la semana