La primera persona que utilizó el término de regresión fue Galton en su libro "Natural inheritance" en el que habla sobre este término:
- "Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor". Esto es lo que llamamos regresión a la media.
- Se centró en describir rasgos físicos de la descendencia de una familia a partir de los rasgos de los padres.
- Entonces aparece Pearson, el que hace un estudio con una muestra de más de 1000 registros de grupos familiares y observa que:
- La altura de un hijo será igual a 85cm + 0'5 la altura del padre, aproximadamente.
- Llegó a la conclusión de que los padres altos tenderán a tener descendencia alta aunque esta se irá acercando cada vez más a la media, de igual manera esto ocurre con los padres de talla baja
Para estudiar un conjunto de variables que están organizadas sin ningún patrón aparente recogeremos las observaciones realizadas en un diagrama de dispersión. El objetivo de tal acción será reconocer a partir de dicho diagrama si hay relación entre las variables que estamos estudiando, de qué tipo y si es posible predecir el valor de una de ellas en función de la otra.
Por poner un ejemplo, podríamos relacionar el peso con la altura y podríamos obtener algo parecido a esto:
A grandes rasgos en esta gráfica lo que finalmente podemos observar es que el peso aumentará de manera "armónica" junto con la altura.

- Hablamos de incorrelación cuando para valores de X por encima de la media tenermos valores de Y por encima y por debajo en proporciones similares.
- Hablamos de relación directa cuando para los valores de X mayores que la media te corresponden valores de Y mayores también y de igual manera a la inversa.
- Hablamos de relación inversa cuando para los valores de X mayores que la media le corresponden valores de Y menores.
Ahora pasaré a hablaros sobre la regresión lineal simple. Consiste en estudiar una asociación lineal entre dos variables cuantitativas. Podemos encontrarnos con regresiones lineales que sólo cuentan con una variable independiente; de igual manera podemos encontrarnos con regresiones lineales múltiples que cuentan con más de una variable independiente.
Debemos tener en cuenta las siguientes características a la hora de realizar una regresión lineal:
- Ecuación de la recta: y = ax + b (ej: TAS=a· edad +b)
- Pendiente de la recta a = β1
- Punto de intersección con el eje de coordenadas b=β0
- Pendiente de la recta a = β1
- Punto de intersección con el eje de coordenadas b=β0
- Β1 expresa la cantidad de cambio que se produce en la variable dependiente por unidad de cambio de la variable independiente
- Β0 expresa cuál es el valor de la variable dependiente cuando la independiente vale cero
La recta que determinaremos en cada caso es aquella con la menor distancia de cada punto a ella.
Y llegamos a los coeficientes de relación en los cuales seré breve:
- Coeficientes de correlación de Pearson: Es una prueba paramétrica por lo que requiere que la distribución de la muestra siga la normalidad.
- Coeficiente de Spearman: No paramétrica por lo que requiere que se emplea cuando la distribución no sigue la normalidad.
Coeficiente de Correlación r de Pearson (r), (Rxy): Es un coeficiente que mide el grado de la
relación de dependencia que existe entre las variables (x,y), cuyos valores van desde –1,
correspondiente a una correlación negativa perfecta, hasta 1, correspondiente a una correlación
positiva perfecta.
El procedimiento para realizar esta correlación es el siguiente:
- Se ordenan los valores de una de las variables y lo acompañamos de su correspondiente valor ordenado en la otra variable
- Para cada par de observaciones (rangos) calculamos su diferencia di= rango de ui – rango de vi
- Se eleva al cuadrado cada di y se suman todos los valores encontrados
- Se calcula para determinar la discrepancia entre los rangos la siguiente fórmula:
Y con esto me despido de vosotros, espero que os haya servido para aprender algo nuevo.