Vistas de página en total

jueves, 31 de mayo de 2018

Tema 12: concordancia y correlación.

Buenos días, tardes, noches a todos aquellos que me acompañáis en esta nueva entrada, esta vez hablaremos de concordancia y correlación entre variables. Antes de nada también hablaremos sobre las relaciones entre variables y las regresiones, para más tarde hablar sobre Pearson (correlación paramétrica) y Spearman (correlación no paramétrica).

La primera persona que utilizó el término de regresión fue Galton en su libro "Natural inheritance" en el que habla sobre este término:

  1. "Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor". Esto es lo que llamamos regresión a la media.
  2. Se centró en  describir rasgos físicos de la descendencia de una familia a partir de los rasgos de los padres.
  3. Entonces aparece Pearson, el que hace un estudio con una muestra de más de 1000 registros de grupos familiares y observa que:
    1. La altura de un hijo será igual a 85cm + 0'5 la altura del padre, aproximadamente.
    2. Llegó a la conclusión de que los padres altos tenderán a tener descendencia alta aunque esta se irá acercando cada vez más a la media, de igual manera esto ocurre con los padres de talla baja
Actualmente el término de regresión hace referencia a la predicción de una medida basándonos en el conocimiento de otra.
Para estudiar un conjunto de variables que están organizadas sin ningún patrón aparente recogeremos las observaciones realizadas en un diagrama de dispersión. El objetivo de tal acción será reconocer a partir de dicho diagrama si hay relación entre las variables que estamos estudiando, de qué tipo y si es posible predecir el valor de una de ellas en función de la otra.
Por poner un ejemplo, podríamos relacionar el peso con la altura y podríamos obtener algo parecido a esto:
A  grandes rasgos en esta gráfica lo que finalmente podemos observar es que el peso aumentará de manera "armónica" junto con la altura.
Debemos saber que a partir de estos diagramas podemos hablar de relaciones que pueden ser directas o inversas o puede que existan también incorrelaciones, es decir, que no haya relación entre las variables:

  • Hablamos de incorrelación cuando para valores de X por encima de la media tenermos valores de Y por encima y por debajo en proporciones similares. 
  • Hablamos de relación directa cuando para los valores de X mayores que la media te corresponden valores de Y mayores también y de igual manera a la inversa.

  • Hablamos de relación inversa cuando para los valores de X mayores que la media le corresponden valores de Y menores.





Ahora pasaré a hablaros sobre la regresión lineal simple. Consiste en estudiar una asociación lineal entre dos variables cuantitativas. Podemos encontrarnos con regresiones lineales que sólo cuentan con una variable independiente; de igual manera podemos encontrarnos con regresiones lineales múltiples que cuentan con más de una variable independiente.
Debemos tener en cuenta las siguientes características a la hora de realizar una regresión lineal:
  • Ecuación de la recta: y = ax + b (ej: TAS=a· edad +b)
  • Pendiente de la recta a = β1 
  • Punto de intersección con el eje de coordenadas b=β0 
  • Pendiente de la recta a = β1 
  • Punto de intersección con el eje de coordenadas b=β0
  • Β1 expresa la cantidad de cambio que se produce en la variable dependiente por unidad de cambio de la variable independiente 
  • Β0 expresa cuál es el valor de la variable dependiente cuando la independiente vale cero
Debemos saber que existen dos modelos lineales, el determinista y el probabilístico. Para el determinista a cada valor de la variable independiente le corresponde un valor de la dependiente. En cambio en el modelo probabilístico, para cada valor de la variable independiente existe una distribución de probabilidad de valores de la dependiente, con una probabilidad entre 0 y 1.
La recta que determinaremos en cada caso es aquella con la menor distancia de cada punto a ella.
Y llegamos a los coeficientes de relación en los cuales seré breve:
  1. Coeficientes de correlación de Pearson: Es una prueba paramétrica por lo que requiere que la distribución de la muestra siga la normalidad.
  2. Coeficiente de Spearman: No paramétrica por lo que requiere que se emplea cuando la distribución no sigue la normalidad.
El análisis de esta correlación se utiliza con el propósito de disponer de un indicador cuantitativo que permite sintetizar el grado de la asociación entre variables.
Coeficiente de Correlación r de Pearson (r), (Rxy): Es un coeficiente que mide el grado de la relación de dependencia que existe entre las variables (x,y), cuyos valores van desde –1, correspondiente a una correlación negativa perfecta, hasta 1, correspondiente a una correlación positiva perfecta.
El procedimiento para realizar esta correlación es el siguiente:

  1. Se ordenan los valores de una de las variables y lo acompañamos de su correspondiente valor ordenado en la otra variable 
  2. Para cada par de observaciones (rangos) calculamos su diferencia di= rango de ui – rango de vi 
  3. Se eleva al cuadrado cada di y se suman todos los valores encontrados 
  4. Se calcula para determinar la discrepancia entre los rangos la siguiente fórmula:


Y con esto me despido de vosotros, espero que os haya servido para aprender algo nuevo.

martes, 29 de mayo de 2018

tema 11: Pruebas no paramétricas más utilizadas en enfermería.

Bienvenidos de nuevo a una nueva entrada a este humilde blog. La entrada de hoy, como bien pone en el título de  este post tratará sobre las pruebas no paramétricas que más utilizamos en enfermería a la hora de realizar investigaciones.
Las pruebas que más se usan en enferería son las pruebas de T-Student, test de ANOVA, Pearson, Spearman y Chi-cuadrado.
En esta publicación nos centraremos en explicar de la mejor manera posible el test de Chi-Cuadrado.
Antes de nada debemos saber que Chi-cuadrado es una prueba paramétrica que usamos para contrastar dos hipótesis cuando estas son ambas cualitativas.
Para comenzar a poder realizar esta prueba tenemos que realizar una tabla de frecuencias en la que podamos observar todos los datos, debemos crear una tabla con los datos observados y otra con los esperados, esta última será necesaria para poder aplicar al fórmula de la prueba que nos ocupa. Posteriormente al tener creadas ambas tablas debemos calcular en estas mismas los porcentajes de cada una de las celdas de las tablas, para, en caso de tener que rechazar la hipótesis nula poder decidir que hipótesis alternativa elegir.
Como ya hemos comentado, la prueba de Chi-cuadrado nos va servir para comprobar la diferencia en los datos que observamos. Para poder usarla debemos reunir la siguiente serie de condiciones:

  • Las observaciones deben ser independientes.
  • Utilizar variables cualitativas.
  • Debemos disponer de una muestra mayor de 50 casos.
  • Las frecuencias esperadas en cada casilla de clasificación no deben ser inferiores a 5.
Ahora que ya sabemos qué es lo que necesitamos para realizar la prueba pasemos a conocer la fórmula que sería la siguiente:
Tras aplicar la fórmula ya solo nos queda saber cómo interpretar los resultados que vamos a obtener. Para ello necesitaremos conocer los grados de libertad con los que contamos, los cuales se calcular restando filas menos uno y columnas menos unos y tras eso multiplicar los resultados. Al tener el grado de libertad podemos descubrir la p=probabilidad, que nos va a permitir comparar con la p de otros estudios. Pues bien si obtenemos una p<0,05 eso significaría que debemos rechazar la hipótesis nula y aceptar la alternativa. Por el contrario, si nuestra p>0,05 aceptaríamos la hipótesis nula.
Y con esto concluyo esta nueva entrada, espero que os vayáis sabiendo un poco más.

sábado, 26 de mayo de 2018

Tema 10: Estimación y/o significación estadística.

Buenas tardes y bienvenidos a una nueva entrada. Esta vez os hablaré sobre la estimación o significación estadística.
Antes que nada ¿Qué es la estimación estadística? Es una de las formas de hacer inferencia estadística, la que nos va a permitir contrastar hipótesis, escoger la nula o la alternativa que hallamos planteado. Nos va a permitir también calcular nuestro nivel de significación y tomar decisiones cuantificando incluso el error que tengamos
Durante esta entrada os mostraré cómo plantear una hipótesis. Antes que nada debemos saber qué es una hipótesis, pues bien, una hipótesis es la creencia, proposición que nosotros tenemos sobre los resultados que obtendremos al final de una investigación o estudio.
Esta proposición las comprobaremos a través de los cálculos pertinentes como son las pruebas de Chi-cuadrado o el Test de Student. Debemos saber que siempre que planteemos una hipótesis debemos plantear una hipótesis nula y otra alternativa:

  • Hipótesis nula: es aquella en la que establecemos que no existe ningún tipo de relación entre los que estamos estudiando. Por ejemplo, si estudiamos el tabaquismo según sexos diremos en nuestra hipótesis nula que no existe ninguna relación entre ser mujer u hombre y el tabaquismo.
  • Hipótesis alternativa: como su nombre indica es la que tomaremos en caso de que la hipótesis nula no se cumpla. Por ejemplo, el sexo influirá en el tabaquismo. En este caso deberemos usar las pruebas estadísticas para determinar que sexo se ve más influenciado por el tabaquismo.
Ahora que ya sabemos lo que son las hipótesis, de qué forma plantearlas y los tipos de hipótesis que existen, pasemos a contrastarlas.
El contrastar las hipótesis nos va a servir para poder controlar los errores que realicemos a lo largo del estudio o investigación. Para ello utilizaremos los intervalos de confianza además de test o contrastes de hipótesis. Para realizar un contraste de hipótesis seguiremos los siguientes pasos:

  1. Establecemos una hipótesis a priori sobre el valor del parámetro.
  2. Realizamos nuestra recogida de datos.
  3. Analizamos coherencia entre las hipótesis que hemos planteado al principio y los datos obtenidos.
En estos contrastes de hipótesis como ya he comentado, usaremos las pruebas y test estadísticos correspondientes, con los que vamos a medir la probabilidad de error que podremos tener rechazando la hipótesis nula asociada al valor de p.
Según el nivel de confianza que establezcamos, que normalmente es de un 95% las soluciones de estos contrastes pueden ser:

  • p>0,05: en este caso no podemos rechazar la hipótesis nula (no podemos decir que sea cierta, sino que no podemos rechazarla) 
  • p<0,05: en este caso rechazamos la hipótesis nula, por lo que debemos aceptar la hipótesis la hipótesis alternativa.
A continuación os hablaré sobre los tipos de errores que podemos tener en las hipótesis:
Por un lado nos encontramos con el error alfa, que es la probabilidad que tenemos de equivocarnos al elegir la hipótesis nula como verdadera siendo la verdadera la alternativa.
El otro error que podemos cometer es el error beta, que es lo contrario al error alfa, es decir, aceptamos la hipótesis alternativa siendo la verdadera la hipótesis nula.
Por último os dejo una tabla en la que podemos observar los distintos test de hipótesis que nos podemos encontrar y cuando usarlos:
Y con esto me despido hoy de ustedes, espero que os haya sido útil esta nueva entrada.

lunes, 14 de mayo de 2018

Tema 9: Estadística inferencial: Muestreo y estimación.

Hola de nuevo chicos y chicas a esta entrada, esta vez os hablaré sobre la estadística inferencial.
Antes de nada ¿qué es inferir? Pues bien, inferir es cuando nuestro interés no se centra en pacientes concretos sino más bien en todos aquellos pacientes con características similares, es decir, estudiamos pacientes concretos para poder conocer las características similares de grupos más amplios.

Veamos ahora el proceso de la inferencia estadística:

  • Contamos con una población, de la que sacaremos un parámetro, es decir, los datos de la población.
  • En base a dicha población escogemos una muestra de manera aleatoria.
  • De esta muestra, al inferir, obtenemos un estimador, que es el dato que obtenemos de dicha muestra y que extrapolaremos a la población.
Este proceso, por el que a partir del estimador obtenido de la población, me aproximo al parámetro se denomina inferencia.
A continuación os dejo un ejemplo de inferencia estadística:
Ejemplo inferencia:
 Estudio tiempos de curación de úlceras en muestra de 100 pacientes.
- Media del tiempo muestra 1=53,77 días.
- Media del tiempo muestra 2=57,08 días. Si seleccionáramos muchas muestras, cada una nos daría un valor distinto. 

 Construimos histograma con los estimadores de la media de tratamiento calculados en 200 muestras (200 estudios distintos, y de todos calculamos la media) distintas de 100 pacientes cada una.
 El histograma recuerda a una campana de Gauss, por lo tanto seguiría una distribución normal. Esto significa que utilizando los principios que siguen las distribuciones normales puedo hacer inferencias.
Siempre saldría así debido a que tendría una distribución normal. Esto nos permite calcular el error estándar. Que es el error que asumimos cuando seleccionamos una muestra probabilística. La variabilidad de los estimadores anteriores se conoce como error estándar.

Para entender mejor esto último os explico ahora qué es el error estándar, que sigue los tres puntos siguientes:

  • Es la medida que trata de captar la variabilidad de los valores del estimador (en este caso la media de los días de curación de la úlcera). 
  • El error estándar de cualquier estimador, mide el grado de variabilidad en los valores del estimador en las distintas muestras de un determinado tamaño que hayamos escogido de la población.
  • Cuanto más pequeño es el error estándar de un estimador, más confiaremos en el valor de una muestra concreta
Para calcular el error estándar:

  • - Error estándar para una media : 𝑠 √𝑛= 𝑒 
  • - Error estándar para una proporción (frecuencia relativa): √𝑝(1 − 𝑝) 𝑛 ⁄ = 𝑒 
Para comprender las fórmulas es necesario saber que:

  1. S= desviación típica.
  2. n=tamaño de la muestra
  3. p=proporción estimada en la muestra.
De ambas formulas podemos concluir en que, mientras mayor el tamaño muestral, menor será el error estándar

Para continuar, os voy a hablar del teorema central del límite, que sigue las normas básicas que ya vimos en las distribuciones normales que forman la gráfica en forma de campana de Gauss.
Por ejemplo, si en vez de una muestra, seleccionara 100 muestras y calculara las medias al ponerlas en un histograma, tendría una distribución normal, en la cual el error estándar coincide con la desviación estándar del histograma, por lo tanto si le sumo y le resto a la media el error estándar, tendré el 68.26% de las observaciones. Y como he dicho anteriormente sigue las normas básicas de las distribuciones normales:

  • ± 1S   68,26% de las observaciones (muestras). 
  • ± 2S    95,45% de las observaciones. 
  • ± 1,95S  95% de las observaciones 
  • ± 3S      99,73% de las observaciones. 
  • ± 2,58S   99% de las observaciones.
Por último os voy a hablar sobre los intervalos de confianza.
¿Qué son? Son un medio de conocer el parámetro en una población midiendo el error aleatorio.
Se trata de un par de números con los que, dado un nivel de confianza, podremos asegurar que el valor del parámetro se encontrará entre esos dos números.
Lo calcularemos considerando que el estimador muestral sigue una distribución normal.
Para calcular estos intervalos de confianza:

  • I.C.de un parámetro = estimador ± z(e.estándar) 
  • Z es un valor que depende del nivel de confianza 1-α con que se quiera dar el intervalo (α=error máximo admisible: 5%). Por lo tanto Z tiene que ver con el valor que va delante de S en el teorema central del límite. Si I.C es más alto, más probabilidad de que el intervalo esté dentro y por tanto la horquilla será mayor. 
  • Para nivel de confianza 68% z=1 (No suele utilizarse un intervalo de confianza del 68% porque asumimos un error máximo del 5%) 
  • Para nivel de confianza 95% z=1,96→2. 
  • Para nivel de confianza 99% z=2,58→3. 
  • El signo ± significa que cuando se elija el signo negativo se conseguirá el extremo inferior del intervalo y cuando se elija el positivo se tendrá el extremo superior.
Debemos tener en cuenta que, mientras más confianza queramos otorgarle al intervalo más amplio será este, pero a la vez, perderá precisión.
A continuación os dejo un ejercicio resuelto, y con él me despido de ustedes por ahora.



1.  Se estudiaron 93 pacientes en una unidad coronaria para conocer la proporción de enfermos coronarios que presentaban algo riesgo de infarto agudo de miocardio (IAM). Tras estudiar los pacientes se observó que 22 de ellos presentaban algo riesgo de IAM. ¿Cuál sería el intervalo de confianza al 95% de la proporción de general enfermos coronarios con alto riesgo de IAM?
a) Entre el 12% y 51%.
b) Entre el 15% y el 32%.
c) Entre el 19% y el 25%.
d) Entre el 21 % y el 27%.
N=93
22 IAM
P=22/93= 0’24 ;       q=1-p      IC= 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 ± 𝑧(𝑒.𝑒𝑠𝑡á𝑛𝑑𝑎𝑟) =   p±z √𝑝𝑞/ 𝑛= p±z √𝑝(1−𝑝)/n

Z=2                                       e=√0′24∗0′76/93 = 0’044


IC 95% → 0’24±0’044*2=   ·0’328
                                               ·0’152
El intervalo sería [0'152-0'328]

martes, 8 de mayo de 2018

Tema 8: Teoría de muestras

Bienvenidos a todos de nuevo, un día más a este humilde blog, en la entrada de hoy hablaré sobre teoría de muestras, básicamente sobre el procedimiento que debemos seguir para escoger de manera correcta y precisa la población sobre la que trabajaremos durante nuestra investigación.

El muestreo es muy importante, ya que nos permitirá realizar de manera eficiente la investigación y después poder extrapolar los datos obtenidos para una población mayor, pero ¿Qué es el muestreo? Un muestreo es un método tal que al escoger un grupo pequeño de una población podamos tener un grado de probabilidad de que ese pequeño grupo posea las características de la población que estamos estudiando.
Cuando hablamos de muestreo debemos tener en cuenta que existen dos tipos de muestreo:

  1.  No probabilístico: este tipo de muestreo no sigue el proceso aleatorio, por lo cual la muestra no se considerará representativa de la población.
  2. Probabilístico: este tipo de muestreo se caracteriza principalmente porque todos sus objetos y variables tenían las misma oportunidades de ser escogidos como muestra, por ello son representación de la población. Y son cuatro los tipos de muestreo probabilístico:
    • Aleatorio simple: como cuando hablamos de sorteos.
    • Sistemático: similar al simple, donde todos los objetos tienen las mismas probabilidades de ser incluidos en la muestra.
    • Estratificado: Se va a caracterizar por la subdivisión de la población en subgrupos o estratos.
    • Conglomerado: lo usaremos al no disponer de una lista detallada de cada uno de los objetos que podrían incluirse en la muestra.
Lo más importante a la hora de realizar un muestreo es evidentemente, la muestra, para seleccioanarla de manera adecuada debemos tener en cuenta:

  • El error aleatorio.
  • La varianza de la población.
  • El tamaño de la población de estudio.
  • Del nivel de confianza que queramos obtener con dicha muestra.
Para ello, para obtener una muestra digna y fiable usaremos la siguiente fórmula
n=Z^2*S^2/e^2.
Esto es todo de lo que os puedo hablar sobre muestreo de población, a continuación os dejo un ejemplo de ejercicio que os invito a intentar resolver.


En una población 8000 habitantes se quiere hacer una encuestra de una muestra para establecer una escala de tabaquismo. Se conoce que en la encuesta nacional de salud laa prevalencia nacional del tabaquismo se sitúa en el 18,5%. Calcula el tamaño mínimo muestral necesario para confianza del 95% y un error máx en la prevalencia del 1%
¿Y si elnivel de confianza fuera del 99%?

sábado, 5 de mayo de 2018

Tema 7: Teoría de la probabilidad

Hola de nuevo a todos en otra nueva entrada en este blog. Hoy hablaremos de conceptos básicos sobre probabilidad, distribuciones y reglas básicas y sobre el teorema de Bayés.

¿Qué es la probabilidad?, bien, la probabilidad es el cálculo matemático de las posibilidades que existen de que una cosa se cumpla o suceda al azar.
Pues bien, es necesario apuntar que hay distintos tipos de probabilidades.

  1. Probabilidad subjetiva o personalizada. Mide la confianza que el individuo tiene sobre algún hecho que pueda suceder.
  2. Probabilidad clásica o "a priori". La probabilidad se calcula con un razonamiento abstracto. Por ejemplo, en un dado la posibilidad de que salga 6 será 1/6.
Para números grandes se ha observado que, a medida que, en el caso del dado por ejemplo, mientras más intentos hagamos más probabilidades hay de que salga un 6.

Ahora os hablaré sobre el teorema de Bayes, el cual simplemente y a grandes rasgos vincula la probabilidad de A cuando sabemos B con la probabilidad de B cuando sabemos A. Para poner un ejemplo y así aclararlo todo, cuando tenemos gripe probablemente nos duela la cabeza, pero si nos duele la cabeza no necesariamente tendremos gripe. Pues bien, este teorema nos va a permitir calcular la probabilidad de tener gripe cuando tengamos dolor de cabeza.

Para continuar os hablaré sobre los tipos de distribuciones que podemos encontrarnos

  • Binominal; es una distribución que se va  a dar cuando solo tenemos dos variables.
  • Distribución de Poisson. Es una distribución que se utilizan en los casos donde las situaciones que se dan son impredecibles o muy difíciles de que ocurran.
  • Distribuciones normales. Este tipo de distribución es el más importante y siempre va adar lugar a una gráfica denominada, campana de Gauss. Como características esta distribución tiene que, la media coincidirá siempre con el pico más alto de la campana que se encontrará situado justo en la mitad de la campana
Por último, nos encontramos en este tema con las tipificaciones, que las vamos a poder realizar en distribuciones normales para extrapolar los datos que hayamos recogido en aquello que nos interese.
Las tipificaciones de una variable que siga una distribución normal son las siguientes:

  • +/- 1S, corresponderá con el 68,25%
  • +/- 2S corresponderá con el 95.4%.
  • +/-  1.95S corresponderá con el 95%.
  • +/- 3S corresponderá con el 99.73%.
  • +/- 2,58 corresponderá con el 99%


Y esto es todo por hoy mis queridos amigos, os espero en la próxima entrada.