ESTADÍSTICA



  •   Procesamiento, tratamiento y presentación estadistica de datos

La estadística es una disciplina científica que se ocupa de la obtención, orden y análisis de un conjunto de datos con el fin de obtener explicaciones y predicciones sobre fenómenos observados.

La estadística consiste en métodos, procedimientos y fórmulas que permiten recolectar información para luego analizarla y extraer de ella conclusiones relevantes. Se puede decir que es la Ciencia de los Datos y que su principal objetivo es mejorar la comprensión de los hechos a partir de la información disponible.
El origen de la palabra estadística se suele atribuir al economista Gottfried Achenwall (prusiano, 1719-1772) que entendía la estadística como “ciencia de las cosas que pertenecen al Estado”.
Conviene saber que la estadística NO es una rama de las matemáticas. Utiliza herramientas de las matemáticas del mismo modo que lo hace la física, la ingeniería o la economía, pero eso no las hace ser parte de las matemáticas. Es cierto que tienen una relación estrecha, pero la estadística y las matemáticas son disciplinas diferentes.

Transversalidad de la estadística

Una de las características fundamentales de la estadística es su transversalidad. Su metodología es aplicable al estudio de diversas disciplinas tales como: biología, física, economía, sociología, etc.
La estadística ayuda a obtener conclusiones relevantes para el estudio de todo tipo de agentes como: humanos, animales, plantas, etc. Generalmente lo hace a través de muestras estadísticas.

Ramas de la estadística

La estadística se puede subdividir en dos grandes ramas: descriptiva e inferencial.
  • Estadística descriptiva: Se refiere a los métodos de recolección, organización, resumen y presentación de un conjunto de datos. Se trata principalmente de describir las características fundamentales de los datos y para ellos se suelen utilizar indicadores, gráficos y tablas.
  • Estadística inferencial: Se trata de un paso más allá de la mera descripción. Se refiere a los métodos utilizados para poder hacer predicciones, generalizaciones y obtener conclusiones a partir de los datos analizados teniendo en cuenta el grado de incertidumbre existente. 
Estadística descriptiva e inferencial en el análisis de datos ...

La estadística inferencial se subdivide a su vez en dos grandes tipos: estadística paramétrica y no paramétrica.
  • Estadística paramétrica: Se caracteriza porque asume que los datos tienen una determinada distribución o se especifican determinados parámetros que deberían cumplirse. Así por ejemplo, en un análisis paramétrico podemos trabajar bajo el supuesto de que la población se distribuye como una Normal (hay que justificar nuestro supuesto) y luego sacar conclusiones bajo el supuesto que esta condición se cumple.
  • Estadística no paramétrica: En ella no es posible asumir ningún tipo de distribución subyacente en los datos ni tampoco un parámetro específico. Un ejemplo de este tipo de análisis es la prueba binomial.

Ejemplo de uso de la estadística en economía

La estadística es ampliamente utilizada en el análisis económico. Nos ayuda a comprobar la aplicación de la teoría económica en la práctica. Algunos ejemplos del uso de estadística en Economía son:
  • Elaboración de indicadores macroeconómicos agregados.
  • Predicciones acerca del comportamiento futuro de la demanda.
  • Testear la validez de hipótesis basadas en la teoría económica.
  • Calcular la tasa de paro.
  • Organizar y presentar datos económicos como: evolución de los precios, PIB, etc.
Curso online estadística Aplicada Técnicas de Análisis Multivariable

Objetivos;

Como objetivo general se puede decir que:
El objetivo de la estadística es mejorar la comprensión de hechos a partir de datos.
El principal objetivo de la estadística es hacer inferencias acerca de una población, con base en la información contenida en una muestra. (Pérez, p. 172)
Algunos objetivos específicos son (Martínez, p. 9):
  • Conocer la realidad de una observación o fenómeno.
  • Determinar lo típico o normal de esa situación.
  • Determinar los cambios que representa el fenómeno.
  • Relacionar dos o más fenómenos.
  • Determinar las causas que originan el fenómeno.
  • Hacer estimaciones sobre el comportamiento futuro del fenómeno.
  • Obtener conclusiones de un grupo menor (muestra) para hacerlas extensivas a un grupo mayor (población).
  • Determinar el grado de validez y confiabilidad ya sea de las predicciones o las conclusiones obtenidas a partir de muestras.

¿Cuáles son los tipos de estadística?

Estadística descriptiva

La estadística descriptiva se puede definir como un método para describir numéricamente conjuntos numerosos. Por tratarse de un método de descripción numérica, utiliza el número como medio para describir un conjunto, que debe ser numeroso, ya que las permanencias estadísticas no se dan en los casos raros. No es posible sacar conclusiones concretas y precisas de los datos estadísticos. (Vargas, p.33)

Objetivo de la estadística descriptiva

La finalidad última de la estadística descriptiva es resumir la información de conjuntos más o menos numerosos de datos. Para ello se asienta en un concepto inmediato a la tarea de recuento: la frecuencia, medida empírica de la ocurrencia de los distintos estados que puede presentar una variable.

Estadística inferencial, analítica o deductiva

La estadística inferencial estudia la probabilidad de éxito de las diferentes soluciones posibles a un problema en las diferentes ciencias en las que se aplica y para ello utiliza los datos observados en una o varias muestras de la población. Mediante la creación de un modelo matemático infiere el comportamiento de la población total partiendo de los resultados obtenidos en las observaciones de las muestras.

Objetivo de la estadística inferencial

La inferencia estadística intenta tomar decisiones basadas en la aceptación o el rechazo de ciertas relaciones que se toman como hipótesis. Esta toma de decisiones va acompañada de un margen de error, cuya probabilidad está determinada. (Vargas, p.33)
La estadística inferencial tiene dos objetivos básicos: a) obtener conclusiones válidas acerca de una población sobre la base de una muestra, es decir, que las conclusiones que obtengamos de una muestra se puedan extrapolar a la población que dio origen a esa muestra y b) poder medir el grado de incertidumbre presente en dichas inferencias en términos de probabilidad.

Breve reseña histórica

Hasta la actualidad se han desarrollado muchas y muy variadas técnicas estadísticas que se aplican en laboratorios y todo tipo de organizaciones alrededor del mundo en todos o casi todos los campos del conocimiento humano, lo que hace de la Estadística en sí misma una ciencia muy importante en el desarrollo de la vida. Estos son sólo algunos hitos históricos de su desarrollo.
El matemático británico Thomas Bayes (1702-1761) fue el pionero en el uso de la teoría de la probabilidad para argumentar desde lo particular a lo general o de la muestra a la población.
Pierre-Simon Laplace, astrónomo francés (1749-1827) admitió el principio de la probabilidad inversa, a él se debe el principio de que la distribución de una cantidad compuesta de partes independientes muestra toda una serie de características (la media, varianza y otras medidas) que son simplemente las sumas de cada característica de las distribuciones de las partes.
Carl Friedrich Gauss, matemático, astrónomo y físico alemán (1777-1855), se acercó al problema de la estimación estadística en forma empírica, planteando el problema de la estimación no solo en términos de probabilidades sino en términos de otros parámetros cuantitativos. Para este propósito trató de aplicar el método de máxima verosimilitud, aunque intentó derivar y justificar este método con el principio de la probabilidad inversa. Además, perfeccionó el ajuste sistemático de las fórmulas de regresión, simple y múltiple, por el método de los mínimos cuadrados, el cual, en los casos en los que sea apropiado, es un ejemplo particular del método de máxima verosimilitud.
Friedrich Robert Helmert, matemático y geólogo alemán (1843-1917), descubriría la distribución chi-cuadrada como una distribución de la varianza muestral para una distribución normal, pero como su obra fue escrita en alemán y desconocida en otras lenguas, luego se le atribuyó ese mismo descubrimiento a Karl Pearson, matemático y científico inglés (1857-1936), quién se considera que instituyó las disciplinas de la estadística matemática y de la bioestadística.
William Sealy Gosset, estadístico inglés (1876-1937), descubrió, a comienzos del Siglo XX, la forma de la distribución t mediante una combinación de trabajos empíricos y matemáticos con números aleatorios en su trabajo como estudainte y colaborador en el laboratorio de Pearson.
Ronald Fisher, estadístico y biólogo inglés (1890 – 1962), considerando uno de los padres de la inferencia estadística moderna, propuso y desarrolló el concepto de análisis de la varianza, los valores p, el método de máxima veroscimilitud, la distribución f (de Fisher, aunque también se le atribuye a otro científico, el estadounidense George W. Snedecor, quien la habría nombrado de esa manera por su gran admiración a Fisher), investigó la relación de los genes de diferentes características y desarrolló métodos de análisis multivariante para responder esas inquietudes.
Frank Yates, estadístico inglés (1902 – 1994), en su trabajo con Fisher, desarrolló la correccion de continuidad o correccion de Yates.
Egon Pearson, hijo de Karl, estadístico británico (1895 – 1980), y Jerzy Neyman, matemático y estadístico polaco (1894 – 1981), propusieron la prueba de hipótesis, en oposición a los estudios de Fisher, conocido como el lema fundamental de Neyman-Pearson, un resultado que describe el criterio óptimo para distinguir dos hipótesis simples.
Clases de datos
  • Variable cuantitativa o escalar. Será una variable cuando pueda asumir sus resultados en medidas numéricas.
  • Variable cuantitativa discreta. Es aquella que puede asumir sólo ciertos valores, números enteros. Ejemplo: El número de estudiantes (1,2,3,4)
  • Variable cuantitativa continua. Es aquella que teóricamente puede tomar cualquier valor en una escala de medidas, ya sea entero o fraccionario. Ejemplo, Estatura: 1.90 m
  • Variables cualitativas nominales. Cuando no es posible hacer medidas numéricas, son susceptibles de clasificación. Ejemplo: Color de autos: rojo, verde, azul.
Experimento. Es una actividad planificada, cuyos resultados producen un conjunto de datos. Es el proceso mediante el cual una observación o medición es registrada. Ejemplo: ¿Cuál será la preferencia del consumidor ante dos marcas de refresco con similares características en un ambiente armónico y sin publicidad?
       Referencias;

Comentarios