Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163
El teorema de Bayes, estudiado en la Teoría de la Probabilidad, hace uso de la información para modificar la probabilidad de un suceso. De la misma forma, en un problema de inferencia, si se extrae una muestra, es posible utilizar el resultado obtenido (información) para modificar la estimación del parámetro poblacional desconocido.
La inferencia clásica se basa en aplicar el cálculo de probabilidades a una muestra aleatoria simple, con el objetivo de estimar un parámetro o tomar una decisión respecto a dos hipótesis estadísticas. En cualquier caso, la “incógnita” es un parámetro poblacional θ, cuyo valor numérico es desconocido. La inferencia bayesiana introduce un cambio importante en el enfoque del problema, pues considera que el propio parámetro es una variable aleatoria y, por tanto, tiene una función de densidad o de probabilidad (dependiendo de si es continua o discreta).
Ya se ha visto que el cálculo de probabilidades se puede realizar desde dos enfoques distintos. En uno de ellos, se realiza un experimento varias veces para estudiar la tendencia de los resultados (probabilidad frecuentista). Así, si se lanza 10 000 veces una moneda y sale cara en un 56 % de las ocasiones, se asigna la probabilidad de cara como 0,56 (y, por tanto, la probabilidad de cruz es 0,44).
Sin embargo, si no se realiza ningún experimento y no se tiene ninguna información que permita dudar de la perfección de la moneda, se asigna probabilidad 0,50 a los sucesos cara y cruz (probabilidad clásica o de Laplace). Se puede introducir un nuevo método para asignar probabilidades, a saber, la probabilidad subjetiva, que refleja opiniones subjetivas sobre la probabilidad de que ocurra un suceso.
Inferencia bayesiana
Hay que suponer que una población cuya función de densidad, que se detonará por f (x|θ), depende de un parámetro θ desconocido. Se quiere calcular una estimación puntual, θ∗, de θ, utilizando el resultado de una muestra aleatoria simple, x = {x1,…, xn}. Se asigna una distribución a priori, π (θ), para el parámetro poblacional. En el ejemplo anterior, en la expresión de la distribución a posteriori del parámetro, π (0,1|x) y π (0,2|x), se ve claramente el teorema de Bayes estudiado en el capítulo de probabilidad.
Por otra parte, se ha supuesto una probabilidad discreta para la distribución a priori del parámetro p cuando, en general, la proporción de piezas defectuosas puede ser cualquier valor continuo entre 0 y 1.
Hay que recordar que, si se realizara el experimento, se conocería el valor de x (el número de piezas defectuosas de la muestra) y la distribución a posteriori sería una función de una única variable, p. Es decir, aunque en la expresión de la función de densidad o probabilidad a posteriori aparece la muestra x, esta no es una variable de la función, puesto que es un dato conocido de problema.
Estimación puntual y por intervalo
Una vez calculada la distribución a posteriori, es posible utilizarla para hacer inferencias sobre los parámetros poblacionales como, por ejemplo, la media y la varianza. En cuanto a la interpretación del intervalo de confianza, se debe tener en cuenta:
- Si a < p < b es el intervalo de confianza clásico del 95 % para la proporción de piezas defectuosas obtenida con una muestra de tamaño n, la interpretación que se hace es que si se sacan muchas muestras de tamaño n, en el 95 % de los casos, la estimación puntual de p se encontrará entre los valores a y b.
- Si a < p < b es el intervalo de confianza de Bayes del 95 % para la proporción de piezas defectuosas obtenida con una muestra de tamaño n, la interpretación que se hace es que después de una muestra de tamaño n, la probabilidad de que el valor del parámetro caiga entre los valores a y b es del 95 %.
Teoría de la decisión
A menudo se tiene que tomar una decisión sobre una acción, por ejemplo, llevar o no llevar el paraguas, basándose en criterios estadísticos, ya que el modelo que define el criterio para tomar la decisión no es determinista. En general, el modelo probabilístico depende de un parámetro θ, cuyos valores (estados naturales) deciden las acciones a realizar. La elección de una acción aj, derivada del valor (estado) del parámetro θi, genera un coste que se recoge en forma de función de pérdida, L (θ, a), donde una pérdida negativa equivale a una ganancia.
A continuación se exponen dos de los criterios que habitualmente se utilizan para tomar una decisión:
- Decisión en ambiente de incertidumbre: criterio minimax: en este caso se trabaja directamente sobre la función de pérdida, sin necesidad de tener que extraer una muestra. El criterio calcula, para cada acción, la mayor de las pérdidas, y elige la que presenta la menor pérdida máxima.
- Decisión con riesgo: solución de Bayes: en este caso también se trabaja directamente sobre la función de pérdida, sin necesidad de tener que extraer una muestra, pero se asigna una distribución a priori del parámetro, π (θ).
Estimación bayesiana mediante la teoría de la decisión
Con la metodología bayesiana se puede, además de obtener una distribución a posteriori del parámetro, realizar una estimación del mismo que tenga en cuenta una función de pérdida. Hay dos tipos habituales de función de pérdida:
- Función de pérdida del cuadrado del error: L (θ, a)= (θ − a)2
- Función de pérdida del valor absoluto del error: L (θ, a)= |θ − a.
La función de pérdida del cuadrado del error
Para obtener la estimación bayesiana de p según los valores de x cuando se utiliza una función de pérdida del cuadrado del error.
Probabilidad estadística en la ciencia de datos
La creación de plataformas basadas en algoritmos es, en la actualidad, uno de los booms tecnológicos de mayor relevancia. Este resulta un mercado en constante crecimiento debido a la gran cantidad de usos y aplicaciones que pueden darse a las mismas. Por esta razón es de vital importancia que el profesional en informática tenga pleno conocimiento acerca de su estructura y conformación.
En TECH Universidad Tecnológica se desarrollan a diario algunos de los mejores programas enfocados en la educación superior. En el caso de su Facultad de Informática se pueden hallar posgrados como el Máster en Industria 4.0 y Transformación Digital y el Máster en Ingeniería de Software y Sistemas de Información. Por otra parte, para aquel profesional que busca dominar el campo de las ciencias de datos, una de sus mejores elecciones será optar por el Máster en Visual Analytics & Big Data.