Tomando decisiones



Otros artículos del ciclo
Toma de decisiones

Toma de decisiones. Ejemplo



Este trabajo trata sobre la seguridad de los sistemas de información en los que se toman decisiones de información serias y que se pueden dividir en tres tipos:



  • en primer lugar, los sistemas de recuperación de información (sistemas de recuperación de información (ISS), sistemas de medición de información (IIS) y otros);
  • en segundo lugar, los sistemas transceptores (sistemas de transmisión de datos (DTS), sistemas de solicitud-respuesta (ZOS) y otros);
  • -, , ( , , ).


En todos los sistemas, la gestión es un fenómeno, proceso, actividad importante, que incluye, como componentes, la organización del sistema, la asignación de recursos (planificación), la toma de decisiones y la comunicación.



Es difícil nombrar un área de actividad en la que no se tomarían decisiones de vez en cuando. Esta situación y fenómeno siempre ha ocurrido tanto ahora como en el futuro, una persona no moverá un dedo sin tomar una decisión al respecto. No siempre se realiza, pero es exactamente así.



Aquí (en el trabajo) nos centraremos en la teoría de la elección y la toma de decisiones, que estudia modelos matemáticos de toma de decisiones y sus propiedades. Durante mucho tiempo, la ciencia de la toma de decisiones ha evolucionado, se podría decir, unilateral. El esquema clásico está cubierto por la teoría estadística basada en la función de riesgo, en errores de primer y segundo tipo.



Este enfoque de la toma de decisiones ha jugado un papel positivo y su aplicabilidad no se niega hoy, sino que se limita a los principios de racionalidad. El enfoque no está exento de inconvenientes. Hay un eslogan muy conocido atribuido al clásico (Gosset (seudónimo de Student)) de la teoría estadística "sobre tres tipos de mentiras: deliberadas, no intencionales y estadísticas".



Otra dirección de la teoría de la toma de decisiones, la algebraica, apareció algo más tarde, pero resultó ser inaccesible para la comprensión (y, como consecuencia, para la aplicación). El enfoque se basa en la teoría de las relaciones de orden parcial y su versión particular - relaciones de preferencia. Recientemente escribí sobre esto , pero la publicación no fue aprobada, por decirlo suavemente.



Veo la crueldad de esta práctica en el hecho de que tal actitud hacia la publicación, los lectores que tienen la oportunidad de dar una calificación negativa, ralentiza y desalienta a otros lectores a conocerla, apoyándose en la opinión de otra persona.



Quizás, después de poco tiempo, los exaltados se calmaron, no se dijo nada ofensivo en la publicación, pero alguien tomó mis comentarios personalmente. Incluso la literatura educativa del segundo enfoque es muy limitada y, aunque existen monografías, son difíciles de percibir, lo que supone un cierto freno al desarrollo del enfoque.



Cuando se trata de seguridad de la información (SI), es deseable ver toda la gama de problemas y tareas inherentes a ella y, por supuesto, una tarea importante en la lista completa de tareas es la tarea de gestión de la seguridad de la información, en particular, la selección y la toma de decisiones.



En general, aquí vuelvo a la teoría de las relaciones y sus aplicaciones, una de las cuales es el mecanismo de toma de decisiones y los resultados de la teoría de la toma de decisiones.... En esta publicación revelaré las principales disposiciones de la teoría, y en la siguiente daré un ejemplo mostrando los aspectos y detalles computacionales. Primero, nombraré los elementos principales del tema del enfoque estadístico en la teoría de la toma de decisiones y luego los describiré brevemente.



Función de riesgo (RF). Errores, tipo de error;

Conjunto inicial de alternativas (IMA);

Principio de optimalidad (OP);

Tomador de decisiones (DM);

Función de selección (FV);

Función de utilidad (FP);

Criterios de toma de decisiones.



Toma de decisiones y formas de minimizar el riesgo



La decisión se toma siempre en una situación de elección, que implica pérdidas, azar y ciertos riesgos que conviene minimizar. Si no hay elección, entonces no hay nada que decidir, actuar de forma única o no hacer nada en absoluto, como indica la alternativa.



La razón fundamental y el propósito de la minimización del riesgo es aplicar salvaguardas efectivas para que el riesgo residual en el sistema sea aceptable.

Minimización de riesgos Asume la solución de tres preguntas: identificación de aquellas áreas donde el riesgo es inaceptablemente grande; selección de los medios de protección más eficaces; evaluar las salvaguardas y determinar si el riesgo residual en el sistema es aceptable.



La investigación científica utiliza hipótesis que se plantean, formulan, verifican, confirman o refutan, esta es una forma natural de investigación. Las hipótesis pueden ser muy diferentes en contenido, en cómo se formulan y en cómo se prueban. Una clase importante son las hipótesis estadísticas, que se formulan con respecto a la forma de la ley de distribución de una variable aleatoria, o con respecto a los parámetros de esta ley, o con respecto al orden de rango de los valores de la variable aleatoria.



Las hipótesis formuladas con respecto a valores probabilísticos y estadísticos y de rango se verifican y evalúan utilizando varios tipos de técnicas y criterios estadísticos. Los resultados de probar y evaluar hipótesis estadísticas permiten sacar conclusiones cualitativas sobre los fenómenos en estudio. Por ejemplo, el grado de cercanía de la ley de distribución empírica de una variable aleatoria a la normal teórica o ley de Poisson.



Hipótesis nulas y alternativas . Suele ser hipótesis nula0consiste en el hecho de que se hace una suposición sobre la forma de la ley de distribución de probabilidad para una variable aleatoria o sobre el parámetro de dicha ley, o sobre la secuencia de rango. Otra hipótesis es1llamado alternativa.



Un ejemplo . Deja que la hipótesis0- consiste en el hecho de que la variable aleatoria obedece a la ley de distribución de Poisson o la ley de distribución normal. Hipótesis alternativa1- la variable aleatoria no obedece ni a la ley de distribución de Poisson ni a la ley de distribución normal. Puede haber varias hipótesis alternativas. Hipótesis1actúa como una negación.



La prueba de la verdad de las hipótesis siempre se realiza en una muestra aleatoria. Pero la muestra es limitada (finita) y, por lo tanto, no puede reflejar con perfecta precisión la ley de distribución de probabilidad en la población general. Siempre existe el riesgo de formular la hipótesis de que una muestra “mala” puede dar información completamente falsa sobre los méritos del caso. Por lo tanto, siempre existe la posibilidad de llegar a una decisión falsa.



Según los resultados de la aplicación de uno de los criterios para la comprobación estadística de hipótesis,

surge una de cuatro situaciones: - hipótesis nula0aceptado, y es correcto (respectivamente, la

falsa hipótesis alternativa1);

-Cero hipótesis0es rechazada, y es falsa (en consecuencia

, se acepta la hipótesis alternativa correcta1);

-Cero hipótesis0 rechazada, aunque es cierta (en consecuencia, se acepta una hipótesis falsa 1);

-Cero hipótesis0 aceptado, aunque es falso (respectivamente, se rechaza la hipótesis alternativa verdadera 1);

Las dos primeras situaciones representan la decisión correcta y las dos últimas son la decisión incorrecta.



Errores de primer y segundo tipo .

Un error de primer tipo α1 es una decisión que consiste en rechazar la hipótesis correcta0(tercera situación, a menudo referida como "no alcanzar un objetivo").

Un error del segundo tipo α2 es la decisión de aceptar la hipótesis nula0aunque es falsa (llamada "falsa alarma").





Los errores del 1er y 2do tipo pueden tener diferente significado y luego la elección como hipótesis principal 0cuando la solución del problema en cuestión se vuelve importante. Un error del primer tipo debe considerarse uno de los posibles errores que es más importante evitar, es decir es mejor finalizar lo correcto que aceptar lo incorrecto.



Sea un evento representado por el vectorS=S(x1,x2,,xn)en un espacio n-dimensional que puede pertenecer a solo uno de los dos conjuntos V1 o V2. Es de interés un método que, a partir del estudio de un evento representado por un vector, permitiría, con una mínima probabilidad de error, obtener una respuesta a la pregunta de cuál de los dos conjuntos V1 o V2 ​​debe atribuirse al evento en estudio o al vector correspondiente.



En otras palabras, el método debe clasificar el evento y terminar con la decisión de asignarlo a una clase específica. Teóricamente, en el proceso de tomar tal decisión, son posibles errores de dos tipos, que se denominan precisamente errores del primer y segundo tipo. Al mismo tiempo, se plantean dos hipótesis:



H0(SєV1) - la hipótesis de que el evento S pertenece al conjunto V1 y

H1(SєV2)- una hipótesis asumiendo que el evento S pertenece al conjunto V2.



Supondremos que se permite un error de primer tipo cuando se rechaza la hipótesisH0(SєV1), aunque es válido, y se admite un error de segundo tipo si se acepta la hipótesis H0(SєV1) cuando la hipótesis es cierta H1(SєV2) (1) .

Suele ser hipótesis nula0consiste en el hecho de que se asume sobre el fenómeno en estudio. Otra hipotesis1llamado alternativa.



Puede haber varias hipótesis alternativas y todas actúan como una negación de la nula.

La prueba de hipótesis siempre se realiza en una muestra aleatoria, pero en el experimento la muestra siempre es finita y, por lo tanto, no puede reflejar con perfecta precisión la distribución de probabilidad en la población general.



Siempre existe el riesgo de formular la hipótesis de que una muestra "mala" puede dar información completamente falsa sobre la esencia del caso. Siempre existe la posibilidad de tomar una decisión falsa. Un error de tipo I a menudo se denomina "no alcanzar un objetivo" y un error de tipo II se denomina "falsa alarma".



En situaciones de conflicto, el principio de máxima eficiencia sigue siendo plenamente válido. La especificidad del conflicto es la incertidumbre de la situación, que da lugar al riesgo. En consecuencia, el principio general del comportamiento racional en un conflicto es la máxima eficiencia con un riesgo aceptable (o lograr una eficiencia no inferior a la especificada con un riesgo operativo mínimo). El concepto de riesgo está lejos de ser ambiguo.



El análisis de varios eventos y oportunidades le permite encontrar una regla que determina la solución para cada punto del espacio de n dimensiones considerado. De hecho, si el evento observado es una amenaza cuando se manifiesta en forma de ataqueA=A(x1,x2,,xn) (2) , que debe atribuirse a una de las dos imágenes (clases) V1 o V2, entonces surge una situación que ocurre en el reconocimiento de patrones.



Deje que aparezca la probabilidad de una amenaza (ataque)S=S(x1,x2,,xn), siempre que su imagen pertenezca a la clase V1. Esta probabilidad, que caracteriza la densidad de imágenes (miembros) de la clase V1, se denomina densidad de probabilidad condicional en la clase V1 y se denotaφ(x1,...,xn/V1) o φ(Xn/V1) (3) .



La designación para la densidad condicional de la distribución de probabilidad en la clase V2 se introduce de manera similar, es decirφ(Xn/V2) (4) .

La probabilidad de una "falsa alarma", es decir la decisión de que hay un ataque que pertenece a la clase V1, mientras que en realidad el ataque pertenece a la clase V2, se escribe como,

(5)

dondeφ(V2)Es la probabilidad previa de ataque de un objeto de la clase V2.



De manera similar, la probabilidad de "no alcanzar el objetivo" se puede escribir como , (6)

dondeφ(V1)- probabilidad a priori de un ataque de un objeto de la clase V1; y

RV1,RV2- áreas de espacio correspondientes a las clases V1 y V2.



De interés práctico es tal regla de decisión que minimizaría el riesgo W o el costo promedio de tomar una decisión, determinado por la siguiente fórmulaW=α1Pα1+α2Pb (7) , donde α1 es el peso del error de tipo I, α2 es el peso del error de tipo II.



Considerando que las áreasRV1,RV2Si formamos todo el espacio de valores posibles, y la integral de la densidad de probabilidad sobre todo el espacio es igual a la unidad, obtenemos (8) La



interpretación de este enfoque puede ser la siguiente. El problema de elegir la solución óptima se reduce a dividir el espacio de las imágenes de ataque en dos áreasRV1,RV2, de modo que el riesgo W sea mínimo. De la expresión para W vemos que para este propósito la regiónRV1debe elegirse de modo que la integral en (8) tome el mayor valor negativo.



En este caso, el integrando debe tomar el mayor valor negativo y fuera de la regiónRV1no hay otro donde el integrando sea negativo, es decir (9)



De la relación (9) obtenemos fácilmente la siguiente regla de decisión S V1 if , (10)

que consiste en comparar las razones de las densidades de probabilidad con un cierto umbral θ, que es constante para ciertos valores de los pesos α1 y α2. Esta regla pertenece a la clase de reglas bayesianas y la razón de las densidades de probabilidad se denomina coeficiente de similitud.



En el caso α1 = α2 yφ(V1) = φ(V2)el umbral θ es obviamente igual a uno, y aquí todo es más o menos claro. Los problemas surgen en el lado izquierdo de la regla de decisión (10) . Densidades de probabilidad condicionalφ(Xn/V1) y φ(Xn/V2)se supone que son conocidos.



De hecho, este no es el caso. Además, la obtención de su valor analítico o incluso numérico presenta importantes dificultades. Por lo tanto, la mayoría de las veces se limitan a valores aproximados, determinando la frecuencia relativa con la que ocurren los ataques de un objeto de la clase V1. La muestra limitada se procesa de manera adecuada y las distribuciones desconocidas se estiman a partir de los resultados del procesamiento.



El conjunto inicial de alternativas (opciones) Ω, establecido por la situación, las limitaciones, los recursos y otras condiciones. Es necesario pedir el conjunto Ω. Definición. Un orden suelto es una relación binaria, reflexiva, transitiva y asimétrica.



Si tal BO no es reflexivo, entonces el orden se llama estricto. Si en un pedido cualesquiera dos alternativas son comparables, entonces el ordenamiento es lineal o perfecto. Si no todas las alternativas son comparables, entonces el orden se llama parcial. La relación de preferencia es un caso especial de ordenación.



El principio de optimalidad define el concepto de mejores alternativas mapeando φ: Ω → E1. Esta propiedad de las alternativas se denomina criterio , el número φ (x) es una evaluación de una alternativa x por un criterio, E1 es un espacio de criterio, en el que las coordenadas de los puntos son estimaciones cuantitativas según los criterios correspondientes.



Central a la teoría es el problema general de la toma de decisiones., en el que tanto el conjunto de alternativas Ω como el principio de optimalidad pueden ser desconocidos. Con alternativas conocidas, surge un problema de elección y, además, con un principio de optimalidad conocido, un problema de optimización general .



Definición. El tomador de decisiones (DM) es un sujeto de decisión, dotado de ciertos poderes y responsable de las consecuencias de la decisión de gestión adoptada e implementada.



Se trata de una persona (o grupo de personas) que tiene un objetivo que sirve de motivo para plantear el problema de tomar una decisión y buscar su solución.

La preferencia del tomador de decisiones es una relación binaria definida en un conjunto de alternativas que describe las preferencias del tomador de decisiones, por ejemplo, basándose en comparaciones por pares.



Definición .La función de riesgo describe el riesgo o la posible pérdida (daño) al elegir una alternativa en particular. El riesgo es la expectativa matemática de la función de pérdida debido a la toma de decisiones. Es una evaluación cuantitativa de las consecuencias de una decisión. La minimización de riesgos es el principal criterio de optimización en la teoría de la decisión.



Según la teoría de las decisiones estadísticas, se requiere encontrar una regla que minimice el riesgor, o el costo promedio de tomar una decisión, determinado por la fórmula r=δαPα+δβPβdónde δα - el costo (peso) de un error de tipo I; δβ- el costo de un error de tipo II.



Definición . La función de elección C sirve como expresión matemática del principio de optimalidad y es un mapeo que asocia cada X ⊆ Ω con su subconjunto C (X) ⊆ X [8, p. 32].

Un conjunto de opciones (alternativas) Ω = {xi,i=1(1)4}.



Considere la función de elección C en este conjunto Ω.(xi)=xi; (xi,xj)=xk;dónde k=min(i,j); C(xi,xj,xk)=(xi,xj,xk)xrdónde r=max(i,j,k);C()=x1...

Esta función se puede representar en forma lógica mediante una tabla.



En la tabla β (X) es el conjunto de alternativas presentado, β (C (x)) es el resultado de la elección en variables lógicas (booleanas)

La esencia de la decisión, su adopción, consiste en elegir una alternativa adecuada.



Definición . FuncionalidadU(x)- una función que se puede utilizar para representar preferencias sobre un determinado conjunto de alternativas viables. FunciónU(x)definida en un conjunto ordenado X se llama función de utilidad si para todosx,yєX,x>y<=>U(x)U(y)...



Si el conjunto de alternativas X contiene un pequeño número de ellas, entonces al definir una relación de preferencia binaria (BO) en este conjunto , es decir, al ordenar las alternativas, es fácil elegir la apropiada.



Tener una gran variedad de alternativas que necesitan ser optimizadas se convierte en un proceso laborioso. la dificultad es superable cuando es posible medir las preferencias y reemplazarlas con indicadores numéricos de calidad.



Las cuestiones relativas a la representación de preferencias en forma de funciones numéricas pertenecen a la teoría matemática de la utilidad.

Si la función de utilidad existe, entonces para encontrar la solución óptima (la máxima alternativa según una preferencia dada), es suficiente encontrar el máximo de la función U (x) en X, para lo cual se pueden utilizar métodos de optimización o análisis matemático clásico.



Teorema (existencia de una función de utilidad). Si se da una preferencia estricta (>) sobre un conjunto infinito X, entonces para la existencia de una función de utilidad es necesario y suficiente que X contenga un conjunto numerable denso en orden.



Definición . Un conjunto A se llama orden denso en X si para cualquierx,yєX\A,x<y hay tal zє,x<z<y...

Sea V cualquier función monótona creciente deU(x)luego V[U(x)]también será una función de utilidad.



Además, si la preferencia no es un ordenamiento perfecto (lineal), entonces incluso entonces podemos demostrar el teorema de existencia para la función de utilidadx>y=>U(x)U(y), pero con una limitación. Esto es natural, ya que cualquier función genera un orden perfecto, pero no genera información sobre la preferencia inicial.

Una función de utilidad más simple es lineal,U(αx+βy)=αU(x)+βU(y), en el que α 'y β' se definen como constantes.



Teorema (existencia de una función de utilidad lineal). Si el conjunto X y el ordenamiento (*>) satisfacen las condiciones:

- el conjunto de alternativas X es un conjunto convexo del espacio vectorial;

- la preferencia por un conjunto de alternativas es continua;

- las mezclas compuestas de alternativas indiferentes son indiferentes, entonces existe una función lineal real U (x) tal que para todos

x,yєX,x>y<=>U(x)U(y).



En la práctica, el caso bidimensional de las variables y y x es de interés.

La función de utilidad toma la siguiente forma para el caso bidimensional

U(x,y)=(αx1/p+βy1/p)p.

Para diferentes valores del parámetro p, se pueden obtener casos especiales.



Si p = 1, entonces la función es lineal y describe sustitutos perfectos. En este caso, la tasa marginal de sustitución es igual a la relación de los parámetros α / β,

U(x,y)=(αx+βy).



Si p → - ∞, entonces se obtiene la función de Leont'ev, que describe complementos perfectos. La tasa marginal de sustitución en este caso es infinita.

U(x,y)=min(αx,βy).



Como p → 0, la función Cobb-Douglas se obtiene si imponemos la condición adicional α + β = 1

U(x,y)=(xα·yβ).



Modelado del proceso de toma de decisiones



El concepto de modelo en la ciencia moderna se ha vuelto familiar y la necesidad de aclarar el contenido del concepto ha dejado de realizarse. En la práctica, los conceptos de modelos, procedimientos, esquemas y métodos de toma de decisiones a menudo se confunden y ya no se distinguen unos de otros. Las posibilidades de modelar las preferencias muchas veces se superponen a las de una persona y, a menudo, las capacidades del modelo resultan más ricas que la realidad.



Solo es necesario hablar de un modelo de toma de decisiones en relación con una tarea específica de toma de decisiones (DDM) a resolver. Esto significa que se ha seleccionado una clase de estructuras de preferencias básicas, dentro de las cuales se llevará a cabo la búsqueda de la mejor solución.



Los diferentes modelos para resolver la misma ZPR diferirán precisamente en los principios subyacentes. Suponemos que se considera un conjunto de estructuras iniciales de preferencias (relaciones), dadas en forma de matriz, por ejemplo, matrices de comparaciones por pares. Sobre este conjunto, se investiga un determinado DP y se dice que sobre el conjunto de estructuras iniciales, se da un modelo para resolver el DP indicado.



Se imponen requisitos bastante estrictos a los modelos de toma de decisiones: corrección, adecuación, integridad, universalidad, etc. La

corrección en matemáticas está determinada por la existencia de una solución, la singularidad de la solución y su estabilidad.



Adecuación: cumplimiento del original, es decir, el reflejo correcto en el modelo de los principios y características modelados del proceso de toma de decisiones. Las diferencias entre los enfoques normativos (prescriptivos) y descriptivos son significativas.

El primero está dominado por supuestos a priori sobre cuáles deberían ser los principios generales, formulados como axiomas, que deberían satisfacer los modelos de toma de decisiones desarrollados.



En el segundo, las características de los modelos desarrollados no se describen axiomáticamente, sino atributivamente, utilizando un sistema de propiedades, cada una de las cuales es interpretada de manera significativa por el tomador de decisiones y le parece razonable y, en un grado u otro, deseable.



La integridad de los modelos es que los principios subyacentes que subyacen a la toma de decisiones deben reflejarse no solo con precisión, sino también de manera suficiente.

La versatilidad del modelo está determinada por la posibilidad de su aplicación a una amplia clase de estructuras de preferencia inicial.



Métodos de toma de decisiones estadísticas



El problema de la toma de decisiones se formula de la siguiente manera.

Hay estados m + 1S0,S1,...,Sm objeto de investigación, formando un grupo completo de eventos incompatibles, las probabilidades previas de estados son, respectivamente, iguales 0,1,...,m y 0+1+...+m=1...



Para cada uno de los estados

, las funciones de verosimilitudWn(x1,...,xn/Sj),j=1(1)m;;

- conjunto de solucionesγ1,γ2,...,γm;

- funciones de pérdidajk=(Sj,γj),j=1(1)m,k=1(1)m;

Es el criterio de calidad para la elección de la solución f (P) asociada a la función de pérdida.



Se requiere determinar la mejor regla en el sentido del criterio aceptado utilizado en el problemaδ(γ1/x1,...,xn) uso de observaciones x1,x2,...,xntomar una decisión.

Las correspondencias se establecen fácilmente: las muestras corresponden al conjunto Ex1,x2,...,xn, la medida de probabilidad P corresponde a la función de verosimilitud Wn(x1,...,xn/Sj),j=1(1)m;



Establecer preferencias en el conjunto P en el sentido de los criterios aceptados significa definir la regla para tomar una decisión con los criterios adoptados.

Los criterios en la teoría de las decisiones estadísticas se utilizan según la integridad de la información inicial. Considere el siguiente conjunto de criterios:

- Bayesiano;

- el máximo de la probabilidad posterior;

- máxima verosimilitud;

- minimax;

- Neumann-Pearson;

- Walda.



El método se basa en el criterio de elección de una alternativa. De acuerdo con los criterios mencionados, las reglas de toma de decisiones se formulan en el problema. Los propios criterios se comparan según la calidad de las reglas de toma de decisiones, por ejemplo, según la función de riesgo condicionalrj, que representa la pérdida promedio para un estado dado Sj...



Definición . Regla bayesiana (criterio) : es la regla para tomar la decisión óptima que minimiza la función de riesgo promedio. El valor mínimo de la función de riesgo promedio se denomina riesgo bayesiano.



El uso de este criterio asume la presencia de:

- funciones de pérdida(Sj,γk);

- funciones de distribución de probabilidad condicional de valores muestrales

Wn(x1,...,xn/Sj),j=0(1)m;

¿Es la distribución de probabilidad previa de los estados0,...,m...



Definición . Un caso especial del criterio bayesiano es cualquier regla minimax para elegir una solución en las condiciones de la distribución de probabilidad a priori menos favorable (j) estados Sj...



Con una distribución de estados desconocida a priori, se establece un criterio especial para la calidad de la toma de decisiones utilizando solo la función de riesgo condicionalrj...



La interpretación es la siguiente. Existen muchas reglas K para la toma de decisiones, para cada una de las cuales se determina el valor del valor máximo del riesgo condicional para todos los estados posibles del objeto de investigación.Sj... De estos valores, se selecciona el valor más pequeño, lo



que garantiza que las pérdidas (en promedio) no superen un cierto valor r *. En general, esta regla es un criterio muy cuidadoso.



Definición . La probabilidad posterior máxima de estadosSj con muestra observada x1,...,xnse llama el criterio de la especie

.

En este caso, una de las hipótesis sobre los estadosSj,

j = 1 (1) m, para el cual la probabilidad posterior es máxima.



Este criterio se utiliza para una distribución previa conocida de estados.Sj y falta de justificación sobre el monto de las pérdidas jk... En esta situación, se realiza la partición del espacio muestral. A la zonaGk referir esas muestras x1,...,xnpara lo cual, para todo j ≠ k

P(Sk/x1,...,xn)P(Sj/x1,...,xn)...

El criterio para tomar una decisión es el máximo de probabilidad posterior.



Definición . El criterio de máxima verosimilitud es un caso especial del máximo de la probabilidad posterior en ausencia de información a priori sobre la distribución de las probabilidades de los estados, sobre las posibles pérdidas y el supuesto de que todos los estados son igualmente probables, es decir,i=(m+1)1.



Según el criterio en el análisis y observación de la muestra x1,...,xn una de las hipótesis sobre los estados Sjpara lo cual la función de verosimilitud Wn(x1,...,xn/Sj) más que otras funciones de probabilidad Wn(x1,...,xn/Sk),k=0,1,...,j1,j+1,...,m.



Ahora consideraremos la situación con dos alternativas, que a menudo se encuentran en la práctica.

El problema de la toma de decisiones se simplifica un poco y, cuando se utiliza cualquiera de los criterios considerados anteriormente, se reduce al cálculo de la relación de las funciones de probabilidad para la muestra observada.x1,...,xn y comparar el resultado obtenido con un umbral predeterminado * (umbrales 0 y 1), es decir

...

Cuando se satisface la desigualdad, la decisiónγ1, lo que indica que el objeto de investigación se encuentra en un estado S1... La desigualdad opuesta corresponde al estadoS0 y se toma otra decisión γ0...



El valor umbral C * está determinado por el criterio utilizado. En el caso del criterio de Bayes , donde

0,(1) - respectivamente, las probabilidades previas de ocurrencia de eventos S0(S1);

01,(10) - pérdidas cuando ocurre un evento S0(S1) y en consecuencia las decisiones tomadas γ1(γ0); 00,11- pérdidas con decisiones acertadas.



Con el criterio de máxima probabilidad posterior, la fórmula se simplifica

=p0/p1, y

para el criterio de máxima verosimilitud se vuelve constante C * = 1.

Al utilizar el criterio minimax, el umbral se calcula mediante la fórmula con desigualdad, en la que en lugar de0,1 sustituir los valores de las probabilidades previas 0,1, en el que el valor del riesgo medio toma el valor máximo



Definición El criterio de Neumann-Pearson es la regla para elegir una alternativa, en la que el valor del umbral se determina en función de un valor dado de la probabilidad de un error tipo I (α).



El error de tipo 1 ocurre cuando la muestra cae en la región críticaG1, aunque el fenómeno en estudio se encuentra en un estado S0, es decir la hipótesis es correcta0y ella es rechazada.



El error de tipo II ocurre cuando la muestra cae dentro del rango válidoG0, aunque el fenómeno en estudio se encuentra en un estado S1, es decir se acepta una falsa hipótesis -0.Para determinar el valor umbral, es necesario resolver la siguiente ecuación integral (para α) con respecto a *

,

dondeW10(y) - densidad de distribución unidimensional de la relación de la función de verosimilitud bajo la hipótesis 0...



A su vez, la probabilidad de un error del segundo tipo β se determina a partir de la solución de la ecuación integral derecha, dondeW11(y) - densidad de distribución unidimensional de la relación de la función de verosimilitud bajo la hipótesis 1...



Definición . El criterio de Wald es una regla para elegir una solución en la que la razón de las funciones de verosimilitud se compara con dos umbrales01. Definición precisa de umbrales 01está plagado de importantes dificultades matemáticas. ...

Conclusión



El documento ofrece una breve descripción de las capacidades de la teoría existente de la toma de decisiones estadísticas. Se identifican los principales elementos y componentes de la teoría, aplicaciones y modelos. Se da una breve descripción de los elementos nombrados y se dan sus descripciones.



En términos educativos, es importante conocer la existencia de dicha teoría y, cuando surge la necesidad y se toma conciencia de la necesidad de tomar decisiones, recurrir a sus fundamentos. Me gustaría señalar que en esta área, así como en el área de la educación, todos se consideran bastante competentes (especialmente los padres).



Pero es precisamente la consecuencia de la crianza que el alcoholismo y la drogadicción florecen entre los jóvenes, y la consecuencia de la subeducación son las decisiones que se toman que nos llevan a lo que tenemos en nuestro país.



No excluyo que otra vez se encuentre alguien y diga que la conclusión no es el tema.



Bibliografía
1. .., .. . -.: . , 1973. – 172.

2. .., .. .- .: , 1996. — 192.

3. .. . – .: .. «», 2005. – 144.

4. /.., .. .–.: , 2000.

5. . . — .: , 1976. – 248.

6. . . –.: , 1978. – 352 .

7. ., . . – .: ,1976.– 416.

8. .. . : / . . [ .]. — .: , 1982.

9. . .– .: ,1987. –608.

10. .. . – .: ,1969. – .

11. . . –.: , 1962. – .

12. .. . – .: – 89, 2003. –352.

13. CCEB-96/011. 1: . 1.0. 96/01/31. E/E. .

14. .. . . — .: ,1989. — 288.

15. .. . — .: ,1998. — 416.

16. – .: ,1953.-

17. . — .: ,1950. — 806.

18. . Z-. — .: , 1971.- 288.

19. FIPS PUB 191, . 9 1994 . E/E.

21. Katzke, Stuart W. ,Phd., “A Framework for Computer Security Risk Management”, NIST, October, 1992.

22. .. . — .: , 1977. — 302.

23. .. - .– .: , 1972. — 117.

24. .. . — .: , 1969. — 160.

25. .., .. . — .: , 1973. — 64.

26. . , . . — .: ,1970. 27. .. . . . — .: , 1995. — 120.

28. . . — .: , 1967. —

29. .. . — .: , 1977. — 30. . . -.: ,1985. —

31. . . — .: , 1989. –

32. . . — .: , 1997. — 376.




All Articles