Blog Image

Parentela

Blog: genetica forense y probabilidad

Familias y mucho más
¿No os acordáis? sen^2 x + cos^2 x = 1 :))))))

Significado del LR – Parte 3

Significado del LR Posted on jue, febrero 08, 2018 16:55:27

Bueno, pues veamos ahora cómo se calcula una probabilidad a
posteriori en forma de apuesta (Bayes Theorem in odds form). Nos basaremos en
la diapositiva 30 de la charla de Thore, y usaremos el mismo ejemplo que
veníamos usando.

Posterior
odds de la comparación de H3 (gemelos) y H1 (hermanos):

Es decir, H3 (gemelos) es 2000 veces más probable que H1
(hermanos) teniendo en cuenta estos priors.
No sabemos si hay más hipótesis o no, si sólo hubiera una más (por ejemplo H2 =
no relacionados), su prior sería = 1 –
P(H1)-P(H3)=0.4999995. Pero podría haber más hipótesis, y el prior 0.4999995 de H2 se subdividiría entre
las hipótesis adicionales. En cualquier caso, el cálculo y la interpretación que
hemos realizado en forma de odds sería igual de válido, ya que sólo estamos
comparando H3 y H1.

Veis entonces que los posterior
en forma de odds nada tienen que ver con las probabilidades a posteriori (que deben tener en cuenta
todas las posibilidades y sumar 1!!).

Quería también poneros un ejemplo clarísimo en el que
enseguida nos damos cuenta de que no conocemos todas las hipótesis posibles. Imaginaros
que nos piden saber si un varón y una mujer son hermanos en un caso de
inmigración, y que resulta que al analizar ADNmt nos damos cuenta de que no
pueden ser hermanos de madre porque sus haplotipos son distintos. Claramente,
no conocemos todas las hipótesis: podrían ser medio-hermanos, primos, no estar
relacionados…Le pregunté a Thore sobre esto y me ha recomendado leer este
paper:

Karlsson et
al., 2007. DNA testing for immigration cases: the risk of erroneous
conclusions. For. Sci. Int. 172: 144-149

Bueno, seguro que os resulta interesante a los que hacéis
casos de inmigración ilegal y reagrupación familiar. Ya me diréis que os
parece!!

***Comentario de revista Hola: el primer autor de este
paper (Andreas Karlsson) es en realidad nuestro conocidísimo Andreas Tillmar,
que se puso el apellido de su mujer cuando se casó. Yo creo que este cambio de
Karlsson a Tillmar puede deberse a dos motivos: quizás lo hizo porque Karlsson
es el tercer apellido más frecuente en Suecia, o quizás porque está enamoradísimo
de su esposa. La segunda opción es tan bonita….



Significado del LR – Parte 2

Significado del LR Posted on mié, enero 31, 2018 13:25:18

Algunos os preguntaréis cómo hemos calculado las
probabilidades a posteriori en el
comentario anterior. Pues simplemente hemos aplicado Bayes, para k hipótesis y
con cualquier probabilidad a priori (En: “Relationship inference with Familias
and R”, Chapter 2, Egeland et al., 2016):

Horror!! Vaya fórmula! Pero no es para tanto, sólo tenemos
que multiplicar cada LR por cada prior (columna
“PRODUCTO” del Excel que veréis abajo), sumar los resultados de esta
multiplicación (casilla “denominador”), y luego dividir cada producto por el
denominador (columna “POSTERIOR”). Mejor lo vemos con el ejemplo:

a) Si H1, H2 y H3 son igualmente probables a priori (1/3 cada una), obtenemos:

Si
queréis ver un ejemplo real en Familias, podéis descargaros el archivo que ha
preparado Thore. He alucinado con este archivo porque Thore ha definido las
persons y las hipótesis en español!! Cada vez tiene menos de nórdico y más de
latino… está totalmente mimetizado con nosotrosJ))Bueno,
el archivo os lo podéis descargar en este link: http://familias.name/blog/blog-dormant.fam (usando los comandos Control+s, una vez que estéis
dentro del link). Obviamente las cifras son diferentes, pero la idea es la misma. En este
archivo podéis ver cómo definir H3 (gemelos) en Familias (seleccionando “direct
match” en el pedigrí). Y además podéis comprobar que el LR de H3 vs H2 es igual
al valor de 1/RMP que obtenemos en la ventana “Case DNA data” cuando hacemos
click en “Compare DNA” (como ya discutimos en la validación del cálculo de RMP,
post del 10/01/2018)

b) Si H1 y H2 son a priori más probables que H3, obtenemos:

Que es justo lo que veíamos en las diapos de Thore.

Pero lo más importante de todo esto es destacar lo que hemos
aprendido con este ejemplo:

a) Como ya vimos, el LR no nos dice si una
hipótesis es cierta o no, más bien, si los resultados apoyan más una hipótesis
que otra (y ambas hipótesis podrían no ser ciertas!!)

b) Que en nuestros casos reales, sólo debemos
calcular probabilidades a posteriori si
nuestras hipótesis son exhaustivas, es decir, si conocemos y tenemos en cuenta
TODAS las hipótesis relevantes. Ya hemos visto con este ejemplo que existe la
posibilidad de que los resultados de ADN apoyen fuertemente una hipótesis que
tenía una probabilidad a priori extremadamente baja (H3, en el ejemplo b, con prior = 10^(-6))

La mayoría de las veces sí que conocemos las hipótesis
relevantes, por el contexto del caso. Pero ¿qué hacemos entonces si nuestras
hipótesis no son exhaustivas? Pues podemos calcular posteriors en forma de apuesta (posterior
odds), pero no probabilidades a
posteriori
.

Si queréis ver cómo, darme un tiempecito y preparo otro post!

02/02/2018
Añado aquí unas imágenes que me ha mandado Thore respecto a este post. Se trata del uso de una página web en la que podéis calcular directamente las probabilidades a posteriori sin necesitad del Excel anterior. Hay de todo en Internet!!

La única precaución que hay que tener es que debemos introducir en la página la verosimilitud de cada hipótesis, no el LR. Aquí veis en ejemplo de Thore (marcador D3 del archivo de Familias anteriro: http://familias.name/blog/blog-dormant.fam)


Y una vez calculado el likelihood, ya podéis meter los datos (prior y likelihood) en la web http://psych.fullerton.edu/mbirnbaum/bayes/BayesCalc3.htm para calcular la probabilidad a posteriori:


Very useful Thore! Many thanks!



Significado del LR – Parte 1

Significado del LR Posted on mié, enero 24, 2018 20:01:22

Como sabéis el LR no nos dice si una hipótesis es cierta o
no, más bien nos dice si nuestros resultados apoyan más una hipótesis que otra.
Por tanto, cuando decimos que:

a)
Si el LR > 1: los resultados apoyan H1 (la
del numerador)

b)
Si el LR = 1: la evidencia es neutra

c) Si el LR < 1: los resultados apoyan H2 (la
del denominador)

estamos hablando realmente en términos relativos, es decir
esto sólo es cierto en el caso de H1 con respecto a H2. Pero, qué pasa si hay
más escenarios posibles?, si hay más hipótesis?

Los que hayáis echado un vistazo a las diapos del curso de
enero que dieron Thore y Magnus en Oslo (y a las que tan amablemente Thore nos dio
acceso, ver cursos), sabréis la respuesta. Para los que no hayáis tenido tiempo de verlas, aquí
os reproduzco un ejemplo que, desde mi punto de vista, es buenísimo para
entender bien esto.

Imaginemos que analizamos los perfiles genéticos de dos
individuos y que queremos saber si pueden ser hermanos. Nuestras hipótesis
podrían ser: “H1 = hermanos” vs “H2: no relacionados”.

Imaginemos que tras el análisis hemos obtenido exactamente
el mismo perfil genético en los dos individuos. Si valoramos nuestra evidencia
teniendo en cuenta esas dos hipótesis, lógicamente el LR nos va a salir elevado, por ejemplo 10^6. La
evidencia por tanto apoya la hipótesis de que son hermanos, pero sólo cuando la
comparamos con la hipótesis de que no estén relacionados.

Obviamente, si descartamos un error en el lab (como podría
ser el hecho de haber analizado la misma muestra dos veces en lugar de analizar
las dos muestras), enseguida nos viene a la mente una tercera hipótesis: “H3=
gemelos idénticos”. Si ahora valoramos este resultado teniendo en cuenta las
hipótesis H3 y H2, el LR nos dará un número aún más elevado (imaginemos que
sale 10^15).

Consideremos ahora que a priori, las tres hipótesis tienen
la misma probabilidad (1/3 cada una). En la tabla siguiente (diapositiva 43 de
la charla “Forensics I: paternity cases, complex identification cases” de
Thore), podéis ver las probabilidades a posteriori:

Así que, en este caso, aunque el LR que obtenemos al tener
en cuenta H1 y H2 es mucho mayor que 1 (10^6), lo cierto es que la probabilidad
a posteriori (P (H1│E)) es menor que la probabilidad a priori (10^9 < 1/3).

Imaginemos ahora que damos mucha más probabilidad a priori a
las hipótesis H1 y H2, y una probabilidad a priori muy pequeña a H3; por
ejemplo casi 0.5 a H1 y H2, y sólo 10^(-6) a H3 (0.000001). Si calculamos las probabilidades
a posteriori, obtenemos (diapositiva 44 de la charla anterior):

De nuevo, la probabilidad a posteriori de H1 es menor que su
probabilidad a priori. Y respecto a H3, a pesar de que hemos definido que su
probabilidad a priori sea muy baja, su probabilidad a posteriori es muy
elevada, ya que H3 es la mejor explicación de nuestros resultados.

Por tanto, aunque el LR que evalúa nuestros resultados comparando
H1 (hermanos) y H2 (no relacionados) es mucho mayor que 1, esto no significa
que H1 sea una buena hipótesis (o que H1 sea cierta). Perfectamente puede
significar que H1 no es una buena hipótesis y que H2 es aún peor. Lo dicho
entonces, que el LR no nos dice si una hipótesis es cierta o no.

En el siguiente post veremos cómo se han calculado las
probabilidades a posteriori en este ejemplo, y lo que podemos aprender de él.