12 min. de lectura

Una cuestión de suma importancia para la ciencia es la concerniente a la relación entre teoría y evidencia: ¿Qué actitud es racional adoptar hacia una hipótesis al observar cierto suceso? La parte de la filosofía de la ciencia que estudia esta cuestión es la teoría de la confirmación que, desde los años 50 del siglo XX aproximadamente, está dominada por la corriente bayesiana.

Como veremos más adelante, algunos consideran que el bayesianismo es mucho más que una teoría de la confirmación: es una definición de lo que es ser racional.

Pero antes de entrar de lleno al tema, hagamos algunos comentarios generales acerca de la noción intuitiva de confirmación:

  1. Algunas observaciones parecen dar apoyo a ciertas hipótesis y retirarlo a otras. En el primer caso decimos que la evidencia confirma la hipótesis y en el segundo que la desconfirma. A veces no hay conexión alguna entre la hipótesis y el suceso observado, y no se produce ni lo uno ni lo otro.

  2. Además, el apoyo viene en grados: algunas teorías están mejor confirmadas que otras.

La teoría de la confirmación está, además, muy ligada a la noción de aceptación/rechazo de una hipótesis. En concreto, se adopta comúnmente el siguiente principio:

  1. Siempre hemos de aceptar (aunque sea tentativamente) la teoría que está mejor confirmada por la evidencia1.

El desiderátum es encontrar un método objetivo que nos permita evaluar el grado de confirmación de las teorías científicas (puntos a y b), y aceptarlas o rechazarlas según esa información. Tendríamos una suerte de “algoritmo” o “lógica” de la ciencia.

Fundamentos

La epistemología bayesiana se basa en tres principios fundamentales:

  1. Los seres humanos poseemos grados de creencia

  2. Los grados de creencia obedecen (o deben) satisfacer los axiomas de la probabilidad matemática

  3. Nuestros grados de creencia deben cambiar de acuerdo al principio de condicionalización (o regla de Bayes).

Axiomas de la probabilidad

Por cada acción, como tirar una moneda, tenemos un conjunto Ω de posibles resultados o eventos (el espacio de muestreo), y una función matemática que asocia eventos con cantidades llamadas “probabilidades”.

En el caso de la moneda, el espacio de muestro sería {cara, cruz} y la probabilidad de cada evento igual a 0,5. Para que estas cantidades se consideren realmente como probabilidades, deben comportarse de acuerdo a tres axiomas propuestos por el matemático ruso Andrey Kolmogorv.

En lo que sigue voy a formular los axiomas en términos de enunciados en lugar de eventos. La idea es que tomamos un lenguaje cualquiera L (que bien puede ser el lenguaje en el que se formula cierta teoría científica), y un enunciado cualquiera A del mismo. Entonces, definimos una función que asocia una probabilidad a cada enunciado y P(A) simboliza la probabilidad de que un enunciado2 cualquiera A de L sea verdadero3.

Los axiomas son los siguientes:

  1. Para un enunciado cualquiera A, se tiene que 0P(A)1 (o sea, la probabilidad de que A sea verdadero es un número real entre 0 y 1)

  2. P(A)=1 (la probabilidad de una tautología4 o verdad lógica es igual a 1)

  3. P(A o B)=P(A)+P(B) (la probabilidad de que sea verdadero que “A o B” es igual a la suma de la probabilidad de A más la probabilidad de B, si A y B son mutuamente excluyentes)

Del axioma (ii) se sigue inmediatamente que la probabilidad de la negación de A es:

1-P(A)

Los axiomas están acompañados de una importantísima definición:

P(A|B) = P(A y B)/P(B)

P(A|B) se lee como “la probabilidad condicional de A dado que B es verdadero”. Por ejemplo: ¿Cuál es la probabilidad condicional de tirar un dado y quitar un seis dado que quité un número par? La probabilidad de quitar un número par y un seis simultáneamente es 1/6, mientras que la probabilidad de quitar un par es 1/2. Entonces, la respuesta es (1/6)/(1/2) = 1/3.

De la definición se sigue, despejando, la probabilidad de una conjunción:

P(A y B) = P(A|B)*P(B).

Del axioma (iii) y la definición de probabilidad condicional se sigue un caso especial del teorema de probabilidad total, que dice que para un enunciado A, y un conjunto de n enunciados mutuamente excluyentes y exhaustivos B1, B2, B3,…Bn se tiene que:

P(A) = P(A| B1)+P(A| B2)+P(A| B3),…,P(A| Bn)

Que los enunciados sean mutuamente excluyentes significa simplemente que no pueden ser verdaderos ambos a la vez; que sean exhaustivos significa que al menos uno de ellos debe ser verdadero. Combinando ambas afirmaciones, se tiene que solo uno de ellos es verdadero.

Para el bayesiano, la fórmula más significativa es el mal llamado teorema de Bayes. Digo “mal llamado” porque en realidad, no se trata de un teorema, pues se sigue exclusivamente de la definición de probabilidad condicional por despeje, no de los axiomas.

Teorema de Bayes:

P(A|B) = P(B|A)*P(A)/ P(B)

Si A es una teoría, y B la evidencia, P(B|A) será el grado de probabilidad que la evidencia otorga a la hipótesis. P(A) es el grado de probabilidad de la hipótesis antes de toda evidencia (llamada comúnmente probabilidad a priori), y P(B) es el grado de probabilidad de la evidencia independientemente de que la hipótesis sea verdadera o no. A P(B|A)*P(A) se lo llama “factor de Bayes”.

Todo esto puede parecer innecesariamente engorroso, pero más adelante veremos cuál es el significado filosófico de todos estos elementos formales.

Grados de creencia

Hasta ahora hemos expuesto las reglas que rigen las probabilidades. Pero, ¿qué son realmente esas extrañas entidades llamadas probabilidades? Se han ensayado varias respuestas a esta pregunta, y cada respuesta constituye una interpretación distinta del concepto de probabilidad. La única condición es que estas interpretaciones satisfagan los axiomas.

Básicamente, hay tres tipos de probabilidades:

La probabilidad física es la propensión objetiva que tiene un objeto concreto de comportarse de cierta forma. Por ejemplo, la probabilidad de que un átomo de cesio decaiga dentro de las próximas décadas sería una probabilidad física.

Pero también está la probabilidad lógica. Recordemos que un argumento deductivo es válido si, y solo si, la verdad de las premisas garantiza la verdad de la conclusión. Cuando entramos en el terreno de la lógica inductiva, sin embargo, la relación entre las premisas y la conclusión no es de necesidad sino de probabilidad: las premisas dan apoyo a la conclusión del argumento en un grado inferior a 1, y esta cantidad obedece las leyes de la probabilidad. Es importante notar que los grados de probabilidad de las premisas y la conclusión se determinan a priori y de acuerdo a las propiedades puramente sintácticas y objetivas del lenguaje con el que se está trabajando. Rudolf Carnap y Jaako Hintikka fueron los más grandes filósofos que trabajaron en este campo.

Para el bayesiano, las probabilidades representan el grado de creencia de un sujeto cognoscente, y a este tipo de probabilidad se lo conoce como probabilidad epistémica o subjetiva. Los grados de creencia son simplemente expectativas de que un suceso ocurrirá o, como nos gusta decir a los filósofos, de que cierta proposición u oración A es verdadera. A modo de ejemplo: si salgo a la calle con paraguas, significa que tengo una expectativa psicológica de que va a llover (o, más precisamente, de que la oración “va a llover hoy” es verdadera).

Ahora bien, si los grados de creencia han de obedecer las leyes de la probabilidad, deben poder ser cuantificados de alguna manera. No es una tarea fácil: ¿Cómo cuantificaría usted su grado de creencia de que lo volverán a llamar luego de una entrevista de trabajo, por ejemplo?

El filósofo y economista Frank Ramsey (1931) ideó una forma ingeniosa de hacerlo: supongamos que usted tiene un grado de creencia de 0,69 en la oración A. Esto significa, según Ramsey, que usted apostaría (o debería apostar) 69 Gs. para recibir 100 Gs. en el caso de que A sea verdadera; y viceversa, 31 Gs. a que A será falsa. Más generalmente, su grado de creencia en A es la cantidad que usted apostaría a favor de A para recibir 100 Gs., de modo que los grados de creencia son reducibles a un comportamiento observable de juego de azar5.

Probablemente usted no realiza una apuesta mental cada vez que adopta una creencia, pero en principio siempre es posible para usted hacerlo si así lo desea, y eso basta para los fines de cuantificar sus grados de creencia.

Nótese, además, que no importan las cantidades exactas que está apostando (ni mucho menos la moneda), sino la proporción que hay entre ellas. Yo utilicé una escala de 0 a 100 Gs., pero podía haber utilizado una de 0 a 5.000 Gs, por ejemplo, en donde el valor máximo de la escala representa la cantidad a recibir si se gana la apuesta. Una apuesta de 3450 Gs. para recibir 5.000 Gs. en caso de que A sea verdadera representa un grado de creencia equivalente al del ejemplo expuesto más arriba, pues 3450/5000 = 0,69.

Estrictamente hablando, entonces, deberíamos decir que su grado de creencia es de 0,69.

La regla de condicionalización bayesiana (CB)

El núcleo de toda la epistemología bayesiana yace en el siguiente principio: “Siempre actualice sus grados de creencia de acuerdo a la evidencia”.

Pero esta actualización no debe ser aleatoria, sino reglamentada por un principio bien definido: si su grado de creencia en A dada la evidencia debe ser igual a n, entonces su grado de creencia en A debería cambiar a n luego de observar la evidencia. Por ejemplo, supongamos que su grado de creencia en que José vendrá a visitarlo, dado que es un día soleado, es de 0,8, y de 0,3 si es un día lluvioso. Luego, se echa a llover. Entonces, su grado de probabilidad subjetiva de que José vendrá a visitarlo (sea el que haya sido antes de observar la evidencia) deberá ahora actualizarse y adquirir el valor 0,3.

Si el grado de creencia después de la evidencia se representa como C+(A), podemos expresar el principio con la siguiente fórmula:

C+(A) = C(A|B)

Ahora, si recuerda bien, notará que C(A|B) = C(B|A)*C(A)/ C(B), y esta fórmula es sencillamente el teorema de Bayes.

El teorema nos dice exactamente cómo deben cambiar nuestros grados de creencia de acuerdo a la evidencia, y éste es un logro fantástico.

A partir de lo expuesto, decimos que la evidencia B confirma a la hipótesis A si, y solo si, se cumple que C+(A)>C(A). En otras palabras, si la credibilidad de A aumenta luego de observar la evidencia.

El grado de confirmación GK de A en base a la evidencia B se define como la diferencia entre la probabilidad a priori y la probabilidad a posteriori de A:

GKdef= C+(A)-C(A) = C(A|B)-C(A)

Principios del bayesianismo en la práctica

Ahora me gustaría discutir de qué forma actualizaría sus creencias un bayesiano en diferentes circunstancias, de manera que se pueda apreciar todo el poder de la teoría.

Siguiendo el modelo hipotético-deductivo de Hempel, un hecho E queda explicado por una hipótesis H cuando éste se sigue deductivamente de aquélla. En términos bayesianos, diríamos que C(E|H) (la probabilidad que le otorga la hipótesis a la evidencia) es igual a 1. Esto significa que la hipótesis predice que el hecho ocurrirá necesariamente, y tiene mucho sentido, pues ésta es una consecuencia deductiva de aquélla.

Cuando la hipótesis es de tipo probabilística, C(E|H) será obviamente menor que 1. Son probabilísticas todas aquellas hipótesis que afirman que el hecho ocurrirá no en forma necesaria, sino meramente probable.

Es extremadamente importante entender que la probabilidad que le asigna una hipótesis científica a la ocurrencia de un hecho es una probabilidad física, no subjetiva. Podemos decir que la probabilidad física forma parte de las teorías científicas, mientras que la probabilidad subjetiva o epistémica corresponde más bien al ámbito de la evaluación de las mismas.

Por ende, a partir de ahora simbolizaremos la probabilidad que la hipótesis H otorga a la evidencia E como Ph(E), entendiéndose ésta como probabilidad física6.

El bayesianismo nos dice que:

  • Cuanto más grande sea Ph(E), y más pequeño sea C(E), mejor confirmada estará la hipótesis por la evidencia. Esto explica por qué consideramos positivo que las teorías realicen predicciones novedosas, y por qué el hecho de que éstas concuerden con las observaciones se considera como evidencia de mucho peso a favor de las mismas. Un ejemplo de la historia de la ciencia: la probabilidad de observar que la luz se curve por acción de la gravedad era bajísima antes del experimento de Eddington, pues era un fenómeno que nunca antes se había observado. Sin embargo, era una consecuencia necesaria de la teoría de Einstein. Por lo tanto, cuando el fenómeno fue registrado, se lo consideró como evidencia poderosísima a favor de la teoría general de la relatividad. La intuición detrás de esto es clara: era casi imposible que eso ocurriese si la teoría de Einstein no fuese verdadera. La probabilidad de observar la precesión del perihelio de Mercurio, por otra parte, era alta, pues era un hecho ya conocido. Cuando la teoría de Einstein explicó este fenómeno, nadie se sorprendió demasiado.

  • Por otro lado, para cada subsiguiente observación de E, el aumento de grado de probabilidad que le otorga E a H es menor. Esto ocurre porque, con cada instancia observada del fenómeno E, su probabilidad aumenta7. En otras palabras, la ocurrencia del fenómeno se hace cada vez menos sorprendente y, por ende, menos confirmatoria. Obsérvese, sin embargo, que este aumento puede ser infinitamente pequeño pero nunca llega a cero.

  • Cuando una hipótesis es inconsistente con la evidencia E, decimos que C(-E|H)=1, donde -E es la negación de E. Al observarse la evidencia, su probabilidad va a cero, y nunca más puede volver a subir. Entonces decimos que la hipótesis fue refutada.

  • Si dos hipótesis H1 y H2 son lógicamente equivalentes, todo lo que confirma a una confirma a la otra.

Si encontramos la forma de justificar racionalmente a priori la regla de condicionalización bayesiana (y muchos8 creen que es posible), podemos tomarla como estándar de racionalidad.

Desde este punto de vista, podemos decir que son irracionales: el dogmático, pues no cambia sus creencias en base a la evidencia; el fanático, el supersticioso, y el optimista utópico, pues otorgan a las hipótesis más credibilidad de la que la evidencia permite; y aquél que otorga a las hipótesis menos credibilidad de la que la evidencia autoriza (algunos teóricos de la conspiración caen bajo esta clasificación y se autoproclaman “escépticos”).

Problemas filosóficos

¿Cómo nos deja el bayesianismo ante los problemas clásicos de la teoría de la confirmación? Me limitaré a hablar del famoso problema de la inducción.

Cuando aceptamos una hipótesis general, como “todos los A son B”, estamos asumiendo que el futuro será similar al pasado. Sin embargo, no importa cuántos A que son B se hayan observado hasta el presente, pues siempre es posible que en el futuro aparezca un A que no es un B. En otras palabras, el hecho de que en el pasado hayamos observado repetidamente un cierto tipo de suceso no garantiza que el futuro será similar.

Hume fue el primero en defender la idea de que no hay justificación racional para creer que el pasado será similar al futuro. Según este filósofo, si esperamos que la pelota caiga al suelo cuando la soltamos, como ocurrió siempre en el pasado, es porque nuestra mente generó una disposición psicológica irracional a hacerlo. El problema de la inducción, entonces, puede reducirse a encontrar un principio racional y a priori que nos autorice a preferir ciertas hipótesis generales en relación a otras, sobre la base de la evidencia observada hasta la fecha.

Pareciera que el bayesianismo nos ofrece una solución, pero no es el caso (Strevens 2017). Considérense las siguientes hipótesis:

  • “Todos los cuervos son negros”

  • “Todos los cuervos observados antes del año 3000 son negros; los observados a partir del año 3000 son rojos”.

La observación de 50 cuervos negros antes del 3000 otorgará el mismo grado de confirmación a ambas hipótesis, pues tendrán exactamente el mismo factor bayesiano Ph(E)=1, al tener las dos como consecuencia necesaria que los cuervos observados antes del año 3000 serán negros.

¿Cuál es el problema? La segunda hipótesis enuncia explícitamente que el futuro será diferente al pasado. Si en la vida real no tenemos en cuenta hipótesis del segundo tipo es porque les atribuimos una probabilidad C(H) muy baja. En otras palabras, prácticamente las descartamos de antemano. Pero, ¿con base en qué las estamos descartando? Evidentemente se está colando algún principio equivalente al principio de uniformidad de la naturaleza: el principio que dice que el pasado será similar al futuro. Y entonces volvemos al escepticismo de Hume: ¿Qué motivo racional tenemos para creer en ello? En conclusión: ¡El bayesianismo resuelve el problema de la inducción si, y solo si, no lo resuelve!

Esto nos lleva al famoso problema de la probabilidad a priori: el bayesianismo nos dice exactamente cómo debemos actualizar nuestras creencias según la evidencia. Ese proceso de actualización debe empezar por algo, pues asume que tenemos cierto grado de creencia previo a la evidencia. Como vimos más arriba, este grado debe ser mayor que cero, pues las hipótesis con grado de probabilidad cero son inconfirmables. Entonces, la pregunta es: ¿Hay algún principio objetivo y a priori que constriña qué grados de creencia deberíamos tener en una hipótesis antes de la observación de cualquier evidencia?

Una propuesta es el principio de indiferencia: antes de la evidencia, todas las hipótesis tienen el mismo grado de probabilidad. Si el número total de hipótesis posibles mutuamente excluyentes es n, la probabilidad de cada una debe ser 1/n. Pero este principio fue criticado ya en el siglo XIX, pues nos conduce a una paradoja descubierta por el matemático Joseph Bertrand.

Russell (1949) propone que los seres humanos nacemos con una propensión a comportarnos de cierta forma, y que estas tendencias pueden traducirse en principios válidos a priori. Esto deja, sin embargo, el problema tal y como estaba: nos guiamos por hábitos inferenciales de naturaleza irracional.

Por otra parte hay resultados que sugieren que, aunque dos científicos comiencen con probabilidades a priori completamente diferentes, eventualmente convergerán a la verdad si aplican correctamente la regla de Bayes (Hawthorne, 1994).

De cualquier forma, el problema sigue abierto y es una clara amenaza el proyecto del bayesianismo de erigirse como estándar de racionalidad. A pesar de esto, considero que la teoría bayesiana sigue siendo mejor que cualquier cosa que teníamos en el pasado (al menos en materia de teorías de la confirmación), y supera en muchos aspectos a alternativas rivales.

Concluyo este escrito lanzando una interrogante: ¿Es utópico pretender que haya un método objetivo tal que, si se lo aplica mecánicamente, garantiza llegar a la verdad en un número finito de pasos? En otras palabras, ¿puede haber una suerte de “algoritmo de la ciencia”?

Referencias


1. Aunque no discutiré la cuestión de la aceptación en este artículo.

2. También pueden haber enunciados compuestos (llamados también “moleculares”), como “A y B”, o “A o B”. Por ejemplo, “José va a la fiesta o se queda en su casa” es un enunciado compuesto por dos oraciones: “José va a la fiesta”, “José se queda en su casa”. Ambas quedan unidas por la conectiva disyuntiva “o”.

3. Es más natural discutir epistemología bayesiana en éstos términos. Muchos filósofos de la ciencia entienden las teorías científicas como conjuntos de enunciados de un lenguaje L, cerrados bajo deducción.

4. Un enunciado que no puede ser falso, como “todos los triángulos tienen tres lados”.

5. Dicho sea de paso, algunos pensadores han mostrado que si los grados de creencia de un sujeto violan las leyes de la probabilidad, éste se comprometería con apuestas en las que resultaría perdiendo necesariamente, sin importar los resultados, y lo han tomado como argumento a favor de la epistemología bayesiana.

6. Las consecuencias deductivas de la hipótesis, en donde Ph(E)=1, quedan entonces como un caso especial.

7. Este aumento se deduce del teorema de probabilidad total.

8. Ver, por ejemplo, el argumento diacrónico del Libro de Apuestas Holandés en Lewis (1999).

 

¿Qué te pareció este artículo?

1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (9 votos, promedio: 5,00 de 5)

Licenciado en filosofía por el Instituto Superior de Estudios Humanísticos y Filosóficos (ISEHF) en 2015. Fue profesor de filosofía del lenguaje en el ISEHF e investigador independiente. Directivo de la Sociedad Paraguaya de Filosofía. Es columnista de Ciencia del Sur, donde también es editor de ciencias humanas y sociales. Su trabajo está incluido en el libro "La ciencia desde Paraguay" (Servilibro).

Compartir artículo:

5 COMENTARIOS

  1. Disfrute de cada línea del texto, espero que sigas publicando aquí para que podamos leerte. Con relación a la interrogante final, puede que desde un punto de vista filosófico se pretenda la verdad, según entiendo a la ciencia como empresa con frecuencia le basta con decir que algo es falso, o a lo más el científico se conforma con las teorías, si se pretenden verdades, entonces se buscan dogmas y creo que ese no es el espíritu en ciencias aunque en ocasiones se utilice ese término en el lenguaje científico, por ejemplo «el dogma central de la biología molecular» casi como una licencia poética. Es común que un científico acepte de que de lo único que pude tener total certeza es de su ignorancia, en la práctica supongo que esa afirmación excluiría al cero y al uno (0<P(A)<1) del pensamiento puramente científico con relación a las prioridades, por fortuna tenemos la filosofía y otras formas de pensamiento. Hacer ciencia se siente como un ciego que a manotazos va interpretando su entorno.
    A lo dicho por Russell (1949) podemos agregarle el hecho de que como especie tenemos una arquitectura orgánica que condiciona la forma en que vemos el mundo, según haya sido favorable para nuestra existencia y supervivencia, luego, no está demás agregar que esa arquitectura gurda diferencias individuales que llevan a la percepción de realidades —no sé si en grado cuantifica— distintas.
    También tengo una interrogante, digamos si se quiere racional atendiendo a la formulación presentada en el texto, considerando las evidencias alcanzables, puede algo originarse a partir de nada.
    ¡Saludos!

      • Hola Pastor, te agradezco mucho el comentario! Me parece muy acertado lo que escribiste acá:
        «…según entiendo a la ciencia como empresa con frecuencia le basta con decir que algo es falso».

        Pero igual me parece que la verdad es una meta legítima para la ciencia, pues se la puede aceptar sin necesariamente caer en la búsqueda de dogmas. Te doy mi punto de vista:
        Hay metas inalcanzables e inaproximables, y no tiene sentido perseguirlas porque el progreso en estos casos es imposible. Pero también hay metas inalcanzables pero aproximables, y la verdad cae en esta categoría: es decir, nunca llegaremos a alcanzarla, pero es posible estar cada vez más cerca de ella, de modo que el progreso es factible.
        Lo que sucede es que la verdad, como decía Kant, es simplemente una idea regulativa: nos dice hacia dónde debemos ir, aunque nunca podamos llegar ahí, a modo de mecanismo heurístico. La verdad es la brújula de la ciencia.

        Disculpas por la demora en responder! Saludos.

      • Sobre tu interrogante: ¿Cuál es la probabilidad de que algo se origine a partir de nada dada la evidencia?
        Este es mi humilde aporte:
        Decir que la existencia de algo se explica por la existencia de nada es más o menos como decir: «Si no existe nada, entonces existe algo». Pero la afirmación de que existe algo es un falsador de la afirmación de que no existe nada (pues es consecuencia lógica de la hipótesis contraria, a saber, la hipótesis que dice que no es cierto que exista algo). Por lo tanto, la probabilidad de de la evidencia (que existe algo) dada la hipótesis (que no existe nada) será igual a 0, y la probabilidad de la hipótesis dada la evidencia será también igual a 0, sin posibilidades de incrementar alguna vez (pues multiplicar por 0 da 0).
        La hipótesis es contradictoria.

        Esto nos lleva a la idea de que no se puede explicar la existencia de algo sin asumir antes la existencia de otra cosa.
        Científicos como Lawrence Krauss identifican el vacío de la física con la nada, y desde ese punto de vista la física le da una alta probabilidad a la hipótesis de que algo puede originarse a partir de la nada. Pero ese vacío no es otra cosa que energía en un campo cuántico (https://www.nytimes.com/2012/03/25/books/review/a-universe-from-nothing-by-lawrence-m-krauss.html): ¿Esto realmente califica como nada?

        Saludos.

  2. Fe de erratas: «…pues es consecuencia lógica de la hipótesis contraria, a saber, la hipótesis que dice que no es cierto NO que existe nada».

Dejar un comentario

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí