MELLOR,.; D. H.; Probability: A Philosophical Introduction, Routledge, London, 2005, 152 pp.

Carlos Ortiz de Landázuri

Probabilidad: Una introducción filosófica, comprueba el giro pragmático operado en el modo postmoderno de abordar la probabilidad, volviéndose a replantear un gran número de paradojas históricamente dadas por resueltas. En efecto, según D. H. Mellor, hoy día se admite la posibilidad de cuantificar un gran número de situaciones hasta hace poco consideradas improbables obligando a retrotraer este tipo de análisis a un momento previo. En vez de establecer límites preestablecidos entre lo necesario y lo improbable, ahora se antepone la constatación de un gran número de situaciones casuales, ocasionales, aleatorias o simplemente azarosas (chance), sin que ello sea obstáculo para postular la posibilidad de un cálculo probabilista capaz de cuantificarlas. Se prolongan así algunas propuestas del ‘Nuevo dualismo’ de Hempel, siguiendo a su vez algunas sugerencias de Ramsey, Braithwait, Lewis y Jeffrey,  a los que se dedica la monografía. Se logra así una articulación de tipo pragmático entre el triple enfoque físico, epistémico y subjetivo acerca de la probabilidad, con un objetivo muy preciso:  dejar de considerar el cálculo frecuencial como una derivación evidente de una lógica deductiva en sí misma apriorista, cuando más bien se debería retrotraer este tipo de análisis a un momento previo, a saber: tomar como punto de partida una lógica inductiva que logre hacer explícitos los presupuestos implícitos en la correlación causal de tipo humeano que el cálculo frecuencial establece entre un conjunto de eventos absolutamente aleatorios y recíprocamente independientes, sin llevar a cabo una reflexión previa sobre la importancia de este momento previo. De hacerlo, el cálculo frecuencial abandonaría su carácter apriorista, para justificarse en virtud de una correlación cuantificable que ahora se establece entre eventos que basculan entre dos valores extremos: 1, cuando la correlación es válida en todos los casos; 0, cuando la correlación no es válida en ningún caso. Por su parte el cálculo frecuencial es el procedimiento matemático seguido para fijar los posibles valores intermedios en cada caso concreto, así como para justificar las distintas evidencias epistémicas y subjetivas necesarias para lograrlo. A este respecto Mellor distingue tres posibles niveles interpretativos del cálculo frecuencial:

a) La probabilidad física viene dada por la interpretación objetiva del cálculo frecuencial cuando se refiere a situaciones casuales o simplemente aleatorias que se producen en el mundo físico. Sin embargo esta probabilidad física ya no se interpreta como resultado de un tipo peculiar de posibilidad modal compatible con otros tipos de necesidad, como ocurría en la metafísica clásica. Ahora más bien se establece entre este tipo de eventos una correlación causal humeana de tipo fáctico e hipotéticamente limitada a una serie de acontecimiento en sí misma finita, aunque ilimitadamente creciente.

b) La probabilidad epistémica interpreta el cálculo frecuencial como una medición de los diversos grados de creencias desde 0 a 1, incluyendo también las evidencias en si mismas necesarias e imposibles. La novedad estriba en la indistinta remisión inicial de todas ellas a una base empírica igualmente aleatoria, donde además de estas dos caben también el resto de las posiciones intermedias. Se contrapone así lo imposible respecto de lo improbable y lo necesario,  distinguiéndolos exclusivamente por el tipo de decisión a tomar en cada caso a la hora de tratar de hacer explícita la evidencia implícita en su respectiva base empírica, según sea 0, 1 u otro valor intermedio, sin atribuirles ya un tipo de verdad cualitativamente distinto.

c) La probabilidad subjetiva o condicionada interpreta estas mismas frecuencias como el procedimiento de confirmación de la evidencia implícita en una relación causal humeana mediante una aplicación estricta del teorema de Bayes. Según este teorema la probabilidad condicionada de un suceso (A) respecto de otro (B), es directamente proporcional a la probabilidad ya comprobada o ‘a priori’ de la conjunción de ambos eventos A y B, e inversamente proporcional a la probabilidad aislada del segundo evento B. En todo momento se presupone la referencia a eventos recíprocamente independientes, aunque interrelacionados, manteniendo entre ellos una correlación meramente fáctica.

En principio el teorema de Bayes se formula para series de eventos finitas y limitadas, pero su validez está condicionada a su vez por el número de verificaciones realizadas. Por eso el teorema de Bayes permite la sucesiva incorporación de los resultados de las nuevas observaciones, logrando así que las probabilidades ‘a priori’ pasen a ser consideradas ‘a prosteriori’, en la medida que corrigen sus resultados, según confirmen o no las anteriores expectativas. Se justifica así el paso paulatino de una probabilidad subjetiva a otra epistémica y estrictamente física, sin concebirla ya como el resultado de un cálculo frecuencial de tipo deductivo, sino más bien como resultado de un proceso inductivo que logra hacer explícita la verdad implícita contenida desde un principio en aquellos hechos de la experiencia. Para Mellor la justificación de este paso requiere el estricto seguimiento de una regla de rectitud donde estas extrapolaciones desde series finitas a otras infinitas o frecuenciales se justifican en virtud de la ley de los grandes números, previa demostración de la independencia y la simultánea intercambiabilidad de los factores interrelacionados, siguiendo a su vez el triple procedimiento probabilista ahora indicado.

Para justificar estas conclusiones la monografía da diez pasos: 1) Tipos de probabilidad diferencia las tres interpretaciones posibles de la probabilidad; 2) La probabilidad clásica contrapone las interpretaciones metafísicas o modales de la probabilidad respecto de la anterior interpretación epistémica antes señalada; 3) Frecuencias introduce la interpretación humeana de la casualidad como una simple conjunción de sucesos en sí mismos independientes y absolutamente aleatorios; 4) Posibilidades y propensiones rechaza la interpretación de la probabilidad como una simple ‘equiposibilidad última’ de tipo modal para tomarla más bien como una propensión o tendencia implícita (‘ergodic hipothesis’) que logra explicitar sus presupuestos implícitos mediante la este triple uso del cálculo frecuencial; 5) Creencias interpreta el cálculo frecuencial, incluyendo ahora también las verdades necesarias, como una medida de los grados de riesgo, al modo como sucede en el cálculo de apuestas; 6) Confirmación interpreta el cálculo de frecuencias como una explicitación de una conclusión implícita en una evidencia inductiva previa; 7) Condicionalización reinterpreta el cálculo frecuencial como un proceso psicológico de formación de creencias siguiendo el método de Bayes; 8) Génesis de las creencias reconstruye el proceso de proceso de formación de creencias subjetivas del método de Bayes mediante una clara contraposición de las probabilidades ‘a priori’ (‘input’)  respecto de las ‘a posteriori’ (‘output’); 9) Cuestiones bayesianas analiza las ventajas derivadas de esta triple interpretación del cálculo frecuencial a fin de evitar el carácter pisologista y decisionista del cálculo de probabilidades subjetivas; 10) Casualidad, frecuencia y creencia analiza la ley de los grandes números y el tipo de independencia e intercambiabilidad atribuido a los eventos a los que se aplica este triple interpretación del cálculo frecuencial.

Para concluir una reflexión crítica. Mellor ha mostrado como el giro pragmático operado hoy día en el modo de abordar el cálculo de probabilidades, exige extrapolar a todos los eventos posibles su consideración como eventos absolutamente independientes y aleatoriamente intercambiables, sin poder ya hacer excepciones. Se vuelve así a una interpretación humeana de la probabilidad como una mera ‘conjunción constante’ entre acontecimientos en sí mismos independientes y a la vez intercambiables, como si desde un principio estos presupuestos ya estuvieran implícitos en la propia experiencia, sin advertir que esto era precisamente lo que afirmaba la interpretación metafísica modal de la probabilidad, que ahora se rechaza. Evidentemente se trata de una propuesta enormemente polémica en la filosofía empirista ya en los tiempos de Ramsey y Hempel, que fueron los primeros que recuperaron estas propuestas de Hume. Pero con independencia de este debate, hay otra cuestión quizás más inmediata. A pesar de pretender ampliar las aplicaciones del cálculo frecuencial, sin embargo ahora el cálculo de probabilidades  genera un proceso cada vez más generalizado de doble improbabilidad, tanto en un ámbito teórico como respecto de sus posteriores aplicaciones prácticas a la experiencia, dado que si no se pueden justificar los dos valores extremos 0 y 1, tampoco se podrán justificar los intermedios. Hasta el punto que ahora tampoco parece que se puedan evitar las numerosas situaciones de doble indefinición contable, intencional y extensional, como desde Descartes se ha reprochado al cálculo de predicados.

Carlos Ortiz de Landázuri

Anuncios

Deja un comentario

Archivado bajo Epistemología, Filosofía de la matemática, Lógica

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s