Archivo de la categoría: Epistemología

MARTÍNEZ FREIRE, Pascual F. La importancia del conocimiento. Filosofía y ciencias cognitivas. Netbiblo, La Coruña 2007. (2ª edic.)

por Juan A. García González

Presentamos la segunda edición reformada de este libro, que recoge una colección de trabajos previamente editados en distintas publicaciones. Comparada con la primera edición se han mejorado, actualizado, las referencias científicas; se ha modificado algún capítulo, y se ha añadido algún otro.

El libro organiza esos trabajos en capítulos, que podrían agruparse en tres bloques: a) filosofía del conocimiento: naturaleza de las ciencias cognitivas y cuestiones de filosofía del conocimiento; b) relaciones de la filosofía del conocimiento con la psicología, la teoría sobre inteligencia artificial y la neurociencia; c) y antropología cognitiva. Como cada capítulo está integrado por dos o tres trabajos, el resultado final compone un elenco sumamente amplio de la temática que estudian las ciencias cognitivas: realidad y mente, representación e interpretación, máquinas pensantes, el problema mente-cerebro, el desafío de las emociones, la racionalidad humana y el espíritu, etc.

Los trabajos que aquí presenta el autor se caracterizan todos ellos por algunas notas comunes que quisiera destacar. Se trata de trabajos muy informativos, por estar ellos mismo muy bien informados: por así decirlo, a la última en bibliografía. En segundo lugar se trata de trabajos panorámicos, que describen a un tiempo el origen histórico de las cuestiones, o más bien su nacimiento y presencia en el desarrollo científico y tecnológico del siglo XX, así como el status quaestionis general de un tema; todo ello con gran claridad. Son por esta razón trabajos muy orientativos. Y la tercera característica es el sano juicio, el buen sentido, que exhibe el autor al tomar posición en los debates y discusiones planteados. Siempre con una solución ecuánime y equilibrada, abierta al dato científico tanto como a la experiencia común precientífica. El autor, desde luego, se muestra partidario de la ciencia, de las ciencias cognitivas, más que de la metafísica, o de una filosofía teorética del conocimiento. El autor entiende, desde luego, que conocer se reduce a procesar información, lo cual hacen las máquinas y los animales análogamente a como lo hace el hombre. Ciertamente, constituyen estos extremos una postura discutible. Pero esta postura suya es compatible también con una defensa de la interioridad, de la espiritualidad, de la vida humana: emociones, libertad, valores éticos; defensa que se hace ver a lo largo de todo el libro.

Por todo lo dicho me parece que este libro merecía esta reedición, porque es una buena obra de consulta, casi un manual, para todos los estudiosos de la filosofía de la mente y de la teoría del conocimiento. Dirigido a un público culto, a estudiantes universitarios, se trata de una obra de referencia para acercarse al estado actual de las que llamamos ciencias cognitivas.

Anuncios

Deja un comentario

Archivado bajo Epistemología, Teoría del conocimiento

Hanna, Robert; Kant, Science, and Human Nature, Oxford University, Oxford, 2006, 483 pp.

Carlos Ortiz de  Landázuri

Kant, ciencia y naturaleza humana, pretende mostrar la continuidad existente entre el proyecto programático idealista kantiano y las propuestas de naturalización de la razón y de racionalización de la naturaleza por parte de la filosofía analítica contemporánea, especialmente a partir de Strawson y Quine. A este respecto Robert Hanna ya había puesto de manifiesto en una obra anterior de 2001, Kant y los orígenes de la filosofía analítica, el paralelismo  existente entre el análisis modal kantiano de la validez de las proposiciones “a priori” y el actual análisis semiótico del significado de las palabras y representaciones, ya se tome como punto de partida el punto de vista logicista de Frege, el lingüístico de Wittgenstein o el estrictamente científico de Quine (cf. Hanna, Robert, Kant and the Foundations of Analytic Philosophy, Oxford University, Oxford, 2001). Por su parte Hanna ahora da un paso más, que antes sólo se había sugerido: establecer un paralelismo entre las pruebas de Kant en la Crítica de la Razón Pura para refutar al idealismo y el actual rechazo por parte de Quine y Strawon del esencialismo metafísico racionista, con un resultado común: la  recuperación que en ambos casos se habría producido de un realismo transcendental naturalista, así como de una fundamentación práctica de las ciencias humanas, con anterioridad a los posteriores proyectos de la Crítica del Juicio o al “Opus Postumum”.

Precisamente ahora se concibe la evolución intelectual de Kant como un modelo en pequeño de lo ocurrido en el pensamiento analítico posterior a 1950, donde también se habría producido un paso obligado entre dos imágenes contrapuestas del saber, pero condenadas a entenderse, a saber: por un lado, un realismo empírico regulado a su vez por una razón lógica vulgar cada vez más “a priorista”; y, por otro lado, un realismo científico-transcendental  mediante el que se espera lograr tres objetivos: una progresiva desaparición de cualquier pequeño resto de la antigua metafísica, una completa naturalización del conocimiento, así como un progresivo esclarecimiento del “noumeno” extramental del que a su vez depende nuestro conocimiento. De este modo tanto Kant como el pensamiento analítico contemporáneo habría postulado una fundamentación práctica del conjunto de las ciencias exactas a partir de unos principios comunes de la naturaleza humana, sin necesidad de remitirse a los presupuestos especulativos esencialistas de la metafísica clásica.

Para alcanzar estas conclusiones la obra se divide en cuatro capítulos, subdivididos a su vez en dos partes: La primera parte, Realismo empírico y realismo científico, analiza el paso progresivo que tanto en Kant como en el pensamiento contemporáneo se produjo de una imagen del mundo vulgar a otra científico-transcendental, a través de cuatro capítulos: 1) El realismo perceptivo directo I: La refutación del idealismo, se analiza la presencia en Kant de un realismo perceptivo directo que va más allá del realismo empírico vulgar, para afirmar la posibilidad de un realismo científico-transcendental que ya no se  basa en razones de tipo metafísico, sino en virtud de un antropocentrismo de tipo práctico, como de hecho también ocurre actualmente en Churchland, Kripke, Putnam, Nagel o Evans; 2) El realismo perceptivo directo II: El contenido no conceptual, comprueba como el realismo científico-transcendental kantiano exigió a las  percepciones directas un vaciamiento exhaustivo de cualquier contenido conceptual de tipo metafísico, al modo como también hoy día exigen algunos eliminativistas antimetafísicos para salvar la espontaneidad de las representaciones o vivencias naturales y evitar así el dogma de la sobredeterminación cultural, como también propusieron Rorty, Sellars o Churland, aunque no así McDowell; 3) Realismo manifiesto I: Una crítica del esencialismo científico, rechaza que Kant pretendiera justificar el acceso perceptivo directo a la realidad en sí nouménica en virtud de los conceptos abstractos de la ciencia natural. En su lugar Kant más bien habría establecido una estricta separación entre los designadores rígidos de este tipo de constructos mentales y el tipo de vivencias naturales que nos permiten acceder a la realidad transfenoménica del mundo en torno, como también hicieron notar Wittgenstein, Kripke o Putnam; 4) Realismo manifiesto II. Por qué el oro es necesariamente un metal amarillo, analiza la posible interpretación realista que, a pesar de todo, Kant siguió haciendo de las ahora mencionadas proposiciones analíticas “a priori”, así como de las proposiciones sintéticas “a posteriori”, a fin de justificar un posible paso desde las  propiedades primarias hasta las secundarias, desde el nivel microscópico hasta el macroscópico, desde las apariencias fenoménicas a la apercepción de unas  representaciones conceptuales cada vez más configuradotas del mundo nouménico real, como de hecho también ocurre en Kaplan, Perry, Bennett, Hacker o McGinn y otros autores antes mencionados.

La segunda parte analiza el similar papel que desempeñaron los principios de la naturaleza humana en la fundamentación práctica del saber, tanto en Kant como en los filósofos analíticos posteriores a 1950, a través de otros cuatro capítulos: 5) La verdad y la naturaleza humana, justifica el similar grado de veracidad con que los seres humanos perciben la objetividad científica en virtud de unos principios comunes de la naturaleza humana, a pesar de no poder garantizar una verdad o correspondencia plena, ni el logro final de una progresiva semejanza, como también sucedió en Frege, More, Wittgenstein, Tarski, Austin o Sellars; 6) Matemáticas para humanos, atribuye a las proposiciones sintéticas “a priori” de las matemáticas un origen empírico y a la vez fuertemente transcendental, justificando así su doble carácter deductivo  y a la vez inductivo, esquemático y a la vez fáctico, completo y a la vez indecidible, como también ocurrió en el teorema de Gödel, en la visión de las matemáticas en Hintikka o  en el algebra, según Shabel; 7) ¿Cómo podemos conocer las verdades necesarias?, justifica la posibilidad de congeniar la necesidad lógica o “a priori” y la necesidad epistémica o “a posteriori”, así como sus respectivos grados de contingencia y posibilidad, con sus múltiples grados de certeza, de creencia y de puntos de vista, a partir de la bipolaridad inherente a la regulación de los principios de la razón, con anterioridad al posterior uso del lenguaje, como también hoy día han afirmado Fodor, Carruthers o Broad; 8) ¿Dónde está el camino a seguir por la voluntad?: Causalidad y libertad, admite la posibilidad de autolimitar el espontáneo desarrollo de la acción humana en virtud de dos principios antagónicos de la naturaleza humana, como son la necesidad de la naturaleza y el propio sentido del deber, a pesar de su carácter analógico y de las antinomias que generan, como recientemente también han señalado Strawson, Westphal, O’Neil, Kane, Frankfurt, Watkins, Hacking, entre otros.

Para concluir una reflexión crítica. Es indiscutible que Kant rechazó la deriva idealista que ya en el siglo XVIII estaba tomando la filosofía racionalista moderna. Sin embargo es más discutible que ese programa tan ambicioso lo hubiera desarrollado ya completamente en la Crítica de la Razón Pura, con anterioridad a la tercera Crítica del Juicio y en el llamado “Opus Postumun”, aunque sin duda fue entonces cuando se puso el fundamento de tal proyecto. Y en este sentido cabría preguntarse. ¿Se puede separar la recuperación de un realismo no-metafísico por parte de Kant de su posterior evolución intelectual que le hizo distanciarse cada vez más de los presupuestos idealistas de su filosofía, a pesar del rechazo explícito que de ellos hizo en la Crítica de la Razón Pura? ¿Se puede seguir tomando la Crítica de la Razón Pura como el lugar más adecuado para justificar una articulación teórico-práctica de los principios de la naturaleza humana, incluyendo la articulación entre naturaleza y libertad, cuando a lo largo de su evolución posterior trató de alcanzar un planteamiento más correcto de este problema? ¿Se puede seguir tomando el rechazo de la metafísica aristotélica como el motivo central de su rechazo de un realismo científico-esencialista, cuando de hecho la evolución posterior de Kant marcan un lento pero progresivo acercamiento a las tesis gnoseológicas y metafísicas aristotélicas?

Deja un comentario

Archivado bajo Antropología filosófica, Epistemología, Historia de la filosofía moderna

Libet, Benjamin; Mind Time. The temporal Factor in Consciousness, Harvard University, Harvard, 2004; Mind Time. Wie die Gehirn Bewusstsein produziert, Suhrkamp, Frankfurt, 2005, 298 pp.

por Carlos Ortiz de Landázuri

Benjamin Libet defendió en Tiempo mental. Cómo el cerebro produce la conciencia, la posibilidad de someter a verificación empírica el paralelismo psicofísico y la génesis neurológica de la conciencia subjetiva o mental, sin considerarlo un problema irresoluble, como sucedió en McGinn, Chalmers, o los ‘qualia’ de Dennett, defendiendo dos tesis:

a) La temporalidad retardada como rasgo neurofisiológico de los mecanismos inconscientes de la mente humana, que permite diferenciar lo involuntario respecto de lo voluntario, o lo inconsciente respecto de lo consciente, como sucede en el fenómeno ‘ahora actúo’, en polémica con Doty. En estos casos la desincronización entre lo dicho y lo hecho se atribuye a las diferentes velocidades de respuesta de cada mente en particular, sin sacar la consecuencia oportuna: el retardo temporal existente entre la estimulación neurológica inicial y la posterior aparición de la conciencia subjetiva es el factor decisivo del carácter fragmentado y multiforme ahora atribuido al paralelismo psicofísico, así como de la posible función de veto habitualmente asignada al libre arbitrio, fácilmente se podría explicar en virtud de motivaciones ocultas o de un cálculo inconsciente de consecuencias;

b) La teoría del campo mental consciente aportó una respuesta estrictamente científica del problema de la articulación mente-cerebro desde un materialismo eliminativo aún más estricto que el de Dennett o Churland, sin necesidad de recurrir tampoco a una teoría del homúnculo, como siguió sucediendo en Searle. En efecto, ahora se podrían justificar las peculiaridades de los epifenómenos de la conciencia subjetiva en virtud del retardo temporal que experimentan respecto de la estimulación neurofisiológica correspondiente, aunque sólo se propone al modo de un experimento mental sin posible comprobación experimental directa. De ahí la necesidad de admitir el complemento de un experimento crucial o situación singular, que permite confirmar o refutar el anterior experimento mental, como ahora sucede diversos experimentos de desestimulación y re-estimulación de zonas corticales deliberadamente aisladas del resto del cerebro, si se comprueba que, a pesar de su aislamiento, pueden seguir provocando una respuesta subjetiva o vivencia psicológica proporcionada, si reciben la estimulación adecuada. La neurociencia postulará así un paralelismo psicofísico,  fragmentado y multiforme, entre el anterior campo cerebral inconsciente y este otro campo mental consciente, considerándolos como la única realidad efectivamente probada. Para justificar estas conclusiones se dan seis pasos:

1) Se reconstruye el peculiar paralelismo psicofísico tan fragmentado existente entre las zonas corticales del cerebro y los niveles conscientes correspondientes, comprobando a su vez la correspondencia humeana existente entre las multiformes estimulaciones o desactivaciones zonales y la subsiguiente reacción o falta de reacción de la conciencia sensible;

2) Se comprueba el retardo temporal existente entre la estimulación neurofisiológica inicial y la ulterior aparición de la conciencia psíquica, como se pone de manifiesto a través de la medición de sus respectivos umbrales de sensación, de sus ulteriores proyecciones retroactivas sobre una determinada zona del cuerpo, de los mecanismos neuronales de la reiteración de un recuerdo, o mediante los procesos de apropiación indebida y posterior rectificación de una acción;

3) El criterio de temporalidad retardada también permite justificar la separación existente entre los hechos psíquicos conscientes respecto de los inconscientes o no-conscientes, según hayan alcanzado o no un tiempo mínimo de estimulación, como de hecho sucede en los sueños, en los procesos fisiológicos, en los reflejos condicionados, o en otros automatismos mentales;

4) El criterio de temporalidad retardada también permite separar los actos involuntarios respecto de los voluntarios y libres, como por ejemplo ahora sucede en la reconstrucción temporal del fenómeno ‘ahora actúo’, atribuyendo la habitual desincronización en estos casos a las diferentes velocidades de respuesta de cada sujeto. Por su parte la deliberación, la reflexión o los sentimientos sólo cumplen en estos supuestos una mera función de veto, en virtud del posible influjo de motivaciones ocultas o de un cálculo de consecuencias en sí mismo inconsciente, sin que el libre arbitrio pueda aportar pruebas experimentales efectivas frente a las poderosas razones aportadas por el determinismo;

5) La teoría del campo mental consciente propone una solución estrictamente científica del problema de la articulación mente-cerebro, sin necesidad de recurrir a una teoría del homúnculo. Al igual que ocurre con la noción de campo en física, también ahora se atribuye a un campo cerebral inconsciente la necesidad estricta de generar un campo mental consciente en virtud de un experimento mental, dado que el factor desencadenante de los correspondientes epifenómenos de la conciencia subjetiva se atribuye simplemente al retardo temporal generado por la duración de los anteriores fenómenos neurofisiológicos, a pesar de la imposibilidad de someter a comprobación directa un supuesto psicológico de esta naturaleza. De ahí la necesidad de recurrir a un experimento crucial complementario que permita confirmar o refutar la hipótesis propuesta, como ahora sucede con los procesos de desestimulación y re-estimulación de aquellas zonas corticales que deliberadamente han quedado aisladas del resto del cerebro, mediante la realización de un corte anatómico adecuado, pero que sin embargo pueden seguir manteniendo una capacidad de provocar una respuesta subjetiva  o vivencia psicológica similar, si son adecuadamente estimuladas. Hasta el punto de ahora se considera probado experimentalmente el paralelismo psicofísico existente entre un campo mental consciente y un campo cerebral inconsciente,  fragmentado y multiforme, el único que propiamente puede ser objeto de una comprobación o refutación directa, aunque indirectamente también puede corroborar o refutar la hipótesis paralelista;

6) A través de un dialogo imaginario se ridiculiza a Descartes y a otros representantes del dualismo neurocientífico, a la vez que se equiparan los complejos modelos de la neurociencia con los futuros computadores automatizados de inteligencia artificial de la cibernética, aunque sin tampoco establecer una completa identidad entre ellos, como le criticó Penrose.

Para concluir una reflexión crítica: El materialismo eliminativo de Libet sólo pone una condición para lograr una efectiva comprobación experimental del anterior argumento mental, a saber: admitir una inteligencia inconsciente, automática o simplemente mecánica, carente de libre arbitrio, que también debería ser capaz de justificar el paralelismo psicosocial existente con las otras mentes, como le criticará Penrose. Libet rechazó la pretendida identidad o equivalencia de su inteligencia inconsciente o meramente psicofísica, con esta otra artificial o psicosocial, pero tampoco logró explicar el posible origen de estas diversas manifestaciones de la conciencia.

Deja un comentario

Archivado bajo Antropología filosófica, Epistemología, Filosofía de la mente, Teoría del conocimiento

Searle, John R.; Mind, Language, and Society. Philosophy in the real World, Basic Books, New York, 1998, 169 pp.

por Carlos Ortiz de Landázuri

John R. Searle, en 1997 y 1998, defendió la necesidad por parte de la neurociencia de un lenguaje privado en primera persona capaz de detectar la posibles disfunciones lingüísticas aparecidas en el uso del anterior lenguaje en tercera persona, a fin de poder determinar si su uso es correcto o incorrecto, sano o patológico, en cada caso concreto. A este respecto en 1997, en El misterio de la conciencia (Searle, J. R.; El misterio de la conciencia. Intercambios con Daniel Dennett y David J. Chalmers, Paidós, Barcelona, 1997, 141 pp.),  refutó la unilateralidad de los anteriores argumentos materialistas de Daniel Dennett a favor de un lenguaje objetivo en tercera persona capaz de lograr la progresiva eliminación por parte de la neurociencia de cualquier referencia a la mente o conciencia subjetiva, cuando en su opinión hubiera sido necesario llevar a cabo un análisis previo de los presupuestos implícitos en su propia propuesta. En su opinión, las propuestas de Dennett a favor de la objetividad de un lenguaje neurocientiífico en tercera persona adolecen de numerosos malentendidos que hacía tiempo parecían erradicados del ámbito de las ciencias antropológicas, pero que, sin embargo, ahora vuelven a resurgir con más fuerza de mano de esta nueva ciencia. En su opinión, Dennett no pretende explicar la conciencia o mente humana, sino simplemente disolverla o negarla, para sustituirla a su vez por la actividad neuronal propia del cerebro. Todo se da por bueno con tal de conseguir este propósito.

A este respecto, según Searle, la neurociencia de Dennett concibe los organismos vivientes desde un conductismo radicalizado que los reduce a en simples mecanismos estímulo respuesta, sin  apreciar la mediación de un centro funcional básico que a su vez permitiría regular el inicial procesamiento de aquella misma información. Por otro lado Dennett también habría defendido una versión funcionalista fuerte de la inteligencia artificial (AI) mediante la feliz confluencia de cuatro factores: las máquinas cibernéticas de von Neumann, un ilimitado conexionismo neuronal, el virtuosismo de las series algorítmicas cifradas y los hallazgos antropológicos respecto de los procesos neuronales de reproducción mimética. Sin embargo su propuesta prescinde de lo principal respecto a una posible explicación de la conciencia: la justificación de un centro funcional superior capaz de articular y dar un sentido unitario a la interacción existente entre todos estos factores, así como de detectar la aparición de disfunciones lingüísticas en el uso del anterior lenguaje en tercera persona.

Finalmente, Dennett habría defendido un materialismo eliminativo que reduce la actividad de la conciencia a la mera actividad neuronal del cerebro, haciéndola depender exclusivamente de las entradas y salidas de información procedente de la experiencia, expresadas a su vez en un lenguaje en tercera persona. De este modo se habría dejado de tener en cuenta el papel decisivo desempeñado por el lenguaje en primera persona utilizado por la propia conciencia para expresar su capacidad de regulación de la respectiva actividad cerebral, como efectivamente ahora exigiría un modelo no-reduccionista de interacción recíproca entre mente y cerebro. De ahí que ahora se postule la necesidad de encontrar un nuevo modelo no reduccionista de interacción mente-cerebro, donde se reconozca un doble influjo: por un lado, el  influjo causal que la actividad cerebral puede ejercer sobre los diversos estados mentales; y, por otra parte, el mayor o menos alcance intencional que de un modo indirecto los estados mentales atribuyen a los estados cerebrales por haber sido un factor desencadenante decisivo, una ‘conditio sine qua non’, del establecimiento de este segundo tipo de relación.

A este respecto Searle en 1998, en Mente, lenguaje y sociedad, también habría dado un paso más respecto de la anterior modelo reduccionista de Dennett. En su opinión, el modelo de interacción mente-cerebro debe tener en cuenta desde un principio la mutua influencia que la actividad neuronal y la conciencia se ejercen recíprocamente entre sí, sin pretender suplantar el peculiar papel desempeñado por cada uno de ellos. Sólo así se podrá apreciar la peculiar causalidad intencional indirecta que la neurociencia debe atribuir a la actividad cerebral sobre los estados mentales, ya que sin su concurso la conciencia tampoco podría atribuirles un mayor o menor alcance intencional. Se reconoce así la importancia desempeñada por un lenguaje objetivo en tercera persona capaz de describir la actividad cerebral desde criterios estrictamente científicos. Sin embargo ahora también se resalta la necesidad complementaria de un lenguaje privado en primera persona capaz de expresar la intencionalidad meramente causal que de un modo indirecto ahora también se atribuye a esa misma actividad cerebral respecto de los posteriores estados mentales que ella misma origina. Sólo así la neurociencia podrá conmensurar la actividad cerebral y los respectivos estados mentales, pudiendo distinguir cuando el funcionamiento mental-cerebral es propio de un homúnculo sano respecto de la actividad patológica propia de un “zombi” enfermo, dando lugar a disfunciones lingüísticas que el propio paciente es incapaz de corregir.

A este respecto Searle distingue tres tipos de intencionalidad: la intencionalidad meramente metafórica de aquellas relaciones causales que de un modo genérico remiten a un antecedente o consecuente, sin individualizarlos ni llegar a establecer entre ellos una relación de identificación. La intencionalidad causal indirecta que ahora se atribuye a la actividad cerebral por poder generar diversos estados mentales que son los únicos verdaderamente intencionales. La intencionalidad directa o explícita, propiamente dicha,  de aquellos estados mentales que a  su vez la conciencia remite a tres posibles supuestos: o bien los distintos objetos del mundo externo, cuando se utilizan en una primera intención; o a ellos mismos y a su respectivo proceso de producción, incluyendo ahora también la actividad cerebral que a su vez los ha producido, cuando se usan de un modo reflejo en segunda intención; o a los estados mentales que un ulterior acto de habla pudiera producir en un posible interlocutor, pudiéndoles otorgar así una tercera o cuarta intención aún de mayor alcance.

Searle recurre a un ejemplo tomado  a su vez de Elizabeth Anscombe en Intentions para distinguir esta doble tipo de intencionalidad directa y causal. En aquel caso Anscombe recurrió al ejemplo de la lista de la compra a fin de explicar los distintas funciones desempeñadas por la noción de intencionalidad en la correcta aplicación de un razonamiento práctico, distinguiendo a su vez dos supuestos netamente distintos: la intencionalidad directa o explícita del propio consumidor a la hora de confeccionar aquella lista y la intencionalidad causal que aquella misma lista podría tener para un hipotético detective que a su vez trata de descifrar el significado que le dio el consumidor, sin que ya en este caso se pueda hablar de una intencionalidad explícita o directa. En ambos casos puede hablarse de verdad o falsedad, según sea posible establecer una correspondencia entre el estado mental y el objeto en cada caso intencionado, pero en cada caso cambiarán las condiciones de sentido exigidas para la correcta atribución de una intencionalidad de este tipo.

Searle defiende su propuesta desde una epistemología naturalizada que no admite la referencia a entidades metafísicas ajenas a los propios procesos ahora analizados, como en este caso sucede con el cerebro y la mente. En su opinión, el uso meramente metafórico de la noción de intencionalidad permite mostrar como los fenómenos naturales están abiertos a diversos niveles de inteligibilidad, incluyendo una referencia a una mente capaz de comprenderlos, sin que la aparición de la conciencia pueda verse como una anomalía en el funcionamiento del universo, como ahora pretende el materialismo eliminativo de Dennett. Es más, sólo si se admite la anterior estructura de la conciencia, concebida como la esencia de la mente, se podrá evitar la aparición de formas de materialismo claramente regresivas, como ahora sucede con el epifenomenismo o el propio conductismo. Se concibe así la conciencia como un fenómeno biológico que a su vez señala la dirección seguida por la evolución del universo físico y por el desenvolvimiento del propio mundo social, sin necesidad de remitirse a principios metafísicos externos a ellos mismos. Se justifica así un realismo, una epistemología y un mundo social naturalizado, que a su vez permite explicar la complejidad biológica, mental y cultural de ser humano. En su opinión, esta sería la la metafísica naturalizada subyacente a su teoría sobre la triple dimensión sintáctica, semántica y pragmática de los actos de habla.

Para justificar estas conclusiones ahora se dan 6 pasos: 1) Metafísica básica: realidad y verdad justifica la inteligibilidad del Universo sin presuponer un principio externo a los propios fenómenos naturales, como podría ser Dios; 2) Cómo nosotros nos referimos al Universo: la mente como fenómeno biológico, comprueba la génesis de dos grandes errores al prescindir de la mente humana a la hora de comprender el universo, como son el conductismo y el epifenomenismo; 3) La esencia de la mente. La conciencia y su estructura, analiza tres posibles lagunas que a su vez ponen de manifiesto tres rasgos de la conciencia: su capacidad intencional de apropiarse del universo, de sí misma y de los valores propios y ajenos; 4) Cómo la mente opera: la  intencionalidad, distingue la intencionalidad directa propia de los actos mentales respecto de la simple intencionalidad causal propia de la actividad cerebral, desde una epistemoloía naturalezada que a su vez rechaza un materialismo eliminativo como el Dennett; 5) La estructura del mundo social: cómo la mente crea una realidad social objetiva, justifica la aparición de diversas instituciones, como el dinero, mediante el libre juego que ahora se asigna a la triple dimensión de la intencionalidad, respecto de los objetos de la experiencia, respecto de sí misma y respecto de un hipotético interlocutor; 6) Cómo opera el lenguaje: el habla como un tipo de acción humana, comprueba como la doble dimensión ilocutiva y perlocutiva de los actos de habla es el presupuesto último de su anterior teoría del significado, de la comunicación, del simbolismo y de las reglas del lenguaje.

Para concluir una reflexión crítica. Sin duda Searle ha mostrado como el personalismo humanista también puede aportar una epistemología naturalizada aún más sofisticada, capaz de otorgar al lenguaje en primera persona de la conciencia, de la intencionalidad o del propio ejercicio del lenguaje un papel muy decisivo en la efectiva configuración de los procesos de interacción recíproca entre la mente y el cerebro. De todos modos su propuesta deja una cuestión sin responder sobre la que giró los posteriores debates acerca de este tema: dado que la filosofía de la mente atribuye a los estados mentales unos niveles de intencionalidad muy superiores a los en principio aportados por los automatismos neuronales de las explicaciones empíricas, ¿qué tipo de interacción habría que establecer entre la filosofía la mente y la neurociencia a fin de hacerlas compatibles?

Deja un comentario

Archivado bajo Epistemología, Filosofía del lenguaje, Metafísica, Teoría del conocimiento

Vorobej, Mark; A Theory of Argument, Cambridge University, Cambridge, 2006, 324 pp.

Carlos Ortiz de Landázuri

Una teoría de los argumentos pretende evitar la aparición de los tradicionales sofismas mediante un análisis más exhaustivo de los mecanismos de persuasión del discurso racional, sin recurrir solamente a estrategias de tipo lógico. A este respecto Mark Vorobej comparte el fundacionalismo subjetivo propuesto por Richard Forley en 1987 en Teoría de la racionalidad epistémico. Allí se admitió de un modo programáticamente ingenuo la posible racionalidad de una creencia si después de reflexionar sobre ella en un determinado contexto se alcanza un convencimiento estable acerca de su posible validez. Evidentemente el fundacionalismo subjetivo no pretende ser ingenuo respecto al cumplimiento de los requisitos formales exigidos a este respecto por la lógica o la metodología científica. Sin embargo se acepta la ingenuidad de otorgar al llamado ‘autor’ del argumento la capacidad de valorar el grado de incidencia de los condicionantes colaterales en los argumentos persuasivos, aún a riego de confiar excesivamente en sus propias capacidades. El fundacionalismo subjetivo pretende así recuperar para la argumentación discursiva un tipo de razonamiento habitualmente considerado sofístico, pero que si efectivamente el autor de la argumentación ha llevado a cabo los controles pertinentes, se podría terminar considerando válido en atención de las circunstancias y de las pruebas aportadas. Hasta el punto de que, si se cree conveniente, se podría ampliar la validez otorgada a una argumentación persuasiva respecto de aquellos ámbitos que la propia lógica deja al uso discrecional de los afectados, sin dejarlos en una situación de permanente indefinición. De ahí la necesidad de someter estos ámbitos de indeterminación lógico-formal y de aquellos otros posibles factores metodológicos de riesgo contextual a un control discursivo verdaderamente compartido, a fin de garantizar el grado de validez atribuido en cada caso a una determinada creencia estable.

El fundacionalismo subjetivo distingue a este respecto dos niveles de análisis, acompañados ahora de más de 400 ejercicios de tipo práctico: la macroestructura determina los factores contextuales que inciden en la adquisición de una creencia estable, destacando tres aspectos: a) la peculiar naturaleza contextual de las argumentaciones (especialmente dos factores: las audiencias y la claridad expositiva); b) los requisitos para congeniar o no congeniar respecto de la aceptación estable de una creencia (especialmente los criterios para localizar un mal acuerdo o un buen desacuerdo); c) los criterios de normalización lógica y metodológica (especialmente la valoración de la validez y del relieve de un contrargumento). Por su parte la microestructura analiza los criterios usados por el autor de un argumento para justificar la estabilidad de sus creencias, destacando tres aspectos: a) los criterios de convergencia compartida (especialmente los diagramas modales o generales del discurso, las premisas charca o simples interrupciones, la concesiones de estilo o meramente caritativas, los diagramas colaterales o rodeos en falso); b) la concatenación argumental (especialmente las opciones estructurales, la vulnerabilidad absoluta y relativa, las ilustraciones o ejemplos); y c), finalmente, las estrategias supletorias de  convalidación argumental (especialmente los argumentos híbridos respecto de la ambigüedad estructural, las confusiones epistémicas, los malentendidos morales o lingüísticos y los diversos grados de ignorancia).

Para concluir una reflexión crítica.  La fundamentación subjetivista de Vorojeb se legitima en virtud del mismo tipo de creencias estables que trata de fundamentar, sin conseguir evitar el circulo hermenéutico en si mismo vicioso que genera este tipo de propuestas donde la valoración última de una creencia estable siempre queda en manos del propio ‘autor’ de la argumentación, se siguen valorando según criterios meramente subjetivos, y se termina defendiendo una resolución unilateral de las diversas situaciones de indeterminación originadas por la lógica o la metodología. Sin duda lo que habitualmente ocurre, pero posiblemente se podría esperar algo más de una autoproclamada argumentación crítica.

Deja un comentario

Archivado bajo Epistemología, Lógica

Kühne, Ulrich; Die Methode des Gedankenexperiments, Suhrkamp, Frankfurt, 2005, 410 pp.

por Carlos Ortiz de Landázuri

El método del experimento mental de Ulrich Kühne atribuye a la teoría generalizada de la relatividad de Einstein un modelo de justificación explicativo-comprensivo, similar al defendido en su inconclusa teoría del campo unificado. En su opinión, las numerosas dificultades de comprobación con que se encontró la teoría especial de la relatividad, le obligaron a iniciar una defensa de la pretensión neokantiana de alcanzar una estricta jerarquización postcriticista entre los niveles y grados de racionalidad de los mundos virtuales de la metodología científica, sin admitir un único nivel de experimentación científica. Se pudo así reconocer el común carácter experimental de los experimentos ordinarios y mentales, aunque estableciendo una jerarquización e interrelación entre ellos, distinta de la después postulada por Ernst Mach. En efecto, Mach habría defendido un modelo depurador-expansivo que también se habría hecho presente en las primeras interpretaciones de la teoría especial de la relatividad atribuyendo a la recíproca interacción existente entre los experimentos mentales y ordinarios una doble función: eliminar los restos de vaguedad y de generalización abusiva presentes en la praxis científica; y, por otro lado, ampliar al máximo sus posibles ámbitos de aplicación respecto del conjunto de los saberes científicos. De este modo al final del proceso se lograría una perfecta correspondencia entre las teorías científicas y el ámbito empírico al que se aplican, sin dejar ya márgenes de vaguedad o ambigüedades en el uso del lenguaje ideal de la ciencia.

Sin embargo ahora se hace notar como la teoría generalizada del último Einstein habría revisado las propuestas de Mach, volviendo a un modelo de justificación explicativo-comprensivo de los experimentos cruciales, similar a la propuesta por Orsted (1777-1855) al reformular a su vez algunas propuestas kantianas. En efecto, el giro copernicano operado por Kant habría aportado una nueva reinterpretación de la función desempeñada por los experimentos científicos en el efectivo progreso del conocimiento. De hecho la formulación inicial de un experimento mental exige adoptar una actitud heurística previa abierta a la posterior comprobación empírica de cualquier concepto especulativo a través del correspondiente experimento ordinario, salvo que se quiera volver a reeditar el viejo dogmatismo de la antigua metafísica. A este respecto el recurso al experimento mental lograría justificar la compatibilidad entre el carácter a priori de toda necesidad natural, ya fuera física o metafísica, con su posterior comprobación en un ámbito empírico concreto a través del correspondiente experimento ordinario, como de un modo paradigmático habría ocurrido en la físico-matemática de Newton, o en la nueva deducción transcendental de unas categorías metafísicas renovadas. Sin embargo la filosofía de la naturaleza del romantismo posterior, al igual que antes Kant, habrían tratado de extrapolar este modelo de justificación a toda las demás formas de saber, incluyendo ahora también la propia filosofía trascendental, que de este modo adquiriría una apariencia de saber científico, dando así lugar a numerosos malentendidos y malinterpretaciones de su propio método.

A este respecto se atribuye al neokantiano Orsted la primera formulación explícita del método del experimento mental, como procedimiento para eludir los numerosos malentendidos que la tradición kantiana y romántica había provocado. En efecto, Orsted extrapoló para los experimentos mentales el tipo de interacción recíproca que ya antes Kant había establecido entre los conceptos y representaciones, evitando a su vez la aparición de los anteriores malentendidos. Se reconoció así la interacción recíproca que ahora se establece entre los experimentos mentales y los ordinarios, admitiendo a su vez la posible falta de correspondencia como resultado de los procesos a través de los cuales se llevan a cabo este tipo de comprobaciones. Hasta el punto que los experimentos mentales se pueden acabar quedando vacíos de su potencial poder explicativo experimental, en el caso de que tampoco sean capaces de comprobar a través de unos experimentos cruciales adecuados la interpretación dada a sus respectivos experimentos ordinarios. De igual modo que los experimentos ordinarios se pueden volver ciegos y absolutamente ininteligibles, si tampoco se remiten a un experimento crucial capaz de separar las relaciones meramente contingentes respecto de las relaciones de estricta legalidad postulada por un experimento mental. En cualquier caso se admitió la posible falta de correspondencia entre estos dos tipos de experimentos mentales y ordinarios; y a su vez se tomó por experimento crucial aquella situación límite que permite poner a prueba la validez empírica de un experimento mental, para después extrapolarla a los correspondientes experimentos ordinarios, separando así lo que hay en ellos de necesidad legal ‘a priori’ y de simple contingencia o casualidad ‘a posteriori’. Es decir, la peculiar interacción existente entre los experimentos mentales y ordinarios permitió justificar también una posible desvinculación entre el mundo físico real de la experimentación científica respecto del mundo de posibilidades virtuales ahora generado por estos distintos niveles de conceptualización teórica y de experimentación empírica generada por este peculiar tipo de experimentos cruciales. En cualquier caso se comprobó que los experimentos mentales seguían siendo el único modo posible de comprender la peculiar legalidad ‘a priori’ existente en el mundo físico real, de igual modo que los experimentos ordinarios eran el único modo posible de explicar el carácter ‘a posteriori’ de aquella misma legalidad, si efectivamente aquellas situaciones límite postuladas por este tipo de suposiciones meramente virtuales eran confirmadas por los correspondientes experimentos cruciales.

A partir de Orsted la metodología científica terminaría admitiendo tres niveles de experimentación científica: a) los experimentos ordinarios  sólo justificados de un modo empírico, sin una justificación ‘a priori’, atribuyéndoseles una necesidad simplemente fáctica, como en el caso de Orsted sucedió con su descubrimiento del efecto electromagnético, al que no supo encontrar una justificación teórica verdaderamente proporcionada; b) los experimentos mentales de tipo ideal o contrafáctico, atribuyéndoseles una mera posibilidad lógica carente aún de la correspondiente comprobación empírico-experimental, como en su opinión habría sucedido con numerosas referencias kantianas a una fuerza central, a pesar de sus declaraciones en contrario; c) los experimentos cruciales que logran una efectiva confirmación de un determinado experimento mental, atribuyéndosele una necesidad estricta de tipo experimental y a la vez ‘a priori’, como en su caso ocurrió con la superioridad manifiesta demostrada por su teoría del campo de fuerzas interaccionadas respecto de la anterior teoría kantiana de una simple superposición de fuerzas centrales independientes. Evidentemente la separación de estos tres tipos de experimentos puso a prueba los criterios utilizados para demarcar la física respecto de determinadas presuposiciones de la filosofía trascendental kantiana y romántica. Sin embargo Orsted los utilizaría para reivindicar el enfoque estrictamente científico dado a la resolución de un determinado problema, más que para pretender dar a la filosofía trascendental una apariencia de saber científico.

De todos modos las propuestas de Orsted se malinterpretaron, tomándole como un filósofo de la ciencia excesivamente dependiente de Kant, en la línea exaltada de numerosos románticos, sin concederle mucho crédito. Sin embargo Kühne admite la persistencia en los debates contemporáneos del triple uso que entonces se hizo de la noción de experimento, tomando a Orsted como un precedente inmediato de las propuestas empirio-criticistas de Mach o del posterior positivismo lógico de Russell, entre otros. O del modelo explicativo-comprensivo de justificación científica después también usado en los casos de Hempel, Koyré, T. S. Kuhn, Popper, en el debate Brown-Norton, ya se siguieran las interpretaciones modales de Sorensen, Haggqvist y Bartelborth, o las estrictamente filosóficas de Nozick, Putnam y Searle.

En todos estos casos se recurrió a esta triple noción de experimento para justificar la referencia a determinados ámbitos de necesidad estricta, sin rechazar por ello la posible aparición de vaguedades conceptuales y generalizaciones abusivas en los consiguientes procesos de explicación y comprensión. Para evitarlas se hizo necesario jerarquizar los diversos grados y tipos de experimentación científica, pudiendo dar lugar a posibles desajustes entre los principios y su ulterior aplicación a lo empírico. En este contexto se atribuirá a Galileo, Newton  y Einstein la comprobación empírica o meramente fáctica de unos experimentos mentales de naturaleza ideal o contrafáctica, logrando así una posible doble justificación explicativo-comprensiva de su respectiva interacción recíproca, sin rechazar por ello la persistente presencia en la experiencia ordinaria de vaguedades y generalidades abusivas. Sin embargo Orsted habitualmente queda relegado a un plano muy secundario, a pesar de haber sido el primero en reconstruir el ‘modus operandi’ de este método.

Orsted también habría extrapolado a las relaciones entre filosofía de la naturaleza e investigación práctica el mismo tipo de interacción recíproca que el experimento crucial introduce entre el experimento mental y ordinario. Pudo así atribuir al experimento mental una peculiar génesis heurística matemática a fin de poder comprobarlo a través de un experimento mental, que pudiera después ser generalizado para el resto de los experimentos ordinarios. Igualmente atribuyó a los resultados de cualquier experimento ordinario un carácter hipotético, provisional y meramente fáctico, mientras no se encuentre un experimento mental que logre una correcta interpretación mediante la comprobación del correspondiente experimento mental. De este modo Orsted pudo comprobar como la articulación de esta triple noción de experimento requiere el concurso de dos mundos virtuales posibles autónomos – como son el mundo de las representaciones mentales y de las experiencias empíricas aisladas -, a los que se atribuye un carácter incompleto e interrelacionado entre sí. Se plantearon así un gran número de cuestiones abiertas para la investigación científica, aunque momentáneamente no pudieran ser comprobadas en la experiencia, como por ejemplo: ¿Es el hidrógeno un metal? ¿Se puede pensar un sistema del mundo desjerarquizado y caótico? ¿Cómo pensarían los habitantes de Júpiter? ¿Se pueden criticar las interpretaciones dadas a los experimentos mentales?

En cualquier caso la interpretación neokantiana de Orsted acerca de los experimentos mentales se contrapone a la interpretación empirio-criticista de Mach, llegando a conclusiones muy distintas. Al menos así se comprueba analizando los numerosos debates provocados por las interpretaciones de la mecánica de Galileo, de Newton o de la teoría especial y generalizada de la relatividad de Einstein, al menos según numerosos historiadores y filósofos de la ciencia, como Duhen, Meinong, Russell, Wittegenstein y Lichtenberg. Para el empirio-criticismo la aplicación de una nueva legalidad experimental a la caída de los graves, a las fuerzas gravitatorias o a las mediciones relativistas conlleva la aceptación de un modelo depurador expansivo, que lograría una progresiva eliminación de los restos de vaguedad conceptual y de generalización abusiva que aún persiste en la experiencia ordinaria. En cambio, el modelo explicativo-comprensivo de los neokantianos permitiría justificar la efectiva vinculación existente entre los experimentos cruciales y ordinarios, admitiendo a su vez un cierto grado de desvinculación entre los respectivos mundos virtuales autónomos, que a su vez permitiría garantizar el futuro logro de una compresión y explicación aún más compartida.

A este respecto ahora se reconstruye la evolución intelectual de Einstein como un paso progresivo desde el empirio-criticismo de Mach a un modelo explicativo-comprensivo neokantiano, que a su vez le habría permitido llevar a cabo una revisión de algunos presupuestos de su propia teoría especial de la relatividad. En efecto, inicialmente el joven Einstein habría postulado una plena correspondencia entre la formulación inicial de este tipo de experimentos mentales y los correspondientes experimentos cruciales y ordinarios, a pesar de los resultados tan pobres que logró a este respecto. Sin embargo posteriormente el mismo re-interpretó su anterior teoría especial como la formulación de un experimento mental en condiciones ideales o contrafácticas, sin posibilidad de ser confirmado o refutado a través del experimento crucial correspondiente, salvo que se elaborase una teoría generalizada aún más amplia, que pudiera ser verificada a través de unos determinados experimentos cruciales, para después poder ser extrapolada a un gran número de experimentos ordinarios, paso que anteriormente se habría demostrado en sí mismo imposible. De este modo progresivamente Einstein se habría ido abriendo al reconocimiento de la autonomía respectiva del ámbito empírico respecto de los principios de la ciencia, especialmente una vez que reconoció las pocas situaciones límite efectivamente comprobadas en que se basaba su inicial articulación entre los experimentos mentales, ordinarios y cruciales.

En cualquier caso resulta igualmente paradigmática la evolución paralela experimentada por Einstein respecto de la teoría de los cuantos de Plank. En un primer momento la rechazó de plano, por ser absolutamente incompatible con algunos de los principios empirio-criticististas en que presumiblemente se fundamentó la teoría especial de la relatividad. Sin embargo posteriormente Eintein acabaría reconociendo las limitaciones de la teoría especial y generalizada de la relatividad respecto de la localización de un tipo de experimentos cruciales, que demostraran su capacidad explicativa respecto del microcosmos. Por eso terminó atribuyendo a la teoría cuántica una mayor potencia explicativa respecto a este tipo de fenómenos microcósmicos, aunque otorgándole un valor meramente fáctico, debido a su total ausencia de experimentos mentales que la permitieran dotar de una adecuada fundamentación teórica. Por eso a la vez que hizo esta concesión a la teoría cuántica, Einstein también postuló la futura formulación de una teoría del campo unificado, que debería integrar la teoría relativista y cuántica en una interpretación del macrocosmos que a su vez englobara el microcosmos, a pesar de que nunca logró una formulación verdaderamente satisfactoria. En cualquier caso este cambio de actitud se debió la justificación de una jerarquía interna entre estos tres niveles de experimentación, con sus correspondientes mundos posibles de racionalización meramente virtual, a saber: el nivel fáctico o empírico, el contrafáctico o ideal, y el propiamente experimental o explicativo-comprensivo, sin poder otorgar a ninguno de ellos un conocimiento en exclusiva del mundo físico real.

Se comprueba así el papel tan singular desempeñado por el método del experimento mental a lo largo de toda la historia del pensamiento, desde la polémica entre Galileo y Aristóteles, hasta los más recientes teóricos de la ciencia contemporánea, incluyendo ahora también a Toulmin, Jonsen y Heisenberg. En efecto, ahora se comprueba como este método le permitió a Galileo postular una nueva articulación entre lo empírico, los principios y lo experimental, llevando a cabo una revisión en profundidad de la filosofía natural aristotélica. Por su parte Toulmin y Jonsen comprobaron como este método también permitió la progresiva aplicación de los tres mencionados niveles de conocimiento a la argumentación moral, sin que su aplicación se reduzca solamente al ámbito de la física. Finalmente Heisember extrapoló aún más el actual uso heurístico de este método, cuando atribuyó al conocimiento práctico propio de los expertos este posible cierre conclusivo de una teoría. En cualquier caso la metodología contemporánea ha terminado comprobando, según Kühne, como el método del experimento mental se ha terminado convirtiendo en el gran monstruo o espectro con mil caras que permite explicar numerosas transformaciones de la filosofía y de la ciencia a lo largo de su historia, a pesar de seguir sorprendiéndonos su modo un tanto paradójico de operar.

Para justificar estas conclusiones  se dan cinco pasos: 1) Se analiza el progresivo alcance otorgado al método del experimento mental, desde Aristóteles y Galileo, o en la metodología contemporánea de Toulmin, Jonsen y Heisenberg, hasta convertirse en una categoría básica de la fundamentación de la ciencia y de la propia filosofía teórica y práctica; 2) Se analiza el período 1786-1851, especialmente la primera formulación explícita del método del experimento mental por el neokantiano Orsted, revisando algunas propuestas kantianas, considerándole el descubridor y mejor interprete de este método, a pesar del descrédito generalizado de la mayor parte de sus propuestas; 3) Se analizan los debates entre 1883 y 1916 provocados por la interpretación empirio-criticista de Mach, con la críticas formuladas por Duhen, Meinong, Russell, Wittgenstein y Lichtenberg, por haber dado más importancia a la psicología del descubrimiento que a la lógica de la justificación; 4) Se reconstruye el período 1905-1936, reconstruyendo la aplicación de Einstein del método del experimento mental a su teoría especial y generalizada de la relatividad, y contraponiéndola a su vez a las propuestas de Heisenberg y Bohr respecto de la teoría cuántica de Palnk; 5) Se analiza la transformación contemporánea desde 1934 hasta hoy del método del experimento mental en un monstruo o espectro poliédrico de mil caras, a través de las propuestas contrapuestas de Hempel, Popper, Koyrè, Kuhn, Lakatos, el debate Broun-Norton, así como las interpretaciones modales de Sorensen, Haggqvist y Bartelborth, o filosóficas de Nozick, Putnam y Searle.

Para concluir una doble reflexión crítica. Kühne resalta el papel heurístico desempeñado por el método del experimento mental en la fundamentación de la ciencia y de la filosofía siguiendo un modelo explicativo-comprensivo, pero hay una cuestión que nunca se llega a plantear. ¿Hasta que punto las numerosas paradojas y malentendidos generados por este método exigigió ejercer un mayor control compartido sobre los crecientes márgenes de vaguedad y de generalización abusiva generados por este fantasma o espectro de mil caras, como ha propuesto Sorensen desde un supervaloracionismo aún más  estricto, o Willianson desde un supervaloracionismo epistemológico, o Keefe, Schick o Shapiro, desde un supervaloracionismo meramente pragmático?; O, dando un paso más, y admitiendo la necesidad de un complemento lógico de este tipo, ¿hasta que punto la teoría generalizada de la relatividad o la nunca concluida teoría del campo unificado de Einstein, hubiera permitido un control de este tipo sobre los márgenes de vaguedad y de generalización abusiva que la teoría especial y generalizada siguieron dejando indeterminados?

Deja un comentario

Archivado bajo Epistemología, Lógica, Metodología de la filosofía

Hunziker, H. (Hrsg.); Der jugendlichen Einstein und Aarau. Einsteins letztes Schuljahr Relativität, Brownsche Bewegung, Lichtquanten und Astrophysik, Begleitband zur Jubiläumsverranstaltung 2005 Atte Kantonsschule Aarau, Birkhäuser, Basel, 2005, 205 pp.

por Carlos Ortiz de Landázuri

Herbert Hunziker ha recopilado en El joven Einstein y Aarau de 2005, diversas contribuciones acerca del necesitarismo con que el joven Einstein concibió el experimento mental de 1895. En su opinión, sus propuestas exigían un ‘cambio mental’ que explica el retraso de 10 años con que se le concedió el premio Novel en 1919, pero también fue el detonante de los cinco artículos del ‘año maravilloso’ de 1905 acerca del movimiento browniano, el electromagnetismo, el efecto fotoeléctrico y los cuantos de luz. Para justificar  estas conclusiones se dan ocho pasos:

1) H. Staehelin analiza las circunstancias que rodearon la llegada del joven Einstein a Aarau, procedente del Instituto Luitpold  de Müchen, después de haber intentado  ingresar en el politécnico de Zürich, con sólo quince años, dos menos que la mayoría de sus compañeros, siendo acogido en la casa de Profesor Wintelers, y acabando con unas magníficas calificaciones y recuerdos del estilo  educativo ‘liberal’ que allí se practicaba;

2 y 3) H. Hunziker y W. Pfeifer analizan los programas y los habituales exámenes de madurez de matemáticas (aritmética y geometría) y física (electromagnetismo), donde obtuvo las máximas calificaciones;

4) H. Hunziker comprueba como la formulación de teoría especial de la relatividad supuso un ejercicio de superación de la noción de espacio y tiempo absoluto en Newton y Kant, y la reformulación de algunas nociones básicas de la mecánica clásica absoluta, como al menos sucedió con las nociones de simultaneidad y de medida, de contracción del espacio y de dilatación del tiempo, o de masa y energía, anticipando de algún modo el análisis espectral de la radiactividad y el descubrimiento de la propia bomba atómica.

5) D. Giulini atribuye al experimento mental formulado en Aarau por el joven Einstein, o aún antes el propio Galileo, la justificación de las nociones de masa y de fuerza inercial en virtud de unos sistemas en movimiento relativo respecto a sí mismos y respecto de la constante de la velocidad de la luz, sin recurrir ya a la fundamentación del electromagnetismo a partir de la teoría del éter. Con este simple cambio logró unificar la doble interpretación de la luz y del electromagnetismo, así como salvar las paradojas que se habían hecho patentes en el experimento Michelson Morley y en las propias teorías de Lorenz y Poincaré;

6) W. Pfeifer comprueba como la interpretación eisteniana del movimiento browniano de las partículas de un gas dentro de un receptáculo extrapoló aún más este mismo experimento mental, ya que también en este caso la disipación de un gas genera un campo de fuerzas semejante al campo electromagnético que genera la difusión de la luz;

7) D. Giulini contrapone uso necesitarista y posibilista que el joven Einstein y Max Plank hicieron del método del experimento mental. Sólo así fue posible admitir el valor constante de la velocidad de la luz, el número de Avogadro, los cuantos de luz, o incluso su siempre pospuesta teoría del campo unificado, para de este modo fundamentar a su vez el electromagnetismo, al movimiento browniano o a los cuantos de fuerza, sin fomentar un indeterminismo cada vez más generalizado;

8) N. Straumann analiza las implicaciones astrofísicas del experimento mental de 1995, atribuyendo un carácter arquimédico central a una forma de energía presuntamente débil, como acabarían demostrando las reconstrucción de los agujeros negros propuestas por Chandrasekhar, así como las radiografías espectrales de Fritz Zwicky.

Para concluir una reflexión crítica: H. Hunziker sugiere que el uso necesitarista que hizo el joven Einstein del experimento mental podría justificar los usos tan diversos que el mismo acabaría haciendo de la teoría de la relatividad, tanto en el caso de la astrofísica, como en el movimiento browniano o en la propia difusión de la luz. Y en este sentido cabe preguntar: ¿Se puede extrapolar el sentido necesitarista ahora asignado a los experimentos cruciales de la época de Aarau, cuando posteriormente la teoría de la relatividad se abriría a otros muchos usos posibles más diversificados y pluralistas? Ahora no se aborda esta cuestión, pero otros lo han hecho. Veámoslo.

Deja un comentario

Archivado bajo Epistemología

Damour, Thibault; Darrigol, Olivier; Duplantier, Bertrand; Rivasseau, Vincent (eds.); Einstein, 1905-2005. Poincaré Seminar 2005, Birkhäuser, Basel, 2005, 293 pp.

por Carlos Ortiz de Landázuri

El Seminario Poincaré de 2005 analizó el sentido posibilista con que Einstein concibió los experimentos mentales desde los cinco artículos de 1905 donde por primera vez se formuló la teoría de la relatividad hasta sus últimas formulaciones de 1955. Se rechaza la idea de un momento mágico en un ‘año maravilloso’ donde hubiera irrumpido una teoría sorprendente capaz de revolucionar la ciencia de su época. En su lugar se enmarca la propuesta del joven Einstein en un contexto cultural muy concreto, al que posteriormente la teoría generalizada siguió recurriendo para tratar de explicar otros tipos de situaciones límite y de casos ambiguos anteriormente no tenidos en cuenta, dando un sesgo totalmente diferente a sus iniciales interpretaciones necesitaristas de este mismo método. Para justificar esta conclusión se dan siete pasos:

1) O. Darrigol reconstruye el éxito de aceptación de la teoría especial de la relatividad, se debe al carácter invariable atribuido a la velocidad de la luz y a la total eliminación de la hipótesis del éter, aún mantenida por Lorentz y Poincaré, y aún antes por Maxwell, Flashback, pero en ningún caso la formulación de la teoría se debe a una única persona, ni al hallazgo de un único experimento mental;

2) C. M. Will contrapone las dificultades de aceptación que tuvo la teoría especial de la relatividad respecto de la buena acogida que desde un primer momento tuvo la versión generalizada, debido a que el uso necesitarista del experimento mental sólo aportó la comprobación del efecto fotoeléctrico, junto a la malcomprendida ‘paradoja de los gemelos’. En cambio el posterior uso posibilista aportaría la verificación de la curvatura de la luz, o de las variaciones en el perihelio de Mercurio, haciendo posible incluso una revisión de presupuestos no criticados, como los invariantes locales de Lorentz;

3)  J. Bross y U. Moschella contrapone el espacio-tiempo relativista de la teoría especial de 1905, donde todavía se sigue manteniendo la compatibilidad del espacio euclídeo con los espacios de Minkowski, respecto de la teoría generalizada donde el uso posibilista de este tipo de experimento mental remite a un horizonte de espacios de diversa curvatura y múltiples dimensiones, sin admitir ya el postulado de un mundo absoluto;

4) U. Moschella comprueba la vigencia actual de la teoría especial para la construcción de diversos modelos de espacio-tiempo relativistas más amplios que los de Minkowski y que admiten una quinta dimensión, los llamados espacios de Sitter y anti-de Setter, a pesar de ser incompatibles con la teoría cuántica;

5) P. Grangier analiza la justificación tan polémica del efecto fotoeléctrico a partir de los cuantos de luz dada por Einstein en 1905 y 1909, en contraposición a las propuestas de Max Plank, y dando lugar a la paradoja de los gemelos, o de la posible doble consideración de los cuantos de luz como honda y como partículas, con resultados experimentales similares, como posteriormente fue confirmado en 1916, haciendo posible la entrega del Premio Nobel en 1921;

6) T. Damour analiza el papel de Hume, Kant, Mach y Poincaré en la apertura entre 1905 y 1955 a un uso posibilista cada vez más abierto del experimento mental, resaltando la apertura a un uso a un mayor número de situaciones límite y mediciones aún mas vagas y ambiguas, como de hecho ocurrió en la teoría cuántica, en contraste con el inicial uso necesitarista que el mismo hizo de estos experimentos;

7) B. Duplantier extrapola el experimento mental de la luz para la justificación de la relación que Einstein también establece entre el movimiento browniano y el principio de irreversibilidad y de re-equilibrio de los estados de la termodinámica y de su respectiva energía potencial en Boltzmann;

8) B. Duplantier también analiza la historia del movimiento browniano hasta Einstein, mostrando como el uso necesitarista del experimento mental es compatible con otros posibles usos multidimensionales y  multifractales.

Para concluir una reflexión crítica. El Seminario Poincaré de 2005 trató de justificar el uso posibilista cada vez más diversificado que Einstein acabó haciendo del experimento mental, pero también plantea el interrogante: Para justificar este paso, ¿no se presupone la validez del uso necesitarista que anteriormente el mismo había hecho de este método, sin someterlo a una previa revisión crítica?

Deja un comentario

Archivado bajo Epistemología

PETERS, S.; WESTERSTÄHL, D., Quantifiers in Language and Logic, Clarendon, Oxford University, Oxford, 2006, 528 pp.

Carlos Ortiz de Landázuri

Cuantificadores en el lenguaje y la lógica, aplica el proyecto ´Nueva fundamentación a partir de elementos primitivos (Urelements)’ de Barwise y Moss al modo de justificar la contabilidad efectiva usada por el lenguaje natural, convencional o matemático para reconocer sus respectivos ámbitos de definición e indefinición a través una aplicación empírica concreta. En efecto, según Peters y Westerstähl, la efectiva articulación de los múltiples cuantificadores de segundo orden (como los operadores ‘más’ o ‘menos’ de tantos, la ‘mitad’ de tantos, la ‘mayor parte’, ‘siempre’, ‘a menudo’, ‘raramente’, así como otras formas de cuantificación encubierta, requieren la previa justificación funcional de un orden compositivo natural a partir de dos cuantificadores primitivos de la lógica de predicados de primer orden, especialmente el cuantificador existencial (‘algún o al menos uno’) y el universal (‘todos’ o ‘cualquier’), al modo como en su día ya fue señalado por Aristóteles y Frege, aunque con una salvedad: en vez de recurrir a las leyes de subalternación entre proposiciones del silogismo aristotélico o a las tablas analíticas de verdad de la lógica de proposiciones para la resolución de este tipo de problemas, ahora la teoría de modelos de la lógica contemporánea ha localizado un procedimiento de decisión aún más básico, a saber: las técnicas semánticas y sintácticas con que Ehrenfeucht-Fraïsse prolongó algunas sugerencias de Ramsey y Hempel, a fin de garantizar la definibilidad o indefinibilidad de los distintos operadores cuantificacionales en un determinado ámbito de aplicación, en la medida que les atribuyen unas relaciones cuantitativas de bisimilitud y de inter-cambiabilidad o equivalencia respecto a una base de aplicación empírica, sin necesidad de recurrir a las tablas analíticas de verdad de la lógica proposicional, como hasta entonces había sido habitual. Además, ahora este tipo de propuestas se enmarcan dentro del proyecto ´Nueva fundamentación a partir de elementos primitivos (Urelements)’ de Barwise y Moss, que precisamente define a cada uno de estos elementos primitivos del sistema en virtud de la operatividad práctica que en cada caso se demuestra. De este modo los operadores cuantificacionales se conciben al modo de unos elementos primitivos (Urelements), ya que aportan un lenguaje natural cuantificado inherente a  los lenguajes lógico-matemáticos y a los lenguajes meramente convencionales, según se resalten en cada caso los rasgos más globales de tipo sistemático o los rasgos casuísticos de tipo local.

Precisamente la novedad de esta nueva formalización de los operadores cuantificacionales consiste en ampliar el uso meramente lógico que de ellos hizo Aristóteles, o el uso estrictamente funcionalista de Frege, para atribuirles una función contable muy precisa respecto de los presupuestos metateóricos, metalingüísticos y metamatemáticos que a su vez consagran la definibilidad o indefinibilidad de estos mismos operadores cuentificacionales. A este respecto Peters y Westerstähl rechazan el tratamiento excesivamente rígido dado por el superevaluacionismo epistémico a la vaguedad de los conceptos, al modo como ya Keefe había señalado en Williamson (47-48), a pesar de que tampoco trata de resolver la polémica sobre si se debe atribuir a estos operadores un carácter sincategoremático o categoremático, analítico o sintético, sintáctico o semántico, lógico o también lingüístico. En cualquier caso la  teoría de modelos ya no prejuzga la validez de un supervaluacionismo epistemológico excesivamente rígido que exige la referencia obligada a un concepto de superverdad y una ulterior aplicación excesivamente estricta de un principio de bivalencia. En su lugar más bien se fomenta un uso pragmático de estos operadores cuantificacionales a fin de poder armonizar el lenguaje natural, convencional y lógico-matemático respecto de su correspondiente base empírica, admitiendo otros usos aún más diversificados y polivalentes de estos mismos principios, sin necesidad de modificar los postulados teóricos del anterior supervalucionismo epistemológico.

A este respecto la monografía sigue una estrategia muy precisa para mostrar las propiedades metateóricas, metalingüísticas y metalógicas que se deben atribuir a este tipo de operadores cuantificacionales desde un punto de vista natural, convencional y lógico-matemático, sin por ello cuestionar otros aspectos de estos operadores que aún siguen siendo profundamente polémicos.  Se justifica así el peculiar isomorfismo y la amplitud creciente o decreciente del modo monotónico o no-monotónico habitualmente seguido para restringir la extensión de cada uno de estos operadores cuantificacionales, a fin de garantizar las relaciones de bisimilitud que pretenden mantener con su respectiva base empírica. Se justifica así la aparición de diversas relaciones de determinación e indeterminación, de concreción o vaguedad, de universalidad estricta o simplemente contextual, a fin de separar las peculiaridades de estos tres órdenes distintos pero complementarios de los modelos de cuantificación propios del lenguaje natural, a saber: a) la cuantificación semántica de primer orden; b) la cuantificación sintántica, analíticamente componible y bidireccional o de segundo orden, en la que preferentemente se fijó Aristóteles; y c) la cuantificación ramificada o funcional que la lógica contemporánea ha desarrollado a partir de Frege, tratando de resaltar las diferencias existentes entre estos tres usos posibles de los cuantificadores operacionales e interrelacionándolos recíprocamente entre sí. Se resalta así la capacidad de justificar el isomorfismo y la bisimilitud creciente que estos operadores cuantificacionales mantienen respecto de su correspondiente campo de aplicación. Pero a la vez también se justifica la posibilidad de intercambiarlos mediante relaciones contables de amplitud y extensión cada vez mayor, interrelacionando supuestos de valor recíprocamente equivalente. El usuario del lenguaje natural lograría así una mayor capacidad de decisión a la hora de precisar la definibilidad o indefinibilidad de estos mismos operadores, en la medida que también serían capaces de justificar las relaciones de equivalencia y de bisimilitud que a su vez mantienen entre sí y con la correspondiente base empírica. Sin embargo ahora también se reconoce un gran número de cuestiones polémicas que siguen rodeando a la naturaleza intrínseca de este tipo de operadores cuantificacionales. Especialmente si se debe atribuir a este tipo de operadores de un carácter estrictamente sintáctico, lógico y estrictamente sincategoremático, o más bien un valor semántico y con un significado claramente categoremático, defendiendo finalmente la intrínseca componibilidad de ambos puntos de vista.

Para alcanzar estas conclusiones la monografía se divide en cuatro partes y quince capítulos: a) Las concepción lógica de los cuantificadores y de la cuantificación analiza dos aspectos de la posición heredada sobre el tema: 1) Breve historia de la cuantificación analiza la evolución del problema desde Aristóteles, Peirce, Russell y Frege, así como por la posterior teoría de modelos; 2) La emergencia de un tratamiento generalizado de los cuantificadores en la lógica moderna analiza el análisis semántico, sintáctico o ramificado, analíticamente componible y funcional de este tipo de operadores cuantificacionales;

b) Cuantificadores del lenguaje natural analiza específicamente la emergencia de otros rasgos aún más básicos de este tipo de lenguaje, a saber; 3) Los cuantificadores tipo 1 (semántico) del lenguaje natural y lógico describe el isomorfismo de los operadores cuantificacionales respecto de su correspondiente base de aplicación empírica, así como su ulterior extrapolación a una extensión de supuestos analíticamente equivalentes; 4) Los cuantificadores tipo 1, 1 (sintáctico) del lenguaje natural contrapone estos operadores respecto a su anterior uso semántico, comprobando la aplicación de un álgebra de Boole, así como la posibilidad de relativizarlos respecto de un ámbito de aplicación más restringida, si así lo exige su correcta definición respecto de un isomorfismo empírico ya dado; 5) Cuantificadores monotónicos justifica los procesos de cuantificación creciente o decreciente que a su vez genera la dependencia cada vez más ramificada entre el uso semántico y sintáctico de estos operadores, a fin de lograr una efectiva comprobación experimental de una hipótesis en su respectivo ámbito de aplicación; 6) Simetría y otras propiedades relacionales de los cuantificadores de tipo 1.1 (sintácticos) analiza las relaciones de simetría y asimetría que ahora se establecen entre los cuantificadores muchos y pocos, o entre los diversos usos aceptables o inaceptables del uso restrictivo del existencial “este”, a fin de conservar la extensión otorgada a un determinado operador cuantificacional a partir de la componibilidad analítica que mantienen con el resto de los operadores; 7) Los cuantificadores posesivos analiza este procedimiento habitualmente seguido para determinar la aplicación de un operador cuantitativo mediante el recurso a la relación de poseedor, otorgándole una mayor capacidad de intercambiabilidad o equivalencia, aunque sea a costa de disminuir su isomorfismo y monotonicidad respecto a la correspondiente base empírica; 8) Cuantificadores exceptivos contrapone este segundo procedimiento habitualmente seguido para restringir la aplicación de un operador cuantificador  respecto de la fijación de las condiciones meramente negativas, que más que excluir casos particulares pretenden caracterizar el uso dado a un operador de este tipo. Se distinguen una versión débil y otra fuerte, según el grado de ganancia que obtengan de isomorfismo, a costa de perder en intercambiabilidad; 9) ¿Qué cuantificadores son lógicos?, contrapone el isomorfismo de los cuantificadores semánticos respecto de la intercambiabilidad exigida a los operadores sintácticos, así como a los conectivos y constantes lógicas; 10) Algunos cuantificadores poliádicos del lenguaje natural analiza diversos procesos de reasunción, ramificación y reciprocidad entre operadores híbridos que a su vez dan lugar a procesos de cuantificación aún más complejos;

c) Comienzo de una teoría de la expresividad, la traslación y la formalización aplica la teoría de modelos a la revisión de algunos presupuestos del supervaloracionismo epistemológico a la hora de enjuiciar las situaciones de incertidumbre y vaguedad, con dos objetivos: 11) El concepto de expresividad comprueba las condiciones exigidas a los procesos de traslación de formulas bien formadas, con especial referencia a las nociones de finito e infinito, a fin de poder justificar los presupuestos que hacen posible su equivalencia e identidad; 12) La formalización: expresividad, definibilidad, componibilidad justifica los límites pragmáticos de la equivalencia lógica o analítica respecto de la equivalencia semántica, prolongando algunas sugerencias del supervaloracionismo epistemológico de Williamson o Serensen, con el que sin embargo discrepa (p. 420). Se justifican así los distintos mecanismos de traslación analítica componible mediante el procedimiento pragmático de los mapas conceptuales, contraponiéndolos a otras formas de definición y de reglas de formación semántica;

d) Resultados lógicos sobre la expresabilidad con aplicaciones lingüísticas, justifica diversos criterios pragmáticos para resolver los tres problemas más acuciantes planteados por el supervaloracionismo epistemológico a la hora de abordar las situaciones  de incertidumbre, las asimetrías y la vaguedad de las respectivas ámbitos de aplicación de estos operadores cuentificacionales: 13) La definibilidad y la indefinibilidad en un lenguaje lógico: instrumentos para los casos monádicos, justifica el criterio pragmático básico para declarar que un operador cuantitativo es definible o no, mediante las ya mencionadas técnicas semánticas y sintácticas de Ehrenfeucht-Fraïsse. Un operador cuantificacional garantiza su definibilidad si se posee un procedimiento capaz de comprobar en un caso empírico concreto el estricto isomorfismo que debe mantener con su respectiva base de aplicación, así como la conservación de las subsiguientes relaciones de equivalencia en los sucesivos niveles de lenguaje objeto o de metalenguaje en que pueda expresarse, declarándole indefinible en caso contrario; 14) Aplicaciones de la definibilidad monádica fomenta un uso pragmático de los criterios estrictos de bivalencia y analiticidad del supervaloracionismo epistémico para compatibilizar las anteriores pruebas de indefinibilidad con la existencia de diversos grados de expresividad y de monotonicidad y probar así su respectiva definibilidad; 15) Prueba EF (de la indefinibidad) de los cuantificadores poliádicos, recurre a las técnicas de Ehrenfeucht-Fraïsse (EF) para mostrar cuando los operadores cuantificacionales son definibles y cuando no, así como para mostrar sus respectivos grados de expresividad y de monotonicidad.

Para concluir una reflexión crítica. Peters y Westerstähl tratan de justificar la doble indefinición de los operadores cuantificadores de primer y segundo orden, mostrando a su vez como son recíprocamente componibles entre sí en el marco de una teoría de modelos aún más abierta. Sin embargo ahora se reconoce la incapacidad de fijar un procedimiento de cuantificación verdaderamente bisimil respecto de la correspondiente base empírica, que a su vez sea capaz de garantizar una efectiva intercambiabilidad y equivalencia de este tipo de operadores cuantificacionales en las totalidad de los mundos posibles.  Más bien se reconoce que sólo se puede garantizar un tipo de cuasi-equivalencia y de semi-similitud, que en su caso quedaría restringida a un determinado ámbito de aplicación, sin poderla ya extrapolar a todos los mundos posibles, como en principio pretendería el lenguaje natural verdaderamente tal. Con este fin se fomenta más bien un uso pragmático de este tipo de cuantificadores, sustituyendo la equivalencia por unas simples relaciones de cuasi-equivalencia, y la bisimilitud por unas simples relaciones de semi-similitud, dejando a su vez como una simple cuestión abierta un gran número de cuestiones tradicionalmente consideradas decisivas. Por ejemplo, la caracterización o no de este  tipo de operadores como unos principios ‘a priori’, analíticos, o estrictamente sincategoremáticos. Evidentemente un uso pragmático de este tipo de operadores permite evitar un rechazo injustificado de aquellos casos límite (bordeline) que no respetan el principio de bivalencia, como con frecuencia ha sido objetado por el supervaloracionismo epistemológico más estricto, como es el caso de Williamson o Sorensen. Sin embargo una vez que se ha hecho esta opción, ¿no habría que reconocer las situaciones de doble indefinición intencional y extensional ahora generadas por esta relaciones de cuasi-equivalencia y de semi-similitud, tanto respecto de la lógica de predicados de primer como respecto de los de segundo orden,  según se otorgue una primacía a los criterios de bisimilitud utilizados por el lenguaje objeto, o a los criterios de equivalencia e intercambiabilidad del metalenguaje, sin que tampoco en estas circunstancias sea posible establecer entre ellos una articulación composible verdaderamente satisfactoria? En cualquier caso el procedimiento ahora utilizado para delimitar las clases o conceptos plantea el problema de la doble vaguedad de los conceptos así relacionados, aunque se trata de un problema que ahora tampoco se ha analizado.

Carlos Ortiz de Landázuri

blog_tags(‘post’, ‘Inciarte_Llano_Metafisica_final_metafisica.html’, ‘INCIARTE, F.-LLANO, A., Metafísica tras el final de la metafísica, Ediciones cristiandad, Madrid 2007; 381 pp.’)

Deja un comentario

Archivado bajo Epistemología, Lógica

MELLOR,.; D. H.; Probability: A Philosophical Introduction, Routledge, London, 2005, 152 pp.

Carlos Ortiz de Landázuri

Probabilidad: Una introducción filosófica, comprueba el giro pragmático operado en el modo postmoderno de abordar la probabilidad, volviéndose a replantear un gran número de paradojas históricamente dadas por resueltas. En efecto, según D. H. Mellor, hoy día se admite la posibilidad de cuantificar un gran número de situaciones hasta hace poco consideradas improbables obligando a retrotraer este tipo de análisis a un momento previo. En vez de establecer límites preestablecidos entre lo necesario y lo improbable, ahora se antepone la constatación de un gran número de situaciones casuales, ocasionales, aleatorias o simplemente azarosas (chance), sin que ello sea obstáculo para postular la posibilidad de un cálculo probabilista capaz de cuantificarlas. Se prolongan así algunas propuestas del ‘Nuevo dualismo’ de Hempel, siguiendo a su vez algunas sugerencias de Ramsey, Braithwait, Lewis y Jeffrey,  a los que se dedica la monografía. Se logra así una articulación de tipo pragmático entre el triple enfoque físico, epistémico y subjetivo acerca de la probabilidad, con un objetivo muy preciso:  dejar de considerar el cálculo frecuencial como una derivación evidente de una lógica deductiva en sí misma apriorista, cuando más bien se debería retrotraer este tipo de análisis a un momento previo, a saber: tomar como punto de partida una lógica inductiva que logre hacer explícitos los presupuestos implícitos en la correlación causal de tipo humeano que el cálculo frecuencial establece entre un conjunto de eventos absolutamente aleatorios y recíprocamente independientes, sin llevar a cabo una reflexión previa sobre la importancia de este momento previo. De hacerlo, el cálculo frecuencial abandonaría su carácter apriorista, para justificarse en virtud de una correlación cuantificable que ahora se establece entre eventos que basculan entre dos valores extremos: 1, cuando la correlación es válida en todos los casos; 0, cuando la correlación no es válida en ningún caso. Por su parte el cálculo frecuencial es el procedimiento matemático seguido para fijar los posibles valores intermedios en cada caso concreto, así como para justificar las distintas evidencias epistémicas y subjetivas necesarias para lograrlo. A este respecto Mellor distingue tres posibles niveles interpretativos del cálculo frecuencial:

a) La probabilidad física viene dada por la interpretación objetiva del cálculo frecuencial cuando se refiere a situaciones casuales o simplemente aleatorias que se producen en el mundo físico. Sin embargo esta probabilidad física ya no se interpreta como resultado de un tipo peculiar de posibilidad modal compatible con otros tipos de necesidad, como ocurría en la metafísica clásica. Ahora más bien se establece entre este tipo de eventos una correlación causal humeana de tipo fáctico e hipotéticamente limitada a una serie de acontecimiento en sí misma finita, aunque ilimitadamente creciente.

b) La probabilidad epistémica interpreta el cálculo frecuencial como una medición de los diversos grados de creencias desde 0 a 1, incluyendo también las evidencias en si mismas necesarias e imposibles. La novedad estriba en la indistinta remisión inicial de todas ellas a una base empírica igualmente aleatoria, donde además de estas dos caben también el resto de las posiciones intermedias. Se contrapone así lo imposible respecto de lo improbable y lo necesario,  distinguiéndolos exclusivamente por el tipo de decisión a tomar en cada caso a la hora de tratar de hacer explícita la evidencia implícita en su respectiva base empírica, según sea 0, 1 u otro valor intermedio, sin atribuirles ya un tipo de verdad cualitativamente distinto.

c) La probabilidad subjetiva o condicionada interpreta estas mismas frecuencias como el procedimiento de confirmación de la evidencia implícita en una relación causal humeana mediante una aplicación estricta del teorema de Bayes. Según este teorema la probabilidad condicionada de un suceso (A) respecto de otro (B), es directamente proporcional a la probabilidad ya comprobada o ‘a priori’ de la conjunción de ambos eventos A y B, e inversamente proporcional a la probabilidad aislada del segundo evento B. En todo momento se presupone la referencia a eventos recíprocamente independientes, aunque interrelacionados, manteniendo entre ellos una correlación meramente fáctica.

En principio el teorema de Bayes se formula para series de eventos finitas y limitadas, pero su validez está condicionada a su vez por el número de verificaciones realizadas. Por eso el teorema de Bayes permite la sucesiva incorporación de los resultados de las nuevas observaciones, logrando así que las probabilidades ‘a priori’ pasen a ser consideradas ‘a prosteriori’, en la medida que corrigen sus resultados, según confirmen o no las anteriores expectativas. Se justifica así el paso paulatino de una probabilidad subjetiva a otra epistémica y estrictamente física, sin concebirla ya como el resultado de un cálculo frecuencial de tipo deductivo, sino más bien como resultado de un proceso inductivo que logra hacer explícita la verdad implícita contenida desde un principio en aquellos hechos de la experiencia. Para Mellor la justificación de este paso requiere el estricto seguimiento de una regla de rectitud donde estas extrapolaciones desde series finitas a otras infinitas o frecuenciales se justifican en virtud de la ley de los grandes números, previa demostración de la independencia y la simultánea intercambiabilidad de los factores interrelacionados, siguiendo a su vez el triple procedimiento probabilista ahora indicado.

Para justificar estas conclusiones la monografía da diez pasos: 1) Tipos de probabilidad diferencia las tres interpretaciones posibles de la probabilidad; 2) La probabilidad clásica contrapone las interpretaciones metafísicas o modales de la probabilidad respecto de la anterior interpretación epistémica antes señalada; 3) Frecuencias introduce la interpretación humeana de la casualidad como una simple conjunción de sucesos en sí mismos independientes y absolutamente aleatorios; 4) Posibilidades y propensiones rechaza la interpretación de la probabilidad como una simple ‘equiposibilidad última’ de tipo modal para tomarla más bien como una propensión o tendencia implícita (‘ergodic hipothesis’) que logra explicitar sus presupuestos implícitos mediante la este triple uso del cálculo frecuencial; 5) Creencias interpreta el cálculo frecuencial, incluyendo ahora también las verdades necesarias, como una medida de los grados de riesgo, al modo como sucede en el cálculo de apuestas; 6) Confirmación interpreta el cálculo de frecuencias como una explicitación de una conclusión implícita en una evidencia inductiva previa; 7) Condicionalización reinterpreta el cálculo frecuencial como un proceso psicológico de formación de creencias siguiendo el método de Bayes; 8) Génesis de las creencias reconstruye el proceso de proceso de formación de creencias subjetivas del método de Bayes mediante una clara contraposición de las probabilidades ‘a priori’ (‘input’)  respecto de las ‘a posteriori’ (‘output’); 9) Cuestiones bayesianas analiza las ventajas derivadas de esta triple interpretación del cálculo frecuencial a fin de evitar el carácter pisologista y decisionista del cálculo de probabilidades subjetivas; 10) Casualidad, frecuencia y creencia analiza la ley de los grandes números y el tipo de independencia e intercambiabilidad atribuido a los eventos a los que se aplica este triple interpretación del cálculo frecuencial.

Para concluir una reflexión crítica. Mellor ha mostrado como el giro pragmático operado hoy día en el modo de abordar el cálculo de probabilidades, exige extrapolar a todos los eventos posibles su consideración como eventos absolutamente independientes y aleatoriamente intercambiables, sin poder ya hacer excepciones. Se vuelve así a una interpretación humeana de la probabilidad como una mera ‘conjunción constante’ entre acontecimientos en sí mismos independientes y a la vez intercambiables, como si desde un principio estos presupuestos ya estuvieran implícitos en la propia experiencia, sin advertir que esto era precisamente lo que afirmaba la interpretación metafísica modal de la probabilidad, que ahora se rechaza. Evidentemente se trata de una propuesta enormemente polémica en la filosofía empirista ya en los tiempos de Ramsey y Hempel, que fueron los primeros que recuperaron estas propuestas de Hume. Pero con independencia de este debate, hay otra cuestión quizás más inmediata. A pesar de pretender ampliar las aplicaciones del cálculo frecuencial, sin embargo ahora el cálculo de probabilidades  genera un proceso cada vez más generalizado de doble improbabilidad, tanto en un ámbito teórico como respecto de sus posteriores aplicaciones prácticas a la experiencia, dado que si no se pueden justificar los dos valores extremos 0 y 1, tampoco se podrán justificar los intermedios. Hasta el punto que ahora tampoco parece que se puedan evitar las numerosas situaciones de doble indefinición contable, intencional y extensional, como desde Descartes se ha reprochado al cálculo de predicados.

Carlos Ortiz de Landázuri

Deja un comentario

Archivado bajo Epistemología, Filosofía de la matemática, Lógica