Archivo de la categoría: Lógica

Vigo, Alejandro G.; Juicio, experiencia, verdad. De la lógica de la validez a la fenomenología, Eunsa, Pamplona, 2013, 317 pp

por Carlos Ortiz de Landázuri

Alejandro Vigo reconstruye en Juicio, experiencia y verdad, la génesis de la filosofía alemana de la lógica, desde los neokantianos y  Scheler hasta Husserl y Heidegger. En su opinión,  el neokantismo alemán de finales del siglo XIX y comienzos del XX, recuperó de un modo muy singular el valor heurístico incuestionable de una forma analítica del pensamiento lógico, que el propio Kant había totalmente postergado. En efecto, Kant asignó a la lógica un modo de razonamiento tautológico, basado en círculos viciosos dogmáticos e incapaz de lograr un efectivo progreso en el conocimiento científico, ni de desarrollar una filosofía crítico-transcendental propiamente tal, al modo como también sucedía con los juicios analíticos “a priori” carentes de sentido del saber metafísico. De todos modos el pensamiento neokantiano posterior revisó muchas de estas tesis un tanto precipitadas de Kant, haciendo depender el proceso de fundamentación de las ciencias en general y de la filosofía crítico-transcendental en especial, precisamente de estas formas de razonamiento lógico o analítico “a priori”, que anteriormente habían quedado injustamente postergadas. Según Vigo, la lógica de los neokantianos habría dejado de poner en un mundo aparte este análisis lógico de los actos del pensar, ni habrían prejuzgado el posible carácter regresivo de su propio método, como de hecho habría ocurrido en Kant. Además, lo habrían hecho sin introducir una escisión cada vez más radical entre el análisis lógico del pensamiento y su ulterior aplicación al ámbito de la experiencia empírica, como habría ocurrido en las posteriores propuestas del análisis lógico de Russell y Wittgenstein, cuando se elaboró una axiomática formal que daba totalmente de espaldas al propio proceso de justificación de la validez del propio pensamiento.

Según Alejandro Vigo, los neokantianos dieron un vuelco a los planteamientos crítico-transcendentales kantianos, sin establecer una incompatibilidad entre la filosofía transcendental y la lógica. En su lugar habrían concebido más bien al análisis lógico como una herramienta idónea para llevar a cabo una crítica aún más estricta de aquellos presupuestos lógicos o transcendentales que la kantiana, con tal de introducir un doble paso más, a saber: por un lado, seguir concibiendo tales presupuestos analíticos como aquellas estructuras transcendentales que a su vez hacen posible el propio conocimiento científico, como anteriormente también sucedió con la noción kantiana de “a priori”, aunque sin compartir el sentido claramente psicologista que Kant quiso dar a su pretendido “giro copernicano”, sino concibiéndolo más bien como un proceso de profundización heurística aún más audaz en la localización de las condiciones de posibilidad y de sentido que deben cumplir este tipo de análisis estrictamente lógicos. Por otro lado, proponer un análisis de las diversas acepciones de la noción de valor, de verdad o sentido, en virtud de la relación autorreferencial que este tipo de presupuestos analíticos siempre hacen a la correspondiente lógica de la validez, de la coherencia o de la finalidad, sin pretender justificarse en virtud de un fundamento “a priori” de carácter psicológico de espaldas totalmente a cualquier posible teoría de la prueba, como ocurrió en Kant. Evidentemente de este modo los neokantianos no llegaron a recuperar el posible papel desempeñado por la metafísica en este tipo de procesos de justificación de la ciencia, como denunciará Heidegger. Sin embargo su filosofía de la lógica acabarían haciendo una aportación importante, a saber: confirmaron el papel insustituible de la lógica de la validez o de la justificación del propio conocimiento científico, mediante un mero análisis interno de este tipo de procesos heurísticos, sin necesidad de esperar de un modo operacionista a sus ulteriores resultados pragmáticos, al modo como también ocurre en Popper y en la mayor parte de las metodologías de la ciencia contemporánea. Por su parte Alejandro Vigo analiza cuatro modos posibles de justificar este tipo de propuestas:

a) el platonismo logicista de los neokantianos Lotze y Lask. Se propusieron  superar el psicologismo naturalista imperante entonces en la fundamentación de la lógica mediante una estrategia platónica de este tipo. De este modo consideraron que el conocimiento científico, así como la propia filosofía crítico-transcendental se legitima en virtud de una lógica de la validez de consistencia permanente por sí misma, en la medida que se afirma como una condición de posibilidad y de sentido del propio análisis de la experiencia empírica, al modo como sucede en el platonismo, sin necesidad de remitirse a apriorismos psicológicos de carácter dogmático.

b) la lógica de la corrección de Scheler. Su propuesta daría un vuelco radical al modo de fundamentar la lógica a comienzos del siglo XX, aunque con una diferencia al menos respecto de la las anteriores propuestas neokantianas y las posteriores husserlianas, a saber: respecto de las primeras, justificó la vigencia de una lógica de la corrección y el posterior alcance universal otorgado a la filosofía crítico-transcendental en virtud del valor por si mismo que tiene el análisis de la corrección del pensamiento, sin necesidad de remitirse a ningún psicologismo, ni tampoco a ningún platonismo de tipo metafísico. Respecto de las segundas consideró que el valor de corrección ahora aducido por el análisis lógico se podría seguir justificando de un modo similar al operacionismo kantiano, en virtud de su ulterior aplicación de este tipo de formalismos lógicos al análisis de la experiencia científica. Sin embargo, según Vigo, Scheler nunca terminó de advertir el alcance y la importancia que acabó teniendo la fenomenología de las “intuiciones categoriales” de Husserl respecto a una posible justificación de la lógica de la validez por sí misma, sin necesidad de recurrir a justificaciones operacionistas y en el fondo psicologistas de Kant.

c) La lógica fenomenológica bidimensional de las “intuiciones categoriales” en Husserl. Permitió superar las unilateralidades de las anteriores propuestas de fundamentación de la lógica, ya sea por fomentar un logicismo que daba una excesiva importancia a la autosuficiencia de las categorías intelectuales analíticas del propio pensar, ya sea por volver a una justificación operacionista de carácter psicologista, al modo de Kant. En su lugar propuso una ampliación de la noción kantiana de intuición sensible de modo que pudiera dar cabida gradualmente a las diversas categorías lógicas del entendimiento, a fin de lograr así una síntesis predicamental o recíproco acoplamiento cada vez más abierto a la doble dimensión fundamentadora y fundada, noética y noemática del propio pensamiento.

d) La lógica metafísica apofántica de la síntesis predicamental del joven Heidegger, antes de la publicación de Ser y tiempo en 1927. Revisó la fundamentación fenomenológica de la lógica de Husserl proponiendo una ampliación y refundamentación de la síntesis predicamental entonces lograda a través de las “intuiciones categoriales” fenomenológicas. De este modo el joven Heidegger criticó este tipo de propuestas desde una fenomenología hermenéutica aún más abierta a la metafísica que acabaría provocando un nuevo “giro copernicano” aún más radical hacia la ontología respecto del anterior modo meramente logicista de fundamentar el propio uso fenomenológico bidimensional del pensamiento. En efecto, para Heidegger la fenomenología no debe fomentar en estos casos una apertura ilimitada a una estructura crítico-transcendental o a una lógica “priori” válida por sí misma, especialmente si a su vez se pretende que ya debería estar elaborada de un modo platónico, operacionista o fenomenológico de una vez por todas. En su lugar más bien la fenomenología debería localizar una sintesis predicativa aún más esencial, a un nivel analítico existencial aún más básico, que permitiera fomentar una apertura hermenéutica de todo juicio lógico a la peculiar verdad ontológica del propio ente, sin justificarla como mera correspondencia o adecuación, sino como “aleceia” o desvelamiento, sin que ya fueran suficientes los criterios de validez, de coherencia y de sentido, mediante los que la lógica pretende regular la ciencia y el propio saber metafísico tradicional a este respecto. Para justificar estas conclusiones se dan seis pasos.

1) La lógica de la validez de Lotze (1817- 1881), reconstruye el giro platonizante que experimentó la teoría intencional del juicio en la filosofía neokantiana de los valores de la Escuela de Baden, cuando se reinterpretó la noción kantiana de validez (Geltung) al modo de un valor consistente por sí mismo. En efecto, en estos casos la noción validez surge cuando en el contexto de la separación tradicional entre el ser y el debe, los hechos y las leyes, dando lugar a tres ámbitos: 1) los hechos psicológicos o anímicos, que se comprueban en la experiencia; 2) los hechos metafísicos o espirituales o culturales, que se justifican mediante la razón y el uso de lenguaje; 3) el ente ideal que configura un ámbito estrictamente lógico o normativo legal, cuyo reconocimiento exige la atribución de un específico valor intuitivo de prueba por sí mismo, sin posibilidad de cambio que siempre estaría sobreentendido tras la justificación de cualquier tipo de conocimiento. De todos modos ya el primer Heidegger todavía en 1927 le acusó a Lotze de reeditar una ontología de la presencia, basada a su vez en la contraposición platónica entre la validez ideal y lo real efectivo, con una consecuencia decisiva, a saber: la exigencia proposicional o judicativa de tener que establecer una relación de conformidad entre ambos, llegando incluso a  postular una hipostación platonizante del primero y de una cosificación innecesaria de este último. Además, el joven Heidegger extrapoló posteriormente esta misma crítica a la noción de la verdad (adecuación o correspondencia) en Windelband, Rickert o incluso el propio Husserl, ya sea directamente o a través de Bolzano.

2) Verdad y validez en Emil Lask (1875-1915), reconstruye las tensiones aparecidas entre cuatro tendencias predominantes en la época respecto de la filosofía de la lógica: los planteamientos transcendentalistas kantianos, los estrictamente lógicos neokantianos, la vuelta fenomenológica a las cosas mismas y la propia noción aristotélica de verdad (adecuación) a la hora de fundamentar el tipo de validez y verdad propia de la lógica. Su originalidad consistiría en haber logrado reorientar las grandes virtualidades del giro copernicano kantiano en la dirección aleteiológica marcada por una crítica de sentido de corte lógico o analítico; es decir, una orientación donde lo prioritario ya no sería la reconstrucción de una subjetividad “a priori” de tipo crítico-transcendental al modo de Kant, sino poner de manifiesto las condiciones de posibilidad, de validez y de sentido de cualquier forma de razonamiento lógico con total independencia del sujeto que lleva a cabo este tipo de reflexiones. En efecto, en la misma medida que la lógica se atribuye la justificación de un tipo de razonamiento válido por sí mismos, simultáneamente se le debe asignar una transcendentalidad absolutamente libre de cualquier dependencia subjetiva de tipo psicologista, a fin de poder extrapolar sus conclusiones para todo sujeto racional que comparta aquel mismo tipo de argumentación. La lógica de la validez de Lask se propuso así como estrategia a seguir a fin de superar el prejuicio clásico de la metalogicidad del objeto, en la medida que dispone de un procedimiento de justificación de este tipo de extrapolaciones, sin necesidad de fomentar cualquier tipo de psicologismo al respecto. Pero igualmente también permitió justificar una teoría por niveles de la constitución antepredicativa del sentido, capaz de dilucidar el tipo de proposiciones que podrían considerarse válidas por sí mismas, como ocurre con numerosas proposiciones analíticas “a priori” de la lógica formal, sin confundirlas con las que sólo alcanzan una justificación fáctica, ya sea a partir de la experiencia o de la razón. Pero de igual modo también desarrolló un análisis estrictamente lógico de la estructura del juicio frente al carácter estrictamente ontológico tradicionalmente otorgado a la teoría de las categorías, ya sea en su versión metagramatical kantiana o en la orientación estrictamente copulativa e hilemórfica aristotélica. De todos modos Lask siempre la logró esta efectiva superación del psicologismo a base de justificar esta pretendida lógica de la validez en nombre de un platonismo logicista similar al de Lotze, que nunca cuestiona.

3) Max Scheler y la idea de una lógica transcendental de la corrección, describe las ambivalentes relaciones que Scheler mantuvo con la fenomenología de Husserl a través del análisis de Logik I, un escrito que nunca en vida llegó a publicar. De hecho Max Scheler concibe la lógica como una forma teleológica de justificar el análisis formal a partir del fin prioritario que persigue el pensamiento discursivo, a saber: justificar en primer lugar su propia corrección formal a largo plazo por sí mismo, ya sea de un modo intuicionista o fenomenológico, a pesar de tratarse de un  ideal imposible de alcanzar plenamente en el momento presente. Sólo después, en un segundo momento, se podrá aplicar este saber discursivo a la fundamentación de las distintas teleologías mediante las que se orientan la diversas formas de saber, a través de los consiguientes procesos de auto- y hetero-justificación, sin necesidad de remitirse a presupuestos neoplatónicos de tipo metafísico, como también ahora se critica a Lotze. De todos modos Scheler tampoco pudo evitar la vuelta hacia un creciente operacionismo kantiano que desmentía la pretendida autosuficiencia inicial de la lógica de la corrección. Además, tampoco habría acabado de comprender la aportación que a este respecto supuso la doctrina fenomenológica de la “intuición categorial” de Husserl.

4) La concepción husserliana acerca del origen del juicio predicativo en ‘Erfahrung und Urteil’, una obra que tampoco Husserl publicó en vida. Se analiza la génesis de aquel tipo de síntesis predicativa que se opera en el juicio lógico cuando se logra un efectivo cumplimiento o acoplamiento entre la receptividad sensible y la espontaneidad de las formas intelectuales universales, a través especialmente del análisis por niveles fenomenológicos de la llamada “intuición categorial”. Se generan así sucesivos juicios predicativos apofánticos, con la correspondiente aprensión simple o perceptiva y la subsiguiente forma categorial de carácter conceptual, unidas ambas mediante la cópula “es”, siguiendo la estructura S es P, para tratar de reflejar así un determinado estado de cosas. Todo ello permite establecer una conexión comparativa entre la operación de conocer y de juzgar en Husserl y Kant, respectivamente.

5) La concepción husserliana de intuición categorial. Se analiza el papel desempeñado por la sensibilidad y el entendimiento en la elaboración de la síntesis predicativa del juicio lógico, tal y como fue expuesto en la “Sexta” de las Investigaciones Lógicas. Se reconstruye la ampliación que en su caso experimenta la noción de intuición hasta hacer posible el cumplimiento o acoplamiento con las correspondientes categorías universales del entendimiento. Pero a su vez se describen los diversos niveles de conocimiento perceptivo, autorreferencial, intencional, señalando en cada caso el “excedente” adicional que en cada caso sobreviene de un modo reflexivo. Igualmente se destaca el modelo bidimensional de análisis intencional de estas propuestas, según se remitan a los correspondientes actos fenomenológicos fundantes de la receptividad sensible o a los correspondientes actos fenomenológicos fundados de la espontaneidad intelectual, en la medida que ambos se articulan a través de la correspondiente síntesis predicativa del juicio lógico. Se pone así de manifiesto la doble intencionalidad directa y refleja que a su vez corresponde a la sensibilidad y al entendimiento en la constitución del correspondiente objeto de conocimiento, ya sea mediante la aplicación de un nombre propio o mediante la asunción de la correspondiente forma categorial, siguiendo a su vez el modelo antes explicado de encabalgamiento de actos intencionales en si mismos bidimensionales.

6) Constitución, objetividad categorial y modalidad en Husserl. Se analiza el papel del lenguaje en la síntesis predicativa alcanzada en el juicio lógico, tal y como la propuso en su escrito, Teoría de la significación (1908), publicada ya después de su muerte en1987. Se contrapone el papel fenomenológico de la significación como acto intencional de carácter práctico, pero que a la vez responde a un contenido objetivo de naturaleza bidimensional; es decir, que adolece de un doble carácter intelectual y sensible, fundado y fundante muy preciso, como ya previamente había explicado en la Investigaciones lógicas. Sin embargo ahora se añaden otros tipos de bidimensionalidad, a saber: la doble función significativa y a la vez referencial desempeñada por el uso del lenguaje en relación a los diferentes “estados de cosas” a los que se aplica. Se genera así un nuevo modelo bidimensional de cobertura discursiva del tipo noético-noemático o explicativo-comprensivo, según los modos respectivos de referencia teleleológica que en cada caso se hace a la intuición sensible o a las correspondientes pretensiones de validez discursiva. Por su parte todo ello depende de que a su vez se adopte una actitud apofántica o meramente hipotética, dando lugar a las diversas formas de juicios modales, según sean de tipo aseverativo o meramente condicionado o asuntivo.

7) Juicio y modalidad en Husserl, se analizan las diversas revisiones críticas llevadas a cabo por el propio Husserl de la teoría de la significación, otorgando cada vez más realce al aspecto noemático o intencional teleológico respecto al meramente noético o predicativo, como el mismo propuso en Ideas I. Hasta el punto de acabar otorgando una mayor importancia a los juicios modales dóxicos de afirmación y negación respecto de su posterior aplicación meramente condicionada o asuntiva. Sin embargo todo ello le exigió la aplicación de una persistente neutralización de la correspondiente conciencia posicional, a fin de lograr mantener un equilibrio en la doble dimensión noética-noemática de los juicios lógicos, al modo como ahora exige la justificación de una ontología meramente formal.

8) ‘Synthesis y Diaíresis’. En motivo aristotélico en Husserl y Heidegger, se analiza la dependencia respecto de Aristóteles del pensamiento fenomenológico de ambos autores. Especialmente ocurre así en la fundamentación de la teoría lógica y ontológica de las categorías, ya sea de una forma directa, como afirma Volpi respecto del segundo, o a través de Brentano, en el primer caso. Se resalta a este respecto el papel desempeñado por la composición y la división en el análisis de la estructura interna del logos apofántico, punto de partida de cualquier análisis lógico o metafísico de las categorías, ya sean aristotélicas, husserlianas o heideggerianas. Se reconstruye así la lógica metafísica apofántica de la síntesis predicamental del joven Heidegger, antes de la publicación de Ser y tiempo en 1927. En efecto, fue entonces cuando se revisó la fundamentación fenomenológica de la lógica de Husserl proponiendo una ampliación y refundamentación de la síntesis predicamental por niveles categoriales entonces propuesta. Según Vigo, la peculiar lógica metafísica apofántica categorial heideggeriana se manifiesta de un modo paradigmático en la articulación sujeto-predicado de las correspondientes estructuras silogísticas y ontológicas, como ahora sucede con el “ser a la mano”, con el “ver en torno” o con el propio “ser en el mundo”. En todos estos casos se localizan unas estructuras lógicas que se deben interpretar desde un punto de vista pragmático-holista; es decir, mediante una lectura intencional y antilogicista de la estructura antepredicativa de la proposición, donde la cópula se interpreta al modo de un “como” hermenéutico y a la vez apofántico, sin tampoco cerrar la posibilidad de otras muchas interpretaciones. Es decir, una interpretación donde se antepone un tipo de estructuras antepredicativas que hacen posible la apertura a una concepción de la verdad como desvelamiento, así como a un efectivo descubrimiento del ser de los entes, incluida la propia noción de mundo, sin reducirla en ningún caso a un mera relación de adecuación o correspondencia, como había ocurrido hasta entonces en la fenomenología, especialmente en Husserl.

Finalmente, la monografía incluye dos anexos, el juicio y la posibilidad, que anteriormente no habían sido traducidos al castellano. Con este motivo también se muestran otras posibles prolongaciones de la fenomenología en otros tantos autores. En el primer caso, además de Husserl y Heidegger, se analizan las propuestas de Pfänder y H. Lipps. En el segundo, en cambio a Pfänder y N. Hartmann, además de los otros dos ya citados.

Para concluir una reflexión crítica. Sin duda la gran aportación filosófica de la fenomenología de Husserl, según Vigo, fue el uso heurístico bidimensional por niveles metódicos de la noción de “intuición categorial”, ya se haga de ella un uso restringido o aún más ampliado desde un punto de vista metafísico, como propuso el joven Heidegger. En este sentido Vigo ahora nos ofrece una visión actualizada del uso fenomenológico de la teoría de la significación, tal y como está siendo redescubierta a través de la reciente publicación en 1987 de algunas de sus obras inéditas hasta ahora. La fenomenología podría recuperar así el lugar central que durante mucho tiempo desempeñó en el debate metodológico y que probablemente nunca perdió, pero que ahora vuelve a renacer con más fuerza en el contexto de las nuevas tendencias de neodualismo postanalítico posteriores al segundo Wittgenstein, al movimiento de rehabilitación del silogismo práctico aristotélico, llevado a cabo por Anscombe y Gadamer, así como ahora también al último Heidegger, como el propio Vigo ya había comprobado en una obra anterior, Arqueología y aleteiología y otros estudios heideggerianos (Biblos, Buenos Aires, 2008).

Y en este sentido cabe plantear. ¿Se le podría asignar a la bidimensionalidad que ahora presentan dichas “intuiciones categoriales” una efectiva autoinmunidad frente a toda posible crítica, como al parecer ahora exige el carácter analítico “a priori” que se sigue asignando a determinadas formas de síntesis predicamental, ya se justifiquen en nombre de la lógica, la fenomenología o la propia metafísica? ¿Podría abrirse así un nuevo modo de acceso a la metafísica que eludiera las dificultades crecientes con que se acabó encontrando el último Heidegger a la hora de llevar a cabo su inicial proyecto programático de metafísica propuesto en Ser y tiempo? ¿Podrían las propuestas neodualistas de las nuevas corrientes postanalíticas y posthermnéuticas experimentar un “giro metafísico” similar al que Heidegger pretendió introducir en las propuestas de Husserl?

Anuncios

Deja un comentario

Archivado bajo Fenomenología, Historia de la filosofía contemporánea, Lógica

Ausín, T.; Entre la lógica y el derecho. Paradojas y conflictos normativos, Plaza y Valdés, Barcelona, 2005, 280 pp.

por Carlos Ortiz de Landázuri

Txetxu Ausín prolonga algunas propuestas de la lógica deóntica jurídica de Miguel Sánchez-Mazas, en el contexto de los actuales debates de la lógica deóntica contemporánea. A este respecto se considera a Von Wright el iniciador en 1951 de una lógica deóntica muy dependiente del modo alético como Leibniz reinterpretó a su vez la lógica modal aristotélica. En su caso habría reinterpretado lo normativo, lo lícito o lo permitido, como una variante de la necesidad, la posibilidad o la imposibilidad metafísica, dando a su vez lugar a inevitables paradojas y sofismas. Además, de la falacia naturalista, o del paso indebido del ser al debe, ahora también se señalan otros sofismas. Especialmente la paradoja de las obligaciones sobrevenidas o del mal menor, producida en este caso por una colisión entre normas de igual o diverso rango; o la paradoja originada por la ley del cierre, según la cual si una acción es obligatoria también lo son sus consecuencias, cuando es evidente que al menos desde un punto de vista intencional se trata de dos supuestos distintos. En cualquier caso la paradoja surge al afirmar a la vez el carácter obligatorio y no-obligatorio de una determinada norma, con unos efectos similares a las que tiene el hallazgo de una contradicción en la lógica formal alética. En estos casos la aparición de una contradicción hace que todo el razonamiento implicado se vuelva arbitrario y deje de tener validez el principio de bi-valencia, según el cual una proposición no puede ser a la vez verdadera y falsa. Sin embargo ahora se admite la posibilidad de una lógica deóntica paraconsistente, no-monotónica, transitiva, difusa y en definitiva fuzzy, que admitiría la validez del recurso a los términos comparativos ‘más’, ‘menos’, ‘tanto como’, con sus correspondientes conectivos y operadores cuantificacionales, especialmente el cuantificador existencial. De este modo se podría neutralizar la posible aparición de las anteriores paradojas por un procedimiento muy preciso: el cálculo fuzzy ya no se basaría en una aplicación estricta del principio de bivalencia alético, según el cual todo enunciado es verdadero o falso, es obligatorio o no, etc. En su lugar justificaría la obligatoriedad de cada norma de un modo gradual, dando lugar a una deontología normativa más casuística y prudencial, propia del hombre experto, incluido el jurista, sin el carácter alético de la ética aristotélica.

Para justificar estas conclusiones la monografía se divide en nueve capítulos: 1) Introducción; 2) El cálculo deóntico convencional, donde se explican algunos principios específicos del cálculo de normas, especialmente la ley de cierre; 3) Paradojas de la lógica deóntica, generadas a su vez por la ley de cierre o por un conflicto de normas, como ahora sucede con la paradoja del asesinato indoloro; 4) Soluciones de las paradojas deónticas, analiza las distintas estrategias utilizadas para neutralizar la posible aparición de estas paradojas, especialmente la condicionalización, los criterios de relevancia o la estrategia minimizadora, aunque en todos los casos se vuelven a replantear, sin resolverla, la paradoja del conflicto de normas o del mal menor; 5) Conflictos normativos, analiza específicamente dicha paradoja del mal menor, con un resultado similar; 6) Conflictos en el ámbito jurídico, justifica los numerosos casos límite y situaciones de incertidumbre a los que puede dar lugar la paradoja del conflicto sobrevenido o del mal menor; 7) Lógica deóntica y conflictos normativos, justifica su propia propuesta para resolver estas paradojas y sofismas, a partir de las propuestas debilitadoras, paraconsistentes, no-monotónicas o incluso relativistas, de Da Costa, Puga, Grana, Abe, Stelzner, Weingartner; 8) Conclusiones, contrapone su propuesta al carácter alético del que adolecen los cálculos deónticos clásicos, ya sean de procedencia aristotélica o leibniziana, resaltando a su vez las posibles ventajas de su propuesta; 9) Bibliografía.

Para concluir una reflexión crítica. Primero resaltar la claridad y brillantez con que se expone un cálculo muy técnico y de enorme complejidad, entremezclado con problemas muy diversos, especialmente jurídicos, yendo directamente al núcleo del problema, sin abandonarlo en ningún momento. Sin embargo a mi parecer Ausín radicaliza excesivamente la contraposición entre las lógicas deónticas alternativas o no-clásicas frente a las aléticas o clásicas, cuando posiblemente se podría postular una complementeriedad recíproca, especialmente si se toma la lógica difusa o fuzzy como paradigma de las primeras. A este respecto ha habido quien ha considerado a la lógica fuzzy como una lógica desviada postmoderna que no respeta el principio de bi-valencia y no es alética. Sin embargo para la mayoría se trata de un malentendido que, en todo caso, radicalizaría aún más las paradojas ahora generadas por el salto del ser al debe, del bien mayor al mal menor, de los principios a las consecuencias, fomentando un relativismo que acabaría disolviendo el carácter deóntico o valioso por sí mismo atribuido a las normas. A este respeto la lógica deóntica y la lógica fuzzy exigieron una prolongación de los procesos de fundamentación de la lógica modal alética, postulando un perfeccionamiento mutuo que les permitiera contra-argumentar las posibles paradojas y sofismas que esta misma compatibilidad podría originar, y que a su vez les permitiera hacer compatible el uso que en cada caso se hizo del principio de bi-valencia. Y en este sentido cabría cuestionar, ¿el cálculo de normas ahora propuesto no se debería interpretar como un intento de contra-argumentar las paradojas que a su vez pudiera originar el mal uso de la lógica modal alética, llevando a cabo una profundización en los presupuestos de la lógica normativa y del propio silogismo práctico, ya sea de tipo aristotélico, leibniziano, hegeliano o wrightiano? Y si se acepta esta sugerencia, ¿habría que renunciar a la propuesta de Sanchez-Mazas de seguir concibiendo estos cálculos lógicos y la subsiguiente deontología normativa como una reedición del viejo proyecto de una ‘matheisis universalis’ de tipo leibniziano? ¿O no se deberían ver más bien estas propuestas como una profundización encaminada a salvar las paradojas originadas por una conciliación de este tipo, en el sentido también señalado por el proyecto de ‘New Foundation with Urelements’ de Aczel, Barwise y Etchemendy, como en alguna ocasión anterior he sugerido?

Deja un comentario

Archivado bajo Ética, Filosofía del derecho, Filosofía del lenguaje, Lógica

Mares, Edwin D.; Relevant logic. A Philosophical Interpretation, Cambridge University, Cambridge, 2006, 225 pp.

por Carlos Ortiz de Landázuri

Edwin D. Mares concibe la lógica de la relevancia como un rasgo bipolar que permite justificar la consistencia del condicional material y las inevitables exclusiones que a su vez genera. En su opinión, la relevancia se concibe como una relación inversa a la consistencia que, sin embargo, se complementan entre sí. En efecto, una implicación resulta relevante si efectivamente el antecedente mantiene unas relaciones formales respecto del consecuente, de modo que la afirmación de uno conlleva la del otro, aunque puedan surgir situaciones de aplicación ambigua o en sí misma paradójica. En cambio, una implicación es consistente si efectivamente se establece una relación disyuntiva entre la negación del antecedente y la afirmación del consecuente, pudiendo hacer una aplicación estricta del principio de tercer excluido y del principio de bivalencia, aunque también en este caso pueden surgir casos límite o excepciones de aplicación ambigua o simplemente paradójica.

Por su parte el proyecto ‘Nueva fundamentación a partir de elementos originarios’ de Aczel, Barwise, Moss y Perry, también puso de manifiesto relaciones de complementariedad similares que ahora se establecen entre los sistemas formales y sus respectivas bases de aplicación. Se pudo así atribuir a la base de aplicación un grado de relevancia cuando efectivamente se pueda establecer una relación de implicación estricta o entroncamiento (‘entailment’) respecto al sistema axiomático resultante. En cambio se podrá justificar la consistencia de un sistema formal cuando efectivamente se excluyan de su respectiva base de aplicación todas las clases realmente incompatibles. Evidentemente en estos casos se establece una clara separación entre la formalización de la base de aplicación, siguiendo las reglas de la así llamada deducción natural, respecto a la posterior formalización del correspondiente sistema axiomático, siguiendo la correspondiente lógica de la relevancia, tratando a su vez de establecer una relación de complementariedad entre ambas.

De todos modos este proyecto aceptó la posibilidad de clases no bien formadas – o con capacidad de formar parte de sí mismas – (Aczel), admitiendo a su vez la posibilidad de contrarrestar las situaciones paradójicas que a su vez generan. Se localizaron así distintas relaciones de relevancia y consistencia, comprobando a su vez hasta que punto es posible superar de este modo las paradojas a las que da lugar el condicional material y las subsiguientes relaciones de buena consecuencia lógica. Se pudo fomentar así un tipo de actitudes compartidas que permitieron detectar diversos grados de relevancia y de consistencia, como son la relevancia débil, fuerte o estricta; o la consistencia absoluta, relativa y la simple paraconsistencia, a fin de contrarrestar este tipo de situaciones paradójicas, ya vengan generadas por la regla del condicional material o de la buena consecuencia lógica. Por ejemplo, la justificación de un tipo de relevancia en sentido fuerte debería permitir justificar un tipo de actitudes compartidas que a su vez nos permitieran apreciar las situaciones paradójicas así generadas, tanto respecto de la justificación de los presupuestos de los que depende, como respecto de las implicaciones que a su vez generan. En cualquier caso, ni la relevancia ni la consistencia son propiedades absolutas, sino que admiten grados, como ahora sucede con la relevancia débil, fuerte y estricta, o con la consistencia absoluta, relativa y la paraconsistencia, estableciendo entre ellas unas relaciones de orden inverso, de modo que el logro de una máxima relevancia conlleva una perdida de consistencia, y viceversa.

De todos modos desde otras tradiciones filosóficas también se formularon otras propuestas de lógica de la relevancia con resultados similares. Por ejemplo, Read y Garfield recurrieron a una teoría de la prueba de tipo ‘intuicionista’, que les exigió hacer un uso más restringido de la regla del silogismo disyuntivo y al principio de tercer excluido, sin poder ya justificar los mismos niveles de consistencia. Otros en cambio, y a diferencia de Aczel, sólo admitieron el recurso a clases bien fundadas, aunque ello les supuso tener que restringir aún más la noción de relevancia. En cualquier caso ahora se comparte el segundo teorema de Gödel, cuando se trató de sacar las consecuencias de la imposibilidad manifiesta de garantizar simultáneamente la consistencia, la decidibilidad y la completitud de un sistema formal. En su opinión, el hecho de otorgar una relevancia aritmética a las formalizaciones lógicas, debería ir unida a reconocimiento de la inevitable aparición de situaciones paradójicas, que hacían imposible la justificación de la completa consistencia de un sistema formal, aunque también sería posible contrarrestarlas, como ahora se pretende. Según Mares, sólo así se podría evitar la posterior aparición de las nuevas paradojas, aunque esto se consiga al precio de restringir la posible relevancia o consistencia alcanzada de una determinada base de aplicación respecto de su correspondiente sistema formal. En este contexto se analizan las polémicas acerca del sentido realista o antirrealista y meramente convencional que se debe otorgar a determinadas decisiones estratégicas aparentemente formales, pero que determinan los presupuestos de la lógica de la relevancia, dando por supuesto que en absoluto se trata de un problema trivial.

A este respecto la monografía se divide en tres partes y en doce capítulos. La primera parte, la lógica de la relevancia y su semántica, La primera parte, la lógica de la relevancia y su semántica, analiza tres tradiciones al respecto, a saber:

1) La lógica de la relevancia subyacente a la teoría de modelos de Tarski, que eludió estas paradojas de la implicación material mediante la previa fijación de aquellas condiciones de verificación, que a su vez permitirían garantizar el entroncamiento lógico de un sistema formal respecto a su correspondiente base de aplicación;

2) La lógica de la relevancia de Michael Dummett que justifica la consistencia del sistema formal mediante una teoría intuicionista de la prueba de tipo finitista y un modelo constructivista, que  evita el recurso a decisiones injustificadas, o la aparición de círculos viciosos y procesos al infinito, pero restringe al máximo la posible relevancia matemática de la correspondiente base de aplicación;

3) La onto-semántica de Kripke, que distinguió entre el doble uso sintáctico y semántico de su teoría de los mundos posibles; se pudieron localizar así las actitudes lógicas compartidas que a su vez permiten contrarrestar las respectivas situaciones paradójicas así generadas, aunque al precio de contraponer la consistencia y la relevancia otorgada a un sistema formal y a su correspondiente base de aplicación. A partir de aquí se analiza un triple debate sobre la lógica de la relevancia:

4) La polémica metafísica sobre las interpretaciones realistas y anti-realistas de los compromisos ontológicos (Quine) y de los mundos posibles (Tarski), según la lógica de la relevancia puedan justificar o no la posible consistencia de las clases no bien fundadas (Aczel). A partir de aquí se cuestiona la posible entidad otorgada a estos mundos posibles y a los individuos que los componen; o las propiedades y las relaciones asignadas, según los objetos puedan permanecer a un solo mundo, a varios mundos, o a un submundo de estados de cosas bipolares; o según den lugar a situaciones de aplicación en sí mismas paradójicas, o también admitan una referencia a situaciones abstractas, válidas en todos los mundos posibles, como al menos sucede en los casos de necesidad metafísica y de legalidad científica; y según remitan a mundos paralelos, pero jerarquizados, o sólo a objetos abstractos referidos a estados de cosas desordenados o no jerarquizados (ersatzism); y según las proposiciones se remitan a una situación concreta, a un mundo posible abstracto o al conjunto de todos ellos;

5) La polémica acerca de la eliminación de las contradicciones por parte de las lógicas alternativas,  según se atribuya al conectivo negación un grado de relevancia capaz de resolver las paradojas de la implicación material, dando lugar a dos posibilidades: o bien se utiliza la implicación material para expresar la compatibilidad de dos propiedades, como propone la lógica cuántica de Dunn; o se utiliza la negación para expresar una simple incompatibilidad situacional, sin poderse ya tomar la negación como una incompatibilidad absoluta, como ya hizo notar Platón. Hasta el punto que ahora es posible postular una reducción de las propiedades situacionales en sí mismas incompatibles a otras aún más básicas, donde sería posible eliminar estas contradicciones, dando lugar a tres posibles lógicas alternativas: admitir la posible vaguedad o inconsistencia de algunas situaciones paradójicas o casos límite, como propuso Willianson; rechazar esta misma posibilidad, como propuso Lewis; admitir la posibilidad de una lógica cuatrivalente paraconsistente – de lo verdadero, lo falso, ni verdadero ni falso, verdadero y a la vez falso -, donde se rechaza el principio de tercer excluido y su corolario: ‘ex falso quodlibet’, como de hecho defienden numerosos informáticos y físicos cuánticos. Sin embargo Priest ha rechazado este modo doxográfico de concebir el principio de bivalencia de Boole.

6) La polémica logicista sobre la posibilidad de una lógica modal de la necesidad estricta (“entailment’, C. I. Lewis), capaz de evitar las paradojas de la implicación material, pero dando lugar a las nuevas falacias de la modalidad (legal, metafísica o simplemente autorreferencial), por atribuirles una relevancia o consistencia desproporcionada. En unos casos se confunden los criterios de validez de sus respectivas lógicas de la relevancia, como de hecho sucede en la lógica deóntica, cuando el ‘es’ se interpreta como un ‘debe’. En otros se recurre a generalizaciones o casuísticas abusivas, como sucede en los procesos de identificación y denominación generados por la cuantificación de la lógica de predicados.

La segunda parte, condicionales, analiza el grado de consistencia atribuido a dos aplicaciones concretas de la lógica de la relevancia:

7) Condicionales indicativos justifica la peculiar relevancia lógica otorgada a la implicación estricta (Lewis) en razón del papel específico que en este caso desempeñan el antecedente y el consecuente. Sin embargo esto se logra a costa de debilitar el grado de consistencia otorgado a la correspondiente teoría de modelos o a la propia noción de probabilidad;

8) Contrafácticos analiza el grado relevancia lógica y de consistencia que la ética, el derecho, las matemáticas, la física o la metafísica otorgan a este tipo de condicional. Se analiza así el grado de relevancia otorgado al condicional contraposible, contralegal, a las leyes de la naturaleza, a los milagros (Lewis), a los argumentos contramatemáticos o  contralógicos, asignándoles a su vez diversos gradosde consistencia;

La tercera parte, la inferencia y sus aplicaciones, justifica la contraposición que ahora se establece entre la relevancia y consistencia en virtud de la peculiar estructura formal del condicional material, dando cuatro pasos;

9) Se valora la peculiar relevancia y consistencia otorgada a cada uno de los elementos formales de la estructura de la deducción, contraponiendo el cálculo de deducción natural y las secuencias lógicas de Gentzen. Se justifica así el distinto uso intencional que en cada caso se hace de las premisas, de la conjunción, de la disyunción, según se pretendan formalizar una determinada base de aplicación o a un sistema formal ya completo. Por otro lado se otorgan a las creencias, a los rechazos y a las consecuencias distinto tipo de congruencia fuerte, débil o estricta, en razón del posible papel que en cada caso desempeñan en la deducción lógica.

10) Silogismo disyuntivo reconstruye el debate originado por Garfield y Read cuando cuestionaron la posible consistencia de una implicación, ya sea en el caso de una manifiesta hostilidad epistémica, o por remitirse a una lógica ‘intuicionista’ de la relevancia, donde ya no se comparte la prioridad antes otorgada al principio de tercio excluso. Sin embargo ahora se discrepa de estas propuestas, concibiendo la consistencia como un valor positivo que debe ser protegido, e incluso reforzado, al modo como sucede en la interpretación clásica del razonamiento matemático.

11) Haciendo trabajar a la lógica de la relevancia, reconstruye el debate sobre el papel de la relevancia en la justificación de la consistencia de la lógica deóntica, de la teoría literaria, o de la justificación del segundo teorema de Gödel. Por ejemplo, la lógica deóntica recurre a la relevancia para separar el ‘ser’ del ‘debe’; o la lógica semántica para separar una predicación esencial de otra meramente relevante; o la teoría literaria al contraponer el mundo real y el de ficción; o el segundo teorema de Gödel al admitir la indudable relevancia aritmética de las deducciones lógicas, a pesar de rechazar la posibilidad de justificar una ‘consistencia absoluta’. Se justifica así la posibilidad de establecer distinto tipo de conexión formal entre el antecedente y el consecuente del condicional; o entre una determinada base de aplicación su correspondiente lenguaje formal, como hizo notar Brady, permitiendo establecer una diferenciación entre teorías relevantes e ingenuas;

12) Conclusiones defiende el papel tan central desempeñado por la relevancia en los debates contemporáneos acerca de la filosofía de la lógica, admitiendo una posible apertura a otras propuestas filosóficas, a pesar de criticarlas.

Para concluir una reflexión crítica. Sin duda la propuesta de Mares justifica la numerosas virtualidades lógicas ahora atribuidas al condicional material o a la negación, sin quedar atrapados en un formalismo excesivamente cerrado, como de hecho ocurrió en la lógica ‘intuicionista’. Sin embargo dada la amplitud del tema y la cantidad de ramificaciones que ahora presenta, cabría formular un interrogante: El reconocimiento de estos diversos grados de relevancia y de consistencia atribuidos al condicional material o a la negación, ¿no debería venir acompañado de un sistema de control de las diversas situaciones paradójicas o simples sofismas que se pudieran originar? ¿Podría el cálculo aritmético, de probabilidades, la lógica fuzzy, el análisis de la vaguedad o los sistemas de expertos justificar un posible control de este tipo de sofismas, sin haber fundamentado previamente esta misma posibilidad? ¿No sería en ese caso tan importante tipificar el grado de relevancia y consistencia asignado a cada posible uso del condicional material o a la negación, como mostrar la posibilidad de subsanar la aparición de estos posibles sofismas? Sin duda son preguntas que exceden los ámbitos de la presente monografía, pero son una muestra de las posibilidades de desarrollo que ofrece el tema analizado.

Deja un comentario

Archivado bajo Lógica

Vorobej, Mark; A Theory of Argument, Cambridge University, Cambridge, 2006, 324 pp.

Carlos Ortiz de Landázuri

Una teoría de los argumentos pretende evitar la aparición de los tradicionales sofismas mediante un análisis más exhaustivo de los mecanismos de persuasión del discurso racional, sin recurrir solamente a estrategias de tipo lógico. A este respecto Mark Vorobej comparte el fundacionalismo subjetivo propuesto por Richard Forley en 1987 en Teoría de la racionalidad epistémico. Allí se admitió de un modo programáticamente ingenuo la posible racionalidad de una creencia si después de reflexionar sobre ella en un determinado contexto se alcanza un convencimiento estable acerca de su posible validez. Evidentemente el fundacionalismo subjetivo no pretende ser ingenuo respecto al cumplimiento de los requisitos formales exigidos a este respecto por la lógica o la metodología científica. Sin embargo se acepta la ingenuidad de otorgar al llamado ‘autor’ del argumento la capacidad de valorar el grado de incidencia de los condicionantes colaterales en los argumentos persuasivos, aún a riego de confiar excesivamente en sus propias capacidades. El fundacionalismo subjetivo pretende así recuperar para la argumentación discursiva un tipo de razonamiento habitualmente considerado sofístico, pero que si efectivamente el autor de la argumentación ha llevado a cabo los controles pertinentes, se podría terminar considerando válido en atención de las circunstancias y de las pruebas aportadas. Hasta el punto de que, si se cree conveniente, se podría ampliar la validez otorgada a una argumentación persuasiva respecto de aquellos ámbitos que la propia lógica deja al uso discrecional de los afectados, sin dejarlos en una situación de permanente indefinición. De ahí la necesidad de someter estos ámbitos de indeterminación lógico-formal y de aquellos otros posibles factores metodológicos de riesgo contextual a un control discursivo verdaderamente compartido, a fin de garantizar el grado de validez atribuido en cada caso a una determinada creencia estable.

El fundacionalismo subjetivo distingue a este respecto dos niveles de análisis, acompañados ahora de más de 400 ejercicios de tipo práctico: la macroestructura determina los factores contextuales que inciden en la adquisición de una creencia estable, destacando tres aspectos: a) la peculiar naturaleza contextual de las argumentaciones (especialmente dos factores: las audiencias y la claridad expositiva); b) los requisitos para congeniar o no congeniar respecto de la aceptación estable de una creencia (especialmente los criterios para localizar un mal acuerdo o un buen desacuerdo); c) los criterios de normalización lógica y metodológica (especialmente la valoración de la validez y del relieve de un contrargumento). Por su parte la microestructura analiza los criterios usados por el autor de un argumento para justificar la estabilidad de sus creencias, destacando tres aspectos: a) los criterios de convergencia compartida (especialmente los diagramas modales o generales del discurso, las premisas charca o simples interrupciones, la concesiones de estilo o meramente caritativas, los diagramas colaterales o rodeos en falso); b) la concatenación argumental (especialmente las opciones estructurales, la vulnerabilidad absoluta y relativa, las ilustraciones o ejemplos); y c), finalmente, las estrategias supletorias de  convalidación argumental (especialmente los argumentos híbridos respecto de la ambigüedad estructural, las confusiones epistémicas, los malentendidos morales o lingüísticos y los diversos grados de ignorancia).

Para concluir una reflexión crítica.  La fundamentación subjetivista de Vorojeb se legitima en virtud del mismo tipo de creencias estables que trata de fundamentar, sin conseguir evitar el circulo hermenéutico en si mismo vicioso que genera este tipo de propuestas donde la valoración última de una creencia estable siempre queda en manos del propio ‘autor’ de la argumentación, se siguen valorando según criterios meramente subjetivos, y se termina defendiendo una resolución unilateral de las diversas situaciones de indeterminación originadas por la lógica o la metodología. Sin duda lo que habitualmente ocurre, pero posiblemente se podría esperar algo más de una autoproclamada argumentación crítica.

Deja un comentario

Archivado bajo Epistemología, Lógica

Kühne, Ulrich; Die Methode des Gedankenexperiments, Suhrkamp, Frankfurt, 2005, 410 pp.

por Carlos Ortiz de Landázuri

El método del experimento mental de Ulrich Kühne atribuye a la teoría generalizada de la relatividad de Einstein un modelo de justificación explicativo-comprensivo, similar al defendido en su inconclusa teoría del campo unificado. En su opinión, las numerosas dificultades de comprobación con que se encontró la teoría especial de la relatividad, le obligaron a iniciar una defensa de la pretensión neokantiana de alcanzar una estricta jerarquización postcriticista entre los niveles y grados de racionalidad de los mundos virtuales de la metodología científica, sin admitir un único nivel de experimentación científica. Se pudo así reconocer el común carácter experimental de los experimentos ordinarios y mentales, aunque estableciendo una jerarquización e interrelación entre ellos, distinta de la después postulada por Ernst Mach. En efecto, Mach habría defendido un modelo depurador-expansivo que también se habría hecho presente en las primeras interpretaciones de la teoría especial de la relatividad atribuyendo a la recíproca interacción existente entre los experimentos mentales y ordinarios una doble función: eliminar los restos de vaguedad y de generalización abusiva presentes en la praxis científica; y, por otro lado, ampliar al máximo sus posibles ámbitos de aplicación respecto del conjunto de los saberes científicos. De este modo al final del proceso se lograría una perfecta correspondencia entre las teorías científicas y el ámbito empírico al que se aplican, sin dejar ya márgenes de vaguedad o ambigüedades en el uso del lenguaje ideal de la ciencia.

Sin embargo ahora se hace notar como la teoría generalizada del último Einstein habría revisado las propuestas de Mach, volviendo a un modelo de justificación explicativo-comprensivo de los experimentos cruciales, similar a la propuesta por Orsted (1777-1855) al reformular a su vez algunas propuestas kantianas. En efecto, el giro copernicano operado por Kant habría aportado una nueva reinterpretación de la función desempeñada por los experimentos científicos en el efectivo progreso del conocimiento. De hecho la formulación inicial de un experimento mental exige adoptar una actitud heurística previa abierta a la posterior comprobación empírica de cualquier concepto especulativo a través del correspondiente experimento ordinario, salvo que se quiera volver a reeditar el viejo dogmatismo de la antigua metafísica. A este respecto el recurso al experimento mental lograría justificar la compatibilidad entre el carácter a priori de toda necesidad natural, ya fuera física o metafísica, con su posterior comprobación en un ámbito empírico concreto a través del correspondiente experimento ordinario, como de un modo paradigmático habría ocurrido en la físico-matemática de Newton, o en la nueva deducción transcendental de unas categorías metafísicas renovadas. Sin embargo la filosofía de la naturaleza del romantismo posterior, al igual que antes Kant, habrían tratado de extrapolar este modelo de justificación a toda las demás formas de saber, incluyendo ahora también la propia filosofía trascendental, que de este modo adquiriría una apariencia de saber científico, dando así lugar a numerosos malentendidos y malinterpretaciones de su propio método.

A este respecto se atribuye al neokantiano Orsted la primera formulación explícita del método del experimento mental, como procedimiento para eludir los numerosos malentendidos que la tradición kantiana y romántica había provocado. En efecto, Orsted extrapoló para los experimentos mentales el tipo de interacción recíproca que ya antes Kant había establecido entre los conceptos y representaciones, evitando a su vez la aparición de los anteriores malentendidos. Se reconoció así la interacción recíproca que ahora se establece entre los experimentos mentales y los ordinarios, admitiendo a su vez la posible falta de correspondencia como resultado de los procesos a través de los cuales se llevan a cabo este tipo de comprobaciones. Hasta el punto que los experimentos mentales se pueden acabar quedando vacíos de su potencial poder explicativo experimental, en el caso de que tampoco sean capaces de comprobar a través de unos experimentos cruciales adecuados la interpretación dada a sus respectivos experimentos ordinarios. De igual modo que los experimentos ordinarios se pueden volver ciegos y absolutamente ininteligibles, si tampoco se remiten a un experimento crucial capaz de separar las relaciones meramente contingentes respecto de las relaciones de estricta legalidad postulada por un experimento mental. En cualquier caso se admitió la posible falta de correspondencia entre estos dos tipos de experimentos mentales y ordinarios; y a su vez se tomó por experimento crucial aquella situación límite que permite poner a prueba la validez empírica de un experimento mental, para después extrapolarla a los correspondientes experimentos ordinarios, separando así lo que hay en ellos de necesidad legal ‘a priori’ y de simple contingencia o casualidad ‘a posteriori’. Es decir, la peculiar interacción existente entre los experimentos mentales y ordinarios permitió justificar también una posible desvinculación entre el mundo físico real de la experimentación científica respecto del mundo de posibilidades virtuales ahora generado por estos distintos niveles de conceptualización teórica y de experimentación empírica generada por este peculiar tipo de experimentos cruciales. En cualquier caso se comprobó que los experimentos mentales seguían siendo el único modo posible de comprender la peculiar legalidad ‘a priori’ existente en el mundo físico real, de igual modo que los experimentos ordinarios eran el único modo posible de explicar el carácter ‘a posteriori’ de aquella misma legalidad, si efectivamente aquellas situaciones límite postuladas por este tipo de suposiciones meramente virtuales eran confirmadas por los correspondientes experimentos cruciales.

A partir de Orsted la metodología científica terminaría admitiendo tres niveles de experimentación científica: a) los experimentos ordinarios  sólo justificados de un modo empírico, sin una justificación ‘a priori’, atribuyéndoseles una necesidad simplemente fáctica, como en el caso de Orsted sucedió con su descubrimiento del efecto electromagnético, al que no supo encontrar una justificación teórica verdaderamente proporcionada; b) los experimentos mentales de tipo ideal o contrafáctico, atribuyéndoseles una mera posibilidad lógica carente aún de la correspondiente comprobación empírico-experimental, como en su opinión habría sucedido con numerosas referencias kantianas a una fuerza central, a pesar de sus declaraciones en contrario; c) los experimentos cruciales que logran una efectiva confirmación de un determinado experimento mental, atribuyéndosele una necesidad estricta de tipo experimental y a la vez ‘a priori’, como en su caso ocurrió con la superioridad manifiesta demostrada por su teoría del campo de fuerzas interaccionadas respecto de la anterior teoría kantiana de una simple superposición de fuerzas centrales independientes. Evidentemente la separación de estos tres tipos de experimentos puso a prueba los criterios utilizados para demarcar la física respecto de determinadas presuposiciones de la filosofía trascendental kantiana y romántica. Sin embargo Orsted los utilizaría para reivindicar el enfoque estrictamente científico dado a la resolución de un determinado problema, más que para pretender dar a la filosofía trascendental una apariencia de saber científico.

De todos modos las propuestas de Orsted se malinterpretaron, tomándole como un filósofo de la ciencia excesivamente dependiente de Kant, en la línea exaltada de numerosos románticos, sin concederle mucho crédito. Sin embargo Kühne admite la persistencia en los debates contemporáneos del triple uso que entonces se hizo de la noción de experimento, tomando a Orsted como un precedente inmediato de las propuestas empirio-criticistas de Mach o del posterior positivismo lógico de Russell, entre otros. O del modelo explicativo-comprensivo de justificación científica después también usado en los casos de Hempel, Koyré, T. S. Kuhn, Popper, en el debate Brown-Norton, ya se siguieran las interpretaciones modales de Sorensen, Haggqvist y Bartelborth, o las estrictamente filosóficas de Nozick, Putnam y Searle.

En todos estos casos se recurrió a esta triple noción de experimento para justificar la referencia a determinados ámbitos de necesidad estricta, sin rechazar por ello la posible aparición de vaguedades conceptuales y generalizaciones abusivas en los consiguientes procesos de explicación y comprensión. Para evitarlas se hizo necesario jerarquizar los diversos grados y tipos de experimentación científica, pudiendo dar lugar a posibles desajustes entre los principios y su ulterior aplicación a lo empírico. En este contexto se atribuirá a Galileo, Newton  y Einstein la comprobación empírica o meramente fáctica de unos experimentos mentales de naturaleza ideal o contrafáctica, logrando así una posible doble justificación explicativo-comprensiva de su respectiva interacción recíproca, sin rechazar por ello la persistente presencia en la experiencia ordinaria de vaguedades y generalidades abusivas. Sin embargo Orsted habitualmente queda relegado a un plano muy secundario, a pesar de haber sido el primero en reconstruir el ‘modus operandi’ de este método.

Orsted también habría extrapolado a las relaciones entre filosofía de la naturaleza e investigación práctica el mismo tipo de interacción recíproca que el experimento crucial introduce entre el experimento mental y ordinario. Pudo así atribuir al experimento mental una peculiar génesis heurística matemática a fin de poder comprobarlo a través de un experimento mental, que pudiera después ser generalizado para el resto de los experimentos ordinarios. Igualmente atribuyó a los resultados de cualquier experimento ordinario un carácter hipotético, provisional y meramente fáctico, mientras no se encuentre un experimento mental que logre una correcta interpretación mediante la comprobación del correspondiente experimento mental. De este modo Orsted pudo comprobar como la articulación de esta triple noción de experimento requiere el concurso de dos mundos virtuales posibles autónomos – como son el mundo de las representaciones mentales y de las experiencias empíricas aisladas -, a los que se atribuye un carácter incompleto e interrelacionado entre sí. Se plantearon así un gran número de cuestiones abiertas para la investigación científica, aunque momentáneamente no pudieran ser comprobadas en la experiencia, como por ejemplo: ¿Es el hidrógeno un metal? ¿Se puede pensar un sistema del mundo desjerarquizado y caótico? ¿Cómo pensarían los habitantes de Júpiter? ¿Se pueden criticar las interpretaciones dadas a los experimentos mentales?

En cualquier caso la interpretación neokantiana de Orsted acerca de los experimentos mentales se contrapone a la interpretación empirio-criticista de Mach, llegando a conclusiones muy distintas. Al menos así se comprueba analizando los numerosos debates provocados por las interpretaciones de la mecánica de Galileo, de Newton o de la teoría especial y generalizada de la relatividad de Einstein, al menos según numerosos historiadores y filósofos de la ciencia, como Duhen, Meinong, Russell, Wittegenstein y Lichtenberg. Para el empirio-criticismo la aplicación de una nueva legalidad experimental a la caída de los graves, a las fuerzas gravitatorias o a las mediciones relativistas conlleva la aceptación de un modelo depurador expansivo, que lograría una progresiva eliminación de los restos de vaguedad conceptual y de generalización abusiva que aún persiste en la experiencia ordinaria. En cambio, el modelo explicativo-comprensivo de los neokantianos permitiría justificar la efectiva vinculación existente entre los experimentos cruciales y ordinarios, admitiendo a su vez un cierto grado de desvinculación entre los respectivos mundos virtuales autónomos, que a su vez permitiría garantizar el futuro logro de una compresión y explicación aún más compartida.

A este respecto ahora se reconstruye la evolución intelectual de Einstein como un paso progresivo desde el empirio-criticismo de Mach a un modelo explicativo-comprensivo neokantiano, que a su vez le habría permitido llevar a cabo una revisión de algunos presupuestos de su propia teoría especial de la relatividad. En efecto, inicialmente el joven Einstein habría postulado una plena correspondencia entre la formulación inicial de este tipo de experimentos mentales y los correspondientes experimentos cruciales y ordinarios, a pesar de los resultados tan pobres que logró a este respecto. Sin embargo posteriormente el mismo re-interpretó su anterior teoría especial como la formulación de un experimento mental en condiciones ideales o contrafácticas, sin posibilidad de ser confirmado o refutado a través del experimento crucial correspondiente, salvo que se elaborase una teoría generalizada aún más amplia, que pudiera ser verificada a través de unos determinados experimentos cruciales, para después poder ser extrapolada a un gran número de experimentos ordinarios, paso que anteriormente se habría demostrado en sí mismo imposible. De este modo progresivamente Einstein se habría ido abriendo al reconocimiento de la autonomía respectiva del ámbito empírico respecto de los principios de la ciencia, especialmente una vez que reconoció las pocas situaciones límite efectivamente comprobadas en que se basaba su inicial articulación entre los experimentos mentales, ordinarios y cruciales.

En cualquier caso resulta igualmente paradigmática la evolución paralela experimentada por Einstein respecto de la teoría de los cuantos de Plank. En un primer momento la rechazó de plano, por ser absolutamente incompatible con algunos de los principios empirio-criticististas en que presumiblemente se fundamentó la teoría especial de la relatividad. Sin embargo posteriormente Eintein acabaría reconociendo las limitaciones de la teoría especial y generalizada de la relatividad respecto de la localización de un tipo de experimentos cruciales, que demostraran su capacidad explicativa respecto del microcosmos. Por eso terminó atribuyendo a la teoría cuántica una mayor potencia explicativa respecto a este tipo de fenómenos microcósmicos, aunque otorgándole un valor meramente fáctico, debido a su total ausencia de experimentos mentales que la permitieran dotar de una adecuada fundamentación teórica. Por eso a la vez que hizo esta concesión a la teoría cuántica, Einstein también postuló la futura formulación de una teoría del campo unificado, que debería integrar la teoría relativista y cuántica en una interpretación del macrocosmos que a su vez englobara el microcosmos, a pesar de que nunca logró una formulación verdaderamente satisfactoria. En cualquier caso este cambio de actitud se debió la justificación de una jerarquía interna entre estos tres niveles de experimentación, con sus correspondientes mundos posibles de racionalización meramente virtual, a saber: el nivel fáctico o empírico, el contrafáctico o ideal, y el propiamente experimental o explicativo-comprensivo, sin poder otorgar a ninguno de ellos un conocimiento en exclusiva del mundo físico real.

Se comprueba así el papel tan singular desempeñado por el método del experimento mental a lo largo de toda la historia del pensamiento, desde la polémica entre Galileo y Aristóteles, hasta los más recientes teóricos de la ciencia contemporánea, incluyendo ahora también a Toulmin, Jonsen y Heisenberg. En efecto, ahora se comprueba como este método le permitió a Galileo postular una nueva articulación entre lo empírico, los principios y lo experimental, llevando a cabo una revisión en profundidad de la filosofía natural aristotélica. Por su parte Toulmin y Jonsen comprobaron como este método también permitió la progresiva aplicación de los tres mencionados niveles de conocimiento a la argumentación moral, sin que su aplicación se reduzca solamente al ámbito de la física. Finalmente Heisember extrapoló aún más el actual uso heurístico de este método, cuando atribuyó al conocimiento práctico propio de los expertos este posible cierre conclusivo de una teoría. En cualquier caso la metodología contemporánea ha terminado comprobando, según Kühne, como el método del experimento mental se ha terminado convirtiendo en el gran monstruo o espectro con mil caras que permite explicar numerosas transformaciones de la filosofía y de la ciencia a lo largo de su historia, a pesar de seguir sorprendiéndonos su modo un tanto paradójico de operar.

Para justificar estas conclusiones  se dan cinco pasos: 1) Se analiza el progresivo alcance otorgado al método del experimento mental, desde Aristóteles y Galileo, o en la metodología contemporánea de Toulmin, Jonsen y Heisenberg, hasta convertirse en una categoría básica de la fundamentación de la ciencia y de la propia filosofía teórica y práctica; 2) Se analiza el período 1786-1851, especialmente la primera formulación explícita del método del experimento mental por el neokantiano Orsted, revisando algunas propuestas kantianas, considerándole el descubridor y mejor interprete de este método, a pesar del descrédito generalizado de la mayor parte de sus propuestas; 3) Se analizan los debates entre 1883 y 1916 provocados por la interpretación empirio-criticista de Mach, con la críticas formuladas por Duhen, Meinong, Russell, Wittgenstein y Lichtenberg, por haber dado más importancia a la psicología del descubrimiento que a la lógica de la justificación; 4) Se reconstruye el período 1905-1936, reconstruyendo la aplicación de Einstein del método del experimento mental a su teoría especial y generalizada de la relatividad, y contraponiéndola a su vez a las propuestas de Heisenberg y Bohr respecto de la teoría cuántica de Palnk; 5) Se analiza la transformación contemporánea desde 1934 hasta hoy del método del experimento mental en un monstruo o espectro poliédrico de mil caras, a través de las propuestas contrapuestas de Hempel, Popper, Koyrè, Kuhn, Lakatos, el debate Broun-Norton, así como las interpretaciones modales de Sorensen, Haggqvist y Bartelborth, o filosóficas de Nozick, Putnam y Searle.

Para concluir una doble reflexión crítica. Kühne resalta el papel heurístico desempeñado por el método del experimento mental en la fundamentación de la ciencia y de la filosofía siguiendo un modelo explicativo-comprensivo, pero hay una cuestión que nunca se llega a plantear. ¿Hasta que punto las numerosas paradojas y malentendidos generados por este método exigigió ejercer un mayor control compartido sobre los crecientes márgenes de vaguedad y de generalización abusiva generados por este fantasma o espectro de mil caras, como ha propuesto Sorensen desde un supervaloracionismo aún más  estricto, o Willianson desde un supervaloracionismo epistemológico, o Keefe, Schick o Shapiro, desde un supervaloracionismo meramente pragmático?; O, dando un paso más, y admitiendo la necesidad de un complemento lógico de este tipo, ¿hasta que punto la teoría generalizada de la relatividad o la nunca concluida teoría del campo unificado de Einstein, hubiera permitido un control de este tipo sobre los márgenes de vaguedad y de generalización abusiva que la teoría especial y generalizada siguieron dejando indeterminados?

Deja un comentario

Archivado bajo Epistemología, Lógica, Metodología de la filosofía

Koselleck, Reinhart; Begriffsgeschichten. Studien zur Semantik und Pragmatik der politischen und sozialen Sprache; Spree, U.; Steinmetz, W.; Dutt, C. (Hrsg.); Suhrkamp, Frenkfurt, 2006, 569 pp.

por Carlos Ortiz de Landázuri

Historia conceptual analiza la posibilidad irrenunciable de otorgar al progreso humano un sentido aún edificante, que permita apropiarnos del legado ilustrado más valioso de las ciencias históricas o del espíritu del siglo XVIII y XIX, a pesar del rechazo generalizado de este tipo de propuestas por parte de la post-modernidad. Según Reinhart Koselleck (1923-2006), recientemente  fallecido, la ilustración acertó a localizar el auténtico sujeto del acaecer histórico, ya se trate del libre-pensador moderno, del ciudadano burgués o del actual individuo democrático, desvinculándolo de los anteriores presupuestos míticos o teológicos de la interpretación de la historia griega (Tucidides, Aristóteles) o cristiana (San Agustín), aunque sin tampoco dejarlo en manos de fuerzas sociales anónimas como acabó ocurriendo en los algunos procesos revolucionarios del XVII-XIX (Robespiere, Napoleón Bonaparte) o en los totalitarismos de inicios del siglo XX (Marx, Engels, Hitler), o en la promesas utópicas de una futura sociedad libre de dominio (Mercier). En su opinión, durante la ilustración aparecieron algunas nociones históricas fundamentales, como la noción de Estado-nación, de progreso, regreso, de emancipación, liberación, crisis o revolución (Herder, Goethe, Kant, Hegel), sobre las que hoy día las más distintas tradiciones mantienen una amplia convergencia de seguir otorgándoles una plena vigencia conceptual, con sólo una pequeña modificación: justificarlas en nombre de la responsabilidad ética mínima (Max Weber) que todas las culturas y naciones deberían prestar al equilibrio ecológico global, al modo como con anterioridad ya sucedió con los ideales universalistas de la ilustración (Kant, Adorno).

Precisamente, según Koselleck, la historia conceptual se propone como una semántica y una pragmática del lenguaje político y social, que pretende evitar el relativismo de los defensores de la historia total mediante una contraposición lo más estricta posible entre el significado semántico y el posterior uso pragmático dado a este tipo de conceptos. Se pretende reconstruir así el hilo conductor subyacente a la evolución interna de este tipo de nociones fundamentales, localizando sus contradicciones internas y sus incondicionadas pretensiones de validez, sin hacerlos ya depender exclusivamente del contexto cultural y social donde se originaron. En su opinión, tanto la historia conceptual,  como la social y cultural generan una dinámica diferenciada de interacción recíproca entre los acontecimientos y sus respectivas formas de lenguaje (Gadamer, Schieder, Sellin), tanto desde un punto de vista sincrónico como diacrónico (Coseriu), sin necesidad de establecer una estricta dependencia causal entre ellas. Por su parte la historia conceptual remite sus respectivos procesos de avance y retroceso a unos ideales regulativos  previos (Vico, Burckhardt, Wieland, Cassirer), de modo que sus respectivos conceptos fundamentales ahora se afirman como un presupuesto trascendental y una condición de sentido del peculiar carácter histórico del ser humano (Gadamer). Sin la mediación de estos conceptos fundamentales tampoco sería posible la elaboración de una historia digna de tal nombre, ya se conciba al modo racionalista ilustrado o ya se le quiera dar un sentido humanista aún más elevado. Sólo así sería posible introducir un mayor distanciamiento a la hora de valorar los logros indudables de los proyectos ilustrados de cada uno de los distintos sistemas democráticos, sin tampoco negar sus carencias y lagunas, según incrementen las posibilidades de autodeterminación y emancipación humana o simplemente las anulen. A este respecto se defiende una teleología histórica en sí misma abierta y en permanente revisión crítica de sus respectivas formas institucionales de realización, tanto a nivel global como individual, incluyendo ahora también a la familia en sus diversas configuraciones jurídicas y sociales.

Para justificar estas conclusiones la monografía se divide en cinco parte: 1) La teoría y el método de la historia conceptual analiza el papel que desempeña una reconstrucción de este tipo en la investigación histórica; 2) Los conceptos y su historia justifica el papel de estas reconstrucciones en algunos casos concretos, como ahora ocurriría con la noción de formación, o más bien autoformación (Bildung), de progreso, de emancipación, de crisis, de patriotismo, de revolución, de utopía o de enemigo; 3) La semántica y la pragmática del lenguaje ilustrado, muestra la necesidad de estos mismos conceptos para denunciar sus propias contradicciones culturales, ya sea al justificar una posible superación del antiguo régimen, o al valorar las innovaciones del lenguaje ilustrado o al establecer los límites de la tolerancia; 4) La semántica política y social en la historia de las constituciones, analiza la continuidad existente entre la filosofía política ilustrada y aristotélica,  al menos en el caso alemán, francés e inglés, a la hora de justificar sus respectivos ideales regulativos o de denunciar sus posibles incoherencias; 5) Desde la historia conceptual a la conceptualización histórica, analiza específicamente las vivencias de cambio social relativo a la casa, la familia o la servidumbre, que se tuvieron durante la revolución francesa de 1789 y la alemana de 1848, estableciendo un paralelismo con las discrepancias contemporáneas sobre la posibilidad de una política basada en el respeto del medio ambiente a nivel global; finalmente, se incluye un anexo de Carsten Dutt sobre diversos fragmentos dejados incompletos por Reinhart Koselleck, antes de dar por terminada su obra.

Para concluir una reflexión crítica. Sin duda Reinhart Koselleck trata de revitalizar la tradición ininterrumpida alemana de diccionarios historiográficos iniciada por Joaquim Ritter y Otto Brumer, adaptándola a los problemas actuales generados por la  globalización económica. Y en este sentido cabría preguntarse. ¿Son comparables los cambios de estratificación social provocados por las revoluciones del siglo XVIII y XIX, con los posibles cambios futuros globales que pudieran venir provocados por la aceptación masiva de los distintos sistemas democráticos del recurso al aborto, a la eutanasia o al control de natalidad, como procedimiento para garantizar el logro efectivo de determinadas metas sociales? ¿El salto histórico producido con la llegada del nuevo milenio puede reducirse a una simple profundización en la visión de la historia ilustrada, como si mientras tanto todo siguiera igual, o se trataría más bien de un cambio más profundo en la justificación de los propios sistema democráticos que ha terminado por poner en crisis un conjunto de conceptos históricos fundamentales, como ahora una vez más se comprueba? ¿Realmente se puede seguir justificando una visión meramente secularizante o laicista de los sistemas democráticos, que permitiría desvincularlos de cualquier referencia a determinados presupuestos teológicos de la historiografía griega y cristiana (Löwitz), cuando simultáneamente se sigue aceptando la referencia a una ética de mínimos y a un equilibrio ecológico global que, a pesar de pretender lo contrario, sigue cumpliendo sus veces?

Deja un comentario

Archivado bajo Filosofía de la cultura, Filosofía política, Lógica

PETERS, S.; WESTERSTÄHL, D., Quantifiers in Language and Logic, Clarendon, Oxford University, Oxford, 2006, 528 pp.

Carlos Ortiz de Landázuri

Cuantificadores en el lenguaje y la lógica, aplica el proyecto ´Nueva fundamentación a partir de elementos primitivos (Urelements)’ de Barwise y Moss al modo de justificar la contabilidad efectiva usada por el lenguaje natural, convencional o matemático para reconocer sus respectivos ámbitos de definición e indefinición a través una aplicación empírica concreta. En efecto, según Peters y Westerstähl, la efectiva articulación de los múltiples cuantificadores de segundo orden (como los operadores ‘más’ o ‘menos’ de tantos, la ‘mitad’ de tantos, la ‘mayor parte’, ‘siempre’, ‘a menudo’, ‘raramente’, así como otras formas de cuantificación encubierta, requieren la previa justificación funcional de un orden compositivo natural a partir de dos cuantificadores primitivos de la lógica de predicados de primer orden, especialmente el cuantificador existencial (‘algún o al menos uno’) y el universal (‘todos’ o ‘cualquier’), al modo como en su día ya fue señalado por Aristóteles y Frege, aunque con una salvedad: en vez de recurrir a las leyes de subalternación entre proposiciones del silogismo aristotélico o a las tablas analíticas de verdad de la lógica de proposiciones para la resolución de este tipo de problemas, ahora la teoría de modelos de la lógica contemporánea ha localizado un procedimiento de decisión aún más básico, a saber: las técnicas semánticas y sintácticas con que Ehrenfeucht-Fraïsse prolongó algunas sugerencias de Ramsey y Hempel, a fin de garantizar la definibilidad o indefinibilidad de los distintos operadores cuantificacionales en un determinado ámbito de aplicación, en la medida que les atribuyen unas relaciones cuantitativas de bisimilitud y de inter-cambiabilidad o equivalencia respecto a una base de aplicación empírica, sin necesidad de recurrir a las tablas analíticas de verdad de la lógica proposicional, como hasta entonces había sido habitual. Además, ahora este tipo de propuestas se enmarcan dentro del proyecto ´Nueva fundamentación a partir de elementos primitivos (Urelements)’ de Barwise y Moss, que precisamente define a cada uno de estos elementos primitivos del sistema en virtud de la operatividad práctica que en cada caso se demuestra. De este modo los operadores cuantificacionales se conciben al modo de unos elementos primitivos (Urelements), ya que aportan un lenguaje natural cuantificado inherente a  los lenguajes lógico-matemáticos y a los lenguajes meramente convencionales, según se resalten en cada caso los rasgos más globales de tipo sistemático o los rasgos casuísticos de tipo local.

Precisamente la novedad de esta nueva formalización de los operadores cuantificacionales consiste en ampliar el uso meramente lógico que de ellos hizo Aristóteles, o el uso estrictamente funcionalista de Frege, para atribuirles una función contable muy precisa respecto de los presupuestos metateóricos, metalingüísticos y metamatemáticos que a su vez consagran la definibilidad o indefinibilidad de estos mismos operadores cuentificacionales. A este respecto Peters y Westerstähl rechazan el tratamiento excesivamente rígido dado por el superevaluacionismo epistémico a la vaguedad de los conceptos, al modo como ya Keefe había señalado en Williamson (47-48), a pesar de que tampoco trata de resolver la polémica sobre si se debe atribuir a estos operadores un carácter sincategoremático o categoremático, analítico o sintético, sintáctico o semántico, lógico o también lingüístico. En cualquier caso la  teoría de modelos ya no prejuzga la validez de un supervaluacionismo epistemológico excesivamente rígido que exige la referencia obligada a un concepto de superverdad y una ulterior aplicación excesivamente estricta de un principio de bivalencia. En su lugar más bien se fomenta un uso pragmático de estos operadores cuantificacionales a fin de poder armonizar el lenguaje natural, convencional y lógico-matemático respecto de su correspondiente base empírica, admitiendo otros usos aún más diversificados y polivalentes de estos mismos principios, sin necesidad de modificar los postulados teóricos del anterior supervalucionismo epistemológico.

A este respecto la monografía sigue una estrategia muy precisa para mostrar las propiedades metateóricas, metalingüísticas y metalógicas que se deben atribuir a este tipo de operadores cuantificacionales desde un punto de vista natural, convencional y lógico-matemático, sin por ello cuestionar otros aspectos de estos operadores que aún siguen siendo profundamente polémicos.  Se justifica así el peculiar isomorfismo y la amplitud creciente o decreciente del modo monotónico o no-monotónico habitualmente seguido para restringir la extensión de cada uno de estos operadores cuantificacionales, a fin de garantizar las relaciones de bisimilitud que pretenden mantener con su respectiva base empírica. Se justifica así la aparición de diversas relaciones de determinación e indeterminación, de concreción o vaguedad, de universalidad estricta o simplemente contextual, a fin de separar las peculiaridades de estos tres órdenes distintos pero complementarios de los modelos de cuantificación propios del lenguaje natural, a saber: a) la cuantificación semántica de primer orden; b) la cuantificación sintántica, analíticamente componible y bidireccional o de segundo orden, en la que preferentemente se fijó Aristóteles; y c) la cuantificación ramificada o funcional que la lógica contemporánea ha desarrollado a partir de Frege, tratando de resaltar las diferencias existentes entre estos tres usos posibles de los cuantificadores operacionales e interrelacionándolos recíprocamente entre sí. Se resalta así la capacidad de justificar el isomorfismo y la bisimilitud creciente que estos operadores cuantificacionales mantienen respecto de su correspondiente campo de aplicación. Pero a la vez también se justifica la posibilidad de intercambiarlos mediante relaciones contables de amplitud y extensión cada vez mayor, interrelacionando supuestos de valor recíprocamente equivalente. El usuario del lenguaje natural lograría así una mayor capacidad de decisión a la hora de precisar la definibilidad o indefinibilidad de estos mismos operadores, en la medida que también serían capaces de justificar las relaciones de equivalencia y de bisimilitud que a su vez mantienen entre sí y con la correspondiente base empírica. Sin embargo ahora también se reconoce un gran número de cuestiones polémicas que siguen rodeando a la naturaleza intrínseca de este tipo de operadores cuantificacionales. Especialmente si se debe atribuir a este tipo de operadores de un carácter estrictamente sintáctico, lógico y estrictamente sincategoremático, o más bien un valor semántico y con un significado claramente categoremático, defendiendo finalmente la intrínseca componibilidad de ambos puntos de vista.

Para alcanzar estas conclusiones la monografía se divide en cuatro partes y quince capítulos: a) Las concepción lógica de los cuantificadores y de la cuantificación analiza dos aspectos de la posición heredada sobre el tema: 1) Breve historia de la cuantificación analiza la evolución del problema desde Aristóteles, Peirce, Russell y Frege, así como por la posterior teoría de modelos; 2) La emergencia de un tratamiento generalizado de los cuantificadores en la lógica moderna analiza el análisis semántico, sintáctico o ramificado, analíticamente componible y funcional de este tipo de operadores cuantificacionales;

b) Cuantificadores del lenguaje natural analiza específicamente la emergencia de otros rasgos aún más básicos de este tipo de lenguaje, a saber; 3) Los cuantificadores tipo 1 (semántico) del lenguaje natural y lógico describe el isomorfismo de los operadores cuantificacionales respecto de su correspondiente base de aplicación empírica, así como su ulterior extrapolación a una extensión de supuestos analíticamente equivalentes; 4) Los cuantificadores tipo 1, 1 (sintáctico) del lenguaje natural contrapone estos operadores respecto a su anterior uso semántico, comprobando la aplicación de un álgebra de Boole, así como la posibilidad de relativizarlos respecto de un ámbito de aplicación más restringida, si así lo exige su correcta definición respecto de un isomorfismo empírico ya dado; 5) Cuantificadores monotónicos justifica los procesos de cuantificación creciente o decreciente que a su vez genera la dependencia cada vez más ramificada entre el uso semántico y sintáctico de estos operadores, a fin de lograr una efectiva comprobación experimental de una hipótesis en su respectivo ámbito de aplicación; 6) Simetría y otras propiedades relacionales de los cuantificadores de tipo 1.1 (sintácticos) analiza las relaciones de simetría y asimetría que ahora se establecen entre los cuantificadores muchos y pocos, o entre los diversos usos aceptables o inaceptables del uso restrictivo del existencial “este”, a fin de conservar la extensión otorgada a un determinado operador cuantificacional a partir de la componibilidad analítica que mantienen con el resto de los operadores; 7) Los cuantificadores posesivos analiza este procedimiento habitualmente seguido para determinar la aplicación de un operador cuantitativo mediante el recurso a la relación de poseedor, otorgándole una mayor capacidad de intercambiabilidad o equivalencia, aunque sea a costa de disminuir su isomorfismo y monotonicidad respecto a la correspondiente base empírica; 8) Cuantificadores exceptivos contrapone este segundo procedimiento habitualmente seguido para restringir la aplicación de un operador cuantificador  respecto de la fijación de las condiciones meramente negativas, que más que excluir casos particulares pretenden caracterizar el uso dado a un operador de este tipo. Se distinguen una versión débil y otra fuerte, según el grado de ganancia que obtengan de isomorfismo, a costa de perder en intercambiabilidad; 9) ¿Qué cuantificadores son lógicos?, contrapone el isomorfismo de los cuantificadores semánticos respecto de la intercambiabilidad exigida a los operadores sintácticos, así como a los conectivos y constantes lógicas; 10) Algunos cuantificadores poliádicos del lenguaje natural analiza diversos procesos de reasunción, ramificación y reciprocidad entre operadores híbridos que a su vez dan lugar a procesos de cuantificación aún más complejos;

c) Comienzo de una teoría de la expresividad, la traslación y la formalización aplica la teoría de modelos a la revisión de algunos presupuestos del supervaloracionismo epistemológico a la hora de enjuiciar las situaciones de incertidumbre y vaguedad, con dos objetivos: 11) El concepto de expresividad comprueba las condiciones exigidas a los procesos de traslación de formulas bien formadas, con especial referencia a las nociones de finito e infinito, a fin de poder justificar los presupuestos que hacen posible su equivalencia e identidad; 12) La formalización: expresividad, definibilidad, componibilidad justifica los límites pragmáticos de la equivalencia lógica o analítica respecto de la equivalencia semántica, prolongando algunas sugerencias del supervaloracionismo epistemológico de Williamson o Serensen, con el que sin embargo discrepa (p. 420). Se justifican así los distintos mecanismos de traslación analítica componible mediante el procedimiento pragmático de los mapas conceptuales, contraponiéndolos a otras formas de definición y de reglas de formación semántica;

d) Resultados lógicos sobre la expresabilidad con aplicaciones lingüísticas, justifica diversos criterios pragmáticos para resolver los tres problemas más acuciantes planteados por el supervaloracionismo epistemológico a la hora de abordar las situaciones  de incertidumbre, las asimetrías y la vaguedad de las respectivas ámbitos de aplicación de estos operadores cuentificacionales: 13) La definibilidad y la indefinibilidad en un lenguaje lógico: instrumentos para los casos monádicos, justifica el criterio pragmático básico para declarar que un operador cuantitativo es definible o no, mediante las ya mencionadas técnicas semánticas y sintácticas de Ehrenfeucht-Fraïsse. Un operador cuantificacional garantiza su definibilidad si se posee un procedimiento capaz de comprobar en un caso empírico concreto el estricto isomorfismo que debe mantener con su respectiva base de aplicación, así como la conservación de las subsiguientes relaciones de equivalencia en los sucesivos niveles de lenguaje objeto o de metalenguaje en que pueda expresarse, declarándole indefinible en caso contrario; 14) Aplicaciones de la definibilidad monádica fomenta un uso pragmático de los criterios estrictos de bivalencia y analiticidad del supervaloracionismo epistémico para compatibilizar las anteriores pruebas de indefinibilidad con la existencia de diversos grados de expresividad y de monotonicidad y probar así su respectiva definibilidad; 15) Prueba EF (de la indefinibidad) de los cuantificadores poliádicos, recurre a las técnicas de Ehrenfeucht-Fraïsse (EF) para mostrar cuando los operadores cuantificacionales son definibles y cuando no, así como para mostrar sus respectivos grados de expresividad y de monotonicidad.

Para concluir una reflexión crítica. Peters y Westerstähl tratan de justificar la doble indefinición de los operadores cuantificadores de primer y segundo orden, mostrando a su vez como son recíprocamente componibles entre sí en el marco de una teoría de modelos aún más abierta. Sin embargo ahora se reconoce la incapacidad de fijar un procedimiento de cuantificación verdaderamente bisimil respecto de la correspondiente base empírica, que a su vez sea capaz de garantizar una efectiva intercambiabilidad y equivalencia de este tipo de operadores cuantificacionales en las totalidad de los mundos posibles.  Más bien se reconoce que sólo se puede garantizar un tipo de cuasi-equivalencia y de semi-similitud, que en su caso quedaría restringida a un determinado ámbito de aplicación, sin poderla ya extrapolar a todos los mundos posibles, como en principio pretendería el lenguaje natural verdaderamente tal. Con este fin se fomenta más bien un uso pragmático de este tipo de cuantificadores, sustituyendo la equivalencia por unas simples relaciones de cuasi-equivalencia, y la bisimilitud por unas simples relaciones de semi-similitud, dejando a su vez como una simple cuestión abierta un gran número de cuestiones tradicionalmente consideradas decisivas. Por ejemplo, la caracterización o no de este  tipo de operadores como unos principios ‘a priori’, analíticos, o estrictamente sincategoremáticos. Evidentemente un uso pragmático de este tipo de operadores permite evitar un rechazo injustificado de aquellos casos límite (bordeline) que no respetan el principio de bivalencia, como con frecuencia ha sido objetado por el supervaloracionismo epistemológico más estricto, como es el caso de Williamson o Sorensen. Sin embargo una vez que se ha hecho esta opción, ¿no habría que reconocer las situaciones de doble indefinición intencional y extensional ahora generadas por esta relaciones de cuasi-equivalencia y de semi-similitud, tanto respecto de la lógica de predicados de primer como respecto de los de segundo orden,  según se otorgue una primacía a los criterios de bisimilitud utilizados por el lenguaje objeto, o a los criterios de equivalencia e intercambiabilidad del metalenguaje, sin que tampoco en estas circunstancias sea posible establecer entre ellos una articulación composible verdaderamente satisfactoria? En cualquier caso el procedimiento ahora utilizado para delimitar las clases o conceptos plantea el problema de la doble vaguedad de los conceptos así relacionados, aunque se trata de un problema que ahora tampoco se ha analizado.

Carlos Ortiz de Landázuri

blog_tags(‘post’, ‘Inciarte_Llano_Metafisica_final_metafisica.html’, ‘INCIARTE, F.-LLANO, A., Metafísica tras el final de la metafísica, Ediciones cristiandad, Madrid 2007; 381 pp.’)

Deja un comentario

Archivado bajo Epistemología, Lógica

MELLOR,.; D. H.; Probability: A Philosophical Introduction, Routledge, London, 2005, 152 pp.

Carlos Ortiz de Landázuri

Probabilidad: Una introducción filosófica, comprueba el giro pragmático operado en el modo postmoderno de abordar la probabilidad, volviéndose a replantear un gran número de paradojas históricamente dadas por resueltas. En efecto, según D. H. Mellor, hoy día se admite la posibilidad de cuantificar un gran número de situaciones hasta hace poco consideradas improbables obligando a retrotraer este tipo de análisis a un momento previo. En vez de establecer límites preestablecidos entre lo necesario y lo improbable, ahora se antepone la constatación de un gran número de situaciones casuales, ocasionales, aleatorias o simplemente azarosas (chance), sin que ello sea obstáculo para postular la posibilidad de un cálculo probabilista capaz de cuantificarlas. Se prolongan así algunas propuestas del ‘Nuevo dualismo’ de Hempel, siguiendo a su vez algunas sugerencias de Ramsey, Braithwait, Lewis y Jeffrey,  a los que se dedica la monografía. Se logra así una articulación de tipo pragmático entre el triple enfoque físico, epistémico y subjetivo acerca de la probabilidad, con un objetivo muy preciso:  dejar de considerar el cálculo frecuencial como una derivación evidente de una lógica deductiva en sí misma apriorista, cuando más bien se debería retrotraer este tipo de análisis a un momento previo, a saber: tomar como punto de partida una lógica inductiva que logre hacer explícitos los presupuestos implícitos en la correlación causal de tipo humeano que el cálculo frecuencial establece entre un conjunto de eventos absolutamente aleatorios y recíprocamente independientes, sin llevar a cabo una reflexión previa sobre la importancia de este momento previo. De hacerlo, el cálculo frecuencial abandonaría su carácter apriorista, para justificarse en virtud de una correlación cuantificable que ahora se establece entre eventos que basculan entre dos valores extremos: 1, cuando la correlación es válida en todos los casos; 0, cuando la correlación no es válida en ningún caso. Por su parte el cálculo frecuencial es el procedimiento matemático seguido para fijar los posibles valores intermedios en cada caso concreto, así como para justificar las distintas evidencias epistémicas y subjetivas necesarias para lograrlo. A este respecto Mellor distingue tres posibles niveles interpretativos del cálculo frecuencial:

a) La probabilidad física viene dada por la interpretación objetiva del cálculo frecuencial cuando se refiere a situaciones casuales o simplemente aleatorias que se producen en el mundo físico. Sin embargo esta probabilidad física ya no se interpreta como resultado de un tipo peculiar de posibilidad modal compatible con otros tipos de necesidad, como ocurría en la metafísica clásica. Ahora más bien se establece entre este tipo de eventos una correlación causal humeana de tipo fáctico e hipotéticamente limitada a una serie de acontecimiento en sí misma finita, aunque ilimitadamente creciente.

b) La probabilidad epistémica interpreta el cálculo frecuencial como una medición de los diversos grados de creencias desde 0 a 1, incluyendo también las evidencias en si mismas necesarias e imposibles. La novedad estriba en la indistinta remisión inicial de todas ellas a una base empírica igualmente aleatoria, donde además de estas dos caben también el resto de las posiciones intermedias. Se contrapone así lo imposible respecto de lo improbable y lo necesario,  distinguiéndolos exclusivamente por el tipo de decisión a tomar en cada caso a la hora de tratar de hacer explícita la evidencia implícita en su respectiva base empírica, según sea 0, 1 u otro valor intermedio, sin atribuirles ya un tipo de verdad cualitativamente distinto.

c) La probabilidad subjetiva o condicionada interpreta estas mismas frecuencias como el procedimiento de confirmación de la evidencia implícita en una relación causal humeana mediante una aplicación estricta del teorema de Bayes. Según este teorema la probabilidad condicionada de un suceso (A) respecto de otro (B), es directamente proporcional a la probabilidad ya comprobada o ‘a priori’ de la conjunción de ambos eventos A y B, e inversamente proporcional a la probabilidad aislada del segundo evento B. En todo momento se presupone la referencia a eventos recíprocamente independientes, aunque interrelacionados, manteniendo entre ellos una correlación meramente fáctica.

En principio el teorema de Bayes se formula para series de eventos finitas y limitadas, pero su validez está condicionada a su vez por el número de verificaciones realizadas. Por eso el teorema de Bayes permite la sucesiva incorporación de los resultados de las nuevas observaciones, logrando así que las probabilidades ‘a priori’ pasen a ser consideradas ‘a prosteriori’, en la medida que corrigen sus resultados, según confirmen o no las anteriores expectativas. Se justifica así el paso paulatino de una probabilidad subjetiva a otra epistémica y estrictamente física, sin concebirla ya como el resultado de un cálculo frecuencial de tipo deductivo, sino más bien como resultado de un proceso inductivo que logra hacer explícita la verdad implícita contenida desde un principio en aquellos hechos de la experiencia. Para Mellor la justificación de este paso requiere el estricto seguimiento de una regla de rectitud donde estas extrapolaciones desde series finitas a otras infinitas o frecuenciales se justifican en virtud de la ley de los grandes números, previa demostración de la independencia y la simultánea intercambiabilidad de los factores interrelacionados, siguiendo a su vez el triple procedimiento probabilista ahora indicado.

Para justificar estas conclusiones la monografía da diez pasos: 1) Tipos de probabilidad diferencia las tres interpretaciones posibles de la probabilidad; 2) La probabilidad clásica contrapone las interpretaciones metafísicas o modales de la probabilidad respecto de la anterior interpretación epistémica antes señalada; 3) Frecuencias introduce la interpretación humeana de la casualidad como una simple conjunción de sucesos en sí mismos independientes y absolutamente aleatorios; 4) Posibilidades y propensiones rechaza la interpretación de la probabilidad como una simple ‘equiposibilidad última’ de tipo modal para tomarla más bien como una propensión o tendencia implícita (‘ergodic hipothesis’) que logra explicitar sus presupuestos implícitos mediante la este triple uso del cálculo frecuencial; 5) Creencias interpreta el cálculo frecuencial, incluyendo ahora también las verdades necesarias, como una medida de los grados de riesgo, al modo como sucede en el cálculo de apuestas; 6) Confirmación interpreta el cálculo de frecuencias como una explicitación de una conclusión implícita en una evidencia inductiva previa; 7) Condicionalización reinterpreta el cálculo frecuencial como un proceso psicológico de formación de creencias siguiendo el método de Bayes; 8) Génesis de las creencias reconstruye el proceso de proceso de formación de creencias subjetivas del método de Bayes mediante una clara contraposición de las probabilidades ‘a priori’ (‘input’)  respecto de las ‘a posteriori’ (‘output’); 9) Cuestiones bayesianas analiza las ventajas derivadas de esta triple interpretación del cálculo frecuencial a fin de evitar el carácter pisologista y decisionista del cálculo de probabilidades subjetivas; 10) Casualidad, frecuencia y creencia analiza la ley de los grandes números y el tipo de independencia e intercambiabilidad atribuido a los eventos a los que se aplica este triple interpretación del cálculo frecuencial.

Para concluir una reflexión crítica. Mellor ha mostrado como el giro pragmático operado hoy día en el modo de abordar el cálculo de probabilidades, exige extrapolar a todos los eventos posibles su consideración como eventos absolutamente independientes y aleatoriamente intercambiables, sin poder ya hacer excepciones. Se vuelve así a una interpretación humeana de la probabilidad como una mera ‘conjunción constante’ entre acontecimientos en sí mismos independientes y a la vez intercambiables, como si desde un principio estos presupuestos ya estuvieran implícitos en la propia experiencia, sin advertir que esto era precisamente lo que afirmaba la interpretación metafísica modal de la probabilidad, que ahora se rechaza. Evidentemente se trata de una propuesta enormemente polémica en la filosofía empirista ya en los tiempos de Ramsey y Hempel, que fueron los primeros que recuperaron estas propuestas de Hume. Pero con independencia de este debate, hay otra cuestión quizás más inmediata. A pesar de pretender ampliar las aplicaciones del cálculo frecuencial, sin embargo ahora el cálculo de probabilidades  genera un proceso cada vez más generalizado de doble improbabilidad, tanto en un ámbito teórico como respecto de sus posteriores aplicaciones prácticas a la experiencia, dado que si no se pueden justificar los dos valores extremos 0 y 1, tampoco se podrán justificar los intermedios. Hasta el punto que ahora tampoco parece que se puedan evitar las numerosas situaciones de doble indefinición contable, intencional y extensional, como desde Descartes se ha reprochado al cálculo de predicados.

Carlos Ortiz de Landázuri

Deja un comentario

Archivado bajo Epistemología, Filosofía de la matemática, Lógica

SHAPIRO, Steward; Vagueness in Context, Claredon, Oxford University, Oxford, 2006, 226 pp.

por Carlos Ortiz de Landázuri

Vaguedad en contexto recurre a la argumentación dieléctica característica de la teoría de modelos, a fin de evitar las paradojas generadas por la vaguedad de los conceptos en el superevalucionismo epistemológico. En efecto, Williamson y Sorenson tuvieron que alegar una ignorancia epistémica insuperable, o una futura aplicación del principio de bivalencia aún más estricta, a fin de evitar la aparición de casos límite en sí mismos ambiguos o una paradoja del sorites aún más irresoluble, aceptando en ambos casos el eslogan superevaluacionista, “la verdad es superverdad”, es decir, la verdad a nivel del lenguaje objeto también debe serlo a nivel del metalenguaje correspondiente, como les criticó Rosana Keefe. En cambio Steward Shapiro defiendo un superevaluacionismo de tipo pragmático, que le permite invertir este tipo de argumentos siguiendo a su vez las propuestas de algunas lógicas intuicionsitas, como la de Dummett. En su opinión, el reconocimiento de ámbitos de vaguedad a la hora de determinar el significado pragmático de un concepto debería ser compatible con la referencia a una noción de superverdad y con la aplicación de un principio de bivalencia por parte de los metalenguajes lógicos, siempre y cuando previamente se dispusiera de diversos criterios de tolerancia respecto de la posible aparición de ulteriores casos límite en un ámbito concreto de aplicación. Se evitaría así la pretensión del supervaloracionismo epistémico de excluir totalmente la vaguedad en nombre de un ideal de precisión excesivamente rígido, sin tampoco fomentarla de un modo indiscriminado, como pretende el multivaloracionismo epistémico, cuando de hecho ambas son necesarias.

Evidentemente al hacer esta propuesta Shapiro presupone en los usuarios del lenguaje una maestría en la interpretación del lenguaje conversacional de las diversas lenguas habladas, o de las diversas lógicas alternativas, concretamente en la lógica fuzzy (p. 11), a fin de evitar las dos principales paradojas generadas por la vaguedad de los conceptos, a saber: a) las contradicciones generadas por la ambivalencia verdadero-falso de los casos límite respecto a una determinada propiedad; y b) la ulterior aparición de una paradoja del sorites o del montón, que a su vez generan los casos límite de segundo orden, cuando la propiedad transitiva atribuida a este tipo de conceptos o clases genera un proceso al infinito respecto al posible número de casos límite, tanto respecto a una determinada propiedad como a su negación, sin tampoco poder evitar su extrapolación a todos los elementos de la serie. Al menos así sucede con la paradoja del calvo-melenudo, o de los montecillos-montoncetes o del culibajo-jorobadete (en el popular personaje Tientetieso o Humpty Dumpty, similar a un huevo, de Alicia en el País de las Maravillas de Lewis Carroll), sin tampoco poder ya aplicar un punto medio de inflexión entre uno a otro concepto, al modo como sucede en la contraposición cóncavo-convexo. Sin embargo sería posible introducir nuevos criterios de determinación y de tolerancia respecto a estos nuevos casos límite de segundo orden o de orden superior, si verdaderamente se logra desde un principio dar a la definición ajustada del concepto.

Evidentemente la aceptación de un sistema lógico de este tipo presupone ya una maestría a la hora de definir los conceptos y de aplicarlos por parte del locutor y del oyente, reconociendo el carácter contextualista y conversacional de los criterios de tolerancia e indeterminación fijados en cada caso. Sin embargo ahora también el propio concepto de maestría o competencia locutiva adolece de una doble vaguedad, tanto respecto a la determinación de su respectivo ámbito de aplicación como en la fijación de los respectivos grados de tolerancia, sin poderle exigir una precisión excesivamente rígida, ni tampoco una indeterminación excesivamente arbitraria.  El criterio del locutor competente ideal se postula de nuevo como criterio último para fijar su validez de los criterios de determinación y de tolerancia en razón de los distintos contextos, aunque ahora también se toma prestada de los sistemas lógicos superevaluacionistas una poderosa herramienta para evitar la aparición de este tipo de paradojas, a saber: Exigir una base de aplicación que justifique los criterios de determinación y los índices de tolerancia utilizados en cada caso para justificar el posterior uso de un concepto. Sólo así se podrá utilizar la aparición de estas mismas paradojas para localizar una nueva base de aplicación, que a su vez permita postular una posible resolución de estos ulteriores casos de doble vaguedad o vaguedad de orden superior, sin necesidad de remitirse ya en ningún caso a una noción de superverdad. Se justifica así una ampliación de la teoría de la vaguedad más allá de la base de aplicación habitual, incluyendo también la referencia a objetos de tipo abstracto, cuasi-abstracto, o incluso metafísico, epistémico o metodológico, o a la propia noción de objetividad.

Para concluir una reflexión crítica: Steward Shapiro extrapola el tratamiento superevaluacionista de la vaguedad a la justificación de todo tipo de entidades abstractas, metafísicas o incluso metodológicas, siempre y cuando a su vez se les aplique una teoría de modelos capaz de evitar las paradojas generadas por sus posteriores aplicaciones de tipo pragmático. Sin embargo para justificar este paso sería necesario disponer de una base de aplicación proporcionada, así como de unos criterios de determinación y de tolerancia ajustados, que permitieran el tránsito desde los modelos de aplicación más simple a los más complejos. Sin embargo ahora este tránsito no se justifica ni siquiera en el caso más simple del paso desde los modelos de la lógica proposicional de primer orden a los modelos de la lógica de predicados de segundo orden. Shapiro propone a este respecto una teoría marco muy ambiciosa cuyo desarrollo pormenorizado debería ser objeto de distintas lógicas alternativas que deberían fijar los distintos criterios de determinación y tolerancia en la definición de cada concepto.

Deja un comentario

Archivado bajo Filosofía del lenguaje, Lógica, Teoría del conocimiento