7 min. de lectura

 

No es raro escuchar que la ciencia “demuestra” ciertas cosas acerca de la realidad. De hecho, el epíteto “científicamente demostrado” se ha vuelto lugar común en nuestra cultura e inmediatamente otorga credibilidad a cualquier afirmación. Sin embargo, esto refleja un malentendido fundamental acerca de lo que la ciencia es y lo que ésta puede conseguir, configurando una visión sumamente naïve de la misma.

Primero, demos un vistazo a los hechos. Es fácil ver que la historia de la ciencia es un cementerio de teorías, como nos hace ver Larry Laudan en su artículo A confutation of convergent realism (1981).

La mecánica celeste de Ptolemeo, la mecánica de Newton, la hipótesis del “calórico”, el éter, la vis viva, la teoría del estado estacionario, la teoría de la generación espontánea, la teoría de los humores y un muy largo etcétera: todas ellas en algún momento se consideraron verdaderas y hoy en día están superadas.

Algunas de ellas, como la mecánica newtoniana, son aproximaciones lo suficientemente buenas como para seguir teniendo utilidad para la mayoría de los propósitos prácticos, o sea, dentro de un ámbito restringido (de hecho, ella fue suficiente para llevar al hombre a la Luna, por ejemplo).

Pero esto no quita el hecho de que son estrictamente falsas, o sea, aproximaciones a la verdad. De acuerdo con Laudan, esto nos proporciona una base inductiva para inferir que las teorías científicas que aceptamos como verdaderas hoy también terminarán revelándose falsas en el futuro.

Según Ilka Niiniluoto en su libro Truthlikeness (1987), hay tres formas básicas en que los seres humanos (entre ellos los científicos, por supuesto) podemos errar, desde el punto de vista cognoscitivo:

  • Error como ignorancia: es el fracaso en conocer una verdad que podría ser conocida. Esto da lugar a verdades parciales.
  • Error como falsedad: tiene lugar cuando aceptamos una afirmación falsa. Esto nos conduce a afirmaciones “verosímiles”, es decir, similares (pero no idénticas) a la verdad completa.
  • Error como incertidumbre: consiste en aceptar una afirmación sobre la base de información insuficiente. Esto nos lleva a verdades probables.

Históricamente, las teorías científicas han sido víctimas de todos los citados tipos de error. En la actualidad, el hecho de que haya fenómenos que no pueden ser explicados por la teoría relativista y la física cuántica a la vez —la gravedad todavía no ha podido ser subsumida bajo la teoría cuántica, por ejemplo— sugiere que se trata de verdades incompletas, y los científicos esperan que en el futuro aparezca una suerte de “teoría del todo” que explique las cuatro interacciones fundamentales de la naturaleza.

La teoría de cuerdas es la más fuerte candidata en este sentido, pero por el momento no goza de soporte experimental. Sumado al hecho de que la física relativista es incompatible con la teoría cuántica, esto sugiere que ambas son estrictamente falsas (son a lo sumo altamente verosímiles).

Además, todo nuestro conocimiento fáctico sobre el mundo es incierto. Ninguna afirmación informativa fáctica se puede conocer con certeza, a menos que sea parte de las matemáticas. Desde el punto de vista lógico y ontológico, esto sucede porque las verdades fácticas describen hechos contingentes, es decir, no necesariamente verdaderos.

Desde el ángulo epistemológico, la evidencia que tenemos para respaldarlas es variable: hoy podemos tener buenas razones para aceptarlas, pero es perfectamente posible que mañana aparezca nueva evidencia que sugiera que estábamos equivocados.

La cuestión de fondo es que no importa qué tanta evidencia reunamos a favor de una hipótesis H hasta el tiempo t: siempre es concebible que en un tiempo futuro t’ obtengamos nueva evidencia que refute a H. Ésta es una versión del famoso problema de la inducción, señalado por primera vez por el filósofo escéptico griego Sexto Empírico y redescubierto por David Hume en el siglo XVIII.

Ni siquiera la evidencia misma se salva del problema de la inducción: podemos utilizar la evidencia E a favor de la hipótesis H, pero nuestras razones para aceptar la evidencia también son discutibles en principio, si es que aparece nueva información. Esto es consecuencia de que la evidencia, en última instancia, consiste en observaciones, y la observación no está libre de teoría.

Considérese el caso de un astrónomo que observa a través de su telescopio con el objetivo de confirmar o refutar la hipótesis “Júpiter posee satélites”. Si la observación confirma la hipótesis, entonces el enunciado “observo satélites orbitando alrededor de Júpiter”, pronunciado por el astrónomo en cuestión, es verdadero. Pero la verdad de este enunciado depende de varias hipótesis auxiliares, como el supuesto de que las leyes de la óptica utilizadas para la construcción del telescopio son correctas, por ejemplo. Por otra parte, hay observaciones que nunca se hubiesen podido realizar sin la previa posesión de una teoría determinada, como sería el caso de la observación del Bosón de Higgs en 2012 en el acelerador de partículas del CERN en relación al modelo estándar. De hecho, debieron pasar meses hasta que se pudiese confirmar que la partícula detectada era realmente un Bosón de Higgs.

El punto es que no se puede refutar una sensación visual (como la del astrónomo), pero sí se puede refutar una sensación visual acompañada de los supuestos teóricos que utilizamos para interpretarla. Como sugirió Kant, observamos el mundo a través de nuestra propia perspectiva sesgada y limitada, es decir, mediante el prisma de nuestros conceptos y teorías. No podemos escapar de ellos.

Racionalidad practicable y racionalidad ideal

Estas consideraciones nos llevan al principio general de que la racionalidad está condicionada por la información disponible para el agente razonador, que no es estática sino variable.

En su libro Rationality: A Philosophical Inquiry Into the Nature and the Rationale of Reason (1988) Nicholas Rescher escribe que “la resolución racional de problemas es sensible al contexto de la información que se posee, de manera tal que lo que obviamente es una resolución razonable y adecuada en una situación de los datos, puede dejar de serlo a la luz de información adicional”. Esto es lo que quieren decir algunos filósofos cuando afirman que el razonamiento humano es no-monotónico.

La lógica clásica acepta un principio de razonamiento que dice más o menos que:

(PM) “Si de un conjunto de premisas Г se sigue que P, P se sigue de Г más una premisa extra A”.

En otras palabras, no importa cuánta información adicional adquiramos, siempre estaremos autorizados a concluir que P, mientras Г sea parte (un subconjunto) del conjunto de nuestras premisas. Éste es el principio de monotonía (PM).

Pero esta no es la forma en que los seres humanos razonamos en la vida real. Nuestro razonamiento parece ser sensible a la variación de la información, y hay cierta evidencia empírica que respalda esta hipótesis.

El problema es que, en la práctica, los seres humanos nos limitamos a razonar con información que está errada en alguno de los sentidos arriba expuestos. Esto nos lleva a una situación de tensión entre racionalidad práctica y racionalidad ideal, que Rescher llama “el dilema de la razón”: es cierto que debemos actuar como lo haría un agente perfectamente racional y omnisciente, y también es cierto que debemos actuar de acuerdo a nuestra mejor estimación según la información que tenemos disponible. Sin embargo, nuestra mejor estimación siempre se desviará de lo que haría un agente racional ideal y omnisciente, pues éste siempre estaría perfectamente informado, a diferencia de nosotros.

Esto nos conduce a la distinción entre racionalidad ideal y racionalidad practicable, entre el curso de acción realmente óptimo y el que estimamos como óptimo. Está claro que sólo la última opción está abierta para los seres humanos, tanto en la vida cotidiana como dentro del laboratorio.

¿Por qué entonces aceptar los hallazgos de la ciencia?

Sin embargo, debemos decir que esto no implica que las creencias científicas sean irracionales, pues un escéptico podría afirmar que lo mejor es no creer nada, ya que esto elimina la posibilidad de error (aunque cabe preguntarse si la ausencia de creencias es humanamente posible).

¿Acaso no es irracional aceptar una creencia sin tener garantía perfecta de su verdad? Sin embargo, como señala correctamente Rescher, aunque esta estrategia conservadora nos libraría de aceptar afirmaciones erróneas, también nos priva de aceptar aquéllas que son acertadas. En otras palabras, ganamos de un lado, pero perdemos del otro.

Tampoco me parece buena la arriesgada estrategia del ecléctico relativista para el que “vale todo”, pues caeríamos en el otro extremo: “conoceríamos” enunciados acertados (por pura suerte), pero aceptaríamos también una cantidad considerable de ideas erróneas. Ni siquiera está claro que en este caso se pueda hablar de conocimiento.

La mayoría de los filósofos hoy en día entiende que la justificación de nuestras creencias es una parte fundamental del conocimiento. Pero si vale todo y este ingrediente está ausente, pues no tenemos razón para creer en un enunciado más que en otro.

Si nuestro objetivo es “acertar” la mayoría de las veces, evitando al mismo tiempo la mayor cantidad posible de errores, lo mejor es adoptar una estrategia intermedia: aceptar solo aquéllas creencias que están justificadas con la mejor evidencia que tenemos a nuestro alcance hasta el presente, a sabiendas de que ésta siempre es limitada. De esta forma, asumimos un riesgo calculado en la búsqueda del conocimiento.

También podríamos preguntarnos si el conocimiento perfecto (libre de errores) es, en principio, una meta alcanzable por la ciencia en un tiempo finito. De momento no conozco una respuesta a este problema que sea satisfactoria, aunque me inclino hacia un dictamen negativo. Solo me limitaré a decir que, aunque dicha meta no sea alcanzable por la ciencia, todavía es razonable perseguirla siempre y cuando sea posible aproximarnos a ella en forma progresiva.

Esto último nos lleva a preguntarnos si la ciencia hace progresos.

La interrogante amerita un artículo aparte, pero no es muy polémico afirmar que sí (aunque los detalles de esta afirmación puedan ser en extremo complicados de elaborar en forma satisfactoria). Esta respuesta asume, por supuesto, que el error es una cuestión de grado. En otras palabras, que podemos estar equivocados en mayor o menor medida, y la “seriedad” de los errores no es siempre la misma.

De esta forma, el conocimiento perfecto se vuelve un horizonte hacia el que podemos acercarnos en forma constante sin nunca poseerlo. Lo que queda es una especie de “idea reguladora” kantiana. De hecho, me parece que esta constante posibilidad de error es una de las razones que justifican que la sociedad invierta grandes cantidades de dinero en investigación. Es importante que el público entienda esto.

En síntesis, no me cabe duda de que el conocimiento científico no es perfecto. Sin embargo me parece que es la mejor herramienta que tenemos para resolver cierta clase de problemas, teniendo en consideración nuestras limitaciones cognitivas como seres humanos. Hay otros problemas para los cuales la ciencia aporta datos importantes sin ser capaz de aproximarse a la solución correcta. Éste es el terreno de la filosofía. El conocimiento aquí es quizá más incierto que en el campo científico pero, nuevamente, es lo mejor que podemos hacer desde el punto de vista racional.

¿Hay alternativas a la razón?

Para ser más claro, lo que defiendo es que aquellos problemas que (al menos de momento) no entran en la esfera de la ciencia deben ser atacados recurriendo a la filosofía, no a la fe, la intuición sobrenatural, u otro método alternativo a la razón.

En otras palabras: debemos actuar siempre dentro de los límites de la razón. No es correcto inferir que, dado que la razón tiene límites, existe otra herramienta más poderosa (la fe, por ejemplo) que no se encuentra limitada de la misma forma. Esto sería tan absurdo como como inferir que, como mi llave inglesa no puede transformar un escarabajo Volkswagen de los años 60 en un Tesla modelo 3, existe otra herramienta que sí puede hacerlo.

Que la razón esté limitada no prueba nada acerca de la efectividad de otras herramientas alternativas en la búsqueda del conocimiento. Para mostrar que vale la pena suspender la razón en ciertas cuestiones de la vida deberíamos brindar un argumento (¡racional!) aparte y, personalmente, no he encontrado ninguno que me parezca aceptable.

En efecto, cuando requerimos a alguien que nos explique por qué hace algo, no hay otra forma de entender ésta pregunta más que como una solicitud de buenas razones, de modo que no tiene sentido alguno preguntarse sobre el porqué de la fe o la intuición sin posicionarse dentro del ámbito racional.

Es probable que la mejor postura ante lo que está más allá de nuestra racionalidad practicable sea simplemente aquélla de Wittgenstein: “De lo que no se puede hablar, es mejor callar”.

 

¿Qué te pareció este artículo?

1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (8 votos, promedio: 5,00 de 5)

Licenciado en filosofía por el Instituto Superior de Estudios Humanísticos y Filosóficos (ISEHF) en 2015. Fue profesor de filosofía del lenguaje en el ISEHF e investigador independiente. Directivo de la Sociedad Paraguaya de Filosofía. Es columnista de Ciencia del Sur, donde también es editor de ciencias humanas y sociales. Su trabajo está incluido en el libro "La ciencia desde Paraguay" (Servilibro).

Compartir artículo:

2 COMENTARIOS

  1. Excelente artículo, aunque algunas ideas se contraponen con la manera como algunos como yo busca avanzar el conocimiento. Por fin tenemos en Paraguay un filósofo de la ciencia!

  2. Un honor contar con el aval de un gran representante de la Ciencia nacional como usted, señor Cubilla. Me quedé con la curiosidad: en qué manera su visión se separa de las ideas de mi artículo? Gracias por el comentario.

Dejar un comentario

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí