martes, 8 de diciembre de 2009

CAUDILLOS EN HISPANOAMÉRICA

CAUDILLOS EN HISPANOAMÉRICA
1800-1850
(Síntesis de la obra de John Lynch)

El caudillismo es el liderazgo político, generalmente basado en el prestigio personal con rasgos autoritarios.

En Hispanoamérica, este sistema de liderazgo es tradicional e incluso cultural, surgido con los procesos de lucha independistas para librarse del yugo español. Posteriormente se consolida con el nacimiento de la República.

John Lynch, nos señala tres rasgos básicos del caudillismo originario: “Una base económica, una implantación social y un proyecto político” (Pág. 150).

En cuanto a su estructuración plantea que seguía el esquema terrateniente-campesino; es decir de obediencia y lealtad al terrateniente. Líder y terrateniente, padrino y patrón, el caudillo podía entonces arriesgarse a conseguir poder político, casi en todos los casos obligando a los campesinos a seguirlos.

Los caudillos locales y nacionales diferían unos de otros por el grado de poder que poseían, antes que por el papel que desempeñaban.

Algunos historiadores distinguen diversas clases de caudillos y denominan “cacique” al caudillo local. “cacique” es una palabra arawak cuyo significado corresponde a “jefe”. Los españoles introdujeron esta expresión en México y Perú y lo utilizaron para designar a un jefe indio cuyos poderes fueran de carácter hereditario, incorporado al sistema autoritario español.

Así los caciques tienen una mentalidad rural y los caudillos una mentalidad urbana.

El caudillismo fue una primera fase de la dictadura y en determinadas circunstancias resultan intercambiables. Cuando el caudillo emergió desde el ámbito local a la historia nacional, cambió el poncho por el uniforme y la estancia por el palacio, y podía ser contemplado como un ser autónomo y absoluto.

En Hispanoamérica colonial, el gran aparato estatal generaba un liderazgo de naturaleza dual: el liderazgo de los propietarios y el liderazgo de los desposeídos. Los desposeídos buscaban líderes y formaban bandas para defender y mejorar su subsistencia; en respuesta los propietarios organizaban también lo suyo para aniquilar a los disidentes.

Los funcionarios del último período colonial, en Argentina por ejemplo, no distinguía entre gauchos buenos y malos, sino que los consideraban a todos ellos como vagos y ladrones, mientras que los propios gauchos se consideraban como hacedores de libertad y creían en la propiedad comunitaria del ganado. En Venezuela, la ocupación de los llanos siguió un camino diferente, aunque con un destino similar. Sus jefes eran efectivamente líderes de bandas criminales que tenían su origen en el llanero, continuaba con el cuatrero, el bandido y una secuencia que bien podría conducir a la figura del guerrillero.

En México, al menos en los que respecta a las regiones del centro, tenían un número mayor de instituciones y funcionarios que Argentina o Venezuela, y normalmente el estado colonial funcionaba como un poderoso mecanismo disuasor que contribuía a mantener el orden.

Por otro lado, el poder colonial siempre permitía a los hacendados de cualquier país ejercer una justicia de carácter privado. El patrón se convirtió en cacique y ejerció el poder de intermediario entre sus propios dominios y el mundo exterior. Sin embargo, en el norte del Perú, la existencia de la clientela constituía un signo de debilidad antes que de poder: Los propietarios utilizaban una influencia de carácter patriarcal y política para indemnizar por los posibles fracasos económicos.

Pocos lugares en el mundo hispano estuvieron a salvo del bandidaje, producto del empobrecimiento de unos y el enriquecimiento de otros. El bandidaje social no tenía ideología y miraba en dirección al pasado y no en busca de un proyecto revolucionario. Los gauchos por ejemplo intentaban rescatar las costumbres tradicionales. En los llanos de Venezuela, el robo del ganado, el pillaje y otras formas de conflicto, fueron una forma de vida para el llanero.

Cuando en 1808, la invasión francesa de España cortó los lazos de unión de la metrópoli de sus colonias, generó una crisis de autoridad, el panorama político se modificó. El Estado colonial se derrumbó, compitiendo los diferentes grupos sociales entre sí para llenar el vacío que se había producido. Para competir y ejercer su autoridad en tales circunstancias un soldado tenía que ser un político y los políticos tenían que controlar a los soldados. Al tiempo que una lucha por la independencia, estas guerras se convirtieron en una competición por el control del poder. El caudillo entonces fue un vástago de la guerra y un producto de la independencia.

La revolución que se produjo en Buenos aires en Mayo de 1810 fue un movimiento civil con una base militar. Los nuevos líderes eran revolucionarios profesionales, un político profesional como Bernardino Rivadavia y oficiales de carrera como San Martín, que transformaron la revolución en un negocio, hecho que no era popular entre las élites regionales, cuyos intereses políticos, sociales y económicos a menudo diferían de los de la capital, produciendo una gama de caudillos que colaboraban con la revolución pero también se dedicaban al saqueo. Su ventaja era que se autofinanciaban, por ello Lynch dice que el caudillaje era una forma barata de hacer la guerra. Algunos que empezaban modestamente acabaron convirtiéndose en poderosos terratenientes de la República.

Los caudillos de Argentina exigían autonomía más que secesión; en Uruguay los líderes criollos intentaban liberarse de Buenos Aires tanto como de España, porque veían nueva situación de dependencia, su principal exponente fue José Gervasio Artigas, un caudillo gaucho que nació en Montevideo en el seno de una familia terrateniente y militar, y comenzó como líder de una banda de ladrones de ganado, en 1811 se unió al Movimiento independista de Buenos Aires, se convirtió en un importante caudillo nacional y político de Argentina Y Uruguay.

La revolución de mayo pasó al Alto Perú, por ser productor de plata y una zona estratégica para la contrainsurgencia: Las guerrillas del Alto Perú, los montoneros de la sierra y los llanos, constituyeron de forma espontánea bandas que se mantenían unidas más por la lealtad personal hacia un caudillo con muchas probabilidades de éxito que por la disciplina militar. Esta lucha caudillista allanó la llegada de los “libertadores” con mayor facilidad. Los montoneros del Perú Central jugaron por ejemplo un papel importante para la independencia.

La guerra de Venezuela fue más larga, más dura y más sangrienta que en Argentina. Los caudillos de los llanos estaban más comprometidos con el enemigo, al principio se enfrentaron luego cedieron ante los objetivos militares de Bolívar.

El campo mexicano, al igual que el venezolano, era una zona de poder terrateniente y de protesta encarnada en el bandidaje, mucha competencia por el control del liderazgo. Los rebeldes de México habrían continuado siendo bandidos si no hubieran sido movilizados por líderes excepcionales que no conseguían el apoyo desde sus bienes personales, sino a partir de las bases de poder a las que tenían acceso gracias a su posición especial y su prestigio. México fue cuna de dos grandes curas-caudillos y numerosos clérigos que se convirtieron en guerreros: Miguel Iglesias cura de Dolores, cuando entró a Guadalajara victorioso, fue recibido como un rey. Su continuador el obispo José María Morelos, se convirtió en el primer jefe de la nación.

Finalmente dice Lynch, la guerra de la independencia en Hispanoamérica no la ganaron los caudillos ni la guerrilla, sino los ejércitos regulares, pero benefició a los caudillos y dibujó más claramente su perfil, los convirtió en héroes militares.

Terminada la guerra de la independencia, Hispanoamérica se condujo gubernamentalmente en forma dual, por un lado el constitucionalismo y por el otro el caudillismo. Dichos sistemas no se excluían necesariamente. Un caudillo podía gobernar al amparo de la constitución como no también. Los hombres de Estado tales como Bolívar, Santander, San Martín y Rivadavia no fueron caudillos, se trataba de políticos profesionales que preferían los ejércitos regulares que a las bandas armadas, en cambio los caudillos tenían en su mayoría un gran vacío cultural y por tanto carecían de una visión del cambio político y el progreso constitucional.

La historia caudillar de cada nación tiene sus propias peculiaridades: Argentina fue gobernada por un puñado de caudillos, en parte de carácter civil y en parte militar. En la mayor parte de las provincias, todo aquel que intentaba gobernar constitucionalmente estaba abocado al fracaso debido al personalismo existente.

En Venezuela, después de la guerra, Bolívar trató de separar el poder político y poder militar, no lo consiguió. Si debía organizarse de forma pacífica, tenía que satisfacer y escoger buenos caudillos. Así lo Hizo, otorgó cargos regionales y les proporcionó tierras. El 16 de julio de 1821, el Libertador promulgó un decreto que institucionalizó eficazmente el caudillismo.

En México, la independencia lo proclamó un comandante realista, Agustín de Iturbide, quien en 1822 persuadió a la élite criolla, la iglesia y los militares, para que le aceptaran como “emperador constitucional”. Iturbide tenía todas las características de un caudillo: Era terrateniente, soldado, tenía un carácter personalista y empleaba el patronazgo. Pero México era más turbulento, los debates eran más intensos y la competencia por el poder era más dura, un caudillo difícilmente podía encontrar su espacio político, como lo conseguían en Argentina o Venezuela. Tanto en México como en Perú sus ejércitos eran aparatos militares heredados de España. Sus mandos eran criollos que habían hecho la carrera militar.

Todas estas contradicciones, generaron los conflictos de nacionalidad que ya conocemos, no se pudo estructurar un estado nación auténtico y autónomo. Los caudillos protegían celosamente sus recursos nacionales, tierra y cargos, era su poder. No les interesaba la nación ni el nacionalismo. El sistema perpetuaba el personalismo y retrasaba el proceso de construcción del Estado. Lo que indudablemente no permitió la acumulación de capital nacional, hecho que posibilitó grandemente la penetración económica imperialista extranjera primero inglés luego estadounidense, que subyugaron nuestras economías, preservando el sistema imperante paralelo al desarrollo del capitalismo.

En Síntesis: Los caudillos han pasado a la historia como instrumentos de la división, destructores del orden y enemigos tanto de la sociedad como de ellos mismos.

El dominio de los caudillos paso de ser local a ganar una dimensión nacional y, también a este nivel el poder supremo era personal, no institucional.

El caudillo pronto se adoptó a la sociedad civil y se convirtió en representante de la clase dominante. En algunos casos de una amplia red de influencias de carácter familiar que se apoyaba en las haciendas regionales. A escala nacional surgió el caudillo benefactor que atraían a su clientela política mediante promesas cuando llegaran al poder. Simplemente florida retórica que nunca han cumplido y que dura hasta la actualidad.

En argentina, los caudillos gobernaban dictatorialmente, sin constitución. En Venezuela aparentaba más constitucionalidad y no militar, más organización del Estado con una burocracia más o menos eficiente. En México, había más anarquía social, se instauró un caudillismo más popular y de servicio los más necesitados con el Cura Hidalgo a la cabeza.

Argentina, Venezuela y México, cada uno a su manera demostraron el mismo hecho: la anarquía de guerra, las expectativas de la paz, los desordenes populares, la llamada de socorro al caudillo protector y el consiguiente estado-caudillo, principalmente en Argentina y Venezuela: En México, el bandidaje rural y la rebelión crearon más anarquía que asustó e indignó a la élite mexicana. En otras partes de Hispanoamérica el paso de la anarquía a la seguridad no siguió este modelo necesariamente, los sectores dominantes podían imponer una constitución autoritaria, caso Chile por ejemplo, Colombia y Perú.

jueves, 3 de diciembre de 2009

MECÁNICA CUÁNTICA Y LA CONTRADICCIÓN CORPUSCULAR-ONDULATORIA

La contradicción corpuscular-ondulatoria
en la mecánica cuántica

Fragmento del libro Problemas filosóficos de las ciencias contemporáneas
Escrito por nuestros camaradas presos en la cárcel de Soria inmediatamente antes de la dispersión
Publicado en 1989 por la Editorial Contracanto

Desde los comienzos de la física clásica -especialmente de la mecánica-, y más aún durante los dos últimos siglos, se pudo comprobar la importancia de las leyes de la mecánica para el desarrollo de casi toda la teoría y la práctica físicas. Pero a fines del siglo XIX estalló la crisis de la física, teniendo como resultado el rechazo del determinismo clásico -mecánico- y la adopción del concepto de causalidad -en su forma estadística- como imprescindible a la ciencia e inherente al hecho físico. Pero muchos físicos -en general, ajenos a las aportaciones de la dialéctica hegeliana y, más aún, del materialismo dialéctico- interpretaron estos hechos creyendo que se derrumbaba toda objetividad, que en el mundo reinaba la anarquía y que las cosas no obedecían a ninguna ley.

A la creación de este estado psicológico de enfervorizado subjetivismo contribuyó sobremanera el denominado principio de indeterminación de Heisenberg, con el que se puso en entredicho el principio de causalidad, esencial para toda la ciencia (aunque no es justo decir que de este embate de incertidumbre saliera derrotada la causalidad, pues comparando ésta, en su estado actual, con la visión que antiguamente se tenía de ella observamos sin duda progresos evidentes).

De todas maneras, y pese a que se nos quiere hacer creer lo contrario, no ha sido la incertidumbre la principal aportación teórica y práctica de la mecánica cuántica a la física moderna, sino en todo caso, el concepto de discontinuidad, que aparecía arrumbado desde los tiempos de Newton y a pesar de su teoría de las partículas de la luz.

Fue Max Planck quien defendió la idea de los cuantos energéticos, manteniendo que la energía emitida en la radiación del cuerpo negro era discontinua, lo que permitió formular la ley de la radiación que explicaba la catástrofe ultravioleta. Posteriormente, y basado en el postulado de Planck, Einstein dio solución al problema fotoeléctrico. De este modo, la antigua idea filosófica abandonada por la física -la discontinuidad- volvía a entrar por la puerta grande en el campo de las Ciencias Naturales.

Esto supuso un duro golpe para las teorías de la luz que destacaban únicamente el aspecto ondulatorio o continuo (excluyendo el corpuscular). Ahora bien, el carácter ondulatorio de la luz -antiguamente demostrado- acababa de ser refrendado por el electromagnetismo de Maxwell. Se hacía necesario, por lo tanto, lograr una concepción única que incluyera estos dos aspectos contradictorios. No obstante, todo esto resultaba muy chocante con los conceptos predominantes por entonces, cuando hacía estragos entre los hombres de ciencia la novísima concepción positivista con sus diversas variantes, de manera que las contradicciones que se planteaban no sólo no eran resueltas, sino que se complicaban en grado sumo. La dialéctica pugnaba, así, por abrirse paso -una vez más- en la física.

En estas circunstancias Bohr dio un paso adelante, combinando las ideas cuánticas de Planck con el modelo atómico de Rutherford, lo que le permitió aproximarse a una determinación más precisa de la estructura atómica. La teoría de Bohr, basada en el cuanto de Planck y en la teoría de los fotones de Einstein, permitía explicar las principales leyes de la radiación térmica y la espectroscopia. Con estos éxitos, la naturaleza cuántica de la luz y el carácter cuántico de los procesos que tienen lugar en los átomos, se volvieron incontestables: las propiedades de todo lo que nos rodea se manifiestan de forma discontinua, es decir, en cuantos o cantidades discretas. Pero esta discontinuidad, que es sólo un aspecto de la realidad, no debemos absolutizarla. De ahí que el modelo de Bohr sólo fuera verdad en parte, ya que no tenía en cuenta las propiedades ondulatorias de las partículas atómicas, resultado de su propio movimiento e interrelaciones.

A principios de la década de los veinte, cuando comenzó a despuntar la teoría de la mecánica cuántica, De Broglie planteaba que todos los cuerpos emiten en su movimiento ondas de materia, las cuales no necesitan, para propagarse, de ningún medio como el ya olvidado éter. Y aunque estas ondas de materia se mostraban ciertas para los el electrones, años más tarde los físicos postularon la doble esencia corpuscular-ondulatoria para todas las micropartículas. Se comprobó en la práctica que el electrón se comporta tanto como onda, que como partícula. Esta evidencia invalidó hasta cierto punto el modelo atómico de Bohr, pues el carácter ondulatorio del electrón impedía representarlo por órbitas sencillas y planetarias.

La dialéctica entraba de nuevo en la física por la vía de los hechos; pero los físicos aún mantenían un batiburrillo de concepciones idealistas en sus cabezas. El resultado fue una gran confusión y el resurgimiento de las más absurdas teorías positivistas.

Era, pues, necesario unificar en la misma teoría la hipótesis de Planck sobre los cuantos y la de De Broglie sobre las ondas de materia, si es que se quería reflejar los dos aspectos opuestos del mundo de las micropartículas.

Schrödinger y Heisenberg, por separado y de distinta manera, coincidieron en aportar una nueva visión de la física de las micropartículas, naciendo, así, la teoría cuántica. En realidad, no habían hecho otra cosa que continuar por el camino que De Broglie había abierto tratando de modificar la ecuación clásica de la partícula, de tal manera que reflejara, además de las propiedades corpusculares, las ondulatorias.

De la ecuación de Schrödinger se deduce que los electrones sólo se pueden hallar en el átomo en los estados de energía permitida (nubes de probabilidades), estados donde la probabilidad de encontrar el electrón es muy diferente de cero. Por lo tanto, cuando un electrón salta de una órbita a otra, su energía no cambia arbitrariamente, sino en una magnitud exactamente determinada, igual a la diferencia energética que existe entre los dos niveles en que tiene lugar el salto.

Es a partir de este momento cuando comienza realmente el debate en torno a los distintos conceptos que se van acuñando. ¿Es la partícula un corpúsculo o se trata de una onda? A esta pregunta respondían de diferentes maneras. Para unos, los dos aspectos contradictorios se excluían mutuamente, de manera que sólo podían tratarse por separado. Para otros, no se trataba ni de una onda ni de una partícula, sino de una tercera cosa: su síntesis. Por último, también los hay para quienes la partícula desaparece por completo y sólo queda la onda. Nos encontramos incluso con exposiciones verdaderamente graciosas, como el caso del electrón que incide sobre un vidrio azogado al 50 por cien; la pregunta que se plantea a ese supuesto es la siguiente: ¿se irá el corpúsculo por un lado y la onda por otro?

No resulta insólito que se den interpretaciones de este tipo, cuando se elevaron a la categoría de principios ideas como las de complementariedad, de tan triste memoria. O que otros, al tener que enfrentar los dos aspectos de la contradicción, recurran al arte de la prestidigitación para hacer aparecer esa tercera cosa. No debemos perder de vista que la mecánica cuántica, tal como hoy día se la conoce, es la teoría de las leyes de interacción de las partículas que conforman los átomos y, por extensión, de las moléculas y los cristales, aunque aclara muy pocas de las características del núcleo atómico, donde se revela muy débil. La razón de esta debilidad estriba en que la teoría cuántica no considera para nada la naturaleza contradictoria interna de las partículas elementales (como electrones y protones), su régimen de movimiento característico, sus leyes, etc., sino únicamente las manifestaciones exteriores de aquellos procesos internos (la carga eléctrica, la masa gravitatoria, el espín, los tiempos de desintegración, etc.). O sea, que las regularidades exteriores de los procesos innatos y característicos de las partículas elementales en sus manifestaciones recíprocas, junto al rasgo cuántico-discontinuo de estos procesos, es la base natural objetiva que permite levantar el edificio teórico de la mecánica cuántica.

A pesar de ello, la mecánica cuántica supone un avance de extraordinaria importancia en el conocimiento humano de la naturaleza, ya que explica, en lo esencial, los procesos del movimiento atómico y molecular. Se puede decir que la mecánica cuántica es la química de las partículas elementales: ha aclarado el carácter electrónico cuántico de la valencia química, la periodicidad del movimiento atómico, la naturaleza de las fuerzas que originan y conforman los átomos y las moléculas, el movimiento semilibre de los electrones en las estructuras cristalizadas de los metales... Pero no lo explica todo. La física está a punto de dar a luz una nueva teoría que será a la mecánica cuántica lo que ésta es a la química. Esta teoría explicará, sin duda, el carácter y la naturaleza interior de los procesos innatos subyacentes a las partículas elementales que, en su desarrollo, posibilitan sus múltiples transformaciones cualitativas y las propiedades exteriores de interacción que la mecánica cuántica describe.

La objetividad cuántica

Dice M. Ferrero, sobre el núcleo irreductible físico-filosófico de Bohr, Heisenberg, etc., que el precio a pagar para poder declarar a la mecánica cuántica teoría plenamente satisfactoria es simplemente renunciar a una explicación objetiva (porque incluye una referencia a nosotros mismos) y causal (porque aunque la propagación de la ecuación de Schrödinger es causal los resultados no se pueden explicar causalmente) de los fenómenos observados; es renunciar a la noción de realidad de la física clásica (de la cual participan, sin embargo, la mayor parte de los científicos) y relegarla a un segundo plano colocando en el primero el conjunto de nuestras observaciones, de nuestros actos (1).

Es cierto que la mayoría de los científicos y naturalistas aceptan la objetividad del mundo como algo independiente de nuestros actos, de nuestra voluntad. No obstante, cuando se considera la teoría cuántica en versión de la Escuela de Copenhague, todo aparece confuso y oscuro, pues no se sabe bien dónde termina la objetividad y dónde comienza la subjetividad. La imposibilidad teórica de la física cuántica de explicar totalmente los procesos reales que transcurren en las micropartículas conduce a los afiliados al idealismo cuántico de Copenhague a negar la causalidad, la objetividad, la trayectoria de las partículas, etc., ofreciendo a cambio indeterminaciones (que no dejan de estar bien determinadas, cosa paradójica), complementariedades (que en su creencia enfervorizada aplican también a las artes y las letras) y escurridizos observables que dejan confusa a cualquier persona de sano espíritu.

Naturalmente es tentador decir que el electrón debe haber estado en algún lugar entre las dos observaciones -dice Heisenberg- y que... debe haber descrito algún tipo de trayectoria... Aún en el caso de que resulte imposible llegar a conocerlas... esto sería un abuso del lenguaje que no está justificado (2). Abuso del lenguaje -la trayectoria- que resume gráficamente las cualidades más elementales del movimiento: el desplazamiento mecánico. Claro que Heisenberg no nos dice nada de la burla del lenguaje que entraña su interpretación de las relaciones de indeterminación que él mismo acuñó y tradujo a filosofía, y que, presuntuosamente, no justifican aquella trayectoria. Porque si bien reducir el movimiento a una trayectoria no deja de ser, en su abstracción, un abuso, pues se desconsideran otras mil cualidades -y sólo en este sentido-, realmente sí que es una verdadera burla del propio significado de las palabras decir, como hace Landau a tono con Heisenberg, que una partícula no puede encontrarse en un punto determinado del espacio y poseer al mismo tiempo un impulso determinado (3); o, a modo de Dirac: cuando una de las variables q o p esté completamente determinada, la otra estará completamente indeterminada (4) (esta última expresión de Dirac es desde luego más prudente que la de Landau). Y si además admitiesen que esa indeterminación es una imposibilidad inherente a la teoría cuántica, no a la realidad, al objeto, entonces no tendríamos mucho que objetar. Pero no es esto lo que hacen Heisenberg, Landau y Dirac, quienes concibiendo esa indeterminación no como una limitación propia de la teoría sino como una cualidad propia de los objetos, introducen, desde sus cabezas, el subjetivismo en la física.

La trayectoria, como expresión concentrada del desplazamiento mecánico de los cuerpos físicos, existe objetivamente, independientemente de que podamos o no describirla y de que sea recta o sinuosa. Negarla supondría contradecir los principios universales de conservación de la física (momento, energía, etc.), sin excusa por la forma que éstos adopten en el movimiento concreto de una partícula.

Si por el mero hecho de no poder observarla en determinados fenómenos adujéramos que no tiene existencia real, estaríamos obligados a recurrir al mundo de los espíritus para justificar su aparición en cada una de sus observaciones, o, en su defecto, negar la misma existencia de ella. Y no es otra cosa lo que hacen los de Copenhague: se hace una primera observación y sabemos perfectamente dónde se encuentra el electrón; no se hacen observaciones y nadie sabe dónde está, pues podría estar en cualquier lugar; se vuelve a realizar una nueva observación y nadie duda dónde se encuentra. Parece como si el electrón se materializara gracias a nuestra intervención voluntaria, para luego desmaterializarse y difuminarse por el espacio en sus ondas gracias a su libre albedrío. En cada observación, las ondas se dan cita en un punto y aparecen como una partícula superconcentrada; cuando se las deja de observar se derraman en todas direcciones como los hijos de la torre de Babel. Esto es realmente poco serio.

Y es que no se puede salir airosos de la prueba científica cuando únicamente admitimos la existencia de lo observable sensorialmente. Son tantas las cualidades objetivas -tales como espacio, tiempo, movimiento de la luz, etc., etc.- que el hombre no puede experimentar por medio de los sentidos -de aquí la necesidad de la abstracción racional para percatarse de su existencia- que, si despojásemos a nuestro mundo de ellas, éste perdería todo sentido.

El principio de indeterminación de Heisenberg es en sí contradictorio, pero no en el sentido de que refleja las propiedades cinemáticas del movimiento de la partícula, sino por su imposibilidad en lograrlo. Es decir, no se trata de una contradicción inherente al movimiento natural de la partícula, sino una contradicción que está imposibilitada para describir tal movimiento. Y no porque tal movimiento sea indescriptible; al contrario.

En tanto la misma teoría cuántica no niega la determinación de los parámetros o variables del movimiento de la partícula (aunque considerándolos por separado, de manera excluyente o no conmutativa), está admitiendo su existencia objetiva, independiente del aparato con que las midamos.

Si debemos encontrar una explicación al por qué dentro de la teoría cuántica tal movimiento resulta indescriptible, debemos fijarnos, no en la interpretación subjetiva que de esta situación da el idealismo copenhaguiano -que mutila a la Naturaleza de las propiedades objetivas más elementales-, sino en la hipótesis de puntualidad de la partícula, admitida en la teoría cuántica, y que combinada con la hipótesis de discontinuidad de la acción (h) son insuficientes -en el contexto de la causalidad de Schrödinger- para poder penetrar la cualidad contradictoria de aquel movimiento.

En este sentido, tales relaciones de indeterminación, precisamente determinadas como Δx • Δp ~ h, no son más que una expresión negativa, y por tanto insuficiente, de las características del movimiento de cada partícula. Estas características se harán presumiblemente transparentes a nuestro conocimiento cuando se rompa con la hipótesis del carácter puntual de la partícula. Para ello es necesario considerar a la partícula, dentro de la teoría cuántica o bien dentro de una teoría más amplia, en su totalidad contradictoria interna -camino por el que se avanza actualmente-, y no sólo en su discontinuidad y en su conexión con los demás fenómenos y partículas.

Estamos, pues, ante una frontera del conocimiento delimitada por los postulados de partida de la mecánica cuántica, pero no por la materialidad de los microobjetos, porque éstos no imponen ningún límite al conocimiento humano, ya que el único límite que éste tiene es el del carácter histórico de su desarrollo. Para la física clásica resultaba imposible explicar la ley de la radiación porque en ella no tenía cabida la hipótesis de los cuantos de acción; hoy es imposible describir cabalmente la cinemática de la partícula porque no se ha desvelado aún la naturaleza de los procesos internos inherentes a ella -a lo que tanto se oponía Heisenberg-. El principio de indeterminación es, pues, una aproximación burda y muy interesada a la realidad objetiva, ya que no sólo ignora hechos fundamentales sino que, en cuanto se le presenta como una panacea universal, se los esconde.

Al llegar a este punto es preciso apreciar que no solamente se esconden unos hechos que se ignoran, cosa cierta, sino que también se les desconsidera y hasta niega. Y todo para introducir desde fuera las concepciones del idealismo. Veamos: Heisenberg, entonces ayudante mío -dice M. Born-, puso súbitamente fin a este período. Cortó el nudo gordiano con un principio filosófico y sustituyó el método de adivinación por reglas matemáticas. Este principio dice que los conceptos e ideas que no corresponden a hechos físicamente observables, no deben ser utilizados en las descripciones teóricas (5). Y como las órbitas electrónicas del átomo eran inobservables, simplemente se las desechó de la teoría. El nudo, en realidad no se cortó: se le desechó. ¡Cuántas cosas más debieron desechar Heisenberg y Born por inobservables! Pero no, ellos sólo desterraron del mundo unos cuantos estorbos metafísicos, como trayectoria, determinación, causalidad, objeto, etc., y se quedaron agarrados a la tabla de los observables, las experiencias y el conocimiento; realmente, muy poco para salvarse.

Pero dejamos que el mismo Born nos lo explique más claramente: La filosofía subyacente a mi teoría la he revisado todavía durante años y la expuse de forma muy breve en el escrito conmemorativo del sesenta aniversario de Heisenberg. Viene a afirmar que las predicciones científicas no se refieren directamente a la ‘realidad’, sino a nuestro conocimiento de la realidad (6). Como vemos, M. Born, derrotado por las limitaciones de la teoría cuántica -que pudieron más que su fe materialista-, terminó abrazando llanamente el idealismo, refugiándose en Mach. Sí, porque, ¿qué ciencia es esa si no trata directamente de la realidad objetiva? Con ese conocimiento de la realidad Born está encubriendo su empirismo, al considerar únicamente los datos que nos ofrece la realidad objetiva por medio de los aparatos, no la propia realidad objetiva que es lo que realmente interesa a la ciencia. En definitiva, la ciencia debe ocuparse de las sensaciones que nos produce el mundo o, en palabras de Born, las predicciones científicas se refieren a nuestro conocimiento de la realidad. Pero, ¿qué son las predicciones sino una forma de conocimiento que tiene por base las regularidades existentes en el mundo objetivo, no las regularidades de nuestro conocimiento de la realidad? Esto, desde luego, es idealismo subjetivo, más cuando se dice que toda experiencia... ha de poder comunicarse por los medios humanos de expresión y que es sobre esta base como podremos aproximarnos a la cuestión de la unidad del conocimiento (7), como afirma por su parte N. Bohr. Vieja cantinela idealista que Engels criticó a Dühring en su Anti-Dühring y Lenin a Mach en su Materialismo y empiriocriticismo y que sólo admite una contestación materialista para todo aquel que no ponga en duda la objetividad del mundo: la unidad del conocimiento es el reflejo de la unidad del mundo, que se basa en su materialidad. La frase de Bohr de los medios humanos de expresión no nos aclara nada, pues la pregunta pendiente seguiría en pie: ¿Consideran estos medios humanos de expresión que lo primero es el mundo exterior, la materia -como hace el materialismo- o, por contra, que es el conocimiento, como hacen Born, Bohr y el idealismo?

Tampoco es cierto que nuestro conocimiento objetivo dependa para nada de los medios que hemos utilizado para obtenerlo. El conocimiento objetivo, en cuanto se le obtiene como tal, no depende de ningún instrumento, porque entonces no sería objetivo, ni tendría ningún sentido buscarlo; el conocimiento, si se admite esa suposición, sería meramente experiencia y la experiencia de cada uno no tendría nada que ver con la de los demás; es más, mi anterior experiencia no serviría para nada ante cada nueva experiencia y la ciencia no tendría objeto. Esta es la posición de Bohr cuando nos sirve en bandeja de plata la física teórica.

El hecho de que en la física atómica -dice N. Bohr-, donde nos encontramos con regularidades de la mayor exactitud [¡!], sólo pueda alcanzarse una descripción objetiva gracias a incluir en la explicación de los fenómenos una referencia explícita a las condiciones experimentales, subraya de forma nueva la inseparabilidad que existe entre el conocimiento y nuestras posibilidades de inquirirlo (8). Posibilidades de inquirir el conocimiento nunca le han faltado al hombre, es cierto; cada forma concreta de materia siempre nos ha requerido una determinada práctica experimental, unos aparatos, conscientes de que no es lo mismo una reacción química de esterificación que la fisión nuclear. Pero tanto en un caso como en el otro somos conscientes de que el conocimiento adquirido, por su contenido objetivo, es independiente y por lo tanto separable del instrumento, que esterificaciones tenemos no sólo en nuestros tubos de ensayo sino también de distintas maneras en los seres vivos, y que fisiones nucleares tenemos no sólo en las bombas atómicas sino también en las estrellas. Y allí no hay aparatos. El único aparato -si se pudiese hablar así- sería que una parte de la materia condiciona los procesos de la otra parte de la materia.

Del hecho de que en la física atómica las condiciones experimentales -el aparato- deba considerarse por su influencia en lo que se experimenta -las micropartículas-, cuando tal influencia realmente existe (en la física clásica esta consideración es por regla general innecesaria), se desprenden tanto las regularidades de la mayor exactitud de los átomos y partículas, como las regularidades de las condiciones experimentales, pero en ningún momento es lícito concluir que el conocimiento objetivo adquirido de las micropartículas dependa por su inseparabilidad de la medición, o del aparato, sino todo lo contrario. Prueba de ello es la existencia misma de las leyes de la mecánica cuántica, extensibles a todos los microobjetos -en sus aspectos de discontinuidad, interacción, etc.- que permiten predecir y obtener las regularidades y azares de los fenómenos atómicos en las condiciones del experimento que se quieran -en principio-; o sea, extensibles también, y sobre todo, a los fenómenos atómicos en su medio natural, sin aparatos, tales como el movimiento electrónico de los átomos, moléculas, cristales, etc. Dicho de otra manera: la influencia del aparato impone únicamente determinadas condiciones al movimiento natural de las partículas, que están sujetas a ley y que, si bien son inseparables del fenómeno global en sí, son totalmente ajenas a las leyes inherentes a las partículas en su contenido universal.

Es cierto, pues, que el conocimiento objetivo se logra siempre mediante determinadas prácticas científicas; pero estas prácticas no son propiamente el conocimiento objetivo como tal, sino el medio para lograrlo. Cuando el medio influye en el proceso natural objeto de nuestro interés, esto no impide que por multitud de experimentaciones logremos separar -por medio del pensamiento-, de lo que no son más que condiciones digamos artificiales, la naturaleza y las leyes objetivas del proceso que nos interesa, contrariamente a lo que pretenden Bohr, Heisenberg y otros. Salirse de este estricto terreno es caer en los galimatías copenhaguianos que impiden avanzar siquiera un átomo en el esclarecimiento de las dificultades a que se enfrenta la física, de las debilidades de sus planteamientos.

Lo chocante es que, desde pretendidas posiciones del marxismo, un autor soviético, Omelianovski, haga tal mezcolanza de sujeto y objeto, a la luz de la antorcha copenhaguiana, que luego ambos nos resulten irreconocibles. Si se tiene presente que los medios de observación, o los aparatos son peculiares continuaciones de nuestros órganos de los sentidos [así nos regala los oídos Omelianovski] y, al mismo tiempo, como hemos visto al investigar los objetos atómicos, pertenecen en determinado plano al sistema físico observado [sic], todo eso significa que entre lo objetivo y lo subjetivo en una investigación experimental no puede trazarse una delimitación marcada, que no se puede ver la diferencia absoluta entre el objeto cognoscible y el sujeto cognoscente, entre el sistema observado y el aparato. La diferencia entre lo objetivo y lo subjetivo en el proceso del experimento (observación, medición, experimentación) no es absoluta, excesiva, sino relativa, mutable [sic] a su manera (9). Si no malentendemos las palabras de este físico-filósofo, resulta que lo que ahora y aquí -en el curso de la investigación (con su añadido de experimental no nos salimos para nada de la gnoseología, de la relación que guardan sujeto y objeto en la teoría del conocimiento)- es sujeto, se convierte después y allí en objeto, a su manera. Precisamente en la teoría del conocimiento, como él mismo aclara: En el proceso del conocimiento de la naturaleza, lo objetivo y lo subjetivo no deben contraponerse uno u otro, ni divorciarse uno de otro (10).

Esta sentencia, aunque se quiera hacer desde debajo de la capa protectora del marxismo, no es sino una flagrante tergiversación de sus postulados más fundamentales, y de todo materialismo. Lenin, compatriota de Omelianovski y reconocido materialista, repite hasta la saciedad -recogiendo los argumentos de los clásicos como Diderot, Feuerbach, Marx y Engels, entre otros, y aportando otros nuevos-, en su obra Materialismo y empiriocriticismo, que confundir el sujeto con el objeto significa, en todo caso, impedir que se avance por el camino del conocimiento, ya que es precisamente en el proceso del conocimiento (de la práctica del hombre y la experimentación en general a la teoría, y a la inversa), donde la diferencia entre ambos conceptos es absoluta, y que negar esta diferencia -como mantiene Omelianovski- es pasarse descaradamente al campo del agnosticismo y del machismo.

Únicamente comprendiendo el profundo significado de la separación, la contraposición y la independencia entre lo subjetivo y lo objetivo se podrá avanzar en el conocimiento. Cuando partimos de este requisito fundamental, podemos dilucidar la importancia que tiene la práctica en el proceso del conocimiento, la forma como nos permite elevarnos desde posiciones inferiores a otras superiores, desde la ignorancia hasta el conocimiento, logrando al final de este proceso la unidad entre el contenido de lo subjetivo y la esencia de lo objetivo. Lo objetivo -como lo verdaderamente independiente- va a determinar siempre, desde el principio hasta el fin, el carácter del contenido del conocimiento humano. ¡La unidad sólo se alcanza cuando, por medio de la práctica, el contenido que expresa al sujeto refleja correctamente lo objetivo!

La medición, ese concepto mimado del idealismo físico, es la entelequia gnoseológica de la teoría cuántica copenhaguiana y, por esto mismo, un concepto vacío sin ninguna realidad. La medición, que se admite como postulado básico de la teoría cuántica pese a que luego no se le usa para nada salvo para hacer disquisiciones sin fundamento con ella, no trastoca al sujeto como tal en objeto, ni adultera la subjetividad de las microleyes, ni prepara el estado de los procesos de las partículas... Simplemente encubre y sirve de justificación de la incapacidad crónica de la teoría cuántica de predecir y explicar determinados fenómenos objetivos y que, por esto mismo, reniega de ellos.

Actualmente y frecuentemente no sabemos cómo son, en su totalidad, determinados fenómenos atómicos objetivos; no lo sabemos en el mismo sentido que 2 x 2 = 4 o que los cuerpos se atraen según una ley inversa de los cuadrados. Es tarea del conocimiento aprender a calcular con magnitudes conocidas de manera incompleta, que en ciertos aspectos realiza la teoría cuántica, y ayudar a superar los conocimientos defectuosas pero, en ningún caso, no es tarea suya ignorarlos.

La causalidad cuántica

¿Existe causalidad en los fenómenos que describe la mecánica cuántica? Desde luego, pues desde el momento que admitimos y reconocemos su objetividad, estamos admitiendo la existencia de relaciones, regularidades y determinaciones ajenas a nuestro proceder, que se encuentran al margen y fuera de nuestra actividad voluntaria y son, por tanto, propias de la naturaleza de las micropartículas.

Muchas son las características objetivas de las micropartículas que considera la teoría cuántica. Sin embargo, es necesario sacar de entre ellas las fundamentales, las que aparecen palmariamente, de una manera u otra, en todos los fenómenos, y pueden ser consideradas por esta condición como universales. A nuestro modo de entender, y siempre dentro de lo que considera la teoría cuántica, las podemos resumir en las tres siguientes: 1) El principio de la conservación de la energía; 2) los cuantos de discontinuidad de Planck, y 3) la interacción entre las partículas.
Estos son los rasgos fundamentales que debemos analizar en primer lugar, pues es mediante ellos como se logra describir y predecir todo tipo de fenómenos atómicos y situaciones particulares como, por ejemplo, las colisiones.

De estos rasgos universales sabemos que es el segundo, el postulado de Planck, el que da sentido a la teoría cuántica, pues incluso los otros dos están limitados o, mejor condicionados en sus transformaciones por éste: el cuanto de acción de Planck (h) impregna toda la mecánica cuántica llenándola del contenido de discontinuidad. Ahora bien, el primero, la indestructibilidad del movimiento, es la ley universal que asegura el lazo o nexo entre lo anterior y posterior en esta teoría. Esta conexión, como relación de conservación que es, determina lo que se conserva en cada transformación, estableciéndose por medio de ella el lazo de continuidad del fenómeno, como causalidad, y por lo tanto, en el sentido rígido de este término, es decir, determinista y predecible. Realmente es esto lo más importante que se dice por medio de la ecuación de onda o por la de Schrödinger. Por eso no se equivocan los físicos que mantienen que es en estas ecuaciones donde se encuentra la causalidad en la mecánica cuántica, como reflejo que son de la realidad objetiva de las micropartículas.

De todas maneras, el concepto que permite expresar la relación que existe entre lo anterior y lo posterior en el movimiento de las micropartículas, y que las ecuaciones señaladas anteriormente contiene, es el concepto de función de onda ψ. En él están, pues, impresos tanto los factores universales que se conservan -tales como, por ejemplo, la inercia (m), el cuanto (h), la constante de interacción electromagnética u otra, etc.- como los que cambian espacial y temporalmente. La función de onda describe, pues, en rasgos generales, el discurrir de los cambios y transformaciones que se operan en un sistema físico de micropartículas en sus aspectos espacial y temporal. Quiere esto decir que en la función de onda ψ se sintetizan en cada momento tanto el ritmo de esos cambios, originados por la interacción de las partículas en movimiento -digamos, el carácter ondulatorio del movimiento-, como la distribución espacial de sus efectos, que abarca tanto al carácter corpuscular de las partículas como a la forma momentánea de sus lazos en un determinado momento o, si es éste el caso, a la forma estacionaria que adquieren en determinadas condiciones, cuales son sus estados de equilibrio relativo.

Hay quien afirma que la función de onda ψ carece en absoluto de sentido físico directo (Sachkov), cuando en realidad no es así. No podemos decir, es cierto, que la función de onda ψ admita una definición tal como la de peso o carga eléctrica, pero esto no es óbice para que se le niegue su sentido físico directo. Quitarle este sentido es abrir la puerta a la especulación subjetivista y negar el carácter plenamente objetivo de las relaciones causales de la mecánica cuántica.

Dice Landau: La función de onda determina completamente el estado de un sistema físico en mecánica cuántica. Esto significa que dar esta función para un cierto instante no sólo define todas las propiedades del sistema en el mismo, sino que determina también su comportamiento en los instantes futuros -tan sólo, claro está, hasta el grado de definición que permite en general la mecánica cuántica (11). ¿Qué concepto que no tenga un sentido físico directo y pleno puede determinar completamente el estado de un sistema físico, aun dentro de las limitaciones de la propia teoría? Está claro que si la función de onda ψ está imposibilitada de precisar más, de determinar todos los aspectos del movimiento de las partículas, es porque los postulados de partida de la teoría cuántica se lo impiden; de que si bien estos postulados son suficientes para precisar lo que ya se predice, son en cambio insuficientes para determinarlo todo; que, de lo que carece, no lo necesita para determinar ya hasta el grado en que lo hace, aunque sí para poder precisar el resto de aspectos que se desconsideran. Esta es la única crítica válida que admite la función de onda ψ, por lo demás llena de contenido físico como vimos más arriba.

Es pues, necesario admitir, si no se quiere caer en un galimatías subjetivo-instrumental, que en la nueva física existe, al igual que en la antigua, la determinación como expresión de la relación de causalidad. Si no fuera así no habría teoría cuántica válida, pues desde el momento que no se admitan esas relaciones de causalidad, no habría nada que determinar y la ciencia no tendría objeto.

Sin embargo, las relaciones causa a efecto no se deben ver únicamente en sentido único, es decir, en una sola dirección, más cuando se consideren sistemas donde su unidad contradictoria es su principal cualidad, como por ejemplo el átomo.
Veamos.

Partiendo de la ley de interacción entre ciertas partículas (digamos electrón y protón), consideradas sus inercias (sus masas) y habida cuenta de la discontinuidad de las acciones (cuantos) se determinan desde ahí y por medio de la relación de causalidad de Schrödinger, los niveles energéticos del átomo de hidrógeno, los impulsos orbitales, etc. Es decir, éstos están determinados por aquéllos. Y se puede también decir que son causados, puesto que las mismas consideraciones anteriores permiten determinar, y por tanto predecir, los niveles energéticos, etc., de otros átomos más complejos. Fuera de este contexto no tiene sentido hablar de causas, porque aquellos niveles electrónicos son al mismo tiempo tanto efecto como causa de las características de las partículas. Lo contrario nos obligaría a admitir que la discontinuidad cuántica (h), por ejemplo, se le impone desde fuera al electrón, cuando en realidad es una cualidad inherente a cada partícula: la discontinuidad no es solamente una característica de la energía en general, sino que se trata de una de las características de la energía de las partículas y de su interacción también. Luego, ¿cuál es la causa y cuál es el efecto?

La relación causa a efecto carece de sentido cuando se la saca del reducido contexto de su aplicación. Así, cuando a determinado conjunto de partículas le imponemos, aparentemente desde fuera, el postulado de Planck o el principio de conservación de la energía, en realidad lo que estamos haciendo es imponiendo a ellas otras característica, que también son suyas, propias, inherentes, por las que cada partícula es no sólo masa, sino también interacción, discontinuidad, movimiento. Es decir, completamos aparentemente desde fuera el cuadro de lo que es cada cosa considerándola así en su globalidad (hasta cierto límite). Y sólo cuando se completa este cuadro aparece ante nuestra vista lo que estaba oculto para nosotros, lo que se ocultaba al pensamiento: unos factores como causas y otros como efectos. No se puede decir que los cuantos se introducen porque son una propiedad de la energía, tomada ésta en abstracto y como separada de la materia, pues aquellos son una característica de la materia en general ya que la energía lo es siempre de algo, y por tanto, es este algo quien posee aquella propiedad.

Sólo por esta razón es lícito decir, y dentro de este contexto de la teoría cuántica, que las causas de la existencia de los diferentes estados atómicos (infinitos en potencia) son el carácter universal de la discontinuidad, la universalidad de la interacción y el carácter puntual-inercial o corpuscular de la materia, pues ellos son suficientes, en general, para explicar los casos atómicos particulares. Podemos afirmar, por lo tanto, pero solamente en este contexto, que de unas leyes universales obtenemos, en base a la causalidad cuántica, las leyes particulares de los átomos, etc. Es decir, lo universal aparece como causa, lo particular como efecto. Y en la medida en que estos universales se desbrozan, para cada condición concreta, en infinitos efectos particulares, aparece la probabilidad y la estadística. Estas últimas son, pues, necesarias, determinadas en general como leyes de distribución, leyes que son los resúmenes de aquellas determinaciones generales.

El conjunto de todos estos efectos del movimiento atómico se podrá estrechar más, es decir, hacer más precisas las rutas que van desde las causas universales a los efectos particulares, cuando sea posible precisar aún más las causas, concretarlas hasta el extremo de todas sus particularidades. Si la relación de causalidad cuántica se logra establecer de causas particulares a efectos particulares por medio de sus leyes universales, entonces será posible precisar cada estado estacionario no como una situación límite, sino como un proceso, el movimiento como una trayectoria, el salto cuántico en su desarrollo, etc. Todo esto no impedirá que el fenómeno se pueda seguir explicando a la manera que lo hace la teoría cuántica, mientras las condiciones de existencia y producción de tal fenómeno en la práctica no se delimiten más precisamente; ahora bien, se avanzará en cuanto a que cada evento se podrá explicar simultáneamente como un proceso dentro del proceso general del fenómeno. Así, en la mecánica clásica, se trata de causas particulares completas que determinan efectos particulares en su totalidad sobre la base de determinadas leyes generales. De esta manera se predice el proceso mecánico en su continuidad.

En la mecánica cuántica, en cambio, no se conocen los procesos en su totalidad, por lo que se pueden predecir los estados estacionarios en general, pero no los motivos concretos que originan los diferentes procesos de transición de unos estados a otros. Queremos decir que no se conoce el proceso como tal, con todas sus implicaciones múltiples y colaterales, sino únicamente los momentos de partida y llegada, permaneciendo todos los intermedios ignorados, de los que cuanto más se puede señalar es que se ajustan a ciertos balances de energía, etc.

La teoría cuántica está, pues, imposibilitada de precisar más, no porque la Naturaleza se lo imponga, sino porque hasta ahora pasan desapercibidos, se ignoran o desconsideran determinados rasgos peculiares de las micropartículas. A esto se resume toda la polémica sobre la indeterminación, la falta de causalidad, etc.

Estos rasgos peculiares se refieren a que las partículas actúan de cierta manera independiente, pero no desligadas de las demás, sino dentro de ese nexo como individualidades. De aquí que aquellas causas fundamentales (universales) sean más bien el reflejo exterior de lo que realmente sucede en el seno de cada micropartícula como un todo, por lo que los efectos exteriores aparecen de esta manera, en su diversidad, como azarosos; mientras ese seno no se vislumbre del todo, las consecuencias del movimiento se presentarán como una cuestión de libre arbitrio del electrón. Y efectivamente el electrón tiene libre arbitrio, pero no para hacer lo que imaginariamente le plazca, sino que en la situación actual en que se encuentra nuestro conocimiento no podemos aún comprender en qué consiste ese su verdadero arbitrio.

No se trata, pues, de buscar causas y efectos en forma unilateral, fragmentaria e incompleta, sino de encontrar la universalidad y el carácter omnienvolvente de la interconexión del mundo (12). Podríamos decir con Hegel, y como bien recoge Engels, que las verdaderas causas son la acción recíproca. Claro que esta reciprocidad no se puede ver solamente desde fuera, es necesario al mismo tiempo verla desde dentro; es decir, apreciar sus aspectos tanto internos como externos. O sea, en la medida en que cada causa tomada aisladamente se realiza en su efecto, y éste, por contra, por su nexo y relación -interacción- actúa sobre la primera, no estamos considerando ya necesidades y causalidades sino verdaderas contradicciones que en sus aspectos de unidad (la individualidad de la micropartícula o/y del sistema por ellas formado) y de lucha (el movimiento y los cambios que en ellas se operan) consideran al fenómeno en su totalidad.

El principio de necesidad o causalidad se revela entonces por la existencia de contradicciones y nexos internos en los microprocesos, a través de los cuales actúan las causas externas (contradicciones externas). Si los microprocesos careciesen de estructura, las velocidades de interacción tendrían que transcurrir a velocidad infinita, que es lo mismo que decir que no transcurrirían. Si no existiesen contradicciones y nexos internos, las partículas no podrían transformarse las unas en las otras, ni absorber ni radiar ningún tipo de materia, con lo que, a la postre, tendríamos que admitir que tampoco existirían los nexos externos. Pero esto contradice toda la práctica científica de la humanidad.

Función de onda y causalidad

Vimos antes que el concepto que unía lo anterior a lo posterior en la física cuántica era el de función de onda ψ, la cual determina el comportamiento del sistema en cada instante hasta donde lo permite, claro está, la teoría cuántica, como bien decía Landau. Comprobamos también cómo esta determinación se refiere a los rasgos más generales del sistema, como la indestructibilidad del movimiento, aunque ciertos rasgos particulares -pese a estar subsumidos en esa determinación- sólo era posible precisarlos dentro de ciertos límites (como la trayectoria).

Estos dos aspectos necesarios de la determinación cuántica nos revelan las dos características contradictorias de la función de onda ψ: una determinación unívoca para los rasgos más generales (estados estacionarios del sistema) y una determinación múltiple para los rasgos más particulares del movimiento (dentro y fuera de aquellos estados). De los primeros rasgos podemos decir que están fijados en su unicidad y son por tanto predecibles en todo momento; de los segundos, en cuanto están fijados en su multiplicidad, son predecibles en todo momento por esta cualidad, pero impredecibles para cada uno de los componentes de esa multiplicidad; o mejor, son predecibles en su distribución espacial y temporal, y probables para cada caso particular espacial y temporal. Tenemos por lo tanto valores tanto fijos como azarosos, que vienen ambos de la mano de la función de onda ψ y están necesariamente determinados por las regularidades de las micropartículas, unas perfectamente conocidas y que atañen más a sus aspectos externos, y otras menos conocidas y que atañen más al ser íntimo de las partículas, a sus procesos internos. La casualidad es, pues, una propiedad objetiva de las micropartículas, independiente de si realizamos o no una medición con aparatos artificiales, de si se trata de una o más partículas y de la información que poseemos sobre los estados. Detengámonos ahora a analizar más detenidamente estas cuestiones.

Hoy está generalmente admitido que la función de onda que describe el estado de un sistema, es una amplitud de probabilidad. Por ejemplo, la función de onda espacial que describe el estado de un electrón es una función compleja, cuyo módulo al cuadrado da la probabilidad de presencia del electrón en cualquier región del espacio. Esto presupone que, según la teoría cuántica, no está fijada la posición del electrón en cada instante, sino sólo la probabilidad de cada una de sus posibles posiciones (13).

Pero, ¿qué dice realmente tal probabilidad? Son variadas las respuestas que se han dado a esta pregunta que traemos ahora a colación por su importancia filosófica; nos centraremos en las tres que consideramos más sobresalientes: la de Copenhague, que podemos llamar instrumental; la de Einstein y otros o determinista, y la imperante en los círculos filosóficos de la URSS o dual.

Los seguidores de la Escuela de Copenhague, en la medida en que niegan la objetividad de las regularidades de las micropartículas, atribuyen todos los hechos al azar instrumental. N.Bohr dice que la interacción electrón-aparato hace imperativo recurrir a un modo estadístico de descripción (14) en lo que se refiere a la previsión individual de los efectos cuánticos -por tanto, también a los colectivos-, estableciendo de esta manera que las propiedades estadísticas de las partículas no son propias de la interacción de las partículas entre sí, sino de esa interacción partícula-aparato. Por otro lado, Max Born, que fue quien primero postuló el carácter estadístico de las micropartículas, pensaba que los conocimientos estadísticos logrados por la teoría cuántica eran los únicos que podía alcanzar el hombre, creyendo además que ellos no se referían directamente a la realidad objetiva, sino, en todo caso, a nuestro conocimiento de la realidad. Esta separación excluyente de la realidad, por un lado, de nuestro conocimiento de la realidad, por el otro, que N. Bohr acuñó como complementariedad, tiene -entre otras- la cualidad de atribuir al electrón (o a cualquier partícula) el privilegio del libre albedrío. Como vemos, los copenhaguianos no niegan la existencia del azar o casualidad, pero no lo admiten como una cualidad objetiva inherente al mundo objetivo, sino que lo aceptan como obra del conocimiento instrumental del mundo, del aparato. De esta manera, su concepción del azar es meramente contingente, fortuita, es un azar completamente accidental, pues han borrado de él todo rastro de necesidad, como si ambas cosas fueran mutuamente excluyentes, al igual que hacen con los demás conceptos formulados por ellos: relación de indeterminación, complementariedad, etc.

Junto a la idea de exclusión contenida en la ley de complementariedad, introduce N. Bohr la idea de irreversibilidad. Para él, la observación de un fenómeno individual es irreversible, bien porque una nueva observación produciría un resultado diferente, o porque la misma observación altera ya el movimiento de la partícula. Pero esto es esconder el árbol con una hoja: en su repetición individual, los resultados obtenidos en la experimentación se hacen reversibles, ya que las distribuciones estadísticas son siempre las mismas para idéntico fenómeno. Por ejemplo, en el diagrama de difracción obtenido por el impacto de electrones que atraviesan una rendija, cada electrón de por sí que hace blanco en la placa se puede considerar como el resultado de un proceso azaroso que explica por sí mismo las regularidades de la interacción del electrón por separado con el diafragma; pero todo el fenómeno originará siempre la misma figura, prueba de que aquella interacción está sujeta a ley determinada que adquiere la forma de azar determinado. El azar, para la dialéctica, siempre ha sido la forma en que se presenta la necesidad.

En la línea de Bohr se encontraba también el físico soviético Fock. En mecánica cuántica -dice Fock- la función de onda no describe el estado en su sentido usual, sino más bien la información sobre el estado (15). Con este galimatías subjetivista se pretendía ignorar cuál era realmente la fuente originaria de esa información, de la que careceríamos si no existiesen los átomos. Nikolski, en la polémica entablada entonces en la URSS en la década de los 30, se apercibió del trasfondo que había en esta cuestión, del alcance que tenía la interpretación estadística, y así, dando un giro completo al anterior enunciado de Fock, concibió la probabilidad como una cualidad inherente a la naturaleza, quedando al descubierto tras aquel debate las raíces machistas de la interpretación de Copenhague.

Como consecuencia, Fock corrigió sus ideas y reprochó a Bohr la infravaloración que hacía del papel de la abstracción en el conocimiento y que olvidase que el objeto de estudio en la mecánica cuántica son las propiedades del movimiento de las micropartículas, no las indicaciones de los instrumentos, que son simplemente la herramienta de trabajo.

La postura de Nikolski fue generalmente aceptada por los físicos de la URSS, aunque aún seguía en pie una pregunta: la estadística, ¿describe realmente las principales características del movimiento de la partícula individual o, por el contrario, del conjunto de partículas?

La Escuela de Copenhague admitía, desde el idealismo subjetivo de sus planteamientos, que la estadística eran propiedades de las partículas individuales porque eran observables en el aparato. Einstein y otros como Blojintsev defendían, desde las posiciones del materialismo no dialéctico, que la estadística cuántica era, como en la antigua teoría cinética de los gases, propiedades del conjunto de partículas porque se aferraban a la idea del determinismo mecanicista.

Einstein, sobre todos, negaba la naturaleza objetiva del azar, atribuyendo su existencia en la cabeza del hombre a razones de ignorancia de los fenómenos. Así, en carta a M. Born, escribía: Eso de la causalidad también me preocupa a mí bastante. ¿Podrá llegarse a explicar algún día la absorción y emisión de la luz por cuantos dentro de un postulado de causalidad total o quedará siempre un resto estadístico? Debo confesar que para ello me falta el valor de la convicción. Renunciaría de muy mala gana a la causalidad absoluta (16).

Pese a lo que pensaba Einstein, la causalidad no se riñe con el azar y la estadística. La causalidad absoluta no existe; la causalidad es siempre relativa, pues está constreñida al momento o al instante de la contradicción. Sólo tiene sentido dentro de este estrecho marco; admitir la causalidad absoluta sería razonar al modo de Tomás de Aquino, buscando una primera causa, o al modo de Laplace, que solamente presupone cambios cuantitativos en la Naturaleza e ignora los infinitos cambios cualitativos. Se hace imperativo comprender que casualidad y causalidad se dan la mano y viven juntas en las leyes del azar, y que de lo que se trata es de buscar estas leyes cuya expresión es el resumen de la multiplicidad de posibilidades de un determinado fenómeno.

La versión de algunos filósofos soviéticos está realmente más próxima a la verdad. Azar y necesidad, dicen, tienen naturaleza objetiva. Pero debemos reprocharles que esa objetividad existe en la unidad que ambos mantienen, no en su separación artificiosa. Sea porque están encandilados por alguna variante positivista, sea porque no comprenden del todo el materialismo dialéctico (aun adhiriéndose a él), hay que decir que contraponen ambos conceptos de manera metafísica. En este sentido, se puede decir que la posición de algunos filósofos soviéticos es el resumen más avanzado de dualismo que existe en la actualidad.

La Enciclopedia Soviética atribuye al azar causas exclusivamente externas, de manera que los procesos de tipo determinista no tendrían, en lo esencial, nada que ver con el azar. Esta es la posición dual: de un lado colocan la necesidad y del otro al azar, resultando este último un mero accidente innecesario. Yuri Sachkov critica esta posición errónea y dice: La interpretación de la casualidad como categoría que define los rasgos exteriores y secundarios de los procesos en investigación dista mucho de ser suficiente (17). Esta es la distancia que intenta salvar este mismo autor, ya que su interés se centra en atribuir causas internas al azar; pero su defensa del azar es desde luego muy débil, pues argumenta más con la fe que tiene puesta en la necesidad de la estadística y las probabilidades, que con una concepción dialéctica del azar y la necesidad. Por esta razón, a mitad de camino tuerce la dirección inicial para terminar al final pidiendo socorro a la irracionalidad. Pero dejémonos guiar por sus disquisiciones.

Comienza Y. Sachkov defendiendo en su artículo que, efectivamente: Las ideas y los métodos probabilísticos de investigación en la ciencia contemporánea revisten carácter de principios, aduciendo para ello la influencia decisiva de la física estadística, la teoría cuántica, la genética, la cibernética y las investigaciones sociológicas, pero no dando ninguna otra razón de peso que nos explique por qué esos métodos son innatos a esas ciencias, salvo que, válganos Dios, las representaciones probabilísticas hacen más flexibles y movibles las formas teóricas que expresan y reflejan los conocimientos. ¡Como si por la aceptación común de los métodos probabilísticos que, según parece, flexibilizan y movilizan nuestro conocimiento, se demostrara su carácter de principio!

Pero, aunque esperábamos que él nos diera esos argumentos de peso que demostrarían ese carácter de principio de los métodos probabilísticos (pues pensamos, como él mismo dice, que se trata de su relación con la categoría dialéctica de casualidad cuya universalidad está archidemostrada), no acierta a pasar de generalidades como la de que la teoría de probabilidades está en la vía maestra del desarrollo de las ideas y representaciones generalizadoras de las ciencias naturales contemporáneas, sin aclararnos tampoco en qué se fundamenta esa relación de tanta importancia que guardan probabilidades y causalidad.

Y. Sachkov, metido de lleno ya en el análisis de la vieja concepción estadística que presupone la teoría cinética de los gases, dice: Se denomina aleatorias a las relaciones entre objetos, acontecimientos o elementos del conjunto, cuando los nexos y dependencias directos, inmediatos, entre los elementos, que se condicionan mutuamente, están prácticamente ausentes [sic] y desempeñan insignificante papel. La independencia significa que el estado o el comportamiento del objeto de investigación no depende y no se define por el estado y el comportamiento de otros objetos que le son ‘afines’ o que lo rodean, añadiendo que esto se aplica a sistemas con gran número de objetos y que expresa determinada estructura aunque, termina diciendo, dependen de las condiciones de su existencia y origen. ¿Cómo se puede entonces explicar la existencia en estos sistemas de una función de distribución (que no es sino la ley objetiva macroscópica característica de él), si no se hace sobre la base de esos nexos y dependencias mutuas de los objetos y de sus condiciones de existencia y origen?

La definición que da Y. Sachkov de aleatoriedad es un sofisma; es más, un sofisma vacío. Llama aleatorias a las relaciones entre objetos, cuando los nexos entre los elementos están ausentes. ¿Es esto posible? Relaciones sin nexos: o relaciones sin relaciones. Realmente nos produce sonrojo oír estos absurdos.

No vamos aquí a detallar los nexos necesarios que condicionan mutuamente el movimiento de las moléculas de un gas. Bástenos mencionar que la mera y elemental hipótesis de los choques elásticos ya establece la existencia de una relación que se expresa por medio de la conservación de la cantidad de movimiento de las partículas del gas. ¿No es éste un nexo directo, inmediato e incondicional? Para Sachkov se ve que no.

Pese a que luego corrija su desafortunada expresión de aleatoriedad afirmando que: Por medio de las distribuciones se describen los elementos, su interrelación o los sistemas en conjunto, y aderece esta sentencia realista con juramentos de fe dialéctica como que: Las distribuciones expresan la unidad de lo continuo y lo discontinuo, la síntesis de los aspectos integral y diferencial, etc., esto no evita que su concepción de la categoría de casualidad resulte, a todas vistas, insustancial.

Contradiciéndose aquí y acullá, pues éste es el sino permanente de su artículo, ora afirmando la interrelación, otrora negándola, Sachkov degrada el concepto de casualidad a la categoría de la nada. Si al menos se hubiese mantenido fiel a lo que decía en un artículo suyo anterior, donde mantenía que las ideas de casualidad se usan para definir la relación de las moléculas entre sí, es decir, para definir su estructura interna (18), el porvenir de su idea de casualidad hubiera sido, desde luego, otro muy diferente. En este caso, se hubiera aproximado a la concepción dialéctica de la casualidad, según la cual, lo accidental tiene una causa porque es accidental, y de la misma manera carece de causa porque es accidental; que lo accidental es necesario, que la necesidad se determina como casualidad, y, por otro lado, que esta casualidad es más bien necesidad absoluta (19), proposiciones a las que se suele hacer caso omiso por considerarlas juegos paradójicos o tonterías contradictorias.

Con este embrollo de ideas sobre lo aleatorio aborda luego nuestro autor el problema de la estadística cuántica. Pero, igual que antes, abunda en frases rimbombantes sobre los métodos probabilísticos, carentes de contenido alguno, pues su enfoque del problema es idéntico. Que si la función de onda ψ no tiene sentido físico alguno, que si únicamente su conexión con la probabilidad es lo que permitió comunicarle profundo sentido real, para terminar manteniendo -remedando a Mandelshtan- que para determinar la colectividad micromecánica a que se refiere la función basta señalar (fijar) los parámetros macroscópicos, con lo que acaba defendiendo lo que en un principio comenzó criticando, la posición de la Enciclopedia Soviética de que las causas (contradicciones) externas, las condiciones, son el origen del azar. ¡Mucho camino recorrido y mucho esfuerzo derrochado para llegar al mismo lugar!
En las interpretaciones de la teoría cuántica, y relacionado con la probabilidad, se usa también la idea de posibilidad. Dice Fock: Esa distribución de las probabilidades refleja posibilidades potenciales, objetivamente existentes en las condiciones dadas (20). Sachkov, que le cita sin entenderle, repone: El paso de la posibilidad a la realidad, en caso general, reviste ciertos grados de irracionalidad [sic], lo que en cierta medida es afín al paso entre dos puntos en el eje numérico. O sea, lo que según Engels y todos los dialécticos es una contradicción (el desplazamiento), es para Sachkov irracional. ¡La contradicción irracional! Media muy poco para que a continuación se califique a la dialéctica de mística; y esto por un dialéctico.

Los métodos probabilísticos no sirven solamente para describir las innumerables posibilidades que se le presentan a las micropartículas en su interacción mutua, pues en ellas siempre hay determinadas regularidades con determinados valores de repetición. Son estas regularidades, con sus distintas frecuencias de aparición, la huella que delata, tras su aparición accidental, la existencia de regularidades profundas en las partículas, que son al fin y al cabo quienes ocasionan las primeras.

La anterior cita de Fock de las probabilidades como posibilidades potenciales (las posibilidades siempre son potenciales) objetivamente existentes centra la cuestión. No se trata, pues, de la posibilidad de lo que no existe objetivamente, sino de lo que ya es real. La función de onda ψ o de distribución de probabilidades, deducida de los postulados universales de la teoría cuántica (discontinuidad, interacción, etc.) y de las condiciones particulares del sistema concreto, señala todas las posibilidades objetivamente existentes para las micropartículas. El paso de la posibilidad a la realidad no reviste, como diría Sachkov, rasgos de irracionalidad, sino rasgos de desarrollo. Efectivamente, cada una de esas posibilidades no son sino momentos particulares diferentes del mismo sistema, que en su desarrollo completo multidireccional desbroza el conjunto de todas sus posibilidades. Lo que cae fuera de este conjunto es lo imposible, lo que no existe, y el conjunto en su totalidad lo realmente existente. La esencia del conocimiento dialéctico de las micropartículas exige que el conjunto de los diferentes momentos de realidad tomados en su totalidad se despliegue por el desarrollo que resulta del movimiento de sus contradicciones tanto internas como externas. Ésta es la verdadera necesidad de las partículas, del sistema, mientras que cada uno de aquellos momentos es simplemente la probabilidad. Ambos conceptos son inseparables en su movimiento: la necesidad como el todo, la posibilidad o probabilidad como el instante. La profunda versatilidad de las transiciones atómicas, por ejemplo, revela la faceta multidireccional de los cambios atómicos, cómo una mera transición electrónica sólo se puede realizar -y comprender- en conexión con la situación global del átomo, y cómo esa posibilidad ya realizada posibilita la realización de las demás, dejando a su paso la huella del azar, como expresión concentrada de la necesidad realizada.

De aquí que la necesidad se determine por la casualidad y que el azar tenga unas causas. Es decir, en todo proceso coexisten a la vez necesidad y casualidad en contradicción permanente. Ahora bien, allí donde el azar es algo patente, éste no aparece siempre en la misma dirección, pues en este caso estaríamos ante el determinismo puro. La presencia del azar acontece en direcciones opuestas de manera tal que un suceso acaecido en cierta dirección resulta siempre compensado por otro en dirección contraria, no sucediendo éste, necesariamente, inmediatamente después de aquél. Esta es la dialéctica propia del azar como tal. Y es esta misma la manera como se correlacionan azar y necesidad, como lo demuestran las leyes de distribución estadística y de los grandes números que la práctica de las diversas ramas científicas se ha encargado de comprobar.

El genuino sentido que adquieren las probabilidades en las diferentes ciencias viene de la mano de las leyes objetivas que las subyacen y explican. Sin esta condición, las probabilidades tanto aclaran como oscurecen, más cuando se consideran aisladamente y como si fueran lo esencial. De aquí que la metodología estadística por sí misma no aporte nada sustancial al esclarecimiento de los problemas de principio de las ciencias. La práctica de la experimentación científica es la fragua donde se decide si las hipótesis estadísticas formuladas en cada caso particular tienen visos de realidad o son una mera ficción.

¿Dualismo o contradicción?

La complementariedad de Bohr se usa, además de para interpretar la relación entre micro-objeto y aparato, según la Escuela de Copenhague, para definir la relación entre clases de conceptos complementarios que se excluyen recíprocamente. Así, coordenadas e impulsos, espacio-tiempo y causalidad, corpúsculo y onda, etc., serían conceptos complementarios necesarios para describir el fenómeno, pero con la restricción de que cada miembro de la pareja excluye al otro en la descripción. O, como expresa Omelianovski, tenemos derecho a hacer dos afirmaciones que se excluyen recíprocamente con referencia a un solo objeto atómico aisladamente considerado (21), aseverando que esta concepción se basa en la dialéctica. Mas, ¿qué dialéctica puede ser esa que excluye de manera absoluta diferentes aspectos de los objetos imposibilitando su conjugación unitaria en un todo?

Para justificar esta postura dualista aluden a la imposibilidad que existe, avalada por el principio de complementariedad, de obtener mediante una medición todas las características objetivas de los microfenómenos. Lo que resulta un obstáculo para el pensamiento, y por lo mismo un reto al conocimiento humano, cual es el lograr una descripción total del fenómeno en su totalidad estableciendo las relaciones contradictorias que mantienen los diferentes aspectos del mismo, lo vadean separando a priori lo que aun estando unido en la realidad resulta dificultoso obtenerlo simultáneamente en el aparato, por lo que optan por separarlo también en el objeto mediante el conocimiento. Esta combinación mecánica y dual de cualidades contradictorias objetivamente existentes en las partículas no resuelve el problema de su conocimiento, sino que lo desvía de su solución correcta por el pensamiento. Desviación que llevó a Heisenberg a las posiciones del idealismo platónico más vacío, negando incluso la existencia de estructura en las micropartículas, y a Bohr a convertir el principio de complementariedad en la herramienta heurística del positivismo moderno.

El físico y filósofo soviético Omelianovski expone de la siguiente manera la contradicción (ya que, según afirma, se trata de dialéctica) corpuscular-ondulatoria de las partículas atómicas: Supongamos que un haz de electrones atraviesa un retículo cristalino que permite observar un cuadro difraccional formado por los electrones; respecto a este medio de observación se manifiesta el aspecto ondulatorio del desplazamiento de electrones, o sea, al margen de esta relación no tiene sentido el concepto de propiedades ondulatorias del electrón. Supongamos que en una placa fotográfica se determinan... los lugares a que dan los electrones; en relación a este medio de observación se manifiesta el aspecto corpuscular del movimiento de electrones, o sea, al margen de esta relación no tiene sentido el concepto de propiedades corpusculares del electrón (22).

Como se ve, Omelianovski nos dice que cuando el electrón manifiesta propiedades ondulatorias es porque tiene propiedades ondulatorias, y que en esta relación no tiene sentido el concepto de propiedades corpusculares, etc., y nos quiere presentar esta bagatela como expresión de la más pura dialéctica. Sería, desde luego, más sencillo y correcto decir que los electrones poseen tanto propiedades corpusculares como ondulatorias, y que cuando atraviesan un retículo cristalino se difractan debido a que éste interfiere con sus propiedades ondulatorias, desviándolos y determinando sus impactos, como corpúsculos que son, en una placa fotográfica. Ambas propiedades son inseparables de cada electrón, no sólo del conjunto, y existen en él en todo momento, unas manifestando su individualidad concreta, las otras manifestando cierta cualidad de su interacción. En ningún momento se puede presentar al electrón solamente como un corpúsculo, porque su interacción es una propiedad esencial de su existencia; ni tampoco se le puede presentar solamente como una onda, porque la onda es generada en todo momento desde el corpúsculo y debe a él su existencia. En este sentido, el carácter corpuscular del electrón se destaca siempre como lo principal en esta contradicción, pues la onda es la consecuencia necesaria de su movimiento como tal corpúsculo. Y como el movimiento es una propiedad inherente a la naturaleza del electrón, ambos, corpúsculo y onda, coexisten inseparables en su movimiento, uno como fundamento, el otro como expresión. El ejemplo de Omelianovski, más que dialéctica, parece el juego fútil de palabras con que se describe las andanzas de un fantasma de dos caras: si tiramos una moneda al aire y sale cara, observamos que se manifiesta la cara de la moneda, pero en este sentido no podemos hablar de su cruz, etc. O sea, la moneda tiene cara cuando sale cara, y cruz cuando sale cruz; idéntica posición a la del idealismo instrumental copenhaguiano: las propiedades del electrón sólo existen cuando se las observa, y como resulta dificultoso observarlas simultáneamente, aquellas propiedades sólo existen separadas, de manera que cuando observamos unas es que las otras se han escurrido no se sabe bien a dónde.

El conocido Diccionario de Filosofía de M.M. Rosenthal y P. F. Iudin define el dualismo como la tentativa de conciliar materialismo e idealismo, concluyendo que la separación dualista de materia y conciencia conduce en última instancia al idealismo. El materialismo dialéctico resolvió el problema de la relación entre materia y conciencia demostrando que la separación dialéctica entre ambas sólo tiene significado dentro del estrecho marco de la teoría del conocimiento, y que fuera de ella la relatividad de esa separación no admite discusión, pues todo lo existente queda englobado en el concepto de materia y como tal debe considerarse la conciencia.

Refiriéndose al dualismo corpuscular-ondulatorio, el mismo Diccionario dice: La interpretación consecuentemente materialista del dualismo corpuscular-ondulatorio, tal como la han formulado Langevin, Vavilov y otros hombres de ciencia, considera que la micropartícula no es un corpúsculo ni una onda, sino una tercera cosa, su síntesis, para la cual carecemos aún de representaciones evidentes si bien ya empiezan a proporcionarlas las nuevas teorías sobre las partículas ‘elementales’ (pg.128). La crítica acertada que el Diccionario hace del dualismo no resulta merecida cuando considera el carácter corpuscular-ondulatorio de las micropartículas. Recurrir a una tercera cosa, o a su síntesis, no resuelve el problema de la relación contradictoria corpuscular-ondulatoria, que es de lo que se trata. No es que no sea ni una onda ni un corpúsculo, sino que, en cuanto corpúsculo con propiedades ondulatorias, y en tanto onda, de una onda con propiedades corpusculares (centrales). Es pues un corpúsculo y una onda, y cada uno de estos aspectos es -en sí mismo- esta unidad, y sólo lo es (empleando una expresión de Hegel) como superación de sí mismo, en la que ninguno tiene respecto del otro la ventaja del ser en sí y de la existencia independiente de su contrario.

El concepto de ondas de materia, debido a De Broglie, plantea la cuestión en términos bastante justos. La pregunta, ¿de dónde surgen las propiedades ondulatorias del electrón?, debe ser contestada ateniéndonos a las propiedades de interacción de las partículas. Cada partícula, tenga o no carga eléctrica (electrón, neutrón, etc.), debe -en su movimiento relativo respecto de las otras partículas- modificar necesariamente la forma que adquiere el flujo y reflujo de su materia de interacción en su desplazamiento que, por lo que se sabe, se mueve a la velocidad de la luz. ¿Qué otra cosa que no fuese materia podría transmitir las influencias recíprocas entre las diversas partículas? Las ondas, desde esta perspectiva, se presentan fundamentalmente como la disposición que adopta el movimiento de la materia de interacción. Las ondas siempre representan las características periódicas del movimiento de algo, incluso en el caso límite de los fotones. De aquí que sea lícito extender las ondas de De Broglie al movimiento de todo tipo de materia, pues éstas se encuentran en interacción. Así, las ondas de materia serían una característica no sólo de las micropartículas cargadas o neutras, como está demostrado, sino además de todos los cuerpos u objetos mayores como, por ejemplo, los astros. En este sentido, su extensión a la interacción gravitatoria está más que justificada e incluso para el caso de partículas sin carga que interaccionen entre sí, como los neutrones. Y esta suposición nos revela de nuevo que, en tanto la materia de interacción electromagnética (fotones) está también sujeta a esta norma, la gravitación es más elemental que el electromagnetismo, estando obligada por ello a señalarle el cauce de su movimiento.

De todo lo expuesto hasta aquí, se desprende que el rasgo más profundo de la relación corpuscular-ondulatoria no se encuentra en su separabilidad complementaria, sino en su unidad contradictoria, no en una tercera cosa, sino más bien en la contradicción mantenida entre ambos aspectos, entre la materia de interacción y la sustancia corpuscular; o, para ser más precisos, entre los procesos in situ que discurren en el interior de los corpúsculos y la necesaria interacción que los conecta recíprocamente. La diferencia más destacada entre estos dos tipos de materia reside en que la materia corpuscular como tal, en su individualidad organizada, jamás alcanzará la velocidad absoluta, mientras que esta última es la esencia del movimiento de la materia de interacción. Estos dos contrarios polares presentes en cada partícula sólo existen en su unidad y luchan permanentemente entre sí, pero únicamente a través de los contrarios polares de las demás partículas. Sólo de esta manera se puede concebir su contradicción. Resulta evidente que el centro de esta lucha solamente se puede encontrar en cada corpúsculo, el cual resulta transformado tanto al absorber como al emitir materia de interacción, provocando, entre otras cosas, la atracción o la repulsión. La asimilación neta de materia de campo o interacción (en esta consideración son indiferentes los productos externos que esto pueda ocasionar) no se realiza sin ton ni son, sino de acuerdo a las reglas que rigen el proceso de cada partícula.

Así, la partícula aumenta de masa, pero no por esto pierde su identidad (su espín, etc.); al ser consideradas en su discontinuidad se observa en ellas una lucha por mantener su individualidad. Sólo al sobrepasarse ciertos límites resulta transformada.

Parece como si se realizara la visión de Epicuro sobre la declinación de los átomos, quien decía que sin ella la naturaleza nunca hubiera creado nada (23). Marx, comentando el papel de la declinación en la filosofía epicureana, decía que la desviación es ese algo en su interior (del átomo) que puede luchar y resistir (24). Y así es.

Dialéctica de las micropartículas

F. Engels decía que la esfera en que la ley de la naturaleza de la transformación de la cantidad en calidad, y a la inversa, descubierta por Hegel, celebra sus triunfos más importantes, es la de la química. Explicaba cómo la modificación de la composición cuantitativa de los átomos de una molécula tenía por consecuencia los cambios cualitativos; por ejemplo, cómo los átomos libres del oxígeno naciente podían lograr con facilidad lo que estaba vedado a los átomos del oxígeno atmosférico unidos en la molécula. O cómo la adición de grupos CH2 a cada hidrocarburo, de fórmula general CnH2n+2, ocasionaba un cuerpo cualitativamente distinto del procedente, etc. Añadía que esta ley hegeliana vale no sólo para las sustancias compuestas, sino también para los propios elementos químicos, pues las propiedades químicas de los elementos son una función periódica de sus pesos atómicos, por lo que su calidad la determina la cantidad de su peso atómico. Por último, terminaba diciendo que con la aplicación inconsciente de la ley de Hegel, Mendeleiev realizó una hazaña científica comparable a la de Leverrier, que calculó la órbita de Neptuno, hasta entonces desconocido; y que, si quienes hasta entonces tachaban la transformación de cantidad en calidad de misticismo y transcendentalismo incomprensible declarasen que se trataba de algo trivial y vulgar, puesto que ya la venían utilizando desde hace tiempo aunque sin saber ciertamente lo que hacían, tendrían que consolarse, como Monsieur Jourdain de Molière, quien hizo prosa durante toda su vida sin tener la menor noticia de ello.

Recordamos todo esto porque aún hay gente que se resiste a admitir la universalidad de la ley hegeliana, o simplemente la tachan de mística, pese a que el avance de las ciencias ha deparado interminables ejemplos a su favor. Queremos, no obstante, observar que esta ley hegeliana no agota las leyes dialécticas de la naturaleza, aunque algunos antidialécticos como Bunge se vean obligados a admitirla dentro de su esquema filosófico, cierto que de una manera muy peculiar. Para completarlas, es necesaria la otra ley hegeliana de negación de la negación, más importante y profunda que la anterior, y que la encontramos también en la periodicidad de las propiedades químicas de los átomos, que la física atómica ha explicado en detalle.

No podía ser de otra manera, pues la ley de la transformación de la cantidad en calidad, y a la inversa, es la forma más importante que adquiere la negación dialéctica, ya que, en cuanto aparecen nuevas cualidades, es porque se están negando las antiguas; y, en tanto este proceso se repite, volvemos posteriormente -a otro nivel- a las primeras. Para alcanzar este nivel superior es necesario que previamente se hayan negado una a una, mediante esos saltos cualitativos parciales de la primera ley de Hegel, todas las cualidades originarias del movimiento que se considere, hasta lograr alcanzar la cualidad plenamente opuesta a la primera. A partir de entonces, cada cambio cualitativo sólo puede significar un regreso a la cualidad originaria, dentro de este movimiento, o la aparición de un nuevo movimiento si las posibilidades contradictorias del antiguo se han agotado del todo, para lo que son necesarias determinadas condiciones. Esto es lo que sucede con el sistema periódico de los elementos de Mendeleiev, y que la mecánica cuántica ha explicado detalladamente.

La contradicción fundamental que da existencia a los átomos está entablada entre el núcleo y la corteza de electrones. De estos dos aspectos, es el núcleo el principal, pues según sean sus características así será el número de electrones capturados, la composición de las cortezas electrónicas, la absorción y emisión de radiación, la relativa libertad de movimientos interatómicos de los electrones, etc. El desarrollo de esta contradicción fundamental, teniendo en cuenta el carácter de la discontinuidad cuántica, origina todo el movimiento atómico, desde el benjamín de la tabla periódica -el hidrógeno- hasta los gigantes inestables últimamente descubiertos.

El hidrógeno tiene por núcleo un protón y como corteza un electrón. En las condiciones extraordinariamente ricas en gravitación y radiación electromagnética de las estrellas, el núcleo del hidrógeno capta neutrones, dando lugar a los conocidos isótopos del hidrógeno, deuterio y tritio. Pero si en vez de sólo neutrones aquel núcleo capta además un protón, se produce la aparición de los átomos de helio. Sin embargo, la corteza del helio está saturada, pues sus dos electrones completan su capa, por lo que su actividad química es muy reducida, contrariamente a lo que le ocurre al hidrógeno, cuya tendencia a completar su capa electrónica le reporta una destacada afinidad química. Entre el hidrógeno y el helio existe, pues, una diferencia cualitativa radical, en lo que a su actividad química se refiere: el helio es más bien un opuesto químico del hidrógeno, su negación dialéctica. Al igual que ocurría con los hidrocarburos, tenemos ahora que la modificación cuantitativa de neutrones produce los isótopos del hidrógeno, mientras que su modificación de protones origina los átomos de helio; en el primer caso, objetos físicamente diferentes, y en el segundo, también químicamente diferentes. De aquí que sea el protón, dentro del núcleo, su factor esencial, y los neutrones sólo condiciones necesarias.

Del helio se pasa posteriormente al litio, que posee tres electrones en su corteza y tres protones en su núcleo. En este átomo, la primera capa electrónica continúa completa, como en el helio -con dos electrones-, estando el otro electrón en una capa que podría admitir, en ocho niveles distintos, otros tantos electrones, siendo por esta circunstancia el litio un elemento muy activo con propiedades de afinidad química muy semejantes a las del hidrógeno. El litio es, como el hidrógeno, opuesto al helio y repite a su modo, en un nivel superior, las peculiaridades del hidrógeno añadiendo además otras nuevas, características de él.

Del litio al neón existe toda una gama de elementos con sus capas parcialmente llenas -como el boro, carbono, etc.- que originan, en sus variadas contradicciones, peculiaridades diversas; la cuantificación posibilita saltos cualitativos parciales, pequeñas nuevas cualidades, distintas afinidades químicas que se expresan por sus valencias y que son tanto más radicales cuanto más próximos estén los átomos a aquellos dos opuestos, al litio o al neón. Este último vuelve a repetir las características fundamentales del helio.

Este ciclo ascendente se continúa ahora del sodio al argón, etc. El desarrollo se puede representar por una espiral que va aumentado de amplitud; cada negación de la negación significa una vuelta completa en la espiral. Por esto decimos que la ley de negación de la negación queda ampliamente evidenciada en la física atómica. El cloro y el sodio, que son simétricos respecto del neón, y por tanto opuestos en sus actividades químicas (al sodio le sobra el electrón que le falta al cloro para completar su capa), se atraen mutuamente, uniéndose en la molécula de cloruro sódico. De esta manera, se equilibran en cuanto a las necesidades de sus capas electrónicas, pero se desequilibran en tanto a la relación contradictoria existente entre sus respectivos electrones y núcleos. El resultado más evidente es la continua fluctuación de un electrón entre los dos átomos, siendo ésta la característica más destacada de esa unidad molecular. Se trata de una contradicción de orden superior originada por dos contradicciones más elementales, para las que también es válida la ley hegeliana de transformación de la cantidad en calidad. Pero esto es ya el mismo ejemplo de Engels.

La misma ley la encontramos de nuevo en la moderna física, en la cromodinámica cuántica. Si tomamos una partícula nuclear, como un protón o un neutrón, vemos que está constituida por quarks.

Así, un protón posee dos quarks u y un quark d, mientras que el neutrón posee dos quarks d y uno u. Y con los demás hadrones ocurre algo similar: las diferentes combinaciones de quarks (u, d, s, c, b, t) ocasiona los diferentes hadrones, en una especie de química de quarks. Los quarks interaccionan entre sí mediante los gluones, intercambiándose las cargas de color, que no sólo preservan la unidad de cada partícula; ahora bien, la condición para que esta unidad no se rompa requiere que, al mismo tiempo, los quarks transformen -en ese intercambio- su carga de color. La unidad nuclear resulta así más profunda que la unidad atómica, que no requiere de cambios en las cargas eléctricas del electrón o protón para subsistir.

La mecánica cuántica analizada bajo el enfoque materialista y dialéctico hace comprensibles diversos hechos contradictorios que resultan un enigma a la metafísica. Para el pensamiento dialéctico no es incómodo hablar de micropartículas (sabiendo que no sólo es partícula) y de campo (sabiendo que no sólo es campo). La dialéctica, despojada del misticismo -dice Engels-, se convierte en una necesidad absoluta para las ciencias naturales, que abandonaron el terreno en que bastaban las categorías rígidas, que por decirlo así representan las matemáticas inferiores de la lógica, sus armas cotidianas (25).

Es reconfortante comprobar cómo ha sido la misma física experimental la que ha tirado por la borda las absurdas ideas de Heisenberg contra la divisibilidad de la materia y su composición. También es estimulante constatar cómo la insustancial idea de campo, únicamente continuo, se le sustituye por otros conceptos que materializan, en algún tipo de partícula, los agentes de la interacción. Además, la concepción de la partícula como un proceso en desarrollo facilita -en gran medida- su estudio, la comprensión de sus múltiples transformaciones y la aparición de partículas nuevas. Esta es una realidad que se va imponiendo, pese a que aún perduren los viejos residuos metafísicos. Así, Fritzsch dice: Los leptones son entes sin estructura, mientras que el protón está formado por tres quarks (26), añadiendo en otra parte: Esperamos poder construir una teoría definitiva de la materia si leptones y quarks son entes realmente elementales (27). La misma evidencia empirista, que desechó el erróneo concepto de partícula elemental, se convierte ahora en ceguera, cuando se toma como definitivo lo que aún hoy no es posible para la ciencia: romper el leptón y el quark. La única concepción admisible es la que admite que la materia es infinitamente divisible: tenemos primero la molécula, después el átomo, a continuación el electrón y el núcleo, luego las partículas nucleares, ahora los quarks. ¿Dónde, pues, acaba este camino del que sí sabemos que comenzó en la boca de Leucipo? El camino no tiene fin; simplemente acaba de comenzar.

Como vemos, la tentativa que pretende haber alcanzado el fondo absoluto de las cosas aún no ha muerto. Los entes realmente elementales, conviene desengañarse, no existen. La partícula verdaderamente elemental y origen de las demás (esto es realmente de lo que se trata) no podría interactuar, porque carecería de contradicciones internas, siendo así imposible que pudiese originar nada nuevo. Para que esto último ocurriese, la partícula elemental habría de cambiar. Y sabemos que el cambio es contrario, por principio, a toda homogeneidad absoluta: la partícula elemental se destruiría a sí misma, por lo que la idea de que los leptones son entes sin estructura es simplemente un tranquilizante de conciencias. Estamos increíblemente lejos del fin de la física y nos alegramos por ello: las generaciones futuras no se aburrirán con teorías perfectas para siempre, legadas por sus antepasados.

Tampoco se adelanta nada cuando se abordan los procesos de interacción interpartículas como se hace hoy comúnmente. Se sabe que los fotones electromagnéticos son los agentes de dicha interacción; sin embargo, no se considera el proceso en sí -por lo menos en su definición- sino únicamente los resultados globales del proceso, y ante la imposibilidad de saber lo que realmente sucede, se introduce lo virtual. Veamos: Ambos electrones se acercan el uno al otro y se intercambian quantums de fotones; en este caso especial fotones virtuales, que hay, que distinguir de los llamados fotones reales (los quantums, pongamos por caso, de la luz visible). Este intercambio de fotones virtuales lleva a la repulsión electromagnética de ambos electrones (28). ¿Por qué no admitir sencillamente que tales fotones virtuales no son sino materia mutuamente absorbida y radiada durante el proceso de repulsión? Esto evitaría la dificultad de andar buscando fantasmas virtuales, lo que facilitaría, al menos en su planteamiento, la comprensión del proceso de la contradicción electromagnética. Del hecho de que la materia de interacción electromagnética que interviene en la repulsión de los electrones no sea como los fotones de la luz visible, no se extrae que sean virtuales (no reales como dice Fritzsch).

No abrigamos la mínima duda de que con el desarrollo de la física se terminará por desechar la escoria metafísica que aún la atenaza. Claro que esto ocurriría con mayor rapidez y beneficio si la dialéctica, que se aplica como M. Jourdain aplica la prosa, se aplicase conscientemente.

Notas:

(1) M. Ferrero: Actas del I Congreso de teoría y metodología de las ciencias, pg. 244.
(2) Citado por M. Ferrero:Actas del I Congreso de teoría y metodología de las ciencias.
(3) L.D. Landau y E.M. Lifshitz: Mecánica cuántica no-relativista, pg. 55.
(4) P.A.M. Dirac: Principios de Mecánica Cuántica, pg. 110.
(5) Max y Hedwing Born: Ciencia y conciencia en la era atómica, pg. 104.
(6) Max y Hedwing Born: Ciencia y conciencia en la era atómica, pg. 136.
(7) N. Bohr: Nuevos ensayos sobre física atómica y conocimiento humano, pg.19.
(8) N. Bohr: Nuevos ensayos sobre física atómica y conocimiento humano, pg. 16.
(9) M. Omelianovski: «Lucha filosófica de las ideas en las ciencias naturales», en Problemas del Mundo Contemporáneo, núm. 43, pg. 40.
(10) M. Omelianovski: «Lucha filosófica de las ideas en las ciencias naturales», pg. 44.
(11) L.D. Landau y E.M. Lifshiz: Obra citada. pg. 30.
(12) V.I. Lenin: Cuadernos filosóficos, pg. 147.
(13) M.G. Doncel: Actas del I Congreso de Teoría y Metodología de las Ciencias, pg. 356.
(14) N. Bohr: Nuevos ensayos sobre física atómica y conocimiento humano, pg. 74.
(15) V.A. Fock, citado por L.R. Graham en Ciencia y Filosofía en la Unión Soviética, pg. 93.
(16) M. y H. Born: Ciencia y conciencia en la era atómica, pg. 129.
(17) Y. Sachkov: «Filosofía y problemas conceptuales de las ciencias contemporáneas», en Problemas del Mundo Contemporáneo, núm. 60.
(18) Y. Sachkov: «Lucha filosófica de las ideas en las Ciencias Naturales», en Problemas del Mundo Contemporáneo, núm. 43.
(19) F. Engels: Dialéctica de la Naturaleza, pg. 177.
(20) Recogido por Y. Sachkov en el artículo citado.
(21) M.E. Omelianovski: citado por L.R. Graham en Ciencia y filosofía en la Unión Soviética, pg. 134.
(22) M. Omelianovski: «Lucha filosófica de las ideas en las Ciencias Naturales», en Problemas del Mundo Contemporáneo, núm. 43.
(23) P. Nizan: Los materialistas de la antigüedad, pg. 76.
(24) K. Marx: Diferencia de la filosofía de la naturaleza en Demócrito y en Epicuro, pg. 38.
(25) F. Engels: Dialéctica de la Naturaleza, pg. 164.
(26) H. Fritzsch, Los quarks, la materia prima de nuestro universo, pg. 197.
(27) H. Fritzsch, ídem, pg. 258.
(28) H. Fritzsch, ídem, pg. 49.