top of page

4.9- Relatos Víricos #1.

Actualizado: 21 jun 2020

Por R. Gonmar y D. Herdo


Resumen: Un paleontólogo evolucionista vino a decir que “la física es la ciencia de lo infinitamente grande y lo infinitamente pequeño.” y que “La biología es la física de lo infinitamente complejo”. Pero establecer un nuevo infinito no parece decirnos demasiado sobre la realidad que hay entre el máximo y el mínimo de la realidad material. Como apuntábamos, la relación entre lo infinitamente grande y lo infinitamente pequeño está mediada por un trabajo, una acción que se reduce a la transferencia de una magnitud. ¿Con todo el espacio muestra posible, por qué el incremento de la complejidad requiere un plegamiento dimensional de sus formas? ¿Por qué el aumento de complejidad no supone un fenómeno expansivo? Porque la complejidad no tiende a un espacio infinito, sino a un espacio concreto. La forma resultante, producto de la mediación de un trabajo [una función], se ajusta a una dimensión espacio temporal concreta que condiciona las formas estructuradas bajo su límite. La presión mecánica de un medio [Espacio-tiempo] es condición suficiente para un aumento de la complejidad, pero no presenta necesidad, atributo este último, que requiere de un incremento masivo de funciones mínimas en un sistema. Solo hay una dimensión espacio temporal que podría ejercer una presión mecánica suficiente para emerger una función sin un aporte de destino por parte de un observador externo como condición necesaria. ¿Cómo se entiende la dirección o el desenlace evolutivo sin incorporar elementos mágicos que lo hagan posible? Si fijamos la vista en los principales mediadores, en aquellos microorganismos con un mínimo funcional, descubriremos las características de la materia. Ellos son los que realizan la síntesis sobre el atributo universal.

Palabras clave: virus, bacterias, vida, materialismo histórico, universo.


“Los hombres, por el contrario, a medida que se alejan más de los animales en el sentido estrecho de la palabra, en mayor grado hacen su historia ellos mismos, conscientemente, y tanto menor es la influencia que ejercen sobre esta historia las circunstancias imprevistas y las fuerzas incontroladas, y tanto más exactamente se corresponde el resultado histórico con los fines establecidos de antemano. Pero si aplicamos este rasero a la historia humana, incluso a la historia de los pueblos más desarrollados de nuestro siglo, veremos que incluso aquí existe todavía una colosal discrepancia entre los objetivos propuestos y los resultados obtenidos, veremos que continúan prevaleciendo las influencias imprevistas, que las fuerzas incontroladas son mucho más poderosas que las puestas en movimiento de acuerdo a un plan.” F. Engels, Introducción a La Dialéctica de la Naturaleza.

Encontramos un estudio hace poco que intentaba resolver aquella afirmación que lanzó el astrónomo Carl Sagan en Cosmos, célebre programa de televisión de los años 80. Para realizar la hazaña, el estudio asignaba un tamaño promedio a un grano de arena. Esta tarea la realizó Gary Greenberg, un científico que examinó la arena y calculó que cada grano tiene un tamaño aproximado de una décima de milímetro [10 millones de granos en un metro cúbico].


El estudio logró determinar de forma ponderada que hay 375.000 millones de metros cúbicos de arena, un resultado que nos devuelve en granos de arena una cifra de 3.75 con veintiún ceros detrás. La respuesta no dejaba lugar a dudas: hay alrededor de diez sextillones de estrellas y algo menos de cuatro sextillones de arena en las playas de la tierra. Sagan había acertado con su afirmación.

10.000.000.000.000.000.000.000. Estrellas en el universo.

4.000.000.000.000.000.000.000. Granos de arena.

Parecía que este cálculo ponderado sería suficiente para templar la inquietud aritmética de algunos observadores estacionales. La realidad es que esto solo arrojaba información comparada con las playas de la tierra. ¿Qué sucedía con el depósito de granos de los desiertos? ¿y toda la arena del fondo de océanos, lagos y demás superficies sumergidas (el 70,7% de nuestro planeta)? Hasta aquí vamos a leer porque es una frontera que nos resulta suficiente para continuar esta aventura mensurable.


¿Más estrellas que arena? Carl Sagan solo había formulado una hipótesis para encontrar y medir una razón. Un suceso nada menor por simple que parezca; se construye un artefacto intelectual por comparación, para establecer una relevancia sobre un contenido y como resultado, la emergencia de una nueva información destacada. La razón es un fenómeno tautológico, se expresa así mismo valiéndose de unos principios que una sociedad debe asumir universalmente como ciertos, de lo contrario no se podría constituir y consolidar como ejercicio rector. Para hacerlo, estos principios son regidos por una lógica, disciplina que se encarga de definir las reglas que gobiernan la razón. La lógica formal establecer tres principios: identidad, no contradicción y el principio del tercero excluido. Es la lógica, por tanto, la que determina lo que es o no es razonable en cumplimiento a una sería de principios. Si adecuamos los elementos a los principios logramos que el resultado comparado sea coherente. Parece que Sagan tenía razón.


Para entonces no se hizo ninguna otra similitud comparada que nos sirviera para medir proporciones de escala. La continuidad a este ejercicio podría haberse justificado en la búsqueda de los máximos y los mínimos más significativos para nuestra racionalidad; comparaciones que nos proporcionan información relevante para nuestra comprensión de las magnitudes y las distancias que guarda nuestro universo material. Podría haber sido un entrenamiento primitivo o un primer acercamiento lúdico al estudio de la complejidad, a la comprensión de lo cuantitativo y lo cualitativo. Acercarnos a la variable información como una realidad materializada, a cómo la información, ordena y/o codifica el lugar en donde está; y ¿dónde está? Por entonces no sucedió, no se realizaron más incursiones sobre proporciones y escalas que nos acercarán a la frontera de lo universal.


Nosotros convenimos en que el ejercicio podría ofrecer nuevas oportunidades a las comunidades dotadas de razón, si bien anotamos que los objetos comparados no alumbran una salida significativa si grandeza e insignificancia quieren mostrar relacionando volúmenes inertes. Por contra, sí nos pueden ayudar a comprobar las relaciones entre lo infinitamente concreto y lo absolutamente abstracto. Para ello solo hay que seguir sustituyendo uno de los dos objetos comparados. Por ejemplo, la cantidad de moléculas contenidas en una gota de agua. Algo así como: ¿En cuántas gotas de agua se contienen más moléculas [H2O] que estrellas en el universo?

10 gotas de agua. ¿La magnificación del universo que quería hacernos ver Carl Sagan se aumenta o se reduce? Cambiemos la pregunta ¿La magnificación de lo universal se aumenta o se reduce? La lógica del lenguaje no se presenta de la misma forma que la lógica del pensamiento. Para un/a argentino/a preguntar ¿Qué es lo más grande? no parece ser lo mismo que preguntar ¿Qué es más grande? A fecha de hoy se han destacado otros artefactos conceptuales para separar lo grande de lo complejo.


A nuestro parecer lo más significativo a destacar en estos análisis comparados es cuando el tamaño grande y lo complejo se asocian en una relación incremental, porque esto obliga a aumentar una magnitud específica de algo. Adquirir nueva información mediante este proceder, no solo fija una nueva función, sino que requiere un aumento del número total de elementos sobre la realidad material de un universo muestra. ¿Cómo se acumulan estos productos de la razón? ¿Qué dimensión habitan? ¿Se acumulan realmente? Veremos que la opción más plausible pasa por un plegamiento estructural sobre un medio material con un orden ya dado.


Pero para llegar a este punto empecemos por desarrollar el enunciado que nos ha traído hasta aquí. En el estudio de la composición, estructura y propiedades de la materia surge una primera distinción a mediados del siglo XVIII que separa los compuestos basados en carbono del resto. Al igual que esta, toda clasificación es un constructo subjetivo que nos permite abstraernos del conjunto total de relaciones, para fijarnos en aquellas que consideramos relevantes para nuestro proceder cognoscitivo. Siempre que nos abstraemos es para escoger el conjunto de relaciones significantes de un sistema. La proposición de Sagan reducía el campo muestra para significar una magnitud a través de una cantidad comparada, y establecer relevancias fuera de la relación objetiva que mantienen los dos cúmulos de materia escogida. Es a través de una característica contable o mensurable, una proporción, como se establece una dependencia entre granitos de arena y estrellas.


Al proponer una sustitución de una de las dos magnitudes por la cantidad de moléculas en una gota de agua, logramos advertir, de forma muy sencilla, que la cantidad de elementos mínimos desempeña un papel fundamental en la adquisición de una nueva característica funcional en el universo material. Que el constituyente basal del principio de transformación pudiera ser una característica mensurable nos anima a continuar nuestra comparativa; podríamos estar ante el mecanismo más primitivo de evolución y por lo tanto de aumento de la complejidad.


Estas semblanzas de la dialéctica procesual divergente, donde lo mismo se hace otro por un mecanismo de metábasis, hace que cualquier estudio comparado entre proporciones y escalas pueda determinar el límite de la función con respecto a un tamaño. El siguiente paso sería fijar nuestra atención en aquellas unidades mínimas que desempeñan una función, es decir, solapar la función adquirida con un tamaño mínimo. Fijado un tamaño mínimo por función podríamos desenredar la evolución con respecto al tamaño. Dicho de otro modo, ver si el tamaño mínimo de una función es un máximo, es decir, es el tamaño suficiente y necesario para constituir una formar especifica de materia.


Nuestra hipótesis pasa por establecer una relación que mida la cualidad de una función que emerge a través de una característica mensurable, por cantidad, para entender como un máximo número de elementos, con un mínimo funcional por unidad, hacen emerger un conjunto de semióticas como fuente principal para el incremento de la complejidad en cualquier universo muestra. Aunque las consecuencias que podría implicar esto las veremos más tarde, parece que el universo astrofísico, aunque fácil de observar, es en realidad muy pequeño funcionalmente comparado con otras magnitudes.


Esto, que no deja de ser una discusión sobre el emerger de una nueva función en base a una densidad poblacional, obliga, como primer paso, a estratificar nuestra búsqueda para encontrar elementos que se presenten en gran número poblacional y presenten un máximo funcional, es decir, tengan un cuerpo específico formado. En nuestro caso, por su tamaño, hay dos grupos sobre los que poner la atención: El primero a nombrar son las bacterias, de unos pocos micrómetros (por lo general entre 0,5 y 5 μm de longitud). Y el segundo, los virus o si se prefiere, Aphanobionta (Novak 1930), Akamara (Hurst 2000) o Nucleacuea (Biolib 2008), que son hasta 100 veces más pequeños que las Bacterias.


La relación parece sencilla de establecer. Solo tendremos que hacer el mismo ejercicio que con los granos de arena. Solo que ahora, al obtener la respuesta, deberemos fijar la atención en tres elementos: Función, Magnitud y Trabajo; una función es el desempeño de un trabajo. Una magnitud es función de otra si el valor de la primera depende del valor de la segunda. El trabajo es la transferencia de una magnitud. Tres definiciones que permitirán diferenciar una función de otra y como consecuencia identificar sus formas especificas. Este ejercicio deductivo también permite relacionar una función [A través de su forma] con el lugar donde se desempeña y, por lo tanto, medir el nivel de dependencia que presentan estos elementos con el universal donde se integran, es decir, medir el nivel de organización de la actividad en el lugar donde se desempeña. Esta simple relación es la que convenimos en denominar como el grado de complejidad de un sistema: La magnitud de complejidad.


Se ha calculado que el número de bacterias en la Tierra es aproximadamente un quintillón, es decir, un uno seguido de treinta ceros. Traigamos las cifras de nuevo:

10.000.000.000.000.000.000.000. Estrellas en el universo.

4.000.000.000.000.000.000.000. Granos de arena.

1.000.000.000.000.000.000.000.000.000.000. Bacterias en la Tierra.

Se estima que el número de virus es entre cinco y veinticinco veces el número de bacterias.

25.000.000.000.000.000.000.000.000.000.000. Virus en la Tierra.


Empezaremos clasificando dos tipos de masa con el fin de calcular una magnitud, una que denominaremos masa funcional (aquellos cuerpos que desempeñan una función) y una masa formal, en donde agruparemos a todas las demás formas. Como se puede apreciar, la segunda contiene a la primera, es decir, todo cuerpo físico presenta una forma, sea o no apreciable para nuestros sentidos, y por lo tanto toda función está dentro de este grupo de formas. La propuesta intentará justificar esta elección forzada a lo largo de las líneas sin caer en el debate entre adaptacionistas y pluralistas que Stephen Gould y Richard Lewontin iniciaron con su texto: The Spandrels of San Marco & the Panglossian Paradigm en el panorama de la teoría evolutiva. Nuestro supuesto paradigmático solo fija una diferencia entre ambos grupos de masa: La capacidad de realizar un trabajo, es decir, transformaciones con sentido y significado.


Como ocurre en el caso de la asimetría bariónica o la quiralidad bioquímica, una sencilla disposición lógica revela que la función antecede a la forma y que no existe más mediación que un cambio de magnitud para que emerja un salto o asimetría en un sistema. Un simple cambio de gradiente térmico no solo conlleva un aumento de entropía en un sistema, a razón de la segunda ley de la termodinámica, también contiene la simiente de una transformación. Prigogine ejemplificaba esta afirmación poniendo el caso de un sistema compuesto de dos vasos comunicantes que contienen una mezcla de nitrógeno e hidrógeno. Si la temperatura del sistema es homogénea, también lo será la distribución de los dos gases, pero si se somete al sistema a una constricción térmica se genera una disipación, un aumento de la entropía, pero también del orden, ya que el hidrógeno predominará en una de las cajas y el nitrógeno en la otra (fenómeno de antidifusión). “La producción de entropía contiene siempre dos elementos dialécticos: un elemento creador de desorden, pero también un elemento creador de orden. Y los dos están siempre ligados". Esta afirmación, que encontraría refutación aplicada a una lógica formal o consistente, encuentra un lugar en la epistemología paraconsistente o dialéctica.


Sucede del mismo modo con la circularidad material entre la clasificación abiogénica y biogénica, ocurre por una pérdida del orden, una estructuración que posibilita la correcta ejecución de un programa. El origen del mundo biogénico [orgánico] solo puede ser el abiogénico [inorgánico], estableciendo su transformación a través de un simple cambio de orden. ¿Como consecuencia? la emergencia de una nueva propiedad [una propiedad emergente] por la transferencia de una magnitud [Mediación de un trabajo] y la correlación entre sus valores [Una función]. Este suceso debería ser suficiente para fijar un principio y una dirección evolutiva como consecuencia de este orden, del mismo modo que lo inorgánico precede a lo orgánico: La parte presenta más complejidad que el todo.


Al situarnos bajo esta hipótesis observamos que el aumento de la complejidad depende de un incremento del número de elementos que desempeñan algún tipo de actividad. Suceso que obliga a que la magnitud asociada a esta complejidad ocupe una dimensión que debe estar fraccionada en una superficie; es decir, aumentar la complejidad no es una cuestión de tamaño, sino de plegamiento dimensional. La materia debe estar plegada en el espacio.


Reducir y clasificar el modelo cognoscible en dos reinos solo responde al orden que queremos revelar, para establecer nuestra frontera de observación. Este orden siempre es subjetivo, un cierre categórico con el que poder encapsular el conocimiento, a fin de magnificar las fronteras dentro de la continuidad material del universo. Un ejemplo claro de esto es cuando Robert Wittaker definió la clasificación moderna de los seres vivos en cinco reinos [M,P, A,F,Pl], en contra del clásico sistema de tres [M,A,V]. Al tiempo, Lynn Margulis planteaba que el origen de todos los eucariotas, es decir, todos los reinos menos los Monera, se debía a una combinación primigenia o fusión, un origen por simbiosis o “simbiogénesis”. Pero ¿por qué un nuevo orden? Para observar la frontera de la realidad objetiva y describir los procesos aplicados a la formación de los distintos tejidos. Sin propuesta clasificativa no hay relevancia en el sistema. No nos podríamos abstraer. Bajo el viejo orden no explicábamos la realidad ¿aún conservando los mismos principios lógicos? Parece algo ridículo. O encontramos insuficiencia severa en el marco epistemológico o entendemos como un deber adaptarnos al corpus de principios que se han fijado, del mismo modo que un compromiso adquirido a través de un pacto social.






Pasa lo mismo con muchas paradojas biyectivas que se pueden consultar por decenas en el campo de estudio de la física matemática. Galileo Galilei, en su último trabajo, hizo dos afirmaciones aparentemente contradictorias acerca de los números enteros positivos. Primero, algunos números tienen la propiedad de ser un cuadrado perfecto (esto es, el cuadrado de un entero, desde ahora llamado simplemente cuadrado), mientras que otros no la tienen. Por ello, el conjunto de todos los números, incluyendo tanto a los cuadrados como a los no cuadrados, tiene que ser mayor que el conjunto de los cuadrados. Sin embargo, por cada cuadrado hay exactamente un número que es su raíz cuadrada, y por cada número hay exactamente un cuadrado. Por lo tanto, no puede haber más de un tipo que de otro. La limitación de lo que podemos aprehender es una frontera delimitada por un tipo de racionalidad cognoscitiva que incorpora sus formas de pensamiento [artefactos, ideas] al nicho, medio o contexto cognoscible. De ahí que el propio Galileo no dudara en cerrar o limitar el espectro de conocimiento sobre magnitudes de mayor, igual o menor a los conjuntos finitos, dotando de sinsentido a los conjuntos infinitos.


Es sobresaliente que Galileo demostrara que el número de puntos en un segmento es el mismo que en un segmento algo mayor. Pero la sorpresa volvería a saltar en el siglo XIX, cuando Georg Cantor demostrara que la conclusión general de Galileo no era completa, dado que algunos conjuntos infinitos son mayores que otros. Esto solo pone de relieve la subsunción que los organismos tienen respecto a los paradigmas científicos acontecidos en la historia [Material], y como estos últimos marcan el devenir del desarrollo del conocimiento en una u otra dirección. El producto de las ideas debe aumentar o disminuir una cantidad específica en magnitud. Esta cantidad que podríamos asignar a la información es la que se relacionará con nuestro factor de comparación. Solo esta relación de magnitud entre dos proporciones hace que nuestros nuevos elementos a comparar procesen información; aunque esto último requiere algo más de dedicación.




Volvamos a nuestro simplificado modelo de clasificación que divide nuestra muestra en dos grupos para marcar una primera diferencia cuantitativa. Parece claro que la información efectiva de un sistema aumenta con la cantidad de elementos, del mismo modo que un aumento en la diversidad, señala un aumento de la complejidad. Para incorporar el parámetro de densidad a nuestro grupo inorgánico bastará con calcular una métrica de energía potencial para obtener una posible deformación en energía cinética; son masa en un medio, sometidos a una ley natural. Para el caso del tipo biogénico funcional, aunque se calcula que su biomasa total es mayor que la biomasa vegetal terrestre, no bastará con calcular su biomasa potencial como objeto de deformación, dado que son cuerpos de mediación, ejercen un trabajo en un medio y habrá que relacionar el trabajo que realizan con el gradiente de materia que adquieren los cuerpos con los que interactúa o se relacionan. Tendremos que medir esa actividad en función a una magnitud. ¿Qué magnitud? El trabajo es una magnitud física escalar que se expresa en unidades de energía [Julios]. La energía es la capacidad que tienen los cuerpos o sistemas materiales de transferir calor o realizar un trabajo. Parece suficiente.


Dijimos que el número estimado de virus en la Tierra es de cinco a veinticinco veces más que el de bacterias. A esto, aceptando por el momento la popular hipótesis de la panspermia, vamos a añadir que la aparición en la Tierra de virus y bacterias fue paralela, simultanea, cuando no interdependiente. Si traemos la densidad total de elementos mínimos capaces de realizar un trabajo, la cifra es desorbitada. Es tan sumamente grande que produce una fractura en nuestra certidumbre procesual. ¿Seremos capaces de relacionar la cantidad de materia que ha sido mediada por un trabajo para compararla con la cantidad de materia que no lo ha sido? La cantidad y la diversidad establecen una correlación directa si al aumento de complejidad de los sistemas se refiere.


Un cantidad elevada de diversidad identifica una complejidad elevada y viceversa. Dado que nunca ha habido una verdadera métrica para la complejidad, todo son valores cualitativos establecidos por una subjetividad histórica, difícil de consensuar; es complicado seleccionar unas variables que permitan medir un aumento en magnitud. Por ejemplo, la correlación entre tamaño y complejidad es bastante cuestionada, porque no es homogénea, un ratón no es menos complejo que una secuoya y plantea el eterno problema de los límites: ¿Dónde acaba el individuo? El bosque de bambú o las micorrizas del suelo ¿son uno o muchos? ¿simples o complejos? Un parásito o simbionte interno, casi sin órganos, es un organismo simple o una pieza que añade complejidad al sistema? Hay características en la célula eucariota que no se encuentran en las bacterias [ARN mensajero, cromosomas lineales y separación de la transcripción de la traslación], elementos que se han identificado como una herencia procedimental vírica.


Sabemos que el tamaño del ‘gen’ procariótico es uniforme, aproximadamente de 900 a 1000 pb. Por tanto, se podría estimar la densidad génica en cada genoma secuenciado. La densidad génica es más o menos constante, tanto en bacterias, como en arqueas. Suceso que podríamos interpretar como una homología, no para medir el tipo de actividad específica frente al trabajo, dado que el resultado no muestra la diversidad funcional, sino al tipo de complejidad. Es decir, que de decirnos algo, sería que la actividad presenta la misma relevancia en los organismos procarióticos. No se podría definir del mismo una homología para la actividad viral. El desenlace de su actividad en los nichos ecológicos es ciertamente desconocida, esto se debe a que son cuerpos pasivos, inertes, sus procedimientos dependen de las funciones celulares a las que pertenecen. Son dependientes y esta característica representa un gradiente de complejidad sin respuesta, sin medida hasta la fecha. La realidad es que es la célula la que utiliza y activa las funciones víricas. Esto hace que el virus sea un extensor de unas funciones ordenadas en un sistema. Por contra, este hecho sin métrica, establece la dirección resultante del vector causa-efecto en los acontecimiento biogénicos. No se pueden confundir orígenes con destinos cuando media un trabajo [La magnitud se traslada de un lado a otro]. Es la célula el tejido con capacidad de ordenar sobre un conjunto de funciones y toda célula ha sido formada a partir de otra (u otras) anteriores, como resultado de su ciclo celular, su historia evolutiva, su metabolismo. En síntesis, es producto del trabajo celular y una reproducción del mismo.


Esto nos permite establecer ciertos mecanismos para diferenciar el índice de causalidad. La fusión de procariotas determina la formación de nuevos organismos celulares. Ahora sabemos que existen mecanismos en eucariotas que son capaces de expandir el proteoma, proceso que permite obtener a partir de una misma secuencia de ADN más de una proteína. Este procedimiento pone de manifiesto que los organismos más complejos presentan más funciones génicas, capaces de generar un aumento en la densidad. Pero ¿a qué se debe? ¿es arte de magia? ¿es azar?


Bajo este esquema se puede deducir que la respuesta de una célula responde a su organización, como una unidad de procesamiento de información que da respuesta a los ambientes en los que habita. Es la célula la que activa y desactiva sus funciones como respuesta a una alteración, regulando su funcionamiento hasta lograr una adaptación en el medio [natural]. Por lo tanto los virus son una parte del mecanismo de regulación celular y no un suceso ajeno, extraño. Si la alteración, el cambio en el medio es agresiva para el organismo, la reacción por parte de la célula es producir un intercambio de reactivos patógenos, una consecuencia que, en realidad, responde a una reproducción intensiva que la célula desencadena para hacer frente a la agresión ambiental. Se ha comprobado que los antibióticos, en condiciones naturales, son emitidos por las bacterias como señales comunicativas, no letales, que generan gradientes espaciales en el suelo, interpretables por otras bacterias.


En definitiva, nos encontramos ante una casuística elevadamente compleja y muy difícil de medir frente a un gradiente de magnitud física. La suma de bacterias y virus proporciona una cantidad de relaciones de orden universal para nuestro campo muestra. Que un organismo de tipo bacteriano fuera el causante de hacer la atmósfera adecuada para la vida mediante la fotosíntesis, ejemplifica la importancia de la mediación de un trabajo para aumenta la magnitud de algo.


No deja de ser extraordinario que las primeras bacterias oxigénicas, por el simple hecho de adquirir un nuevo mecanismo metabólico (plausiblemente, por medio de transferencia vírica), desencadenaron un proceso de oxidación global que marcaría para siempre el curso de la evolución. No es que la atmósfera con oxígeno permitiese la vida, el oxígeno acabó con la mayoría de los nichos anaerobios libres y con los microorganismos que en ellos vivían. Esta atmósfera forzó un cambio hacia metabolismos basados en el oxígeno, una sustancia altamente reactiva, lesiva, energética. Este suceso permitió el desarrollo de cuerpos complejos, y también, de su senescencia.


¿Qué magnitud tenemos que medir entonces?

Signifiquemos que conforme el trabajo celular se va realizando, los metabolitos se rompen en compuestos más simples. Como secuencia de este incremento de entropía en el entorno celular, los compuestos simples se utilizan para formar polímeros con alto contenido en información biológica, como ocurre en la formación de ADN, ARN o las proteínas. El desenlace del trabajo celular nos conduce a una variable cualitativa. ¿Qué componente en magnitud como resultado nos podrá ofrecer este proceso, que en origen es masa y/o energía y como resultado nos da una variable cualitativa como la información? ¿Existe diferencia entre ambas magnitudes?

Existe un método para calcular la cantidad mínima de información genómica necesaria para construir el organismo, dado que, repetimos, no hay correlación entre el número de genes y la complejidad. Este mínimo de información se ha querido denominar información efectiva. Un artefacto que relaciona, con mucha proximidad, un solo valor con la complejidad fenotípica definida por la taxonomía tradicional.


Los resultados de este método concluyen que cuanto más simple es el organismo, menor es el valor de su Información efectiva. Cuanto más complejo es el organismo, mayor es el valor de su Información Efectiva. La información efectiva en virus está entre 10³~10⁵ bits, mientras que en bacterias está entre 10⁶ ~ 10⁷ bits, y en eucariotas entre 10⁷ ~ 10⁸ bits. Para los organismos multicelulares, la información efectiva aumenta de 4.68e7 bits de placozoa a los 8.38e8 bits de seres humanos. Bajo la advertencia de la escasez de los datos, el estudio concluye, por los resultados comparados con otros estudios, que el parámetro de información efectiva se puede utilizar como una medida cuantitativa de la complejidad fenotípica del organismo, desde los virus más simples hasta los seres humanos más complejos.

Debido a la dificultad de establecer unos parámetros de equivalencia entre nuestros dos grupos de clasificación, debemos realizar una correlación con un tipo de información que suponga una cantidad de masa en un determinado volumen, y obtener una magnitud de densidad específica. Debido a que no existe correlación entre el número de genes y la complejidad de un organismo, tendremos que hallar un modelo que si nos permita discutir y comparar las magnitudes de nuestros dos grupos para lograr establecer significaciones y/o relevancias. Solo hay que buscar para darse cuenta que el gusano nematodo C. elegans tiene 5.000 genes más que la Drosophila, un organismo más complejo y el Homo sapiens sólo tiene el doble de genes que C. elegans.

Pero ¿Por qué se ha privilegiado a la complejidad como el horizonte de respuesta que puede resolver las inquietudes cognoscitivas con más probabilidad? Que la realidad sea compleja no significa que su expresión lo sea, dado que la expresión es un estadio de complejidad que ha evolucionado para sintetizar las acciones a través de un proceso de abstracción. El resultado de un fenómeno complejo debe dar como respuesta una abstracción que simplifique el fenómeno. De ahí que haya razonamientos que trascienden a la intuición, como aquello de que a igualdad de condiciones la explicación más sencilla suele ser la correcta. El significado de esto es muy simple; cuando dos descripciones de una realidad conducen a consecuencias equivalentes, la teoría más simple tiene más probabilidades de ser la más adecuada. Es una especie de principio de mínima acción [Para el mismísimo Richard Feynman una guía de vital importancia].


Nuestro intento por comparar las magnitudes de los dos grupos tipo, en realidad se enmarca en un problema de escala. Un problema que debería darnos una solución geométrica como uno de los resultados homeomorfos posibles a cualquier realidad concreta. Es decir, hay modelos teóricos equivocados que nos proporcionan un límite sobre la realidad cognoscible. Esos límites son los que permiten medir en magnitud los resultados de una observación. Resultados que deben ser representados de forma homóloga para cualquier cierre categorial, cualquier disciplina científica que nos permite conocer la realidad objetiva, a través de un protocolo de observación y/o experimentación. Es el modelo teórico el que determina la capacidad de transformar en magnitudes cognoscible un fenómeno natural, y este proceder el que fija nuestra condición y conocimiento en y sobre la naturaleza. La sencillez del modelo determinará la capacidad de resolver las hipótesis que generemos.


La lógica, en último término, es la ciencia que muestra la forma del pensamiento, con independencia de sus términos verbales, léxicos, semánticos y sintácticos. Estas formas son las fronteras que la naturaleza incorpora a nuestra razón, porque, esta última, forma parte de la misma naturaleza. No podemos inventar una realidad y ajustar nuestros parámetros a conveniencia para que la naturaleza se ajuste a nuestro modelo sin contradicción lógica. Por tanto, nuestro modelo debe encontrar una forma de razón que responda a la objetividad de un suceso y no a la posición de un observador. Esto que para algunos podría parecer una perogrullada en la comprensión intuitiva, se revela como uno de los puntos críticos más destacados en la ciencia física contemporánea.


Cuando se describió el plegamiento del ADN bajo una estructura fractal, la relevancia más importante con relación al desarrollo del conocimiento no fue que un fractal fuera la dimensión real del polímero, sino que la descripción mediante geometría fractal muestra que el denominado ADN basura tiene un papel altamente relevante a la hora de posibilitar este plegamiento, emergiendo del estercolero de un modelo y sumándose a un volumen enorme de argumentos que ya manifestaban las aberraciones infundadas sobre las partes no “codificantes”. Esta forma dimensional relaciona aquellas unidades que deben expresarse de forma conjunta. El hecho de que existan objetos geométricos que no admiten espacio tangente determina una propiedad para los cuerpos que no vamos a abarcar en este artículo; pero mencionaremos el atributo más destacado para nuestro ejercicio: Las líneas rectas no presentan realidad física como ocurre en la trayectoria que sigue una partícula browniana; lo único que tiene realidad son los puntos, las posiciones de la partícula al final de un intervalo. La trayectoria que sigue una partícula browniana continúa teniendo una estructura similar a la que no afecta el cambio en la escala de tiempo. Como consecuencia se obtiene un objeto que presenta la misma estructura al cambiarle indefinidamente la escala de observación.


Recapitulemos. La mayor parte de los genomas animales y vegetales está formada por virus endógenos -y otros elementos móviles derivados de estos últimos y de transposones bacterianos- que se expresan como parte constituyente de éstos. El 80% de las secuencias de los virus marinos y terrestres no son conocidas en ningún organismo animal ni vegetal. Pero tranquilos que no vamos a nombrar todos los mecanismos evolutivos asociados a estos agentes víricos y bacterianos en el desenlace de nuestra historia natural.


¿Qué correlación hay entonces entre los dos grupos tipo con los que iniciábamos este camino? Para obtener esta respuesta tendremos que sumar la capacidad de trabajo de cada uno de nuestros microorganismos.

1.000.000.000.000.000.000.000.000.000.000. Bacterias en la Tierra.

25.000.000.000.000.000.000.000.000.000.000. Virus en la Tierra.

Para nuestro particular, al igual que Galileo introdujo explícitamente parámetros de velocidad en el referencial de observación, necesitaríamos introducir parámetros de escala en el mismo referencial de observación. El universal galáctico abiogénico, no forma parte del universal biogénico que hemos establecido en nuestros grupos de clasificación. Intuitivamente, el todo es más que la parte pero debemos recordar, bajo este particular, que la parte presenta más complejidad que el todo. Para poder relacionar esto, debemos incluir las resoluciones de forma explícita en nuestros sistemas de coordenadas, integrando la resolución de la medida en la magnitud. Porque sería extraño pensar que no hay homologías entre las magnitudes de las categorías que clasificamos en un sistema. Si la longitud de la costa de Gran Bretaña depende explícitamente de la resolución con la que se mide la misma, el ADN determinara su magnitud en dependencia a un estado de escala o resolución. Esto es un comportamiento homólogo al que la relatividad asocia al concepto de velocidad para definir un estado del movimiento. El Principio de Relatividad es un principio general que trasciende las teorías particulares que pueden desarrollarse a partir de él. Eso permite extenderlo a otros campos más amplios que los que se ha aplicado hasta ahora: posición, orientación y movimiento. Todas las medidas que pueden hacerse dependen de un sistema de coordenadas de referencia.


Nos encontramos que la mayor parte de nuestros genomas están constituidos por virus y sus derivados. Estos organismos son los que controlan la expresión de los genes codificantes de proteínas y toda la producción que se desencadena por su interacción con el medio tiene forma fractal. Su producto tiene una frontera, un límite de expresión geométrica. Pero este límite puede ser ciertamente inconmensurable. Si recordamos la demostración a la que hacíamos referencia unas líneas atrás sobre el número de puntos de un segmento como los mismos que en un segmento mayor, en contra de los demostrado posteriormente sobre la propiedad que muestran algunos conjuntos infinitos, son sucesos que determinan la distancia que hay entre la descripción de la realidad y la descripción de nuestro conocimiento de la realidad, como dos eventos con una fractura dimensional entre ellos, que solo encontraran un espacio de coherencia lógica bajo los parámetros de la Dialéctica materialista.


Haber determinado dos grupos tipo como los nuestros, nos enfrenta a la misma situación que se encontró Laurent Nottale cuando formuló el principio de relatividad de escala: “Pasar de la Relatividad Restringida a la General consiste simplemente en generalizar las variables a las que se aplica el principio. La Relatividad de Escala (RE) consiste, por su parte, en añadir una variable que caracterice el estado del sistema de coordenadas que es la escala de dicho sistema. Hasta ahora, realizar estas medidas en un sistema de coordenadas en una escala de 10 cm y hacerlo en un sistema de una escala de 1 ángstrom (unidad de longitud para expresar longitudes de onda, distancias moleculares y atómicas, etc.) no ha sido considerado como un cambio del sistema de coordenadas. En el primer caso, tenemos un sistema clásico. En el segundo, un sistema cuántico. En la física actual, se describe la experiencia, y las ecuaciones la registran con herramientas, con modos de pensar exactamente diferentes de un caso al otro, pensando que nada hay que cambiar en el sistema de coordenadas.” Nuestro estudio de proporción sitúa dos límites de escala observacional, uno macro y uno micro, un universal galáctico y un universal polimérico [genómico], sobre el que debemos aplicar un principio de simetría entre ambos [su comportamiento debe responder a las mismas leyes físicas]. Establecemos un límite superior que fijamos para nuestro grupo universal galáctico y un limite inferior para nuestro grupo universal polimérico. Si ambos están contenidos en un todo ¿cuál será la dimensión de cada uno de ellos? ¿cuál será la proporción de cada uno de ellos con el todo? ¿cuál será la proporción de cada uno de ellos con respecto al otro? La complejidad de un sistema depende de las funciones o cantidad de trabajo mediado sobre la materia, y la forma subsecuente que muestra, como efecto o consecuencia, vemos que se ajusta a la condición de un objeto fractal.


Lo increíble se vuelve económicamente necesario y suficiente para interaccionar con la naturaleza. La complejidad de estos micro-agentes es la síntesis de la estructura espacio-temporal. Pongamos un supuesto, si la estructura del espacio-tiempo fuera fractal, que repite hasta el infinito, con tamaños distintos, los mismos motivos o patrones, los virus y las bacterias formarían parte de aquellos cuerpos que dotan de diferencias a la uniformidad basal del universo espacio-temporal, incorporando nuevas formas sobre su misma base estructural; haciendo natural todas las formas derivadas de su actividad e incorporando los primeros cierres categóricos para la evolución fenotípica de los organismos; una manera de establecer las fronteras de una diversidad [especificidad] que garantiza las relaciones de equilibrio para cada entorno o nicho ecológico. Es a partir de estas barreras tróficas como se establecen los mecanismos de regulación inmunológica ["in”, desde el interior y "munera", munición, armamento o trinchera] frente a lo homogéneo, como forma de preservar el producto emergente producido y dotar de continuidad evolutiva a la mayor diversidad posible de grupos funcionales. Es el criterio de adaptación. La gran cantidad en número de ellos responde precisamente a la especificidad, a su función mínima, a equilibrar una magnitud mensurable con su universal, con el todo al que pertenece.


Llegado este punto ¿cuál es la cantidad que se relaciona con nuestra muestra comparada? Un paleontólogo evolucionista vino a decir que “la física es la ciencia de lo infinitamente grande y lo infinitamente pequeño.” y que “La biología es la física de lo infinitamente complejo”. Pero establecer un nuevo infinito no parece decirnos demasiado sobre la realidad que hay entre el máximo y el mínimo de la realidad material. Como apuntábamos, la relación entre lo infinitamente grande y lo infinitamente pequeño está mediada por un trabajo, una acción que se reduce a la transferencia de una magnitud. ¿Con todo el espacio muestra posible, por qué el incremento de la complejidad requiere un plegamiento dimensional de sus formas? ¿Por qué el aumento de complejidad no supone un fenómeno expansivo? Porque la complejidad no tiende a un espacio infinito, sino a un espacio concreto. La forma resultante, producto de la mediación de un trabajo [una función], se ajusta a una dimensión espacio temporal concreta que condiciona las formas estructuradas bajo su límite. La presión mecánica de un medio [Espacio-tiempo] es condición suficiente para un aumento de la complejidad, pero no presenta necesidad, atributo este último, que requiere de un incremento masivo de funciones mínimas en un sistema. Solo hay una dimensión espacio temporal que podría ejercer una presión mecánica suficiente para emerger una función sin un aporte de destino por parte de un observador externo como condición necesaria. ¿Cómo se entiende la dirección o el desenlace evolutivo sin incorporar elementos mágicos que lo hagan posible?


Si fijamos la vista en los principales mediadores, en aquellos microorganismos con un mínimo funcional, descubriremos las características de la materia. Ellos son los que realizan la síntesis sobre el atributo universal.

BIBLIOGRAFÍA

  • Yun Jiang and Cunshuan Xu. The calculation of information and organismal complexity. Biol Direct. 2010; 5: 59. Published online 2010 Oct 12. doi: 10.1186/1745-6150-5-59

  • Lieberman-Aiden, E., van Berkum, N. L., Williams, L., Imakaev, M., Ragoczy, T., Telling, A., … Dekker, J. (2009). Comprehensive Mapping of Long-Range Interactions Reveals Folding Principles of the Human Genome. Science, 326(5950), 289–293. doi:10.1126/science.1181369.

  • Auffray C., Nottale L. & the Systemoscope Consortium, 2005, Invited Conference in International Conference "Integrative Systems Biology for Health - TRANSCRIPTOME 2005", Shanghai, China, 5-9 November 2005 "Scale Relativity in Systems Biology of Muscular and Pulmonary Diseases"

  • E. Ben-Jacoba. Social behavior of bacteria: from physics to complex organization. Eur. Phys. J. B (2008) DOI: 10.1140/epjb/e2008-00222-x

  • L. Nottale, 2005, Progress in Physics, 1, 12-16. Fractality field in the theory of scale relativity.

  • Nottale L., 2005, Chaos, Solitons and Fractals, 25, 797-803"On the transition from the classical to the quantum regime in fractal space-time theory"

  • Villarreal, L. P. P. (2004). Can viruses make us human? Proceedings of the American Philosophical Society, 148(3), 296–323. Retrieved from http://www.jstor.org/stable/10.2307/1558228

  • Bell, P. J. L. (2006). Sex and the eukaryotic cell cycle is consistent with a viral ancestry for the eukaryotic nucleus. Journal of Theoretical Biology, 243(1), 54–63. https://doi.org/10.1016/j.jtbi.2006.05.015

  • Villarreal, L. P., & Witzany, G. (2010). Viruses are essential agents within the roots and stem of the tree of life. J. Theor. Biol., 262(4), 698–710. https://doi.org/10.1016/j.jtbi.2009.10.014

  • Kunihiko KANEKO. Chaos as a Source of Complexity and Diversity in Evolution. arXiv:adap-org/9311003.

  • Sarah J. Adamowicz, Andy Purvis, and Matthew A. Wills. Increasing morphological complexity in multiple parallel lineages of the Crustacea. Edited by James W. Valentine, University of California, Berkeley, CA, and approved January 31, 2008 (received for review October 2, 2007).

  • Yun Jiang, Cunshuan Xu. The calculation of information and organismal complexity.Biology Direct 2010, http://www.biology-direct.com/content/5/1/59.

  • Robert L. Carneiro. The transition from quantity to quality: A neglected causal mechanism in accounting for social evolution. PNAS November 7, 2000 97 (23) 12926 12931; https://doi.org/10.1073/pnas.240462397

  • Keith Watt and Charles W. Misner. Relativistic Scalar Gravity: A Laboratory for Numerical Relativity. arXiv:adap-org/9311003. 9 October 1999.

  • ADAMS, J.M. & CORY, S. 1998. The Bcl-2 protein family: arbiters of cell survival. Science, 28: 1322-1326.

  • ALEKSHUN M. N. and LEVY S. B. 2007. Molecular Mechanisms of Antibacterial Multidrug Resistance. Cell, doi:10.1016/j.cell.2007.03.004

  • BARRY, M. & MCFadden, G. 1998. Apoptosis regulators from DNA viruses. Current Opinion Immunology 10: 422-430.

  • BELL, P. J. 2001. Viral eukaryogenesis: was the ancestor of the nucleus a complex DNA virus? Journal of Molecular Evolution 53(3): 251-256.

  • BEN JACOB, E, AHARONOV, Y. AND ASPIRA, Y. (2005). Bacteria harnessing complexity. Biofilms.1, 239- 263

  • BRITTEN, R. J. (2004). Coding sequences of functioning human genes derived entirely from mobile element sequences PNAS vol. 101 no. 48, 16825–16830.

  • BRZUSZKIEWICZ, E. et al., 2006. How to become a uropathogen: Comparative genomic analysis of extraintestinal pathogenic Escherichia coli strains. PNAS, vol. 103 no. 34 12879-12884

  • COHEN, J. (2008) HIV Gets By With a Lot of Help From Human Host. Science, Vol. 319. no. 5860, pp. 143 - 144

  • FUHRMAN, J. A. 1999. Marine viruses and their biogeochemical and ecological effects. Nature,399:541-548.

  • GABUS, C., AUXILIEN, S., PECHOUX, C., DORMONT, D., SWIETNICKI, W., MORILLAS, M., SUREWICZ, W., NANDI, P. & DARLIX, J.L. 2001. The prion protein has DNA strand transfer properties similar to retroviral nucleocapsid protein. Journal of Molecular Biology 307 (4): 1011-1021.

  • GARCIA-FERNÀNDEZ, J. (2005). The genesis and evolution of homeobox gene clusters. Nature Reviews Genetics Volume 6, 881-892.

  • GAUNT, Ch. y TRACY, S. 1995. Deficient diet evokes nasty heart virus. Nature Medicine, 1 (5): 405-406.

  • GEWIN, V. 2006. Genomics: Discovery in the dirt. Nature .Published online: 25 January 2006; | doi:10.1038/439384a

  • GUPTA, R. S. 2000. The natural evolutionary relationships among prokaryotes.Crit. Rev. Microbiol. 26: 111-131.

  • Richard Lewontin y Richard Levins. El Biólogo Dialéctico. Bliobioteca Militante. Ediciones ryr. Colección Arte y Filosofía. 2015.

  • La Ontogenia del Pensamiento Evolutivo. Eugenio Andrade. Colección Obra Selecta. Editorial Universidad Nacional de Colombia. 2009.

bottom of page