El estudio estima los costes energéticos del procesamiento de información en sistemas biológicos

Este artículo ha sido revisado según Science. Proceso de edición
Y Políticas.
Editores Se destacaron las siguientes características garantizando al mismo tiempo la credibilidad del contenido:

Revisión de hechos

Publicación revisada por pares

fuente confiable

Corrección de pruebas

Crédito: Pixabay/CC0 Dominio público

× Cerca

Crédito: Pixabay/CC0 Dominio público

Los comportamientos, la fisiología y la existencia de los organismos están respaldados por una infinidad de procesos biológicos, que implican la comunicación entre las células y otros componentes moleculares. Se sabe que estos componentes moleculares se transmiten información entre sí de diferentes maneras, por ejemplo mediante procesos conocidos como difusión y despolarización eléctrica o mediante el intercambio de ondas mecánicas.

Investigadores de la Universidad de Yale realizaron recientemente un estudio destinado a calcular el coste energético de la transferencia de información entre células y componentes moleculares. Su artículo publicado en Cartas de revisión físicaPresenta una nueva herramienta que se puede utilizar para estudiar redes celulares y comprender mejor su función.

Benjamín B. dijo: «Hemos estado pensando en este proyecto durante un tiempo de una forma u otra», dijo a Phys.org Mashta, uno de los investigadores que realizó el estudio.

«Hablé por primera vez de las ideas que eventualmente se convirtieron en este proyecto con mi asesor doctoral Jim Sethna hace aproximadamente una década, pero por varias razones nunca despegó. Sam y yo comenzamos a hablar de esto cuando estábamos pensando en cómo entender la energía. Los costos que la Biología buscó calcularlo -tema de gran parte de su trabajo doctoral- y quizás de manera más amplia asegurar la coherencia y el control de sus partes, y descubrió cómo hacer estos cálculos.

El trabajo reciente de Machta y su colega Samuel Bryant se inspira en investigaciones anteriores publicadas a finales de los años 1990, en particular los esfuerzos de Simon Laughlin y sus colaboradores. En su momento, este grupo de investigación intentó determinar experimentalmente cuánta energía gastaban las neuronas al transmitir información.

Laughlin y sus colegas descubrieron que este consumo de energía oscilaba entre 104-107 kmi casa/bit dependiendo de los detalles, que es mucho más alto que el límite «fundamental» de ~Kmi casa“/bit, a veces llamado límite de Landauer, que se debe pagar por borrar un poco de información”, explicó Machta.

«En cierto modo queríamos entender: ¿Era este un ejemplo de despilfarro en biología? O tal vez había otros costos que pagar; en particular, el límite de Landauer no se refiere a la geometría o los detalles físicos. La aplicación del límite de Landauer es «Es preciso. Debido a que el pago sólo se realiza cuando se borra la información, es posible realizar cálculos inversos, nunca borrar nada y no pagar ningún costo de computación, pero ese no es el enfoque aquí».

Otro objetivo del reciente estudio de Machta y Bryant fue determinar si la optimización de estos costos de energía podría arrojar luz sobre por qué los sistemas moleculares se comunican entre sí utilizando distintos mecanismos físicos en diferentes situaciones. Por ejemplo, mientras que las neuronas normalmente se comunican entre sí mediante señales eléctricas, otros tipos de señales pueden comunicarse mediante la difusión de sustancias químicas.

«Queríamos entender en qué sistema cada uno de estos (y otros) sería mejor en términos de costo de energía por bit», dijo Machta. “En todos nuestros cálculos, tenemos en cuenta que la información se envía a través de un canal físico, desde un remitente real de información (como un canal de “transmisión” de iones que se abre y se cierra para enviar una señal) a un receptor (un detector de voltaje en la membrana) que también puede ser un canal iónico) «La esencia del cálculo es un cálculo escrito de la velocidad de información a través de un canal gaussiano, pero con algunas fluctuaciones nuevas».

En primer lugar, en sus estimaciones, Machta y sus colegas siempre consideran un canal físico, a través del cual se transportan corrientes de partículas físicas y cargas eléctricas, según la física celular. En segundo lugar, el equipo siempre asumió que el canal estaba dañado por el ruido térmico en el entorno celular.

«Podemos calcular el espectro de este ruido utilizando la ‘teoría de la disipación de fluctuaciones’, que relaciona el espectro de las fluctuaciones térmicas con funciones de respuesta cercanas al equilibrio», explicó Machta.

Otra característica única de las estimaciones del panel es que se realizaron utilizando modelos relativamente simples. Esto permitió a los investigadores establecer límites conservadores y constantemente bajos sobre la energía necesaria para operar el canal e impulsar las corrientes físicas en un sistema biológico.

“Dado que la señal debe superar el ruido térmico, generalmente encontramos los costos mediante un factor geométrico previo que multiplica por Kmi casa/bit”, dijo Mashta.

«Este factor geométrico puede deberse al tamaño del transmisor y del receptor; un transmisor más grande generalmente reduce los costos por bit al permitir que una corriente de disipación se distribuya en un área más grande. Además, un receptor más grande permite un mayor promedio de las fluctuaciones térmicas, por lo que que la señal general es aún más débil y capaz de transportar la misma información”.

“Así, por ejemplo, para las señales eléctricas, obtenemos un modelo de coste por bit con la escala r2I σEy kmi casa/bit, donde r es la distancia entre emisor y receptor y σIEy Es el tamaño del remitente y del receptor. Es importante destacar que, para los canales iónicos que tienen unos pocos nanómetros de ancho, pero que transmiten información a través de micras, este costo puede ser fácilmente varias veces mayor que k.t/bit sugerido por los argumentos más simples (o más básicos) como mínimo.»

En general, los cálculos de Machta y sus colegas confirman el alto coste energético asociado a la transferencia de información entre células. En última instancia, sus estimaciones podrían ser un comienzo para explicar el alto coste del procesamiento de la información medido en estudios experimentales.

«Nuestra interpretación es menos ‘fundamental’ que los límites de Landauer, porque depende de la geometría de las neuronas, los canales iónicos y otros detalles», dijo Machta. «Sin embargo, si la biología estuviera sujeta a estos detalles, las neuronas (por ejemplo) probablemente serían eficientes y experimentarían limitaciones reales de información/energía, no simplemente ineficientes. Estos cálculos ciertamente aún no son suficientes para decir que un sistema determinado se considera efectivo, pero señalan que enviar información a través del espacio puede requerir costes energéticos muy elevados.

En el futuro, este último trabajo de Machta y sus colegas podría informar nuevos estudios biológicos interesantes. En su artículo, los investigadores también presentan un «diagrama de fases», que representa situaciones en las que el uso selectivo de estrategias de comunicación específicas (por ejemplo, señalización eléctrica, difusión química, etc.) es óptimo.

Este diagrama pronto podría ayudar a comprender mejor los principios de diseño de diferentes estrategias de señalización celular. Por ejemplo, podría arrojar luz sobre por qué las neuronas utilizan la difusión química para comunicarse en las sinapsis, pero utilizan señales eléctricas cuando envían información a través de cientos de micrones desde las dendritas hasta el cuerpo celular. Y también por qué la bacteria E. coli utiliza la difusión para enviar información sobre su entorno químico.

«Una cosa en la que estamos trabajando ahora es tratar de aplicar este marco para comprender las energías de un sistema de transducción de señales concreto», añadió Machta.

«Nuestro trabajo reciente tuvo en cuenta el costo abstracto de enviar información entre dos componentes individuales: en los sistemas reales normalmente hay redes de procesamiento de información, y aplicar nuestra conectividad requiere comprender el flujo de información en estas redes. Este objetivo también conlleva nuevos problemas técnicos – aplicar nuestros cálculos a geometrías específicas (por ejemplo, una neurona “esférica” o un axón en forma de tubo, cada uno de los cuales difiere de manera importante de la llanura infinita que hemos usado aquí)”.

más información:
Samuel J. Bryant et al., Restricciones físicas en la señalización intracelular: el costo de transmitir bits, Cartas de revisión física (2023). doi: 10.1103/PhysRevLett.131.068401

Información de la revista:
Cartas de revisión física


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *