1984 – George Orwell

Hay algunos libros que logran removerte un poco las “entrañas”. 1984 es, sin dudarlo, un clásico entre las obras en cuya trama se dibuja una sociedad futura y distópica. De hecho, junto con Un mundo feliz (Aldous Huxley) y Fahrenheit 451 (Ray Bradbury) se considera la saga fundacional de este género.

La novela introduce rápidamente una sociedad —Ingsoc— futurista en 1984 (el libro fue publicado en 1948) con un ambiente gris, desangelado, triste y sin aparente remedio. Tras una época convulsa de guerras sucesivas, la sociedad ahora está regida por un solo partido político —El Partido— que ha llevado a la gente a un estado de paz y tranquilidad (“La paz es la guerra”). Winston Smith, el protagonista, disecciona una realidad con estructura social totalmente jerarquizada que culmina en el Gran Hermano, líder supremo del Partido y “ojo que todo lo ve”. En este mundo no existen las leyes y tampoco existe el crimen. El poder absoluto del Partido, una vigilancia extrema al servicio de este y la abolición de la propiedad privada hace que cualquier sentimiento, gesto o pensamiento impuro (crimental = crimen mental) hacia el Partido pueda ser detectado y la persona desaparezca del mapa sin dejar rastro.

Caracterización del Gran Hermano

El Partido ha llegado a su posición mediante el uso de herramientas de manipulación como la alteración del pasado. El Ministerio de la Verdad, donde trabaja Winston, tiene como objetivo cambiar cualquier documento escrito (noticias, libros, panfletos, artículos,…) y moldear el pasado según los intereses del Partido. De esta forma, se cambia la historia y cualquier registro pasado deja de ser “pasado” para convertirse en el “presente” que asegure la continuidad política. De la misma manera, el mundo entero está dividido en tres grandes superpotencias —Oceanía, Eurasia y Asia Oriental— que siempre están en guerra unas contra otras. La guerra es eterna y nunca prospera, principalmente porque no interesa a sus dirigentes.

La guerra, en sí misma, permite dos grandes cosas. En primer lugar, atenaza a los ciudadanos, con miedo, a perder la paz que ahora tienen y, por tanto apoyando más fielmente al Partido, que los protege. En segundo lugar, la guerra es la situación perfecta que permite una escasa distribución de bienes materiales a la sociedad sin mermar el desarrollo tecnológico de esta. Mientras exista la guerra, los ciudadanos seguirán trabajando a cambio de una escasa dotación económica, alimenticia y cultural, de lo que derivan los grandes lemas de Ingsoc “La guerra es la Paz”, “la Libertad es la Esclavitud” y “la Ignorancia es la Fuerza”. Una sociedad vacía de espíritu, en la que se ha erradicado no sólo el crimen, sino también la amistad, la fraternidad o el sexo, Una sociedad con acceso a una cultura completamente desvirtuada sin conocimiento de su pasado, es una sociedad ignorante; Y la fuerza del Partido radica en la Ignorancia de su proletariado.

Sin querer enfocarme en la trama del libro, quiero centrar mi atención sobre ese futuro indeseable. Es esperable que en el momento histórico en el que Orwell escribe la novela, tras la II Guerra Mundial, no se tuviera mucho optimismo por lo que depararía la evolución social. De hecho, Orwell describe al Gran Hermano como un personaje de facciones angulosas, de mirada penetrante e intimidante y con un pequeño bigote bajo la nariz que vigila en todos los rincones. También caen “cohetes bomba” desde el cielo de Londres (Franja Aérea 1 en la novela) que se aprecian como un acontecimiento rutinario. Obviamente, se aprecia una herencia negra típica de posguerra.

Esta sociedad orwelliana, como se le ha venido llamando, es descorazonadora. Sin embargo, y de forma paradójica, la vacuidad (intelectual y material) de sus gentes conduce a una profunda reflexión por parte del lector. La importancia del rigor, de la conservación de nuestro pasado y de nuestra cultura son algunos de los grandes timones que conducen a la libertad.

Igualmente es fundamental el papel del lenguaje como herramienta indispensable de comunicación y pensamiento. En la novela, aparece la neolengua como un idioma nuevo, basado en el inglés, pero altamente limitado tanto en vocabulario como en gramática. Aquellas palabras que sugieren pensamientos indeseados son suprimidas y la gran mayoría de reglas gramaticales son abolidas con el objeto de abortar la creatividad y el intelecto. Según expone el autor, la limitación en el lenguaje lleva implícito una limitación en el pensamiento y, con ello, otra poderosa herramienta de manipulación.

Entre muchas otras reflexiones interesantes a encontrar en el libro, dejo esta sobre la diferencia entre riqueza y poder.

“Sin duda, era posible imaginarse una sociedad en que la riqueza, en el sentido de posesiones y lujos personales, fuera equitativamente distribuida mientras que el poder siguiera en manos de una minoría, de una pequeña casta privilegiada. Pero, en la práctica, semejante sociedad no podría conservarse estable, porque si todos disfrutasen por igual del lujo y del ocio, la gran masa de seres humanos, a quienes la pobreza suele imbecilizar, aprenderían muchas cosas y empezarían a pensar por sí mismos; y si empezaran a reflexionar, se darían cuenta más pronto o tarde que la minoría privilegiada no tenía derecho alguno a imponerse a los demás y acabarían barriéndoles. A la larga, una sociedad jerárquica sólo sería posible basándose en la pobreza y en la ignorancia.”

En resumen, 1984 es un libro recomendable e interesante que nos hará reflexionar sobre la eterna pregunta de “¿Hacia dónde vamos?” y cuales son los “tesoros” que debemos proteger para el futuro próspero de la sociedad y , por tanto, el nuestro propio.

Anuncios
Publicado en Sin categoría | 1 Comentario

¿Qué es y cómo funciona el blanqueamiento dental?

¿Alguna vez has deseado que tus dientes sean más blancos? El blanqueamiento dental es un procedimiento cada día más extendido y, como bien sabrás a estas alturas, existen muchas opciones para ello.

Algunas de estas opciones se promocionan en televisiones, radios y revistas lúdicas. A veces están a la mano del consumidor en supermercados y grandes superficies. Ante todo el aluvión de posibilidades, surgen muchas preguntas y dudas, mitos y realidades. Hugo de San Victor dijo: “De todas las cosas a perseguir, la primera es el conocimiento”. Así que, empecemos pues.

 ¿Qué es el blanqueamiento dental?

El blanqueamiento dental es un procedimiento odontológico cuyo principal objetivo es eliminar algunas pigmentaciones que asientan sobre los tejidos duros de la corona del/los diente/s, a saber, el esmalte y la dentina.

Existe una gran variedad de causas que pueden generar pigmentaciones dentarias, algunas de estas son localizadas y más o menos evidentes mientras que otras son difusas y extendidas por toda la superficie dental. En ocasiones estas pigmentaciones dan al diente un color más amarillento, o bien tonos parduzcos y oscuros, o incluso pueden dar al diente un color verdoso.

De igual forma, podemos diferenciar entre pigmentaciones extrínsecas (pigmento sobre la superficie externa del diente) e intrínseca (en el seno del tejido dentario).

El blanqueamiento dental, aunque parezca un procedimiento sencillo e inofensivo, es un tratamiento complejo que dispone de limitaciones y de contraindicaciones. Debe ser siempre prescrito por un profesional –odontólogo o estomatólogo– tras realizar un diagnóstico individualizado en cada caso. No está recomendada su utilización en todos los casos.

¿Cómo funciona el blanqueamiento dental?

El blanqueamiento dental puede ser de dos tipos: Existe un blanqueamiento interno (se realiza desde dentro hacia afuera) mediante la colocación de un agente blanqueante en el interior de la cámara pulpar. Obviamente, esta modalidad de blanqueamiento sólo se puede hacer en dientes en los que la pulpa dental (tejido vivo del diente y que coloquialmente se suele conocer como “el nervio”) ha sido extirpado, debido a una infección, inflamación o necrosis, y la cámara pulpar está rellena por un biomaterial de obturación inerte (endodoncia). Este tipo de blanqueamiento es unitario (en un solo diente) y también se denomina “blanqueamiento avital”, porque se realiza sobre dientes desvitalizados (sin pulpa dental)

Por otra parte existe el blanqueamiento externo o vital, que es el que tenemos en mente siempre que pensamos en obtener un tono dental más claro por motivos meramente estéticos. Esta modalidad puede aplicarse de forma generalizada a todos los dientes y no requiere de una desvitalización previa, porque el agente blanqueante se coloca sobre la superficie externa del diente (esmalte) y penetra desde el exterior hacia el interior. Al mantener la pulpa dental intacta, este tipo de tratamiento es susceptible de generar un efecto secundario tan extendido como la sensibilidad dentinaria (“se me calan los dientes y veo las estrellas)”, algo que no ocurre en el blanqueamiento interno o avital.

En ambos casos, el mecanismo de acción es siempre el mismo: la oxidación química. La única diferencia es el lugar donde colocamos el agente blanqueante (oxidante) y por tanto, la dirección de difusión del mismo.

El mantenimiento de un blanqueante durante un tiempo determinado en contacto con los tejidos dentarios (esmalte y dentina), resulta en una oxidación progresiva de la matriz de dichos tejidos, en la que residen algún tipo de pigmentación intrínseca. Las pigmentaciones extrínsecas, como nos recuerdan los doctores Tania Castillo y Guillermo García, son las manchas de nicotina, cafeína, vino tinto, curry, pimentón o taninos (bebedores de té). Estas pigmentaciones sobre la superficie dental se eliminan mediante tartrectomía ultrasónica (“limpieza”),a veces durante varias sesiones, pero no mediante blanqueamiento.

oxidation

Esquema del fundamento del blanqueamiento dental mediante la utilización de agentes oxidantes.

Consecuencia de la oxidación, algunas moléculas con estructura aromática o cíclica pasan a tener una estructura alifática o abierta. Muchos de los pigmentos suelen tener estructuras moleculares aromáticas por lo que son las primeras que “ataca” el blanqueante. El paso de una estructura en anillo a una estructura abierta, resulta en un aclaramiento (blanqueamiento) del color de estos pigmentos.

En una etapa posterior, aunque ocurre de forma simultánea, el agente oxidante irá rompiendo dobles enlaces covalentes hasta alcanzar un “punto de saturación”, en el que las moléculas no tienen dobles enlaces y desde el punto de vista óptico, la pigmentación es mínima. El blanqueamiento dental, por tanto, es un proceso crítico en el que se pretende llegar hasta un punto de saturación de las moléculas pigmentarias y, en ese momento, detener el tratamiento.Consecuencia de la oxidación, algunas moléculas con estructura aromática o cíclica pasan a tener una estructura alifática o abierta. Muchos de los pigmentos suelen tener estructuras moleculares aromáticas por lo que son las primeras que “ataca” el blanqueante. El paso de una estructura en anillo a una estructura abierta, resulta en un aclaramiento (blanqueamiento) del color de estos pigmentos.

Si a pesar de ello, se continuara con la exposición al blanqueante más allá del punto de saturación, la oxidación empezaría a fragmentar moléculas no sólo pigmentarias sino de la propia matriz que constituye el tejido duro del diente y, llevado al extremo, la oxidación final resulta en dióxido de carbono y agua, es decir, diluyendo literalmente el tejido duro del diente y apareciendo la temida sensibilidad dentinaria. Este es uno de los principales motivos de que el tratamiento blanqueante deba ser siempre prescrito, aplicado y controlado por un facultativo.

¿Qué agentes blanqueantes se suelen utilizar?

Existen muchos tipos, marcas y presentaciones de blanqueantes. Sin embargo, el principio activo es casi siempre el mismo: peróxido de hidrógeno (H2O2), coloquialmente conocido como “agua oxigenada”

Se suele comercializar en forma de gel viscoso, para evitar que fluya hacia otras zonas o pueda ser deglutido por accidente, y existen productos con un rango de concentraciones que oscilan entre 10% y 35% de peróxido de hidrógeno. También existen geles que contienen peróxido de carbamida. En realidad, es una molécula precursora que, tras ser activada, se cataliza en peróxido de hidrógeno (principio activo) y urea. Los productos basados en peróxido de carbamida suelen usar concentraciones más elevadas que los basados en peróxido de hidrógeno ya que no todo el peróxido de carbamida se activa. Como norma general, se acepta que el peróxido de carbamida al 10% y el peróxido de hidrógeno al 3,5% producen un efecto equivalente (sólo se cataboliza un tercio del peróxido de carbamida, aproximadamente).

¿Cómo es la técnica del blanqueamiento dental?

La aplicación sobre la superficie dental de un agente blanqueante se puede hacer de varias formas. A modo de resumen, se puede diferenciar las técnicas que se realizan en el consultorio dental de aquellas que se realizan en casa (blanqueamiento doméstico), pero bajo la prescripción y consejo de un odontólogo. En realidad, el blanqueamiento dental es un procedimiento complejo que emplea ambas técnicas en distintas fases del tratamiento.

El blanqueamiento que se realiza en el consultorio dental por parte de un profesional constituye la fase inicial del tratamiento. La colocación de una serie de medidas de aislamiento y protección adecuadas, es posible el uso de agentes blanqueantes de gran concentración (peróxido de hidrógeno al 35%) durante 1 a 3 sesiones de 15 minutos, con intervalos de una semana entre sesiones. De esta forma, se consigue iniciar el blanqueamiento que generará la mayor parte del resultado final.

Arriba: Sistemas de aislamiento empleados en consultorio dental previo a la aplicación de agentes blanqueantes. A la izquierda, aislamiento absoluto con dique de goma. A la derecha, mascarilla gingival con resina y aislamiento relativo con algodón. Abajo: Quemaduras gingivales por contacto con peróxido de hidrógeno.

Arriba: Sistemas de aislamiento empleados en consultorio dental previo a la aplicación de agentes blanqueantes. A la izquierda, aislamiento absoluto con dique de goma. A la derecha, mascarilla gingival con resina y aislamiento relativo con algodón. Abajo: Quemaduras gingivales por contacto con peróxido de hidrógeno.

 

El uso de productos de blanqueamiento dental que contengan entre un 0,1 y un 6% de peróxido de hidrógeno se considera potencialmente peligroso para los consumidores. Por ello, la aplicación de geles de peróxido de hidrógeno a concentraciones entre el 20% y 35% requiere de un aislamiento de todos los tejidos orales (encías, lengua, carrillos,…) y periorales (labios, piel,…) mediante la utilización de diques de goma o barreras gingivales con base de resinas acrílicas o silicona (ver imagen). El contacto de un producto oxidante en contacto con tejidos blandos puede generar escozor, dolor e incluso quemaduras gingivales.

La reacción de oxidación puede ser acelerada mediante la aplicación de luz halógena, o incluso láser, gracias a la incorporación de moléculas fotoactivadoras en la formulación del blanqueante. Este fotocurado permite que el tiempo de aplicación oscile entre 2 y 20 minutos (tiempos variables según producto y luz utilizada).

Fotoactivación con luz para acelerar la reacción oxidativa. Nótese la protección tanto bucal como ocular.

Fotoactivación con luz para acelerar la reacción oxidativa. Nótese la protección tanto bucal como ocular.

Una vez obtenidos unos resultados aceptables, el tratamiento pasa a una segunda fase de mantenimiento mediante blanqueamiento doméstico. En este caso, se suelen usar productos de menor concentración generalmente basados en peróxido de carbamida. La aplicación la realiza el propio paciente mediante una férula plástica previamente confeccionada. Esta férula está realizada de manera que incluye un pequeño reservorio sobre la superficie dental, al mismo tiempo que provee un ajuste perfecto en los tejidos orales, de manera que el blanqueante no pueda fluir fuera del reservorio.

En este caso, la fotoactivación con luz no es posible, por lo que el producto debe aplicarse (en el interior de la férula) durante un tiempo mayor y de forma más continuada. Periódicamente, se realiza un seguimiento por parte del facultativo hasta que finalmente se decide concluirlo, una vez que se alcanza un tono dental estable.

Férula plástica para aplicación de agente blanqueante en régimen doméstico.

Férula plástica para aplicación de agente blanqueante en régimen doméstico.

Técnicas no recomendables.

El blanqueamiento dental es un tratamiento odontológico, en un gran número de casos se realiza por motivos estéticos, cuya prescripción o aplicación está totalmente desaconsejada si no se realiza por parte de un profesional.

En supermercados, grandes almacenes o por internet se suelen encontrar algunos productos para hacer nuestro propio blanqueamiento (autoprescrito-autoaplicado). La UE no permite la comercialización pública de productos que contengan peróxido de hidrógeno a concentraciones superiores al 0,1%, por lo que se trata de productos que tienen un efecto nulo sobre el color dental, mientras que sí pueden generar efectos adversos como quemaduras en los tejidos blandos. Incluso, suelen incluir una pequeña lamparita de fotoactivación que tampoco cumple las especificaciones óptimas para el fotocurado. Se trata de lámparas de poca potencia que deben cumplir una serie de requisitos de seguridad. También suelen dotar estos “kits de blanqueamiento” de férulas de tamaño universal que no tienen ajuste gingival (no están hechas a medida de tu boca) e, incluso, suelen ser muy incómodas. Es algo parecido a vender un zapato de número único. La mayoría de las veces resultará incómodo porque quedará grande o pequeño. Además, al no ajustar perfectamente a la anatomía bucal, el producto entrará en contacto con la lengua, labios, mucosas, encías e incluso podrá ser ingerido. Por lo que la utilización de este tipo de productos no va a reportar ningún beneficio dental, mientras que sí puede generar perjuicios leves (la concentración de blanqueante es realmente baja).

Productos comerciales disponibles para blanqueamiento dental sin prescripción ni control odontológico.

Productos comerciales disponibles para blanqueamiento dental sin prescripción ni control odontológico.

Otra de las técnicas ampliamente distribuidas y conocidas es la utilización de dentífricos blanqueadores. La última vez que me fijé en un supermercado había más “pastas de dientes blanqueadoras” que las que no lo eran. El blanqueamiento mediante dentífricos tiene un fundamento totalmente diferente a lo que hemos visto hasta ahora.

Los dentífricos blanqueadores no tienen en su composición peróxido de hidrógeno (si lo incorporan son concentraciones mínimas) y, por tanto, no basan su efecto en la oxidación. Si leemos los ingredientes de nuestro dentífrico veremos que entre los tres primeros compuestos se encuentra sílica hidrata, carbonato cálcico, fosfato dicálcico, pirofosfato cálcico, alúmina, perlita o bicarbonato sódico entre otros. Estos compuestos son abrasivos y constituyen el componente fundamental del dentífrico (producto para limpieza dental basada en la fricción –dentífrico– con un abrasivo). El resto de componentes hacen de vehículo para que ese abrasivo se mantenga estable y no se reparta por toda la boca ni lo deglutamos.

Existen distintos tipos de abrasivos y no todos son iguales de duros. Algunos son más abrasivos que otros y el poder de abrasión de cada dentífrico sobre el diente se mide con un valor denominado RDA (Relative Dentin Abrasivity) que es específico para cada producto.

Un dentífrico blanqueador no es más que un dentífrico con RDA especialmente elevado, en comparación con el resto. Por tanto, su mecanismo de acción es la microabrasión de la superficie dental (no actúa en profundidad como los oxidantes). Por este motivo, la utilización de estas “pastas” puede tener un efecto muy discreto en la eliminación de pigmentaciones extrínsecas; sin embargo, sobre pigmentaciones intrínsecas, el efecto es nulo.

Además, el uso compulsivo de estos productos en busca de un color cada vez más blanco (“blancorexia”) puede resultar en una abrasión excesiva de esmalte dentario, lo cual genera dos efectos adversos. En primer lugar, el adelgazamiento de la capa de esmalte conduce a sensibilidad dentinaria, la cual se puede tratar mediante la obliteración tubular con nitrato potásico (incluido en muchos dentífricos y colutorios contra la sensibilidad dental). El otro gran perjuicio es un efecto paradójico que hace que nuestros dientes se vean cada vez más amarillos. El adelgazamiento progresivo del esmalte provoca que cada vez trasluzca más la dentina subyacente, cuyo color fisiológico es amarillento y opaco, mientras que el esmalte es más blanquecino y traslúcido. En casos extremos, esto genera una retroalimentación positiva que lleva a una blancorexia y compulsión mayor. Es muy importante recordar que la pérdida de esmalte es totalmente irreversible.

El tejido subyacente al esmalte, la dentina, es un tejido opaco y de color amarillento. Una abrasión excesiva y mantenida en el tiempo, genera una pérdida de esmalte (blanquecino y traslúcido) y un diente más amarillo (efecto paradójico).

El tejido subyacente al esmalte, la dentina, es un tejido opaco y de color amarillento. Una abrasión excesiva y mantenida en el tiempo, genera una pérdida de esmalte (blanquecino y traslúcido) y un diente más amarillo (efecto paradójico).

Resultados del blanqueamiento dental.

Una vez realizado el tratamiento blanqueante, los resultados obtenidos no son en absoluto predecibles. Los anuncios que prometen reducir 3 ó 4 tonos de color son directamente mentira. Resulta obvio pensar que la reducción de tono es dosis-dependiente y que a mayor concentración, mayor efecto. Y esto ocurre así siempre que no se sobrepase el punto de saturación. Sin embargo, la causa pigmentaria es completamente distinta en cada caso. Incluso, la composición del diente es sensiblemente diferente en cada caso, por lo que la difusión y efecto del agente blanqueante está sujeta a mucha variabilidad (ver imagen).

Resultados antes y después de tratamiento blanqueador con peróxido de carbamida 10% en distintos casos (Berga-Caballero et al., 2006.

Resultados antes y después de tratamiento blanqueador con peróxido de carbamida 10% en distintos casos (Berga-Caballero et al., 2006.

El resultado dependerá de si la causa es una pigmentación por uso de tetraciclinas, manchas de fluorosis, dientes desvitalizados o una pigmentación fisiológica más oscura de lo normal. Por ello, debe ser un facultativo quien estudie cada caso y prescriba el mejor tratamiento con una pauta adecuada a cada caso. La mayoría de las veces, el resultado se va evaluando en controles periódicos hasta que se obtiene un resultado aceptable (en ocasiones no coincide con lo esperado o deseado)

Es igualmente importante saber que estos resultados finales no son estables, sino que algunas pigmentaciones puede recidivar (volver a aparecer) pasado un tiempo. Para ello, se recomiendan algunas pautas preventivas ante pigmentaciones extrínsecas como son la moderación del consumo de tabaco, café, té, tomate y, en general, cualquier compuesto que contenga pigmentos susceptibles de adherirse a la superficie dental.

Por todo ello, el blanqueamiento dental es un tratamiento odontológico complejo que debe ser realizado en un contexto sanitario avalado por profesionales. Como cualquier otro tratamiento, tiene sus indicaciones y contraindicaciones, sus limitaciones y sus efectos adversos, y no siempre se obtiene el resultado esperado. Blancos o amarillos, perlados o azulados, siempre tenemos en mente aquella sonrisa que nos fascina y nos mantiene embelesados. Y jamás nos importó su código Pantone. La sonrisa no es un color. La sonrisa es una línea curva que endereza las cosas.

 

Referencias:

Berga-Caballero A, Forner-Navarro L, Amengual-Lorenzo J. At-home vital bleaching: a comparison of hydrogen peroxide and carbamide peroxide treatments. Med Oral Patol Oral Cir Bucal 2006;11:E94-9

Joiner A. Whitening toothpastes: A review of the literature. J Dent 2010; 38S: 17-24

Kugel G, Ferreira S, Sharma S, Barker ML, Gerlach RW. Clinical trial assessing light enhancement of in-office tooth whitening. J Esthet Restor Dent 2009;21(5): 336-47.

Luque-Martinez I, Reis A, Schroeder M, Muñoz MA, Loguercio AD , Masterson D, Maia LC. Comparison of efficacy of tray-delivered carbamide and hydrogen peroxide for at-home bleaching: a systematic review and meta-analysis. Clin Oral Investig. 2016. [Epub ahead of print]

http://www.planetaprodental.com/noticiaspp/los_efectos_del_%C3%B3xido_hidr%C3%B3geno_y_carbamida_los_productos_higiene_dental

http://blanqueamientodental2203.blogspot.co.uk/2011/03/blanqueamiento-dental.html

P.D: En la realización de este post he contado con el asesoramiento y supervisión de dos grandes odontólogos que se dedican desde hace años a la práctica odontológica integral. Los doctores Tania Castillo y Guillermo García son, además de dos grandes profesionales, dos grandísimos amigos. La práctica odontológica está sujeta a muchos avances y cambios en los protocolos terapéuticos, por lo que es necesario preguntar a quien realiza estos tratamientos de primera mano. Muchas Gracias

Publicado en Sin categoría | 2 comentarios

Las estrellas, ¿qué son y cómo se forman?

¿Quién eres tú, lucero misterioso,
tímido y triste entre luceros mil,
que cuando miro tu esplendor dudoso,
turbado siento el corazón latir?

(José de Espronceda)

Los nórdicos piensan que son chispas del Muspell, el reino del fuego, que Odín y sus hermanos lanzaron al cielo cuando crearon el mundo. Para los karanga de Sudáfrica, son los ojos brillantes de los difuntos que observan a los vivos desde el infinito. Los tswana creen que son los espíritus de los que se resisten a venir a este mundo. Los esquimales, sin embargo, las describen como orificios hechos en un cielo con forma de iglú sumergido en un infinito luminoso. Y los chinos simplemente veían vulgares restos dejados atrás por el Sol y la Luna.

El Antiguo Testamento reza así: “Y dijo Dios: Sean lumbreras en la expansión de los cielos para apartar el día y la noche: y sean por señales, y para las estaciones, y para días y años; […] E hizo Dios las dos grandes lumbreras; la lumbrera mayor para que señorease en el día, y la lumbrera menor para que señorease en la noche: hizo también las estrellas […] Y púsolas Dios en la expansión de los cielos, para alumbrar sobre la tierra, y para señorear en el día y en la noche, y para apartar la luz y las tinieblas.” (Génesis, 1,14-18). Las considera la Biblia luminarias suspendidas en el cielo, mientras que los indios creek de Alabama ven en ellas fragmentos de piedras brillantes pegadas a la oscura tela del firmamento.

Está claro que han asombrado desde la Antigüedad a innumerables pueblos y que se merecen su propia colección de historias fantásticas pero,… ¿Qué son realmente las ESTRELLAS?

Imagina una enorme bola gaseosa, fundamentalmente de Hidrógeno y otros gases. E imagina que ese gas está tan comprimido (tan “apretados” unos átomos contra otros) por la acción gravitatoria que el gas está caliente. Y a medida que se comprime, más gas atrae hacía sí, aumentando su masa y su temperatura hasta que alcanza unos 10.000.000 K en el centro. A esa temperatura se inician las reacciones de fusión termonuclear: la bola de gas empieza a fusionar hidrógeno para convertirlo en helio y empieza a brillar con luz propia. Se ha encendido el motor. Acaba de nacer una estrella.

Antes de profundizar algo más, hemos de entender cómo es el lugar donde nacen las estrellas, el universo. Piensa en el último sitio de playa donde estuviste y toma como referencia que allí, en la playa, en el volumen de aire equivalente a un terrón de azúcar hay unos 45.000 billones de moléculas (suponiendo que la temperatura es de 0º C). ¿Muchas o pocas? Ahora, en lugar de una playa cálida nos vamos a un punto aleatorio del universo lejos de estrellas, galaxias y nebulosas. Allí la densidad de partículas es entre 1 a 10 moléculas/cm3 (el volumen de un terrón de azúcar). Dicho de otro modo, el universo está prácticamente vacío.

Sin embargo, en algunos lugares la densidad molecular es algo mayor. Existen grandes nubes de moléculas de gas y polvo con densidades de 1.000 -10.000 moléculas/cm3. Se llaman nubes moleculares y pueden medir entre 10 a 10.000 años-luz de diámetro. En estas grandes nubes el hidrógeno molecular no se encuentra repartido de forma regular en todas las zonas de la nube, sino que el frío o alguna fuerza externa como puede ser la onda expansiva de una supernova cercana produce algunas inestabilidades gravitacionales. A partir de ese momento, cuando se sobrepasa un umbral de masa conocido como masa de Jeans, dentro de la nube hay algunos puntos donde se empieza a producir un colapso, es decir, que el gas se empieza a acumular en torno a unos “grumos” donde hay más gas. Estos grumos van aumentando en masa, y al aumentar en masa aumenta su fuerza gravitatoria (F = G m1m2/r2, ¿recuerdas?) con lo que cada vez atraen más gas en acreción hacia ellos. Este colapso, que dura millones de años, termina produciendo una esfera de gas caliente o protoestrella que emite radiación. Cuando la temperatura interior alcanza los 10.000.000 K, es cuando empiezan a ocurrir las reacciones termonucleares (fusión de hidrógeno en helio), y la bola de gas empieza a brillar y a considerarse una estrella.

nubemolec

La contracción gravitatoria genera condensaciones que darán lugar al nacimiento de nuevas estrellas.

Cuando las estrellas, encienden su reactor termonuclear, empiezan a ocurrir unos fuertes vientos solares que, en ocasiones,  acaban barriendo todo el gas y polvo de la nube a su alrededor. Cuando ocurre, esta fase se conoce como Objeto Herbig-Haro.

En el interior de una estrella de tamaño medio como nuestro Sol ocurren una reacciones denominadas cadena protón-protón o cadena ppi, mediante las cuales, dos núcleos de hidrógeno (protones) se fusionan para formar deuterio y liberar un positrón y un neutrino. El positrón (una partícula subatómica equivalente a un “anti-electrón”) se aniquila con un electrón libre y , resultado de esa aniquilación, se genera radiación gamma.

Al principio de su vida, la estrella joven debe alcanzar una posición de equilibrio entre dos fuerzas contrarias. Por una parte, la fuerza gravitatoria que tiende a colapsar contra sí misma a la bola de gas, y por otra parte la fuerza expansiva secundaria a las radiaciones generadas durante las reacciones termonucleares. En este sentido, la radiación gamma liberada en la aniquilación de positrones juega un papel fundamental a la hora de contrarrestar la fuerza gravitatoria “sosteniendo” el núcleo de la estrella para que no colapse sobre sí misma.

equihidro

El tamaño de toda estrella viene determinado por el equilibrio hidrostático entre la fuerza expansiva consecuencia de la fusión termonuclear (del núcleo hacia afuera) y su propia fuerza gravitatoria (de fuera hacia su núcleo). Cambios en cualquiera de estas fuerzas tiene como consecuencia el cambio del tamaño de la estrella para llegar a un nuevo equilibrio .

Una vez que la joven estrella alcanza el equilibrio entre estas dos fuerzas, entra en una fase de estabilidad en la que permanecerá la mayor parte de su vida, y de la que hablaremos más adelante. Se dice que es una estrella en secuencia principal. El 99% de las estrellas conocidas se hallan en esta fase de estabilidad y también el Sol, una estrella solitaria de tamaño mediano y color blanco-amarillento y unos 5.000 K en su superficie, que se halla a mitad de su vida.

La fusión de deuterio (2H) con núcleos de hidrógeno (1H) genera un isótopo ligero de helio (3He) además de más radiación gamma y energía sobrante. En una última fase, dos isótopos ligeros de helio se fusionarán dando como resultado un átomo de he (4He), dos protones que volverán a iniciar la cadena y 12,86 MeV liberados en forma de energía al exterior.

cadenappi

Esquema de la reacción “cadena protón-protón” o “cadena ppi” que ocurre en el interior de estrellas como el Sol.

En resumen, en el interior de la estrella ocurren una serie de reacciones que emplean 4 protones (1H) para generar un átomo de Helio (4He) y en este proceso químico se libera una energía neta de 26,73 MeV…la energía que desprenden las estrellas.

Es más, si sumamos la masa equivalente a 4 protones, observaremos que no es exactamente la misma masa de un solo átomo de helio. Existe una diferencia del 0,7%. O dicho de otro modo, mediante estas reacciones del interior de estrellas como nuestro Sol, de cada 1.000 toneladas de hidrógeno (protones) que se consumen en una estrella, se generan 993 toneladas de helio…y es ese 0,7% restante (7 toneladas) lo que se transforma en energía para que, entre otras cosas, podamos vivir felizmente en nuestro planeta.

Nuestra estrella favorita, el Sol, consume unas 654.600.000 toneladas cada segundo y genera 650.000.000 toneladas de helio en ese mismo segundo. Es decir, que nuestra estrella pierde un total de 4.600.000 toneladas de masa cada segundo (convertidas en energía)…Casi 5 millones de toneladas menos cada segundo que pasa!!!…¡Tranquilo! No es un ritmo demasiado elevado para una estrella. Estrellas como Aldebarán o Betelgeuse consumen mucho más vorazmente su combustible y viven, por ello, durante menos tiempo. Nuestro Sol aún tiene hidrógeno para brillar durante unos 5.000 millones de años más. Sin duda, la próxima vez que mires al horizonte piensa en cuán colosales estas esferas de gas son.

Así pues, las estrellas nacen entre nubes de gas (nebulosas) y no nacen aisladas sino en grupos o cúmulos de estrellas. A veces, podemos ver el cúmulo de estrellas rodeado de la nebulosa en la que se han originado. Un buen ejemplo es el cúmulo del Trapecio en la majestuosa Nebulosa de Orión, así como el cúmulo de la Roseta (NGC 2244) o de la Laguna (NGC 6530). Otras veces podemos observar el cúmulo sin nebulosa, como los cúmulos de Ptolomeo (M7) o del Pesebre (M44).

cumulos1

Cúmulos de estrellas rodeados por la nebulosa a partir de la cual se originaron. Las estrellas nunca nacen aisladas, siempre nacen en cúmulos.

Además de formarse en cúmulos, en más del 90% de las ocasiones una estrella queda unida gravitacionalmente a otra estrella, o incluso a varias estrellas, formando sistemas estelares de más de una estrella orbitando unas en torno a otras o en torno al centro de masas del sistema. En este sentido, el Sol es una estrella poco común por su carácter de solitaria, mientras que el cielo nocturno está plagado de sistemas binarios, triples, cuádruples,…e incluso séxtuples.

cumulos2

Algunos cúmulos sin nebulosa. Los vientos estelares provocan la dispersión del gas que componía la nebulosa a partir de la cual se originaron.

Las estrellas pueden tener distintos tamaños, las hay desde supergigantes hasta enanas. De distintos colores, desde rojas (y frías) como Antares, naranjas como Arcturus, blancas como Vega  o azules (y calientes) como Rigel. La masa de una estrella puede oscilar entre un mínimo de 0,08 masas solares y algo más de 100 masas solares como máximo. Parece que cualquier estrella con menos de 0,08 masas solares no podrían alcanzar el término de estrella ya que todo el proceso se interrumpiría antes de que empezase la fusión del hidrógeno. En caso de protoestrellas más allá de las 100 masas solares (aproximadamente), la estabilidad se hace realmente difícil debido a los intensos campos magnéticos así como la fuerza centrífuga de la nube.

binarias

Es común que algunas estrellas queden ligadas gravitacionalmente a otras estrellas, generando “sistemas estelares”.

Constituyen la unidad fundamental del universo (dejando a un lado el universo microscópico). Se agrupan en sistemas y cúmulos, que su vez se agrupan formando galaxias. Las galaxias también se reúnen en forma de grupos galácticos y varios grupos forman cúmulos galácticos. El universo está casi vacío, pero a la vez rebosante de energía y materia; frío y a la vez caliente, oscuro y a la vez tremendamente luminoso, y aunque siempre discutamos si hay más vida en el universo, el universo en sí está vivo, funcionando, con infinidad de “máquinas” funcionando, apagándose y encendiéndose, con distinta intensidad y a distinto ritmo, pero siempre funcionando. El universo evoluciona y continúa su camino propulsado por la acción de tantos y tan colosales motores: LAS ESTRELLAS.

Referencias:

José L. Comellas. Guía del firmamento. 8ª edición. Ed. Rialp. 2006

Leïla Haddad, Guillaume Duprat. Zodiaco. Una historia del cielo y de las constelaciones. Ed. Paidós. 2009

Bill Bryson. Una breve historia de casi todo. Ed. RBA Libros. 2006

Charles A. Cardona. Star Clusters. Springer. 2010

www.auladeastronomia.com

www.emiliosilveravazquez.com

Publicado en Sin categoría | 4 comentarios

Gerty Cori y la Ciencia del azúcar.

Gertrude “Gerty” Theresa Radnitz nació en 1896 en la ciudad de Praga, cuando esta aún pertenecía al Imperio Austrohúngaro, en el seno de una familia de origen judío y con pasión por la cultura y el arte.

Su madre, una mujer con un perfil sofisticado y bastante culto, tenía entre sus amistades al escrito Franz Kafka, también de origen judío. Su padre era un hombre dedicado a la actividad industrial en el procesado del azúcar. Él mismo ideó algunos métodos de refinería de azúcares que han sido empleados globalmente. La joven Gerty desde pequeña sintió vocación por la Medicina, profesión a la que se dedicaba un tío suyo que ejercía la Pediatría. Estudió en un colegio para niñas, en su Praga natal y se estuvo preparando durante dos años, con la ayuda de su tío, para superar el examen de acceso a la Universidad.

Gerty Cori ingresa con éxito en la Facultad de Medicina de la Univerzita Karlova v Praze (Universidad Carolina de Praga) en 1914, donde conocerá a Carl Ferdinand Cori, su futuro marido y compañero de investigación durante toda su vida. Carl era un chico alegre, vital, que profesaba admiración por la naturaleza y gusto por el montañismo. Desde su entrada en la Universidad nunca se separaron y, tras graduarse, en 1920 contrajeron matrimonio y se mudaron a Viena, donde Gerty estuvo trabajando en el Children’s Carolinen Hospital durante dos años. Allí realizó algunas de sus primeras investigaciones sobre los mecanismos de regulación de la temperatura corporal, tanto en niños sanos como afectados por patología tiroidea. Así mismo, también centró su estudio en algunas alteraciones de la sangre.

Gerty Cori (1896-1957)

Gerty Cori (1896-1957)

Sin embargo, el ambiente en el viejo continente no era halagüeño ni favorable para prosperar. Carl intentó buscar plaza en alguna universidad europea, pero ninguna de ellas veía con buenos ojos la colaboración con su mujer, algo que él siempre defendió. Además, la creciente corriente antisemita y el estallido de la “Gran Guerra” (después conocida como Primera Guerra Mundial) provoca que el matrimonio emigre en 1922 hacia Estados Unidos, para afincarse en la ciudad de Buffalo (Nueva York), donde Carl primero, y un poco después Gerty, consiguieron un contrato en el State Institute for Study of Malignant Diseases (actual Roswell Park Cancer Institute).

Por entonces, era conocido que algunos tumores presentaban un metabolismo alterado de los azúcares, así como una actividad hormonal ligeramente diferente a la fisiológica. Carl y Gerty se dedicaron al estudio del metabolismo de los glúcidos (o hidratos de carbono) y particularmente en el catabolismo y anabolismo de la glucosa, así como su regulación mediante la insulina y la epinefrina (adrenalina) entre otras hormonas.

Entre los dos publicaron más de 50 artículos y siempre existió una relación de igualdad entre ambos. El que más implicado había estado en el artículo aparecía como primer autor. Incluso Gerty firmó 11 trabajos como única autora, sin la presencia de su marido. Carl siempre vio a su esposa como una digna compañera y jamás renunció a colaborar con ella, aunque en Roswell encontró presiones para desalentarlo en este sentido.

850px-Gerty_Theresa_Radnitz_Cori_(1896-1957)_and_Carl_Ferdinand_Cori_(1896-1984)

Fruto de esta estrecha colaboración, en 1929 publican un trabajo donde describen el metabolismo cíclico del glucógeno, la glucosa y el lactato entre el tejido muscular y hepático. Esta ruta metabólica es hoy conocida como el “Ciclo de Cori” y fue la razón para que, tanto Gerty como Carl, recibieran en 1947 el premio Nobel de Medicina y Fisiología “por el descubrimiento del proceso de conversión catalítica de glucógeno”. De esta forma, Gerty Cori es la tercera mujer en ganar el premio Nobel, y la primera en ganar el Nobel de Medicina. El galardón fue compartido con el fisiólogo argentino Bernardo Houssay “por el descubrimiento del papel de la hormona del lóbulo anterior de la hipófisis en el metabolismo del azúcar.”

El Ciclo de Cori, su opus magna, explica la conversión reversible (cíclica) entre distintas formas de carbohidratos por parte del músculo y el hígado. El exceso de glucosa se almacena en el cuerpo en forma de un homopolímero llamado glucógeno, una macromolécula constituida por muchas unidades de glucosa en forma de cadenas ramificadas. La síntesis del glucógeno ocurre en el hepatocito (células del parénquima del hígado). Así mismo, en el interior del hígado ocurre un proceso reversible por el cual el glucógeno se cataboliza en moléculas aisladas de glucosa, llamado glucogenolisis.

Ruta metabólica de la glucógenolisis (Catabolismo de glucógeno a glucosa)

Ruta metabólica de la glucógenolisis (Catabolismo de glucógeno a glucosa)

Mediante la glucogenolisis, se rompen los enlaces glucosídicos que mantenía unidos a los monómeros de glucosa, liberándose glucosa-1-fosfato. La glucosa-1-fosfato fue descubierta por Gerty y Carl Cori, por lo que también es conocida como “éster de Cori”. Así mismo, la enzima catalizadora de esta reacción, la glucógeno fosforilasa, fue igualmente descrita por el matrimonio.

Posteriormente, una fosfoglucomutasa trasloca la posición del grupo fosfato (Pi) para generar glucosa-6-fosfato, que inicia la ruta de la glucólisis, una ruta metabólica lineal de 10 pasos, que desemboca en piruvato y dos moléculas de ATP (adenosín trifosfato, moléculas que aportan energía al organismo)

Este es un proceso muy frecuente y conocido que ocurre en el músculo cuando realizamos alguna actividad física (activación del músculo). La contracción muscular requiere energía, en forma de ATP. Esta energía se obtiene de la glucosa que, cuando llega al músculo desde el hígado, es metabolizada hasta el piruvato, para obtener dos moléculas de ATP y disponer así de energía para la contracción. A partir de ese momento, el piruvato puede seguir dos caminos diferentes. Uno de ellos es el ciclo de los ácidos tricarboxílicos (archifamoso Ciclo de Krebs), el cual permite un mayor balance energético, pero de forma más lenta. La otra opción, es la vía fermentativa, mediante la cual el piruvato se transforma en lactato de forma menos efectiva pero más rápida, cuando el músculo necesita un aporte de energía inmediata para poder seguir contrayéndose durante el ejercicio físico.

Coricycle

Esquema ilustrativo del Ciclo de Cori

El resultado del rápido metabolismo de la glucosa para obtener ATP provoca la acumulación de lactato (ácido láctico) en el tejido muscular. Es bastante conocida la hipótesis de que esto acúmulos de lactato cristalizan dentro del músculo, produciendo la mialgia diferida (coloquialmente “agujetas”). Sin embargo, cada día es más aceptado que la auténtica razón para ese dolor muscular no es otro que la microrrotura de fibras musculares débiles durante un ejercicio intenso.

Todo este proceso de obtención de energía a partir de glucógeno es totalmente reversible de forma que, a través del torrente sanguíneo, el lactato muscular regresa al hígado donde va a ser anabolizado hasta glucosa de nuevo (gluconeogénesis) para que pueda ser reenviada al músculo y seguir aportando energía, cerrándose así el ciclo de Cori, o bien convertirse en glucógeno para ser de nuevo almacenada en el interior de los hepatocitos.

En cuanto al balance energético del ciclo, no es equitativo en ambos sentidos. La ruta catabólica (de glucosa a lactato, en el músculo) genera 2 moléculas de ATP, mientras que la ruta anabólica (de lactato a glucosa, en hígado) gasta 6 moléculas de ATP. Esto significa que cada ciclo completo tiene un balance negativo de 4 moléculas de ATP. Esto explica que, aunque exista el ciclo de Cori, no podemos estar corriendo eternamente, pues llega un momento en que existe déficit de ATP y, por tanto, fatiga muscular.

La próxima vez que hagas deporte y sientas que no puedes más, piensa que uno de los motivos (no el único) es el agotamiento de esta ruta cíclica, descrita por Gerty Cori y su marido, fruto de una estrecha colaboración en la que poco contaba el género. Tan sólo pesaba la Ciencia.

Gertrude T. Cori y Carl F. Cori en la ceremonia de entrega de los premios Nobel. (Estocolmo, 1947)

Posteriormente a la publicación del trabajo del Nobel, Gerty y Carl se mudan a Saint Louis, la capital del Medio Oeste, en Missouri, donde Carl es investigador en la Facultad de Washington mientras que Gerty trabaja como investigadora asociada, cobrando siete veces menos que su marido. No será hasta 1943 cuando conseguirá una plaza como profesora  asociada de Bioquímica y Farmacología y, en 1947, meses antes de recibir el Nobel, se convierte en profesora titular de la universidad, cargo que ejercerá durante 10 años. Posteriormente siguieron otros reconocimientos como la medalla Garvan-Olin en 1948, que se concedía a mujeres químicas estadounidenses. El mismo presidente Harry Truman la propuso como miembro de la junta de la National Science Foundation, y también fue miembro de la Academia Nacional de Ciencias. Desde el año 2004, tanto Gerty como su marido, son reconocidos como National Historic Chemical Landmark por la Sociedad Química Americana.

Finalmente, Gerty Cori muere en 1957 a causa de la mieloesclerosis. Estuvo trabajando en la Universidad hasta meses antes de fallecer. La figura de esta brillante investigadora está inmortalizada en el cielo. En el hemisferio sur de la Luna, se encuentra el cráter lunar Cori, de unos 20 km de diámetro, en honor a Gertrude T. Cori. Aunque se encuentre en la cara oculta, allí está, muy cerca del cráter en honor a otra gran científica, Henrietta Leavitt.

Posición del cráter Cori, en honor a Gerty Cori, en la cara oculta de la Luna

Posición del cráter Cori, en honor a Gerty Cori, en la cara oculta de la Luna

El carácter afable, curioso y dulce de Gerty, junto con su constante trabajo y admirable dedicación a pesar de las dificultades, hizo que se ganara la amistad y la admiración de todos los que tuvieron el privilegio de conocerla. Como dijo Houssay, quien compartió el galardón sueco con los Cori “su nombre está grabado para siempre en los anales de la ciencia y su recuerdo será apreciado por sus muchos amigos mientras estemos vivos.

Publicado en Sin categoría | Deja un comentario

El descubrimiento de la anestesia.

Casi todos hemos pasado en alguna ocasión la necesidad de entrar a un quirófano (y no de visita, precisamente). En caso de que no hayas pasado por ahí, simplemente trata de imaginar la situación. Casi la primera pregunta o preocupación que surge en ese momento es algo así como “Pero…me lo harán con anestesia, ¿verdad?

La introducción de la anestesia, como sustancia química que se utiliza para generar una ausencia temporal, local o general, del dolor antes y/o durante una intervención quirúrgica supuso una auténtica revolución en la Cirugía del siglo XIX.

Hasta la primera mitad del siglo XIX, el quirófano era una opción terapéutica muy delicada. Las técnicas quirúrgicas se iban desarrollando cada vez más, pero aún no había solución a los tres grandes problemas de la Cirugía: el dolor, la infección y la hemorragia. El tratamiento y la prevención de estos seguía siendo bastante precario y, como consecuencia, la mortalidad tras una intervención quirúrgica se elevaba hasta el 70%, una cifra más que significativa.

Sin embargo, el período decimonónico viene a suponer una enorme revolución en la Cirugíaal mejorar drásticamente este fatal pronóstico. Por una parte, se empiezan a implementar las primeras técnicas de antisepsia/asepsia con la utilización de guantes de caucho desechables, el lavado de manos preoperatorio con soluciones de hipoclorito o la esterilización del instrumental mediante calor húmedo (técnica que se sigue usando actualmente en muchos casos). Todas estas medidas supusieron un control mucho más eficaz de la infección. Por otro lado, surgen los primeros cimientos de la hemostasia como un conjunto de técnicas para prevenir o controlar la hemorragia. Las pinzas de A. Paré que se usaban para la extracción de proyectiles evolucionan a pinzas hemostáticas, se empiezan a utilizar ligaduras vasculares, cauterización de vasos sanguíneos así como se empieza a extender el uso de las transfusiones sanguíneas. Posteriormente, incluso se empieza a conocer y utilizar la coagulación y la antifibrinolisis en el control de la hemorragia.

De forma paralela a la antisepsia/asepsia y la hemostasia, la anestesia hace entrada en la década de 1840 para erradicar uno de los mayores males inherentes a cualquier acto quirúrgico: el dolor. Durante los primeros años, la anestesia no gozaba de buena reputación por parte de algunos cirujanos que pensaban que tratar a pacientes inertes e inconscientes daría al traste con el temperamento quirúrgico. Sin embargo, una vez que comprobaron su éxito, fue ampliamente aceptada y promulgada por todo tipo de especialistas.

nurse-821858_640

El descubrimiento de la anestesia está relacionado con la serendipia (que no casualidad) que ha rodeado a muchos otros descubrimientos, como es el caso de la penicilina de Fleming. La casualidad puede ocurrirnos a todos, la serendipia sólo le ocurre a las personas que se cuestionan lo que ven y porqué ocurren las cosas. Es un regalo para los que desarrollan un espíritu de curiosidad y crítica ante su entorno, sin duda, cualidades muy relevantes en cualquier científico.

La primera molécula utilizada como anestésico fue en Óxido Nitroso (N2O). Este gas fue descrito por Joseph Priestley, el descubridor del oxígeno, en 1774. Años más tarde, en 1800, Humphry Davy produce N2O y sugiere su uso quirúrgico y, posteriormente, su discípulo, el gran Michael Faraday observa que los vapores de éter producen un efecto similar al óxido nitroso. Sin embargo, ninguno de los dos pone a prueba sus hipótesis.

Durante mucho tiempo, el óxido nitroso recibe el nombre de “gas hilarante” por el efecto que producía al inhalarlo. Este gas generaba una desinhibición de forma que las personas mostraban conductas disparatadas, reían, lloraban, bailaban, e incluso a veces parecían agitadas o enfurecidas hasta que se pasaba el efecto. Hubo comerciantes que hacían inhalar a voluntarios el “gas hilarante” a pie de calle para que estos hicieran las delicias del resto.

1000884060-1000884064

Cartel de una exhibición de los efectos del óxido nitroso inhalado en voluntarios. Según el poeta Robert Southey su efecto se compara a “la atmósfera del más alto de los cielos posibles” (ver letra pequeña)

Una de esas demostraciones se realizó en el Circo Americano en la ciudad de Hartford (Connecticut) en diciembre de 1844, a manos del showman Gardner Q. Colton. A mitad del espectáculo, Samuel Cooley, uno de los voluntarios embriagados, cayó por las escaleras produciéndose una importante lesión en la pierna. Entre el público de aquella tarde se encontraba Horace Wells (1815-1848). Este odontólogo estadounidense presenció en una ocasión una pelea entre dos perros en el que uno mordió gravemente al otro. Ante la situación, Wells se preguntó qué sustancia secretaría el animal para no sentir dolor y retirarse corriendo de la pelea y si, algún día, se podrían usar sustancias así para eliminar el dolor humano.

Ante la caída del voluntario y su aparatosa herida, Wells fue corriendo a examinarlo y descubrió que Samuel Cooley no sentía dolor de ningún tipo. Automáticamente, Wells fue a hablar con Colton para que al día siguiente fuera a su consulta para hacer inhalar a un paciente el famoso gas, antes de una extracción dental. A la mañana siguiente, 11 de diciembre de 1844, el mismo Wells, a falta de voluntarios, se sometió a una extracción de un molar a manos de su amigo y ayudante el doctor William T. Morton (1819-1868). Él mismo dijo: “Una nueva era para la extracción de órganos dentales”.

well-y-morton

A la izquierda, Horace Wells (1815-1848), el descubridor de la anestesia (óxido nitroso). A la derecha, William Norton (1819-1868), primero en emplear el éter dietílico como anestésico. (general-anaesthesia.com)

 

Excitado por el éxito, unas semanas más tarde, ya en 1845, Wells se propuso hacer una demostración delante de otros médicos en Boston para hacer una extracción de un molar en un paciente bajo el efecto del N2O. Desafortunadamente, la demostración fue un fracaso y el paciente acabó muriendo. Este desafortunado evento sume a Horace Wells en una profunda depresión que, tras años más tarde, acaba en un suicidio cortándose la arteria femoral e inhalando cloroformo en una cárcel de New York.

De igual forma, Morton se siente muy atraído por la repercusión que el gas puede tener para el futuro de la Medicina y la Cirugía, por lo que lo utiliza varias veces en la consulta dental con distintos pacientes. En 1847, Morton intenta una nueva demostración del efecto anestésico en el Massachusetts General Hospital, donde usa un gas llamado “letheon” para anestesiar a un paciente del cirujano Collins Warren. Minutos más tarde, Warren consigue extirpar con éxito un tumor en el cuello y, a partir de ese momento, el uso de la anestesia inhalada empieza a extenderse por todos los rincones del mundo: En primer lugar llega a Inglaterra y Francia y, posteriormente, con Alemania, Polonia y Moscú se hace popular en toda Europa a partir de 1847. Más tarde se supo que el gas “letheon” cuya fórmula guardaba en celoso secreto Morton, en realidad era el éter dietílico que había propuesto Faraday treinta años antes.

Sir James Y. Simpson (1811-1870)practicó el primer parto sin dolor a finales de ese año. Utilizó cloroformo inhalado por primera vez, ya que el éter no tenía tanta efectividad y además producía mayores efectos secundarios. La madre sintió tanta felicidad por no haber sufrido que decidió bautizar a su hija como “Anestesia”. Este avance generó descontento dentro de algunos sectores de la Iglesia que pensaban que el dolor del parte era un “pecado celestial” que no se debía abolir. Desde ese momento, y hasta la década de los sesenta, se siguieron usando el óxido nitroso y, sobre todo, el éter y el cloroformo como los principales anestésicos inhalatorios. A partir de ese momento, empiezan a introducirse nuevos gases más potentes como son el halotano, el enfluorano o el isofluorano y, más recientemente, el sevofluorano y el desfluorano.

james-simpson

Sir James Young Simpson (1811-1870) realizó el primer parto sin dolor en 1847. (general-anaesthesia.com)

En la actualidad, la anestesia es más compleja y se usan combinación de fármacos y técnicas más sofisticadas. En primer lugar, se realiza una inducción mediante un medicamento que se administra por vía endovenosa, como el propofol. Este fármaco produce un estado de anestesia y disminución de la consciencia rápidamente pero su efecto es de corta duración. Una vez inducida, el efecto se mantiene mediante fármacos inhalados como el sevofluorano o isofluorano antes mencionados que también tienen una duración de efecto reducida y se mantienen en infusión continua todo el tiempo que sea necesario. Una vez finalizada la operación, se emplea una tercera serie de medicamentos para la recuperación del efecto anestésico en la que se administran antídotos para contrarrestar el efecto del anestésico y que el paciente elimine cuanto antes estas moléculas de su cuerpo y recupere así la conciencia. La cantidad, duración y el tipo de fármacos está individualizado en cada caso debido a que intervienen una gran variedad de factores como el peso, la edad, la patología respiratoria o cardiocirculatoria previa,… Precisamente por todo esto, existe la especialidad de Anestesiología y Reanimación.

La próxima vez que oigas hablar de la anestesia, recuerda que fue todo un hito en la historia de la cirugía al poder eliminar el dolor: uno de los tres grandes problemas de la Cirugía. El promotor del hallazgo fue un odontólogo curioso de Connecticut agraciado por la serendipia de estar en el momento adecuado, en el lugar adecuado y, además, de tener una mente curiosa que intentaba dar explicación a lo que veía, por qué ocurría y cómo podría servir para mejorar los problemas cotidianos. Horace Wells tuvo un trágico final pero se le sigue recordando por ser “el Fleming de la Anestesia”.

Publicado en Sin categoría | 1 Comentario

¿Cómo funciona el horóscopo?

El horóscopo es un método de predicción basado en la posición de determinados astros influyentes en el momento de nuestro nacimiento nacimiento (fecha y hora). De hecho, eso es lo que nos sugiere etimológicamente la palabra “horóscopo” (“hora” + “skopeo” – observador), literalmente, “el que observa la hora”.

Según esta práctica, nuestros rasgos de personalidad e, incluso, los eventos que nos depara el futuro estaban encriptados en la posición de los astros cuando estábamos naciendo.

Entonces, ¿todas esas estrellas que se ven por la noche influyen en mi?

No todas las estrellas del firmamento tienen un papel sobre nosotros. Si así fuera, nos pasaríamos la noche “observando” todas las estrellas, aprendiendo, y entonces estaríamos incurriendo de puntillas en el método científico. Mejor dar marcha atrás. Mucho mejor será simplificar esto de la “observación” todo lo que podamos, y dar rienda suelta a la “predicción”, que es de lo que se trata.

El horóscopo sólo tiene en cuenta una región determinada del cielo, concretamente, lo que conocemos como el Zodiaco (zoo, animal; diakós, camino).

El Zodiaco, o banda zodiacal, es una porción del cielo nocturno. Toda la esfera celeste está dividida en 88 porciones que no dejan ningún espacio libre. Se trata de algo parecido a la división de la litosfera en placas tectónicas. En este caso, se llaman “constelaciones”. Es decir, que todo el cielo está dividido en 88 constelaciones y que cada punto y cada estrella estaría dentro de una única constelación.

Es importante aclarar que siempre que miramos hacia las estrellas en la noche, se usa un modelo antropocéntrico, donde suponemos que el observador es el centro del universo y permanece inmóvil. De forma que todo gira a su alrededor y las estrellas se consideran fijas, como si una cúpula girara a nuestro alrededor. En realidad, no somos el centro de nada y no somos inmóviles. La razón de tomar una referencia fija y central nos permite entenderlo mejor todo.

Uno de los elementos más importantes para los astrólogos es la eclíptica (aunque ellos no lo sepan). La eclíptica es la línea imaginaria que describe el Sol a lo largo del cielo. Imagina que tuvieras un bolígrafo mágico y todo el día para ir pintando en el cielo la línea que describe el Sol desde que sale por el Este y se pone por el Oeste. ¡Enhorabuena, acabas de dibujar la eclíptica!

La eclíptica en realidad es en realidad el plano en el que la Tierra orbita alrededor del Sol, pero para nosotros es el camino del Sol alrededor nuestra, fruto del antropocentrismo que engrandece nuestro espíritu. Resulta que esta línea imaginaria sólo pasa por algunas constelaciones, no por todas, tal y como se aprecia en la imagen.

stellarium-017

Se observan algunas constelaciones celestes, delimitadas por líneas discontinuas rosas. La eclíptica está representada con una línea roka continua que va atravesando las constelaciones de Libra, Virgo, Leo y Cáncer (constelaciones zodiacales). Otras constelaciones como Cuervo, Cráter o Léon Menor no son zodiacales, pues la eclíptica no pasa por ellas.

Aquellas constelaciones por las que pasa la eclíptica son las que componen el famoso zodiaco y se les llama constelaciones zodiacales.

Llegados a este punto, conviene recordar que las constelaciones también son un concepto antropocentrista pues las estrellas que están dentro de una misma constelación no tienen nada que ver unas con otras. Proceden de nubes moleculares diferentes, no se atraen gravitatoriamente entre ellas, es más, suelen estar muy alejadas unas de otras. Por ello, las estrellas de las constelaciones no forman figuras a las que podamos atribuir influencia de ningún tipo. Lo único que diferencia las constelaciones zodiacales del resto, es que las constelaciones del zodiaco reciben periódicamente la visita del Sol, tal como se aprecia en la imagen anterior, mientras que nunca veremos el Sol dentro de la constelación de Orión o de la Hidra.

image20

La forma que atribuimos a cada constelación, en este caso la Osa Mayor, es una disposición arbitraria de estrellas que, en la mayoría de casos, son independientes entre sí.

Un polizón en el Zodiaco

Para el horóscopo es fundamental saber en cuál de estas constelaciones estaba el Sol en el momento del nacimiento. El Sol es el Astro Rey, el que más influencia va a tener sobre nosotros. Pongamos un ejemplo a continuación e imaginemos que hemos nacido el 16 de mayo de 1982 a las 17:28, el Sol en ese momento tenía la posición que se observa en la imagen. Las estrellas no se ven porque es de día, pero el Sol estaba delante de la constelación de Tauro. El astro Rey se va a impregnar de los atributos del Toro y dichos atributos se van a impregnar en nuestra existencia para siempre ergo “¡somos Tauro!”

Somos bravos y fieros, tenemos una gran capacidad de decisión, no nos amedrantan los retos y tomamos las cosas tal y como vienen. Y, además, cada vez que el Sol vuelva a estar dentro de la constelación de Tauro la suerte nos sonreirá. (Por mí, por todos mis compañeros Tauro, y por mi primero). Si este mes resulta que Marte está también en la constelación de Tauro, eso me añade poderes extra en cuanto a mis habilidades beligerantes y no habrá quien me gane en las discusiones. Si, por el contrario, es Venus la que “habita en la casa del Toro” este mes, me sentiré más atractivo, mis dotes amatorias serán increíbles y, si no tengo pareja, seguro que él o ella se fijan en mi.

stellarium-019

Posición del Sol el 16 de mayo de 1982, a las 17:28:00.

Una de las cosas más llamativas y más famosas con respecto al Zodiaco es que, si exploramos todo el recorrido de la eclíptica, encontraremos trece constelaciones, y no doce. Parece que los astrólogos que hicieron el horóscopo se les olvidó la constelación de Ofiuco, el polizón del Zodiaco.

Ofiuco es una constelación que se encuentra en la banda del zodiaco, entre Escorpio y Sagitario. Sin embargo, el horóscopo tradicional incluye sólo 12 signos, divididos en 4 elementos (3 signos de agua, 3 signos de aire, 3 signos de tierra y 3 signos de fuego). Y repartidos de forma muy elegante en 12 meses que tiene un año (un mes, un signo). Pensándolo bien, el 13 es un número bastante más feo a la hora de hacer este tipo de reparto astral (eso te pasa por primo… si tuvieras divisores, a lo mejor habría Ofiucos por el mundo)

stellarium-018

Ofiuco es una constelación del Zodiaco, situada entre Escorpio y Sagitario.

Destripando el horóscopo

De hecho, si nos fijamos en la imagen anterior, hay varias cosas que llaman la atención. La primera es el flagrante olvido de Ofiuco, la segunda es que como todos los planetas del Sistema Solar orbitan al Sol en planos muy similares al de la Tierra (eclíptica) Eso significa que los planetas siempre transitan muy cerca de la eclíptica y, por tanto, también atraviesan las constelaciones del zodiaco, lo cual es una fuente de poder añadida, tal y como vimos anteriormente.

Otra de los hallazgos que podemos descubrir es el hecho de que el Sol pasa por todas las constelaciones del zodiaco, pero la distancia (recorrido angular) que recorre dentro en cada una de ellas es diferente. Si la velocidad del Sol en el cielo es constante (la velocidad de translación de la Tierra alrededor del Sol es constante), resulta que es Sol no está un mes en cada constelación (signo), sino que la duración de cada signo es variable. Es el momento de coger un planisferio y calcular cuántos días dura cada signo en realidad (Astronomía) y compararlo con la versión oficial (Astrología). Los resultados están en la siguiente tabla.

Tabla1

Se observa que el horóscopo tradicional (astrológico) está dividido en 12 signos, donde casi todos los signos tienen una duración de 31 días (un mes) a excepción de algunos, para acabar sumando los 365 días de un año no bisiesto. Sin embargo, cuando realmente analizamos en qué día el Sol entra a una nueva constelación y en qué día sale (horóscopo astronómico), observamos que el reparto de días no es en absoluto equitativo. El signo de Tauro dura 38 días, mientras que Acuario dura 24 días. Es más probable ser Virgo (45 días al año) que ser Escorpio (6 días al año). Y, si suponemos que la tasa de natalidad se mantiene igual todos los días de un año, hay un ¡5,2% de Ofiucos por el mundo! Y a ellos… ¿quién les hace predicciones?

Quizás los astrólogos vieron venir el problema que se avecinaba. Los Escorpio podían sentirse infravalorados, ya que el dios Ra invertía 7,5 veces más tiempo en los Virgo que en ellos, y decidieron hacer un reparto salomónico para evitar discrepancias. También podían haberlo usado a su favor. Los Escorpio tendrían una influencia mayor en menos días, tendrían un poder más concentrado en menos dosis, como el veneno del escorpión. Serían personas que les gusta centrarse en aspectos concretos y llegar lejos, mientras que los Virgo serían “hombres del Renacimiento” que estudiaban muchas materias y dominaban un espectro más amplio y menos intenso del conocimiento.

Una visión con algo más de detalle nos va a descubrir que, además de que el reparto de días no es equitativo, también existe un desfase importante en el inicio (o fin) entre ambos horóscopos. Y ese desfase es diferente en cada signo, pero está en torno a un mes. Por ejemplo, Géminis se supone que empieza el 22 de mayo y acaba el 21 de junio (astrológico) cuando en realidad empieza el 22 de junio y dura hasta el 20 de julio (astronómico).

Esto ocurre principalmente por la precesión de los equinoccios, y porque nadie en 2000 años se ha molestado en actualizar el engranaje astrológico a nuestros tiempos. Bob Dylan diría “The Times, they are a-changing” pero los astrólogos no escuchan música folk-country.

La precesión de los equinoccios

La precesión es, junto con la traslación, la rotación y la nutación, uno de los movimientos de la Tierra. Sabemos que el eje de la Tierra está inclinado con respecto a la perpendicular de la eclíptica, y que esa inclinación corresponde a 23,26º aproximadamente. Pero el eje inclinado de la Tierra no es fijo, sino que tiene un movimiento de precesión, similar al cabeceo de una peonza cuando está próxima a pararse. Un ciclo de precesión dura cerca de 26.000 años. Y esto también tiene un efecto en el horóscopo.

Como consecuencia del movimiento de precesión, a lo largo de 26.000 años, la dirección en la que apunta el Polo Norte Celeste (prolongación del Polo Norte Terrestre) va variando y, por tanto, el Ecuador Celeste (prolongación del ecuador terrestre sobre la bóveda celeste) también sufre un movimiento de precesión.

El ecuador celeste y la eclíptica son dos planos diferentes con una inclinación de 23,26º (inclinación axial terrestre) de forma que el ecuador celeste se corta con la eclíptica en un punto concreto, que se denomina Punto Vernal o Punto Aries. El punto vernal, o intersección entre la eclíptica y el ecuador celeste determina el equinoccio de primavera.

Precesion

El punto vernal (PV) es la intersección entre el ecuador celeste y la eclíptica.

El punto vernal (PV) también se llama punto Aries porque entre el año 2000 y 50 a.C aproximadamente, este punto de la eclíptica estaba dentro de la constelación Aries, y por eso es el primer signo del horóscopo (ver imagen a continuación). Diametralmente opuesto al Punto Aries, existe otra intersección que se denomina punto Libra (equinoccio de otoño). Por otra parte, existen dos puntos de la eclíptica en los que la distancia al ecuador celeste es máxima: el Trópico de Cáncer (solsticio de verano en hemisferio norte) y el Trópico de Capricornio (solsticio de invierno en el hemisferio norte).

stellarium-015

El punto vernal (PV) estaba en Aries el 30 de abril de 1000 a.C.

Sin embargo, con el paso de los años y como consecuencia de la precesión, el punto vernal va cambiando su posición a lo largo de la eclíptica. En la siguiente imagen se puede ver la posición actual del punto vernal (PV). Como se puede observar, actualmente, el PV se encuentra en Piscis, por lo que este debería ser el primer signo del horóscopo y no el último. Y esto no es algo precisamente nuevo. El PV entró en Piscis en el 54 a.C. (aproximadamente en octubre) y saldrá de Piscis en 2597 d.C (en torno a diciembre), momento en que entraremos formalmente en la “Era Acuario” (como dice un anuncio de refresco).

De esta manera, el Punto Aries (equinoccio de primavera) debería llamarse Punto Piscis, el equinoccio de otoño ocurre dentro de la constelación de Virgo. Y los solsticios deberían llamarse Trópico de Géminis (verano) y de Sagitario (invierno). Este desfase acumulado durante más de 2000 años explica el retraso que hay entre el inicio de cada signo desde el punto de vista astronómico cuando lo comparamos con el horóscopo astrológico.

Alguna vez hemos escuchado en el telediario que la primavera entra en un día y a una hora determinada. Ahora ya sabemos que se refieren a la fecha y la hora exacta en la que el Sol está ocupando el Punto Vernal o Equinoccio de Primavera.

stellarium-014

El punto vernal en la actualidad. Se ha movido desde Aries hasta Piscis. En 2597 entrará en Acuario como consecuencia de la precesión de los equinoccios.

Y, ¿cuál es la consecuencia de todo esto?

Pues, que si sumamos todos los errores de concepto, la omisión de Ofiuco, la desigualdad del tránsito en cada signo y el desfase producido por la precesión de los equinoccios, resulta que casi todo el mundo en realidad pertenece a otro signo y está mirando el horóscopo equivocado. La mayoría de las personas se están guiando por el horóscopo suponiendo que hubieran nacido ¡3000 años antes!

Y esta es la mayor sorpresa de todas. A pesar de la cantidad de errores de concepto, omisión y actualización, cuando leemos el horóscopo nos apodera una falsa sensación de acierto. La mejor prueba que nos indica que la Astrología y el Horóscopo son una falacia es que parecen funcionar. Si realmente fueran un modelo científico y válido, al introducir datos erróneos, nos debería dar datos erróneos.

En conclusión, y como dijo el físico Wolfgang Pauli: “[It is] so bad [that] it is not even wrong.” (“está tan mal que ni siquiera está equivocado”).

Publicado en Sin categoría | 3 comentarios

¿Qué son las Células Madre?

Todos hemos escuchado hablar mucho de las archiconocidas “Células Madre” o “Células Troncales” (de su traducción Stem Cells). Cada día más habituales en nuestros medios de comunicación, suponen uno de los nuevos pilares para el desarrollo de nuevas y mejores opciones terapéuticas pero, ¿Sabemos qué son realmente las células madre?

Es difícil establecer cuál fue la primera vez que se usó el término “Célula Madre”. Incluso, el significado de este concepto ha ido cambiando a lo largo del tiempo.

El biólogo alemán Ernst Haeckel fue el primero en acuñar el término en la segunda mitad del siglo XIX. Haeckel era un ferviente defensor de la obra de Charles Darwin y fue responsable de la divulgación de su reciente teoría de la evolución de las especies en Alemania. Haeckel integró la embriología y la anatomía dentro de la teoría evolutiva, impulsándola hacia nuevos avances futuros. Una parte de su obra está dedicada a la realización de Stammbäume (“árboles familiares o genealógicos”) en los que representa la evolución de los organismos como descendientes de ancestros comunes y que aparecen publicados en sus obras Generelle Morphologie der Organismen (Morfología General de los Organismos, 1866) y Natürliche Schöpfungsgeschichte (Historia de la Creación, 1868) En este último libro, introduce por primera vez el término Stammzelle (stem cell ó célula troncal), para referirse al microorganismo unicelular del que habían evolucionado todas las especies pluricelulares.

haeckel

Ernst Haeckel (1834-1919) y uno de sus Stammbäume. [1]

Por tanto, la primera vez que se utiliza el término “célula troncal”, se hace dándole un sentido meramente filogénico. Sin embargo, Haeckel destacó por las analogías entre la filogenesis (ahora explicada por Darwin) y la ontogenesis (el desarrollo de un organismo a partir de la embriología). Fruto de esas analogías desarrolló su propia Teoría de la Recapitulación que, aunque no es aceptada en su forma literal actualmente, proponía que a lo largo del desarrollo de cada especie (ontogénesis), se repite todo el proceso evolutivo de dicha especie (filogénesis). Por ello, el mismo Haeckel también dota de un sentido ontogénico al término Stammzelle refiriéndose al cigoto o célula a partir de la cual se forma todo un organismo maduro.

Años más tarde, Edmund B. Wilson revisa los trabajos de Valentin Häcker y Theodor Boveri y traduce el término Stammzelle a Stem Cell mediante la publicación de The cell in development and inheritance (1896). Para Wilson, al igual que para Häcker y Boveri, la “stem cell” era una célula no especializada a partir de la cual se formaban las células germinales, cuya función es la de transmitir toda la información genética a la descendencia. Por tanto, el progenitor de dicha células era la célula troncal.

Por otra parte, a finales del siglo XIX, se descubren distintos tipos (líneas) de glóbulos blancos en la sangre gracias a las nuevas técnicas de tinción del Paul Ehrlich (Premio Nobel de Medicina de 1908) que permitía diferencias distintos tipos celulares. En el desarrollo de una teoría que explicara el origen de estas nuevas células sanguíneas se generaron dos corrientes de pensamiento: Por un lado los dualistas, que propugnaban un doble origen para las células hematopoyéticas: la médula ósea era responsable de la regeneración de la línea mieloide (eritrocitos, trombocitos, monocitos y granulocitos) mientras que el bazo y los ganglios linfáticos se encargaban de regenerar la línea linfoide (linfocitos). El modelo unitario, sin embargo, proponía que todas las células sanguíneas (línea mieloide y linfoide) procedían de una única célula que tendría un aspecto similar a un linfocito (debido a su morfología y estructura poco diferenciada).

Artur Pappenheim fue uno de los investigadores y defensores del modelo unitario más relevantes al defender que una única célula troncal (“célula madre” o “hemocitoblasto”) sería la responsable de regenerar todas las células sanguíneas (1896) e incluso proponer un modelo de desarrollo y maduración de todas las células sanguíneas a partir de una célula única y central, en 1905. Medio siglo después, en 1961, James Till y Ernest McCulloch publican “A direct measurement of the radiation sensitivity of normal mouse bone marrow cells” en el que se demuestra el esquema que propuso Pappenheim 50 años antes y encontrando la primera célula madre (hematopoyética) aunque en realidad, el término llevaba existiendo hacía casi un siglo.

pappenheim

La hematopoyesis según Artur Pappenheim. La célula central es la hipotética célula madre que regeneraría todos los tipos de células sanguíneas. [2]

Till y McCulloch, entre otros investigadores fueron quienes en la década de los 70 y 80, terminaron por definir el concepto actual de Célula Madre o Troncal (Stem Cell) como cualquier célula que es capaz de autorenovarse y diferenciarse hacia otras estirpes celulares de forma simultánea.

La autorenovación es la propiedad mediante la cual una célula es capaz de sacar copias idénticas de sí misma. Y esto se realiza mediante la mitosis, una división celular mediante la cual una célula genera dos células hijas idénticas a la progenitora. Esta propiedad la tienen muchos tipos de células, a decir verdad, casi todas las células del organismo. No es algo exclusivo de las células madre.

La diferenciación es un concepto de Biología Celular que hace referencia a la propiedad que tienen algunas células de “aprender” nuevas funciones, es decir, de cambiar su fenotipo desde un estado indiferenciado (inmaduro) hacia células que están más especializadas. Por ejemplo, la célula madre hematopoyética o hemocitoblasto, citado anteriormente, es capaz de diferenciarse hacia un eritrocito, convirtiéndose en una célula especializada en el transporte de gases (O2 y CO2) o bien diferenciarse hacia un trombocito, una célula especializa en la formación rápida de agregados (trombos) para detener una eventual hemorragia.

El mecanismo mediante el cual una célula puede autorrenovarse a la vez que se diferencia se llama “mitosis asimétrica”. Se trata de una mitosis clásica, en la cual una de las células descendientes permanece indiferenciada (autorrenovación) mientras que es la otra célula resultante la que cambia su fenotipo mediante la expresión de determinados factores de transcripción (diferenciación). Si ambas células se diferenciaran, no quedaría ninguna célula en estado indiferenciado y el compartimento de células troncales se perdería. De ahí la importancia de que aunque las dos células resultantes sean genéticamente idénticas, tengan destinos diferentes (ver Figura).

mitosis-asimetrica

Las células madre se dividen de forma asimétrica para autorrenovarse y diferenciarse de forma simultánea.

Existen distintos tipos de células madre en función de la variedad de tipos celulares a los que pueden diferenciarse. Y dicha variedad determina la potencialidad de dicha célula. Clásicamente, se han distinguido diferentes tipos de células en función a dicha potencialidad. De esta manera, tenemos que distinguir entre células totipotentes, pluripotentes, multipotentes y unipotentes.

Las células totipotentes son capaces de diferenciarse hacia todos los tipos de células del organismo y generar todo tipo de tejidos, incluídos los tejidos placentarios. El cigoto o huevo es una célula totipotente, ya que a partir de ella se forma un organismo completo, con todos los órganos, tejidos y células.

Las células pluripotentes tienen capacidad para diferenciarse hacia todas las células que forman un organismo, pero no son capaces de desarrollar tejidos placentarios. Son por tanto células con menos potencialidad que las anteriores. Un ejemplo de células pluripotentes son las células del blastocisto en una etapa del desarrollo entre una y tres semanas después de la fecundación. En este estadio, las células de la masa celular interna ya no pueden diferenciarse hacia tejidos placentarios.

En un nivel inferior en la escala de potencialidad, encontramos las células multipotentes. La multipotencia celular se observa a partir de la formación del disco trilaminar (tercera semana del desarrollo). A partir de este momento, las células de la masa celular interna se han diferenciado en tres capas o láminas (ectodermo, mesodermo y endodermo). De cada una de esas láminas van a derivar algunos tipos celulares y, en conjunto, son capaces de diferenciarse hacia todas las células que componen el organismo. Con la formación de este disco trilaminar, las células de cada lámina sólo son capaces de diferenciarse hacia células de dicha lámina, pero no de otra. Por ejemplo, las células del mesodermo son multipotentes porque sólo son capaces de diferenciarse hacia células especializadas de origen mesodérmico, como las células del cartílago, del hueso, de la grasa o de la dermis. Pero no son capaces de diferenciarse hacia células como neuronas (ectodérmicas) o células del hígado (endodérmicas)

Las células multipotentes se localizan durante la mayor parte de la gestación, así como en el cordón umbilical y en la fase adulta (entendiendo “adulto” como “a partir del nacimiento”) Existen múltiples localizaciones en un organismo nato en la que podemos aislar células madre multipotentes, como es el caso de la médula ósea, la grasa o el hueso, entre otros.

clasific_stem_cells

Clasificación celular en función de la potencialidad.

Por último, como es lógico imaginar, las células unipotentes sólo están capacitadas para diferenciarse a un único tipo celular, que tendrá el mismo origen laminar que la célula indiferenciada. Este tipo de células se encuentran en múltiples localizaciones durante toda la vida y son responsables de la homeostasis o mantenimiento de los tejidos a lo largo de los años. Un ejemplo: Es bien sabido que la epidermis de la piel se va descamando por su superficie y que, de forma equilibrada y continua, nuevas células se van formando desde la profundidad. Esa regeneración de la piel, que ocurre cada 28 días aproximadamente, es posible gracias a células unipotentes en la base de la epidermis que continuamente se dividen y generan dos células. Una de ellas se diferencia a célula de la epidermis (queratinocito), mientras que la otra permanece en estado indiferenciado (autorrenovación) para hacer lo mismo en el siguiente ciclo. En esencia, son células madre, pero sólo se diferencian hacia queratinocitos.

La potencialidad de una célula madre, tal y como hemos descrito, es inversamente proporcional al nivel de desarrollo o maduración de la célula. Las células más potentes son las más inmaduras (cigoto y células del blastocisto). Conforme las células van madurando, la potencialidad se reduce hasta que, finalmente, en el adulto únicamente disponemos de células multipotentes y totipotentes.

Sin embargo, hay que tener en cuenta que todas estas clasificaciones son muy recientes en el tiempo y se han establecido como un consenso con fines puramente didácticos. En la realidad, los límites entre un nivel y otro son bastante difusos y poco claros.

Esto es algo importante realmente y de interés en la comunidad científica. El hecho de saber la potencialidad exacta de cada célula madre es una forma de explorar las distintas posibilidades que puede ofrecer en el campo de la Medicina Regenerativa. Conocer que una determinada células puede diferenciarse a una célula beta pancreática, significa disponer de una posible herramienta en el tratamiento de la diabetes mellitus. Quizás por eso están tan de moda las archiconocidas “Células Madre”.

Referencias:

[1] Haeckel, E. Generelle Morphologie der Organismen. Berlin 1866.

[2] Pappenheim, A. (1896). Ueber Entwickelung und Ausbildung der Erythroblasten. Virchows Arch. 145, 587–643.

[3] Ramalho-Santos, M; Willenbring, H. (2007). On the origin of the term “stem cell”.  Cell Stem Cells. 1 (1), 35-38.

Publicado en Sin categoría | 2 comentarios