Registro de seguidores

lunes, 21 de diciembre de 2015

Una temporada especial

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 21 de diciembre de 2015.




La irradiación del sol es la principal entrada de energía a nuestro planeta y la vida como la conocemos ocurre gracias a que las plantas absorben parte de esta energía mediante la fotosíntesis y la utilizan para producir alimentos. Cerca del Ecuador la cantidad de luz solar que llega a la corteza terrestre es prácticamente la misma a lo largo del año sin embargo más cerca de los Polos la cantidad de la misma varía grandemente dando lugar a lo que conocemos como estaciones. La primavera y el otoño comienzan con un equinoccio mientras que el verano y el invierno lo hacen con un solsticio.

Y es precisamente esta noche, 21 de diciembre de 2015 a las 22:35 horas, que ocurrirá el solsticio de invierno de este año. La palabra solsticio proviene del latín solstitium que significa sol quieto y nos indica el día con la noche más larga (el de invierno) o con la más corta (el de verano). En el plano astronómico se trata de los momentos en los que el sol (visto desde la tierra) alcanza su máxima posición austral o boreal. Estas diferencias ocurren porque el eje de rotación de la tierra se encuentra inclinado 23 grados 27 minutos con respecto al plano de su órbita con respecto al sol y los solsticios marcan el momento en que la irradiación que proviene del sol se encuentra focalizada en uno de los extremos del planeta, ya sea en el norte o en el sur, dejando al otro extremo en mayor oscuridad. La noche más larga del año para Morelos comenzará a las 18:03 horas y terminará a las 7:07 del siguiente día, es decir, que tendremos oscuridad por 13 horas 5 minutos, en contraste con la del solsticio de verano del próximo 20 de junio, cuando la noche durará solamente 10 horas 46 minutos.

Hoy mismo, en el Círculo Polar Ártico, dentro del que se encuentran Alaska, Rusia, Finlandia, Noruega, Islandia y Groenlandia, el Sol no saldrá por 24 horas seguidas y a partir del siguiente día las noches comenzarán a acortarse. Esta fecha ha sido especialmente importante para las sociedades originarias que habitaban hacia los polos pues las reservas de alimentos colectados durante el verano debían ser cuidadosamente administradas para no sufrir hambre. Quizá sea por esta razón que los solsticios han sido conmemorados desde tiempos neolíticos como lo indican los restos de Stonehenge en Inglaterra o Newgrange en Irlanda donde el eje primario de los monumentos está cuidadosamente orientado hacia el punto donde sale o se oculta el sol durante el solsticio de invierno. Por esta excepcional condición, los celtas y los romanos festejaban el solsticio de invierno como Sol Invictus, un triunfo del Sol sobre las tinieblas, y lo celebraban con fogatas. Posteriormente la Iglesia Católica decidió situar en esa misma fecha la Natividad de Jesucristo, otorgándole el mismo carácter simbólico de renacer de la esperanza y de la luz en el mundo y corrigiendo así al mismo tiempo el simbolismo de la festividad pagana. El desplazamiento de las fechas se debe a los ajustes que ha sufrido el calendario durante la historia.

También las sociedades originarias de México y el resto de Mesoamérica, donde la astronomía alcanzo niveles de altísima sofisticación, celebraban los solsticios. Por ejemplo, tal como nos dice Beatriz Barba de Piña Chán en su libro “Iconografía mexicana: Las representaciones de los astros”, nuestros ancestros extendieron una línea imaginaria a través de la Cuenca del Valle de México, entre Cuicuilco y el Volcán Popocatépetl, la cual sirvió para alinear poblados y aún actualmente se puede observar desde lo alto del cerro de Xochitepec, en Xochimilco, que el sol del solsticio de invierno sale exactamente detrás del pico del Volcán Popocatépetl. Lo mismo ocurre desde el Cerro Mazatépetl o del Judío, como se conoce actualmente, lo que establece un alineamiento estelar entre ambos cerros siendo el posible origen de los asentamientos ceremoniales en sus cúspides.

Pero eso no es el único fenómeno astronómico de la temporada ya que, de manera casi simultánea con el solsticio de invierno, estaremos experimentando también el perihelio que es cuando la tierra se encuentra más cerca del sol durante el año. Este momento ocurrirá exactamente el próximo 2 de enero y la distancia será de 147 millones de kilómetros, cinco millones de kilómetros más corta que durante el afelio, que ocurrirá el próximo 4 de julio. De manera sorprendente, el estar más cerca del sol no nos ayudará mucho, pues debido a la inclinación de la tierra y también a que el hemisferio norte tiene más tierra que agua, el planeta se encontrará de hecho 2.3 grados centígrados más frío que en el afelio.

Para terminar estas afortunadas coincidencias, tendremos oportunidad de ver una brillante luna llena el próximo 25 de diciembre, lo que no sucede desde 1977 y no volverá a ocurrir hasta 2034.

La naturaleza nos regala con tres hermosos fenómenos para esta temporada la cual, les deseo, sea tan especial como cada uno de ustedes.

Información adicional 

El Villancico "In the Bleak Midwinter" conmemora el Solsticio de Inverno retomando un poema de Christina Rossetti (1872), el cual fue posteriormente musicalizado por Gustav Holst.

En arreglo coral por el Coro de Kings College en Cambridge

En arreglo instrumental por Gustav Holst

In the bleak mid-winter
Frosty wind made moan,
Earth stood hard as iron,
Water like a stone;
Snow had fallen, snow on snow,
Snow on snow,
In the bleak mid-winter
Long ago.

Our God, Heaven cannot hold Him
Nor earth sustain;
Heaven and earth shall flee away
When He comes to reign:
In the bleak mid-winter
A stable-place sufficed
The Lord God Almighty,
Jesus Christ.

Enough for Him, whom cherubim
Worship night and day,
A breastful of milk,
And a mangerful of hay;
Enough for Him, whom angels
Fall down before,
The ox and ass and camel
Which adore.

Angels and archangels
May have gathered there,
Cherubim and seraphim
Thronged the air -
But only His mother
In her maiden bliss
Worshipped the Beloved
With a kiss.

What can I give Him,
Poor as I am?
If I were a shepherd
I would bring a lamb;
If I were a wise man
I would do my part;
Yet what I can, I give Him -
Give my heart.




Programación de fenómenos astronómicos en español

Juan Rafael Zimbrón Romero, 2002. Observaciones calendáricas de las salidas del Sol detrás del Iztaccíhuatl y el Popocatépetl durante el solsticio de Invierno en Iconografía mexicana III; Las representaciones de los astros, Beatriz Barba de Piña Chán (Coordinadora). pp 93-115. Plaza y Valdéz, ed.

Guía turística donde se identifican sitios interesantes para la observación del solsticio de invierno en el Valle de México







lunes, 7 de diciembre de 2015

Del botulismo al Botox

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 7 de diciembre de 2015.




Siempre que voy de compras tengo el hábito de revisar la tapa de las latas para confirmar que no estén hinchadas. Confieso que nunca he encontrado una así pero tampoco olvido la precaución y me percato que hay otras personas que hacen lo mismo, aunque ya menos que antes. La razón para este comportamiento subyace en la existencia de un clan muy especial de microorganismos de apellido Clostridium que tienen un importante impacto en nuestra salud.

En biología, la forma de nombrar a los grupos de organismos es escribir primero el apellido (conocido como género) y luego el nombre (que corresponde a la especie), por ejemplo, de entre los más de cien miembros del clan Clostridium encontramos a Clostridium tetani, Clostridium sordelli, Clostridium perfringens, Clostridium difficile, Clostridium septicum y el que nos ocupa hoy, Clostridium botulinum.

C. botulinum es una bacteria cilíndrica de no más de un millonésimo de metro de longitud que habita ambientes pobres en oxígeno incluyendo el intestino de mamíferos. Parte de su ciclo de vida lo realiza encapsulado como espora que es una forma transitoria durante la cual baja su metabolismo, como si hibernara. Las esporas solo pueden producirse en ausencia total de oxígeno y además son las que producen la toxina botulínica.

Durante el procesamiento de alimentos para enlatar se acostumbra evacuar el oxígeno del aire por calentamiento y en ocasiones se sustituye por gases inertes como el nitrógeno. Con esto se busca evitar la descomposición de los alimentos por oxidación pero, si no se realiza bajo condiciones adecuadas de higiene, puede llevar a bacterias como C. botulinum a la fermentación anaerobia (en ausencia de oxígeno) durante la cual se producen otros gases que son los que hinchan las latas. Lo realmente importante es que durante la fermentación se induce también la esporulación y la producción de siete diferentes toxinas.

Las toxinas de C. botulinum son proteínas con mecanismo de neurotoxinas, es decir que una vez que entran a nuestro cuerpo buscan y actúan exclusivamente sobre las neuronas. Su estructura contiene espirales protectoras que evitan su degradación por los ácidos gástricos y también por otras estrategias de protección celular como las proteasas.

De entre todos los tipos de neuronas que hay en nuestro cuerpo son las neuronas motoras, localizadas en la espina dorsal, las que envían sus largos axones hasta cada uno de los músculos esqueléticos y transmiten la instrucción de contracción o relajación mediante la liberación controlada de acetilcolina. Las toxinas botulínicas se unen selectivamente a las neuronas motoras y bloquean la liberación de acetilcolina por lo que los músculos esqueléticos ya no reciben la instrucción de contraerse de manera voluntaria, se relajan y generan flacidez muscular.

La ingestión de esporas de C. botulinum produce un cuadro de extrema gravedad comenzando con náuseas y diarrea que progresa después de 36 horas a debilidad y parálisis muscular que llega posteriormente a la parálisis respiratoria. Si el  paciente no muere, la recuperación es lenta y no necesariamente completa. Felizmente se cuenta ahora con una antitoxina que, de administrarse oportunamente, evita que el paciente llegue a las complicaciones que ponen en riesgo la vida.

De una manera interesante, la realización de más de 10 años de experimentos en los años ochenta llevaron a explotar la potencia de esta toxina para nuevas formas de tratamiento de padecimientos muy diversos pero que compartían la característica de involucrar la contracción involuntaria de un músculo como por ejemplo la tortícolis, la sudoración excesiva, el estrabismo o la incontinencia urinaria. Como resultado de estos prometedores estudios la agencia estadounidense de licenciamiento de medicamentos conocida por sus siglas FDA aprobó en 1989 el uso de preparaciones muy diluidas de una de las toxinas producidas por C. botulinum, la toxina A cuya estructura mostramos en la ilustración, para fines clínicos bajo el nombre comercial Botox.

La historia da un cambio radical cuando en 1987 una oftalmóloga llamado Jean Carruthers recibe la exigencia de una paciente que ha estado en tratamiento para un padecimiento llamado blefaroespasmo para que le inyecte Botox también en la frente.  Con sorpresa le pregunta la razón y la paciente le dice que cuando recibe la inyección sus arrugas desaparecen. Intrigada, la oftalmóloga lo comenta con su esposo, el dermatólogo Alistair Carruthers quien ha estado batallando para encontrar métodos que reduzcan esas arrugas que se producen en la frente y que incomodan a algunas personas.

Jane y Alistair comenzaron entonces una serie de pruebas sobre voluntarias con excelentes resultados. La misma Jane se sometió el procedimiento y quedó encantada. En un primer momento, los esposos Carruthers  desataron una enorme controversia entre sus colegas sin embargo continuaron realizando los tratamientos ante la cantidad de solicitudes que recibían de sus pacientes. Para 1993, se disolvió el rechazo entre los médicos y comenzó la aplicación masiva de Botox para fines cosméticos de tal manera que para 1997 llegó inclusive a escasear.

Actualmente es posible encontrar gran cantidad de establecimientos y consultorios que ofrecen el tratamiento. A pesar de su relativa seguridad, es muy importante que se busque a médicos titulados con experiencia pues siempre existe la posibilidad de una complicación desde las ligeras como una sonrisa torcida hasta pérdida de la visión o de la capacidad respiratoria.

La historia del Botox es uno de esos casos donde la investigación científica del más alto nivel que incluye el Premio Nobel de Medicina de 1936 otorgado a Sir Henry Dale y Otto Lowei por sus investigaciones en el mecanismo de acción de la acetilcolina como neurotransmisor llega generar un producto cosmético con ventas de dos mil millones de dólares al año de una manera absolutamente imposible de predecir. 

Por el invaluable potencial de la investigación básica para transformar el conocimiento generado en riqueza es que es indispensable incrementar la inversión pública en investigación básica en México en la misma proporción que la inversión en innovación. 


Información adicional.

Nota informativa de la Organización Mundial de la Salud sobre botulismo

Reseña del Premio Nobel en Medicina 1936 otorgado a Sir Henry Dale y Otto Lowei

Mecanismo de acción de la toxina botulínica

Una revisión ligera sobre la lucha contra las arrugas en la historia

Existe un número de artículos científicos publicados por los esposos Carruthers en revistas especializadas sin embargo ninguno de ellos es de acceso abierto.

martes, 1 de diciembre de 2015

La vacuna contra la diabetes: una guía para reconocer pseudociencia

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 30 de noviembre de 2015.




Hace uno días se publicó, con bombo y platillo, una vacuna que supuestamente cura la diabetes. La noticia se dio en una conferencia de prensa y la nota que se emite causa impacto por varias razones que son clásicas de la pseudociencia. Primero, el uso de frases como “orgullosamente mexicana”, “gracias al talento de investigadores nacionales”, “que primero se beneficien los mexicanos” son comunes en la réplica de la noticia con lo que se busca generar un orgullo basado en el nacionalismo. Segundo, la pueden utilizar enfermos incipientes, prediabéticos, pacientes crónicos, niños y ancianos con lo que automáticamente se tiene un mercado amplio y sin restricciones. Tercero, es de aplicaciones múltiples pues se alega que también puede usarse para remediar (que no curar, en eso son cuidadosos) otros padecimientos como embolia, pérdida del oído, amputación, insuficiencia renal y ceguera, entre muchos otros. Cuarto, el tratamiento es acotado, un tema importante pues se ha visto que muchos diabéticos abandonan los tratamientos permanentes por incapacidad financiera o malos hábitos. Quinto, desde el punto de vista económico, el costo de cien pesos por tratamiento permitiría a cualquier persona tener acceso al mismo aunque no cuente con seguridad social o seguro médico. Sexto, carece del soporte académico y técnico que dan publicaciones especializadas o patentes. Finalmente, se amparan de manera tendenciosa en instituciones prestigiadas como el Centro Médico Siglo XXI del Instituto Mexicano del Seguro Social al mencionarlo como el sitio donde se llevarán a cabo los tratamientos.

Como se imaginarán, de ser cierto, este tratamiento podría cambiarle la vida a millones de personas y generó una importante expectativa. Inclusive instituciones serias como la Fundación Carlos Slim para la Salud replicaron la nota además de docenas de medios impresos, radio y televisión. Desafortunadamente para la Fundación Vive tu Diabetes y para la Asociación Mexicana para el Diagnóstico y Tratamiento de Enfermedades Autoinmunes, promotores del engaño, la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) reaccionó rápidamente y emitió un comunicado oficial donde indica que no se ha presentado el protocolo clínico para evaluar la calidad y seguridad del supuesto biológico llamado “Autohemoterapia”, ni cuenta con registro sanitario ni permiso de publicidad, por lo que se tomarán las medidas preventivas y correctivas correspondientes.

La autohemoterapia es reconocida como el procedimiento clínico en el cual se inyecta al paciente su propia sangre o componentes de ésta. La autotransfusión es un tipo de autohemoterapia donde el paciente recibe en transfusión su propia sangre. Llevado a cabo en un ambiente limpio y controlado este es un procedimiento recomendado para cirugías programadas y se lleva a cabo de rutina en hospitales. Más recientemente se ha promocionado que la autotransfusión de sangre modificada pudiera ser útil para la eliminación de bacterias, virus y células cancerosas. También se ha implicado la utilidad de esta práctica en el tratamiento de padecimientos autoinmunes como el lupus, la psoriasis y la artritis reumatoide. Cabe aclarar que ninguno de estos procedimientos ha sido correctamente valorado usando los protocolos autorizados para un medicamento con registro y que se comercializan de manera informal como remedios.

La existencia de este tipo de tratamientos basados en procedimientos sencillos, baratos, de uso general y que no requieren de monitoreo o seguimiento clínico son desgraciadamente muy frecuentes y su uso puede tener consecuencias severas pues incitan a los pacientes a abandonar los tratamientos clínicos.

Es entendible la frustración de un paciente y de su familia después de meses o quizá años de cuidados y gastos y que no tienen los resultados que esperaban. Esta frustración comienza a minar la confianza en las instituciones oficiales del sector salud y también en los científicos quienes no suelen generar soluciones milagrosas sino que presentan con seriedad y sustento técnico sus descubrimientos.

En estos momentos, a una semana del anuncio inicial, la COFEPRIS actuó de manera ágil y contundente, se han clausurado ya algunos consultorios médicos que estaban aplicando el tratamiento y se ha iniciado un proceso judicial contra los inventores y promotores.

Los invito a revisar las características mencionadas arriba para este caso y que son las mismas que suelen acompañar a otros fraudes pseudocientíficos. Recuerden que la mejor estrategia para evitar la diabetes es una buena alimentación y ejercicio moderado y que si desgraciadamente ya se presentan síntomas, seguir el tratamiento de un médico por más aburrido y limitante, es la mejor terapia.

La ciencia genera conocimiento, ese conocimiento aplicado nos da soluciones para problemas de todos los días y en algunas ocasiones nos cambia la vida como, por ejemplo, con el descubrimiento de los antibióticos. No podemos descartar que se llegue a tener una solución definitiva para la diabetes, sin embargo, antes de llegar al paciente, cualquier tratamiento deberá cumplir con una serie detallada y estricta de procedimientos que aseguren, no solamente que efectivamente existe una mejora, sino que no producen efectos colaterales.


Hacer ciencia implica una enorme responsabilidad social y existe un código de ética de la profesión que ha sido inculcado de generación en generación siendo la misma comunidad internacional la primera en exigir su cumplimiento. Sólo de esa forma los científicos responderemos a la confianza que nos da la sociedad y de la cual estamos orgullosos.

domingo, 29 de noviembre de 2015

Domesticando al calor

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Son de Cuernavaca el 23 de noviembre de 2015.




Dicen que la pereza es la madre de la inventiva. ¿Y qué podría dar más pereza que estar drenando agua helada desde el fondo de una mina de carbón por horas? Bueno, seguramente muchas otras cosas más pero hoy vamos a hablar de un invento de esos que surgen de la necesidad y que transformaron a la humanidad: la máquina de vapor.

El carbón se ha utilizado en toda la historia de la humanidad para generar calor, ya sea para hacer más confortables las habitaciones o simplemente para cocinar. Durante el siglo XVI Inglaterra comenzó a explotar de manera sistemática sus depósitos de carbón y comenzó, también, a desarrollar la tecnología que le permitiera hacerlo de manera más eficiente.  A partir del uso de instrumentos sencillos que agilizan y reducen el esfuerzo humano o de animales de carga como son las palancas, las poleas y la rueda misma, se explotaron también otras fuentes naturales como por ejemplo el viento o las corrientes de agua. Sin embargo, el verdadero cambio provino cuando se aprovechó la capacidad calórica del carbón para realizar trabajo.

Después de una serie de experimentos preliminares, Thomas Newcomen diseña en 1712 un instrumento que aprovechaba la capacidad motriz del vapor de agua para subir un pistón. Algo parecido a lo que sucede con la válvula de una olla de presión en casa donde el chorro de vapor puede empujar el tapón hacia arriba. La novedad de Newcomen fue asociar una palanca al pistón y el movimiento de la palanca a una bomba de agua que demostró podía drenar tanta agua del fondo de la mina como lo harían dos bombas tradicionales tiradas por caballos.

Las ventajas fueron evidentes ya con un solo operario se reemplazaban dos tiros de caballo. Además, las bombas no se cansan como los caballos, tampoco hay que darles de comer y todavía mejor, el sistema se alimenta con el mismo carbón que se extrae de la mina. Como se imaginarán, la bomba fue un éxito y se comenzó a utilizar no solo en minas de carbón sino en cualquier otro sitio que necesitara un drenaje constante de agua por lo que fue optimizada y profesionalizada.

Cincuenta años más tarde, James Watt, un joven ingeniero que trabajaba en la Universidad de Glasgow en Escocia, se dio cuenta que una parte importante de la energía emitida por el carbón no se aprovechaba para mover el pistón sino que se disipaba en forma de calor. Con un cambio de diseño mejoró la eficiencia del motor reduciendo a solo 25% la cantidad de carbón que se necesitaba y también la de agua ya que añadió un sistema de reciclado. Emocionado por sus descubrimientos, Watt siguió trabajando en el diseño de una versión de bomba todavía más eficiente y por lo tanto, más pequeña, la cual lanzó al mercado diez años después todavía como una maquinaria dedicada a la minería.

Como buen emprendedor y no contento con su éxito, Watt siguió trabajando en su diseño y lo modificó de tal forma que la palanca conectada al pistón pudiera desarrollar otros tipos de movimientos que fueron aprovechados por diferentes empresas como la textil detonando la revolución industrial. A partir de ese momento ya no hubo marcha atrás, la sociedad se volvió dependiente de la energía contenida primero en el carbón y después en el petróleo. 
James Watt fue un hombre práctico y aunque desarrolló conceptos útiles como el de “caballos de fuerza” se requirió de la participación de otros científicos para entender, dimensionar y generalizar sus observaciones dando sustento a una rama de la física moderna conocida como Termodinámica.

Inicialmente, la termodinámica se aplicó al estudio de la interacción entre calor y trabajo y también de su relación con variables medibles como son el volumen, la presión y la temperatura. En su desarrollo posterior, la termodinámica se ha ampliado para el estudio de cualquier fenómeno de transferencia de energía incluyendo reacciones químicas.

Del trabajo de cientos de científicos se han logrado desarrollar dos conceptos claves que se conocen como las Leyes de la Termodinámica. La Primera Ley nos dice que la energía puede cambiar de forma pero no puede ser creada ni destruida. Es decir, que la energía del Universo es constante desde su origen y seguirá siendo así por siempre. Usemos el ejemplo de la máquina de vapor donde la energía contenida en el carbón se libera como calor durante la combustión. La bomba de Watt lo que hizo fue canalizar parte de esa energía para realizar trabajo. Ese trabajo puede transformarse a su vez a otras formas de generación de energía, como por ejemplo eléctrica. Sin embargo, no importa cuántas ni que tan complejas sean las transformaciones, la cantidad de energía siempre será igual al 100% original, ni más ni menos.


En reconocimiento a sus aportaciones al desarrollo científico y tecnológico, la comunidad científica decidió usar el apellido de James Watt para nombrar la unidad del sistema métrico decimal relacionada con la potencia. Es decir, un watt es una unidad que nos refleja la capacidad de un sistema de generar trabajo a partir de la transformación de energía. Piensa en eso la próxima vez que cambies un foco.

lunes, 16 de noviembre de 2015

Caliente, caliente

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 16 de noviembre de 2015





A veces lo más obvio resulta ser lo más difícil de expresar. Eso pasa con la energía. Actualmente nos transportamos, nos alimentamos y disfrutamos de mayor bienestar que nunca antes en la historia de la humanidad porque nos hemos transformado en una sociedad impulsada por la energía, sin embargo existe confusión sobre lo que significa.

Según la Real Academia Española, energía es eficacia, poder, virtud para obrar. En ese sentido, expresiones como “hoy amanecí sin energía” o “vamos a cargarnos de energía a la pirámide” son aceptables, sin embargo, desde el punto de vista científico, la energía es única y exclusivamente la capacidad para realizar un trabajo. Sin distingo de su naturaleza, ya que puede ser energía térmica, energía química, energía cinética, energía eléctrica o energía potencial, entre otras, todas las formas de energía pueden usarse para producir trabajo siendo uno de los avances tecnológicos y científicos más importantes de la humanidad precisamente la domesticación de este proceso.

En esta ocasión nos referiremos a un tipo de energía en particular, la energía térmica, a sus manifestaciones y a su aprovechamiento. Comencemos por declarar que la energía térmica es aquella que se libera en forma de calor y que el calor se transmitirá siempre de un objeto más caliente a otro menos caliente (o más frío), pero nunca en sentido contrario. A finales del siglo XVIII, Antoine de Lavoisier realizaba estudios sobre la combustión, proceso que, como todos sabemos, emite una cantidad significativa de calor. Con la finalidad de articular mejor su teoría, Lavoisier propone la existencia de un fluido al que llamó calórico y que sería la sustancia del calor. De acuerdo con su teoría, la cantidad de esta sustancia sería constante en todo el universo y fluiría desde los cuerpos cálidos a los más fríos. Aunque ya en 1774 Lomonosov rechazaba la teoría del calórico y atribuía el calor al movimiento microscópico molecular, no fue hasta 1842, con los concluyentes experimentos de Mayer y Joule, cuando se desechó este modelo.

Entonces, ¿qué es el calor? El calor es energía en tránsito. Esta energía proviene del movimiento de las moléculas que componen un cuerpo. Más caliente un objeto, mayor movimiento tienen sus moléculas (energía cinética) la cual puede transferirse a otro cuerpo más frío en forma de calor hasta que el movimiento de las moléculas de ambos cuerpos sea el mismo. El calor puede ser transferido entre objetos por diferentes mecanismos, entre los que se encuentran la radiación, la conducción y la convección, los cuales pueden operar solos o en conjunto.

La manera como expresamos el grado de calor contenido en un objeto se llama temperatura y existen varias formas de determinarla. Vivencialmente decimos que un objeto está caliente, tibio (como el cuerpo humano), templado (con el ambiente) o frío. Sin embargo, la forma correcta de expresar la temperatura consiste en la aplicación de un termómetro, palabra que proviene de los términos termo (calor) y metro (medición).

El primer termómetro es atribuido a Galileo, quien en 1592 empezó a utilizar como tal un bulbo de vidrio, del tamaño de un puño, abierto a la atmósfera a través de un tubo delgado. Para evaluar la temperatura ambiente, se calentaba con la mano el bulbo y se introducía parte del tubo (boca abajo) en un recipiente con agua coloreada; la variación de temperatura del aire atrapado en el proceso de enfriamiento al ambiente ocasionaba un ascenso del nivel del líquido en el tubo que era proporcional a la diferencia entre la temperatura ambiente y la del cuerpo humano. Actualmente se puede fabricar una derivación de este termómetro original a uno basado en ampolletas con líquidos de diferente densidad que resulta ser entretenido de elaborar y muy vistoso como adorno. En 1641, el Duque de Toscana, fundador de la Academia Florentina de los Experimentos, aprovechando la entonces emergente tecnología de tubos capilares de vidrio, introduce el termómetro de bulbo con alcohol y capilar sellado, prácticamente como los usados hoy en día.

Siendo tan simples de elaborar y tan útiles para aplicaciones prácticas, se difundió el uso de los termómetros, sin embargo, como las escalas eran arbitrarias era imposible llevar a cabo comparaciones productivas. No fue sino hasta 1717 que un instrumentista holandés apellidado Farenheit introdujo como puntos de referencia el de congelación de una disolución saturada de sal común en agua y la temperatura del cuerpo humano, dividiendo esta escala en 96 partes iguales. La escala Farenheit se sigue utilizando hasta la fecha en países anglosajones.

Un poco después, en 1740, el físico sueco Anders Celsius propuso utilizar como puntos fijos los de de fusión y ebullición del agua al nivel del mar y también la división de la escala en 100 grados. Esta escala, que se llamó centígrada por contraposición a la de Farenheit ha perdurado hasta hoy y es la que usa de manera extendida en México. Para aplicaciones comunes la escala Celsius es utilizable, sin embargo, durante un tiempo existió la polémica si existiría una temperatura mínima real o si, al contrario, no habría límites para el frío.

En 1848 William Thomson (luego Lord Kelvin) concluyó con la polémica al establecer formalmente la escala absoluta de temperatura. En esta escala cada grado corresponde con un grado Celsius y se origina en el cero absoluto, es decir en la temperatura donde no existe movimiento alguno a nivel molecular. Esta temperatura corresponde a -273.15 grados Celsius y su unidad es el K (Kelvin, en honor a su inventor).

El sitio más frío conocido corresponde a la nube de expansión de gases de la Nebulosa de Boomerang con un valor de 1K, un par de grados menos que la temperatura promedio del universo que es de 2.73K. Dentro del laboratorio, existe una carrera permanente por alcanzar el cero absoluto y si es posible, por superarlo.


En conclusión, podemos decir que la temperatura no es energía en sí, sino una medición de ella, mientras que el calor sí es energía. Ahora, cómo convertir esta energía en trabajo será materia de la siguiente entrega de esta columna.


Información adicional

Funcionamiento de un termómetro de Galileo


Nebulosa de Boomerang, el lugar más frío del universo


Gases cuánticos que alcanzan temperaturas por debajo de 0K


lunes, 9 de noviembre de 2015

Porqué no creo en la homeopatía

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 9 de noviembre de 2015.




Solo una vez recibí un tratamiento homeopático pero como mis papás decidieron que tomara dos medicamentos de manera simultánea, es imposible saber si me curó el homeopático, el farmacéutico o si me curé sola a pesar de ambos tratamientos. La verdad es que lo único que sé con certeza es que los chochitos de azúcar con alcohol estaban sabrosos.

La homeopatía la inventa Samuel Hahnemann en Europa a finales del siglo XVIII como una alternativa a métodos totalmente inaceptables desde la óptica moderna como las sangrías. Sin embargo, esta disciplina tiene dos características por las que su validez ha generado un profundo cuestionamiento por los científicos de México y del mundo.

La primera es la práctica de catalogar las enfermedades por los síntomas, como por ejemplo la comezón, y la presunción de que su origen es una mezcla de agentes infecciosos, influencias ambientales y predisposición personal. Esta manera de abordar el problema tuvo sentido a finales del siglo XVIII cuando la microbiología estaba apenas comenzando y conceptos como “fuerza vital” y “generación espontánea” no habían sido retados con explicaciones racionales derivadas de la observación científica. Sin embargo, ahora sabemos que padecimientos como la sarna o la psoriasis, que presentan síntomas a primera vista similares, tienen orígenes totalmente diferentes y por lo tanto, los tratamientos tendrán que ser los específicos para cada una.

Al principio Hahnemann partió del supuesto de que lo que te enferma, si se ingiere en dosis diluidas, te curaría. Como en realidad no existe una correlación clara entre la ingestión de compuestos y las enfermedades muy pronto evolucionó el concepto hacia el estudio de extractos vegetales o animales para identificar si tenían efecto sobre las personas. Estas pruebas llamadas comprobaciones han tenido cierto valor por usar grupos de control, procedimientos sistemáticos y análisis estadístico de los resultados. Sin embargo, su gran deficiencia consiste en que se trata de procedimientos subjetivos y que no son ciegos, es decir, no tienen cuidado de que el paciente no sepa si está tomando un medicamento o un placebo. Ocasionalmente las comprobaciones homeopáticas han servido para el desarrollo de medicamentos modernos como, por ejemplo, la evidencia de que la nitroglicerina podría ser útil en el tratamiento para la angina de pecho.

La segunda característica tiene que ver con el método de preparación de los medicamentos. Como las observaciones iníciales de Hahnemann provenían de venenos y otro tipo de compuestos que efectivamente causaban daño, su hipótesis de trabajo fue que si se diluían lo suficiente, entonces tendrían el efecto contrario. Aunque ya mencionamos que esta presunción ha sido modificada con el tiempo, todavía los homeópatas conservan la práctica de la dilución extrema de los principios activos.

A finales del Siglo XVIII tampoco se habían desarrollado las teorías moleculares de la química moderna que en nuestros tiempos nos permiten saber exactamente cuántas moléculas de un compuesto, por ejemplo cloruro de sodio (sal de mesa) se encuentran en una solución. Inclusive se ha desarrollado el concepto químico de concentración y una unidad específica conocida como concentración molar. En la entrega de la semana pasada hablamos de la constante de Avogadro, donde aprendimos que una mol de un compuesto contiene exactamente 6 x 1023 moléculas del mismo y que equivale a la masa molecular expresada en gramos. Volvamos a la sal de mesa para dar un ejemplo. Una molécula de cloruro de sodio está formada de un átomo de cloro y uno de sodio, cuya masa sumada da 58,44 gramos/mol, es decir, que si pesamos en una báscula 58.44 gramos de sal tendremos una mol y en esa mol 6 x 1023 moléculas del compuesto. Ahora, si diluimos esa mol de cloruro de sodio en un litro de agua tendremos una solución de concentración  1 molar (1M).

En homeopatía se usa de manera frecuente las diluciones 1:100 que consisten en tomar una parte de la solución concentrada y diluirla 100 veces y así sucesivamente. Una de las diluciones más aceptadas por los homeópatas para sus medicamentos es la conocida como 30C, es decir que la solución concentrada sufrió 30 diluciones consecutivas cada una por un factor de 100. Procedamos ahora a calcular cómo se comportaría nuestra solución 1M de cloruro de sodio.

Sabemos que nuestra solución contiene 6 x 1023 moléculas de cloruro de sodio en un litro. Si diluimos ese litro en 100 litros ahora tendríamos 6 x 1021 moléculas en un litro (dos órdenes de magnitud menos que es igual a cien veces). Si lo hacemos una segunda vez tendríamos 6 x 1019 moléculas en un litro y si lo hacemos diez veces más tendríamos solo 6 moléculas en los cien litros. Si lo volvemos a diluir por treceava ocasión, entonces ya no habría suficientes moléculas para distribuir. Definitivamente una dilución 30C ya no tendría ni una sola molécula que no fuera agua.

Ante tal evidencia, los defensores de la homeopatía han desarrollado explicaciones alternas como la memoria del agua, donde arguyen que las moléculas del solvente “recuerdan” que tuvieron un principio activo y transmiten esa información como remedio. También se han adicionado procedimientos físicos como golpear la solución o exponerla a la luz del sol con la finalidad de energizarla y aumentar la potencia de los compuestos.


Ninguna de estas prácticas ha soportado el análisis riguroso del método científico en lo que se conoce como pruebas clínicas y que son los procedimientos que las autoridades sanitarias solicitan de cualquier medicamento que sale al mercado para darle un registro. En México la autoridad en la materia es la COFEPRIS (Comisión Federal para la Protección contra Riesgos Sanitarios).

lunes, 2 de noviembre de 2015

Avogadro y su constante

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 2 de noviembre de 2015



El mundo de lo pequeño siempre ha capturado la imaginación de los niños, por lo menos la mía sí, tanto como para dedicarle largas horas de observación a un hilo de hormigas. Conforme pasa el tiempo vamos entendiendo que lo pequeño está compuesto  de partículas todavía más pequeñas y esas, a su vez, de otras más pequeñas hasta que llegamos al reino de lo atómico más o menos al entrar en secundaria y conocemos por primera vez a los electrones, protones y neutrones que son la materia prima de los átomos.

Los átomos tienen volumen y masa al igual que el mundo que podemos observar con los sentidos, sólo que son miles de millones de veces más pequeñas. Para poderlos describir y manipular se han desarrollado, por un lado, instrumentos de enorme precisión y resolución como los aceleradores de partículas o los difractrómetros de rayos X y, por otro lado, nuevos conceptos como masa atómica o  mol.

Vamos a analizar el ejemplo de un kilogramo de arena que está hecha de óxido de silicio, una molécula compuesta por dos átomos de oxígeno y uno de silicio y que tiene por fórmula SiO2. Si queremos saber cuántos granitos contiene un gramo de arena necesitamos saber cuánto pesa en gramos cada uno y bastaría entonces dividir 1 entre ese número.  Felizmente, ese dato es relativamente fácil de obtener y sabemos que el peso promedio de un granito de arena es 0.00005g por lo que un gramo contendría 2 x 104 granos de arena o lo que es lo mismo, veinte mil granitos. Ahora vamos a hacerlo más difícil ¿Cuántas moléculas de óxido de silicio hay en un gramo de arena?

Date un segundo para pensar la respuesta. ¿No la tienes? ¿Por qué?

Si respondiste que no y que es porque te falta información, pues tienes razón. Así como resolvimos la primera pregunta porque supimos cuánto pesa un granito de arena en gramos necesitamos saber cuánto pesa una molécula de óxido de silicio en gramos y repetir el procedimiento. No es una pregunta fácil sin embargo tiene respuesta gracias a los descubrimientos de Lorenzo Romano Amedeo Carlo Avogadro, conde de Quaregna y Cerreto.

Amedeo fue un científico italiano del siglo XIX que enseñaba física en la Universidad de Turín. En esos tiempo los temas fundamentales de la ciencia tenían muchas más preguntas que respuestas además de que no se contaba con tecnologías como las de ahora para resolverlas. Sin embargo, con experimentos sencillos y con mucho ingenio, Amedeo aceleró el avance de la ciencia al determinar un número llamado ahora Constante de Avogadro en su honor.

La Constante de Avogadro es el número que relaciona el número de moléculas con su masa atómica expresada en gramos, un conocimiento realmente revolucionario ya que la masa de una molécula es miles de millones de veces más pequeña que un gramo y ni siquiera a la fecha tenemos manera de determinarla directamente. Entre 1800 y 1810, Amedeo realizó una serie de experimentos con gases, especialmente oxígeno, donde demostró que la masa de una molécula se relaciona directamente con su peso en gramos por un factor de 6 x 1023 (un 6 seguido de 23 ceros). Dicho de otra manera, si una molécula tiene una masa de 2, como en el caso del hidrógeno, en 2 gramos de hidrógeno tendremos 6 x 1023 moléculas. Si hablamos de una molécula de agua que tiene una masa de 18, en 18 gramos de agua tenemos, otra vez, 6 x 1023 moléculas de agua. Para el óxido de silicio, con una masa de 60, significa que en 60 gramos tenemos 6 x 1023 moléculas de óxido de silicio. Ahora sí ya puedes responder la pregunta.

La Constante de Avogadro nos sirve para hacer cálculos como el anterior pero también de ahí se deriva otro concepto fundamental para la química que es la mol. Una mol es como una docena o una gruesa, un número que refleja un ensamble de elementos sin importar si son átomos o naranjas. Una docena son doce, una gruesa son 144 (doce docenas) y una mol son 6 x 1023.

Volvamos ahora al tema que dejamos pendiente la semana pasada en esta misma columna y que tiene que ver con la nueva definición del kilogramo a partir de la elaboración de esferas de silicio. Comienzo con decirles que el silicio puro forma cristales perfectos, tal como lo hacen las moléculas de cloruro de sodio en un grano de sal o los átomos de carbono en un diamante. Es decir que cada ocho átomos de silicio se acomodan de manera precisa para formar cubos que se repiten de manera regular dentro del cristal. Este cubo se conoce como celda unitaria y tiene dimensiones que pueden ser determinadas experimentalmente en el orden de la mil millonésima parte de un metro.

Entonces, si sabemos el volumen de la celda unitaria y también sabemos el volumen de la esfera, podemos  deducir el número de celdas unitarias presentes y como cada una contiene ocho átomos de silicio, bastaría multiplicar estos dos números para saber cuántos átomos de silicio hay en la esfera. Gracias a la Constante de Avogadro, es posible transformar el dato obtenido de número de átomos a su masa en gramos con lo que sabríamos el peso exacto de la esfera sin necesidad de usar una báscula para pesarla.

Construir la esfera es laborioso y complejo pero, como ya leímos, es posible y se están llevando a cabo los experimentos necesarios que nos permitirán saber, con extrema precisión, cuántos átomos de silicio hay en un kilogramo. Una vez logrado, ya no requeriremos de un artefacto único de referencia para calibrar la unidad de peso, pues las esferas pueden volver a hacerse las veces que sea necesario y, al tener el mismo número de átomos de silicio,  siempre pesarán un kilo.

lunes, 26 de octubre de 2015

Kilos de a kilo

Artículo publicado originalmente por Brenda Valderrama en la columna "Reivindicando a Plutón" del Sol de Cuernavaca el 26 de octubre de 2015




En México utilizamos el sistema métrico decimal para la medición de distancia, masa y volumen. La característica fundamental del sistema es que una vez definida la unidad, los múltiplos serán con base 10 (por eso decimal). Por ejemplo, para medir masa la unidad es el gramo por lo que un décimo de gramo se llamará decigramo, un centésimo centigramo y un milésimo miligramo. En el otro sentido, diez gramos serán un decagramo, cien gramos un hectogramo y mil gramos un kilogramo.  De todas estas unidades la más común es el kilogramo o, como le decimos cariñosamente, el kilo.

Mucha de nuestra actividad comercial se basa en el intercambio de bienes precisamente en este orden de magnitud, en kilogramos. Con la finalidad de asegurar que todos los kilos sean de a kilo, se han generado estándares o referencias contra las cuales se tienen que calibrar las básculas y balanzas. Los comerciantes deben acceder de manera voluntaria a esta calibración y así generar la confianza de los compradores que no les comprarían si sospecharan que no se llevan su mercancía completa. Ahora, si es difícil asegurar que todas las básculas de un mercado estén correctamente calibradas imaginen el reto de asegurar que todas las básculas del mundo lo estén. Porque un kilo debe ser un kilo en un mercado de Cuernavaca, en uno de Madrid y en uno de Tokio. 

En el Sistema Internacional de Medidas resulta que el kilo es la única unidad que es un artefacto en lugar de ser una propiedad física fundamental y por lo tanto no puede ser replicado en otros lugares del mundo. Es decir, que existe un objeto real (llamado prototipo) que pesa un kilo y contra el que todos los demás kilos del mundo son comparados incluyendo el de tortillería de la esquina. El prototipo internacional del kilogramo data de 1875 cuando la Conferencia Internacional de Pesos y Medidas decide comisionar su fabricación y cuyas siete copias se encuentran bajo la custodia de la Oficina Internacional de Pesos y Medidas en las afueras de París. Físicamente, el prototipo es un cilindro de  39.17 mm de altura fabricado con una aleación de 90% platino y 10% iridio. Su composición le confiere alta resistencia a la oxidación, muy alta densidad (21 veces la del agua), razonables conductividad eléctrica y térmica y baja susceptibilidad magnética. Para garantizar su seguridad se requieren tres diferentes llaves para abrir la bóveda aunque se envían copias certificadas a los diferentes países para ser utilizadas como estándares nacionales  las cuales son calibradas regularmente.

Es precisamente en estas actividades de calibración que comenzaron a detectarse pequeñas desviaciones en la masa de los cilindros, es decir, que a pesar de haber sido calibrados con extrema exactitud y de ser mantenidos bajo dos cubiertas de cristal ya no pesaban un kilo sino que habían acumulado algunos microgramos de masa. Un microgramo corresponde a la mil millonésima parte de un kilogramo, que podrá parecernos muy poco, pero desde el punto de un sistema internacional de calibración la diferencia es suficiente para generarles a los responsables un fuerte dolor de cabeza.

Más aún porque la influencia del kilogramo es insospechada. Unidades de medida como por ejemplo el lumen (que mide la intensidad de la luz de una lámpara) o la caloría (que representa la aportación calórica de los alimentos) dependen indirectamente de la precisión del kilogramo. Si el estándar cambia con el tiempo, tal como ha venido sucediendo, entonces sería necesario redefinir todas sus unidades subordinadas cada 50 años. Por la extrema complejidad de esta situación, desde 1999 se comenzó a considerar la conveniencia de generar un referente para el kilogramo que no dependiera de un objeto sino que pudiera ser generado a partir de una propiedad física fundamental de la materia, las cuales sabemos, no varían con el tiempo ni con el lugar donde se determinen por lo que son universales.

Para evitar resultados tendenciosos, la Conferencia Internacional de Pesos y Medidas solicitó a los científicos especialistas le propusieran al menos dos métodos diferentes para generar la nueva definición de la unidad.  Después de escuchar muchas propuestas se obtuvieron dos métodos ganadores. Uno de ellos, llamado Proyecto Avogadro, propuso fabricar dos esferas gemelas con el mismo peso del prototipo internacional y contar el número exacto de átomos en cada una, esperando que sean iguales. El material de las esferas sería Silicio 28, el mismo elemento que encontramos en la arena y con el que se produce el vidrio. La razón para utilizar silicio es porque los átomos de este material se asocian entre ellos formando cristales perfectos excluyendo cualquier impureza. Es decir, en un cristal de silicio solo hay silicio.

La sola manufactura de las esferas nos habla de la importancia de la misión. El Silicio 28 de la más alta pureza fue producido por el Ministerio Nuclear Ruso en San Petersburgo mediante la transformación de tetrafluoruro de silicio (SiF4) a tetrahidruro de silicio (SiH4) el cual fue trasladado para su conversión a Silicio puro al Instituto Ruso de Materiales Ultrapuros en Nishini-Novgorod. El Silicio 28 fue posteriormente procesado en el Instituto Alemán de Crecimiento de Cristales en Berlín donde durante seis meses lo fundieron y solidificaron repetidamente para remover contaminantes. El cristal de 5 kilogramos de peso fue entonces enviado al Centro Australiano de Óptica de Precisión en Sydney, que es el único laboratorio del mundo que puede fabricar esferas perfectas.

La teoría nos dice que si sabemos la masa y el volumen de la esfera, será posible, utilizando un tercer término llamado Constante de Avogadro, conocer con una precisión de un mil millonésimo el número de átomos.  Hago notar que la precisión de esta propuesta es en el mismo orden de magnitud que el error del prototipo actual del kilogramo, por lo que es viable la solución. El reto queda entonces en definir la Constante de Avogadro, tema que trataremos en la siguiente entrega de esta columna.