miércoles, 14 de diciembre de 2016

LOS HUSOS HORARIOS

Hace año y medio estuve de vacaciones en Estados Unidos para hacer un recorrido por los Parques Nacionales de la costa Oeste. Después de visitar Yellowstone y los parques nacionales de Utah (Canyonlands, Arches y Bryce Canyon), tocaba llegar hasta Page (Arizona), para visitar el Antilope Canyon. Habíamos planificado llegar al hotel a las dos de la tarde para dejar el equipaje, comer, pasar la tarde en el Lago Powell y ver atardecer en Horseshoe Bend (o Curva de la Herradura), el espectacular meandro en forma de herradura que traza el río Colorado poco después de dar el salto a la presa del lago Powell. Así que a las dos de la tarde estábamos en la recepción del hotel para pedir la habitación cuando nos enteramos de que en Page y en casi todo Arizona (lo de “casi todo Arizona” tiene una explicación) era una hora menos, a pesar de usar el mismo huso horario que Utah. Esto se debía a que Arizona y Hawai son los dos únicos estados de todo Estados Unidos que no aplican el horario de verano.

A partir de aquí, tuvimos una especie de odisea horaria, ya que Arizona no aplica el horario de verano, pero dentro de Arizona se encuentra gran parte de la Nación Navajo (un territorio autónomo de 71.000 Km2 y con gobierno propio que se extiende a lo largo de Arizona, Utah y Nuevo México) que sí que aplica el horario de verano, y dentro del territorio navajo está la reserva Hopi que ocupa 6.557 Km2 y que aplica el mismo horario que Arizona. Y por si esto fuera poco, hay lugares que aun perteneciendo a la Nación Navajo son administrados por el gobierno, como el Parque Nacional de Monument Valley (nuestro siguiente destino) y se rigen por el horario del estado en el que está ubicado, (en este caso Arizona).

Así estuvimos tres días, con continuos cambios horarios según nos movíamos entre la nación Navajo, la reserva Hopi, el estado de Arizona y la pequeña incursión que realizamos para ver el Valle de los Dioses, (aledaño de Monument Valley, pero que está en Utah), lo que provocaba que tanto la radio del coche como nuestros móviles estuvieran continuamente cambiando de hora y marcando, cada uno, una hora diferente en función del momento en el que se sincronizaban. Es más, al tercer día de haber llegado a Arizona, según íbamos hacia el Gran Cañón tuvimos que hacer una parada obligada en una ciudad llamada Tuba City, ya que no había otro lugar donde comer o repostar en 75 millas (unos 120 Km) a la redonda. Lo hicimos, más o menos en el medio de la ciudad en un establecimiento que estaba justo en la carretera. Allí nos encontramos con la paradoja de que un lado de la carretera tenía un horario y el otro de lado de la carretera tenía otro. Eso era debido a que, aunque para nosotros todo parecía ser una única ciudad, Tuba City era lo que estaba a nuestra derecha y lo que estaba a nuestra izquierda era la ciudad de Moenkopi (ciudad Hopi en plena Nación Navajo), sólo separadas por la carretera.

Todo este follón horario nos duraría un día más, ya que la desincronización entre nuestros teléfonos y la radio del coche (que también se sincronizaba automáticamente), nos provocó un pequeño susto de camino al helipuerto del Gran Cañón.

Lo curioso de todo esto es que hasta mediados y finales del siglo XIX cada lugar tenía su propio horario en función de la posición solar. Por ejemplo, en España en el siglo XIX, la hora oficial hacía referencia al meridiano de Madrid, pero cada provincia tenía su propia hora local en función de sus coordenadas. Esto no suponía mucho trastorno, ya que los transportes y las comunicaciones se realizaban a muy baja velocidad y los minutos de diferencia horaria entre los distintos lugares no afectaban. Sin embargo, la aparición del ferrocarril y los horarios de éste, supuso la necesidad de buscar una cierta coordinación horaria, aunque con la aparición del telégrafo esta necesidad se convirtió en urgencia.

La primera uniformización horaria se realizó en Gran Bretaña por parte de las compañías ferroviarias que crearon el Railway Time (la “hora del ferrocarril”) en 1840, basándose en la hora de Greenwich (el actual GMT), lo que provocó que todo el país adoptara dicho horario de forma extraoficial, hasta que en 1880 se hizo oficial. Este hecho, unido a que otros países como Estados Unidos y Alemania ya habían adoptado soluciones similares de uniformización horario provocó un intento de uniformización horario a nivel mundial. Así, en 1884, se celebró en Washington la Conferencia Internacional del Meridiano, a propuesta del presidente estadounidense Chester Arthur, donde se decidió que el meridiano que atravesaba el Real Observatorio de Greenwich iba a ser el meridiano inicial (0º) y se iba a tomar como referencia para la hora mundial. Aunque algún país se resistió en un primer momento, todos los países acabaron adoptando estas resoluciones en los años sucesivos, creándose así el Tiempo Universal Coordinado (UTC), también llamado Tiempo del Meridiano de Greenwich (GMT).

A partir de esta decisión, nacen los husos horarios, definiéndose inicialmente 24 husos horarios que se correspondían cada uno con una franja delimitada por dos paralelos distanciados 15º de longitud. Como la Tierra es esférica, dicha franja tendrá una distancia máxima de 1670 Km en el ecuador y una distancia mínima y nula en los polos. En función de la situación de cada país en el mundo y de los paralelos por los que era atravesado, cada uno fue adoptando el tiempo solar medio correspondiente a su huso horario (o sus husos horarios, en función del tamaño de cada país) o a un huso horario adyacente.

Así, en España, en función de la latitud a la que se encuentra Madrid en la que un huso horario abarca unos 1.300 Km, se decidió un único horario para toda la península y otro para las islas Canarias y territorios africanos, (aunque esto último se oficializó en 1922). Igualmente, como las coordenadas del meridiano que atraviesa la Puerta del Sol de Madrid pasaron a tener una longitud de 3º41’31” dirección Oeste, la hora solar en el reloj que rige el horario de España pasó a ser UTC-0:14:46. Esto significó que España adoptase el huso horario UTC, o UTC+0, a partir del 1 de Enero de 1900. Sin embargo, el 16 de Marzo de 1940, el huso horario que adoptó España fue UTC+1 durante el periodo de invierno y UTC+2 durante el periodo de verano. El motivo fue un gesto de simpatía del gobierno franquista hacia la Alemania nazi después de que Alemania impusiera en Francia el horario alemán tras invadirla, unido a que Gran Bretaña y Portugal ya habían hecho lo mismo un año antes por razones bélicas durante la II Guerra Mundial, aunque estos dos últimos países volvieron al horario UTC al terminar la guerra.

Sin duda, la aplicación de la uniformización horaria ha terminado con que cada localidad aplique un horario diferente, aunque no ha acabado con que atravesar una frontera nacional o regional suponga cambiar de horario oficial que puede ser de hasta dos horas debido a la aplicación de los horarios de verano. Este salto se hace más brusco cuanto se traspasa por cualquiera de los 76 Km de frontera que hay entre China y Afganistán, concretamente de tres horas y media. Como China tiene un horario único (a pesar de los 5.500 Km que mide de Este a Oeste) las diferencias con algunos de sus países vecinos son superiores a una hora (tres horas con Pakistán, Tayikistán y la zona horaria rusa de Vladivostok, dos horas y media con India, dos horas y cuarto con Nepal y dos horas con Bután y Kazajistán).

Por cierto, en las pasadas elecciones del 20 de Diciembre, Ciudadanos planteó que España debería volver al huso horario solar que le corresponde (UTC+0). Particularmente creo que cambiando el huso horario, sin cambiar los hábitos o los horarios, se conseguiría lo contrario a lo que se persigue. La hora de referencia para acostarse en España suele ser las doce de la noche, lo que se corresponde con la medianoche en horario solar por lo que o se modifican los hábitos o la hora real ha de estar una, dos o incluso tres horas por encima de la hora solar local, tal y como ha querido realizar el parlamento balear al aprobar una declaración institucional para mantener el horario de verano (UTC+2) y así tener más horas de sol por la tarde. Además, no sólo España está fuera del huso horario solar que le corresponde, también lo están países próximos como Francia, Bélgica, Holanda y Luxemburgo, y a lo largo del mundo son muchos más los países ubicados fuera del huso horario que aplican. Creo que a muy poca gente le importa despertarse de noche en invierno e ir al trabajo mientras amanece con tal de tener una hora más de sol por la tarde.

miércoles, 16 de noviembre de 2016

LOS FILÓSOFOS PRESOCRÁTICOS

Hice la selectividad en Burgos, en la Escuela Politécnica. Entonces, dicha prueba duraba dos días, tenía un total de ocho exámenes y terminaba con las pruebas de Lengua e Historia de la Filosofía. Yo había acudido a los dos días de prueba junto con Jorge, Marcos, Tomás y el Chopo, es decir, casi los mismos con los que luego compartí piso en Valladolid. Fuimos en vehículo particular pues eso nos daba mayor libertad, así el primer día, después de comer nos fuimos a echar unos billares y el segundo día nos subimos al monte de San Miguel. Recuerdo que allí arriba, todos, salvo Marcos y yo, se pusieron a repasar para el examen de Filosofía. Marcos y yo no éramos partidarios de hacer cosas así y nos pusimos a charlar, aunque sí que recuerdo un momento en el que provocamos un poco a los que estudiaban, sobre todo al Chopo que era el más fácil de desconcentrar, al que le solté toda la parrafada de los presocráticos, a pesar de sus continuas quejas y de su insistencia para que me callara y me fuera lejos para dejarle repasar para el examen de Historia de Filosofía. Le vacilé con que con eso le valía para aprobar, ya que era lo único que me sabía bien.

Como los filósofos presocráticos era el primer tema y venía a ser el prólogo del curso, nadie se lo estudiaba. Sin embargo, yo me lo sabía completamente, pues era el tema que más me había llamado la atención y el único divertido para mí por el aquel entonces.

Realmente, cuando se habla de los filósofos presocráticos, se habla de los primeros filósofos de la historia de la humanidad. Los primeros que pretenden explicar la realidad a partir de algo que sería común a todo lo existente, interesándose por los procesos de la naturaleza, eliminando las explicaciones místicas para hacerlo de una manera racional, por lo que se independizaban de la religión y lo hacían de una manera más científica. Así, partiendo de estas premisas, tratan de responder a la pregunta que lanza Tales de Mileto, la de cuál es el principio de todas las cosas, ese elemento del que ha surgido todo y o que está presente en todas las cosas que forman el Universo que nos rodea, (al que denominan arché), dando cada uno de ellos una respuesta diferente.

Tales de Mileto (624-546 a.C.) dijo que el agua era el origen de todas las cosas, pues si la realidad es física, su causa también ha de ser física como el agua, que es el origen de la naturaleza y originó la vida.

Anaximandro de Mileto (610-545 a.C.) dijo que el origen era el ápeiron, una sustancia infinita, indeterminada e indefinida que no se parecía a ninguna clase de materia del mundo ya formado. Éste sería el origen de la realidad, el principio del Cosmos por medio de un principio no material, de donde partían las cosas y adonde debían retornar de acuerdo a un ciclo vital en el que los seres humanos derivaban unos de otros.

Anaxímenes de Mileto (585-524 a.C.) dijo que era el aire, al que consideró aliento vital, pues el aire estaría formado por la dispersión de las almas, ya que el alma sería el aire que nos sostendría, por lo que el aire sostendría al mundo entero. Todo surgiría del aire y todo retornaría a éste.

Pitágoras de Samos (572-496 a.C.) dijo que eran los números, pues los números serían lo permanente, lo que constituiría la esencia de las cosas. Los números serían entes inmutables y eternos ya que los conceptos matemáticos poseen una validez eterna y el mundo tiene un orden acorde a un sistema numérico.

Jenófanes de Colofón (570-475 a.C.) dijo que todo tendría su origen en el barro, ya que el mar disuelve la tierra hasta convertirla en barro y al final del ciclo, con la muerte, acontecería un proceso inverso de solidificación.

Heráclito de Éfeso (544-484 a.C.) dijo que sería el fuego es el origen de todo lo existente y adonde volverían para luego renacer, lo que conformaría el "ciclo cósmico". En la naturaleza no existiría nada estable y los continuos cambios en la naturaleza estarían originados por dicho ciclo.

Parménides de Elea (540-470 a.C.) dijo que es el ser, puesto que el “no ser” sería inconcebible, ya que en el momento en el que se piensa ya se es. Todo lo que hay ha existido siempre pues ningún verdadero cambio es posible. Fue discípulo de Jenófanes.

Empédocles de Acragás (495-435 a.C.) dijo que era la unión de los cuatro elementos o raíces que tiene la naturaleza (agua, aire, fuego, tierra). Los cambios en la naturaleza se producirían debido a que estos elementos se mezclarían y se separarían en diferentes proporciones. Por ello, en la naturaleza todo estaría compuesto y se formaría por esos cuatro elementos y por dos fuerzas antagónicas, que son el amor y el odio, dejando de ser cuando las partículas de estos elementos primordiales se separan.

Anaxágoras de Clazomene (500-428 a.C.) dijo que eran las semillas y que la naturaleza estaría hecha de muchas piezas minúsculas que contienen algo de todo, esas piezas serían los gérmenes o semillas. También se imaginaba una especie de fuerzas que ponían orden y que serían el espíritu y el entendimiento o inteligencia.

Demócrito de Abdera (460-370 a.C.) dijo que eran los átomos, pues el principio de todo se explicaría a partir de la existencia de unas unidades, piezas o partículas pequeñísimas que serían invisibles, indivisibles, eternas e inalterables y serían los denominados átomos o cuerpos densos. Las cualidades de las cosas dependerían de la figura, la magnitud, la posición y el orden de estos átomos. Es más, lo único que existiría serían los átomos y el espacio vacío.

El atomismo sería la culminación del pensamiento presocrático. Aunque pueda parecer increíble, muchas de las afirmaciones realizadas por Demócrito hace unos 2400 años, a partir de la simple observación y sin ningún tipo de artilugio, son admitidas como válidas por la ciencia actual.

Pues cayeron los presocráticos, los presocráticos y Hegel, aquel filósofo alemán que se estudiaba después de Kant, pero al que no llegamos a conocer ya que se nos acabó el curso y Kant fue el último tema que habíamos dado, por lo que el Chopo se tiró las dos horas del examen intentando recordar todo aquella parrafada que le había soltado en el monte de San Miguel y que casi le repito en aquella vieja casa okupa de Las Llanas a la que nos acercarnos después del examen a bebernos unos cachis de cerveza y donde estuvimos echando unas risas a costa de la jugada.

lunes, 17 de octubre de 2016

LA DIVISIÓN MUNICIPAL

Tenía unos 13 años cuando vi un capítulo de la serie documental de TVE “España a vista de pájaro” en la que hablaban de mi ciudad, Aranda de Duero, y en la que se entendí que se trataba de una ciudad que contaba con unos 45.000 habitantes, por lo que cuando me preguntaban acerca de la población que tenía Aranda, yo ofrecía esta cifra como buena, a pesar del asombro de alguno de mis interlocutores y la puesta en duda del dato por parte de algún otro. Es por ello, que decidí acudir al ayuntamiento, junto con mi amigo Antonio, para preguntar. Allí nos informaron de que Aranda contaba por entonces con 29.000 habitantes (cuatro mil menos que en actualidad) y nos dimos cuenta de que la cifra que manejábamos estaba bastante inflada, por lo que dedujimos, acertadamente, que el dato de 45.000 habitantes se debería referir a la población de toda la comarca arandina, “La Ribera”.

A partir de entonces me surgió una terrible curiosidad por conocer los datos de población de las distintas localidades españolas, (con el tiempo también de las europeas y mundiales), puesto que la gente tiende a exagerar la población de su localidad, como yo había realizado aprovechando un dato incorrecto escuchado en televisión y menospreciando otros datos recibidos por ser inferiores en cantidad. Esa curiosidad la empecé a cubrir gracias una publicación de un anuario de “El País” en la que me encontré con la publicación de los dos últimos censos y padrones de todos los municipios españoles de aquel momento. A partir de entonces pude hacer mis “rankings” de municipios, así como conocer la población de todos los municipios por los que tenía cierto interés. Repasé tanto aquellos folios fotocopiados que a veces tenía problemas para leer los datos debido a que la tinta impregnada comenzaba a borrarse.

Cuando posteriormente llegó a mis manos la serie poblacional de todos los censos del siglo XX con la configuración de los municipios españoles del momento, (donde hacían alusión a los municipios que desaparecieron y cuya población se había incluido en el municipio del que formaban parte), me entró una enorme curiosidad por conocer todos aquellos municipios desaparecidos a lo largo del siglo, (unos 1450), principalmente en los censos de los años 50, 60 y 70, debido a las reorganizaciones municipales que se realizaron debido a los movimientos migratorios acaecidos en aquellas décadas que acabaron casi despoblando muchas localidades y municipios. Es por esto que me hice asiduo de la oficina del I.N.E. de Valladolid para completar mi datos de aquel enorme listado que yo tenía, y saber cuál fue la población real de los municipios existentes en el momento de la realización de cada censo, más en concreto la población de derecho, que es la población empadronada en el lugar independientemente de que estén residiendo o no, que es la que se maneja en los padrones actuales.

Eso generaba mucho cachondeo entre mis compañeros de piso, por considerarlo extraño, así que cuando nos encontrábamos con algún amigo le solían incitar a que me preguntase dónde había estado y por qué, aparte de vacilarle con que me sabía la población de todos los pueblos de España y retarle a que lo comprobara.

Sin embargo, pronto descubrí que esos datos por sí solos eran engañosos, y la población que tiene un municipio no tiene por qué corresponderse con la población que tienen los pueblos o ciudades que le daban nombre, puesto que la distribución municipal no es homogénea en el país y aunque en ciertas zonas del país la mayoría de los municipios suelen ser pequeños, tener una sola localidad que es la que da el nombre al municipio y es raro ver pueblos sin ayuntamiento (sobre todo en Castilla, País Vasco, Navarra, Madrid, Aragón, Valencia y Cataluña), en otras zonas del país un municipio no es más que una división territorial inferior a las comarcas o a las mancomunidades. Así hay municipios que contienen varias localidades, a veces decenas de ellas, otros contienen un gran porcentaje de población desperdigada, e incluso otros tienen un nombre diferente a la de cualquier localidad existente. En Galicia y Asturias, regiones con gran número de núcleos rurales, los municipios se llaman concejos y suelen están formados por varios núcleos de población (normalmente decenas de ellas) que se dividen en parroquias, por lo que la población del municipio no es más que la población de una división administrativa y es mayor, en muchos casos de una manera muy considerable, que la población de la localidad que le da el nombre. Algo parecido pasa en el sur de España y en las islas donde los municipios son grandes y están formados por varios núcleos de población, aunque estas zonas no cuenten con una cantidad tan elevada de núcleos de población como Asturias o Galicia, sino todo lo contario, al haber tan pocos municipios, estos engloban varias localidades de población elevada.

Por todo ello, realicé un proyecto de reforma territorial para eliminar todos aquellos municipios menores de 100 habitantes, mediante procesos de fusión o absorción entre municipios de tal manera que todos aquellos que no llegaban a esa población mínima pasaran a ser pedanías, para posteriormente intentar elevar la cuota mínima a 500 habitantes. Dicho proyecto también incluía la posible emancipación de las pedanías de más mil habitantes, o grupos de ellas que lo sumasen, y su transformación en municipio.

Sin saberlo, había hecho hincapié en un problema largamente debatido en España y Europa, la necesidad de que los municipios tuvieran una dimensión demográfica suficiente. Durante los años sesenta y setenta, diversos países de la Europa nórdica y central adoptaron importantes reformas de su mapa administrativo (Suecia entre 1959 y 1974, Alemania R.F. entre 1960 y 1978, Dinamarca en 1970 y posteriormente en 2007, Gran Bretaña entre 1969 y 1972, Bélgica entre 1971 y 1977 y Noruega en 1974) mediante las cuales redujeron el número de municipios existentes entre un 65% y un 90% y en Holanda y Austria redujeron el número de municipios existentes en un 40% desarrollando políticas favorables a la reducción de municipios y a la incentivación de las fusiones municipales.

Sin embargo, en España, la única reforma general y exitosa del mapa municipal español se realizó con la Ley Municipal de 1845, que exigía la presencia de un mínimo de 30 vecinos (unos 150 habitantes aproximadamente) en el municipio como condición necesaria para conservar el ayuntamiento. Posteriormente en 1866, se aprobó la Ley de Ayuntamientos, por la que se suprimirían todos aquellos ayuntamientos con menos de 200 vecinos, aunque la Revolución de 1868 dio al traste con el proyecto de reforma general del mapa municipal. Hubo proyectos de reforma de la Ley Municipal a principios y mediados del siglo XX, sobretodo en la década de los 60 y 70, en los que desaparecieron cerca de 1200 municipios, (lo que supone una reducción de un 15%), pero ninguno se llevó a cabo en su totalidad, ya que casi todas las propuestas de reforma local del siglo XX dejaron de lado cualquier previsión de reforma global del mapa municipal, dejando estas competencias en las autoridades locales.

Sigo pensando que es necesaria una reforma del mapa municipal. En España existen más de 1200 municipios con una población inferior a los 100 habitantes, (diez de ellos no superan los 10 habitantes) y el 47% de los más de 8100 municipios existentes tiene una población inferior a 500 habitantes. Por otro lado existen cientos de pedanías que superan los mil habitantes (decenas de ellas por encima de los 10.000 habitantes) y no logran tener municipio propio, ya que históricamente se ha desincentivado la creación de nuevos ayuntamientos. Lo lógico sería realizar una distribución más ecuánime en cuanto a tamaño y población, teniendo en cuenta la distribución poblacional, puesto que el norte de España es propenso a tener una gran densidad de pequeñas poblaciones mientras que en el sur las poblaciones son más grandes y dispersas, fomentando las fusiones entre municipios pequeños o excesivamente cercanos, facilitando las escisiones de pedanías con una población considerable y absorbiendo a todos aquellos municipios que por tamaño o población no debieran tener que asumir las competencias de gestionar un ayuntamiento.

domingo, 18 de septiembre de 2016

EL RECICLAJE DEL VIDRIO

Cuando fui niño, los únicos ingresos propios que tenía provenían de la “paga” que recibía de mi madre, de una cantidad que estaba en consonancia con lo que recibían el resto de mis amigos, y de las propinas de los familiares, supervisadas por mis padres, a excepción de aquellas que recibía de forma cuasi-clandestina para evitar dicha supervisión.

Pero cuando tuve once y doce años, de forma esporádica, tuve unos ingresos extras que podían duplicar o triplicar esa asignación semanal pactada con mi madre gracias a la intermediación en el “abono de cascos”. El proceder era sencillo, tenía algún que otro compañero de clase que junto a otros amigos suyos conseguían cascos (es como denominábamos a las botellas vacías que eran retornables y que se abonaban en las tiendas de alimentación) y me llamaban a mí para realizar el correspondiente abono, ya que ninguno de ellos se atrevía a hacerlo. Yo no preguntaba acerca del origen de los cascos, (aunque podía sospechar cuál era su origen), iba a una de esas tiendas que para mí eran “de confianza” donde realizaba el abono de los cascos, y nos repartíamos el dinero a partes iguales. A veces me tocaba negociar con la dependienta un precio a la baja o escuchar conjeturas incriminatorias acerca del origen de los cascos por parte de alguna clienta, pero precisamente esa era la dificultad del trabajillo y por eso es por lo que ninguno de ellos se atrevía a hacerlo.

Y es que por aquel entonces, la gran mayoría de los recipientes de vidrio que contenían refrescos o cerveza eran retornables, es decir, eren envases diseñados para ser reutilizados. Al adquirirlos, se pagaba el valor de los envases (denominados popularmente cascos) y eran abonados cuando se devolvían. Luego estos envases retornables eran recogidos, lavados desinfectados y vueltos a llenar por las empresas embotelladoras. Esta práctica se fue abandonando gradualmente desde finales de los 80, a medida que se popularizaron los contenedores de vidrio y al ir sustituyendo los fabricantes sus envases retornables por otros no retornables que iban directamente a la basura o a estos nuevos contenedores de reciclaje de vidrio. Sí que es cierto que en hostelería aún se ha continuado con la práctica de los envases retornables, incluso aún perdura en ciertas marcas, pero cada vez en menor medida.

Este giro probablemente se ha debido a la sencillez en el procedimiento de fabricación del vidrio, la abundancia de las materias primas y a la mecanización de este proceso. El vidrio se crea mezclando arena, sosa y caliza o, lo que es lo mismo, dióxido de silicio o sílice (SiO2), carbonato sódico (Na2CO3) y carbonato cálcico (CaCO3), en una proporción de 65% de arena, 20% de sosa y 15% de caliza. Calentando la mezcla a 1500ºC durante 24 horas se obtendrá un líquido pegajoso de la consistencia de la miel, denominada gota de vidrio. Posteriormente, mediante el proceso de soplado, el mismo que se utiliza desde hace 5000 años cuando el ser humano comenzó a fabricar vidrio, se logrará ajustar el líquido vítreo a la forma del molde del envase que se desea fabricar.

Por cierto, los colores del vidrio se obtienen mediante la adición de pequeñas cantidades de óxidos metálicos (también llamados protóxidos) que actúan como colorantes, oxidantes, reductores y estabilizadores. Las botellas de los colores verde y marrón se obtienen de materias primas que contienen óxido de hierro, mientras que el resto de colores se consiguen mediante mezcla de distintos óxidos metálicos. Para que el vidrio sea cristal, se debe añadir un 30% de protóxido como mínimo a la mezcla.

Además de ser fácil de fabricar, hay que añadir que el vidrio es totalmente reciclable, por lo que puede reaprovecharse íntegramente toda la materia cuantas veces se quiera, manteniendo sus cualidades intactas tras este proceso.

El reciclado del vidrio comenzó en Dinamarca en 1962 y no fue hasta 1982 cuando se instaló en España el primer contenedor de vidrio. Una vez que se ha dejado de utilizar de forma considerable los envases retornables, el reciclaje del vidrio es la única opción para reducir los residuos que van a los vertederos. Cada kilogramo de vidrio reciclado supone dejar de generar un kilogramo de basura y, al ser totalmente reciclable, ahorrar un kilogramo de materia prima. Además, la fundición de vidrio reciclado contamina el aire un 20% menos, el agua un 50% menos y consume un 25% menos de energía que utilizando materias primas.
Cuando el vidrio reciclado llega a las plantas de tratamiento, se limpia, se eliminan las impurezas y todos los elementos que no sean vidrio, se tritura y se transforma en un polvo grueso denominado calcín, que se fundirá junto con arena, sosa y caliza para formar nuevamente la gota de vidrio, que será la que formará los nuevos envases. El vidrio nuevo puede llevar hasta un 90% de vidrio reciclado.

En España es Ecovidrio quien se encarga de la gestión del reciclado de los residuos de envases de vidrio en todo el país. Es una asociación sin ánimo de lucro y nació como un sistema integrado de gestión donde están representados todos los sectores relacionados con el reciclado de vidrio: fabricantes de envases, recuperadores, envasadores y embotelladores. Es responsable de gestionar la recogida selectiva de envases de vidrio mediante la instalación de contenedores que facilitan la colaboración ciudadana y garantizan el reciclado, realizando campañas de sensibilización ciudadana.

La verdad es que, personalmente, veo en la gestión del vidrio una involución. Entiendo que para los puntos de venta es mucho más cómodo que el vidrio no sea retornable, pero no creo que sea así ni para las empresas comercializadoras de productos que utilizan envases de vidrio que pudieran ser retornable, ni para el cliente final que tenga una cierta conciencia por la sostenibilidad. Al cliente le da igual llevar el vidrio al contenedor que al punto de venta y las empresas comercializadoras han seguido utilizando el envase retornable con aquellos que tienen un trato más directo como los negocios de hostelería. Además, el envase retornable sólo ha de ser lavado y desinfectado para volverlo a utilizar y eso sí que genera mucha menos contaminación y mucho más ahorro energético. Todo lo demás va en la línea de la letra de aquella canción de título “Bandejitas, latas y paquetes” del grupo La Polla Records que decía “después de cobrarte el casco, quieren que se lo devuelvas, pa que vuelvas a pagarlo”.

sábado, 20 de agosto de 2016

LA DESINTEGRACIÓN DEL CARBONO-14

En un viaje que realicé a Puerto Rico de Gran Canaria por motivos de trabajo, recuerdo una conversación que tuve con compañeros acerca de ciencia y religión y de cómo la ciencia, poco a poco, va destapando ciertas falsedades, imprecisiones o creencias infundadas que la religión da como verdades absolutas. Que si la Tierra era plana, que si la Tierra era el centro del Universo, que si el hombre surgió del barro por creación divina… hasta que apareció en la conversación la denominada Sábana Santa.

Hasta 1988, la Sábana Santa había sido considerada como el sudario sobre el que se colocó el cuerpo de Jesucristo en el momento de su entierro, siendo uno de los objetos de mayor adoración en la religión católica. Sin embargo, a partir de una datación por carbono-14 de dicha sábana, que se realizó en tres laboratorios diferentes, se pudo comprobar que tanto la tela como los restos orgánicos que ésta contenía tenían una antigüedad máxima de entre seis y siete siglos, por lo que se trataría de una falsificación originaria de finales del siglo XIII.

Sin embargo, uno de los contertulios puso en duda que el método de datación por carbono-14 fuera fiable, ya que no era capaz de comprender que hubiese un método para poder conocer con bastante exactitud la antigüedad de ciertos materiales, por lo que la conversación derivó a este tema.

El carbono-14, es un isótopo natural y débilmente radiactivo del carbono, descubierto en 1940 por los físicos estadounidenses Martin Kamen y Sam Ruben en la Universidad de California de Berkeley. Su particularidad es que contiene ocho neutrones, dos más que el carbono, por lo que su peso atómico es 14, mientras que el del carbono es 12, motivo por el que se le denomina así. Al ser un isótopo, no es estable, como sí que lo es el carbono, y se desintegra dando lugar a otros isótopos. Tiene un tiempo de semidesintegración de 5730 años (con un error de ± 40 años) que es el tiempo que transcurre desde que un material radiactivo comienza a desintegrarse hasta que la cantidad de muestra de dicho material se reduce a la mitad.

El carbono-14 se produce de manera natural en las capas altas de la atmósfera. Los rayos cósmicos del Sol, que son partículas subatómicas que se desplazan a gran velocidad, al penetrar en la atmósfera colisionan con los átomos de nitrógeno, que tienen masa atómica 14. Si la partícula subatómica que choca contra el átomo de nitrógeno es un neutrón, al hacerlo a una velocidad tan grande logrará desplazar un protón del átomo de nitrógeno convirtiéndolo en carbono-14 radioactivo, que se combina con el oxígeno para formar dióxido de carbono radioactivo. Como el dióxido de carbono es absorbido por las plantas durante la fotosíntesis, (tanto si es radiactivo como si no), el carbono-14 pasará a formar parte de la composición de las plantas, de la cadena alimenticia y del ciclo vital del carbono, en una proporción constante de uno por cada billón, es decir, por cada billón de átomos de carbono, habrá uno de carbono-14. Esta proporción se mantendrá constante mientras la materia orgánica se mantenga con vida y será igual a la que hay en la atmósfera, ya que alcanzan un equilibrio.

Cuando la materia orgánica muere, cesa la incorporación de carbono-14 y los átomos de carbono-14 que contiene el organismo comienzan a transformarse en nitrógeno. Esto se produce porque en el proceso de desintegración del carbono-14, uno de sus neutrones se transforma en un protón mediante la emisión de un electrón y un antineutrino. Así, el carbono-14, con seis protones y ocho neutrones, se convierte en nitrógeno, con siete protones y siete neutrones. No pasará lo mismo con los átomos de carbono, ya que el carbono es estable, por lo que la proporción de carbono-14 es cada vez menor, quedándose a la mitad cuando han transcurrido 5730 años y a la cuarta parte cuando transcurran otros 5730 años más y así sucesivamente, por lo que en función de la proporción de átomos de carbono-14 presentes en una muestra en relación con la cantidad de átomos de carbono que haya, se obtiene la antigüedad de casi cualquier resto de materia orgánica que tenga una antigüedad menor de 60.000 años, debido a que la presencia de carbono-14 en restos orgánicos tan antiguos es tan escasa, (del orden de un átomo de carbono-14 por cada mil billones de átomos de carbono), que es difícil obtener resultados fiables.

Por cierto, la antigüedad obtenida ha de ser calibrada, ya que la concentración de carbono-14 existente en la atmósfera no ha sido siempre la misma y en el último siglo ha sufrido importantes variaciones por la quema de combustible de origen fósil y por los ensayos nucleares, que ha disparado su presencia. Como se conoce en todo momento cuál ha sido la concentración en la atmósfera de carbono-14 durante los últimos 15.000 años, gracias a los anillos de crecimiento de los árboles y a las concentraciones de carbono-14 que presentaban, se tienen unas curvas de calibración de donde se obtiene la cantidad de carbono-14 presente en cada momento en la atmósfera a partir de la cual se obtiene la antigüedad calibrada, que será mucho más exacta que la obtenida de no tener en cuenta estas curvas de calibración.

Este método de datación basado en el carbono-14 fue desarrollado en la década de los 40 por un grupo de científicos estadounidenses de la Universidad de Chicago encabezado por el químico Willard Libby, experto en radiactividad que había participado en el proyecto Manhattan para el desarrollo de la bomba atómica. Gracias al desarrollo de este método, Willard Libby recibió el Premio Nobel de Química en 1960.

Utilizando este método se han podido concretar con más exactitud muchas de las páginas de la historia universal y también se han podido corregir falsedades. Lo de que la denominada Sábana Santa pudiera haber sido el sudario de Jesucristo al ser enterrado no es más que uno de tantos mitos que han caído gracias a la utilización de este método. Una buena manera de desenmascarar la mitología y dejarla en el lugar en el que le corresponde.

jueves, 21 de julio de 2016

EL AZÚCAR MORENO

La primera vez que viví en piso compartido fue cuando me fui a Valladolid a cursar mis estudios universitarios y lo hice con otros cuatro amigos, de los que ya he hablado alguna vez. Y una de las primeras cosas que hay que definir cuando se comparte piso es qué se organiza de forma en común y qué no, por lo que hay que definir hasta dónde llega la propiedad comunitaria, es decir, qué productos se consideran de necesidad básica y por lo tanto son comunitarios, lo que significa que son financiados de forma conjunta, y cuáles han de ser financiados por quien los quiera.

Ese fue nuestro primer dilema, aunque, por lo general, como todo lo que tenía que ver con la alimentación y el mantenimiento del piso era conjunto, no solía haber problemas. Hasta que Roberto (al que todos llamábamos por su apellido materno, “Haro”) dijo que él quería azúcar moreno. Como todo se votaba, se decidió que el azúcar moreno era un gasto considerado como “superfluo” y que andar comprando dos tipos de azúcar no era lógico. Incluso realizamos catas para ver qué diferencias había, decidiendo que se compraba el azúcar blanco, pues no encontramos ninguna mejora que justifique un precio más elevado. Así que Roberto se compró su propio azúcar moreno, puesto que el comunitario era el azúcar refinado, azúcar de más pureza, algo que recordaba de la visita escolar que hice juntos a mis compañeros de clase a la desparecida azucarera de Aranda de Duero, donde aprendimos cómo se elaboraba el azúcar a partir de la remolacha.

El azúcar es sacarosa, un disacárido de donde nuestro organismo obtiene glucosa y fructosa, que utiliza como fuente de energía y que le aportan cuatro calorías (Kcal) por gramo. Estas calorías se conocen como “calorías vacías”, ya que proceden de un alimento que aporta energía pero ningún otro nutriente, algo lógico, ya que el uso primordial que tiene el azúcar es el de edulcorante, no el de servir como nutriente. Por cierto, la recomendación de consumo de azúcar está establecida en un máximo de 50 gramos al día.

La sacarosa (C12H22O11) es un compuesto que se extrae de la caña de azúcar o de la remolacha azucarera, en los que está presente en una proporción de casi el 20%. En las zonas tropicales se obtiene de la caña de azúcar (el 80% de la producción mundial proviene de este vegetal) y en el resto del mundo se obtiene de la remolacha, ya que es más resistente al frío.

La producción mundial de azúcar es de unos 170 millones de toneladas, siendo Brasil el principal productor con casi un 25% de la producción mundial. En España se produce algo más de un millón de toneladas de azúcar al año y más de 99% de la producción nacional procede de la remolacha.

El procedimiento de obtención de azúcar refinado a partir de la caña de azúcar o de la remolacha es muy similar. Una vez que llegan los vegetales a la azucarera, se lavan y se trocean en finas tiras llamadas cosetas que serán introducidas en un intercambiador de calor con agua caliente de donde se extrae la sacarosa de las cosetas mediante difusión, (el mismo proceso que al poner una bolsa de té en agua caliente). Cuando el proceso ha terminado, se retira la pulpa sobrante que será aprovechada como alimento animal, y toda la sacarosa queda en el agua, junto con otras partículas (no-azúcares), conformando el jugo de difusión. Este jugo es bastante ácido y contiene impurezas, por lo que ha de pasar un proceso de depuración, en el que se le añade cal diluida en agua para aumentar el pH, evitando que la sacarosa de descomponga por la acidez y logrando que precipiten parte de los no-azúcares al combinarse con la cal, y dióxido de carbono, para que precipiten el resto de los no-azúcares y la cal sobrante. Tras ser filtrado con diversas técnicas, se obtiene un jugo purificado que es una disolución azucarada con un contenido de un 15% de azúcar. Este jugo pasará por un proceso de evaporación hasta que su contenido en azúcar sea del 70% y por un proceso de cocción hasta convertirlo en cachaza donde llega al 90% de concentración, momento en el cual se la cristaliza, añadiendo una cantidad de cristales de azúcar de muy pequeño tamaño, denominada siembra, sobre los que va cristalizando la sacarosa, para obtener una masa que estará formada por cristales de sacarosa y por una solución, llamada miel madre o melaza, formada por el azúcar que no ha cristalizado y por no-azúcares. Esta masa será centrifugada para separar los cristales de sacarosa de la miel madre, obteniendo el azúcar refinado que será secado, enfriado y envasado.

Las operaciones de cristalización y centrifugación se repetirán un par de veces más, y tras extraer toda la sacarosa cristalizada posible, quedará una solución de azúcar residual no cristalizable que recibe el nombre de melaza y que será empleado para alimentación animal o la obtención de etanol.

El azúcar moreno es un tipo de azúcar de color pardo y se puede obtener mezclando azúcar refinado con melaza o mediante el método de cristalización por el cual durante el proceso de centrifugación se deja parte de la miel madre o melaza en los cristales de sacarosa. Ha de tener un contenido de sacarosa de al menos el 85% (suele tener en torno al 95%) y cuanta más melaza contenga el azúcar, más grande y más oscuro será el grano, y menor será su poder edulcorante, al ser también menor su proporción de sacarosa.

Posiblemente, debido a que el azúcar moreno es menos edulcorante que el azúcar refinado, en aquel momento desechamos la idea de cambiar de azúcar, aunque la idea de considerar como gastos superfluos a cualquier tipo de alimento se eliminó poco después y cualquier tipo de alimento era financiado de forma comunitaria. No sé si fue por coherencia ante tal estupidez o porque no hubo acuerdo en qué tipo de licor considerar como comunitario, pues no todos bebíamos lo mismo, pero el caso es que en casa siempre tuvimos dos tipos de azúcar, aunque el asegurar que siempre hubiera azúcar moreno era trabajo de Roberto.

jueves, 23 de junio de 2016

EL EFECTO PIGMALIÓN

En el pueblo de mis padres, Curiel de Duero, siempre hubo un solo bar, por lo que éste siempre ha sido el punto de reunión, (junto con las bodegas), de todos los vecinos del pueblo. De mi infancia y adolescencia recuerdo pasar muchos ratos en él, puesto que también hacía las veces de centro recreativo o social, más aún cuando pusieron un billar americano.

Aquello fue una especie de revolución. Con la presencia del billar, el tiempo que pasábamos en el bar empezó a ser mucho mayor. Sirvió para que una buena parte de la gente del pueblo aprendiera a jugar y, de tanto jugar, casi todos acabáramos teniendo un buen nivel de juego. Incluso había días en los que era difícil pillar la vez, a pesar de que el número de jugadores no era muy elevado.

Aunque hubo momentos en los que fue sustituido por un futbolín, el billar formó parte del decorado de aquel viejo bar hasta que fuera cerrado años más tarde, (realmente fue sustituido por el actual). Incluso fue incluido dentro de las competiciones que formaban parte del cartel de las fiestas del pueblo.

Curiosamente, la última vez que el billar formó parte de las fiestas de Curiel, me apunté junto con Emilio “el andaluz”, un chaval que aunque vivía en Pilas (Sevilla) pasaba los veranos en el pueblo, ya que su madre era curielana y se quedaba en casa de unos familiares.

Por aquel entonces yo jugaba bastante bien al billar y, como me gustaba jugar, pasaba bastante tiempo jugando. A partir de ganar unas cuantas partidas jugando con Emilio, éste me propuso que nos apuntáramos juntos en el campeonato de fiestas. Yo ya me había apuntado al Campeonato de Mus, por lo que iba a tener poco tiempo para jugar al billar, pero ante su insistencia acabé apuntándome con él.

No recuerdo a quiénes fuimos eliminando ni el número de eliminatorias que tuvimos que superar para llegar a la final. De lo que me acuerdo es de la confianza ciega que tenía Emilio en mí y de lo motivado, eufórico y seguro que estaba de que íbamos a ganar. Cada vez que jugábamos él daba por hecho que ganábamos porque “éramos los mejores” y cada vez que yo tenía una  bola complicada, él ya daba por hecho que la metía, porque “esa bola sólo yo era capaz de meterla”. Así hasta la última bola de la partida definitiva, en la que teníamos que meter la bola negra en uno de los dos agujeros del centro. Cuando me tocó tirar tenía la bola negra en el centro del billar y la bola blanca justo dentro del punto de salida. A pesar de que el tiro era más que complicado, pues la bola negra tenía que salir con una trayectoria perpendicular a la de la bola blanca, Emilio ya estaba celebrando el triunfo dando por hecho que la iba a embocar. Tal y como él decía, “sólo había que darle el efecto ése que le daba a la bola blanca y ya estaba”. Como en ese momento, totalmente influenciado por Emilio, lo que pensaba es que era difícil que fallase el tiro, que era capaz de meterla eso y que no había quien nos pudiera ganar, eso lo que hice, apuntar y, sin pensarlo demasiado, darle a la bola blanca con la dirección y el efecto necesario para dirigir a la bola negra hacia el agujero central del billar. La bola negra entró y ganamos el campeonato.

Sin duda jugué con el mejor compañero que podía jugar, un motivador nato que confiaba ciegamente en mí, lo que produjo que jugase influido por el denominado efecto Pigmalión.

El efecto Pigmalión es el suceso que describe como la creencia que una persona tiene sobre otra influye directamente en el rendimiento de esta última, por lo que existe una relación directa entre las expectativas que hay sobre una persona y el rendimiento que se obtiene de ésta. Así, cuanto mayor sea la expectativa depositada sobre una persona, mejor rendimiento obtendrá ésta y viceversa.

El efecto Pigmalión tiene su origen en la mitología griega. El poeta romano Ovidio cuenta en su obra “Las metamorfosis”, la historia de Pigmalión, rey de Chipre y escultor que esculpió una estatua de marfil a la que dio una belleza con la que ninguna mujer podía nacer y se enamoró de su propia obra, a la que llamó Galatea y a la que trataba como si fuera una mujer real. Tal fue el amor que le procesaba a su escultura que solicitó a los dioses que le infundieran vida y lo realizó con tanta pasión que la diosa Afrodita la convirtió en una mujer de carne y hueso. Este suceso fue nombrado como el efecto Pigmalión ya que superó lo que esperaba de sí mismo.

Este término fue acuñado por el psicólogo social Robert Rosenthal a raíz de unos experimentos realizados en 1965 en una escuela californiana junto con Lenore Jacobson (director de esa escuela) que produjo lo que ellos bautizaron como el “efecto Pigmalión”, cuyos resultados publicaron en 1968 en el libro “Pigmalión en el aula”.

El experimento llevado a cabo por los autores consistió en proporcionar información falsa a los profesores sobre el potencial de aprendizaje de los alumnos de una escuela de San Francisco en función de un test que los alumnos supuestamente habían realizado, aunque en realidad los alumnos habían sido escogidos al azar, sin relación alguna con el resultado del test. El experimento certificó que aquellos alumnos de los que los profesores tenían mayores expectativas acabaron mostrando un mayor crecimiento intelectual que el resto de los alumnos cuando fueron evaluados en los meses posteriores, por lo que pudieron llegar a la conclusión de que el desarrollo intelectual de los estudiantes resulta en gran medida una respuesta a las expectativas de sus profesores y la manera en que estas expectativas se transmiten. También obtuvo el efecto contrario con alumnos de los que se tenían peores expectativas.

Existiría, por tanto, un efecto Pigmalión positivo y un efecto Pigmalión negativo. El positivo afianzaría la cualidad o aptitud del sujeto mediante el aumento de la autoestima del sujeto y de la cualidad, mientras que el negativo produciría que la autoestima del sujeto disminuyese y que la cualidad o aptitud sobre la que se actúa disminuya o incluso desaparezca.


El caso es que nunca antes había jugado tan bien como en aquel campeonato y jamás volví a hacerlo, aunque  también es cierto que desde entonces he jugado muy poco, apenas un par de veces al año. Además, cuando juego me acuerdo de todas esas cosas que antes sabía hacer como retrocesos, corridos, saltos y todo tipo de efectos, y que ahora ni siquiera intento pues sé que lo único que voy a obtener es un fiasco y, si además digo que antes lo hacía con relativa facilidad, hasta poder parecer presuntuoso. Pero todo esas cosas que yo sabía hacer, también sabían hacerlo bastantes de los que jugábamos asiduamente en el billar del pueblo. Sin embargo, en aquel campeonato sólo yo tenía un compañero que, aparte de jugar medianamente bien, creía ciegamente en su compañero y le hizo jugar como nunca antes había jugado y como nunca después volvió a jugar.

martes, 17 de mayo de 2016

LA CUARTA DIMENSIÓN

Una de las cosas a las que más vueltas he dado de pequeño ha sido la infinitud del tiempo, el pensar que el tiempo no tiene principio ni final, el pensar que si fuera posible ir para atrás, podría no haber nada en el Universo, (ni en ningún otro Universo, si es que hay algún otro Universo por ahí), pero el tiempo transcurría. Precisamente, por esto, siempre me imaginaba que en cualquier momento que representásemos una línea de tiempo, el momento de la representación estaba situado justo en la mitad, es decir, siempre se estaba en la mitad de la línea temporal, desde el principio del tiempo hasta el final, (conceptos ambos, puesto que al no haber finitud, eran infinitos).
 
Al tiempo tal y como lo conocemos y tal y como lo medimos, no se le puede acotar, ni hacia adelante ni hacia atrás, al fin y al cabo, en el momento que se puede medir y cuantificar, siempre puede haber un espacio de tiempo más y un espacio de tiempo menos. En nuestro caso, ese espacio de tiempo patrón es el segundo, cuya duración se tuvo que calcular a partir de que los egipcios dividieran el día en doce horas y la noche en otras tantas, que los babilonios dividieran cada hora en 60 minutos y cada minuto en 60 segundos, y que los griegos homogeneizaran la duración de las 24 horas del día, (ya que las horas de invierno eran más cortas que las horas de verano, según la división egipcia). Es decir, el cálculo de nuestro patrón de tiempo, (el segundo), se obtuvo al dividir la duración total de un día entre los 86400 segundos que tiene cada día, por herencia de las civilizaciones pasadas.

Pero el tiempo por concepto es infinito, no tiene ni inicio ni final, salvo si se mide un intervalo de éste. Lo que no parece que esté tan claro, a partir de la teoría de la relatividad, es que sea constante. Constante sería en un sistema en el que todo lo que formase parte de ese sistema se moviese a la misma velocidad, puesto que, según dicha teoría, el tiempo transcurre más despacio a velocidades próximas a la de la luz.

En la teoría de la relatividad no existe un tiempo absoluto único, sino que cada individuo posee su propia medida personal del tiempo, medida que depende de dónde está y de cómo se mueve. Por lo tanto, la teoría de la relatividad de Einstein acabó con la idea de un tiempo absoluto. El tiempo no está completamente separado ni es independiente del espacio, sino que por el contrario se combina con él para formar un objeto llamado espacio-tiempo. Sin movimiento, o cuando éste se realiza a velocidades bajas, (las velocidades a las que el ser humano puede desplazarse), el tiempo es tal y como lo conocemos. Pero cuando se combina la mecánica cuántica con la relatividad general parece haber una nueva posibilidad que no había surgido con anterioridad y es que si se juntan las tres dimensiones espaciales y el tiempo se forma un nuevo espacio de cuatro dimensiones finito, sin singularidades ni fronteras. Así, cualquier suceso sería algo que ocurriese en un punto particular del espacio y en un instante específico de tiempo y se describiría por medio de cuatro números o coordenadas, las tres coordenadas espaciales y una medida del tiempo. Es por ello que al tiempo se le conoce como la cuarta dimensión.

A partir de la teoría general de la relatividad, se puede deducir que tuvo que haber habido un estado de densidad infinita en el pasado, el Big Bang. Según Stephen Hawking, el físico teórico más importante de los últimos años, en su libro “Breve historia del tiempo” (publicado en 1988 y adaptado en 2005 para un público más amplio), si hubiera habido acontecimientos anteriores a éste, no podrían afectar de ninguna manera a lo que ocurre en el presente y su existencia podría ser ignorada, ya que ello no entrañaría consecuencias observables, por lo que se podría decir que el tiempo tiene su origen en el Big Bang, en el sentido de que los tiempos anteriores simplemente no estarían definidos. Desde nuestro punto de vista, los sucesos anteriores al Big Bang no pueden tener consecuencias, por lo que no deberían formar parte de los modelos científicos del Universo. Así pues, deberíamos extraerlos de cualquier modelo y decir que el tiempo tiene su principio en el Big Bang. Igualmente, si el Universo entero acaba colapsándose de nuevo, tal y como se prevé, tendrá que haber otro estado de densidad infinita en el futuro, el Big Crunch, que vendría a constituir el final del tiempo.

Sin embargo, este punto de vista de Hawking tiene que ver mucho con una visión del Universo basada en el principio antrópico. Ignora cualquier suceso anterior al Big Bang, ya que se supone que antes del Big Bang no hubo nada y si lo hubo no nos interesa porque no nos afecta y no tiene en cuenta otras complejidades por el hecho de no afectar, tomando el Universo como un sistema cerrado y que no interacciona con nada más, por lo que si el concepto de tiempo está asociado a la existencia del Universo, éste nace y muere con el propio Universo. Pero eso no evita que las cosas sucedan, independientemente de si hay alguien observando o no y de si pasa algo o no pasa nada reseñable, como sería el sucesivo paso del tiempo desde un observador externo, independientemente de si existiera el espacio o no, (por estar éste condensado en un estado de densidad infinita como podría estarlo tras el Big Crunch o antes del Big Bang).

El propio Hawking, en su libro “El gran diseño” (publicado en 2010), sostiene que existen otras realidades diferentes a la nuestra y que la idea de los universos múltiples ya no es tan descabellada como se creía antes. El multiverso, nombre que se da al conjunto de universos paralelos, es un escenario en el que aunque nuestro Universo pudiera ser de duración finita, es un Universo entre otros muchos. Incluso, la propia física del multiverso podría permitirles existir indefinidamente, independientemente de las leyes físicas por las que se rija cada uno. En este escenario sí que es posible un observador externo que pudiese medir el tiempo, pues ahora sí que existiría el espacio donde ubicarlo.

En definitiva, que independientemente de si existimos o no, de si el Universo existe o no, de si hay algo o no, el tiempo continuará transcurriendo inexorablemente. Continuará transcurriendo independientemente de si está siendo observado o de si se le esté cuantificando. Es más, ya existía cuando no había nada, si es que alguna vez no lo hubo, puesto que existió siempre ya que nunca tuvo principio, y existirá eternamente ya que no va a tener final. Simplemente siempre estará, avanzando continuamente y haciendo transitar inevitablemente el futuro hacia el pasado.

jueves, 14 de abril de 2016

LOS SIETE SABIOS DE GRECIA

Cuando era niño y contradecía a mi madre, ella me solía preguntar sarcásticamente acerca de si me creía que era uno de los sabios de Grecia. Esa referencia hacia los sabios de Grecia no la volví a escuchar hasta que empecé a cursar la asignatura de Filosofía en Bachillerato, a excepción de a otras madres, pues por aquel entonces el patrón educativo de nuestras madres parecía ser único y lo mismo que yo escuchaba en casa como argumentación, advertencia o reprimenda por parte de mi madre, lo volvía a escuchar en las casas de mis amigos por parte de las suyas.

Desconozco el motivo por el que se utilizaba la alusión a los sabios de Grecia de una manera tan extendida o, al menos, de una manera más frecuente a la que se pueda utilizar en la actualidad. Lo cierto es que bajo la denominación de “los siete sabios de Grecia” se engloba a siete personalidades históricas de la Antigua Grecia, entre los que hay filósofos, legisladores o gobernadores que fueron contemporáneos (todos ellos nacieron en el siglo VII a.C. y murieron en el siglo VI a.C.) y a quienes se les atribuye una serie de máximas filosóficas que sirven como referencia del pensamiento de aquella época. Dicha tradición, la de los siete sabios de Grecia, se mantuvo a lo largo de los años, habiendo llegado a nuestros tiempos gracias al doxógrafo Estobeo y su “Antología de extractos, sentencias y preceptos”, al filósofo Platón y su diálogo “Protágoras” o al historiador Plutarco y su obra “Ágape para siete sabios”.

La relación más extendida de los siete sabios de Grecia es la realizada por Estobeo, la misma que, varios siglos después, utilizó Plutarco en su obra, y estaría formada por:

Tales de Mileto: Filósofo y matemático que vivió entre 625 a.C. y 546 a.C. y que destacó gracias a su sabiduría práctica, a su notable capacidad política y a la gran cantidad de conocimientos que poseía. Fue el iniciador de la indagación racional sobre el origen del Universo, por lo que está considerado como el fundador de la filosofía, (creía que el Cosmos estaba formado a partir de una sustancia elemental común a todo, algo aún hoy vigente). Considerado también como el padre de las Matemáticas, por demostrar sus afirmaciones, estableció una serie de teoremas geométricos elementales que llevan su nombre, siendo el más conocido el que sirve de base para la construcción de triángulos rectángulos con la ayuda de un semicírculo. Y como astrónomo, fue capaz de vaticinar un eclipse solar el 28 de Mayo de 585 a.C., algo que asombró a sus contemporáneos y le dio un enorme prestigio. Se le atribuyen numerosas máximas. De todas ellas, me quedo con: “En la confianza está el peligro”, “La felicidad del cuerpo consiste en la salud; la de la inteligencia, en el saber” y “Lo más difícil que hay es conocerse a sí mismo; lo más fácil aconsejar a otros”

Bías de Priene: Político griego que se estima que vivió entre 620 a.C. y 550 a.C. y alcanzó gran fama como legislador. Hombre ocurrente, del que se dice que era el más sabio de todos, pasaba por ser el orador más elocuente de su tiempo y empleaba su talento en defender a los pobres. Apelaba continuamente a que el hombre es malo por naturaleza y por ello el mundo estaba lleno de maldad. Decía preferir juzgar entre enemigos que entre amigos, porque en el primer caso estaba seguro de ganar a uno de aquellos, mientras que en el segundo perdía a uno de estos. Compuso más de dos mil versos llenos de preceptos de moral sobre el modo de vivir feliz y de gobernar acertadamente. De todas sus máximas, me quedo con: “El saber es la única propiedad que no puede perderse”.

Pítaco de Mitilene: Fue un estadista griego de origen noble que vivió entre 640 a.C. y 568 a.C. y gobernó en Mitilene (Lesbos). Intentó restringir el poder de la nobleza y ejerció el poder apoyándose en las clases populares. Era famoso por su espíritu de justicia, de prudencia y honestidad, llegando hasta el punto de conceder la libertad al asesino de su hijo basándose en que ‘’es mejor perdonar que arrepentirse’’. Se le considera unos de los siete sabios de Grecia por la sabiduría y prudencia con que gobernó. Es autor, entre otras, de la máxima: “Educad a los niños y no será necesario castigar a los hombres”.

Cleóbulo de Lindos: Hijo de rey, se estima que vivió entre 630 a.C. y 560 a.C. y gobernó como tirano de Lindos, en la isla griega de Rodas, de una manera ejemplar, según la versión de la época. Se le atribuyen algunos poemas líricos y más de tres mil enigmas en verso. Suya es la máxima “La moderación es lo mejor” y suyo es el aforismo “Aceptar la injusticia no es una virtud, sino todo lo contrario”.

Quilón de Esparta: Político que se estima que vivió entre 600 a.C. y 520 a.C. y lo hizo siempre conforme a sus principios. Mejoró los sistemas de control de los altos funcionarios del estado, se le atribuye la militarización de la vida civil de Esparta y la toma de las primeras medidas para la educación castrense de la juventud. Fue quien mandó grabar con letras de oro en el templo de Delfos las máximas “Conócete a ti mismo” y “No desees nada que sea demasiado ventajoso”. Suyo es el aforismo “No permitas que tu lengua corra más que tu inteligencia".

Solón de Atenas: Vivió entre 638 a.C. y 558 a.C., adquirió fama como legislador y reformador social en Atenas y es considerado como uno de los precursores de la democracia ateniense. Instituyó en Atenas un tribunal de justicia y justificó su política tendente a la igualdad de las clases sociales en una serie de poemas (los más antiguos que se hayan encontrado) que expresan su ética basada en la medida justa y en el orden correcto. Anuló todas las deudas que pesaban sobre los campesinos humildes y decretó que todos los esclavos por deudas fueran liberados, remodeló el calendario y reguló los pesos y medidas. Su máxima “Nada con exceso, todo con medida” la utilizaba como guía del comportamiento práctico de los hombres.

Periandro de Corinto: Vivió entre 668 a.C. y 584 a.C. Sucedió a su padre como tirano de Corinto, propiciando la prosperidad de la región durante el período entre los s. VII-VI a. C. Desarrolló el puerto de Corinto y construyó una rampa a través del istmo de Corinto para que las naves pudieran ser arrastradas para acceder al Golfo de Corinto, evitando así tener que rodear el Peloponeso. Con los ingresos obtenidos, logró suprimir los impuestos y llevó a cabo una sistemática política colonial de conquistas. Pero igualmente, eliminó a todos aquellos aristócratas que podían amenazar su poder. Se apoyó sobre la plebe contra la nobleza y emprendió represiones violentas. Pero la larga estabilidad de que gozó Corinto bajo su mandato contribuyó a que fuera incluido en el grupo de los sabios de Grecia, aunque fuera por adulación, ya que fue un tirano atroz, cometiendo, a pesar de su sabiduría, toda clase de excesos y crímenes, como hizo saber Aristóteles. Es autor de la máxima “Sé previsor con todas las cosas”.

Platón no incluyó en su lista de los siete sabios a Periandro, pues consideraba que éste no era merecedor de tan distintiva consideración. En su lugar puso a Misón de Quene, un labrador del Peloponeso que aborrecía a los hombres y que aun así sus contemporáneos declararon como el más honrado de los hombres. Su origen humilde y el vivir alejado de la civilización le hicieron ser mucho menos conocido. Se le atribuye la célebre máxima "Conócete a ti mismo".


miércoles, 16 de marzo de 2016

LA LEY DE MOORE

Del laboratorio de Matemáticas que teníamos en la E.U.P. de Valladolid, recuerdo aquellos ordenadores que allí había, la mayoría de ellos con procesador Intel i486, y con su pequeño display de dos dígitos en siete segmentos donde aparecía la frecuencia de reloj (el equivalente a la velocidad de procesamiento) del procesador expresado en megahercios (MHz). Había que estar muy rápido y motivado para pillar los pocos que había a 75MHz. El resto nos repartíamos los de 66MHz, 50MHz o 33MHz.

Ahora resulta curioso, pero en la época de los i386, los i486 y la primera generación de los Pentium, los ordenadores personales incorporaban un display donde aparecía la velocidad de procesamiento, con lo cual era muy fácil apreciar como cada dos años se lograba doblar la velocidad de procesamiento de los procesadores que llevaban los ordenadores personales, algo que ha sido así hasta la aparición de los procesadores de doble núcleo.

Esto ha ido en consonancia con la predicción que realizó el ingeniero estadounidense Gordon Moore y que es conocida como ley de Moore. Dicha ley (que realmente fue una predicción) afirma que el número de transistores integrados en un microprocesador se duplica cada dos años. Inicialmente, en el artículo que publicó en la revista Electronics en 1965 siendo Gordon Moore director de los laboratorios de Fairchild Semiconductor, afirmó que sería cada año, modificando su predicción a dos años en 1975, cuando ya era presidente de Intel Corporation, empresa que había fundado junto al también ingeniero estadounidense Robert Noyce (inventor, junto a Jack Kilby, del microchip o circuito integrado y que fue apodado como “el alcalde de Silicon Valley”, pues fue él quien ideó el nombre). Curiosamente, este crecimiento exponencial se ha ido cumpliendo, dando lugar a dispositivos cada vez más potentes, más rápidos, más pequeños y con menor consumo, pues al duplicarse el número de transistores integrados en los chips de cualquier dispositivo, prácticamente se duplican las prestaciones de los chips y de los dispositivos. En 2007, el propio Moore determinó una fecha de caducidad para su ley afirmando que “mi ley dejará de cumplirse dentro de diez o quince años, no obstante, una nueva tecnología vendrá a suplir a la actual”.

Por aquel entonces, hará unos quince años, cuando mis amigos me solían consultar acerca de las prestaciones de los ordenadores que se querían comprar y observaban el crecimiento exponencial de éstas, recuerdo que se me preguntó en varias ocasiones acerca de los límites de dicho crecimiento. Yo no sabía muy bien qué contestar, aunque por mis conocimientos solía decir que con la tecnología actual el límite estaba en la velocidad de la luz. Así llegué a predecir que difícilmente se conseguiría un procesador que alcanzara los 100GHz de velocidad de procesamiento con la tecnología existente, puesto que si un hercio es una instrucción-máquina por segundo y a la velocidad de la luz es de unos 300.000 Kilómetros por segundo (0,3 gigametros por segundo), a nada que cada instrucción-máquina implicase que cada pulso eléctrico tenga que realizar un recorrido medio de un milímetro se tendría un umbral de 300GHz. Si tenemos en cuenta el rozamiento con los dispositivos y que los procesadores suelen tener una superficie de unos 25 cm², por lo que es difícil limitar a un milímetro la distancia recorrida por cada pulso eléctrico para completar una instrucción-máquina, los 100GHz me parecían una meta casi imposible de alcanzar (y todo ello sin tener en cuenta el calor provocado que es el principal escollo en la actualidad), salvo que se realizara con una tecnología diferente como podrían ser los aún no desarrollados procesadores ópticos que, por entonces, parecían ser los candidatos más factibles a ser los procesadores del futuro.

Pero aparte de la velocidad de la luz hay otros límites físicos importantes. Uno es la capacidad de integración. Hay que tener en cuenta que en un chip de unos seis centímetros cuadrados, se han conseguido acumular 10.000 millones de transistores, es decir, donde antes cabía un transistor ahora caben un millón. Si se sigue aplicando la ley de Moore, cada transistor se reducirá, en tan solo tres generaciones más, al tamaño de unos pocos átomos y eso ya no será un transistor, debido a que los efectos cuánticos a esas escalas comienzan a ser notables.

Otro límite físico es el calor generado. Acumular cada vez más transistores en un espacio cada vez más pequeño produce calor y, si no se limita la frecuencia a la que funcionan los chips, éstos se queman. En los últimos diez años, la frecuencia de reloj no se ha podido aumentar por esta razón y para conseguir procesadores más rápidos se ha tenido que recurrir a chips que tienen varios núcleos procesando en paralelo, algo que presenta dificultades de programación y que no baja el coste. Por ello, el informe periódico de la ITRS (International Technology Roadmap for Semiconductors), que engloba a expertos de la industria mundial del sector de los semiconductores, ha reconocido oficialmente que la ley de Moore ya no es su objetivo principal.

De momento, el récord Guinness data del 13 de Septiembre de 2011 y está en manos del procesador AMD Bulldozer FX de 8 núcleos que alcanzó un rendimiento de 8,429 GHz utilizando overclocking (técnica que consiste en hacer trabajar al procesador por encima de la velocidad para la que está preparado) y siendo refrigerado con helio y nitrógeno líquido.

Actualmente, miniaturizar los componentes todavía más (siempre y cuando se pueda) supone altísimas inversiones que los fabricantes empiezan ya a no poderse permitir, a pesar de haberse concentrado en unas pocas empresas. Da cara al futuro, con la ley de Moore llegando a su fin por cuestiones puramente físicas, se abren ciertas incógnitas acerca de cómo va a ser la computación del futuro. En ese sentido se abren dos posibilidades. Una sería continuista de la lógica binaria, pero con una tecnología distinta a la del silicio. En esta posibilidad, los nanotubos de carbono, el grafeno, los transistores fotónicos (en los que se mueven fotones en vez de electrones) e incluso el ADN serían candidatos a ser los sustitutos. La otra sería rupturista de la lógica binaria existente, lo que supondría cambiar la lógica de computación, siendo la cuántica la que más interés suscita. Sin embargo, nada de eso está todavía maduro, por lo que no existen plazos para su llegada al mercado.

De todas formas, independientemente de la tecnología que se use en el futuro y a pesar de que la ley de Moore esté próxima a su fin en sentido literal, ya que el crecimiento exponencial en el número de transistores integrados por superficie no puede continuar, estoy convencido de que ésta se seguirá cumpliendo en su espíritu, en la de ofrecer al consumidor una tecnología que mejore continuamente sus prestaciones, gracias a la innovación y a las futuras tecnologías que se pongan en marcha, pues ya se está viendo que, a pesar de que los procesadores básicos no logran tener una mayor capacidad de procesamiento, se consiguen procesadores y dispositivos cada vez más y más potentes.

miércoles, 17 de febrero de 2016

LA TERRAFORMACIÓN DE MARTE

El documental “Terraformar Marte” (“Living on Mars”) de National Geographic realizado en 2009 hace un recorrido por los pasos que se deberían dar en los próximos siglos por parte del ser humano para poder acondicionar Marte a la vida humana y que pudiera ser habitable. Cuando lo vi me acordé de las pretensiones del famoso astrofísico estadounidense Carl Sagan, que en 1961 ya hablaba de la posibilidad de terraformar Venus mediante la eliminación de una gran parte de su atmósfera para eliminar el efecto invernadero descontrolado y corregir la presión, (91 veces mayor que la de la Tierra), la adaptación de su temperatura superficial (de unos 465ºC de media) y la adicción (o la extracción del propio planeta) de oxígeno. Indicó lo que había que realizar, pero no cómo se podría hacer, ya que en su momento no había tecnología lo suficientemente avanzada como para llevar a buen puerto dicho proyecto y, mucho me temo que aún no parece haberla. Es por ello que el objetivo de terraformación de algún planeta vecino ha puesto sus miras en Marte, más factible que Venus, y en dicho documental se hablaba de los distintos pasos futuros que habría que dar para lograr realizarlo.

Hay que recordar que Marte está situada a 80.477.400 Km de la Tierra, (unos 56 millones Km en el punto más cercano), más alejado del Sol. No tiene atmósfera y su temperatura media es de -32ºC. Su superficie es de 144.800.000 km² que es casi la misma que la superficie de tierra emergida habida en nuestro planeta, (aunque en el caso de la Tierra sólo sea el 28% de su superficie total), siendo en su totalidad un enorme desierto de rocas congeladas de hielo y polvo, habiendo sido así durante los últimos tres mil millones de años. Al no tener atmósfera, presenta una presión muy baja y una intensa radiación ultravioleta y cósmica que esteriliza la superficie. Las temperaturas varían de -127º en los polos a 27ºC cerca del ecuador pero su atmósfera de dióxido de carbono es tan fina que cuando el hielo se funde pasa a ser vapor directamente dejando la superficie seca.

Sin embargo, Marte no siempre ha sido hostil para la vida como lo es en la actualidad. Hace unos hace unos 3.500 millones de años fue más cálido que actualmente y tuvo una atmósfera lo suficiente densa para atrapar el calor del Sol (como un invernadero) creando la presión atmosférica suficiente para mantener agua líquida estable en la superficie, condiciones que podían haber sido favorables para la vida. Eso fue, cuando el Sistema Solar era joven, el núcleo de Marte estaba caliente y sus volcanes bombeaban dióxido de carbono a la atmósfera. Pero debido a que su masa es diez veces menor que la de la Tierra, se enfrió rápidamente, provocando que la actividad volcánica cesase, por lo que cesó el envío de dióxido de carbono a la atmósfera, provocando que su espesa atmósfera desapareciera gradualmente, ya que debido a su baja gravedad (3,7 m/s²) no pudo retenerla en cuanto ésta dejó de regenerarse. Al no tener gases invernadero para atrapar el calor del Sol, crear presión y bloquear las radiaciones, Marte se convirtió en un planeta helado, seco y estéril. Además, por su baja cantidad de masa, parece ser que no tiene placas tectónicas para reciclar los sedimentos y no tiene campo magnético para protegerse del viento solar.

Pero los restos de su atmósfera primitiva están presentes en su superficie en forma de hielo de dióxido de carbono y agua, y además gran parte del dióxido de carbono de su atmósfera reaccionó con el suelo para formar carbonatos. Esto es la clave, que Marte tenga el suficiente dióxido de carbono como para poder regenerar su atmósfera. Por lo tanto, para que un planeta tan hostil, como lo es éste en la actualidad, pueda alojar vida sería necesario un trabajo de ingeniería interplanetaria a una escala que actualmente se puede considerar inconcebible, más aun cuando todavía ningún ser humano ha pisado ese planeta.

El primer paso para hacer que Marte fuera habitable consistiría en calentarlo, porque ahora está demasiado frío, por lo que la solución más sencilla para llevarlo a cabo sería liberar gases de efecto invernadero. Como el suelo de Marte está formado por rocas pulverizadas y minerales y partiendo de que se cree que una gran parte de la superficie marciana está formada por carbonato mineral como el yeso y por minerales con una elevada acidez, como el ácido sulfúrico, al mezclar el polvo del suelo y los carbonatos junto con agua, se liberaría dióxido de carbono, por lo que añadiendo agua (extraída mediante el proceso de “cocinación” del suelo del planeta que tendría agua en forma de hielo) se podrá generar el dióxido de carbono suficiente como para comenzar a espesar la atmósfera de Marte. Este proceso debería estar en funcionamiento de forma constante para lograr que la atmósfera marciana fuera tomando grosor.

El segundo paso consistiría en forestar Marte para poder transformar esa recién creada atmósfera de dióxido de carbono en otra con mayor contenido de oxígeno. Para este paso de forestación se necesita nitrógeno y éste era parte de la mezcla de elementos de la antigua atmósfera marciana, (algo que se pudo confirmar a partir de las muestras obtenidas por el robot Curiosity), habiéndose convertido en compuestos minerales del suelo. Por ello, el suelo puede estar sembrado de microbios como las cianobacterias que pueden descomponer esos compuestos volviendo a poner en circulación el nitrógeno en las circunstancias adecuadas. De esta forma, se podrían exportar desde la Tierra, musgos y líquenes que serían los encargados de fertilizar el suelo, (unos 50 o 100 años después de iniciar el calentamiento), pues florecen con el dióxido de carbono y obtienen los nutrientes que necesitan de los microbios y la fotosíntesis, fabricando tierra y ayudando a crear más nutrientes, generando la base para poder plantar árboles. Esto se realizaría una vez que se logre alcanzar en algunas zonas temperaturas medias de 5ºC. A esas temperaturas, se pondrán plantar pinos de alta montaña, que son los más resistentes que conocemos en la Tierra y que pueden vivir con poco oxígeno y altas radiaciones, diseminando sus semillas a través del viento.

Se estima que, con la tecnología actual, los árboles tardarían 100.000 años en transformar el helado Marte y la recién creada atmósfera marciana de dióxido de carbono en un planeta verde y templado con suficiente oxígeno para los humanos, aunque si se pudieran desarrollar tecnologías no-biológicas para convertir el dióxido de carbono en oxígeno, Marte podría tener aire respirable mucho antes, quizá en unos 10.000 años.

Si finalmente se logra terraformar Marte, tal y como se vaticina en este documental, podrían terraformarse, en un futuro más remoto, la Luna, Venus (tal y como ya predijo Carl Sagan, por ser el planeta más parecido a la Tierra) o alguno de los satélites de Júpiter o Saturno, aunque para ello, se necesita tecnología que aún no hemos sido capaces de desarrollar.

Al fin y al cabo, tal y como ha dicho Stephen Hawking en varias ocasiones, el ser humano ha de buscar otro planeta donde vivir pues, a largo plazo, nuestra supervivencia puede depender de ello.

martes, 19 de enero de 2016

LA SENSIBILIDAD METEOROLÓGICA

Jugué al fútbol durante diez años en categorías regionales. De aquellas tardes de partido, aparte de buenos ratos, tuve dos pequeñas lesiones en la rodilla. La más importante me la produje en Tórtoles de Esgueva jugando con el equipo de Villalba, en la que acabé el partido con la rodilla inflamada como consecuencia de un mal giro que hice justo cuando pisaba uno de los numerosos hoyos que tenía el irregular y maltrecho campo de juego. Me produje un derrame articular, es decir, se me rompió la cápsula articular de la rodilla, por lo que el líquido de ésta se había salido, dejándome la rodilla como si estuviera tremendamente hinchada. La consecuencia de esta lesión fue estar más de dos meses sin jugar, lo que en la práctica me supuso casi el final de aquella temporada, aunque sí que pude disputar los últimos partidos.

El caso es que, exceptuando que me tuvieron que extraer el líquido de la rodilla dos veces y que acabaron inmovilizándomela para evitar una hipotética tercera extracción, me recuperé bien de aquello, y la rodilla no volvió a darme problemas. Eso sí, unos meses después, ya bien entrado el verano, en un día de bochorno matinal, la rodilla me empezó a molestar impidiéndome correr y dificultándome el andar con normalidad. Ese mismo día por la tarde, una tremenda tormenta de verano me pilló de vuelta a casa desde la facultad, donde estaba terminando mi proyecto de fin de carrera, mojándome más de lo normal debido a mis limitaciones físicas de ese día. Poco después, aún con la tormenta descargando agua a raudales en todo Valladolid, la rodilla dejó de dolerme. Acababa de descubrir que mi rodilla se había convertido en un instrumento de predicción meteorológica.

Así estuve unos años, aunque las molestias eran mucho menores que aquella primera vez, cada vez que iba a haber un brusco cambio de tiempo, mi rodilla me avisaba con unas horas de antelación, a veces incluso el día anterior, sabiendo de antemano cuando iba a llover sin la necesidad de tener que consultar la información meteorológica, debido a que los cambios bruscos de presión atmosférica suele generar dolores articulares, especialmente en aquellas articulaciones que presentan daño o que han sufrido algún daño reciente.

Este fenómeno que padeció mi rodilla durante unos cuatro años, se denomina sensibilidad meteorológica o meteorosensibilidad, y se produce cuando el organismo se resiente antes o durante los cambios de tiempo, siendo las condiciones atmosféricas que se alejan de los umbrales climáticos a los que estamos acostumbrados las que más nos trastornan. Así, como fue en mi caso, un descenso brusco de la presión atmosférica y la temperatura me provocó la presencia de dolor en una zona en donde había sufrido un traumatismo, aunque por ese mismo motivo, el descenso brusco de presión atmosférica, también se puede generar en personas meteorosensibles y de manera transitoria, dolencias en articulaciones, migrañas, variaciones en la glucemia, crisis epilépticas, insuficiencias respiratorias, alteraciones del sueño y sensación de ofuscamiento con pérdida de concentración, memoria y reflejos. Además, el 80% de las enfermedades cardiovasculares se dan cuando hay fuertes variaciones de la presión atmosférica y los infartos son más frecuentes al final del otoño, cuando la presión atmosférica es baja y la humedad es inferior al 60%, siendo menos frecuentes con tiempo cálido, seco y estable.

Igualmente, otros fenómenos meteorológicos están asociados a otros trastornos. La lluvia y la humedad generan mayor ansiedad y provocan dolores reumáticos y asma; los vientos secos pueden estar relacionados con el dolor de cabeza, la irritabilidad o la ansiedad y también con el aumento de los accidentes de tráfico, puesto que pueden alterar nuestra conducta (hasta tal punto que el foëhn suizo puede ser eximente en un juicio por asesinato); y los periodos largos con abundante nubosidad y falta de luz solar pueden afectar al estado de ánimo, incluso originar depresión. Además, se ha comprobado en los colegios que, horas antes de que se ponga a llover, los niños están más nerviosos de lo habitual. Todas estas alteraciones producidas por motivo de la meteorología afectan a casi la mitad de la población mundial.

Por cierto, la ciencia que se ocupa de los efectos nocivos provocados por las variaciones de los fenómenos meteorológicos sobre la salud humana, se denomina meteoropatología, que indica cualquier patología que se desencadena o se agrava ante unas condiciones meteorológicas concretas, o biometeorología médica.

Como ya he dicho, la rodilla me sirvió durante unos cuatro años como herramienta de predicción meteorológica, algo que me resultaba curioso y que me servía para vacilar un poco, sobre todo en verano, cuando la aparición de tormentas suele ser más impredecible salvo para mi rodilla por aquel entonces. Además, las molestias que solía padecer eran bastante llevaderas por lo que incluso me parecía algo divertido. Desde entonces, me puedo excluir de ese casi 50% de personas meteorosensibles, ya que los cambios de tiempo no me suelen afectar en casi nada. Sí, si llueve me mojo, el viento fuerte me suele molestar, y me cuesta adaptarme a los primeros fríos del invierno y a los primeros calores del verano, pero no como para que afecte a mi estado de ánimo o a mi físico de manera que me provoque alguno de los síntomas anteriormente relacionados.