Categoría: Ciencia

Anotaciones sobre asuntos científicos.

Corrección, adecuación y simplicidad de un modelo científico

Publicado por Iñaki a las 9:30 Sábado 26 de enero de 2013

El pasado jueves, leí en Microsiervos La velocidad del Sol, una anotación donde aparece un curioso vídeo sobre el sistema solar. En dicho vídeo, básicamente se argumenta que el modelo heliocéntrico (aquel que todos tenemos en la cabeza cuando pensamos en el sistema solar), con los planetas dando vueltas alrededor del Sol, es incorrecto porque la realidad no es tal. En su lugar, propone un modelo que añade la velocidad con la que el propio sistema solar en su conjunto se mueve alrededor del centro de nuestra galaxia. Veamos el vídeo (basta con los dos primeros minutos):

De acuerdo, el modelo propuesto es precioso al ser animado en 3D, pero ¿cómo que el modelo heliocéntrico es incorrecto? La única diferencia entre ellos es que el primero omite la velocidad orbital del sistema solar, o dicho de otro modo, el modelo heliocéntrico fija como punto de referencia el centro de masas del sistema. ¿Qué tiene eso de incorrecto? De acuerdo que hay un sistema más grande que podemos considerar, pero, de la misma forma, nuestra galaxia se mueve con respecto a sus vecinas. ¿Dónde ponemos el punto de referencia entonces? Porque en algún lugar hay que ponerlo…

Hay que tener mucho cuidado al hacer modelos (Carlos Chordá lo cuenta muy bien), eso es indudable, porque un mal modelo puede llegar a cargarse nuestra percepción de la realidad. Según mi modo de ver, un buen modelo debe cumplir tres condiciones fundamentales que se adivinan en el título de esta entrada:

  1. Debe ser correcto, para empezar.
  2. Debe ser adecuado para el propósito para el que se concibe.
  3. No debe caer en simplificaciones excesivas que acaben por distorsionar la realidad.

Por ejemplo, podemos discutir si el modelo geocéntrico —el que tiene la Tierra como centro del sistema solar— es correcto o no. En realidad, podemos escoger el punto que nos dé la gana como referencia de nuestro modelo. Desde el punto de vista estrictamente matemático, será más complejo, pero correcto al fin y al cabo: se trata de una simple traslación del eje de coordenadas. Ahora bien, desde el punto de vista físico, no tiene ningún sentido: solo tiene sentido escoger el centro de masas del propio sistema (o, si acaso, de un sistema mayor, como hace en el vídeo). Para mí, esto es lo que cuenta (recordemos que estamos hablando de física), por eso afirmo tajantemente que el modelo geocéntrico se puede tachar directamente como incorrecto. Pero, aun asumiendo como correcto el modelo geocéntrico —aunque solo sea matemáticamente—, cualquiera puede darse cuenta de que es absolutamente inadecuado para satisfacer su misión: facilitar la comprensión del movimiento de los planetas.

¿Qué hay del sistema heliocéntrico? Resulta matemáticamente y físicamente correcto. No veo qué duda puede haber al respecto. Y no solo eso, sino que es muy adecuado para su propósito; mucho más, opino, que el modelo propuesto en el vídeo. Este último sirve muy bien al propósito de visualizar el movimiento global del sistema solar a través de la galaxia, pero no puede competir con el modelo heliocéntrico a la hora de comprender el comportamiento de los planetas.

Si hay algo que se le puede achacar al modelo heliocéntrico —y no menos al propuesto en el vídeo—, precisamente tiene que ver con mi tercera condición. Y es que ambos cometen una simplificación que a menudo lastra nuestra concepción del sistema solar: las diferencias relativas, tanto del tamaño de los planetas como de las distancias que los separan. Ese sí es un problema y no la omisión de la velocidad orbital alrededor del centro de nuestra galaxia.

Repito: hay que tener mucho cuidado con los modelos. Pero no solo al implantarlos, sino también al desecharlos; la simplicidad no tiene por qué ser sinónimo de incorrección.

Perversiones del método científico

Publicado por Iñaki a las 9:30 Viernes 25 de enero de 2013

Como muchos sabréis, la ciencia tiene un sistema de transmisión del conocimiento que funciona al mismo tiempo como mecanismo de reconocimiento del mérito investigador. Ampliamente conocidas son sus ventajas, pero menos sus miserias. Yo pertenezco a una rama de la ciencia relativamente joven: las ciencias de la computación. Y no sé si es porque tengo demasiado idealizada la ciencia en general, o las demás ramas en particular; no sé si mi visión parte de un desconocimiento de los otros campos; pero me da la sensación de que en mi área, en general, se pisotea el método científico más a menudo de lo esperable, por decirlo de una manera suave.

Hace unas semanas, charlando con el gran @Sonicando en Madrid precisamente sobre las miserias de este sistema que tenemos en ciencia, yo le comentaba: «Lo que envidio de vuestro campo [la biología molecular en su caso] es la reproducibilidad de los resultados». Y conforme lo decía, él me miraba como sorprendido y negaba con la cabeza de forma tajante: «Ya no me fío de nada de lo que lea en un paper hasta que no lo haga yo mismo», replicó él. De acuerdo, es cierto que en muchas ocasiones no se obtendrá lo que afirmaba el paper en cuestión al realizar tú mismo el experimento (por negligencia del tipo que sea, más o menos grave, en eso ya no me meto), pero también es cierto que en biología, y en otros campos, son muy estrictos —en general— detallando la metodología de sus experimentos. Y a eso iba yo: podrá salir bien o  podrá salir una cosa completamente distinta, pero tienes en tus manos la información necesaria para repetir ese experimento y confirmarlo o refutarlo en un momento dado.

En ciencias de la computación, por alguna razón —y de nuevo, en general—, todo es mucho más difuso. Lo más normal es encontrarse con trabajos que afirman haber aplicado este o aquel nuevo método en un determinado campo y que ha conseguido una mejora determinada con respecto a los métodos anteriores. De acuerdo. ¿Y cómo se ha implementado ese nuevo método? ¿Cómo se ha aplicado? En definitiva, ¿dónde está el código para que yo mismo pueda verificar que lo que dices es verdad?

Es algo básico y tremendamente sencillo en nuestro campo: es solo un programa, un pedazo de código; así de simple. Y sin embargo, hay cientos y cientos de papers publicados en revistas de prestigio que adolecen de este principio tan elemental, lo cual me resulta increíble. En el mejor de los casos, tal código existe y se puede tener acceso a él, pero está lleno de errores y ¡ni siquiera compila! (uno de mis compañeros y troll, oficial y oficioso, de este blog tiene mucho que contar acerca de esto). ¿Cómo demonios se supone que han llevado a cabo la investigación asociada entonces?

Todo esto viene a colación de un fantástico artículo del blog de Jeff Leek, bioestadístico de la Johns Hopkins Bloomberg School of Public Health, titulado Statisticians and computer scientists – if there is no code, there is no paper. En él, comenta que, a partir de ahora, va a tener en cuenta un nuevo criterio a la hora de revisar los papers o CV de candidatos que pasen por sus manos: la presencia o no de código que soporte los supuestos logros. Aplaudo desde aquí su determinación. La investigación en ciencias de la computación no podría sino mejorar si esta práctica se extendiese.

Ruedas para movernos en el espacio

Publicado por Iñaki a las 10:30 Jueves 24 de enero de 2013

(Esta anotación se publica simultáneamente en Naukas)

A un nivel básico, nuestra intuición maneja leyes físicas sin que nos demos cuenta. Por ejemplo, sabemos que la patinadora de la imagen de la izquierda, que está girando con el cuerpo extendido, aumentará notablemente su velocidad de giro cuando alcance una posición similar a la de la patinadora de la derecha, que tiene concentrada su masa en torno al eje de giro. Este aumento de la velocidad de rotación, que proporciona espectacularidad al número, se produce para satisfacer la conservación del momento angular, uno de los principios fundamentales de la naturaleza. Tanto es así que, incluso a nivel microscópico, donde la mecánica clásica hace aguas por todas partes, sigue vigente. Aunque no siempre resulta tan intuitivo…

Autor: K. “bird” N. | Fuente: Wikimedia Commons

Imaginemos una plataforma que es capaz de girar sin rozamiento en torno a un eje central: por ejemplo, una silla giratoria. Sobre dicha plataforma, una persona sostiene una rueda de bicicleta con su eje en posición vertical, tal y como lo hace, de forma aproximada, la chica de la siguiente foto.

Fuente: Facultad de Ciencias, Universidad de Chile

¿Qué ocurrirá si la muchacha hace girar la rueda de la bicicleta? Dado que el conjunto asiento-chica-rueda se encuentra aislado, sin fuerzas que actúen sobre él, y dado que ha aparecido un giro que antes no se producía, el de la rueda de la bicicleta, por necesidad debe haber otro giro que compense al anterior, que haga que el momento angular se conserve: lo que ocurrirá es que el asiento rotará en sentido contrario. Dicho de otra manera, si ella quiere darle la cara a su compañera sin tocar el suelo, lo único que tiene que hacer es girar la rueda de la bicicleta; cuanto más rápido la haga girar, antes lo conseguirá. Y cuando detenga la rueda, el asiento, de la misma forma, cesará en su movimiento.

Por cierto, hagamos un alto en el camino para recordar cómo, de una manera similar, Seymour Skinner utiliza la conservación del momento angular para hacer girar un contenedor y salvar a Ralph de una muerte segura (The Simpsons, episodio 11 de la temporada 20, a partir del minuto 17).

Ahora pongámonos estrictos con el tema del aislamiento del sistema —al fin y al cabo, algo de rozamiento tendría esa silla— y coloquemos a la chica, con su rueda, en el vacío espacial. Cambiando la orientación del eje de la rueda y haciendo girar la misma, sería capaz de girar en todas las direcciones, de mirar adonde le apetezca. Pero tampoco nos duraría mucho ahí fuera la pobre, así que coloquemos algo más útil: por ejemplo, un telescopio como el Hubble. ¿Me seguís?

¿Nunca os habíais preguntado cómo se orienta un telescopio espacial para apuntar a este o aquel objeto celeste? Efectivamente, utilizando ruedas, ni más ni menos. Concretamente, cuatro ruedas fijas (de las cuales, solo tres son estrictamente necesarias para poder cubrir cualquier dirección del espacio tridimensional) controladas por motores eléctricos capaces de girar a gran velocidad. Este sistema permite apuntar los telescopios espaciales con una precisión increíble, así como corregir las desviaciones producidas por el viento solar.

Precisamente el pasado viernes 18 de enero, saltaba la noticia de que el telescopio Kepler, lanzado en 2009 y que lleva nada más y nada menos que 461 candidatos a exoplanetas detectados, se encuentra en serios problemas debido a su sistema de orientación. En julio de 2012, una de las cuatro ruedas dejó de funcionar. Un fallo en otra supondría, por tanto, el fin de la misión. Esperemos que el aumento de fricción detectado estos días en otra de las ruedas sea un problema transitorio para que siga ofreciéndonos datos tan valiosos.

Bitácora: serie documental sobre la Expedición Malaspina

Publicado por Almudena a las 17:00 Viernes 11 de enero de 2013

“El pulmón del planeta”. A la mayoría de la gente, este título metafórico le hace pensar en el Amazonas. Lo que la mayoría ignora es que dos de cada 3 moléculas de oxígeno presentes en la atmósfera, tienen su origen en los océanos. El dato cobra sentido, cuando se tiene en cuenta que el agua cubre el 70% de toda la superficie de nuestro planeta.

Precisamente por ello, los océanos son fundamentales para comprender el cambio global (no solo climático) que se avecina. ¿Cómo afectará al clima el aumento de CO2 disuelto en el agua?, ¿seguirán siendo los océanos el gran sumidero de CO2 del planeta?, ¿cómo afectará este aumento a los organismos que allí habitan, a las corrientes, a la temperatura, a los intercambios de carbono? y, muy especialmente, ¿qué sucede allí donde ya no hay luz ni parece posible la vida: en el océano profundo?

Persiguiendo la respuesta a todas estas preguntas, hace dos años, partió de Cádiz La Expedición Malaspina. Y coincidiendo con el aniversario de su llegada a Río, la 2 ha empezado a emitir la miniserie documental Bitácoras. El primer capítulo, titulado Océano profundo, está colgado ya en tve a la carta y resume los distintos aspectos de la investigación científica que se está llevando a cabo gracias a la expedición. Los próximos capítulos tratarán, respectivamente: sobre la formación de doctorandos y alumnos de máster a bordo (Cantera); y sobre el Hespérides y el trabajo de la dotación (Circunnavegación). El último capítulo (Expedición Malaspina) será un resumen de los tres anteriores. Se emitirán los próximos viernes, a las 21:00.

El documental está dirigido por José Miguel García y fue grabado a bordo por el equipo de Vivac Documental, a quienes tuve ocasión de conocer durante la primera etapa de la expedición. Ellos permanecieron en el Hespérides los 7 meses que tardó en dar la vuelta al mundo. Pero al desembarcar se acordaron de mí, para invitarme a colaborar en los guiones. Ha sido un trabajo hecho con mucho cariño y mucha nostalgia marinera, ¡espero que lo disfrutéis!

Deep Packet Inspection y neutralidad de la red

Publicado por Iñaki a las 19:15 Jueves 20 de diciembre de 2012

La Unión Internacional de Telecomunicaciones ha aprobado recientemente una nueva recomendación denominada ITU-T Y.2770 — Requirements for Deep Packet Inspection in Next Generation Networks (lo que viene a ser Requerimientos para la inspección profunda de paquetes en redes de siguiente generación), lo que no sería una gran noticia (de hecho, no había visto antes que fuera noticia una recomendación de la UIT) si no fuera por todas las burradas que llevo leídas acerca del tema en diversos medios online. Valga esta anotación para aclarar algunos conceptos.

¿Qué es eso de Deep Packet Inspection?

Deep Packet Inspection (DPI) es un concepto que comprende un conjunto bastante amplio y heterogeneo de técnicas de clasificación y filtrado de tráfico de Internet que tienen una característica en común: van más allá de la inspección de la cabecera de red (donde está la IP, la dirección de Internet) adentrándose en cabeceras de más alto nivel e incluso en los datos. Para que nos entendamos, veamos la figura adjunta. Idealmente, entre dos hosts de Internet solo hay routers que suben hasta el nivel de red para decidir cuál es el destino de ese paquete, por dónde lo va a reenviar. Pues bien, las técnicas DPI se encargan de subir más arriba para recopilar información con la que realizar un filtrado más específico.

Y llega el internauta y pregunta: oiga, ¿esto es bueno o malo? Como conjunto de técnicas, calificar esto de bueno o malo es igual de acertado que calificar de buena o mala la dinamita o las fusión nuclear. No creo que haga falta que me extienda en explicar los beneficios que obtenemos de ellas, ni tampoco qué cosas horribles se pueden hacer. ¿Acaso existe algo con lo que no se pueda hacer el mal con la suficiente imaginación?

Sobre la neutralidad de la red

De ese «Idealmente, entre dos hosts de Internet» que mencionaba más arriba, nace el concepto absolutamente simplista y equivocado de neutralidad de la red que la inmensa mayoría de la gente tiene en su cabeza: el que dice que hay que tratar a todos los paquetes de Internet como iguales. Pero querido lector, la realidad dista mucho de ser ideal. Porque, ¿Internet es bueno o malo? Ay, ya hemos vuelto a la pregunta capciosa de marras. Creo que todos estaremos de acuerdo en que Internet es una herramienta maravillosa, pero también hay delincuentes que la utilizan.

En esa red de carreteras que es Internet, hay mucho más que routers, hay mucho más que usuarios que respetan las normas y hacen lo que se espera de ellos. Esa red de carreteras no funcionaría si nos limitásemos a tratar todos los paquetes por igual. Hacen falta señales y semáforos que ordenen toda esa ingente cantidad de tráfico; protocolos que aseguren que, cuando llega una ambulancia con la sirena puesta, esta tiene prioridad, y hacen falta, por qué no decirlo, agentes que controlen que nadie se exceda en sus libertades.

La verdadera neutralidad de la red, la neutralidad de la red bien entendida, pasa por que todos seamos capaces de ir a donde queramos cuando queramos; que la información sea libre, no que cada vehículo sea tratado de la misma manera vaya por donde vaya: en un cruce, tendrá prioridad el que circule por la vía principal hasta que lo diga el semáforo de igual forma que un paquete de voz sobre IP debe tener prioridad sobre uno perteneciente a una transferencia de archivos.

Así que, por favor, pensemos un poco en todo lo que subyace para que esta gran herramienta funcione. Aunque muchas veces se hacen protestas totalmente legítimas acerca de los abusos de las operadoras, que los hay, otras muchas veces se dicen muchas sandeces en nombre de la defensa de la neutralidad de la red.

¿Qué significa esta recomendacion de la UIT?

Versión corta: absolutamente nada. Nada nuevo en el horizonte. Y sin embargo, habréis podido leer sinsentidos como estos (lo que está en cursiva son mis comentarios):

La Unión Internacional de Telecomunicaciones estandariza el espionaje en internet

Lo que eufemísticamente aprueba el documento [...] no es sino otra forma de llamar a estándares y métodos que faciliten la tarea de espiar y extraer las comunicaciones privadas que circulan por la red.

Volviendo al ejemplo de la dinamita, es como decir que se trata de inventar artilugios que faciliten la tarea de matar personas.

Con estas herramientas se podría procesar y filtrar todo el correo del país en cuestión de minutos.

Mentira. Simplemente.

Por lo que se sabe el estándar utiliza diversas técnicas criptográficas para garantizar que existan claves de seguridad con las que abrir e inspeccionar los mensajes cifrados.

Además de un imposible, mentira. Ahí está el documento para quien quiera leerlo.

[Fuente: Alvy (este es el que más me ha sorprendido) en RTVE.es y Microsiervos]

[Actualización: Alvy lamenta que lo escribió hace una semana para RTVE con pocos datos y de ahí nace la confusión. Me confirma que ya ha mandado un texto de rectificación]

El borrador de ITU-T Y.2770, un atentado a nuestros derechos

Es evidente, y me gustaría poner especial hincapié, en que este acto es un ejercicio claro para controlar nuestros movimientos por parte de los proveedores de acceso a Internet con la ayuda de nuestros gobiernos.

Teoría de la conspiración a tope.

[Etc. Este en concreto es una auténtica perla: Bytedevil]

Menos desencaminado —aunque puntualizaría algunas cosas— va este artículo de The Register. Para empezar, la UIT no estandariza, sino que recomienda. Viene a ser lo que la RAE a la lengua española: limpia, fija y da esplendor a esto de las telecomunicaciones. Porque las técnicas de DPI no son nada nuevo, sino que están totalmente a la orden del día. Existe un amplio estado del arte sobre ellas, además de software y hardware de todo tipo que las utilizan. Están implantadas a lo largo y ancho de Internet en equipos con propósitos variados y fundamentales en las redes modernas: detección de intrusiones, catalogación del tráfico para establecer políticas de calidad de servicio, etc.

Así que la noticia es que la UIT ha analizado un montón de técnicas que tienen ya muchos años de recorrido y ha compilado un documento de buenas prácticas al respecto. Es decir, la noticia es que la UIT llega tarde a la fiesta, como siempre; pero es que ese es justamente su cometido.

¿Se puede hacer el Mal™ con estas técnicas? Por supuesto. Igual que se puede grabar pornografía infantil con una cámara de vídeo y distribuirla mediante redes P2P, igual que se puede matar a una persona de un ladrillazo, en China, por ejemplo, utilizan estas técnicas en un gran cortafuegos que cercena la libertad de sus ciudadanos. Pero no criminalicemos al cuchillo, sino a quien lo empuña por cómo y para qué lo empuña. No echemos tierra sobre avances científicos que pueden darnos tantas cosas buenas solo porque algunos discurran en cómo emplearlos para satisfacer oscuros intereses.

[Más información: Data deluge motivates ITU standard on Deep Packet Inspection]

Sobre ética farmacéutica

Publicado por Iñaki a las 10:30 Viernes 7 de diciembre de 2012

(Esta anotación se publica simultáneamente en Naukas)

Pongámonos en situación. Una persona sale del médico con sus recetas y un dolor de muelas de los que no dejan dormir (quien dice dolor de muelas, dice cualquier tipo de infección bacteriana que conlleve dolor, mucho dolor). El susodicho encara hacia la farmacia con unas ganas terribles de irse a su casa y tomarse el siguiente chute de ibuprofeno, que tocaba hace una hora pero que no se ha tomado porque estaba en la consulta. En esto que le toca el vendedor con título de Farmacia de turno y le «aconseja» (con veinte comillas): «Mira, este antibiótico es muy fuerte [estamos hablando de amoxicilina], por lo que te va a bajar mucho las defensas y te va a dar diarrea. Yo te aconsejo que te tomes también esto». Redoble de tambores.

«Para favorecer las fisiológicas defensas inmunitarias». Esto lo ha escrito el maestro Yoda.

¿Resultado? El pobre sujeto ni mira lo que compra, se fía del señor serio de bata blanca que hay tras el mostrador; así que venga, padentro que hay prisa por ir a gimotear a otra parte. Así que, mediante mentiras, le acaban de endosar una gran mierda pinchada en un palo por el módico precio de 14,5 euros: un puto complemento dietético.

Sí, me ha pasado hoy a mí, y efectivamente, cuando me pongo malito me vuelvo automáticamente gilipollas, como cualquier hijo de vecino. Por lo menos, dentro de lo que cabe, yo soy un tipo escéptico, y una vez en casa, me he puesto por fin a mirar qué cojones había comprado. Y han saltado todas las alarmas de las dos neuronas que todavía funcionaban. Y he preguntado y me he informado, para llegar a finalmente a la poco agradable conclusión de que me la habían metido doblada. Por lo menos, dentro de lo que cabe, he vuelto allí, me he despachado a gusto y me han devuelto el dinero.

Ahora imaginaos cuántas personas entran allí (aquí, por cierto, una farmacia que está justo al salir de un consultorio médico) y no se hacen tantas preguntas, ni siquiera a posteriori; simplemente se fían de que el señor de bata blanca que hay tras el mostrador está velando por su salud. Multiplicad por 14,5 euros. No voy a preguntar si es ético que esto suceda, porque tengo muy claro que no lo es. Voy a preguntar, en su lugar, ¿es ético que se permita que esto suceda? ¿Es ético que esto no sea denunciable? ¿Es ético, siquiera, que se venda en una farmacia algo que no es un medicamento?

Golpe de gracia al Pamplonetario

Publicado por Iñaki a las 12:17 Viernes 16 de noviembre de 2012

Lo comentaba ayer por Twitter haciendo referencia a las cuentas del Departamento de Educación del Gobierno de Navarra (@NAVeduca) y del Consejero de Educación, José Iribas (@jiribas):

De los 564 000 euros que recibía el Planetario de Pamplona como subvención, se han quedado unos míseros 50 000 según cifras de la filtración en el diario local: podrían ser menos.

Nadie se ha dado por aludido.