Nuestras charlas en Naukas Bilbao 2015

LR-5938_DxOFP

Resaca post-Bilbao (he aquí una divertida crónica fotográfica comentada por nuestro amigo @xurxomar). No sé cómo lo hacemos, pero parece que cada edición es mejor que la anterior. Probablemente parte de la culpa de esta percepción la tendrá el hecho de que la memoria es puñetera, y el recuerdo de hace un año frente al aluvión repentino de percepciones, sociabilización y confraternización es incomparable. Pero estoy seguro que otra parte de la culpa es de los cinco años (5, cinco) de experiencia que cargamos a las espaldas; esto es, que sí, que mejoramos cada año, aunque sea un diferencial de M, siendo M la unidad de mejora. Prueba de ello es que el público va a más. Este año, impresionaba ver la cola que daba la vuelta al edificio una hora antes de empezar algunas sesiones. Dentro, llegó un momento que dejamos de contar las nuevas salas que Iñako Pérez (@Uhandrea) tuvo que abrir y habilitar con el streaming del evento para que la sala principal no colapsara.

Como todos los años, EiTB tiene la amabilidad, voluntad y vocación de servicio público como para grabar el evento que, además de ser retransmitido en tiempo real, queda disponible en su página web. Enlazo por aquí nuestras respectivas charlas (pinchad sobre las imágenes a continuación).

El día que Maxwell no vio el gorila

Replay

Fraude científico

El Cuaderno de Cultura Científica, uno de los blogs de la Cátedra de Cultura Científica de la UPV/EHU, ha publicado esta semana una muy recomendable serie de artículos escritos por Joaquín Sevilla (blog, Twitter) acerca del fraude científico. ¿Existe el fraude científico? ¿Lo podemos cuantificar? ¿Es grave, doctor? ¿Cuáles son las causas? ¿Qué se puede hacer? Estas y otras preguntas, además de un montón de referencias con las que se puede seguir profundizando en el tema, en estos cinco artículos:

¿Por qué no se publican los resultados negativos en ciencia?

Preguntaba @InerciaCreativa en Twitter lo siguiente:

A lo que yo replicaba:

El detalle es fundamental y, si se desea comprender por qué los resultados negativos no se publican, necesario. No es que sea secreto: no es que yo me guarde los resultados negativos para mí; es que, si los envío a una publicación, se rechazan.

Antes de comenzar, para los no familiarizados con esto, cabe preguntarse qué son los resultados negativos y si son importantes. Un resultado negativo sería, por ejemplo, que «tal vacuna que utiliza tal vector y preparada de tal forma no funciona»; o «la técnica x para confinar protones en un acelerador no funciona». ¿Son importantes? Sin duda. Algunos argumentan que tanto como los resultados positivos (i.e., una vacuna que funciona), pero yo no estoy de acuerdo por la sencilla razón de que hay millones de maneras de hacer las cosas mal y, en el mejor de los casos, unas pocas de hacerlas bien. Ahora bien, un equipo científico puede llegar a un resultado negativo siguiendo una vía en principio muy lógica y prometedora y que, por tanto, a otro equipo en otro lugar del mundo se le puede ocurrir explorar en algún momento. Dado que hacer ciencia es caro, la publicación de resultados negativos tiene el potencial de ahorrar muchísimo dinero.

Entonces, ¿por qué no se publican? La versión corta es porque el sistema de valoración de la actividad científica lo desincentiva, al igual que desincentiva otras cosas deseables en las que no voy a entrar en este artículo. Pero para entender el porqué, hay que entender primero cómo funciona este sistema que hemos erigido, uno de los demonios de la ciencia moderna.

El currículo de un científico —al contrario del de cualquier otro profesional, que cuanto más sintético, mejor—, dicho burdamente, se valora al peso: si tiene treinta páginas, mejor que veinte. Dentro de ese peso, destaca el número de publicaciones en revistas científicas importantes. Para decidir qué revistas son importantes, por consenso se toma la clasificación que todos los años elabora la empresa Thomson Reuters. Las revistas reciben un puesto en función de una métrica llamada factor de impacto, y dicha métrica depende fundamentalmente del número de citas que reciben sus artículos.

Por tanto, los científicos quieren aparecer en las revistas importantes y las revistas quieren ser importantes para que los científicos quieran publicar en ellas. Así las cosas, las revistas buscan —y los científicos preparan— artículos de impacto, artículos citables. Y un resultado negativo es muy informativo, pero no es citable. Un artículo podrá decir «hemos utilizado [esta técnica] para producir tal material», pero nunca dirá «no hemos utilizado [esta técnica] ni [esta] ni [esta] ni [esta], porque se reportó que no funcionaban». No tiene sentido.

Desde luego, yo no tengo la solución a este problema, pero la herramienta es clara: de media, lo que se incentiva sucede y lo que se desincentiva, no. En esta y en todas las actividades humanas.

Los reales (y bonitos) fotones

_A1A9480

Es muy bonito (muy muy bonito) plantarse con un papel y una hoja e intentar dirigir con números el lugar donde debe colocarse la luz.

—¡Aquí las ondas se anulan! ¡Por allá giran en círculos! Tráiganme 3,4 kilos de fotones, la trifracción de algún símbolo griego y la junta de la trócola, amén.

Pero lo más bonito (joder, ¡tan bonito!) es que luego pillas un láser, un cacharro hecho de “realidad”, con su consumo ineficiente y sus manchas de tomate de la cena; lo enfocas contra una pared, lo pasas por un agujerillo y ¡el muy real hace lo que decía en el papel!

Es emocionante.