Staging ::: VER CORREOS
Acceder

Rendimientos decrecientes y costes crecientes en una ciencia menguante

Existe la creencia generalizada de que la ciencia y el progreso tecnológico seguirán su avance de forma continua mejorando nuestra calidad de vida y solucionando cualquier problema o situación negativa que se nos plantee en el futuro. Esta creencia, ampliamente sostenida, se denomina tecno-optimismo y se deriva de los increíbles avances de la ciencia y su aplicación tecnológica en los últimos 200 años. La realidad sin embargo es otra, y la ciencia, al igual que el resto del universo del que forma parte, está sujeta a la ley de rendimientos decrecientes.

1. La velocidad de crecimiento de la ciencia

El nacimiento de la ciencia moderna se puede establecer a mediados del siglo XVII con la aparición de las primeras sociedades científicas y el inicio de la costumbre de escribir artículos científicos en vez de libros para comunicar descubrimientos. De acuerdo con diversas medidas de producción científica, como el número de revistas científicas, el número de artículos, o el número de científicos, la ciencia, que crecía con rapidez desde sus inicios, comienza un desarrollo exponencial hacia 1750 que dura ya más de dos siglos y medio.

Figura 1. Medida del crecimiento de la ciencia. A la izquierda según el número de revistas científicas y a la derecha según el número de resúmenes. En ambos casos la escala vertical es logarítmica por lo que un crecimiento constante es exponencial. Fuente: Derek J. de Solla Price, "Little Science, Big Science" Columbia University Press (1965).

El ritmo de crecimiento de la ciencia es asombroso. Cada año el número de artículos publicados y el número de revistas se incrementa en un 3-4 %, y esto ha sido así durante los últimos dos siglos. El tiempo de duplicación es de tan solo 20 años (algo más lento que el calculado por de Solla en 1965, figura 1). La causa es que el número de investigadores ha crecido a un ritmo prodigioso, que en el siglo XXI ha subido al 4-5 % anual gracias al crecimiento de la ciencia en los países en desarrollo, principalmente China. Actualmente hay más de 28.000 revistas científicas en inglés y se publican unos dos millones y medio de artículos científicos cada año. El número de investigadores es variable dependiendo de como se definan, pero según los datos de la UNESCO, extrapolando el crecimiento entre 2007 y 2013, actualmente hay 9,5 millones de investigadores equivalentes a jornada completa en el mundo. Ello hace verdad algo que dijo Derek de Solla Price, el iniciador de la cienciometría, en 1965:

El 90% de todos los científicos que han existido en el mundo están vivos ahora.

Figura 2. La explosión de la ciencia en la segunda mitad del siglo XX. En azul, la financiación en miles de millones de dólares por parte del Instituto Nacional de la Salud (NIH) y la Fundación Nacional de la Ciencia (NSF) de los EEUU. En rosa, el número de doctorados otorgados en EEUU en ciencia e ingeniería. En púrpura, número de artículos en miles publicados. Fuente: The Atlantic.

Esto obviamente ha sido posible porque el dinero que se ha dedicado a la ciencia también ha crecido exponencialmente (figura 2). Según los datos de la National Science Foundation el dinero global gastado en investigación y desarrollo ha crecido en este siglo a una media del 6,75 % anual, con un tiempo de duplicación de 11 años, casi el doble de rápido que el del número de artículos, pasando de 722 mil millones de dólares en 2000 a 1,9 billones en 2015 y estimándose en 2,5 billones de dólares en la actualidad.

2. Los problemas de la ciencia también crecen

Puesto que la financiación crece más deprisa que la producción científica, ello indica que la ciencia se está volviendo más cara al requerirse cada vez más dinero por investigador y artículo, y al mismo tiempo se observa que el número medio de autores por publicación está creciendo desde principios del siglo XX cuando el 80% de los artículos eran de un solo autor, desde entonces el número de firmantes de artículos ha ido creciendo un 17% cada década hasta alcanzar actualmente una media de 5 autores por artículo. Detrás de este incremento en el número de firmantes hay dos causas. Por una parte la ciencia se vuelve progresivamente más difícil y requiere equipos de investigadores más numerosos. Por otra parte la creciente presión por publicar por la dificultad para alcanzar una posición estable de investigador lleva a unir esfuerzos para aumentar las publicaciones. Esta creciente dificultad laboral se manifiesta por ejemplo en que la edad media en la que se obtiene por primera vez un proyecto de investigación del Instituto Nacional de la Salud de EEUU ha subido de 34 a 42 años desde 1970. El desánimo entre los jóvenes científicos por las dificultades para establecer una carrera estable es manifiesto. La ciencia moderna es un esquema piramidal en el que un investigador senior tiene la ayuda de varios investigadores juniors y de un número aún mayor de becarios y estudiantes buena parte de los cuales debe abandonar la ciencia por falta de oportunidades laborales a una edad relativamente avanzada para empezar en el mercado de trabajo tras haber dedicado 5, 10 o incluso 20 años a la ciencia habiendo ganado un salario muy bajo para su nivel de educación. El número de posiciones estables con un salario adecuado en ciencia es mucho menor que el número de investigadores, y crece mucho más despacio.

Figura 3. Edad media de los nuevos investigadores al conseguir su proyecto inicial del Instituto Nacional de la Salud (NIH) de EEUU. Fuente: NIH.

Es obvio que este incremento de la ciencia no es sostenible por mucho que lleve dos siglos sucediendo. La velocidad de crecimiento de la población alcanzó su máximo del 2 % en los años 60, con un tiempo de doblado de 35 años, pero actualmente ha caído al 1,14 %, lo que implica un tiempo de doblado superior a los 60 años, y es dudoso que se duplique de nuevo. El número de científicos no puede seguir doblándose cada 20 años indefinidamente. Con el porcentaje actual de investigadores, una persona de cada 800 a nivel mundial, la ciencia ya acapara el 3 % del PIB mundial (2,5 de 86 billones de dólares) y su presupuesto crece a un 6,75 %, mientras que el PIB lo hace al 2,9 %. Si se mantuviera esa diferencia de velocidad el porcentaje del PIB dedicado a la ciencia se duplicaría cada 20 años y en tan solo 60 años la ciencia acapararía una cuarta parte del producto bruto mundial y en un siglo la totalidad.

De hecho en EEUU, el país líder en ciencia, ya se están dando señales de que hay problemas para seguir creciendo exponencialmente. La investigación biomédica creció muy fuertemente con un presupuesto del Instituto Nacional de Salud (NIH) de EEUU que en 1970 era de 4 mil millones de dólares pasando a ser en 2003 de 28 mil millones de dólares, pero desde entonces se ha estancado, dirigiéndose el incremento de financiación a otras disciplinas que han crecido menos o que están más de moda, como el cambio climático.

Figura 4. Financiación de la ciencia en EEUU con fondos federales en miles de millones de dólares. En el siglo XXI se observa un parón en la financiación biomédica, de ciencias de la vida y ciencias medioambientales. Fuente: (Otro) Vox.

Ello ha provocado una gran angustia entre los investigadores de biomedicina que debido a la naturaleza piramidal de la investigación se habían iniciado en gran número en la disciplina biomédica cuando crecía con rapidez y ahora carecen de oportunidades. La difícil situación se refleja en que el porcentaje de solicitudes de financiación al NIH que tiene éxito ha caído del 30% a casi la mitad, el 18%. Estas solicitudes eran ya tan competitivas que desde los años 90 requieren meses de trabajo para redactarse y meses o incluso años de trabajo de investigación para incluir resultados preliminares que prácticamente aseguren el éxito del proyecto para favorecer su financiación. Las carreras de muchos investigadores se truncan cuando no son capaces de conseguir proyectos financiados y las universidades de EEUU les deniegan la plaza fija y los despiden. En países como el nuestro donde los científicos son funcionarios, los que no tienen financiación consumen recursos (salario y servicios comunes) en muchos casos sin producir nada.

Figura 5. El estancamiento de la financiación del Instituto Nacional de Salud (NIH) de EEUU (area verde) ha vuelto mucho más competitivas las solicitudes de proyectos dificultando grandemente su obtención; en rojo su porcentaje de éxito ha caído al 18 %. Fuente: (Otro) Vox.

La presión por publicar en una profesión que quizá sea la única junto con el deporte en que se compite a nivel mundial ha llevado a una disminución de la calidad de las publicaciones. No solo los investigadores tratan de extraer el máximo número de publicaciones dividiendo un trabajo entre varios artículos (técnica conocida como loncheado del salami) sino que determinadas prácticas parasitarias se han incrementado mucho, como el fraude científico, la publicación mediante pago en revistas depredadoras, y una crisis generalizada de reproducibilidad de resultados, todo ello acompañado de que la mayor parte de los artículos científicos publicados no se los lee casi nadie. De los dos millones y medio de artículos que se publican cada año, el 45 % no ha sido citado por nadie cinco años más tarde, y en torno a un 10-20 % de los que sí han sido citados, lo han sido únicamente por los mismos autores en otros artículos (auto citas). Los científicos tratan de publicitar sus artículos para incrementar su impacto como si fueran coches usados, a través de un uso cada vez más frecuente de palabras positivas en el título o el resumen, y el uso frecuente de la palabra "novedoso" para darle bombo al artículo.

Figura 6. Incremento del marketing en la ciencia. El uso de adjetivos positivos (azul) en el título o el resumen se ha disparado desde mediados de los 80 hasta alcanzar al 20 % de los artículos que se incorporan a la base de bibliografía PubMed. También se ha incrementado mucho el uso de la palabra "novedoso" (gris), mientras que los adjetivos negativos (rojo) no han experimentado un incremento similar. Fuente: (Otro) Vox.

3. La crisis de reproducibilidad

El incremento tan grande en el número y proporción de personas que se dedican a la investigación conlleva inevitablemente un aumento de la mediocridad de los científicos. Parafraseando a la película Ratatouille, hoy en día cualquiera puede investigar. Y todos necesitan publicar. Aunque la falta de reproducibilidad en ciencia siempre ha sido un problema, la voz de alarma sobre los preocupantes niveles que estaba alcanzando la dio John Ioannidis en 2005 con su artículo en PLOS Medicine "Por qué la mayoría de los hallazgos de investigación publicados son falsos", donde decía:

Existe una creciente preocupación de que en la investigación moderna, los resultados falsos pueden ser la mayoría o incluso la gran mayoría de las conclusiones de investigación publicadas. Sin embargo, esto no debería ser sorprendente. Se puede demostrar que la mayoría de los resultados de investigación que se concluyen son falsos. … Además, para muchos campos científicos actuales, los hallazgos de investigaciones que se concluyen a menudo simplemente constituyen una medida precisa del sesgo prevalente.

Ioannidis, J. P. (2005). Why most published research findings are false. PLoS medicine, 2(8), e124.

Por eso no es de extrañar que los científicos climáticos crean que los resultados apoyan una causa exclusivamente humana del calentamiento global. Ese es el sesgo prevalente que dirige la investigación y la publicación hoy en día.

Las compañías farmacéuticas pronto coincidieron en señalar que se estaban gastando fortunas en ensayos clínicos que daban resultados negativos porque se basaban en resultados publicados en revistas prestigiosas que resultaron no ser fiables. El ratio de éxito para ensayos de fase II había caído en unos pocos años del 28 al 14 %. Científicos de Bayer publicaron en Nature Reviews en 2011 que no habían conseguido reproducir el 75 % de los resultados publicados que habían ensayado. En 2012 Amgen seleccionó 53 artículos considerados de referencia y publicó en Nature que solo había conseguido reproducir 6 (11 %).

Pronto el foco se centró en la investigación en psicología, ya sospechosa de por sí. En 2015 el mayor estudio de reproducibilidad en psicología hasta la fecha se publicó en Nature. 270 investigadores intentaron reproducir 98 artículos originales de 3 revistas de psicología y solo lo consiguieron en algo más de un tercio de los casos.

En 2015 Nature llevó a cabo una encuesta entre 1.576 investigadores de diversos campos, y el resultado fue que el 70 % de ellos tenían experiencia en haber fallado en replicar algún resultado publicado por otros investigadores, y que el 90 % de ellos consideraba que había una crisis de reproducibilidad, y más de la mitad pensaba que era una crisis seria. El problema afectaba a todos los campos, aunque algunos más que otros.

Figura 7. Encuesta de Nature sobre la crisis de reproducibilidad. El 90 % de los encuestados respondió que hay una crisis de reproducibilidad, que el 52 % considera seria. Tan solo un 7 % cree que no hay crisis. Fuente: Signs of the Times.

Subyacente a la crisis de reproducibilidad está el sistema de revisión por pares, en el que los artículos son revisados anónimamente y de forma voluntaria sin cobrar por dos o más científicos conocedores del campo antes de ser aceptados, que está claro que no funciona. La ciencia que se publica tras pasar esos filtros es en promedio de baja calidad e irreproducible, es decir falsa. Ello revela el serio problema de que entre el 50 y el 85 % del dinero que se invierte en ciencia se está malgastando (Chalmers & Glasziou, 2009). La sociedad no está obteniendo el rendimiento esperado a cambio del dinero que invierte en ciencia.

4. Prácticas deshonestas

Solapando con el problema de irreproducibilidad está el problema del fraude científico que está mucho más extendido de lo que a los científicos les gusta admitir y es responsable de parte de esa irreproducibilidad. Una encuesta anónima de 140 becarios del MD Anderson Cancer Center de Houston ha revelado que el 40 % habían sido presionados para producir resultados "positivos" incluso cuando los datos no los apoyaban (Boulbes et al., 2018). Yo personalmente fui testigo de como una compañera que había estado intentando durante meses conseguir sin éxito un resultado importante para una publicación, lo consiguió de un día para otro tras una fuerte bronca del jefe, y sé que ese artículo que finalmente se publicó en la mejor revista del campo es fraudulento e irreproducible. El fraude está extendido en ciencia porque el científico tiene la motivación de publicar para afianzar su carrera, tiene los medios y la oportunidad porque es el único que controla los datos y la forma de obtenerlos, y a menudo se autojustifica en que "sabe" que la hipótesis es buena y solo es cuestión de poner los datos que "deberían" salir pero se empeñan en no salir. El fraude científico medianamente bien hecho no puede detectarse y pasa a engrosar la lista de irreproducibilidad. Si alguien apunta en el cuaderno datos distintos de los que da el aparato o cambia las muestras eso no se puede probar. El fraude científico solo se hace público cuando alguien le coge el gusto y se le va la mano cometiendo chapuzas. En España tenemos algunos casos famosos como el de Susana González López, una investigadora del CSIC de brillante carrera, que tras obtener su plaza fue contratada en el Centro Nacional de Investigaciones Cardiovasculares como jefa de grupo y recibió un proyecto de la Unión Europea de 1,86 millones de euros para investigación en regeneración cardíaca. En 2014 Susana fue denunciada por un coautor por reutilizar imágenes como si fueran resultados de experimentos distintos. En la investigación resultante Susana alteró la fecha y el contenido de correos electrónicos que aportó como pruebas en su defensa, lo que fue descubierto. Por el momento 5 de los artículos de Susana han sido retractados, y el proyecto de la UE fue cancelado. Susana fue despedida del CNIC, recurrió a los tribunales y perdió, pero como tiene plaza en propiedad se reintegró al CSIC donde supongo que continúa cobrando su sueldo todos los meses. El coautor que la denunció, que no tenía plaza de funcionario, denunció en la prensa que las peores repercusiones habían sido para él.

La picaresca española también tiene su sitio destacado en un análisis del fraude científico. Artemi Cerdà, catedrático de Ciencias del Suelo en la Universitat de València ha sido acusado por la Unión Europea de Geociencias de manipular su curriculum organizando un "cártel de citas" aprovechando que era editor de tres revistas. Artemi solicitaba a los autores de muchos de los artículos que editaba incluir una serie de referencias entre las que estaban las suyas y las de sus amigos. Con ello sus índice de citaciones se iban por las nubes. Le descubrieron porque como efecto secundario también se disparó el factor de impacto de una de las revistas de la que era editor donde él y sus amigos publicaban con frecuencia, lo que llamó la atención de las revistas competidoras. El presidente del Comité de Publicaciones de la Unión Europea de Geociencias calificó la manipulación de considerable, pero aparte de hacerle dimitir como editor no podían hacer más porque este tipo de corrupción es perfectamente legal.

También es legal publicar en revistas depredadoras. El negocio de las editoriales científicas es uno de los más lucrativos del planeta. Los contribuyentes financian con sus impuestos la investigación y pagan el tiempo que dedica el científico a escribir sus artículos. Las editoriales científicas cobran por publicar el artículo a los autores del dinero de su proyecto, por lo que los contribuyentes vuelven a pagar. Después las editoriales cobran a las bibliotecas de universidades y centros de investigación y a los científicos por suscribirse a las revistas y poder acceder a la literatura científica con un precio altísimo que a menudo se negocia a nivel de país, por lo que los contribuyentes pagan por tercera vez. Y por último si los contribuyentes quieren leer ellos mismos algún artículo tienen que pagar por acceder a él por internet. En total los contribuyentes pagan la ciencia publicada cuatro veces y las editoriales científicas tienen unos márgenes de beneficios que avergüenzan a Apple. Algunas revistas todavía tienen versión en papel, pero la mayoría son solo electrónicas, y el coste de editar una revista en internet es ínfimo, por lo que semejante pastel ha atraído a empresarios de pocos escrúpulos que montan negocios con multitud de revistas "depredadoras' que fingen ser científicas y tratan de atraer a científicos incautos o desesperados bombardeándolos con solicitudes de artículos. Viven de cobrar a los autores bien de su proyecto o de su bolsillo y publicarán cualquier cosa que se les envíe. Todas tienen nombres muy científicos y algunas fingen hacer revisión por pares, pero a menudo el revisor es una simple secretaria que sugiere alguna corrección ortográfica. Por supuesto hay quien engorda su expediente publicando en estas revistas para sacarse la plaza, como Josué Gutiérrez en el departamento de sociología de la Universidad de La Laguna, aunque en este caso su contrincante Aníbal Mesa presentó alegaciones a la comisión que fueron atendidas.

Los artículos en revistas depredadoras pasaron de 53.000 en 2010 a 420.000 en 2014, según un estudio de 2015, lo que muestra la magnitud del problema, porque ya constituyen más de un 15 % de los artículos publicados, atrayendo sobre todo a científicos de Asia y África. Y estas revistas publican literalmente cualquier cosa. David Mazières y Eddie Kohler crearon un artículo con la frase "Quítame de tu jodida lista de correo" repetida múltiples veces para mandarlo a las solicitudes no deseadas de participaciones en conferencias, y Peter Vamplew lo cogió prestado para mandarlo al International Journal of Advanced Computer Technology, una revista depredadora, en respuesta al spam que recibía. Para su sorpresa el artículo fue aceptado, con un revisor anónimo calificándolo de excelente, al tiempo que le pedían $ 150 por publicarlo. Nadie llegó a leer el artículo, ni siquiera el título, todo el proceso se hace de forma automática por ordenador.

Figura 8. El artículo enviado a una revista depredadora que fue aceptado para su publicación, aunque los autores finalmente decidieron no publicarlo y no pagaron, quizá para evitar que figurara en su índice de publicaciones. Fuente: David Mazières, Stanford Computer Science Department.

Todas estas tendencias son extraordinariamente preocupantes y muestran que en cualquier actividad donde hay mucho dinero, una fuerte motivación y poco control florecen el fraude y la corrupción, y la ciencia no es una excepción. La ciencia tiene los problemas inherentes a toda actividad humana, como la iglesia o los partidos políticos, y no hay ningún motivo por el que tengamos a los científicos envueltos en un aura de prestigio, o peor aún que dejemos que decidan en nombre de la sociedad políticas críticas, como las energéticas, como sucede con un grupo de científicos climáticos.

5. El estancamiento de la ciencia

Con todo, la crisis de reproducibilidad en ciencia, la baja calidad generalizada de la producción científica y la dificultad para controlar el fraude no son los peores problemas de la ciencia, y son susceptibles de mejoría con un cambio de sistema y una mejor gestión y control. El problema más grave de la ciencia no tiene solución y es que está sujeta a la ley de rendimientos decrecientes, por lo que cada vez produce menos avance en relación a los recursos que se dedican.

En 1996 el escritor de Scientific American John Horgan publicó un libro muy controvertido "El fin de la Ciencia. Los límites del conocimiento en el declive de la era científica". Es un libro de entrevistas donde preguntaba a científicos famosos sobre el futuro de la ciencia y las posibilidades de que se realicen descubrimientos tan significativos como los del pasado. Horgan utilizaba sus respuestas para apoyar su tesis de que la ciencia no volverá a producir nuevos avances del conocimiento tan profundos como la evolución por selección natural, la doble hélice, el Big Bang, la teoría de la relatividad o el modelo estándar de la mecánica cuántica, porque ya se ha descubierto casi todo el conocimiento fundamental que está a nuestro alcance, y lo que queda es el trabajo de refinar, extender y aplicar el conocimiento obtenido. Los científicos obviamente recibieron muy mal el libro, que en realidad es muy subjetivo y criticable, señalando que en el pasado hubo gente que pensó lo mismo y estuvo equivocada. La famosa cita “No hay nada nuevo que descubrir en física ahora. Todo lo que queda es una medición cada vez más precisa", atribuida a William Thomson, Lord Kelvin, fue en realidad pronunciada por Albert Michelson en una charla en 1894.

Sin embargo la tesis de Horgan no se puede rechazar porque alguien estuviera equivocado en el siglo XIX. Tampoco se puede descartar poniendo ejemplos de grandes descubrimientos recientes, porque si la ciencia está sujeta a la ley de rendimientos decrecientes ello no quiere decir que no se vayan a producir grandes descubrimientos, sino que costará mucho más alcanzarlos y serán menos frecuentes, y esta tesis sí es susceptible de ser analizada. Hace décadas que las investigaciones sugieren que la carga del conocimiento se incrementa con el tiempo, que se incrementa la edad a la que los investigadores completan sus doctorados, solicitan su primera patente, la frecuencia de postdoctorados necesarios para alcanzar una posición, indicando que cada vez cuesta más transitar el camino que lleva a las fronteras de la ciencia donde se realizan los descubrimientos. En 2005 Benjamin Jones del National Bureau of Economic Research (NBER) escribió un artículo analizando las estadísticas de patentes de los EEUU titulado "La carga del conocimiento y la "muerte del hombre del renacimiento": ¿se está haciendo más difícil la innovación?" Jones muestra que la relación de patentes a número de investigadores ha caído un 50 % en 30 años (1975-2005), consistente con el aumento del número de firmantes por patente. El aumento de la carga del conocimiento explica la tendencia a una mayor especialización y al requerimiento de un mayor nivel educativo que conducen a una mayor edad antes de realizar contribuciones significativas y a un incremento del tamaño de los equipos que refleja una disminución de la productividad científica.

Esta disminución de la productividad va acompañada de un fuerte encarecimiento de la obtención de resultados. Ya hemos visto más arriba que la proporción de ensayos clínicos que tienen éxito ha descendido drásticamente en los últimos años. En 2012 Jack Scannell y colaboradores publicaron su artículo sobre el declive de la eficiencia de la investigación y desarrollo en la industria farmacéutica:

Scannell, Jack W., et al. "Diagnosing the decline in pharmaceutical R&D efficiency." Nature reviews Drug discovery 11.3 (2012): 191.

En él demostraban que el número de nuevos medicamentos aprobados por cada mil millones de dólares gastados en I+D, ajustados a la inflación, se ha reducido a la mitad aproximadamente cada 9 años desde 1950, cayendo alrededor de 80 veces. Lo denominaron la ley de Eroom, por ser opuesta a la ley de Moore.

Figura 9. Caída exponencial en la productividad de I+D en la industria farmacéutica mundial. Número de nuevas moléculas aprobadas por la Food & Drug Administration (FDA) en Farma y Biotec por cada mil millones de dólares de gasto en I+D global. La escala vertical es logarítmica. En los años 50, mil millones de dólares (a precio constante) eran capaces de producir más de 60 nuevas drogas, cuando hoy producir una ya cuesta más. Figura de Scannell et al., 2012 actualizada por el autor. Fuente: Soft Machines.

De hecho, la propia ley de Moore, enunciada por Gordon Moore, cofundador de Intel, que indica que el número de transistores en un microprocesador se duplica cada 2 años, se ha puesto como ejemplo de tecno-optimismo.

Figura 10. La ley de Moore. Número de transistores en los circuitos integrados de los chips entre 1971 y 2018. Fuente: Our World in Data.

Sin embargo Bloom y colaboradores del NBER han mostrado que para conseguir esa velocidad de crecimiento exponencial a un ritmo constante de incremento del 35 % anual, el número de investigadores requerido ha tenido que multiplicarse por 18, por lo que se puede decir que duplicar el número de transistores en un microprocesador es hoy 18 veces más difícil que en 1970. El propio Moore dijo que el coste de cumplir su ley también crecería exponencialmente, lo que se conoce como la segunda ley de Moore o ley de Rock, que dice que el coste de una fábrica de microprocesadores se dobla cada 4 años y en 2015 había alcanzado ya los 14 mil millones de dólares.

Figura 11. Incremento del esfuerzo investigador para cumplir la ley de Moore. En azul el ritmo de crecimiento constante del número de transistores en un microprocesador que da como resultado una duplicación cada dos años. En verde el número efectivo de investigadores necesario para conseguirlo, medido a partir de los gastos en I+D de las 30 marcas principales de semiconductores divididos por el salario medio de un investigador. Fuente: Bloom et al., 2019.

Y parece que la ley de Moore ya no se aplica. A Intel le ha costado bastantes más de dos años desarrollar su proceso de 10 nm (similar al 7 nm de Samsung) que inicialmente anunció para 2015, y aunque ahora anuncia un mapa de recorrido que lleva a 1,4 nm para 2029 ello resulta extremadamente difícil de creer. No solo el límite teórico anda por los 3 nm, cuando los efectos cuánticos empiezan a hacer de las suyas, sino que algunos expertos, como el CEO de Nvidia Jensen Huang, opinan que la ley de Moore está muerta. Está claro que si no lo está, pronto lo estará.

En cuanto al desarrollo de las tecnologías de la información, se hace necesario mencionar la paradoja de la productividad, o paradoja de los ordenadores de Solow, quien en 1987 comentó que la era de los ordenadores era visible en todas partes excepto en las estadísticas de productividad, refiriéndose al sorprendente hecho de que los avances e inversiones en las tecnologías de la información de los años 70 y 80 coincidían con un menor crecimiento de la tasa de productividad en los EEUU.

6. Detectando y midiendo el decreciente rendimiento de la ciencia

El avance científico y tecnológico de la humanidad se ha ido enlenteciendo.  Esta tesis es fácil de demostrar.

En el periodo de 70 años que va de 1880-1950 la gente de clase media alta urbana de un país avanzado vivió el progreso en sus hogares en forma de agua corriente, iluminación por gas, horno, máquina de lavar manual, telegrafía, fotografía, tren, electricidad, teléfono, nevera, lavadora eléctrica, aspiradora, máquina de coser, coche, vacunas, tranvías, cine, calentador de agua, radiadores, congelador, cámara fotográfica, radio, antibióticos, viajes en avión, lavaplatos, televisión y películas domésticas. Una persona de 1880 llevada a 1950 no entendería casi nada porque la mayoría de las cosas no existían.

Entre 1950 y 2020, otros 70 años, apareció el microondas, la televisión se volvió en color, es posible recibir un transplante, se viaja en avión a reacción, se pueden grabar y reproducir imágenes digitales, hay teléfonos móviles, ordenadores personales e internet, se han desarrollado las técnicas de imagen en medicina y han aparecido las redes sociales. Una persona de 1950 vería la mayoría de los cambios en 2020 como mejoras de lo que ya había. En general se le ha puesto un procesador a todo lo que lo puede llevar y se ha potenciado la comunicación, pero ni coches voladores, ni ciudades en el espacio, ni robots domésticos. Es incluso posible que alguien de 1950 se sintiera decepcionado con los avances obtenidos hasta 2020.

Jonathan Huebner hizo esto mismo que he hecho yo de una forma más sistemática y llega al mismo resultado en su artículo: "Una posible tendencia decreciente para la innovación mundial".

Huebner, J. (2005). A possible declining trend for worldwide innovation. Technological Forecasting and Social Change, 72 (8), 980-986.

Huebner se basa en el libro "The History of Science and Technology" de Bryan Bunch y Alexander Hellemans, que es una base de datos de descubrimientos e invenciones desde el principio de la humanidad hasta el 2003 que contiene 8.583 eventos importantes, de los que él utiliza los 7.198 que tuvieron lugar desde 1450 para calcular la tasa de innovación, definida como el número de desarrollos tecnológicos importantes por año dividido por la población mundial, que luego agrupa por décadas. Según esta metodología la tasa de innovación alcanzó su máximo en 1873 iniciando un rápido declive, y solo el fuerte aumento de población y recursos permitió que el siglo XX tuviera más innovaciones que el XIX.

Figura 12. Evolución de la tasa de innovación entre 1450 y 2000. Fuente: Huebner 2005.

Huebner asume que lo que limita la tasa de innovación es el creciente coste económico (recursos materiales y humanos) de los descubrimientos y no un límite físico de la ciencia, y puesto que el número de eventos tecnológicos por año es el producto de la población por la tasa de innovación, la integración de dicho producto con respecto al tiempo permite calcular el porcentaje del límite económico de la innovación que se ha alcanzado en cada momento. Huebner defiende que hemos alcanzado el 90 % del límite económico de la innovación, y que el 100 % se debería alcanzar antes de finales de siglo, lo que supondría que la tasa de innovación alcanzaría el valor cero y cesaría el progreso tecnológico. Por supuesto se trata de un cálculo poco fiable, que de entrada depende de la calidad y homogeneidad de la base de datos de descubrimientos utilizada, así como del ajuste gaussiano que realiza el autor a los datos. Pero la caída de la tasa de innovación parece ser un hecho indiscutible como apoyan todas las investigaciones presentadas en este artículo.

Bloom y colaboradores llegan a un resultado similar utilizando la productividad total de los factores (TFP), el remanente de la tasa de producción no explicado por la tasa de los factores (trabajo, capital, otros) como medida de la producción científica, dado que la mejora tecnológica es uno de los factores que más contribuyen al TFP. Su artículo para el NBER se titula "¿Son las ideas cada vez más difíciles de encontrar?" A partir de aquí lo denominaremos BJVW2017.

Bloom, N., Jones, C. I., Van Reenen, J., & Webb, M. (2017). Are ideas getting harder to find? (No. w23782). National Bureau of Economic Research.

BJVW2017 muestran evidencia desde campos muy diversos de que el esfuerzo de investigación se está incrementando considerablemente, mientras que la productividad de la investigación declina fuertemente.

Figura 13. Evolución del número de investigadores (verde) y de la productividad de la investigación (azul) en EEUU. La productividad se obtiene dividiendo el crecimiento del TFP por el número de investigadores. Fuente Bloom et al., 2017.

En agricultura la productividad de la investigación ha caído por un factor de cuatro entre 1970 y 2007 en EEUU debido a que la productividad total de los factores agrícolas cayó a la mitad, mientras que el número efectivo de investigadores se duplicó.

Figura 14. Tasa de crecimiento de los factores totales de productividad (TFP) para el sector agrícola (azul) e incremento en el número de investigadores del sector agrícola (verde), calculado dividiendo el gasto en I+D público y privado del sector agrícola por el salario medio de un investigador. Fuente: Bloom et al., 2017.

A partir de la esperanza de vida al nacer, que ha ido creciendo de forma prácticamente lineal desde 1900, y de los datos de mortalidad específica por enfermedad, BJVW2017 calculan los años de vida salvados por año debidos al descenso de la mortalidad por determinadas enfermedades, que atribuyen al progreso médico, y lo comparan con el esfuerzo investigador medido por las publicaciones que mencionan la enfermedad como palabra clave, y las que son informes de ensayos clínicos para esa enfermedad. En el caso de todos los tipos de cáncer, la tasa de mortalidad ha ido cayendo desde 1975, pero lo ha hecho con forma sigmoide, más acelerada entre mediados de los 80 y mediados de los 90, lo que se traduce en que los años de vida salvados alcanzaron un máximo a finales de los 80. La productividad investigadora resultante de dividir los años de vida salvados por el esfuerzo investigador muestra un claro decrecimiento desde 1990.

Figura 15. Mortalidad (azul, izquierda), años de vida salvados (verde, izquierda) y productividad de la investigación biomédica medida en número de publicaciones (azul, derecha) y número de publicaciones reportando ensayos clínicos (verde, derecha) para todos los tipos de cáncer. El máximo de años de vida salvados se alcanzó a finales de los 80, y desde entonces la productividad de la investigación biomédica en cáncer está cayendo. Fuente: Bloom et al., 2017.

BJVW2017 analizan también la producción industrial, y su conclusión tras todos estos análisis demuestra una vez más que cada vez resulta más difícil mantener la tasa de progreso científico, y al ser los resultados consistentes en diversas áreas de la ciencia y la tecnología concluyen que "las ideas, y el crecimiento exponencial que implican, son cada vez más difíciles de encontrar. El crecimiento exponencial resulta de grandes aumentos en el esfuerzo de investigación que compensan la disminución de la productividad investigadora." Constituye una definición de la ley de rendimientos decrecientes.

7. Es improbable que haya otro Einstein

Patrick Collison y Michael Nielsen pidieron a 93 físicos de los mejores departamentos de física según un ranking de universidades que juzgaran y puntuaran la importancia de 1.370 descubrimientos que merecieron el Premio Nobel de física desde 1900 y tabularon las respuestas por décadas de acuerdo al año del descubrimiento, no del premio. La puntuación final de una década corresponde a la probabilidad de que un descubrimiento de esa década se considere más importante que los descubrimientos de otras décadas.

Figura 16. Probabilidad de que un descubrimiento realizado en una década merecedor del Premio Nobel en física sea considerado más importante por un panel de 93 físicos que otro descubrimiento que recibió el mismo premio realizado en otra década. Fuente: The Atlantic: Science Is Getting Less Bang for Its Buck.

El resultado manifiesta que la edad de oro de la física tuvo lugar entre 1910 y 1940. Fue cuando se descubrió la mecánica cuántica, la cristalografía de Rayos X que permite mirar al mundo de los átomos, el neutrón, la antimateria y mucho de lo que se sabe de la radiactividad y las fuerzas nucleares. A partir de entonces tuvo lugar un declive significativo, con un repunte importante en los 60 debido a dos descubrimientos, la radiación de fondo cósmica de microondas y el modelo estándar de partículas. A pesar de ello los físicos consideraron los descubrimientos de todas las décadas desde 1940 hasta 1990 como menos importantes que los de cualquiera de las tres décadas entre 1910 y 1940. La gráfica se ve obligada a terminar en 1990 porque en los últimos años el Comité Nobel ha preferido premiar trabajos realizados en los 70 y los 80 y solo tres trabajos desde 1990 han sido premiados, lo que no permite un dato fiable. El hecho de que el Comité no esté premiando trabajos realizados desde 1990 y prefiera trabajos de los 70 y de los 80, que tampoco muestran una alta puntuación es muy mala noticia para la física.

La misma encuesta fue hecha para la química y la biomedicina, donde los resultados son algo mejores con un incremento en la segunda mitad del siglo XX, pero no mucho, y de nuevo se observa que las tres últimas décadas reciben muy pocos premios. A pesar del tremendo incremento de los recursos dedicados a la investigación a lo largo de los últimos cien años los grandes descubrimientos no están llegando más deprisa sino al contrario. Los físicos atacan esta conclusión diciendo que se han hecho grandes descubrimientos recientes como el bosón de Higgs y las ondas gravitacionales. Sin embargo esos descubrimientos son destacables porque nos retrotraen a otra época anterior cuando tales descubrimientos eran más habituales.

También vemos que la dificultad de realizar grandes descubrimientos se está incrementando. En los primeros años del Premio Nobel la edad media del premiado cuando hizo el descubrimiento que le valió el premio era de 37 años. En los últimos años esa edad media ha subido a 47 años. Los científicos necesitan una cuarta parte más de su carrera profesional para llegar a la cima. Ernest Rutherford publicó el descubrimiento del núcleo del átomo como autor único, mientras que los dos artículos de 2012 que anunciaron el descubrimiento del bosón de Higgs tenían 2.915 y 2.890 autores cada uno.

8. Tirando el dinero en ciencia

Cuando nos enfrentamos a una situación de retornos decrecientes es muy importante reconocerlo para asegurarse de que las inversiones tienen un retorno adecuado. Los recursos que se dedican a la investigación no se dedican a atender las necesidades de la población y la creencia generalizada de que la ciencia progresa más deprisa que nunca y es necesario dedicar más y más recursos para no perder el tren del progreso quizá no sea la postura más inteligente.

Volviendo a la física, que es la más madura de las ciencias y por tanto la que menores retornos presenta, observamos un claro ejemplo de mínimos retornos obtenidos tras una inversión enorme, el Gran Colisionador de Hadrones (LHC). El Modelo Estándar de la física de partículas se desarrolló en los años 60 y se concluyó a mediados de los 70 tras la confirmación de la existencia de los quarks. La validez del modelo estándar ha sido confirmada en multitud de experimentos incluyendo los descubrimientos del quark top (1995) y el neutrino tau (2000). Sin embargo el modelo estándar tiene fuertes limitaciones al no incorporar la gravitación universal y la masa del neutrino, y no tener nada que decir sobre la materia y la energía oscuras. Pero salvo que se encuentre una puerta más allá del modelo estándar la física de partículas está esencialmente tan acabada como la tabla periódica de los elementos y la tan deseada unificación de lo muy grande y lo muy pequeño en una sola teoría no será posible. Para buscar esa puerta se construyó entre 1998 y 2008 el LHC con un coste de 6 mil millones de euros, y el aparato tiene un coste operativo de unos mil millones de euros anuales. Solo en electricidad gasta más de 20 millones de euros al año. El coste de encontrar el bosón de Higgs superó los 12 mil millones de euros. Pero el bosón de Higgs lo único que hace es confirmar una vez más el modelo estándar. Ya se suponía que existía desde el descubrimiento de los bosones W y Z en 1983, y se le ha encontrado exactamente en el nivel energético donde se le esperaba encontrar.

Tras varios años funcionando a plena potencia y unos 20 mil millones de euros gastados el LHC ha fracasado en encontrar indicios de una nueva física y solo ha servido para requeteconfirmar el modelo estándar. El último anuncio triunfalista, que el decaimiento del bosón de Higgs también sigue el modelo estándar, también esconde ese fracaso. El LHC ha sido un carísimo ejercicio de confirmación de algo que ya se sabía y no ha producido ciencia nueva de importancia. Es improbable que se construya un acelerador de partículas mayor que el LHC puesto que los costes no son proporcionales a la longitud sino que crecen de forma no lineal. De los 20 mil millones de euros gastados y en general malgastados en el LHC, unos dos mil millones los puso España a través de su contribución al CERN.

9. Errando el camino en ciencia

La física lleva unos 40 años sin lograr un gran avance a pesar de saberse que nuestra comprensión del universo es incompleta porque los modelos confirmados no explican las observaciones. La respuesta de los científicos cuando no logran grandes avances parece ser inventárselos. En los años 60 y 70 se había desarrollado de forma marginal una extraña teoría que explicaba la materia y la energía como aspectos de la vibración de unas cuerdas a través de múltiples dimensiones. A partir de 1984 la teoría de cuerdas se volvió muy popular por su capacidad para explicar todas las partículas y sus interacciones, atrayendo a multitud de investigadores. Pronto hubo diferentes teorías de cuerdas cada una con múltiples dimensiones, pero al parecer las cuerdas dejaban de existir al llegar a la undécima dimensión donde en vez de cuerdas hay membranas. En 1994 las diferentes teorías se unificaron en la Teoría-M que es 11-dimensional. A partir de entonces la teoría de cuerdas se convirtió en la teoría dominante, atrayendo la mayor parte de la financiación y dominando la mayoría de los departamentos académicos hasta convertirse según sus defensores en la única teoría viable.

Esto recuerda mucho a cómo la hipótesis del CO2 se ha convertido en la dominante en la ciencia del clima y la falta de financiación y la presión académica reducen el desarrollo de cualquier alternativa hasta convertirse en la única hipótesis viable según sus defensores. Después empiezan los problemas.

En el caso de la teoría de cuerdas el problema es que no predice nada que se pueda testar. Según la teoría hay al menos 10^500 (sí, un 10 y 500 ceros) universos distintos (el multiverso) y entre ellos algunos muy parecidos y otros muy distintos, y el que nos ha tocado es como es. Es un callejón sin salida, una teoría filosófico-matemática sin ningún contacto con la realidad y empieza a crecer entre los físicos teóricos que no se han casado con esa teoría la sospecha de que centenares de las mentes más brillantes del planeta durante dos generaciones de físicos han desperdiciado sus carreras en una teoría que no es científica. Eso es lo que defiende la física Sabine Hossenfelder en su libro "Perdidos en las matemáticas Cómo la belleza confunde a los físicos."

Los físicos, cuando piensan en los agujeros negros o predicen descubrimientos en el CERN, creen que las mejores teorías son hermosas y elegantes, y por eso no hemos visto un gran avance en los fundamentos de la física en las últimas cuatro décadas. La creencia en la belleza se ha vuelto tan dogmática que entra en conflicto con la objetividad científica: la observación no ha podido confirmar teorías como la supersimetría o la gran unificación, desarrolladas por físicos basados en criterios estéticos; peor aún, estas teorías «demasiado buenas para no ser ciertas» son en realidad imposibles de probar y han dejado el campo en un callejón sin salida. Para escapar, los físicos deben repensar sus métodos. Solo abrazando la realidad tal como es, la ciencia puede descubrir la verdad. ¿Acaso creer no es algo que un científico no debería hacer nunca?

El premio Nobel Robert Laughlin, y los físicos Peter Woit y Lee Smolin han escrito también un libro cada uno criticando que la teoría de cuerdas es errónea y estéril, y el nivel de discusión ha llegado al punto de que frente a las acusaciones de que dicha teoría no entra dentro de lo que constituye ciencia, los defensores de las cuerdas pretenden que se cambie la definición de ciencia. Tanto es así que en 2014 George Ellis y Joe Silk publicaron un artículo en Nature defendiendo el método científico y la integridad de la física, diciendo que "Los intentos de eximir las teorías especulativas del Universo de la verificación experimental socavan la ciencia".

Entre tanto John Horgan, el escritor de "El fin de la ciencia" del que hablábamos más arriba, ha ganado una apuesta de 2.000 dólares que hizo en 2002 con el físico Michio Kaku de que antes del 2020 ni la teoría de cuerdas ni ninguna teoría unificada de la física habría ganado un premio Nobel.

10. Cuando la realidad se ajusta a la teoría y no al revés

Ya en 1884 Lord Kelvin aventuraba la existencia de cuerpos oscuros para explicar la discrepancia entre la masa estimada de la galaxia y la masa de las estrellas visibles. Pronto a la masa de estos cuerpos oscuros se le llamó materia oscura. En los años 70 y 80 la comunidad de astrofísicos llegó a la convicción de que un gran número de observaciones, como la velocidad de rotación de galaxias y grupos de galaxias, así como la magnitud de la lente gravitacional y la velocidad de las galaxias más lejanas solo podían explicarse por la existencia de mucha más materia de la que se podía observar. Sin embargo la luz proveniente de las galaxias más lejanas no parecía interactuar con toda esa materia que debía constituir el 85 % de la materia del universo. Tanta materia y que no interactuase con la luz no se podía encajar en el tipo de materia conocida, la materia bariónica (protones y neutrones), así que se inventó un nuevo tipo de materia no-bariónica compuesta por partículas imaginarias, lo que demuestra que realmente no hay límites a lo que los científicos son capaces de creer siempre que apoye la hipótesis más popular. Son mucho más escépticos con las hipótesis desfavorecidas.

El problema es que 35 años más tarde y tras incontables experimentos y miles de millones de dólares gastados no han sido capaces de encontrar evidencia de que las partículas de materia oscura existan. Ya sé que esto suena extraño para los que siguen la ciencia a través de los medios, pero tras más de tres décadas no se ha demostrado que la materia oscura y su alter ego la energía oscura existan, y siguen a día de hoy siendo producto de la imaginación de los científicos. Y como la materia oscura es inventada su ajuste a la teoría es muy bueno. Obviamente se inventa con las propiedades adecuadas. Sin embargo la teoría de la materia oscura tiene serios problemas para explicar algunas observaciones. Un estudio de 2016 reveló que la gravedad calculada en galaxias de muy distintas características era siempre proporcional a la gravedad calculada para la materia visible y es muy difícil explicar esa proporcionalidad en galaxias muy distintas que tienen masas y formas muy diversas suponiendo que la materia visible y la oscura son independientes. La teoría de la materia oscura también falla en explicar los núcleos galácticos, donde predice picos de densidad que las observaciones desmienten, predice muchas menos galaxias enanas de las que se observan, y falla en predecir cómo las galaxias que tienen galaxias satélites se alinean con ellas en un plano. Sabine Hossenfelder y Stacy McGaugh explican todos estos problemas en un artículo titulado "¿Es la materia oscura real?" en Scientific American (versión escaneada) mientras defienden una de las teorías alternativas basada en modificar la relatividad general. El comportamiento de la gravedad ha sido bien estudiado a la escala del Sistema Solar, pero su validez a las escalas galáctica y cosmológica no está tan bien probada. Modificando la relatividad general se podría eliminar la necesidad de la materia oscura que tanto elude nuestra detección.

Y lo que pone más nerviosos a los miles de científicos que han construido sus carreras con la materia y la energía oscuras es la posibilidad de que simplemente estemos usando mal la ecuación de la relatividad general. Para trabajar con la masa de una galaxia no es posible usar la masa de cada cuerpo en su posición, así que se trabaja con una media, promediando la estructura. Pero la ecuación de la relatividad general es no-lineal y al promediar ambos lados de la ecuación cometemos un error porque el promedio de la función de una variable no es lo mismo que la función del promedio de una variable. Ese error se asume pequeño pero podría ser lo suficientemente grande como para alterar el valor de la constante cosmológica y eliminar la necesidad de la materia oscura. Un pequeño grupo de físicos está intentando que se le dé importancia al problema del promediado, y Sabine Hossenfelder manifiesta en su blog su acuerdo, sin embargo los defensores de la materia oscura no están dispuestos a que les arruinen la fiesta, y son mayoría.

11. Conclusiones

El 90 % de los científicos que han existido están vivos hoy, pero los mayores descubrimientos fueron realizados por el 10 % que no lo está. Cuando se trabaja con un problema de rendimientos decrecientes, el arrojar más dinero disimula el problema durante un tiempo, pero cuando la situación se vuelve insostenible y es necesario recortar la inversión, el problema se multiplica de golpe. No podemos esperar que el progreso de la ciencia y la tecnología resuelvan la seria situación energética a la que nos enfrentaremos en un futuro próximo. A pesar de ser una creencia central para la mayoría, el tecno-optimismo no está justificado por la evidencia.

Por otra parte, a pesar del enorme incremento en financiación, y en respuesta a la creciente dificultad para producir avances significativos, la ciencia se está volviendo menos fiable, inmersa en una crisis de reproducibilidad que esconde un extendido fraude de bajo nivel. Es un problema adicional al que los propios científicos no saben ni quieren enfrentarse por el problema reputacional que les causa. Para que la sociedad se enfrente a ese problema es necesario que se haga consciente de él, lo que viene dificultado por el injustificado prestigio de los científicos en la sociedad, acostumbrada a que la ciencia sea utilizada por intereses políticos y económicos como una especie de prueba del algodón que no engaña. Debemos ser tan escépticos con la ciencia como con todo lo demás, si no más, porque la ciencia esencialmente carece de controles de calidad fiables.

La ciencia como actividad humana en la que priman los egos e intereses particulares presenta una preocupante tendencia al pensamiento grupal, donde teorías dominantes se adueñan del campo científico y activa o pasivamente suprimen a las teorías competidoras y a los que las defienden, provocando que la ciencia yerre el camino durante una generación o dos. Es lo que sucedió cuando los geólogos decidieron ignorar y rechazar, en vez de estudiar, la teoría de la deriva continental de Alfred Wegener, propuesta en 1920 y que no sería aceptada hasta 1965 con la tectónica de placas. Es lo que ha sucedido en física con la teoría de cuerdas y con la materia oscura, que llevan camino de ser dos monumentales fiascos que la van a dejar muy maltrecha. Y es lo que está sucediendo con la teoría de que el CO2 controla el clima, que podría tardar décadas en ser refutada por lo difícil que han hecho que un científico que no la suscriba pueda tener no solo una carrera científica sino una vida libre de ataques y denigraciones constantes. En todos los casos son décadas perdidas y recursos malgastados, pero en el caso del cambio climático van a ser también políticas erróneas con un alto coste económico para la sociedad y la posibilidad de causar un grave daño a las personas en situación más vulnerable.

La ciencia no necesita fe, por lo que no hay que tener fe en la ciencia.

60
¿Te ha gustado el artículo?

Si quieres saber más y estar al día de mis reflexiones, suscríbete a mi blog y sé el primero en recibir las nuevas publicaciones en tu correo electrónico.

  1. en respuesta a Fisico77
    -
    Top 100
    #20
    27/01/20 19:27
    Bastantes sesgos emocionales por parte del autor.
    Yo esperaría que la mayoría no estuviera de acuerdo conmigo, pero me extraña eso que dices, porque el artículo se apoya en evidencia publicada. Descubrimientos se producen y se seguirán produciendo y eso no invalida la tesis apoyada en todos esos artículos. El grafeno quizá llegue a ser lo que nos prometieron, pero quince años después lo que ha demostrado es que las espectativas eran demasiado altas. Los exoplanetas son interesantes, pero ya sabíamos que existían y no cambian nada. Las ondas gravitacionales las propuso Einstein y no ha sido una sorpresa saber que existen. Son logros indudables pero como dice John Horgan no son avances profundos del conocimiento.
  2. en respuesta a Fistroman
    -
    Top 100
    #19
    27/01/20 19:00

    Fistroman,
    Tenemos ciencia básica financiada públicamente y ciencia aplicada financiada pública y privadamente. Los criterios de gestión empresarial los aplican a su investigación las empresas. El objetivo de la ciencia pública es ampliar el conocimiento allá donde no hay rentabilidad económica y de otra forma no se haría. El retorno de la ciencia pública es el conocimiento, que a su vez debe servir para beneficiar a la sociedad. El dinero se puede malgastar si se usa para adquirir conocimientos muy poco interesantes. Yo conozco ejemplos a porrillo. La ciencia española es poco competitiva en muchas áreas (no en todas), y los investigadores que no son capaces de competir a veces se buscan nichos donde no investiga nadie más porque no le interesa a nadie más en el mundo, como estudiar el ciclo vital de una subespecie de Artemia salina que es endémica de España. Los conocimientos son infinitos, pero el dinero no, y hay que elegir preferentemente un conocimiento útil para los que ponen la pasta. Con su dinero cada uno puede investigar lo que le dé la gana.

  3. en respuesta a Earizon
    -
    Top 100
    #18
    27/01/20 18:44

    Earizon, muy de acuerdo con lo que dices tanto cuando describes la dureza de los que entran en ciencia ilusionados y pagan un alto precio por ello, como en las soluciones que propones para mejorar las cosas. Particularmente de acuerdo en la enseñanza de matemáticas, estadística y probabilidad de forma moderna y amena para todos los chavales porque eso repercute favorablemente en la sociedad por todos lados. Como mínimo se mantendrían alejados de los juegos y apuestas.

    En ese 40% de artículos que ni se llegan a re-leer puede estar escondido un gran hallazgo.
    Totalmente de acuerdo tambien. La ciencia está muy aquejada de pensamiento grupal y los mavericks que abren nuevos caminos y hacen buena parte de los descubrimientos más sorprendentes son precisamente los que el consenso dominante ignora o desprecia.
  4. en respuesta a Knownuthing
    -
    #17
    27/01/20 17:02

    Obviamente la ciencia ha pasado (entre muchas otras cosas) de la observación visual a la lupa, luego al microscopio óptico, y finalmente (?) al microscopio electrónico.

    La observación visual es gratuita; la lupa y el microscopio ya no tanto; pero el microscopio electrónico es carísimo.

    El problema de la ciencia es de dinero (y de corrupción), no de que no existan cosas que investigar y comprender.

    No sabemos prácticamente nada de nuestro planeta ni del universo, ni siquiera del cuerpo humano.

    Hay MILLONES de cosas por investigar, así que el problema es más financiero y ético que científico.

    Lo que entiendo que dices es que estamos en el portal de una época de ralentización y corrupción de la investigación científica por haber caído en un esquema financiero equivocado, pero la ciencia no entiende de esas cosas, y espera pacientemente que la humanidad resuelva sus contradicciones.

    Te felicito por haberme permitido ingresar a una discusión de esta naturaleza.

  5. en respuesta a Fernandojcg
    -
    Top 100
    #16
    27/01/20 16:48
    ¿tú no crees que la Ciencia actual está en manos de la oligarquía financiera? De ahí que NO apreciemos avances REALES y SÍ cierto "estancamiento"... Por ejemplo, ¿a estas alturas NO deberían estar erradicadas enfermedades como el Cáncer, la Diabetes, etc.? Perooooo, ¿a la industria relacionada con la "Salud" le interesa que se consigan soluciones?
    No, no lo creo. En investigación el primero que patenta se queda con la fama y el dinero. Si una corporación retrasara soluciones, se estaría metiendo un palo en las ruedas, porque otra lo sacaría antes y se llevaría el premio. Es más, si las corporaciones no adoptan rápido las nuevas tecnologías y descubrimientos las echan del mercado, como le pasó a Kodak.
  6. en respuesta a Ramón El Escéptico
    -
    Top 100
    #15
    27/01/20 16:35
    Cuando Watt patentó su caldera en 1769, el director de patentes de Londres, renunció diciendo que ya no había nada que patentar. Eso yo lo llamo tecno-pesimismo, y también es un fenómeno digno de ser analizado.
    Esa cita es falsa obviamente. No existe constancia de ella antes de 1981 excepto en un chiste de 1899 en Punch magazine. https://patentlyo.com/patent/2011/01/tracing-the-quote-everything-that-can-be-invented-has-been-invented.html Y yo no he dicho que la ciencia se agote, tan solo que la evidencia muestra que cada vez resulta más difícil y caro realizar descubrimientos y la investigación cada vez rinde menos. Un cambio de sistema puede mejorar el aprovechamiento del dinero, pero no puede cambiar la realidad.
  7. en respuesta a elportalfisico
    -
    Top 100
    #14
    27/01/20 16:21

    Elportalfísico, Fleischman está naturalmente de broma. Finge ser de la generación Z, embelesada con su propia imagen en los selfies, cuando en realidad algunos sabemos que ya peina canas.

    La diferenciación entre el recorrido de la teoría y su aplicación práctica es muy correcta.

  8. en respuesta a Fleischman
    -
    #13
    27/01/20 12:59

    Esto depende de lo que llames ciencia, en este caso se está hablando de la ciencia como producto y aún así hay confusión.

    De lo que habla el know es la ciencia como teorías(que no es otra cosa que modelos) para explicar el mundo en que vivimos.

    Lo que mencionas los smartphones y sus cámaras no son un modelo que explica el mundo sinó que es una aplicación de esos modelos teóricos que hemos creado para explicar el mundo, y que han tenido éxito; son cosas diferentes, aunque muchos los confundan.

    La creación de teorías para explicar el mundo se ha estancado, sobre todo en física, te puedo decir que en química van por el mismo camino, en biología desconozco cómo van, pero eso no significa que esos modelos teóricos no tengan una gran cantidad de aplicaciones prácticas las cuáles sean muy útiles, pero hasta estas se tendrán que detener, por ejemplo la ley de Moore que, como el artículo dice o bien estaba punto de morir o ya Está muerta.

  9. Top 100
    #12
    27/01/20 12:26

    No estoy de acuerdo con eso de que se está enlenteciendo el avance tecnológico.

    Antes para hacerte una foto tenías que dejarle la cámara a un lugareño, con el riesgo evidente de que saliera corriendo con ella. Ahora los móviles vienen con 8 cámaras de un gritón de megapixels, te puedes hacer la foto tú mismo con un palo de selfis, e incluso hay SW para eliminar el palo de las imágenes.

    Y además tenemos pulseras que nos cuentan los pasos y nos dicen cuándo estamos dormidos.

  10. #11
    27/01/20 11:54

    Hola, knownuthing:

    Como siempre lo haces, presentas un artículo muy bien informado.

    Yo ya estoy retirado, pero cuando trabajaba, fui a veces investigador científico y a veces usuario de las investigaciones para desarrollar tecnología, y desde hace más de treinta años, descubrí mucho de lo que mencionas (publicaciones 'convenientes', fraudes científicos, irreproducibilidad, revistas depredadoras, etc.).

    Ahora van mis comentarios en contra de lo que mencionas:

    Cuando Watt patentó su caldera en 1769, el director de patentes de Londres, renunció diciendo que ya no había nada que patentar. Eso yo lo llamo tecno-pesimismo, y también es un fenómeno digno de ser analizado.

    Por otra parte, he leído a detalle la mayoría de los temas que publicas desde hace años (porque son excelentes artículos), y -ya te lo mencioné en un par de ellos- siento que eres un tanto 'peakero'. Para los que no entiendan este término, se refiere a la gente que suele pensar en que se acaba lo bueno (el petróleo, los autos, la ciencia, etc.).

    Personalmente opino que la ciencia tiene mucho que investigar, la tecnología mucho que desarrollar, las necesidades humanas mucho que mejorar, etc.

    Lo que saco de nuevo en tu artículo es el embrollo económico en el que que se encuentra, no la ciencia, sino el desarrollo científico.

    Hemos agotado el esquema o paradigma científico-económico actual, y habrá que cambiarlo por algo más efectivo, pero negar el futuro de la ciencia no lo hago.

    Comentario aparte: es una lástima para la llamada 'ciencia del cambio climático' que se esté desarrollando en este esquema de prostitución científica, y como consecuencia de eso, existe una gran desinformación sobre el tema, incluyendo en eso a los políticos que generan normatividad y leyes. El costo que tendrán que pagar los habitantes de la Unión Europea (yo no lo soy) será enorme e inconmesurable. Prueba de ello es que la Merkel acaba de pedir a los científicos creyentes en el calentamiento global y a los escépticos, que dialoguen sobre el tema, en vez de pelearse.

  11. #10
    Fisico77
    27/01/20 10:57

    Bastantes sesgos emocionales por parte del autor. Lo de que la física no ha dado resultados desde hace 30 años. Grafeno, ángulos mágicos de graneo, estado sólido, exoplaneteas, masas del neutrino, ondas gravitacionales, son los más conocidos. Podría seguir.

  12. #9
    27/01/20 07:19

    Wow Está vez si te luciste, tenía otras fuentes de las cuales ya me había enterado sobre la ciencia y su estancamiento, pero este artículo viene como anillo al dedo .

    Honestamente esa fue la razón por la cual deje el pregrado en física ( pero no he dejado de estudiar física como pasión) desde hace años sabía que no me llevaría a la gran gloriosa meta que todo científico aspira( tener fama y descubrir algo importante), realmente no valía la pena, el problema que veo es que esa desilusión que muchos van a tener en el futuro, comprometa las cosas que valen la pena salvar en la ciencia, por ejemplo la electrodinámica cuántica la teoría más exacta que tenemos, o la física del estado sólido por mencionar algunas, y todas las aplicaciones que estas tienen, ya que la gran desilusión puede provocar una reacción, y como tratamos con humanos, que no se me figuran buenas cosas.

    Joder me podría pasar hablando mucho sobre esto, pero uno de las cosas que me llamo la atención, al menos en mi país es que la calidad del pregrado y grado en general ha decaido, antes entraba menos personas pero salir de pre grado tenía mucha dificultad, ahora está disminuyó ya que se enfocaron en sacar a más personas y para hacer eso disminuyeron la carga académica, y aunque entrarán el mismo número que antes, saldrían más de los que entraron comparado con antes; y ni hablar de ahora que entran muchas más que en tiempos pasados.

    Y te dejaste en el tintero la afamada fusión nuclear que cada que cada año que pasa siempre faltan 50 años para que está sea viable, llevan como 50 años así y todavía faltan 50 años.

  13. #8
    26/01/20 22:58

    Es un error medir la ciencia por su producción. Son ideas de gestión de empresa, referidos a una "empresa" mucho más importante: el conocimiento del ser humano y del universo como objetivo en sí mismo.

    Podríamos tener 17 generaciones sin un solo descubrimiento, repletas de intentos y fracasos, que justifiquen un único descubrimiento, ya que las anteriores generaciones mantuvieron "la ciencia viva". Un "saber hacer" entre generaciones que es muy fácil de perder.

    LA CORRUPCIÓN vuelve todo inoperante. No es simpática, no es "canallita", es una lacra, y todos los problemas que veo en este artículo son fruto de mentalidades corruptas, que han ido pudriendo el sistema poco a poco. No me extrañaría que los mediocres prohibiesen trabajar a los capaces, para que no les disputen el puesto.

    Con un poco de suerte, este año verá la luz un descubrimiento matemático revolucionario y a la vez devastador, que será quizás, el ejemplo que pide el artículo, de lo peligroso que es dejarse llevar por el "pensamiento grupal" y renunciar a la propia capacidad de crítica.

    A la pobre estadística hace tiempo que la pervierten muchos economistas y gente diversa, para crear "argumentos" que apoyen sus teorías. Abusando del halo de "verdad" de la ciencia, han tirado por las más "moldeable" de las ramas de las matemáticas.

    Hace tiempo que sospecho que la humanidad tiene un problema de ética. No cristiana ni religiosa, sino de un cierto autocontrol, que cada uno deberíamos exigirnos y exigir a los demás, para que todo funcione de una forma aceptable.La ciencia está enferma porque la humanidad está enferma.

  14. #7
    26/01/20 21:54

    Estudié Ciencias Físicas y ya desde mediados de carrera la investigación dejó de tener interés para mí. Se veía un ambiente enrarecido, poco compañerismo entre estudiantes, exámenes memorísticos como método para calificar el rendimiento académico, ningún crédito a la iniciativa, una universidad sin prestigio alguno pero donde los profesores se comportaban con el elitismo de un premio Nobel. Se notaba ya la tensión que circulaba en la facultad. Por suerte para mí, también tenía el software como segunda profesión/hobbie. Acabé la carrera sin plantearme en ningún momento dedicarme a la investigación. Me decepcionó la falta de educación y respeto que se respiraba, más si cabe entre profesores. Por otro lado mi hobbie me permitió aprobar un oposición nacional para, curiosamente, acabar trabajando en la Universidad. Desde mi puesto de funcionario, y viendo a mis compañeros que se habían decantado por la investigación se notaba un ambiente de impotencia y tristeza. Llegó la gran crisis del 2007. Guillotinas por todas partes y los que sobrevivieron ni mucho menos eran los mejores. Los mejores ya habían cogido el avión. Este artículo explica perfectamente que por qué el tecno-optimismo ha atrapado a muchos que confiaron con fe ciega en la ciencia, olvidándose de la ciencia economía.

    Bueno, yo siempre digo que cuando uno se queja de algo, hay que proponer una solución al problema, sea mala, buena, pero no valer con llorar y quejarse. Mi propuesta pasa por "resetear" la forma de evaluar la ciencia. Los investigadores deberían empezar a trabajar como desarrolladores de software. Dejar de publicar en revistas y empezar a publicar en repositorios Git. El objetivo no debería ser escribir millones y millones de artículos aislados, debería ser escribir pocos pero donde realmente se reflejase el conocimiento colectivo como se hacer en Informática. Ningún informático intenta crear su nuevo sistema operativo, lo que intenta es contribuir unas pocas líneas de código a un proyecto como Linux o Firefox o GNU, .. que mejoren algo muy concreto. Proyectos de interés común a todos y que hacen avanzar al ecosistema. La validez de un informático se puede medir y auditar a través de sus "commits" en Git. No veo razón alguna para no hacer lo mismo en el mundo de la ciencia. En ese 40% de artículos que ni se llegan a re-leer puede estar escondido un gran hallazgo. Que no tenga difusión no significa que no tenga importancia. Que alguien lea un artículo completo de un desconocido sobre campos con poca "audiencia" es difícil. Si ese mismo desconocido colabora en crear "pequeños cambios o mejoras" en un repositorio común y compartido por todos los científicos de la rama y dentro de 5 años hay un progreso notable, en Git quedará reflejado en el histórico de manera inmutable y la contribución medible de todos y cada uno de los cientificos que contribuyeron. Si Bitcoin es un blockchain que refleja la historia del dinero, Git puede verse como un blockchain que refleja la historia de la información -curiosamente Bitcoin toma parte de su diseño de Git, en concreto la cadena de bloques-. Las posibilidades son infinitas. Un científico puede pasar años en realizar algo de interés real. Si encima le complican la vida forzándole a tener visibilidad y publicar como loco le están matando. Quizás ni siquiera tenga nivel para hacerlo, pero puede contribuir en mantener el trabajo de otros científicos de más nivel (como sucede en el mundo del software, donde los mejores crear los cimientos, y los menos buenos arreglan pequeños defectos, pero todo el mundo contribuye con el objetivo común de avanzar en la misma dirección).

    El artículo deja claro cuál es el estado actual y por qué hay que cambiar la metodología de trabajar y evaluar el trabajo realizado.

    otro problemón que no se cita, ¿Se está evaluando ahora mismo algo tan importante como la transmisión de conocimiento , no sólo de investigadores a investigadores, sino de investigadores a alumnos? ¿No tiene importancia colaborar en crear libros que faciliten el aprendizaje de los nuevos estudiantes? Es una tarea inmensa, que se hace mal el 99% de las veces.
    No sólamente los investigadores de la facultad de matemáticas necesitan saber matemáticas, TODOS necesitamos saber matemáticas y no tenemos tiempo para leer ni el primer párrafo del primer paper. O lo aprendemos durante la época de estudiante o luego será 10 veces más difícil.
    Los libros de texto tan apenas están escritos por 2-3 autores (a veces sólo uno), donde se ve claramente que hay dejadez o cansancio. Un libro escrito por decenas/cientos de autores, cada uno de ellos mejorando una página, un párrafo, ejemplo o un diagrama, mejoraría la calidad de los libro de texto científicos de manera "brutal". Para ello, de nuevo, nada mejor que Git.

  15. en respuesta a Knownuthing
    -
    Top 100
    #6
    26/01/20 21:36

    Hola, Knownuthing: En el avance tecnológico entiendo que hay también una componente científica... Mira, te lo voy a plantear de otra manera: ¿tú no crees que la Ciencia actual está en manos de la oligarquía financiera? De ahí que NO apreciemos avances REALES y SÍ cierto "estancamiento"... Por ejemplo, ¿a estas alturas NO deberían estar erradicadas enfermedades como el Cáncer, la Diabetes, etc.? Perooooo, ¿a la industria relacionada con la "Salud" le interesa que se consigan soluciones? Lo mismo aplicado al campo de la Energía, ¿desde la Crisis del Petróleo del 1973 no ha habido tiempo para buscar "alternativas"? Digamos más bien que NO han interesado...

    Y ya que hablamos de la Energía, ¿por qué NO se han llevado a la práctica algunos de los proyectos de N. Tesla? Está claro que, entre otros, a las Eléctricas NO les ha interesado...

    Luego habría que saber qué están "haciendo" en según qué "experimentos"... Por ejemplo, ahora el Coronavirus de Wuhan y que me recuerda mucho al SARS de Cantón... Por NO hablar del Sida, Ébola, la "gripe" que pillaban las aves, la "locura" que afectaba a las vacas y más sucesos que conoces tan bien como yo.

    Y, ya por último, felicitarte por tu post. Siempre me resulta muy interesante el leerte.

    Saludos.

  16. Top 100
    #5
    26/01/20 21:24

    Cada vez te superas y pones el listón más alto.

    Con los fraudes científicos roban miles de millones, pero los peores son los que comete la medicina, que además de costar miles de millones también cuestan millones de vidas.

    El tema del cáncer es un buen ejemplo. Efectivamente, la tasa de mortalidad ha ido cayendo desde 1975, pero eso se ha conseguido haciendo varias trampas superpuestas:

    Han aumentado exponencialmente la detección precoz, con el consiguiente aumento de los falsos positivos. Si para calcular la tasa de mortalidad metes a mucha gente sana, se salvan más que antes, sobre todo lo que estaban sanos.

    Los que se mueren de cáncer a los 5 años y un día, en la estadística aparecen como curados.

    También tienen la tentación de adjudicarles otra causa a los muertos por cáncer, lo cual es muy fácil, pues la mayoría tiene una docena de dolencias. De esa manera sacan pecho a la hora de pedir miles de millones para investigación, cuando en los útimos 50 años no han avanzado nada, siguen con lo mismo del primer día: amputar, quemar y envenenar.

    La realidad es que cada año aumenta el número de muertos por cáncer, que en España oscila los 112.000 al año, a pesar de que la población no ha aumentado.

  17. en respuesta a Fernandojcg
    -
    Top 100
    #4
    26/01/20 20:41

    Efectivamente, Fernando. La tecnología avanza más a saltos que la ciencia dependiendo del impulso que se le dé. Por ejemplo la tecnología para extraer petróleo de formaciones compactas existe desde hace muchas décadas, pero desde los años 2000 se le ha dado un impulso muy grande por la cantidad de dinero que se ha invertido. En el caso del consumo de combustible de los coches, la distancia recorrida por unidad de volumen aumentó mucho desde principios de los 70 hasta finales de los 80, pero luego se estancó durante casi dos décadas y ha vuelto a mejorar desde el 2005. Está claro que el impulso para mejorar lo han proporcionado los precios del combustible y las regulaciones medioambientales. Se pueden producir avances muy rápidos en tecnología en ciertas áreas, pero también están sujetos a la ley de rendimientos decrecientes. No se puede reducir el consumo de un coche más allá de cierto punto y las últimas mejoras requieren un mayor uso de materiales más ligeros y caros, como el aluminio.

  18. Top 100
    #3
    26/01/20 16:16

    Hola, Knownuthing: A veces hay "grises"... Entiendo que en la tecnología militar se ha avanzado a niveles increíbles en muy poco tiempo. Incluso parece que se han realizado progresos muy notorios en varios campos, especialmente en el de la Física...

    El año pasado me fije que en la Doctrina militar de Rusia se hablaba de las nuevas armas adaptadas a la "nueva" Física... Otra cosa es que esos avances nos sean desconocidos y que se revelen cuando ya les quedan "obsoletos"... Ya sucedió con Internet...

    Saludos.

  19. en respuesta a Joaquim
    -
    Top 100
    #2
    26/01/20 13:06

    Hablar de eso sí que les interesa a los científicos. Hablar de rendimientos decrecientes, crisis de irreproducibilidad, que el consenso de los científicos se equivoque durante décadas, eso no les interesa en absoluto y de eso no van a hablar en ese programa a no ser para negarlo o quitarle importancia.

  20. Top 100
    #1
    26/01/20 10:47

    En este momento, en la SER están hablando de la investigación, las dificultades para publicar y el coste que conlleva.

    Salu2