Staging ::: VER CORREOS
Acceder

Rendimientos decrecientes y costes crecientes en una ciencia menguante

Existe la creencia generalizada de que la ciencia y el progreso tecnológico seguirán su avance de forma continua mejorando nuestra calidad de vida y solucionando cualquier problema o situación negativa que se nos plantee en el futuro. Esta creencia, ampliamente sostenida, se denomina tecno-optimismo y se deriva de los increíbles avances de la ciencia y su aplicación tecnológica en los últimos 200 años. La realidad sin embargo es otra, y la ciencia, al igual que el resto del universo del que forma parte, está sujeta a la ley de rendimientos decrecientes.

1. La velocidad de crecimiento de la ciencia

El nacimiento de la ciencia moderna se puede establecer a mediados del siglo XVII con la aparición de las primeras sociedades científicas y el inicio de la costumbre de escribir artículos científicos en vez de libros para comunicar descubrimientos. De acuerdo con diversas medidas de producción científica, como el número de revistas científicas, el número de artículos, o el número de científicos, la ciencia, que crecía con rapidez desde sus inicios, comienza un desarrollo exponencial hacia 1750 que dura ya más de dos siglos y medio.

Figura 1. Medida del crecimiento de la ciencia. A la izquierda según el número de revistas científicas y a la derecha según el número de resúmenes. En ambos casos la escala vertical es logarítmica por lo que un crecimiento constante es exponencial. Fuente: Derek J. de Solla Price, "Little Science, Big Science" Columbia University Press (1965).

El ritmo de crecimiento de la ciencia es asombroso. Cada año el número de artículos publicados y el número de revistas se incrementa en un 3-4 %, y esto ha sido así durante los últimos dos siglos. El tiempo de duplicación es de tan solo 20 años (algo más lento que el calculado por de Solla en 1965, figura 1). La causa es que el número de investigadores ha crecido a un ritmo prodigioso, que en el siglo XXI ha subido al 4-5 % anual gracias al crecimiento de la ciencia en los países en desarrollo, principalmente China. Actualmente hay más de 28.000 revistas científicas en inglés y se publican unos dos millones y medio de artículos científicos cada año. El número de investigadores es variable dependiendo de como se definan, pero según los datos de la UNESCO, extrapolando el crecimiento entre 2007 y 2013, actualmente hay 9,5 millones de investigadores equivalentes a jornada completa en el mundo. Ello hace verdad algo que dijo Derek de Solla Price, el iniciador de la cienciometría, en 1965:

El 90% de todos los científicos que han existido en el mundo están vivos ahora.

Figura 2. La explosión de la ciencia en la segunda mitad del siglo XX. En azul, la financiación en miles de millones de dólares por parte del Instituto Nacional de la Salud (NIH) y la Fundación Nacional de la Ciencia (NSF) de los EEUU. En rosa, el número de doctorados otorgados en EEUU en ciencia e ingeniería. En púrpura, número de artículos en miles publicados. Fuente: The Atlantic.

Esto obviamente ha sido posible porque el dinero que se ha dedicado a la ciencia también ha crecido exponencialmente (figura 2). Según los datos de la National Science Foundation el dinero global gastado en investigación y desarrollo ha crecido en este siglo a una media del 6,75 % anual, con un tiempo de duplicación de 11 años, casi el doble de rápido que el del número de artículos, pasando de 722 mil millones de dólares en 2000 a 1,9 billones en 2015 y estimándose en 2,5 billones de dólares en la actualidad.

2. Los problemas de la ciencia también crecen

Puesto que la financiación crece más deprisa que la producción científica, ello indica que la ciencia se está volviendo más cara al requerirse cada vez más dinero por investigador y artículo, y al mismo tiempo se observa que el número medio de autores por publicación está creciendo desde principios del siglo XX cuando el 80% de los artículos eran de un solo autor, desde entonces el número de firmantes de artículos ha ido creciendo un 17% cada década hasta alcanzar actualmente una media de 5 autores por artículo. Detrás de este incremento en el número de firmantes hay dos causas. Por una parte la ciencia se vuelve progresivamente más difícil y requiere equipos de investigadores más numerosos. Por otra parte la creciente presión por publicar por la dificultad para alcanzar una posición estable de investigador lleva a unir esfuerzos para aumentar las publicaciones. Esta creciente dificultad laboral se manifiesta por ejemplo en que la edad media en la que se obtiene por primera vez un proyecto de investigación del Instituto Nacional de la Salud de EEUU ha subido de 34 a 42 años desde 1970. El desánimo entre los jóvenes científicos por las dificultades para establecer una carrera estable es manifiesto. La ciencia moderna es un esquema piramidal en el que un investigador senior tiene la ayuda de varios investigadores juniors y de un número aún mayor de becarios y estudiantes buena parte de los cuales debe abandonar la ciencia por falta de oportunidades laborales a una edad relativamente avanzada para empezar en el mercado de trabajo tras haber dedicado 5, 10 o incluso 20 años a la ciencia habiendo ganado un salario muy bajo para su nivel de educación. El número de posiciones estables con un salario adecuado en ciencia es mucho menor que el número de investigadores, y crece mucho más despacio.

Figura 3. Edad media de los nuevos investigadores al conseguir su proyecto inicial del Instituto Nacional de la Salud (NIH) de EEUU. Fuente: NIH.

Es obvio que este incremento de la ciencia no es sostenible por mucho que lleve dos siglos sucediendo. La velocidad de crecimiento de la población alcanzó su máximo del 2 % en los años 60, con un tiempo de doblado de 35 años, pero actualmente ha caído al 1,14 %, lo que implica un tiempo de doblado superior a los 60 años, y es dudoso que se duplique de nuevo. El número de científicos no puede seguir doblándose cada 20 años indefinidamente. Con el porcentaje actual de investigadores, una persona de cada 800 a nivel mundial, la ciencia ya acapara el 3 % del PIB mundial (2,5 de 86 billones de dólares) y su presupuesto crece a un 6,75 %, mientras que el PIB lo hace al 2,9 %. Si se mantuviera esa diferencia de velocidad el porcentaje del PIB dedicado a la ciencia se duplicaría cada 20 años y en tan solo 60 años la ciencia acapararía una cuarta parte del producto bruto mundial y en un siglo la totalidad.

De hecho en EEUU, el país líder en ciencia, ya se están dando señales de que hay problemas para seguir creciendo exponencialmente. La investigación biomédica creció muy fuertemente con un presupuesto del Instituto Nacional de Salud (NIH) de EEUU que en 1970 era de 4 mil millones de dólares pasando a ser en 2003 de 28 mil millones de dólares, pero desde entonces se ha estancado, dirigiéndose el incremento de financiación a otras disciplinas que han crecido menos o que están más de moda, como el cambio climático.

Figura 4. Financiación de la ciencia en EEUU con fondos federales en miles de millones de dólares. En el siglo XXI se observa un parón en la financiación biomédica, de ciencias de la vida y ciencias medioambientales. Fuente: (Otro) Vox.

Ello ha provocado una gran angustia entre los investigadores de biomedicina que debido a la naturaleza piramidal de la investigación se habían iniciado en gran número en la disciplina biomédica cuando crecía con rapidez y ahora carecen de oportunidades. La difícil situación se refleja en que el porcentaje de solicitudes de financiación al NIH que tiene éxito ha caído del 30% a casi la mitad, el 18%. Estas solicitudes eran ya tan competitivas que desde los años 90 requieren meses de trabajo para redactarse y meses o incluso años de trabajo de investigación para incluir resultados preliminares que prácticamente aseguren el éxito del proyecto para favorecer su financiación. Las carreras de muchos investigadores se truncan cuando no son capaces de conseguir proyectos financiados y las universidades de EEUU les deniegan la plaza fija y los despiden. En países como el nuestro donde los científicos son funcionarios, los que no tienen financiación consumen recursos (salario y servicios comunes) en muchos casos sin producir nada.

Figura 5. El estancamiento de la financiación del Instituto Nacional de Salud (NIH) de EEUU (area verde) ha vuelto mucho más competitivas las solicitudes de proyectos dificultando grandemente su obtención; en rojo su porcentaje de éxito ha caído al 18 %. Fuente: (Otro) Vox.

La presión por publicar en una profesión que quizá sea la única junto con el deporte en que se compite a nivel mundial ha llevado a una disminución de la calidad de las publicaciones. No solo los investigadores tratan de extraer el máximo número de publicaciones dividiendo un trabajo entre varios artículos (técnica conocida como loncheado del salami) sino que determinadas prácticas parasitarias se han incrementado mucho, como el fraude científico, la publicación mediante pago en revistas depredadoras, y una crisis generalizada de reproducibilidad de resultados, todo ello acompañado de que la mayor parte de los artículos científicos publicados no se los lee casi nadie. De los dos millones y medio de artículos que se publican cada año, el 45 % no ha sido citado por nadie cinco años más tarde, y en torno a un 10-20 % de los que sí han sido citados, lo han sido únicamente por los mismos autores en otros artículos (auto citas). Los científicos tratan de publicitar sus artículos para incrementar su impacto como si fueran coches usados, a través de un uso cada vez más frecuente de palabras positivas en el título o el resumen, y el uso frecuente de la palabra "novedoso" para darle bombo al artículo.

Figura 6. Incremento del marketing en la ciencia. El uso de adjetivos positivos (azul) en el título o el resumen se ha disparado desde mediados de los 80 hasta alcanzar al 20 % de los artículos que se incorporan a la base de bibliografía PubMed. También se ha incrementado mucho el uso de la palabra "novedoso" (gris), mientras que los adjetivos negativos (rojo) no han experimentado un incremento similar. Fuente: (Otro) Vox.

3. La crisis de reproducibilidad

El incremento tan grande en el número y proporción de personas que se dedican a la investigación conlleva inevitablemente un aumento de la mediocridad de los científicos. Parafraseando a la película Ratatouille, hoy en día cualquiera puede investigar. Y todos necesitan publicar. Aunque la falta de reproducibilidad en ciencia siempre ha sido un problema, la voz de alarma sobre los preocupantes niveles que estaba alcanzando la dio John Ioannidis en 2005 con su artículo en PLOS Medicine "Por qué la mayoría de los hallazgos de investigación publicados son falsos", donde decía:

Existe una creciente preocupación de que en la investigación moderna, los resultados falsos pueden ser la mayoría o incluso la gran mayoría de las conclusiones de investigación publicadas. Sin embargo, esto no debería ser sorprendente. Se puede demostrar que la mayoría de los resultados de investigación que se concluyen son falsos. … Además, para muchos campos científicos actuales, los hallazgos de investigaciones que se concluyen a menudo simplemente constituyen una medida precisa del sesgo prevalente.

Ioannidis, J. P. (2005). Why most published research findings are false. PLoS medicine, 2(8), e124.

Por eso no es de extrañar que los científicos climáticos crean que los resultados apoyan una causa exclusivamente humana del calentamiento global. Ese es el sesgo prevalente que dirige la investigación y la publicación hoy en día.

Las compañías farmacéuticas pronto coincidieron en señalar que se estaban gastando fortunas en ensayos clínicos que daban resultados negativos porque se basaban en resultados publicados en revistas prestigiosas que resultaron no ser fiables. El ratio de éxito para ensayos de fase II había caído en unos pocos años del 28 al 14 %. Científicos de Bayer publicaron en Nature Reviews en 2011 que no habían conseguido reproducir el 75 % de los resultados publicados que habían ensayado. En 2012 Amgen seleccionó 53 artículos considerados de referencia y publicó en Nature que solo había conseguido reproducir 6 (11 %).

Pronto el foco se centró en la investigación en psicología, ya sospechosa de por sí. En 2015 el mayor estudio de reproducibilidad en psicología hasta la fecha se publicó en Nature. 270 investigadores intentaron reproducir 98 artículos originales de 3 revistas de psicología y solo lo consiguieron en algo más de un tercio de los casos.

En 2015 Nature llevó a cabo una encuesta entre 1.576 investigadores de diversos campos, y el resultado fue que el 70 % de ellos tenían experiencia en haber fallado en replicar algún resultado publicado por otros investigadores, y que el 90 % de ellos consideraba que había una crisis de reproducibilidad, y más de la mitad pensaba que era una crisis seria. El problema afectaba a todos los campos, aunque algunos más que otros.

Figura 7. Encuesta de Nature sobre la crisis de reproducibilidad. El 90 % de los encuestados respondió que hay una crisis de reproducibilidad, que el 52 % considera seria. Tan solo un 7 % cree que no hay crisis. Fuente: Signs of the Times.

Subyacente a la crisis de reproducibilidad está el sistema de revisión por pares, en el que los artículos son revisados anónimamente y de forma voluntaria sin cobrar por dos o más científicos conocedores del campo antes de ser aceptados, que está claro que no funciona. La ciencia que se publica tras pasar esos filtros es en promedio de baja calidad e irreproducible, es decir falsa. Ello revela el serio problema de que entre el 50 y el 85 % del dinero que se invierte en ciencia se está malgastando (Chalmers & Glasziou, 2009). La sociedad no está obteniendo el rendimiento esperado a cambio del dinero que invierte en ciencia.

4. Prácticas deshonestas

Solapando con el problema de irreproducibilidad está el problema del fraude científico que está mucho más extendido de lo que a los científicos les gusta admitir y es responsable de parte de esa irreproducibilidad. Una encuesta anónima de 140 becarios del MD Anderson Cancer Center de Houston ha revelado que el 40 % habían sido presionados para producir resultados "positivos" incluso cuando los datos no los apoyaban (Boulbes et al., 2018). Yo personalmente fui testigo de como una compañera que había estado intentando durante meses conseguir sin éxito un resultado importante para una publicación, lo consiguió de un día para otro tras una fuerte bronca del jefe, y sé que ese artículo que finalmente se publicó en la mejor revista del campo es fraudulento e irreproducible. El fraude está extendido en ciencia porque el científico tiene la motivación de publicar para afianzar su carrera, tiene los medios y la oportunidad porque es el único que controla los datos y la forma de obtenerlos, y a menudo se autojustifica en que "sabe" que la hipótesis es buena y solo es cuestión de poner los datos que "deberían" salir pero se empeñan en no salir. El fraude científico medianamente bien hecho no puede detectarse y pasa a engrosar la lista de irreproducibilidad. Si alguien apunta en el cuaderno datos distintos de los que da el aparato o cambia las muestras eso no se puede probar. El fraude científico solo se hace público cuando alguien le coge el gusto y se le va la mano cometiendo chapuzas. En España tenemos algunos casos famosos como el de Susana González López, una investigadora del CSIC de brillante carrera, que tras obtener su plaza fue contratada en el Centro Nacional de Investigaciones Cardiovasculares como jefa de grupo y recibió un proyecto de la Unión Europea de 1,86 millones de euros para investigación en regeneración cardíaca. En 2014 Susana fue denunciada por un coautor por reutilizar imágenes como si fueran resultados de experimentos distintos. En la investigación resultante Susana alteró la fecha y el contenido de correos electrónicos que aportó como pruebas en su defensa, lo que fue descubierto. Por el momento 5 de los artículos de Susana han sido retractados, y el proyecto de la UE fue cancelado. Susana fue despedida del CNIC, recurrió a los tribunales y perdió, pero como tiene plaza en propiedad se reintegró al CSIC donde supongo que continúa cobrando su sueldo todos los meses. El coautor que la denunció, que no tenía plaza de funcionario, denunció en la prensa que las peores repercusiones habían sido para él.

La picaresca española también tiene su sitio destacado en un análisis del fraude científico. Artemi Cerdà, catedrático de Ciencias del Suelo en la Universitat de València ha sido acusado por la Unión Europea de Geociencias de manipular su curriculum organizando un "cártel de citas" aprovechando que era editor de tres revistas. Artemi solicitaba a los autores de muchos de los artículos que editaba incluir una serie de referencias entre las que estaban las suyas y las de sus amigos. Con ello sus índice de citaciones se iban por las nubes. Le descubrieron porque como efecto secundario también se disparó el factor de impacto de una de las revistas de la que era editor donde él y sus amigos publicaban con frecuencia, lo que llamó la atención de las revistas competidoras. El presidente del Comité de Publicaciones de la Unión Europea de Geociencias calificó la manipulación de considerable, pero aparte de hacerle dimitir como editor no podían hacer más porque este tipo de corrupción es perfectamente legal.

También es legal publicar en revistas depredadoras. El negocio de las editoriales científicas es uno de los más lucrativos del planeta. Los contribuyentes financian con sus impuestos la investigación y pagan el tiempo que dedica el científico a escribir sus artículos. Las editoriales científicas cobran por publicar el artículo a los autores del dinero de su proyecto, por lo que los contribuyentes vuelven a pagar. Después las editoriales cobran a las bibliotecas de universidades y centros de investigación y a los científicos por suscribirse a las revistas y poder acceder a la literatura científica con un precio altísimo que a menudo se negocia a nivel de país, por lo que los contribuyentes pagan por tercera vez. Y por último si los contribuyentes quieren leer ellos mismos algún artículo tienen que pagar por acceder a él por internet. En total los contribuyentes pagan la ciencia publicada cuatro veces y las editoriales científicas tienen unos márgenes de beneficios que avergüenzan a Apple. Algunas revistas todavía tienen versión en papel, pero la mayoría son solo electrónicas, y el coste de editar una revista en internet es ínfimo, por lo que semejante pastel ha atraído a empresarios de pocos escrúpulos que montan negocios con multitud de revistas "depredadoras' que fingen ser científicas y tratan de atraer a científicos incautos o desesperados bombardeándolos con solicitudes de artículos. Viven de cobrar a los autores bien de su proyecto o de su bolsillo y publicarán cualquier cosa que se les envíe. Todas tienen nombres muy científicos y algunas fingen hacer revisión por pares, pero a menudo el revisor es una simple secretaria que sugiere alguna corrección ortográfica. Por supuesto hay quien engorda su expediente publicando en estas revistas para sacarse la plaza, como Josué Gutiérrez en el departamento de sociología de la Universidad de La Laguna, aunque en este caso su contrincante Aníbal Mesa presentó alegaciones a la comisión que fueron atendidas.

Los artículos en revistas depredadoras pasaron de 53.000 en 2010 a 420.000 en 2014, según un estudio de 2015, lo que muestra la magnitud del problema, porque ya constituyen más de un 15 % de los artículos publicados, atrayendo sobre todo a científicos de Asia y África. Y estas revistas publican literalmente cualquier cosa. David Mazières y Eddie Kohler crearon un artículo con la frase "Quítame de tu jodida lista de correo" repetida múltiples veces para mandarlo a las solicitudes no deseadas de participaciones en conferencias, y Peter Vamplew lo cogió prestado para mandarlo al International Journal of Advanced Computer Technology, una revista depredadora, en respuesta al spam que recibía. Para su sorpresa el artículo fue aceptado, con un revisor anónimo calificándolo de excelente, al tiempo que le pedían $ 150 por publicarlo. Nadie llegó a leer el artículo, ni siquiera el título, todo el proceso se hace de forma automática por ordenador.

Figura 8. El artículo enviado a una revista depredadora que fue aceptado para su publicación, aunque los autores finalmente decidieron no publicarlo y no pagaron, quizá para evitar que figurara en su índice de publicaciones. Fuente: David Mazières, Stanford Computer Science Department.

Todas estas tendencias son extraordinariamente preocupantes y muestran que en cualquier actividad donde hay mucho dinero, una fuerte motivación y poco control florecen el fraude y la corrupción, y la ciencia no es una excepción. La ciencia tiene los problemas inherentes a toda actividad humana, como la iglesia o los partidos políticos, y no hay ningún motivo por el que tengamos a los científicos envueltos en un aura de prestigio, o peor aún que dejemos que decidan en nombre de la sociedad políticas críticas, como las energéticas, como sucede con un grupo de científicos climáticos.

5. El estancamiento de la ciencia

Con todo, la crisis de reproducibilidad en ciencia, la baja calidad generalizada de la producción científica y la dificultad para controlar el fraude no son los peores problemas de la ciencia, y son susceptibles de mejoría con un cambio de sistema y una mejor gestión y control. El problema más grave de la ciencia no tiene solución y es que está sujeta a la ley de rendimientos decrecientes, por lo que cada vez produce menos avance en relación a los recursos que se dedican.

En 1996 el escritor de Scientific American John Horgan publicó un libro muy controvertido "El fin de la Ciencia. Los límites del conocimiento en el declive de la era científica". Es un libro de entrevistas donde preguntaba a científicos famosos sobre el futuro de la ciencia y las posibilidades de que se realicen descubrimientos tan significativos como los del pasado. Horgan utilizaba sus respuestas para apoyar su tesis de que la ciencia no volverá a producir nuevos avances del conocimiento tan profundos como la evolución por selección natural, la doble hélice, el Big Bang, la teoría de la relatividad o el modelo estándar de la mecánica cuántica, porque ya se ha descubierto casi todo el conocimiento fundamental que está a nuestro alcance, y lo que queda es el trabajo de refinar, extender y aplicar el conocimiento obtenido. Los científicos obviamente recibieron muy mal el libro, que en realidad es muy subjetivo y criticable, señalando que en el pasado hubo gente que pensó lo mismo y estuvo equivocada. La famosa cita “No hay nada nuevo que descubrir en física ahora. Todo lo que queda es una medición cada vez más precisa", atribuida a William Thomson, Lord Kelvin, fue en realidad pronunciada por Albert Michelson en una charla en 1894.

Sin embargo la tesis de Horgan no se puede rechazar porque alguien estuviera equivocado en el siglo XIX. Tampoco se puede descartar poniendo ejemplos de grandes descubrimientos recientes, porque si la ciencia está sujeta a la ley de rendimientos decrecientes ello no quiere decir que no se vayan a producir grandes descubrimientos, sino que costará mucho más alcanzarlos y serán menos frecuentes, y esta tesis sí es susceptible de ser analizada. Hace décadas que las investigaciones sugieren que la carga del conocimiento se incrementa con el tiempo, que se incrementa la edad a la que los investigadores completan sus doctorados, solicitan su primera patente, la frecuencia de postdoctorados necesarios para alcanzar una posición, indicando que cada vez cuesta más transitar el camino que lleva a las fronteras de la ciencia donde se realizan los descubrimientos. En 2005 Benjamin Jones del National Bureau of Economic Research (NBER) escribió un artículo analizando las estadísticas de patentes de los EEUU titulado "La carga del conocimiento y la "muerte del hombre del renacimiento": ¿se está haciendo más difícil la innovación?" Jones muestra que la relación de patentes a número de investigadores ha caído un 50 % en 30 años (1975-2005), consistente con el aumento del número de firmantes por patente. El aumento de la carga del conocimiento explica la tendencia a una mayor especialización y al requerimiento de un mayor nivel educativo que conducen a una mayor edad antes de realizar contribuciones significativas y a un incremento del tamaño de los equipos que refleja una disminución de la productividad científica.

Esta disminución de la productividad va acompañada de un fuerte encarecimiento de la obtención de resultados. Ya hemos visto más arriba que la proporción de ensayos clínicos que tienen éxito ha descendido drásticamente en los últimos años. En 2012 Jack Scannell y colaboradores publicaron su artículo sobre el declive de la eficiencia de la investigación y desarrollo en la industria farmacéutica:

Scannell, Jack W., et al. "Diagnosing the decline in pharmaceutical R&D efficiency." Nature reviews Drug discovery 11.3 (2012): 191.

En él demostraban que el número de nuevos medicamentos aprobados por cada mil millones de dólares gastados en I+D, ajustados a la inflación, se ha reducido a la mitad aproximadamente cada 9 años desde 1950, cayendo alrededor de 80 veces. Lo denominaron la ley de Eroom, por ser opuesta a la ley de Moore.

Figura 9. Caída exponencial en la productividad de I+D en la industria farmacéutica mundial. Número de nuevas moléculas aprobadas por la Food & Drug Administration (FDA) en Farma y Biotec por cada mil millones de dólares de gasto en I+D global. La escala vertical es logarítmica. En los años 50, mil millones de dólares (a precio constante) eran capaces de producir más de 60 nuevas drogas, cuando hoy producir una ya cuesta más. Figura de Scannell et al., 2012 actualizada por el autor. Fuente: Soft Machines.

De hecho, la propia ley de Moore, enunciada por Gordon Moore, cofundador de Intel, que indica que el número de transistores en un microprocesador se duplica cada 2 años, se ha puesto como ejemplo de tecno-optimismo.

Figura 10. La ley de Moore. Número de transistores en los circuitos integrados de los chips entre 1971 y 2018. Fuente: Our World in Data.

Sin embargo Bloom y colaboradores del NBER han mostrado que para conseguir esa velocidad de crecimiento exponencial a un ritmo constante de incremento del 35 % anual, el número de investigadores requerido ha tenido que multiplicarse por 18, por lo que se puede decir que duplicar el número de transistores en un microprocesador es hoy 18 veces más difícil que en 1970. El propio Moore dijo que el coste de cumplir su ley también crecería exponencialmente, lo que se conoce como la segunda ley de Moore o ley de Rock, que dice que el coste de una fábrica de microprocesadores se dobla cada 4 años y en 2015 había alcanzado ya los 14 mil millones de dólares.

Figura 11. Incremento del esfuerzo investigador para cumplir la ley de Moore. En azul el ritmo de crecimiento constante del número de transistores en un microprocesador que da como resultado una duplicación cada dos años. En verde el número efectivo de investigadores necesario para conseguirlo, medido a partir de los gastos en I+D de las 30 marcas principales de semiconductores divididos por el salario medio de un investigador. Fuente: Bloom et al., 2019.

Y parece que la ley de Moore ya no se aplica. A Intel le ha costado bastantes más de dos años desarrollar su proceso de 10 nm (similar al 7 nm de Samsung) que inicialmente anunció para 2015, y aunque ahora anuncia un mapa de recorrido que lleva a 1,4 nm para 2029 ello resulta extremadamente difícil de creer. No solo el límite teórico anda por los 3 nm, cuando los efectos cuánticos empiezan a hacer de las suyas, sino que algunos expertos, como el CEO de Nvidia Jensen Huang, opinan que la ley de Moore está muerta. Está claro que si no lo está, pronto lo estará.

En cuanto al desarrollo de las tecnologías de la información, se hace necesario mencionar la paradoja de la productividad, o paradoja de los ordenadores de Solow, quien en 1987 comentó que la era de los ordenadores era visible en todas partes excepto en las estadísticas de productividad, refiriéndose al sorprendente hecho de que los avances e inversiones en las tecnologías de la información de los años 70 y 80 coincidían con un menor crecimiento de la tasa de productividad en los EEUU.

6. Detectando y midiendo el decreciente rendimiento de la ciencia

El avance científico y tecnológico de la humanidad se ha ido enlenteciendo.  Esta tesis es fácil de demostrar.

En el periodo de 70 años que va de 1880-1950 la gente de clase media alta urbana de un país avanzado vivió el progreso en sus hogares en forma de agua corriente, iluminación por gas, horno, máquina de lavar manual, telegrafía, fotografía, tren, electricidad, teléfono, nevera, lavadora eléctrica, aspiradora, máquina de coser, coche, vacunas, tranvías, cine, calentador de agua, radiadores, congelador, cámara fotográfica, radio, antibióticos, viajes en avión, lavaplatos, televisión y películas domésticas. Una persona de 1880 llevada a 1950 no entendería casi nada porque la mayoría de las cosas no existían.

Entre 1950 y 2020, otros 70 años, apareció el microondas, la televisión se volvió en color, es posible recibir un transplante, se viaja en avión a reacción, se pueden grabar y reproducir imágenes digitales, hay teléfonos móviles, ordenadores personales e internet, se han desarrollado las técnicas de imagen en medicina y han aparecido las redes sociales. Una persona de 1950 vería la mayoría de los cambios en 2020 como mejoras de lo que ya había. En general se le ha puesto un procesador a todo lo que lo puede llevar y se ha potenciado la comunicación, pero ni coches voladores, ni ciudades en el espacio, ni robots domésticos. Es incluso posible que alguien de 1950 se sintiera decepcionado con los avances obtenidos hasta 2020.

Jonathan Huebner hizo esto mismo que he hecho yo de una forma más sistemática y llega al mismo resultado en su artículo: "Una posible tendencia decreciente para la innovación mundial".

Huebner, J. (2005). A possible declining trend for worldwide innovation. Technological Forecasting and Social Change, 72 (8), 980-986.

Huebner se basa en el libro "The History of Science and Technology" de Bryan Bunch y Alexander Hellemans, que es una base de datos de descubrimientos e invenciones desde el principio de la humanidad hasta el 2003 que contiene 8.583 eventos importantes, de los que él utiliza los 7.198 que tuvieron lugar desde 1450 para calcular la tasa de innovación, definida como el número de desarrollos tecnológicos importantes por año dividido por la población mundial, que luego agrupa por décadas. Según esta metodología la tasa de innovación alcanzó su máximo en 1873 iniciando un rápido declive, y solo el fuerte aumento de población y recursos permitió que el siglo XX tuviera más innovaciones que el XIX.

Figura 12. Evolución de la tasa de innovación entre 1450 y 2000. Fuente: Huebner 2005.

Huebner asume que lo que limita la tasa de innovación es el creciente coste económico (recursos materiales y humanos) de los descubrimientos y no un límite físico de la ciencia, y puesto que el número de eventos tecnológicos por año es el producto de la población por la tasa de innovación, la integración de dicho producto con respecto al tiempo permite calcular el porcentaje del límite económico de la innovación que se ha alcanzado en cada momento. Huebner defiende que hemos alcanzado el 90 % del límite económico de la innovación, y que el 100 % se debería alcanzar antes de finales de siglo, lo que supondría que la tasa de innovación alcanzaría el valor cero y cesaría el progreso tecnológico. Por supuesto se trata de un cálculo poco fiable, que de entrada depende de la calidad y homogeneidad de la base de datos de descubrimientos utilizada, así como del ajuste gaussiano que realiza el autor a los datos. Pero la caída de la tasa de innovación parece ser un hecho indiscutible como apoyan todas las investigaciones presentadas en este artículo.

Bloom y colaboradores llegan a un resultado similar utilizando la productividad total de los factores (TFP), el remanente de la tasa de producción no explicado por la tasa de los factores (trabajo, capital, otros) como medida de la producción científica, dado que la mejora tecnológica es uno de los factores que más contribuyen al TFP. Su artículo para el NBER se titula "¿Son las ideas cada vez más difíciles de encontrar?" A partir de aquí lo denominaremos BJVW2017.

Bloom, N., Jones, C. I., Van Reenen, J., & Webb, M. (2017). Are ideas getting harder to find? (No. w23782). National Bureau of Economic Research.

BJVW2017 muestran evidencia desde campos muy diversos de que el esfuerzo de investigación se está incrementando considerablemente, mientras que la productividad de la investigación declina fuertemente.

Figura 13. Evolución del número de investigadores (verde) y de la productividad de la investigación (azul) en EEUU. La productividad se obtiene dividiendo el crecimiento del TFP por el número de investigadores. Fuente Bloom et al., 2017.

En agricultura la productividad de la investigación ha caído por un factor de cuatro entre 1970 y 2007 en EEUU debido a que la productividad total de los factores agrícolas cayó a la mitad, mientras que el número efectivo de investigadores se duplicó.

Figura 14. Tasa de crecimiento de los factores totales de productividad (TFP) para el sector agrícola (azul) e incremento en el número de investigadores del sector agrícola (verde), calculado dividiendo el gasto en I+D público y privado del sector agrícola por el salario medio de un investigador. Fuente: Bloom et al., 2017.

A partir de la esperanza de vida al nacer, que ha ido creciendo de forma prácticamente lineal desde 1900, y de los datos de mortalidad específica por enfermedad, BJVW2017 calculan los años de vida salvados por año debidos al descenso de la mortalidad por determinadas enfermedades, que atribuyen al progreso médico, y lo comparan con el esfuerzo investigador medido por las publicaciones que mencionan la enfermedad como palabra clave, y las que son informes de ensayos clínicos para esa enfermedad. En el caso de todos los tipos de cáncer, la tasa de mortalidad ha ido cayendo desde 1975, pero lo ha hecho con forma sigmoide, más acelerada entre mediados de los 80 y mediados de los 90, lo que se traduce en que los años de vida salvados alcanzaron un máximo a finales de los 80. La productividad investigadora resultante de dividir los años de vida salvados por el esfuerzo investigador muestra un claro decrecimiento desde 1990.

Figura 15. Mortalidad (azul, izquierda), años de vida salvados (verde, izquierda) y productividad de la investigación biomédica medida en número de publicaciones (azul, derecha) y número de publicaciones reportando ensayos clínicos (verde, derecha) para todos los tipos de cáncer. El máximo de años de vida salvados se alcanzó a finales de los 80, y desde entonces la productividad de la investigación biomédica en cáncer está cayendo. Fuente: Bloom et al., 2017.

BJVW2017 analizan también la producción industrial, y su conclusión tras todos estos análisis demuestra una vez más que cada vez resulta más difícil mantener la tasa de progreso científico, y al ser los resultados consistentes en diversas áreas de la ciencia y la tecnología concluyen que "las ideas, y el crecimiento exponencial que implican, son cada vez más difíciles de encontrar. El crecimiento exponencial resulta de grandes aumentos en el esfuerzo de investigación que compensan la disminución de la productividad investigadora." Constituye una definición de la ley de rendimientos decrecientes.

7. Es improbable que haya otro Einstein

Patrick Collison y Michael Nielsen pidieron a 93 físicos de los mejores departamentos de física según un ranking de universidades que juzgaran y puntuaran la importancia de 1.370 descubrimientos que merecieron el Premio Nobel de física desde 1900 y tabularon las respuestas por décadas de acuerdo al año del descubrimiento, no del premio. La puntuación final de una década corresponde a la probabilidad de que un descubrimiento de esa década se considere más importante que los descubrimientos de otras décadas.

Figura 16. Probabilidad de que un descubrimiento realizado en una década merecedor del Premio Nobel en física sea considerado más importante por un panel de 93 físicos que otro descubrimiento que recibió el mismo premio realizado en otra década. Fuente: The Atlantic: Science Is Getting Less Bang for Its Buck.

El resultado manifiesta que la edad de oro de la física tuvo lugar entre 1910 y 1940. Fue cuando se descubrió la mecánica cuántica, la cristalografía de Rayos X que permite mirar al mundo de los átomos, el neutrón, la antimateria y mucho de lo que se sabe de la radiactividad y las fuerzas nucleares. A partir de entonces tuvo lugar un declive significativo, con un repunte importante en los 60 debido a dos descubrimientos, la radiación de fondo cósmica de microondas y el modelo estándar de partículas. A pesar de ello los físicos consideraron los descubrimientos de todas las décadas desde 1940 hasta 1990 como menos importantes que los de cualquiera de las tres décadas entre 1910 y 1940. La gráfica se ve obligada a terminar en 1990 porque en los últimos años el Comité Nobel ha preferido premiar trabajos realizados en los 70 y los 80 y solo tres trabajos desde 1990 han sido premiados, lo que no permite un dato fiable. El hecho de que el Comité no esté premiando trabajos realizados desde 1990 y prefiera trabajos de los 70 y de los 80, que tampoco muestran una alta puntuación es muy mala noticia para la física.

La misma encuesta fue hecha para la química y la biomedicina, donde los resultados son algo mejores con un incremento en la segunda mitad del siglo XX, pero no mucho, y de nuevo se observa que las tres últimas décadas reciben muy pocos premios. A pesar del tremendo incremento de los recursos dedicados a la investigación a lo largo de los últimos cien años los grandes descubrimientos no están llegando más deprisa sino al contrario. Los físicos atacan esta conclusión diciendo que se han hecho grandes descubrimientos recientes como el bosón de Higgs y las ondas gravitacionales. Sin embargo esos descubrimientos son destacables porque nos retrotraen a otra época anterior cuando tales descubrimientos eran más habituales.

También vemos que la dificultad de realizar grandes descubrimientos se está incrementando. En los primeros años del Premio Nobel la edad media del premiado cuando hizo el descubrimiento que le valió el premio era de 37 años. En los últimos años esa edad media ha subido a 47 años. Los científicos necesitan una cuarta parte más de su carrera profesional para llegar a la cima. Ernest Rutherford publicó el descubrimiento del núcleo del átomo como autor único, mientras que los dos artículos de 2012 que anunciaron el descubrimiento del bosón de Higgs tenían 2.915 y 2.890 autores cada uno.

8. Tirando el dinero en ciencia

Cuando nos enfrentamos a una situación de retornos decrecientes es muy importante reconocerlo para asegurarse de que las inversiones tienen un retorno adecuado. Los recursos que se dedican a la investigación no se dedican a atender las necesidades de la población y la creencia generalizada de que la ciencia progresa más deprisa que nunca y es necesario dedicar más y más recursos para no perder el tren del progreso quizá no sea la postura más inteligente.

Volviendo a la física, que es la más madura de las ciencias y por tanto la que menores retornos presenta, observamos un claro ejemplo de mínimos retornos obtenidos tras una inversión enorme, el Gran Colisionador de Hadrones (LHC). El Modelo Estándar de la física de partículas se desarrolló en los años 60 y se concluyó a mediados de los 70 tras la confirmación de la existencia de los quarks. La validez del modelo estándar ha sido confirmada en multitud de experimentos incluyendo los descubrimientos del quark top (1995) y el neutrino tau (2000). Sin embargo el modelo estándar tiene fuertes limitaciones al no incorporar la gravitación universal y la masa del neutrino, y no tener nada que decir sobre la materia y la energía oscuras. Pero salvo que se encuentre una puerta más allá del modelo estándar la física de partículas está esencialmente tan acabada como la tabla periódica de los elementos y la tan deseada unificación de lo muy grande y lo muy pequeño en una sola teoría no será posible. Para buscar esa puerta se construyó entre 1998 y 2008 el LHC con un coste de 6 mil millones de euros, y el aparato tiene un coste operativo de unos mil millones de euros anuales. Solo en electricidad gasta más de 20 millones de euros al año. El coste de encontrar el bosón de Higgs superó los 12 mil millones de euros. Pero el bosón de Higgs lo único que hace es confirmar una vez más el modelo estándar. Ya se suponía que existía desde el descubrimiento de los bosones W y Z en 1983, y se le ha encontrado exactamente en el nivel energético donde se le esperaba encontrar.

Tras varios años funcionando a plena potencia y unos 20 mil millones de euros gastados el LHC ha fracasado en encontrar indicios de una nueva física y solo ha servido para requeteconfirmar el modelo estándar. El último anuncio triunfalista, que el decaimiento del bosón de Higgs también sigue el modelo estándar, también esconde ese fracaso. El LHC ha sido un carísimo ejercicio de confirmación de algo que ya se sabía y no ha producido ciencia nueva de importancia. Es improbable que se construya un acelerador de partículas mayor que el LHC puesto que los costes no son proporcionales a la longitud sino que crecen de forma no lineal. De los 20 mil millones de euros gastados y en general malgastados en el LHC, unos dos mil millones los puso España a través de su contribución al CERN.

9. Errando el camino en ciencia

La física lleva unos 40 años sin lograr un gran avance a pesar de saberse que nuestra comprensión del universo es incompleta porque los modelos confirmados no explican las observaciones. La respuesta de los científicos cuando no logran grandes avances parece ser inventárselos. En los años 60 y 70 se había desarrollado de forma marginal una extraña teoría que explicaba la materia y la energía como aspectos de la vibración de unas cuerdas a través de múltiples dimensiones. A partir de 1984 la teoría de cuerdas se volvió muy popular por su capacidad para explicar todas las partículas y sus interacciones, atrayendo a multitud de investigadores. Pronto hubo diferentes teorías de cuerdas cada una con múltiples dimensiones, pero al parecer las cuerdas dejaban de existir al llegar a la undécima dimensión donde en vez de cuerdas hay membranas. En 1994 las diferentes teorías se unificaron en la Teoría-M que es 11-dimensional. A partir de entonces la teoría de cuerdas se convirtió en la teoría dominante, atrayendo la mayor parte de la financiación y dominando la mayoría de los departamentos académicos hasta convertirse según sus defensores en la única teoría viable.

Esto recuerda mucho a cómo la hipótesis del CO2 se ha convertido en la dominante en la ciencia del clima y la falta de financiación y la presión académica reducen el desarrollo de cualquier alternativa hasta convertirse en la única hipótesis viable según sus defensores. Después empiezan los problemas.

En el caso de la teoría de cuerdas el problema es que no predice nada que se pueda testar. Según la teoría hay al menos 10^500 (sí, un 10 y 500 ceros) universos distintos (el multiverso) y entre ellos algunos muy parecidos y otros muy distintos, y el que nos ha tocado es como es. Es un callejón sin salida, una teoría filosófico-matemática sin ningún contacto con la realidad y empieza a crecer entre los físicos teóricos que no se han casado con esa teoría la sospecha de que centenares de las mentes más brillantes del planeta durante dos generaciones de físicos han desperdiciado sus carreras en una teoría que no es científica. Eso es lo que defiende la física Sabine Hossenfelder en su libro "Perdidos en las matemáticas Cómo la belleza confunde a los físicos."

Los físicos, cuando piensan en los agujeros negros o predicen descubrimientos en el CERN, creen que las mejores teorías son hermosas y elegantes, y por eso no hemos visto un gran avance en los fundamentos de la física en las últimas cuatro décadas. La creencia en la belleza se ha vuelto tan dogmática que entra en conflicto con la objetividad científica: la observación no ha podido confirmar teorías como la supersimetría o la gran unificación, desarrolladas por físicos basados en criterios estéticos; peor aún, estas teorías «demasiado buenas para no ser ciertas» son en realidad imposibles de probar y han dejado el campo en un callejón sin salida. Para escapar, los físicos deben repensar sus métodos. Solo abrazando la realidad tal como es, la ciencia puede descubrir la verdad. ¿Acaso creer no es algo que un científico no debería hacer nunca?

El premio Nobel Robert Laughlin, y los físicos Peter Woit y Lee Smolin han escrito también un libro cada uno criticando que la teoría de cuerdas es errónea y estéril, y el nivel de discusión ha llegado al punto de que frente a las acusaciones de que dicha teoría no entra dentro de lo que constituye ciencia, los defensores de las cuerdas pretenden que se cambie la definición de ciencia. Tanto es así que en 2014 George Ellis y Joe Silk publicaron un artículo en Nature defendiendo el método científico y la integridad de la física, diciendo que "Los intentos de eximir las teorías especulativas del Universo de la verificación experimental socavan la ciencia".

Entre tanto John Horgan, el escritor de "El fin de la ciencia" del que hablábamos más arriba, ha ganado una apuesta de 2.000 dólares que hizo en 2002 con el físico Michio Kaku de que antes del 2020 ni la teoría de cuerdas ni ninguna teoría unificada de la física habría ganado un premio Nobel.

10. Cuando la realidad se ajusta a la teoría y no al revés

Ya en 1884 Lord Kelvin aventuraba la existencia de cuerpos oscuros para explicar la discrepancia entre la masa estimada de la galaxia y la masa de las estrellas visibles. Pronto a la masa de estos cuerpos oscuros se le llamó materia oscura. En los años 70 y 80 la comunidad de astrofísicos llegó a la convicción de que un gran número de observaciones, como la velocidad de rotación de galaxias y grupos de galaxias, así como la magnitud de la lente gravitacional y la velocidad de las galaxias más lejanas solo podían explicarse por la existencia de mucha más materia de la que se podía observar. Sin embargo la luz proveniente de las galaxias más lejanas no parecía interactuar con toda esa materia que debía constituir el 85 % de la materia del universo. Tanta materia y que no interactuase con la luz no se podía encajar en el tipo de materia conocida, la materia bariónica (protones y neutrones), así que se inventó un nuevo tipo de materia no-bariónica compuesta por partículas imaginarias, lo que demuestra que realmente no hay límites a lo que los científicos son capaces de creer siempre que apoye la hipótesis más popular. Son mucho más escépticos con las hipótesis desfavorecidas.

El problema es que 35 años más tarde y tras incontables experimentos y miles de millones de dólares gastados no han sido capaces de encontrar evidencia de que las partículas de materia oscura existan. Ya sé que esto suena extraño para los que siguen la ciencia a través de los medios, pero tras más de tres décadas no se ha demostrado que la materia oscura y su alter ego la energía oscura existan, y siguen a día de hoy siendo producto de la imaginación de los científicos. Y como la materia oscura es inventada su ajuste a la teoría es muy bueno. Obviamente se inventa con las propiedades adecuadas. Sin embargo la teoría de la materia oscura tiene serios problemas para explicar algunas observaciones. Un estudio de 2016 reveló que la gravedad calculada en galaxias de muy distintas características era siempre proporcional a la gravedad calculada para la materia visible y es muy difícil explicar esa proporcionalidad en galaxias muy distintas que tienen masas y formas muy diversas suponiendo que la materia visible y la oscura son independientes. La teoría de la materia oscura también falla en explicar los núcleos galácticos, donde predice picos de densidad que las observaciones desmienten, predice muchas menos galaxias enanas de las que se observan, y falla en predecir cómo las galaxias que tienen galaxias satélites se alinean con ellas en un plano. Sabine Hossenfelder y Stacy McGaugh explican todos estos problemas en un artículo titulado "¿Es la materia oscura real?" en Scientific American (versión escaneada) mientras defienden una de las teorías alternativas basada en modificar la relatividad general. El comportamiento de la gravedad ha sido bien estudiado a la escala del Sistema Solar, pero su validez a las escalas galáctica y cosmológica no está tan bien probada. Modificando la relatividad general se podría eliminar la necesidad de la materia oscura que tanto elude nuestra detección.

Y lo que pone más nerviosos a los miles de científicos que han construido sus carreras con la materia y la energía oscuras es la posibilidad de que simplemente estemos usando mal la ecuación de la relatividad general. Para trabajar con la masa de una galaxia no es posible usar la masa de cada cuerpo en su posición, así que se trabaja con una media, promediando la estructura. Pero la ecuación de la relatividad general es no-lineal y al promediar ambos lados de la ecuación cometemos un error porque el promedio de la función de una variable no es lo mismo que la función del promedio de una variable. Ese error se asume pequeño pero podría ser lo suficientemente grande como para alterar el valor de la constante cosmológica y eliminar la necesidad de la materia oscura. Un pequeño grupo de físicos está intentando que se le dé importancia al problema del promediado, y Sabine Hossenfelder manifiesta en su blog su acuerdo, sin embargo los defensores de la materia oscura no están dispuestos a que les arruinen la fiesta, y son mayoría.

11. Conclusiones

El 90 % de los científicos que han existido están vivos hoy, pero los mayores descubrimientos fueron realizados por el 10 % que no lo está. Cuando se trabaja con un problema de rendimientos decrecientes, el arrojar más dinero disimula el problema durante un tiempo, pero cuando la situación se vuelve insostenible y es necesario recortar la inversión, el problema se multiplica de golpe. No podemos esperar que el progreso de la ciencia y la tecnología resuelvan la seria situación energética a la que nos enfrentaremos en un futuro próximo. A pesar de ser una creencia central para la mayoría, el tecno-optimismo no está justificado por la evidencia.

Por otra parte, a pesar del enorme incremento en financiación, y en respuesta a la creciente dificultad para producir avances significativos, la ciencia se está volviendo menos fiable, inmersa en una crisis de reproducibilidad que esconde un extendido fraude de bajo nivel. Es un problema adicional al que los propios científicos no saben ni quieren enfrentarse por el problema reputacional que les causa. Para que la sociedad se enfrente a ese problema es necesario que se haga consciente de él, lo que viene dificultado por el injustificado prestigio de los científicos en la sociedad, acostumbrada a que la ciencia sea utilizada por intereses políticos y económicos como una especie de prueba del algodón que no engaña. Debemos ser tan escépticos con la ciencia como con todo lo demás, si no más, porque la ciencia esencialmente carece de controles de calidad fiables.

La ciencia como actividad humana en la que priman los egos e intereses particulares presenta una preocupante tendencia al pensamiento grupal, donde teorías dominantes se adueñan del campo científico y activa o pasivamente suprimen a las teorías competidoras y a los que las defienden, provocando que la ciencia yerre el camino durante una generación o dos. Es lo que sucedió cuando los geólogos decidieron ignorar y rechazar, en vez de estudiar, la teoría de la deriva continental de Alfred Wegener, propuesta en 1920 y que no sería aceptada hasta 1965 con la tectónica de placas. Es lo que ha sucedido en física con la teoría de cuerdas y con la materia oscura, que llevan camino de ser dos monumentales fiascos que la van a dejar muy maltrecha. Y es lo que está sucediendo con la teoría de que el CO2 controla el clima, que podría tardar décadas en ser refutada por lo difícil que han hecho que un científico que no la suscriba pueda tener no solo una carrera científica sino una vida libre de ataques y denigraciones constantes. En todos los casos son décadas perdidas y recursos malgastados, pero en el caso del cambio climático van a ser también políticas erróneas con un alto coste económico para la sociedad y la posibilidad de causar un grave daño a las personas en situación más vulnerable.

La ciencia no necesita fe, por lo que no hay que tener fe en la ciencia.

60
¿Te ha gustado el artículo?

Si quieres saber más y estar al día de mis reflexiones, suscríbete a mi blog y sé el primero en recibir las nuevas publicaciones en tu correo electrónico.

  1. en respuesta a Francisco Llinares
    -
    #60
    10/06/20 23:09
    Señor Llinares, el otro día me trató de enajenado mental por decirle que yo había salido de un lab de Wuhan. ¿Cómo tendría yo entonces que calificarlo a usted tras ls barbaridades escritas en el post al que respondo? Cuando las cabezas se van, luego ya no suelen volver. Usted que es un hombrede gráficos, observe uno de largo plazo de la esperanza de vida, y me dice si está en primaria alcista o bajista. ¿No será usted de los que piensan que nos van a meter microchips en el torrente sanchíneo con la vacuna de la covid-19?
  2. en respuesta a Fleischman
    -
    Top 100
    #59
    02/03/20 11:26

    Gracias Fleischman, más evidencia y alerta de un grave problema que la mayor parte de la comunidad científica y editores de literatura científica no tiene interés en combatir.

  3. en respuesta a Knownuthing
    -
    Top 100
    #58
    02/03/20 10:56

    Acabo de verlo en Naukas:

    https://culturacientifica.com/2020/02/24/la-crisis-de-reproducibilidad-en-ciencia/

    Uno de los elementos más valiosos con que debiera contar la comunidad científica es con la replicación sistemática de los estudios o, al menos, con aquellos que introducen alguna novedad significativa. Sin embargo, la mayoría de los científicos se muestran poco inclinados a tratar de replicar los experimentos o análisis realizados por otros investigadores. Al fin y al cabo, resulta mucho más gratificante hacer nuevos estudios que puedan aportar novedades de interés en un campo que limitarse a comprobar si se obtienen los mismos resultados que obtuvieron antes otros. Además, las revistas científicas no están interesadas en publicar repeticiones, máxime si las conclusiones no refutan las del primer trabajo; en ese caso no hay novedades que contar.

    En varios estudios se ha llegado a la conclusión de que muchos resultados publicados no son reproducibles o solo lo son parcialmente. Aunque lleva años generando preocupación, este problema se manifestó con toda su crudeza a raíz de la publicación en 2015 de un estudio en la revista Science, según el cual tan solo para una treintena de 100 experimentos de psicología publicados en las mejores revistas científicas del campo se habían podido reproducir sus resultados. Pero el problema no se limita a la psicología, sino que afecta a un buen número de disciplinas.

    De acuerdo con una encuesta realizada en 2016 por la revista Nature a 1500 investigadores de diferentes campos, el 70% habían sido incapaces de reproducir los resultados de otros colegas y el 50% no lo habían sido de reproducir sus propios resultados. Por disciplinas, estos fueron los datos de la encuesta: en química el 90% y el 60% (ajenos y propios, respectivamente), en biología el 80% y el 60%, en medicina el 70% y el 60%, en física e ingeniería el 70% y el 50%,en medicina, y en ciencias de la Tierra y el ambiente el 60% y el 40% (Baker, 2016).

    Parece evidente que la imposibilidad o dificultad para reproducir resultados constituye una severa limitación al ejercicio del escepticismo, sin el cual no es posible someter a contraste los resultados y conclusiones publicadas.

    Aunque a veces la imposibilidad de reproducir los resultados se refiere a casos de fraude, lo normal es que no haya trampa ni malas prácticas realizadas de forma voluntaria. Las razones por las que los resultados experimentales no se reproducen al repetirse los experimentos son diversas. Muchas veces no se especifican de forma correcta las condiciones experimentales. En otras los investigadores se ven afectados por sesgos como los expuestos en una anotación anterior y que tienen que ver con el grado de aproximación de los resultados obtenidos a las expectativas iniciales. Cuando en un conjunto de datos alguno destaca como “anómalo” es relativamente común descartarlo basándose en el supuesto de que la anomalía bien puede deberse a un error experimental sin trascendencia. En todo esto influyen de forma decisiva dos factores. Uno es que el personal de universidades y centros de investigación, como ya hemos visto, está sometido a una fuerte presión por publicar. Y el otro es que las revistas científicas rara vez aceptan publicar resultados negativos. Por esa razón, no es de extrañar que funcionen sesgos que, inconscientemente, facilitan la obtención de resultados positivos y, por lo tanto, publicables.

    El tratamiento estadístico es también una fuente de resultados de difícil reproducción. Es relativamente común la práctica de ensayar diferentes procedimientos y seleccionar, entre un catálogo más o menos amplio de posibilidades, aquél cuyos resultados mejor se acomodan a las expectativas. Este es un problema serio en los campos en que se realizan ensayos que han de conducir al desarrollo posterior de tratamientos médicos. Pero, el daño que causa es general, ya que esa forma de proceder tiende a neutralizar la emergencia de nuevas ideas que debería caracterizar, de forma intrínseca, a la práctica científica. Si se opta por mostrar los resultados que mejor se acomodan a las expectativas, se deja de lado el examen crítico de posibilidades que podrían haber conducido a nuevas ideas.

    La figura muestra la frecuencia de aparición de expresiones relativas a, reales o supuestas, crisis científicas. Fuente: D Fanelli (2018) PNAS 115 (11): 2628-2631

    La revista Proceedings of the National Academy of Sciences, más conocida por sus siglas PNAS y una de las más prestigiosas del mundo, publicó una serie de artículos analizando la llamada “crisis de reproducibilidad” y, en general, la validez de un discurso muy en boga mediante el que se difunde la idea de que la ciencia se encuentra hoy en crisis. De ese conjunto de estudios parece concluirse que esa idea no tiene suficiente base y que se trata, más bien, de una leyenda urbana. Sin embargo, en nuestra opinión, lo que esos estudios documentan es que el fraude no ha crecido durante las últimas décadas, de la misma forma que no ha crecido el número de artículos retractados (retirados de la publicación por los editores) en términos relativos. Pero no es tan clara la conclusión de que no hay problemas de reproducibilidad, porque el procedimiento seguido para llegar a esa conclusión es demasiado indirecto, mientras que los estudios que documentan las dificultades para reproducir resultados anteriores son bastante más directos.

    En nuestra opinión, la falta de reproducibilidad procede de una progresiva relajación de los estándares que se consideran aceptables en cuanto calidad de la evidencia científica; nos referimos a asuntos tales como tamaños de muestra, claridad de la significación estadística más allá del valor de p, calidad de los blancos, etc. Los científicos como colectivo somos a la vez autores de los experimentos, autores de los artículos y revisores de estos. Que poco a poco se vayan aceptando niveles cada vez más bajos nos conviene si nuestro objetivo es el de publicar más rápidamente y engrosar un currículo investigador en un tiempo breve. Pero eso conduce, lógicamente, a un declive del rigor y exigencia generales. Ahora bien, al tratarse de un declive gradual, no se aprecia con nitidez la pérdida de calidad. Sin embargo, cuando el deterioro se acentúa se acaban dando por buenos (publicándolos) resultados que realmente no responden a hechos reales y por tanto no se pueden reproducir.

    Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.

    Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.

  4. Top 100
    #56
    26/02/20 12:04

    Un artículo recién publicado que pone los pelos de punta sobre la crisis de reproducibilidad y que desmiente categóricamente a los que opinan que todo marcha razonablemente bien en la ciencia hoy en día.

    Miyakawa, Tsuyoshi. "No raw data, no science: another possible source of the reproducibility crisis." Molecular Brain volume 13, Article number: 24 (2020) 1-6.

    "Como editor en jefe de Molecular Brain, he manejado 180 manuscritos desde principios de 2017 y he tomado 41 decisiones editoriales clasificadas como "Revisar antes de revisar", solicitando que los autores proporcionen datos en bruto. Sorprendentemente, entre esos 41 manuscritos, 21 fueron retirados sin proporcionar datos sin procesar, lo que indica que requerir datos sin procesar eliminó más de la mitad de los manuscritos. Rechacé 19 de los 20 manuscritos restantes debido a datos en bruto insuficientes. Por lo tanto, más del 97% de los 41 manuscritos no presentaron los datos en bruto que respaldan sus resultados cuando lo solicitó un editor, lo que sugiere la posibilidad de que los datos en bruto no existieran desde el principio, al menos en algunas partes de estos casos."

    Es flipante. Se publican toneladas de artículos en los que se alcanzan conclusiones que no se soportan en los datos. De los 40 artículos rechazados 14 fueron publicados en otras revistas, 12 en revistas que requieren que los datos se hagan disponibles a quien los solicite, y cuando el autor los solicitó 10 ni le respondieron, uno se negó, y uno le mandó datos parciales.

    La mayor parte de la ciencia que se hace cuesta un ojo de la cara y no sirve para nada. Es la conclusión más clara que se puede extraer. Hemos creado las condiciones perfectas para que los tramposillos medren en la ciencia.

  5. Top 100
    #55
    06/02/20 15:10

    Por qué las predicciones de Scientific American de hace 10 años fueron tan erróneas

    El número uno en la lista fue un avance de células madre que resultó ser uno de los mayores casos de fraude científico de la historia. (Para ser justos, engañó a todos.) Pero la lista también contenía otras promesas incumplidas: compañías ahora desaparecidas, una incursión del FBI y muchas, muchas tecnologías simplemente aún a punto de finalmente lograrlo una década más tarde. Según mi recuento, solo dos de sus 16 descubrimientos médicos de 2005 han dado como resultado un medicamento u procedimientos hospitalarios hasta el momento. El futuro prometedor aún no está aquí.

  6. en respuesta a Knownuthing
    -
  7. en respuesta a Knownuthing
    -
    #53
    Fisico77
    03/02/20 21:05

    En materia oscura. Se ha demostrado que no es materia barionica, un barión es un núcleo de un átomo incluyendo al hidrógeno. Se ha demostrado que existe, y por mucho que te empeñes que no tiene un comportamiento ordinario. Se ha buscado a través de pequeños planetas perdidos (MACHO) y otras cosas más exóticas. A partir de ahí el tema está abierto.

    Abierto es abierto. Y las posibilidades tan amplias, y el campo tan interesante que todas las opiniones (expertas, opiniones expertas, no de aficionados) son contempladas. Tanto los que dicen que los cálculos son malos como los que dicen que son cualquier cosa ordinaria no contabilizada. El problema es que todos los modelos que se hagan tienen que cuadrar con todas las observaciones. Y la realidad es la que es.

    Sé el título del artículo, sé tus conclusiones. Parece que opinar de tus conclusiones no es correcto, en la medida que se contraponga a opiniones (incompletas, sin duda incluso en temas tan técnicos como materia oscura).

    Ahora sé que tu problema es LHC, también en alguna parte anterior el cambio climático. Hombre son temas amplios, como te he dicho yo de todo no sé.

    Vale. La conclusión es que la ciencia es la actividad con mayor rendición de cuentas de todas las que se realizan. Los Europeos vigilan cada Euro, como debe ser. Planificar un viaje, justificar un equipo contratar personal es una tarea ardua, y que se justifica, antes durante y después. Como debe ser.

    Los avances científicos son cada vez más complejos y un sistema de ciencia debe tener no sólo LHC, si no también el observatorio de Canarias (dinero del mundo pagando ciencia en España que curioso). La materia oscura también se estudia en Canarias.

    Tu opinión sobre donde se debe invertir, es tan irrelevante como la mía. Hay comités de expertos. Mi objeción es que el artículo está manipuladamente sesgado, y no están claras las conclusiones. Se debe pedir leyes fundamentales a la ciencia? Reproducibilidad? El retorno se debe mejorar? Es el retorno anterior el retorno correcto? No se debe invertir en materia oscura? No se debe invertir en cambio climático? Cual es tu conclusión para afinar el comentario?

    Si mañana se decide no invertir en LHC o en Canarias perfecto. En EEUU cerraron SSC de la noche a la mañana, con argumentos igual de grotescos. Ahora se arrepienten por que sus científicos están más en Europa que en EEUU, y el HIGGS se ha descubierto en Europa, como el Z o el W se hizo en el pasado. China si invierte en eso (tira el dinero en tu desarrollo de una ceja), en todo caso me parece irrelevante donde se invierta, creo que el artículo no es de donde se debe invertir en ciencia, o lo es ahora?

    Si MERCK dice que no pueden reproducir estudios biológicos, la acountability es dejar de invertir en bios? O mejorar protocolos entre laboratorios?

    La reproducibilidad en física hace años que no está en cuestión, y los premios Nobeles en este campo también indican grandes avances. Nadie duda de que la reproducibilidad afecte a la calidad de la medicina de hoy, quizá a la dificultad de copiar de las compañías (te lo has planteado?)

    El mejor destino de dinero es a la CIENCIA, para que El Progreso entre en los países, las correlaciones son abrumadoras (bueno, excepto en España, que mejor que inventen ellos).

    Casi parece estimulante esta conversación.

  8. en respuesta a Fisico77
    -
    Top 100
    #52
    03/02/20 19:54

    No sé por qué te empeñas en hablar de cosas que no tienen que ver con el artículo. Parece que tú defiendas que hay que invertir en ciencia sin que importe el rendimiento, porque éste viene automáticamente con la inversión, y parece que te opongas a que se pidan cuentas para ver cuanto rendimiento se le saca a la inversión, como es razonable hacer con cualquier inversión. Cuando la gente no quiere que se echen cuentas y se hagan auditorías en general es porque piensan que no van a salir bien.

    Pero mira, se han encontrado galaxias SIN materia oscura. Lo que plantea que los métodos de simulación no son malos. Que haya sin, quiere decir que el 99% es CON.
    Perdona pero que yo sepa hasta la fecha nadie ha demostrado que la materia oscura no bariónica exista, por lo que es muy posible que el 100% de las galaxias sean SIN, y se hayan desperdiciado cuatro décadas de investigaciones en el asunto.
    Díselo al virus chino, o al futuro virus.
    De nuevo no tiene nada que ver con el artículo. Absolutamente nadie defiende que no se invierta en prevención epidemiológica, siendo como es el principal riesgo para la humanidad, pero si España hubiera invertido en eso los 2.000 millones de euros gastados en el LHC tendríamos una capacidad mucho mejor para defendernos de nuevas epidemias. Cuando se tiene poco hay que gastar con cabeza, empezando por aquellos asuntos en los que te va la vida, y eso no incluye al bosón de Higgs.
  9. en respuesta a Knownuthing
    -
    #51
    Fisico77
    02/02/20 11:37

    Claro según tú, no es causa efecto. Los países con recursos (como las petrodemocracia) tienen más para invertir, e invierten en construcción. No en ciencia, y es indicador de como son sus sociedades.

    Voy a la tesis del artículo. Ir al límite de la ciencia significa explorar en más sitios (repartir más) y hacer máquinas más complejas. Evidentemente hay que invertir más en ciencia para financiar como toca los grandes experimentos, y más si se buscan espectaculares avances en el conocimiento. Lo de la tecnología asociada a la ciencia espero que lo tengas ya claro.

    Mira, tus ejemplos son bastante retorcidos. Lo de la materia oscura, los modelos hace años se hacen por computadora, no en un cuadernillo, son públicos y cualquiera puede resolver las ecuaciones de una galaxia con o sin materia oscura. Cada cierto tiempo aparece gente que encuentra la solución. En ciencia es sencillo, mete las ecuaciones en un superordenador, y ya. El problema a tres cuerpos por ejemplo es irresuloble desde Newton, no te quiero decir una galaxia.

    Estas cosas son las que limitan la fuerza de tu artículo, que está sumamente sesgado, y que la divergencia en Física o en otro campo es parte del proceso, no la realidad

    Pero mira, se han encontrado galaxias SIN materia oscura. Lo que plantea que los métodos de simulación no son malos. Que haya sin, quiere decir que el 99% es CON. Se necesita invertir mucho más para poder dar soluciones a estas paradojas. Que como no están relacionadas con el origen del universo, y a su vez con su extinción.

    Se que estos temas no interesan, pero los que ponen dinero (en países poco corruptos) saben el beneficio de tener un sistema científico funcionando. Díselo al virus chino, o al futuro virus.

  10. Top 100
    #50
    01/02/20 18:18

    Un interesante video de 14 minutos en inglés explicando por qué los incentivos presentes en la investigación científica de hecho favorecen que la mala ciencia se seleccione y se extienda.

    https://www.youtube.com/watch?v=fq8HOguXGFI

    Los dos últimos minutos son de publicidad.

  11. en respuesta a drlucafiorini
    -
    Top 100
    #49
    01/02/20 17:53
    Este largo artículo es como una novela de misterio que el autor no supo terminar. Después de tantas críticas a la ciencia, ¿que se propone? Nada.
    Lástima que haya gente que no entienda algo tan sencillo como que lo que me propongo demostrar es lo que dice el título del artículo: Que la ciencia presenta costes crecientes y rendimientos decrecientes. La verdadera falacia es preguntar qué me propongo y responder por mi que nada. Me parece muy bien que usted piense que el dinero del LHC está bien gastado. Yo no. Y tengo derecho a mi opinión.
  12. #48
    01/02/20 17:05

    Me temo que menospreciar la ciencia está de moda en el nuevo orden mundial.

    Este largo artículo es como una novela de misterio que el autor no supo terminar.
    Después de tantas críticas a la ciencia, ¿que se propone?
    Nada.

    Yo creo que la razón es evidente: el autor no tiene ideas alternativas mejores de la ciencia actual.
    La falta de nuevas ideas no se limita solo a la ciencia, es evidente.

    TODO es mejorable, ciencia incluida.
    Pero un artículo que contiene tantas críticas a uno de los esfuerzos intelectuales más éxitosos de la historia, se que muy flojo.

    Además los argumentos son bastante simplista.
    Por ejemplo, cómo que el LHC es un ejemplo de desperdicio porque solo "ha servido para requeteconfirmar el modelo estándar"!?
    ¡Para nada! La teoría del Modelo Estándar es solo una de las teorías.
    Hace falta el LHC para saber como es de verdad el bosón de Higgs.
    Además el Modelo Estándar no predice para nada la masa del bosón de Higgs, otra cosa que sabemos solo gracias al LHC. De hecho la teoría del Modelo Estándar tiene más de 20 parametros libres que solo podemos conocer gracias a los experimentos.
    Si el Modelo Estándar puede proporcionar prediciones precisas es gracias a la medidas del LHC y otros descubrimientos (mucho de ellos inesperados) que la ciencia ha hecho.
    Además el Modelo Estándar, por muy preciso que sea, es "solo" una teoría efectiva... pero esto llevaría demasiado lejo.

    Un evidente caso de falacia es:
    "El LHC ha sido un carísimo ejercicio de confirmación de algo que ya se sabía y no ha producido ciencia nueva de importancia".

    Eso es como cuando un supuesto guru hace 10.000 prediciones del resultado del SP500 para el próximo año y despues de un año va contando: "Mirad, había predicho exactamente este resultado".
    Si, ¿y las 9999 otras prediciones equivocadas que?

    Aquí pasa lo mismo, las medidas del LHC tienen acuerdo con algunas teorías, pero no con otras. Cosa que no se sabía antes de las medidas.
    Si nos fijamos post-hoc solo en las teoría que tienen acuerdo, estamos haciendo un pensamiento falace.

    Saludos.

  13. en respuesta a Roixordo
    -
    Top 100
    #47
    31/01/20 01:24

    Totalmente de acuerdo con lo que dices Roixordo, además creo que es algo en lo que estarán de acuerdo la práctica totalidad de los científicos. Más allá de que la ciencia rinda menos, está claro que el sistema de ciencia pide a gritos que se reforme. Eso daría sin lugar a dudas para otro artículo.

  14. en respuesta a Fisico77
    -
    Top 100
    #46
    30/01/20 17:02

    Los estados que más invierten en general es porque tienen más para invertir. No obstante me sorprende tu manera de discutir porque no es la manera de argumentar de un científico, basada en los datos y centrada en la hipótesis, sino la de un polemista que abusa de las falacias argumentativas saltando a temas que no se tratan en el artículo, como la corrupción, y levantando oponentes de paja que defienden la ignorancia y pretenden un país de camareros.

    La tesis de este artículo está en su título: Rendimientos decrecientes y costes crecientes en una ciencia menguante. Frente a eso tú no has aportado nada excepto ruido y furia. Si eres representativo de la ciencia española estamos más jodidos de lo que pensaba.

  15. #45
    30/01/20 12:06

    He intentado - sin éxito - hacer una carrera en el mundo de la ciencia y basándome en mi experiencia creo tener cierto conocimiento acerca de cómo funciona este mundo.

    Decía Adam Smith que "No es la benevolencia del carnicero, del cervecero o del panadero, la que nos lleva a procurarnos nuestra comida, sino el cuidado que prestan a sus intereses." Esta forma de organización a veces funciona y otras a veces no.

    A mi entender, la aplicación de dicha forma de organización a la generación del conocimiento científico no funciona correctamente, o ha dejado de hacerlo. Se espera que la apelación al egoísmo de quienes viven o pretenden vivir, directamente o indirectamente, de la ciencia resulte en la producción de conocimiento científico.

    El "Publish or perish" ha llevado a la creación de una serie de incentivos perversos. Una de la consecuencias de éstos es inflación de papers: de entrada, una tesis doctoral que pretenda ser tomada en consideración debe tener asociada la publicación de varios artículos en revistas JCR.

    Tengo la intuición de que el mecanismo de revisión por pares no escala bien cuando el volumen de artículos se incrementa.

    Uno de los motivos de esta intuición es que es que, habitualmente, el trabajo de revisor no está monetariamente remunerado. Otro de los motivos es la introducción del factor tiempo: en una revista de calidad entre el envío y la publicación de un artículo puede transcurrir más de un año, incluso dos, lo que choca frontalmente con las limitaciones temporales que impone la finalización de la tesis doctoral de un doctorando, o la financiación de un proyecto de investigación. Así, no es de extrañar que surjan revistas que pretenden atraer artículos prometiendo su rápida publicación.

    Otra incentivo perverso es la sobre-ponderación de la publicación de artículos en revistas de alto impacto. En el océano de artículos existentes he echado mucho de menos el disponer de libros de texto que condensen y resuman el conocimiento existente en sus respectivas áreas. Carencia que no es de extrañar habida cuenta de que para el científico que quiera no perecer ("perish") cuenta mucho más publicar ("publish") un paper en una revista JCR de alto impacto que el hacer participado en la publicación de un buen libro de texto que nos muestre el state-of-the-art de cierta cuestión.

  16. en respuesta a Knownuthing
    -
    #44
    Fisico77
    30/01/20 11:25

    Chico, realmente no tengo opinión caso a caso. En general los estados que más invierten están por delante de España en bienestar, los que menos estamos por delante de todos en corrupción. Como te gustan las citas, ahí va una: https://www.nature.com/news/corruption-good-governance-powers-innovation-1.16927

    Este artículo es reciente, y muchos similares que nos señalan no están en esta opinión sesgada.

    La degradación del sistema de ciencia española si esta existe se debe a la falta de inversión y a la corrupción. Los políticos, los corruptos y la gente ignorante no quiere que se invierta en este bien. Pero el desarrollo de los países modernos tiene correlación alta con lo que se dice en este artículo.

    No sé si este va a dejar de ser un país de camareros, como pretenden algunos.

    De donde va a salir la nueva técnica CRISPR no lo sabemos.

    Es fácil tener opinión cuando no se sabe nada de algo.

  17. en respuesta a Knownuthing
    -
    #43
    30/01/20 09:38

    Y ese es un motivo mas de los rendimientos decrecientes. Una parte importante del dinero destinado a ciencia, no se destina a hacer ciencia sino a "defender dogmas".

    Avanzar la ciencia es complicado, defender dogmas es muchísimo mas sencillo, y vistos los tiempos que corren, también mucho mas rentable económicamente para los interesados.

  18. en respuesta a Fisico77
    -
    Top 100
    #42
    29/01/20 21:44
    Recuerda, que China va a hacer el proximo gran acelerador. Su gobierno obviamente no está sesgado, y seguro que mejor informado que alguien que piensa que la ciencia de partículas es elucubrar.
    No sé que decirte, China se ha hecho famosa por construir ciudades vacías e infraestructuras que no se usan apenas. Yo no asumiría que saben como aprovechar bien el dinero.
    Posiblemente el negacionismo, sea una demanda social así como la ignorancia.
    El negacionismo en ciencia no existe. Tercer patinazo que te pegas. Como dijo Karl Popper (¿te suena?) todo conocimiento en ciencia es tentativo, y puesto que ninguna cantidad de evidencia puede demostrar que una hipótesis es correcta, mientras que una sola evidencia contraria puede demostrar que es falsa (un solo cisne negro demuestra que la hipótesis de que los cisnes son blancos es falsa) los científicos deberían esforzarse en tratar de demostrar que la hipótesis es falsa (buscar el cisne negro) en vez de intentar lo contrario en vano. ¿Es lo que la mayoría de los climatólogos están intentando demostrar, que el CO2 no controla el clima? No parece. Karl Popper tendría algo que decir al respecto a como se hace ciencia hoy en día, y lo señalaría como razón para que tantos científicos anden perdidos durante décadas.
  19. #41
    29/01/20 20:25

    Bien esta la crítica, cuando es constructiva.
    Por otro lado, quizá la inversión se debe redirigir a la tecnología en lugar de a la ciencia de base, de dónde se extraerán nuevas "excepciones" (descubrimientos) al conocimiento actual y por lo tanto, nuevos caminos para la ciencia de base.
    Por otro lado, siempre me ha molestado que se incluyan la psicología, la economía y otras disciplinas en relación a la ciencia; no son ciencias, no usan el método científico, y son exactamente la definición de corporativas/(pensamiento grupal de consenso) en cuánto a conocimientos aceptables/probados.