Revista Colombiana de Filosofía de la Ciencia, Vol. 18 Nº 37 (2018): 293-316

ISSN: 0124-4620 (papel) & 2463-1159 (electrónico)

Fecha de aceptación: 21/06/2018

Fecha de aprobación: 12/08/2018

https://doi.org/10.18270/rcfc.v18i37.2578

 

Historizar la objetividad: la matematización y automatización de la sistemática molecular en la reconstrucción de la historia de la vida[1]

Historicizing objectivity: mathematization and automation of molecular systematics and the reconstruction of life’s history

 

 

Edna Suárez-Díaz

Universidad Nacional Autónoma de México

ednasuarez@ciencias.unam.mx

Ciudad de México,  México

Víctor Hugo Anaya-Muñoz

Universidad Nacional Autónoma de México

 victor_anaya@enesmorelia.unam.mx

Ciudad de México,  México

 

Resumen

En este artículo defendemos un punto de vista historicista respecto a la relación entre historia y filosofía de la ciencia. En particular, argumentamos que el problema filosófico de la objetividad de las prácticas científicas debe ser guiado por el estudio detallado del contexto de los problemas y las prácticas de investigación de cada campo o disciplina particular. Para ello, nos enfocamos en el proceso de matematización de los criterios y decisiones en la sistemática, ocurrido a partir de la década de 1960, cuyo objetivo ha sido la elaboración de reconstrucciones objetivas de las relaciones filogenéticas entre seres vivos; estas prácticas también pueden formularse como una “eliminación de la subjetividad”, posible gracias a la molecularización del estudio de la evolución biológica y la introducción de bases de datos masivas de secuencias de proteínas y ácidos nucleicos, así como el uso de computadoras y algoritmos matemáticos. La atención a disputas filosóficas entre cladistas, evolucionistas y feneticistas ha obstaculizado la producción de narrativas históricas centradas en prácticas, y la reflexión epistemológica fructífera sobre el tema de la objetividad en el trabajo científico.

Palabras clave: Objetividad; sistemática; filogenias; computadoras; estadística; algoritmos

Abstract

This essay aims to contribute to the debate on the relation between history and philosophy of science, by defending a historicist perspective. A fruitful analysis of the problem of objectivity in science, we argue, must be guided by careful attention to scientific practices. Since the 1960s, the mathematization of criteria and decision-making in systematics has become a major trend in the search for more objective reconstructions of phylogenetic relations, alternatively formulated as the “elimination of subjectivity”. This has been possible thanks to the molecularization of evolutionary biology, and the introduction of huge data-bases containing sequences of dna and proteins, along with an increased use of computers and mathematical algorithms.  Attention to philosophical disputes between cladists, evolutionary systematics, and pheneticists has acted as an obstacle to narratives focused on practices, and a historical and epistemological reflection on objectivity in scientific work.

Keywords: Objetivity; systematic; phylogenies; computers; statistics; algorithms

El zoólogo del futuro, incluyendo al taxónomo, frecuentemente

tendrá que trabajar con un matemático estadístico, un programador, y una enorme computadora. Algunos de ellos le darán la bienvenida a esta posibilidad, y otros la encontrarán terrible

George G. Simpson, 1962

1. Introducción

El objeto de este artículo es contribuir a la discusión en torno a la relación entre filosofía e historia de la ciencia. Nuestra postura es que la reconstrucción histórica de las prácticas científicas de campos concretos de investigación tiene prioridad sobre la reflexión filosófica. Con esto queremos decir no solamente que la historia debe guiar a la filosofía de la ciencia -si esta desea seguir siendo relevante-, sino que, de hacer lo contrario, obstaculiza la comprensión del trabajo de investigación que confiere al conocimiento científico sus virtudes epistémicas. Para defender nuestro punto de vista historicista nos enfocamos en las prácticas e instrumentos que en el último medio siglo han transformado un campo crucial del conocimiento y la práctica de la biología: la sistemática o, como antes se le conocía, la taxonomía. Ello nos permitirá hablar del problema filosófico de la objetividad, y en particular de la forma en que en la actualidad los taxónomos buscan la construcción de representaciones objetivas de las relaciones entre especies.

Hoy en día puede afirmarse que se ha cumplido el pronóstico -o la pesadilla- de George G. Simpson (1902-1984), reconocido paleontólogo y uno de los arquitectos de la Síntesis Evolutiva moderna: las herramientas de los taxónomos actuales en poco recuerdan las prácticas que prevalecían hace menos de medio siglo, y todo ello en aras de la búsqueda de objetividad. Tanto la elaboración de clasificaciones, como la reconstrucción de relaciones filogenéticas entre especies, se ha visto completamente trastocada.[2] En la década de 1990 las computadoras y el acceso a las bases de datos de secuencias de dna (y previamente de proteínas) pasaron a ser parte de cualquier colección, museo o laboratorio biológico, convirtiéndose en las principales herramientas para la reconstrucción histórica de la vida. En la actualidad, los taxónomos más destacados desarrollan software especializado que implementa algoritmos novedosos con la intención de eliminar los rastros del juicio humano y de la autoridad de los expertos, privilegiando explícitamente el uso de criterios estadísticos en la elección de clasificaciones y de representaciones de la historia de la vida. Después del año 2000, y como parte del Proyecto Genoma Humano, se secuenciaron decenas de genomas de especies de bacterias, plantas, hongos y animales y al día de hoy se han secuenciado miles de ellos por completo, derramando un “diluvio de datos” que son intensivamente analizados en las colecciones, laboratorios y museos de muchas universidades alrededor del mundo. De este modo, la heredera de la vieja tradición de la historia natural, se convirtió en uno de los campos más computarizados, matematizados y automatizados de las ciencias de la vida contemporáneas.

Una característica interesante de la sistemática es que las discusiones en torno a qué métodos y tipos de datos contribuyen a la producción de representaciones más objetivas de las relaciones entre especies, han sido explícitas y constantes. Este tipo de debates no son comunes entre los practicantes de otras disciplinas científicas. En trabajos previos hemos argumentado que dicha búsqueda por la objetividad puede también formularse como una “ansiedad metodológica” que persigue incesantemente la “eliminación de la subjetividad” en esta disciplina (Suárez & Anaya 2008, 2009). Dicha ansiedad, sin embargo, no debe interpretarse como un estado psicológico, sino como un conjunto de prácticas de elaboración, desarrollo y mejoramiento de criterios estadísticos cada vez más explícitos (públicos) que ayudan en la toma de decisiones para la elaboración de una filogenia. Como ya mencionamos, la referida matematización del trabajo de la  taxonomía fue posible gracias a la molecularización del estudio de la evolución biológica, y a la introducción de computadoras, algoritmos y bases de datos de secuencias de proteínas y ácidos nucleicos, procesos que iniciaron a fines de los años 1950 e inicios de la década de 1960 ( Suárez-Díaz 2014, 2017).

Ahora bien, a estas alturas debe ser claro que nuestro artículo parte del supuesto de que la ciencia consiste en un conjunto de prácticas heterogéneas y, por tanto, que una reflexión filosófica fructífera en torno a temas como la objetividad ha de realizarse en el contexto de áreas y problemas de investigación concretos. Este supuesto, que no es más que una manera de formular la necesidad de una epistemología histórica, no niega -sin embargo- que las formas de trabajo y las prácticas de distintas áreas y problemas científicos frecuentemente son movilizados y reconfigurados en áreas diversas a las de su origen[3]. La adaptación o “domesticación” de instrumentos y prácticas de un campo por otro distinto comúnmente ocurre por encima de debates “teóricos”, y guiada por criterios estrictamente pragmáticos. En el caso que nos ocupa, Sterner y Lidgard  han mostrado que las famosas disputas teóricas entre las escuelas de la sistemática -las llamadas “guerras taxonómicas” entre cladistas, evolucionistas y feneticistas (Hull; Sober)- no impidieron, ni impiden hoy en día, el intercambio, prestamo, adaptación y uso de herramientas bioinformáticas, como software especializado, y de formas de trabajo -working practices en la formulación de John Pickstone, provenientes de otros campos de especialización o de escuelas rivales.

Más aún, como argumentaremos en este ensayo, la atención de los filósofos en esos debates teóricos de la sistemática ha sido -más que nada- un obstáculo para el avance de una discusión relevante sobre el problema de la objetividad en este campo disciplinario. Asimismo, la atención a los aspectos filosóficos de esa importante disputa ha afectado a la reconstrucción histórica, opacando la transformación de las prácticas de trabajo de la sistemática, dejando de lado el papel crucial que cumplieron importantes tecnologías y herramientas en el último medio siglo, y volviendo invisibles contribuciones cruciales en el campo de la sistemática que nos permiten entender de mejor manera el trabajo actual de los taxónomos.

En conclusión, en nuestra perspectiva los estudios de caso no son simples ilustraciones o pruebas de ninguna reflexión filosófica autónoma que no se encuentre anclada y/o interesada en las prácticas científicas. Los estudios de caso son, más bien, la guía sin la cual la filosofía de la ciencia se convierte en ciega e irrelevante. Buscamos, pues, avanzar un punto de vista historicista radical: es en la comprensión histórica detallada de los distintos campos de investigación donde la filosofía de la ciencia encuentra hoy en día sus temas y lecciones más interesantes y reveladoras.

2. Computadoras, moléculas y sistemática en la década de 1960

Empecemos, pues, por la historia reciente de este campo en su localización precisa. Dos importantes tendencias confluyeron en la transformación de la sistemática estadounidense a finales de la década de 1950, e inicios de los años sesenta. Por un lado, la introducción de las computadoras en las instituciones de investigación civiles y las universidades, integrándose a las herramientas de trabajo en las ciencias de la vida, como resultado de políticas científicas que promovieron el uso de estos instrumentos pese al escepticismo y rechazo inicial de la mayoría de los biólogos  (Hagen 2001; November 2012). Hacia inicios de la década de 1960, el 15 % de los colegios y universidades de los Estados Unidos ya contaban con al menos una computadora, y muchas de estas instituciones adquirían ya computadoras de segunda generación. Estas últimas utilizaban transistores en lugar de tubos de vacío, lo cual las hacía más confiables y eficientes para efectuar cálculos prolongados. Si bien estas máquinas requerían el uso tedioso y lento de tarjetas perforadas (punch cards), y los programas de computación tenían que ser frecuentemente re-escritos para cada máquina, la llegada de las computadoras hizo posible por primera vez realizar análisis numéricos que eran impensables apenas unos años atrás; aun así, eran unos pocos biólogos, la mayoría provenientes de la física y la biofísica, quienes se aventuraban a construir herramientas computacionales para la resolución de problema biológicos, como John Kendrew -en su cálculos para determinar la estructura tridimensional de la mioglobina- o Margaret O. Dayhoff , de quien hablaremos adelante (Hagen 2001).

Por otro lado, la rápida molecularización de la biología trajo consigo la acumulación de secuencias de aminoácidos de diferentes proteínas, primero la insulina, posteriormente el citocromo C y las hemoglobinas (De Chadarevian 1999; García-Sancho).[4]  Hacia finales de los años sesenta se habían acumulado, en los famosos Atlas of Protein Sequence and Structure elaborados por Dayhoff, más de 500 secuencias de distintas proteínas de numerosas especies. De inmediato fue claro que la enorme y creciente cantidad de datos de caracteres taxonómicos proporcionados por estas secuencias debían ser organizados, de modo que se pudiera extraer información acerca de sus semejanzas y función, para lo cual Dayhoff movilizó el uso de las nuevas computadoras  (Hagen 1999; Strasser; Suárez-Díaz 2014). Al igual que Dayhoff, muchos químicos de proteínas como Christian Anfinsen, Linus Pauling, Emilé Zuckerkandl, Emmanuel Margoliash, entre otros, se dieron cuenta que las secuencias de aminoácidos de proteínas “homólogas” podían ser utilizadas para establecer cuantitativamente relaciones de similitud entre especies, en lo que inicialmente se llamó “química paleogenética” ( Zuckerkandl & Pauling 1962; Suárez-Díaz 2014).[5]

Estos desarrollos en el cómputo y la secuenciación de macromoléculas impactaron el trabajo cotidiano, la delimitación de problemas y el tipo de resultados en distintas áreas de investigación de las ciencias de la vida, particularmente la biomedicina, la genética, la bioquímica, la naciente ecología de sistemas y la sistemática. Pero sería erróneo considerar estos campos como meros receptores pasivos de los avances tecnológicos que ocurrían en otro sitio. En muchos sentidos y de distintas maneras, las necesidades específicas de los biólogos en las distintas áreas también impactaron y orientaron los desarrollos computacionales, como lo ha mostrado la investigación histórica en el caso de la bioquímica y la biología molecular (De Chadarevian 2002), de la biomedicina (Lenoir; Leonelli) y de la sistemática (Hagen 2001;  Suárez-Díaz y Anaya-Muñoz 2008).

La sistemática, por ejemplo, contribuyó sustancialmente a la solución de uno de los problemas fundamentales del cómputo en aquella época, el llamado “problema taxonómico”, es decir, la aplicación de técnicas computacionales para analizar y clasificar datos cualitativos, la cual tenía aplicaciones no solo en la biomedicina sino en el ámbito de los negocios y en la elaboración de bases de datos en general. Debido a las amplias implicaciones del problema de la taxonomía, los primeros taxónomos numéricos recibieron en esos años una enorme cantidad de apoyos financiero de los National Institutes of Health y la National Science Foundation en los Estados Unidos -en el Reino Unido, en contraste, las computadoras fueron utilizadas en esos años en el estudio de la cristalografía de proteínas. Junto con algunos de los primeros programadores, y en colaboración con matemáticos aplicados, los taxónomos desarrollaron uno de los proyectos exitosos de la interacción entre biología y computadoras, la llamada “taximetría”. Los taxónomos aportaban grandes conjuntos de datos bien estudiados y sistemas de clasificación ya existentes, los cuales se utilizaban para poner a prueba la eficiencia, adecuación y pertinencia de los análisis de datos que realizaban las computadoras en ciernes. El historiador Joel Hagen ha narrado que el primer programa exitoso de este tipo nació de la colaboración entre matemáticos de la ibm y botánicos del Jardín Botánico de Nueva York (2001 294).

Al tiempo que ocurrían estos desarrollos, la llamada sistemática “evolutiva” de Ernst Mayr y George G. Simpson era objeto de duras críticas, y puesta a prueba por distintos retos de carácter simultáneamente tecnológico y conceptual. Los fundadores de la escuela numérica, también llamada feneticista, justificaban el uso intensivo de técnicas matemáticas y estadísticas para la elaboración de clasificaciones que buscaban ser objetivas, sin pretensión de reconstruir las relaciones filogenéticas entre especies (Sokal & Sneath). Aunque habían desarrollado técnicas de clustering fenético y otras técnicas numéricas que podían realizar a mano, estas eran tardadas y tediosas. Otras técnicas estadísticas de análisis multivariado que eran más complejas requerían el uso de computadoras, pero los resultados estaban a la vista a finales de los cincuenta: un análisis factorial de un conjunto de caracteres de 40 especies que tomaba 8 horas en las primeras computadoras, podía realizarse en unos cuantos minutos con la nueva ibm 7090 de estado sólido y transistores (Hagen 2001 294).

De manera independiente a estas propuestas, la disponibilidad de secuencias moleculares de proteínas puso en manos de los nuevos biólogos moleculares una enorme cantidad de datos para ser analizados. Los bioquímicos y los primeros “evolucionistas moleculares” explotaron rápidamente estas posibilidades, aún sin contar con conocimientos teóricos o experiencia previa en la taxonomía o la biología evolutiva, pero elaborando los primeros árboles de distancias moleculares utilizando computadoras (Eck & Dayhoff; Fitch y Margoliash; Dayhoff). Dayhoff, en particular, desarrolló algunas de las primeras matrices de cálculo con apoyo financiero de los nih y la National Science Foundation para resolver el “problema taxonómico”, y su Atlas fue un antecedente importante de las primeras bases de datos moleculares (Strasser 2010). Pese a que los feneticistas sostenían que no era posible elaborar inferencias de las relaciones filogenéticas o genealógicas entre especies, los evolucionistas moleculares pronto asimilaron las medidas de similitud con relaciones de ancestría, sin importarles los antiguos debates de la historia natural, ni los reclamos contemporáneos de los arquitectos de la Síntesis Evolutiva (FItch). Una actitud exclusivamente pragmática guiaba estos proyectos, los cuales aprovechaban los nuevos recursos disponibles, produciendo así los primeros algoritmos y su implementación en la sistemática sobre la marcha.

La traducción al inglés de la obra del sistemático alemán Willi Hennig, en torno a los métodos cladistas, paradójicamente también promovió el uso de las computadoras en la reconstrucción filogenética. Hennig carecía de disposición hacia las matemáticas y no estaba interesado en las computadoras. Sin embargo, el análisis cladista enfatizaba el uso de normas explícitas y la lógica formal en la reconstrucción de las relaciones de ancestría entre especies, por lo que era sumamente pertinente para la programación computacional. Hacia mediados de los años sesenta, como ha señalado Hagen (2001), los “cladistas numéricos” (la mayoría de ellos, evolucionistas moleculares) habían introducido ya el uso de las computadoras en el análisis de las filogenias, es decir, en el análisis de las relaciones de ancestría.

Pese a sus diferencias conceptuales y lo apasionado de sus debates que han sido ampliamente retratados en la literatura histórica y filosófica (Hull; Sober; Felsenstein 2001), los feneticistas, cladistas, bioquímicos y evolucionistas moleculares tenían una meta común: eliminar la subjetividad que privaba en el campo de la predominante sistemática evolutiva de la Síntesis Moderna, y hacer uso extensivo del diluvio de datos moleculares mediante la aplicación intensiva de herramientas estadísticas y computacionales.

3. Subjetividad vs objetividad

Si bien la sistemática evolutiva propuesta dos décadas antes por Ernt Mayr y George G. Simpson parecía predominar a inicios de la década de 1960, los desarrollos tecnológicos y científicos ya mencionados, así el surgimiento de escuelas y metodologías alternativas, pusieron en serias dudas la idea de que los grupos taxonómicos y los métodos que se utilizaban para la clasificación y reconstrucción de relaciones de ancestría fueran “objetivos”.[6]  En el núcleo de los ataques se encontraba la sospecha de que los grupos taxonómicos mezclaban las medidas de similitud o parecido con hipótesis no empíricas de sus relaciones filogenéticas. Las ideas o teorías previas sostenidas por el sistemático, su experiencia profesional (y personal) y familiaridad con un grupo biológico determinado, e incluso temas como el prestigio y la autoridad académicas, influían en la “evaluación” y el “peso” que se atribuía a diferentes caracteres en la inferencia de relaciones de ancestría y la posterior construcción de árboles filogenéticos (Fitch 2000).

Una cita de Simpson, al hablar de la taxonomía de los primates en un evento financiado por la importante Fundación Wenner-Gren, que tuvo lugar en Austria en 1964, ilustra el tipo de argumentos que eran problemáticos para los taxónomos de la nueva generación:

La significancia de las diferencias entre cualesquiera dos especímenes casi siempre ha sido enormemente exagerada por una autoridad u otra en este campo. Aquí el problema no es tanto la falta de una gramática taxonómica sino la falta de un sentido común taxonómico o experiencia. Muchos fósiles de homínidos han sido descritos y bautizados por autores que carecen de experiencia en taxonomía. Inevitablemente les ha faltado el sentido de balance y la habilidad interpretativa de los zoólogos que han trabajado extensivamente en grupos mayores de animales. Debe notarse, con tristeza, que incluso los zoólogos ampliamente equipados suelen errar su juicio si trabajan con homínidos. En este caso factores de prestigio, involucramiento personal y sentimental rara vez dejan de afectar al científico, plenamente humano, aunque esos factores rara vez perturben a los que trabajan, por ejemplo, con gusanos o polillas (Simpson 7).

La referencia de Simpson a virtudes como la experiencia, el sentido común, el balance y el juicio dejaban a la práctica taxonómica en manos de la autoridad familiarizada con un grupo biológico, privilegiando el juicio –individual- en torno a cuestiones como “la significancia (o el peso) de las diferencias”. La subjetividad del taxónomo era aún más aparente cuando se trataba de representar la taxonomía de los homínidos. Para los críticos de Simpson, tales virtudes no eran sino un conjunto de prácticas privadas, que no podían articularse en criterios explícitos susceptibles de ser comprendidos y reproducidos por otros practicantes de la taxonomía. Más aún, en sus reflexiones sobre la relación entre las relaciones filogenéticas y las clasificaciones, Simpson añadía que “[e]l parecido brinda importante evidencia de afinidad, pero no la única. La clasificación puede ser consistente con la afinidad evolutiva, aunque no sea directa o completamente expresiva de ella” (Simpson 8). Si bien en otra parte de su texto él sostenía que era recomendable la utilización de métodos estadísticos para cuantificar la similitud, nunca utilizaba, ni proponía o describía cómo deberían ser esos métodos. Cuando los evolucionistas utilizaban métodos cuantitativos se centraban únicamente en diferenciar entre grupos que ya habían sido establecidos; así, la matematización y la cuantificación ocurrían a posteriori, si acaso ocurría. (Hull 111)

En la misma conferencia a la que hacemos referencia, Simpson se enfrentó también a Morris Goodman y Emilé Zuckerkandl, representantes del entonces naciente estudio de la base molecular de la evolución. Ambos argumentaron a favor de la superioridad de los caracteres moleculares sobre los caracteres morfológicos. La principal ventaja de los primeros era la naturaleza discreta de las substituciones en los amino ácidos que conformaban las proteínas, lo que hacía posible la comparación “cuantitativa” (es decir, expresable en una medida numérica supuestamente incontrovertible) entre cadenas homólogas de péptidos, y eventualmente la comparación entre segmentos de dna, algo que a inicios de los 1960s se veía aún lejana. Además, según Zuckerkandl, “los caracteres moleculares constituían, a diferencia de los morfológicos, evidencia más limpia y directa del proceso evolutivo (Zuckerkandl ). Para justificar lo anterior argumentaba que los caracteres moleculares (en este caso las secuencias de proteínas), no eran poligénicas; “mientras que los caracteres morfológicos pueden ser adscritos a un entretejido casi indescifrable de causas y efectos, diferentes caracteres siendo parcialmente afectados por las mismas causas y un carácter afectado por varias causas; esta red es relativamente desenredada a nivel molecular” (260–64). Existían implicaciones de carácter “epistemológico” al utilizar información molecular, que apuntaban a su carácter fundamental. Se decía, por ejemplo, que, “la filogenia molecular más racional, universal, e informativa será construida únicamente con moléculas semantoforéticas” (Zuckerkandl  & Pauling 1965 360).[7] En conclusión, el uso y análisis cuantitativo de caracteres moleculares permitiría elaborar clasificaciones y filogenias objetivas, que superaran las idiosincracias y la subjetividad de las reconstrucciones de un puñado de expertos.

Ahora bien, ¿qué se quería decir con objetividad en este contexto? Lorraine Daston y Peter Galison (1992, 2007), representantes de la epistemología histórica, han propuesto que el concepto actual de objetividad surgió en la segunda mitad del siglo xix. De acuerdo con estos autores “el concepto moderno de objetividad mezcla, más que integra, componentes dispares que son diferentes tanto histórica como conceptualmente” (1992 82). Así, este término “puede ser aplicado a todo, desde la confiabilidad empírica a la corrección procedimental o el desapego emocional” (1992 82). Es decir, uno de los componentes principales de la objetividad es su carácter negativo respecto a la subjetividad: “la historia de las varias formas que ha tenido la objetividad puede ser contada mediante el cómo, el cuándo y por qué varias formas de subjetividad son vistas como peligrosamente subjetivas” (1992 82). En su influyente trabajo, Daston y Galison enfatizan la llamada objetividad mecánica. Esta pretendía eliminar la presencia intermediaria del observador apoyándose en una autodisciplina altamente moralizada: los científicos deben resistir la tentación de emitir juicios, interpretar, o incluso evitar el testimonio de sus sentidos; haciendo necesarios una gran concentración para la observación y medición. Para lograrlo,  una estrategia común ha consistido en recurrir a la mecanización de prácticas, puesto que “en vez de libre deseo, las máquinas ofrecen libertad de los deseos –de las deseosas intervenciones que resultan uno de los aspectos más peligrosos de la subjetividad” (1992 83, nuestras cursivas).

Otra forma de entender históricamente la objetividad a partir del siglo xix ha sido investigada por Theodore Porter  (1992, 1995). Según él, se trata de que los “números hablen por sí mismos”, de forma que se permita una comunicación de resultados y de decisiones que favorezca la expresión y formulación pública del conocimiento. Sin embargo, continúa Porter, dado que los números son incapaces de “hablar por sí mismos”, la manipulación matemática de los datos y sus representaciones constituyen una parte central del trabajo científico contemporáneo. Siguiendo a Porter, es aquí donde las computadoras y los programas estadísticos han jugado en las últimas décadas un papel predominante en las prácticas del taxónomo. Las secuencias de amino ácidos y nucleótidos permiten una serie de tratamientos numéricos que resultan prácticamente imposibles de realizar utilizando caracteres morfológicos. Esto se debe al carácter digital (o digitalizable) de las secuencias versus el carácter analógico de otros datos, incluidos otros datos moleculares como las distancias inmunológicas.[8]  En este mismo sentido,  Gigerenzer y colaboradores (1989) han descrito la forma en que las técnicas de inferencia estadística se volvieron ampliamente utilizadas como herramientas para incorporar al azar en los modelos y explicaciones a partir del siglo xix, y no sorprende que una de las áreas donde esto ocurrió de manera significativa fuera la biología evolutiva, una disciplina de carácter histórico que aspira a reconstruir con la mayor certidumbre posible el pasado de las relaciones entre especies.

Respecto a la clasificación y a las inferencias filogenéticas, los taxonómos evolucionistas clásicos como Mayr y Simpson sostenían que los mejores caracteres se encontraban a nivel del organismo individual, ya fueran estos morfológicos o funcionales. Sin embargo, la calidad y cantidad de dichos caracteres, así como su carácter derivado -contra el carácter “fundamental” de los datos moleculares- se encontró fuertemente cuestionada por las perspectivas que surgieron mediante el uso de nuevas tecnologías. En este contexto, la compleja interpretación de los caracteres presentes en los fósiles, así como la evidencia morfológica y funcional de todo tipo, requería ejercer el juicio, la experiencia, y el balance, algunas veces la intuición e incluso las inclinaciones artísticas de la autoridad o experto en la materia. Este tipo de trabajo requería -ay aún requiere- que los taxónomos individualizaran aquello que contaba como un carácter individual, interviniendo de manera idiosincrática para asignar el “peso de los caracteres” (Hagen 2001, 2003).  Por ello era común, hasta hace poco, que una sola persona fuera reconocida como “la” autoridad científica para un determinado grupo taxonómico. Esta situación era intolerable en una época y lugar en que se promovió el crecimiento de la investigación científica y en la que, a juicio de feneticistas, cladistas y nuevos evolucionistas moleculares, era necesario construir criterios cuantitativos, públicos y explícitos a la vista de cualquier taxónomo.

4. La perspectiva estadística y la mirada biológica

Tal vez la posición más extrema entre los primeros evolucionistas moleculares fue sostenida por el bioquímico Emmanuel Margoliash, quien aspiraba a reconstruir la filogenia de todos los organismos a partir de una sóla molécula. A mediados de los 1960s él y sus colaboradores utilizaron las secuencias de veinte moléculas de Citocromo c conocidas a la fecha, provenientes de distintas especies. Margoliash estaba convencido de que una adecuada interpretación de las similitudes y diferencias entre proteínas podría alcanzarse únicamente mediante la utilización de herramientas estadísticas sobre los datos existentes al momento (Margoliash677). Esta convicción se reforzó después de su trabajo pionero con Walter Fitch, quien diseñó un programa de cómputo para construir filogenias basadas en la medida de similitud (entre moléculas) en términos de distancia (mutacional) mínima utilizando los datos de las secuencias obtenidas por Margoliash (Fitch & Margoliash 1967).

Sin embargo, los métodos cuantitativos computacionales introducidos por Margoliash y Dayhoff, no eliminaron de una vez y para siempre el papel del juicio y la subjetividad en la elaboración de árboles filogenéticos y clasificaciones. Los taxónomos se siguen enfrentando a problemas metodológicos en la toma de decisiones acerca de cuál taxonomía o árbol representa de mejor manera las relaciones entre especies, si bien tales problemas son cada vez más sofisticados e involucran cada vez una mayor cantidad de datos y una mayor complejidad en el razonamiento estadístico. Estas dificultades se hacen explícitas al analizar los pasos básicos que un científico o grupo de ellos debe llevar a cabo para reconstruir una filogenia molecular, y se describen brevemente a continuación[9]:

El primer paso para realizar una reconstrucción filogenética molecular consiste en definir el tipo de evidencia que se utilizará y el tipo de reconstrucción que se va a realizar, es decir, si se quiere reconstruir la historia de la especie o especies con la que se esté trabajando, o bien únicamente la correspondiente al carácter de interés; un criterio fundamental que puede no estar exento de discusión es si dichas secuencias tienen o no un origen común, es decir si son homólogas.[10]

En ese mismo sentido es necesario decidir si se trabajará utilizando secuencias de amino ácidos o bien de ácidos nucleicos. Hoy en día, y a partir de fines de la década de 1990, es cada vez más común utilizar únicamente secuencias de ácidos nucleicos (dna o rna), debido a que ofrecen una mayor facilidad para su digitalización; las características de estas moléculas, compuestas de combinaciones de cuatro monómeros (nucleótidos) facilitan su conversión en valores numéricos.

Una vez resuelta esta cuestión es necesario, independientemente del método que se vaya a seguir para la reconstrucción final, realizar un alineamiento múltiple de las secuencias obtenidas. Básicamente este paso consiste en arreglar las cadenas de modo que se alcance la mayor similitud entre sus secuencias, pero sin intervenir excesiva o sesgadamente en el arreglo. La manera en que se interpreta este criterio está sujeto a cuestión (evidentemente, sugiere la peligrosa intervención de un criterio subjetivo) y para ello se han desarrollado diferentes tipos de software que implementan uno o varios algoritmos para estos fines, y que son explícitos en los criterios usados. Entre los más conocidos y utilizados se encuentran Clustal (Larkin et al.), mafft (Katoh & Standley), Muscle (Edgar 2004) y T-Coffee (Notredame, Higgins, & Heringa); cada uno de ellos permite establecer valores para diferentes parámetros con la finalidad de evaluar el peso que se da a diferentes elementos del alineamiento y de los caracteres a trabajar. Si bien estos parámetros se establecen numéricamente, atribuyendo probabilidades a procesos físicos como el conocido “múltiple-hit” (es decir, el cálculo de cuántas mutaciones pueden haber ocurrido en un mismo sitio a lo largo de millones de años de evolución, los cuales “aparecen” como un solo cambio o mutación observable), existen distintos modelos del comportamiento de tales procesos.

Cada algoritmo de alineamiento, pues, incorpora distintos supuestos y modelos del comportamiento de la variación en la evolución, y les atribuye distintas probabilidades. Estos valores no resultan del juicio o experiencia del sistemático, sino que dependen del modelo físico que se adopte del problema de la mutación múltiple u otros escenarios evolutivos. Por supuesto, entre los sistemáticos existen disputas sobre cuáles modelos y algoritmos son más adecuados, y esto genera mejoras continuas de los algoritmos, que en parte dependen de los resultados de investigaciones independientes acerca de la frecuencia de los diferentes tipos de mutaciones. Aun así, una vez que se ha obtenido un alineamiento satisfactorio para el científico, es siempre posible editarlo “a ojo”, para que se ajuste a las expectativas que se tienen del mismo. Si bien esto se realiza con reservas, se trata de una de las instancias donde más claramente se involucra nuevamente el juicio del experto, y que subsiguientes algoritmos han tratado de eliminar. 

El siguiente paso -que dista de no ser problemático tanto en términos metodológicos como en lo que respecta a las decisiones que se deben tomar y por lo tanto, los criterios a fijar-, es la (re)construcción del árbol filogenético en sí. Uno de los primeros árboles filogenéticos construidos utilizando caracteres moleculares fue, como ya se mencionó, el producto de la colaboración entre  Walter Fitch y Emmanuel Margoliash en 1967. El árbol se conceptualizó como “[…] una representación gráfica del orden en el que los subconjuntos [de caracteres] fueron unidos” (Fitch & Margoliash 280). En este caso, los resultados del alineamiento (también automatizado) se utilizaron como una matriz de distancias evolutivas entre las secuencias, y se utilizaron para reconstruir las relaciones entre las especies que eran objeto del estudio. Actualmente esta tarea se sigue realizando automáticamente, utilizando programas y algoritmos altamente especializados que implementan uno o varios métodos.  Esos métodos pueden ser clasificados, de acuerdo con la narrativa tradicional centrada en las discusiones de escuelas taxonómicas, en tres grupos principales: 1. Métodos de distancia.  2. Métodos de máxima parsimonia. 3. Métodos de máxima verosimilitud (Maximum likelihood) (ver nota 5 arriba). Los últimos dos generalmente se agrupan como métodos basados en caracteres.

Los métodos basados en distancias cuentan las diferencias entre dos secuencias y las transforman en una matriz de distancia; con esa matriz se construye un árbol que agrupa aquellas secuencias que tienen las distancias más cortas y se añaden las demás conforme la distancia crece.  Estos, en general, se han asociado a la escuela feneticista.

Los métodos de parsimonia, a su vez, se basan en la hipótesis de trabajo de que del árbol más parsimonioso “[…] se puede esperar que tenga un alto grado de correspondencia con la filogenia real. Su justificación descansa en el uso más eficiente de la información y no presupone que la evolución sigue el camino más parsimonioso” (Fitch 1971 406, cursivas nuestras). Comunmente se obtienen varios “árboles más parsimoniosos” a partir del mismo grupo de datos y resulta necesario decidir cuál de ellos usar; en ese caso solo los grupos que están en estricto consenso (es decir, que convergen) son considerados como apoyados por los datos. Tales métodos fueron, en sus orígenes, utilizados por los cladistas.

A la par de los métodos de parsimonia se encuentran los que utilizan criterios únicamente estadísticos como la máxima verosimilitud (maximum likelihood); estos métodos estadísticos asignan la probabilidad de que un grupo de datos pueda ser explicado por un modelo evolutivo determinado a priori. Los métodos de maximum likelihood son computacionalmente intensivos; es decir, utilizarlos requiere una gran cantidad de cálculos y por lo tanto un enorme “poder de cómputo”, y parten del principio de que el acercamiento estadístico sin preconcepciones es mejor que uno biológicamente sensible. La elección entre diferentes árboles no suele, ocurrir puesto que el mejor árbol debería ser dado por el valor de verosimilitud. Debido al diluvio de datos moleculares (secuencias de dna) y al creciente poder de cómputo, se ha hecho materialmente posible el uso de estos métodos, que se convirtieron en la década pasada, en los más utilizados por practicantes de todos tipos. Puede decirse, de hecho, que el intercambio de métodos de este tipo terminó por borrar los pequeños resquicios de las disputas de décadas anteriores.

Ahora bien, a partir de la década de 1990 se comenzaron a utilizar, además, métodos Bayesianos para realizar este tipo de reconstrucciones, aunque las ideas al respecto se pueden rastrear hasta la década de los 1960 en trabajos fundadores como la tesis doctoral de uno de los máximos exponentes de la matematización de la sistemática: Joseph Felsenstein (1968 21-32).

La utilización práctica de los métodos estadísticos requiere, sin embargo, de importantes decisiones no automatizadas, que sigue tomando el taxónomo, como puede ser el modelo de evolución que se utilizará para reconstruir un árbol determinado. En este sentido, en un esfuerzo matematizador, Abascal, Zardoya y Posada desarrollaron un programa que permite establecer los mejores parámetros para obtener el mejor árbol usando caracteres moleculares utilizando métodos de distancia, verosimilitud o bayesianos.

Conclusiones: La historia de la ciencia y la filosofía

Nuestra reconstrucción de las prácticas de la taxonomía en las últimas décadas muestra que la posibilidad de decir algo relevante acerca de la objetividad, como un valor que se persigue en las representaciones científicas de este campo, requiere la atención detallada a las prácticas e instrumentos que los practicantes han incorporado, adaptado y desarrollado en las décadas después de la segunda guerra mundial. Algunas de esas prácticas y herramientas fueron originalmente desarrolladas en la solución de problemas originados en otros campos, del mismo modo que los instrumentos y métodos de la sistemática han sido llevados a otras áreas de investigación y se han aplicado en problemas distantes; aun así, el carácter y soluciones específicas que adopta el problema de la objetividad en la sistemática no es comprensible sin atender los retos históricos de esta disciplina (ligada al peso de la autoridad y al volumen de las colecciones de institucionales), como a los problemas específicos que supone el análisis estadístico masivo de datos moleculares.

El trabajo científico de la sistemática contemporánea se basa en el uso intensivo de bases de datos moleculares y en la explotación de un enorme poder computacional, accesibles a numerosos equipos de investigación que hoy en día -a diferencia de la década de 1960- se localizan alrededor del mundo. A mediados del siglo pasado, George G. Simpson desde su posición en el Museo de Historia Natural de Nueva York, o Ernst Mayr en su calidad de director del Museo de Zoología Comparada de Harvard, poseían la autoridad y la experiencia que les daba su cercanía con las enormes colecciones biológicas de sus respectivas instituciones. El juicio del experto, el peso de caracteres o la familiaridad con un grupo específico han sido reemplazados, gradualmente, por la objetividad mecánica (Galton y Daston) y el poder de los números (Porter). Al relegar a las máquinas la iteración de los algoritmos (el software o la paquetería en uso en cualquier grupo de sistemática), se ha alcanzado un alto grado de automatización del trabajo del taxónomo, tanto de los cálculos como de las decisiones que antes se encontraban, literalmente, en manos y a juicio del practicante individual. Por otro lado, los algoritmos y las decisiones basadas en probabilidades y en valores numéricos asignados, hacen posible explicitar los criterios utilizados, comunicarlos y publicarlos para que potencialmente sean reproducibles por cualquiera, por lejos que se encuentre, siempre y cuando utilice los mismos datos accesibles en las bases globales. En todos esos sentidos la práctica de la sistemática ha consistido y consiste hoy en día en hacer menos subjetivos y privados los criterios de la clasificación y de inferencia filogenética.

Con la llegada de los métodos bayesianos para la inferencia de filogenias, gracias al desarrollo de herramientas matemáticas como los métodos de Cadenas de Markov Monte Carlo (Markov Chain Montecarlo Methods, mcmm) y el crecimiento de la capacidad de cómputo, se ha abierto una interesante discusión. Sin embargo, como proponen Sterner y Lidgard, y hemos mostrado aquí y en nuestros trabajos anteriores, las discusiones sobre la utilización de una u otra herramienta para la reconstrucción de filogenias se vuelven a enfocar en el tema de la objetividad y la eliminación de la subjetividad en las decisiones del taxónomo.

Ahora bien, ¿qué nos dice la historia reciente de las prácticas de la sistemática, que sea relevante para el filósofo de la ciencia? Al iniciar este ensayo sostuvimos la necesidad de un historicismo radical para una filosofía de la ciencia que sea relevante en nuestra comprensión de las prácticas científicas. En el contexto actual esta demanda es indispensable para una adecuada valoración de la robustez del conocimiento científico frente a sus críticos y los defensores de los “alternative facts”. Para defender a la ciencia no necesitamos refugiarnos en métodos infalibles o en virtudes con validez universal (cualquiera que sea lo que esto signifique). El caso que hemos presentado, enfocado en las prácticas de un campo contemporáneo de la ciencia, ilustra la paulatina pero constante incorporación de herramientas estadísticas cada vez más sofisticadas como sinónimo de “objetividad”. Estas herramientas y desarrollos son sancionados por una comunidad permanentemente escéptica, pero que contribuye a la construcción de un concepto(s) e ideal de objetividad propio, el cual urge al desapego de la subjetividad y el conocimiento privado.

En este caso, hablar de objetividad remite a paquetes de software diseñados para los fines epistémicos de la sistemática (la clasificación y la inferencia de relaciones evolutivas), y a problemas relevantes para sus practicantes, como la elaboración de alineamientos confiables o la elección correcta entre árboles filogenéticos alternativos. El proceso histórico por el que se ha adoptado un ideal de objetividad automático y cuantitativo (o matematizado) no constituye un ideal teórico a alcanzar, sino una práctica materialmente posible gracias al acceso a enormes bases de datos y a un creciente poder de cómputo. Es decir, el tipo de objetividad reconocida por los practicantes de la sistemática a inicios del siglo xxi se ha construido en estrecha relación –y diríamos de manera contingente- con los desarrollos tecnológicos y científicos de las ciencias de la vida, las ciencias de la computación y las matemáticas de los últimos cincuenta a sesenta años. No existen  ese ideal ni esas prácticas fuera de estos desarrollos instrumentales y prácticos, y por tanto la forma en que los taxónomos entienden la objetividad se encuentra muy lejos del “View from Nowhere” de Thomas Nagel (15).

Respecto a la relación entre las disciplinas de la historia y la filosofía de la ciencia, queremos llamar la atención al hecho de que el énfasis en las disputas teóricas en la sistemática obstaculizó por varias décadas la escritura de narrativas históricas centradas en prácticas, indispensables para comprender la disciplina actual. En la última sección mencionamos los pasos generales para la reconstrucción de una filogenia molecular. El primer paso en esa metodología corresponde a la elección del caracter a partir del cual se construye la filogenia, este puede ser una secuencia de gen (dna) o bien de proteína (amino ácidos); caracteres que son relativamente simples de digitalizar. Sin embargo, no todos los caracteres son fácilmente codificables para su utilización en la construcción de filogenias moleculares.  Durante l tanto de las tes de las escuelas e los a son relativamente simples de digitalizar sin embargo no todos los caracteres son fguuoas décadas de los 1960 a 1980 los practicantes tanto de las escuelas feneticista como cladista se enfrentaban con el problema de la codificación de caracteres de forma que pudieran ser utilizados en el flujo de trabajo de la construcción de una filogenia utilizando computadoras. Dicho problema fue atacado por ambas escuelas compartiendo metodologías, por ejemplo, las llamadas codificación binaria, normalización de caracteres o el additive coding, o bien haciendo aportaciones sobre unas u otras metodologías independientemente de la escuela que la hubiese desarrollado. Incluso, métodos como el gap coding se consideran neutrales para ambas escuelas (Sterner & Lidgard 19–21). Esto quiere decir que a nivel de los practicantes de la sistemática, la utilidad y la eficacia de las herramientas ha estado, en muchas ocasiones -aunque no siempre-, por encima de las diferencias “filosóficas” entre escuelas rivales. Los practicantes “se prestan” y adoptan herramientas, y seguramente su labor, en las últimas seis décadas, ha tenido un carácter más híbrido del que ha sido retratado en reconstrucciones clásicas del campo, como las elaboradas por David Hull o Elliot Sober en las cuales se enfatizan los debates teóricos y las diferencias “filosóficas”.

En términos generales, no se discute ya entre los taxónomos sobre la superioridad de una escuela sobre otra; se discute más bien si la elección de un método dado (o el flujo de trabajo) responde a los mejores criterios de objetividad que se esperan de la labor científica. Es decir, la posibilidad de que el conocimiento y la práctica no dependan para su puesta en práctica del practicante individual, ya que para eso se encuentran las computadoras. Frecuentemente, más bien, se hacen consideraciones sobre cuán práctico es un método u otro en función del tiempo con que se cuenta, o el poder de cómputo que requiera para ejecutarse. Volviendo al punto de la objetividad y  poniéndolo en los términos que Joseph Felsenstein expresaba en una entrevista reciente (Harmon 2017): “Creo que todos somos bayesianos cuando se trata de cruzar la calle y balanceamos la evidencia de los autos que se aproximan contra nuestros antecedentes (priors). Pero es ahí donde está una de las críticas al bayesianismo: ¿tenemos todos los mismos antecedentes?”.[11]

Trabajos citados

Abascal, F., R. Zardoya, y D. Posada. “ProtTest: selection of best-fit models of protein evolution”. Bioinformatics 21.9 (2005): 2104-2105. <https://doi.org/10.1093/bioinformatics/bti263>.

Anaya, V., y Suárez, E. s/f. “Subjectivity through the main door: The success of Bayesian methods in the reconstruction of molecular phylogenies”. En prensa.

Daston, L., y Galison, P. “The Image of Objectivity”. Representations 40 (1992): 81–128.

_______. Objectivity. New York: Zone Books, 2007. <https://mitpress.mit.edu/books/objectivity>.

Dayhoff, M. O. Atlas of Gene Sequence and Structure. Vol. 4. National Biomedical Research Fundation, 1969.

De Chadarevian, S. “Protein Sequencing and the Making of Molecular Genetics”. Trends in Biochemical Sciences 24.5 (1999): 203–206. <https://doi.org/10.1016/S0968-0004(99)01360-2>.

_______. Designs for Life: Molecular Biology after World War II. Cambridge, MA: Cambridge University Press, 2002.

De Chadarevian, S. y Harmke, K. Molecularizing Biology and Medicine: New Practices and Alliances, 1920s to 1970s. Australia: Harwood Academic Publishers, 1998.

Eck, R. V., y Margaret O. D. Atlas of Protein Sequence and Structure. Silver Spring, Maryland: National Biomedical Research Foundation, 1966.

Edgar, R. C. “Muscle: Multiple Sequence Alignment with High Accuracy and High Throughput.” Nucleic Acids Research 32.5 (2004): 1792–1797. <https://doi.org/10.1093/nar/gkh340>.

Felsenstein, J. “Statistical Inference and Estimation of Phylogenies”.Ph.D. Thesis. University of Chicago, 1968.

_______. “The Troubled Growth of Statistical Phylogenetics”. Systematic Biology 50.4 (2001): 465–467.

Fitch, W. M. “Homology: a personal view on some of the problems”. Trends in Genetics 16.5 (2000): 227–231. <https://doi.org/10.1016/S0168-9525(00)02005-9>.

Fitch, W. M., y Emanuel M. “Construction of Phylogenetic Trees”. Science 155.3760 (1967):279–284. <https://doi.org/10.1126/science.155.3760.279>.

García-Sancho, M. “A New Insight into Sanger’s Development of Sequencing: From Proteins to dna, 1943-1977”. Journal of the History of Biology 43.2 (2010): 265–323. <https://doi.org/10.1007/s10739-009-9184-1>.

Gigerenzer, G., Zeno S., Theodore, P., Lorraine, D., John, B., y Lorenz, K. The Empire of Chance: How Probability Changed Science and Everyday Life. Cambridge: Cambridge University Press, 1989. <https://doi.org/10.1017/CBO9780511720482>.

Hagen, J. B. “Naturalists, Molecular Biologists, and the Challenges of Molecular Evolution”. Journal of the History of Biology 32.2 (1999): 321–341.

_______. “The Introduction of Computers into Systematic Research in the United States during the 1960s”. Studies in the History and Philosophy of Biological and Biomedical Sciences 32 (2001): 291–314.

_______. “The Statistical Frame of Mind in Systematic Biology from Quantitative Zoology to Biometry”. Journal of the History of Biology 36.2 (2003): 353–384.

Harmon, L. J. “Dechronization Interviews Joe Felsenstein”. Consultado el 10 de octubre de 2017.http://treethinkers.blogspot.com/2009/04/dechronization-interviews-joe.html.

Hull, D. L. Science as a Process: An Evolutionary Account of the Social and Conceptual Development of Science. University of Chicago Press, 1988.

Katoh, K., y D. M. Standley. “mafft Multiple Sequence Alignment Software Version 7: Improvements in Performance and Usability.” Molecular Biology and Evolution 30.4 (2013): 772–780. <https://doi.org/10.1093/molbev/mst010>.

Larkin, M. A., G. Blackshields, N. P. Brown, R. Chenna, P. A. McGettigan, H. McWilliam, F. Valentin, et al. “Clustal w and Clustal x Version 2.0”. Bioinformatics 23.21 (2007): 2947–48. <https://doi.org/10.1093/bioinformatics/btm404>.

Lenoir, T. “Shaping Biomedicine as an Information Science”. Proceedings of the 1998 Conference on the History and Heritage of Science Information Systems. Eds.  Bowden, M. E.  Trudi, B.  y Robert W. Medford. New Jersey: asis Monograph Series, Information Today, 1999. 27–45 <http://webdoc.sub.gwdg.de/ebook/a/2001/asisbook.pdf#page=39>.

Leonelli, S. “Introduction: Making Sense of Data-Driven Research in the Biological and Biomedical Sciences”. Studies in History and Philosophy of Biological and Biomedical Sciences 43.1 (2012): 1–3. https://doi.org/10.1016/j.shpsc.2011.10.001.

Margoliash, E. “Primary Structure and Evolution of Cytochrome C”. Proceedings of the National Academy of Sciences 50.4 (1963): 672–679.

Nagel, T. The View from Nowhere. New York: Oxford University Press, 1989. https://global.oup.com/academic/product/the-view-from-nowhere-780195056440.

Notredame, C., D. G. Higgins, y J. Heringa. “T-Coffee: A Novel Method for Fast and Accurate Multiple Sequence Alignment”. Journal of Molecular Biology 302.1 (2000): 205–217.< https://doi.org/10.1006/jmbi.2000.4042>.

November, J. A. Biomedical Computing: Digitizing Life in the United States. The Johns Hopkins University Press, 2012. <https://muse.jhu.edu/book/14634>.

Pickstone, J. “Ways of Knowing: Towards a Historical Sociology of Science, Technology and Medicine”. The British Journal for the History of Science 26.4 (1993): 4433.

Porter, T. “Quantification and the accounting ideal in science”. Social studies of science 22.4 (1992):633–651.

_______. Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. New Jersey: Princeton University Press, 1995. <https://www.jstor.org/stable/j.ctt7sp8x>.

Simpson, G. G. “The Meaning of Taxonomic Statements”. Classification and Human Evolution. Ed. Sherwood I. Washburn. London: Methuen and Co. Ltd, 1964. 1–31.

Sober, E. Reconstructing the Past. Parsimony, Evolution, and Inference. MIT Pres, 1988.

Sokal, R. R., y Peter, H. A. S. The Principles of Numerical Taxonomy. London: W.H. Freeman & Co., 1963.< http://www.jstor.org/stable/1217562>.

Sterner, B, y Scott L. “Moving Past the Systematics Wars”. Journal of the History of Biology 51.1 (2017): 31-67. <https://doi.org/10.1007/s10739-017-9471-1>.

Strasser, B. J. “Collecting, Comparing, and Computing Sequences: The Making of Margaret O. Dayhoff’s Atlas of Protein Sequence and Structure, 1954-1965”. Journal of the History of Biology 43.4 (2010): 623–660. <https://doi.org/10.1007/s10739-009-9221-0>.

Suárez, Edna, y Víctor Hugo Anaya. “History, Objectivity, and the Construction of Molecular Phylogenies”. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences 39.4 (2008): 451–468.

_______. “La ansiedad metodológica como búsqueda de objetividad: La construcción de filogenias moleculares”. Ludus Vitalis 17.31 (2009): 33–64.

Suárez-Díaz, Edna. “The Long and Winding Road of Molecular Data in Phylogenetic Analysis”. Journal of the History of Biology 47.3 (2014): 443–478.

_______. “The Molecular Basis of Evolution and Disease: A Cold War Alliance”. Journal of the History of Biology (2017): 1-28. <https://doi.org/10.1007/s10739-017-9476-9>.

Zuckerkandl, Emile. “Perspectives in Molecular Anthropology”. Classification and Human Evolution. Ed. Sherwood I. Washburn. London: Methuen and Co. Limited, 1964.

Zuckerkandl, E., y L. Pauling. “Molecules as Documents of Evolutionary History”. Journal of Theoretical Biology 8.2 (1965): 357–366.

Zuckerkandl, Emile, y Linus Pauling. “Molecular Disease, Evolution and Genic Heterogeneity”. Horizons in Biochemistry: Albert Szent-Györyi Dedicatory Volume. Eds. M Kasha y B Pullman. New York: Academic Press, 1962. 189–225.



[1]Agradecimientos: Los autores deseamos agradecer a la unam por el financiamiento aportado a los proyectos papiit 401017 y ia2017616, que hicieron posible la colaboración aquí plasmada. Agradecemos también la invitación del Dr. Sergio Martínez (iif-unam) para participar en este volumen.

[2] Hoy en día se usa el término “sistemática” para este campo de la investigación biológica, el cual incluye la clasificación taxonómica u ordenamiento de las especies de acuerdo a su similitud (heredera de la historia natural), y la reconstrucción filogenética de esas especies de acuerdo a criterios de ancestría o genealogía (como parte de la biología evolutiva). Estas dos actividades y fines se asociaron en la década de 1960 con la escuela feneticista y la escuela cladista respectivamente. Como veremos en este artículo, tales distinciones teóricas tuvieron escasa relevancia para el trabajo cotidiano de los sistemáticos o taxónomos. En este artículo nos referiremos a los practicantes de esa disciplina utilizando indistintamente ambos términos.

[3] Un ejemplo de ello es la utilización de los métodos bayesianos para la reconstrucción de filogenias (Anaya Muñoz & Suárez Díaz. En prensa).

[4] La “molecularización” describe el proceso de producción de nuevas alianzas entre la investigación científica, la industria y los Estados (principalmente las potencias occidentales de Europa y Norteamérica), que dio lugar, entre otras cosas, a la biomedicina (De Chadarevian & Kamminga, Introducción).

[5] Por proteínas “homólogas” los primeros evolucionistas moleculares entendían aquellas proteínas que realizaban la misma función en distintas especies y que mostraban una alta similitud (estadísticamente se han establecido diferentes parámetros para reconocer cuándo la similitud es suficiente para suponer homología) y como caracteres consideraban a cada amino ácido de la proteína en cuestión. Como sabe cualquier biólogo evolutivo, el uso del término “homología” en esta forma podría ser problemático. Si bien este es un tema que escapa al alcance del presente artículo, la discusión sobre homología en el contexto de las filogenias moleculares ha llevado al desarrollo continuo de sofisticadas herramientas estadísticas para su determinación.

[6] El problema principal era cómo relacionar la recuperación de relaciones genealógicas (relaciones de ancestría-descendencia) con las clasificaciones de los seres vivos. Los cladistas sostenían que la genealogía por sí misma debería influir en la clasificación; los feneticistas, en cambio, que la similitud general debía determinar la clasificación (y así se podrían proponer hipótesis genealógicas a partir de esos datos). Mientras tanto, los taxónomos evolucionistas sostenían que la clasificación debía reflejar tanto la genealogía como la similitud adaptativa. Cada escuela desarrolló métodos propios: el cladismo los métodos de parsimonia, el feneticismo los de máxima verosimilitud (maximum likelihood).  Pero la taxonomía evolutiva proveniente de la Síntesis Moderna había afianzado una mezcla de metodologías tanto explícitas como implícitas, que fueron el origen de las críticas de sus rivales.

[7] En este artículo (significativamente titulado “Molecules as Documents of Evolutionary History”), Emilé Zuckerkandl introdujo una clasificación de moléculas dependiendo de la cantidad de información que portaban. Las moléculas Semantoforéticas o semantidas (literalmente moléculas con significado), incluían a los ácidos nucléicos y las proteínas, y se decía que concentraban la mayor cantidad de información sobre la historia de los seres vivos. Véase Suárez, 2007.

[8] Al analizar un par de cadenas proteicas homólogas, un residuo de aminoácido está o no presente; en el caso de las secuencias de nucleótidos del dna el lenguaje en base 4 de los cuatro nucleótidos es el fundamento para realizar muchos análisis estadísticos sin las complicaciones que plagan otros tipos de datos. Como veremos, esto no quiere decir, sin embargo, que la elaboración de comparaciones de secuencias no sea problemática.

[9] Un recuento detallado de este proceso está más allá de los objetivos de este texto, sin embargo puede verse  Suárez-Díaz, E & Anaya-Muñoz (2008) y  Suárez & Anaya (2009).

[10] Este punto es fundamental pues una reconstrucción de ancestro-descendencia carece de sentido si se hace a partir de caracteres que tienen orígenes independientes.

[11] […] I think we're all Bayesians when we come to cross the street, balancing evidence of approaching cars against our priors. But that's where one of the criticisms of Bayesianism comes in -- do we all have the same priors?[…] En el original. Véase: <https://treethinkers.blogspot.com/2009/04/dechronization-interviews-joe.html>.