Revista Colombiana de Filosofía de la Ciencia, Vol. 18 Nº 37
(2018): 293-316
ISSN: 0124-4620 (papel) &
2463-1159 (electrónico)
Fecha de aceptación: 21/06/2018
Fecha de aprobación: 12/08/2018
https://doi.org/10.18270/rcfc.v18i37.2578
Historicizing
objectivity: mathematization and automation of molecular systematics and the
reconstruction of life’s history
Edna Suárez-Díaz Universidad Nacional Autónoma de
México Ciudad de México, México |
Víctor Hugo Anaya-Muñoz Universidad Nacional Autónoma de
México
victor_anaya@enesmorelia.unam.mx Ciudad de México, México |
Resumen
En este artículo defendemos un
punto de vista historicista respecto a la relación entre historia y filosofía
de la ciencia. En particular, argumentamos que el problema filosófico de la objetividad de las prácticas científicas
debe ser guiado por el estudio detallado del contexto de los problemas y las prácticas
de investigación de cada campo o disciplina particular. Para ello, nos
enfocamos en el proceso de matematización de los criterios y decisiones en la
sistemática, ocurrido a partir de la década de 1960, cuyo objetivo ha sido la
elaboración de reconstrucciones objetivas
de las relaciones filogenéticas entre seres vivos; estas prácticas también
pueden formularse como una “eliminación de la subjetividad”, posible gracias a la
molecularización del estudio de la evolución biológica y la introducción de bases
de datos masivas de secuencias de proteínas y ácidos nucleicos, así como el uso
de computadoras y algoritmos matemáticos. La atención a disputas filosóficas entre
cladistas, evolucionistas y feneticistas ha obstaculizado la producción de narrativas
históricas centradas en prácticas, y la reflexión epistemológica fructífera sobre
el tema de la objetividad en el trabajo científico.
Palabras clave: Objetividad; sistemática; filogenias; computadoras; estadística;
algoritmos
Abstract
This
essay aims to contribute to the debate on the relation between history and
philosophy of science, by defending a historicist perspective. A fruitful
analysis of the problem of objectivity in
science, we argue, must be guided by careful attention to scientific practices.
Since the 1960s, the mathematization of criteria and decision-making in
systematics has become a major trend in the search for more objective reconstructions of
phylogenetic relations, alternatively formulated as the “elimination of
subjectivity”. This has been possible thanks to the molecularization of evolutionary biology, and the introduction of
huge data-bases containing sequences of dna and proteins, along
with an increased use of computers and mathematical algorithms. Attention to philosophical disputes between
cladists, evolutionary systematics, and pheneticists has acted as an obstacle
to narratives focused on practices, and a historical and epistemological
reflection on objectivity in scientific work.
Keywords: Objetivity; systematic;
phylogenies; computers; statistics; algorithms
El zoólogo
del futuro, incluyendo al taxónomo, frecuentemente
tendrá que trabajar con un matemático estadístico, un programador, y
una enorme computadora. Algunos de ellos le darán la bienvenida a esta
posibilidad, y otros la encontrarán terrible
George
G. Simpson, 1962
El objeto de este artículo es contribuir a la
discusión en torno a la relación entre filosofía e historia de la ciencia.
Nuestra postura es que la reconstrucción histórica de las prácticas científicas
de campos concretos de investigación tiene prioridad sobre la reflexión
filosófica. Con esto queremos decir no solamente que la historia debe guiar a
la filosofía de la ciencia -si esta desea seguir siendo relevante-, sino que, de
hacer lo contrario, obstaculiza la comprensión del trabajo de investigación que
confiere al conocimiento científico sus virtudes epistémicas. Para defender
nuestro punto de vista historicista nos enfocamos en las prácticas e
instrumentos que en el último medio siglo han transformado un campo crucial del
conocimiento y la práctica de la biología: la sistemática o, como antes se le
conocía, la taxonomía. Ello nos
permitirá hablar del problema filosófico de la objetividad, y en particular de la forma en que en la actualidad
los taxónomos buscan la construcción de representaciones objetivas de las
relaciones entre especies.
Hoy en día puede afirmarse que se ha cumplido el
pronóstico -o la pesadilla- de George G. Simpson (1902-1984), reconocido
paleontólogo y uno de los arquitectos
de la Síntesis Evolutiva moderna: las herramientas de los taxónomos actuales en
poco recuerdan las prácticas que prevalecían hace menos de medio siglo, y todo ello en aras de la búsqueda de
objetividad. Tanto la elaboración de clasificaciones, como
la reconstrucción de relaciones filogenéticas entre especies, se ha visto
completamente trastocada.[2] En la década de 1990 las computadoras y el acceso a
las bases de datos de secuencias de dna (y previamente de proteínas) pasaron a ser parte de
cualquier colección, museo o laboratorio biológico, convirtiéndose en las
principales herramientas para la reconstrucción histórica de la vida. En la actualidad,
los taxónomos más destacados desarrollan software especializado que implementa
algoritmos novedosos con la intención de eliminar los rastros del juicio humano
y de la autoridad de los expertos, privilegiando explícitamente el uso de criterios
estadísticos en la elección de clasificaciones y de representaciones de la
historia de la vida. Después del año 2000, y como parte del Proyecto Genoma
Humano, se secuenciaron decenas de genomas de especies de bacterias, plantas, hongos
y animales y al día de hoy se han secuenciado miles de ellos por completo,
derramando un “diluvio de datos” que son intensivamente analizados en las
colecciones, laboratorios y museos de muchas universidades alrededor del mundo.
De este modo, la heredera de la vieja tradición de la historia natural, se convirtió
en uno de los campos más computarizados, matematizados y automatizados de las
ciencias de la vida contemporáneas.
Una
característica interesante de la sistemática es que las discusiones en torno a
qué métodos y tipos de datos contribuyen a la producción de representaciones
más objetivas de las relaciones entre especies, han sido explícitas y
constantes. Este tipo de debates no son comunes entre los practicantes de otras
disciplinas científicas. En trabajos previos hemos argumentado que dicha
búsqueda por la objetividad puede también formularse como una “ansiedad
metodológica” que persigue incesantemente la “eliminación de la subjetividad”
en esta disciplina (Suárez & Anaya 2008, 2009). Dicha ansiedad, sin embargo,
no debe interpretarse como un estado psicológico, sino como un conjunto de
prácticas de elaboración, desarrollo y mejoramiento de criterios estadísticos
cada vez más explícitos (públicos) que ayudan en la toma de decisiones para la
elaboración de una filogenia. Como ya mencionamos, la referida matematización
del trabajo de la taxonomía fue posible
gracias a la molecularización del estudio de la evolución biológica, y a la
introducción de computadoras, algoritmos y bases de datos de secuencias de
proteínas y ácidos nucleicos, procesos que iniciaron a fines de los años 1950 e
inicios de la década de 1960 ( Suárez-Díaz 2014, 2017).
Ahora bien, a estas alturas debe ser claro que
nuestro artículo parte del supuesto de que la ciencia consiste en un conjunto
de prácticas heterogéneas y, por tanto, que una reflexión filosófica fructífera
en torno a temas como la objetividad
ha de realizarse en el contexto de áreas y problemas de investigación
concretos. Este supuesto, que no es más que una manera de formular la necesidad
de una epistemología histórica, no niega -sin embargo- que las formas de
trabajo y las prácticas de distintas áreas y problemas científicos
frecuentemente son movilizados y reconfigurados en áreas diversas a las de su
origen[3]. La adaptación o “domesticación” de instrumentos y prácticas de un
campo por otro distinto comúnmente
ocurre por encima de debates “teóricos”, y guiada por criterios estrictamente
pragmáticos. En el caso que nos ocupa, Sterner y Lidgard han mostrado que las famosas disputas teóricas
entre las escuelas de la sistemática -las llamadas “guerras taxonómicas” entre
cladistas, evolucionistas y feneticistas (Hull; Sober)- no impidieron, ni impiden hoy en día, el intercambio, prestamo,
adaptación y uso de herramientas bioinformáticas, como software especializado,
y de formas de trabajo -working practices
en la formulación de John Pickstone, provenientes de otros campos de especialización
o de escuelas rivales.
Más
aún, como argumentaremos en este ensayo, la atención de los filósofos en esos debates
teóricos de la sistemática ha sido -más que nada- un obstáculo para el avance de una discusión relevante sobre el
problema de la objetividad en este campo disciplinario. Asimismo, la atención a
los aspectos filosóficos de esa importante disputa ha afectado a la
reconstrucción histórica, opacando la transformación de las prácticas de trabajo de la sistemática, dejando
de lado el papel crucial que cumplieron importantes tecnologías y herramientas
en el último medio siglo, y volviendo invisibles contribuciones cruciales en el
campo de la sistemática que nos permiten entender de mejor manera el trabajo
actual de los taxónomos.
En
conclusión, en nuestra perspectiva los estudios de caso no son simples
ilustraciones o pruebas de ninguna reflexión filosófica autónoma que no se
encuentre anclada y/o interesada en las prácticas científicas. Los estudios de
caso son, más bien, la guía sin la cual la filosofía de la ciencia se convierte
en ciega e irrelevante. Buscamos, pues, avanzar un punto de vista historicista
radical: es en la comprensión histórica detallada de los distintos campos de
investigación donde la filosofía de la ciencia encuentra hoy en día sus temas y
lecciones más interesantes y reveladoras.
Empecemos,
pues, por la historia reciente de este campo en su localización precisa. Dos
importantes tendencias confluyeron en la transformación de la sistemática estadounidense
a finales de la década de 1950, e inicios de los años sesenta. Por un lado, la
introducción de las computadoras en las instituciones de investigación civiles
y las universidades, integrándose a las herramientas de trabajo en las ciencias
de la vida, como resultado de políticas científicas que promovieron el uso de
estos instrumentos pese al escepticismo y rechazo inicial de la mayoría de los
biólogos (Hagen
2001; November 2012). Hacia inicios de la década de
1960, el 15 % de los colegios y universidades de los Estados Unidos ya contaban
con al menos una computadora, y muchas de estas instituciones adquirían ya
computadoras de segunda generación. Estas últimas utilizaban transistores en lugar
de tubos de vacío, lo cual las hacía más confiables y eficientes para efectuar
cálculos prolongados. Si bien estas máquinas requerían el uso tedioso y lento
de tarjetas perforadas (punch cards),
y los programas de computación tenían que ser frecuentemente re-escritos para
cada máquina, la llegada de las computadoras hizo posible por primera vez
realizar análisis numéricos que eran impensables apenas unos años atrás; aun
así, eran unos pocos biólogos, la mayoría provenientes de la física y la
biofísica, quienes se aventuraban a construir herramientas computacionales para
la resolución de problema biológicos, como John Kendrew -en su cálculos para
determinar la estructura tridimensional de la mioglobina- o Margaret O. Dayhoff
, de quien hablaremos adelante (Hagen
2001).
Por
otro lado, la rápida molecularización
de la biología trajo consigo la acumulación de secuencias de aminoácidos de
diferentes proteínas, primero la insulina, posteriormente el citocromo C y las
hemoglobinas (De Chadarevian 1999; García-Sancho).[4] Hacia
finales de los años sesenta se habían acumulado, en los famosos Atlas of Protein Sequence and Structure
elaborados por Dayhoff, más de 500 secuencias de distintas proteínas de numerosas
especies. De inmediato fue claro que la enorme y creciente cantidad de datos de
caracteres taxonómicos proporcionados por estas secuencias debían ser organizados,
de modo que se pudiera extraer información acerca de sus semejanzas y función,
para lo cual Dayhoff movilizó el uso de las nuevas computadoras (Hagen 1999; Strasser; Suárez-Díaz 2014). Al igual que Dayhoff, muchos
químicos de proteínas como Christian Anfinsen, Linus Pauling, Emilé Zuckerkandl,
Emmanuel Margoliash, entre otros, se dieron cuenta que las secuencias de
aminoácidos de proteínas “homólogas” podían ser utilizadas para establecer
cuantitativamente relaciones de similitud entre especies, en lo que
inicialmente se llamó “química paleogenética” ( Zuckerkandl & Pauling 1962; Suárez-Díaz
2014).[5]
Estos
desarrollos en el cómputo y la secuenciación de macromoléculas impactaron el
trabajo cotidiano, la delimitación de problemas y el tipo de resultados en
distintas áreas de investigación de las ciencias de la vida, particularmente la
biomedicina, la genética, la bioquímica, la naciente ecología de sistemas y la
sistemática. Pero sería erróneo considerar estos campos como meros receptores
pasivos de los avances tecnológicos que ocurrían en otro sitio. En muchos
sentidos y de distintas maneras, las necesidades específicas de los biólogos en
las distintas áreas también impactaron y orientaron los desarrollos computacionales,
como lo ha mostrado la investigación histórica en el caso de la bioquímica y la
biología molecular (De
Chadarevian 2002), de la biomedicina (Lenoir;
Leonelli) y de la sistemática (Hagen 2001; Suárez-Díaz y Anaya-Muñoz 2008).
La
sistemática, por ejemplo, contribuyó sustancialmente a la solución de uno de
los problemas fundamentales del cómputo en aquella época, el llamado “problema
taxonómico”, es decir, la aplicación de técnicas computacionales para analizar
y clasificar datos cualitativos, la cual tenía aplicaciones no solo en la
biomedicina sino en el ámbito de los negocios y en la elaboración de bases de
datos en general. Debido a las amplias implicaciones del problema de la
taxonomía, los primeros taxónomos
numéricos recibieron en esos años una enorme cantidad de apoyos financiero
de los National Institutes of Health
y la National Science Foundation en
los Estados Unidos -en el Reino Unido, en contraste, las computadoras fueron
utilizadas en esos años en el estudio de la cristalografía de proteínas. Junto
con algunos de los primeros programadores, y en colaboración con matemáticos
aplicados, los taxónomos desarrollaron uno de los proyectos exitosos de la
interacción entre biología y computadoras, la llamada “taximetría”. Los
taxónomos aportaban grandes conjuntos de datos bien estudiados y sistemas de clasificación
ya existentes, los cuales se utilizaban para poner a prueba la eficiencia,
adecuación y pertinencia de los análisis de datos que realizaban las
computadoras en ciernes. El historiador Joel Hagen ha narrado que el primer
programa exitoso de este tipo nació de la colaboración entre matemáticos de la ibm y botánicos del Jardín Botánico de Nueva
York (2001
294).
Al tiempo
que ocurrían estos desarrollos, la llamada sistemática “evolutiva” de Ernst
Mayr y George G. Simpson era objeto de duras críticas, y puesta a prueba por
distintos retos de carácter simultáneamente tecnológico y conceptual. Los
fundadores de la escuela numérica, también llamada feneticista, justificaban el uso intensivo de técnicas matemáticas
y estadísticas para la elaboración de clasificaciones que buscaban ser objetivas,
sin pretensión de reconstruir las relaciones filogenéticas entre especies (Sokal
& Sneath). Aunque habían desarrollado
técnicas de clustering fenético y
otras técnicas numéricas que podían realizar a mano, estas eran tardadas y tediosas.
Otras técnicas estadísticas de análisis multivariado que eran más complejas
requerían el uso de computadoras, pero los resultados estaban a la vista a
finales de los cincuenta: un análisis factorial de un conjunto de caracteres de
40 especies que tomaba 8 horas en las primeras computadoras, podía realizarse
en unos cuantos minutos con la nueva ibm 7090 de estado sólido y transistores (Hagen 2001 294).
De
manera independiente a estas propuestas, la disponibilidad de secuencias
moleculares de proteínas puso en manos de los nuevos biólogos moleculares una
enorme cantidad de datos para ser analizados. Los bioquímicos y los primeros
“evolucionistas moleculares” explotaron rápidamente estas posibilidades, aún
sin contar con conocimientos teóricos o experiencia previa en la taxonomía o la
biología evolutiva, pero elaborando los primeros árboles de distancias
moleculares utilizando computadoras (Eck
& Dayhoff; Fitch y Margoliash; Dayhoff). Dayhoff, en particular,
desarrolló algunas de las primeras matrices de cálculo con apoyo financiero de
los nih y la National Science Foundation para resolver el “problema taxonómico”,
y su Atlas fue un antecedente
importante de las primeras bases de datos moleculares (Strasser
2010). Pese a que los feneticistas
sostenían que no era posible elaborar inferencias de las relaciones
filogenéticas o genealógicas entre especies, los evolucionistas moleculares
pronto asimilaron las medidas de similitud con relaciones de ancestría, sin
importarles los antiguos debates de la historia natural, ni los reclamos contemporáneos
de los arquitectos de la Síntesis Evolutiva (FItch). Una actitud exclusivamente
pragmática guiaba estos proyectos, los cuales aprovechaban los nuevos recursos
disponibles, produciendo así los primeros algoritmos y su implementación en la
sistemática sobre la marcha.
La
traducción al inglés de la obra del sistemático alemán Willi Hennig, en torno a
los métodos cladistas, paradójicamente también promovió el uso de las
computadoras en la reconstrucción filogenética. Hennig carecía de disposición
hacia las matemáticas y no estaba interesado en las computadoras. Sin embargo,
el análisis cladista enfatizaba el uso de normas explícitas y la lógica formal
en la reconstrucción de las relaciones de ancestría entre especies, por lo que
era sumamente pertinente para la programación computacional. Hacia mediados de
los años sesenta, como ha señalado Hagen (2001), los “cladistas numéricos” (la
mayoría de ellos, evolucionistas moleculares) habían introducido ya el uso de
las computadoras en el análisis de las filogenias, es decir, en el análisis de
las relaciones de ancestría.
Pese a
sus diferencias conceptuales y lo apasionado de sus debates que han sido
ampliamente retratados en la literatura histórica y filosófica (Hull;
Sober; Felsenstein 2001), los feneticistas, cladistas,
bioquímicos y evolucionistas moleculares tenían una meta común: eliminar la
subjetividad que privaba en el campo de la predominante sistemática evolutiva
de la Síntesis Moderna, y hacer uso extensivo del diluvio de datos moleculares
mediante la aplicación intensiva de herramientas estadísticas y
computacionales.
Si bien la sistemática evolutiva propuesta dos décadas antes por Ernt
Mayr y George G. Simpson parecía predominar a inicios de la década de 1960, los
desarrollos tecnológicos y científicos ya mencionados, así el surgimiento de
escuelas y metodologías alternativas, pusieron en serias dudas la idea de que
los grupos taxonómicos y los métodos que se utilizaban para la clasificación y
reconstrucción de relaciones de ancestría fueran “objetivos”.[6] En el núcleo de los ataques se encontraba la
sospecha de que los grupos taxonómicos mezclaban las medidas de similitud o parecido con hipótesis no empíricas de
sus relaciones filogenéticas. Las ideas o teorías previas sostenidas por el
sistemático, su experiencia profesional (y personal) y familiaridad con un
grupo biológico determinado, e incluso temas como el prestigio y la autoridad académicas,
influían en la “evaluación” y el “peso” que se atribuía a diferentes caracteres
en la inferencia de relaciones de ancestría y la posterior construcción de
árboles filogenéticos (Fitch 2000).
Una cita de Simpson, al hablar de la taxonomía de los primates en un
evento financiado por la importante Fundación Wenner-Gren, que tuvo lugar en
Austria en 1964, ilustra el tipo de argumentos que eran problemáticos para los
taxónomos de la nueva generación:
La significancia de las
diferencias entre cualesquiera dos especímenes casi siempre ha sido enormemente
exagerada por una autoridad u otra en este campo. Aquí el problema no es tanto
la falta de una gramática taxonómica sino la falta de un sentido común
taxonómico o experiencia. Muchos fósiles de homínidos han sido descritos y bautizados
por autores que carecen de experiencia en taxonomía. Inevitablemente les ha
faltado el sentido de balance y la habilidad interpretativa de los zoólogos que
han trabajado extensivamente en grupos mayores de animales. Debe notarse, con
tristeza, que incluso los zoólogos ampliamente equipados suelen errar su juicio
si trabajan con homínidos. En este caso factores de prestigio, involucramiento
personal y sentimental rara vez dejan de afectar al científico, plenamente
humano, aunque esos factores rara vez perturben a los que trabajan, por
ejemplo, con gusanos o polillas (Simpson 7).
La referencia de Simpson a virtudes como la experiencia, el sentido
común, el balance y el juicio dejaban a la práctica taxonómica en manos de la
autoridad familiarizada con un grupo biológico, privilegiando el juicio
–individual- en torno a cuestiones como “la significancia (o el peso) de las
diferencias”. La subjetividad del
taxónomo era aún más aparente cuando se trataba de representar la taxonomía de
los homínidos. Para los críticos de Simpson, tales virtudes no eran sino un conjunto de prácticas privadas, que no
podían articularse en criterios explícitos susceptibles de ser comprendidos y
reproducidos por otros practicantes de la taxonomía. Más aún, en sus
reflexiones sobre la relación entre las relaciones filogenéticas y las clasificaciones,
Simpson añadía que “[e]l parecido brinda importante evidencia de afinidad, pero
no la única. La clasificación puede
ser consistente con la afinidad evolutiva, aunque no sea directa o
completamente expresiva de ella” (Simpson 8). Si bien en otra parte
de su texto él sostenía que era recomendable la utilización de métodos
estadísticos para cuantificar la similitud, nunca utilizaba, ni proponía o
describía cómo deberían ser esos métodos. Cuando los evolucionistas utilizaban
métodos cuantitativos se centraban únicamente en diferenciar entre grupos que
ya habían sido establecidos; así, la matematización y la cuantificación
ocurrían a posteriori, si acaso
ocurría. (Hull 111)
En la misma conferencia a la que hacemos referencia, Simpson se enfrentó
también a Morris Goodman y Emilé Zuckerkandl, representantes del entonces naciente
estudio de la base molecular de la evolución. Ambos argumentaron a favor de la superioridad de los caracteres
moleculares sobre los caracteres morfológicos. La principal ventaja de los
primeros era la naturaleza discreta de las substituciones en los amino ácidos
que conformaban las proteínas, lo que hacía posible la comparación “cuantitativa”
(es decir, expresable en una medida numérica supuestamente incontrovertible) entre
cadenas homólogas de péptidos, y eventualmente la comparación entre segmentos
de dna, algo que
a inicios de los 1960s se veía aún lejana. Además, según Zuckerkandl, “los
caracteres moleculares constituían, a diferencia de los morfológicos, evidencia
más limpia y directa del proceso
evolutivo (Zuckerkandl ). Para justificar lo
anterior argumentaba que los caracteres moleculares (en este caso las secuencias
de proteínas), no eran poligénicas;
“mientras que los caracteres morfológicos pueden ser adscritos a un entretejido
casi indescifrable de causas y efectos, diferentes caracteres siendo
parcialmente afectados por las mismas causas y un carácter afectado por varias
causas; esta red es relativamente desenredada a nivel molecular” (260–64). Existían implicaciones
de carácter “epistemológico” al utilizar información molecular, que apuntaban a
su carácter fundamental. Se decía,
por ejemplo, que, “la filogenia molecular más racional, universal, e
informativa será construida únicamente con moléculas semantoforéticas” (Zuckerkandl &
Pauling 1965 360).[7] En
conclusión, el uso y análisis cuantitativo de caracteres moleculares permitiría
elaborar clasificaciones y filogenias objetivas, que superaran las
idiosincracias y la subjetividad de las reconstrucciones de un puñado de
expertos.
Ahora bien, ¿qué se quería decir con objetividad
en este contexto? Lorraine Daston y Peter Galison (1992, 2007), representantes de
la epistemología histórica, han propuesto que el concepto actual de objetividad
surgió en la segunda mitad del siglo xix. De acuerdo con estos autores “el concepto moderno
de objetividad mezcla, más que integra, componentes dispares que son diferentes
tanto histórica como conceptualmente” (1992 82). Así, este término “puede ser aplicado a todo, desde la
confiabilidad empírica a la corrección procedimental o el desapego emocional” (1992 82). Es decir, uno de
los componentes principales de la objetividad es su carácter negativo respecto a la subjetividad: “la historia de las varias
formas que ha tenido la objetividad puede ser contada mediante el cómo, el cuándo
y por qué varias formas de subjetividad son vistas como peligrosamente subjetivas” (1992 82). En su influyente
trabajo, Daston y Galison enfatizan la llamada objetividad mecánica. Esta pretendía eliminar la presencia intermediaria
del observador apoyándose en una autodisciplina altamente moralizada: los
científicos deben resistir la tentación de emitir juicios, interpretar, o
incluso evitar el testimonio de sus sentidos; haciendo necesarios una gran
concentración para la observación y medición. Para lograrlo, una estrategia común ha consistido en
recurrir a la mecanización de prácticas, puesto que “en vez de libre deseo, las
máquinas ofrecen libertad de los
deseos –de las deseosas intervenciones que resultan uno de los aspectos más
peligrosos de la subjetividad” (1992 83, nuestras cursivas).
Otra forma de entender históricamente la objetividad a partir del siglo xix ha sido investigada
por Theodore Porter (1992, 1995). Según él, se trata
de que los “números hablen por sí mismos”, de forma que se permita una
comunicación de resultados y de decisiones que favorezca la expresión y
formulación pública del conocimiento.
Sin embargo, continúa Porter, dado que los números son incapaces de “hablar por
sí mismos”, la manipulación matemática de los datos y sus representaciones constituyen
una parte central del trabajo científico contemporáneo. Siguiendo a Porter, es aquí
donde las computadoras y los programas estadísticos han jugado en las últimas
décadas un papel predominante en las prácticas del taxónomo. Las secuencias de
amino ácidos y nucleótidos permiten una serie de tratamientos numéricos que
resultan prácticamente imposibles de realizar utilizando caracteres
morfológicos. Esto se debe al carácter digital (o digitalizable) de las
secuencias versus el carácter
analógico de otros datos, incluidos otros datos moleculares como las distancias
inmunológicas.[8] En este mismo sentido, Gigerenzer y colaboradores (1989) han descrito la
forma en que las técnicas de inferencia estadística se volvieron ampliamente
utilizadas como herramientas para incorporar al azar en los modelos y
explicaciones a partir del siglo xix, y no sorprende que una de las áreas donde esto
ocurrió de manera significativa fuera la biología evolutiva, una disciplina de
carácter histórico que aspira a reconstruir con la mayor certidumbre posible el
pasado de las relaciones entre especies.
Respecto a la clasificación y a las inferencias filogenéticas, los
taxonómos evolucionistas clásicos como Mayr y Simpson sostenían que los mejores
caracteres se encontraban a nivel del organismo individual, ya fueran estos
morfológicos o funcionales. Sin embargo, la calidad y cantidad de dichos
caracteres, así como su carácter derivado -contra el carácter “fundamental” de
los datos moleculares- se encontró fuertemente cuestionada por las perspectivas
que surgieron mediante el uso de nuevas tecnologías. En este contexto, la
compleja interpretación de los caracteres presentes en los fósiles, así como la
evidencia morfológica y funcional de todo tipo, requería ejercer el juicio,
la experiencia, y el balance, algunas veces la
intuición e incluso las inclinaciones
artísticas de la autoridad o experto en la materia. Este tipo de trabajo requería
-ay aún requiere- que los taxónomos individualizaran aquello que contaba como un carácter individual, interviniendo de
manera idiosincrática para asignar el “peso de los caracteres” (Hagen 2001, 2003). Por ello era común, hasta hace poco, que una
sola persona fuera reconocida como “la” autoridad científica para un
determinado grupo taxonómico. Esta situación era intolerable en una época y
lugar en que se promovió el crecimiento de la investigación científica y en la
que, a juicio de feneticistas, cladistas y nuevos evolucionistas moleculares, era
necesario construir criterios cuantitativos, públicos y explícitos a la vista
de cualquier taxónomo.
Tal vez la posición más extrema entre los primeros evolucionistas
moleculares fue sostenida por el bioquímico Emmanuel Margoliash, quien aspiraba
a reconstruir la filogenia de todos los organismos a partir de una sóla molécula. A mediados de los
1960s él y sus colaboradores utilizaron las secuencias de veinte moléculas de
Citocromo c conocidas a la fecha, provenientes
de distintas especies. Margoliash estaba convencido de que una adecuada
interpretación de las similitudes y diferencias entre proteínas podría
alcanzarse únicamente mediante la utilización de herramientas estadísticas sobre los datos existentes
al momento (Margoliash677). Esta convicción se
reforzó después de su trabajo pionero con Walter Fitch, quien diseñó un
programa de cómputo para construir filogenias basadas en la medida de similitud
(entre moléculas) en términos de distancia
(mutacional) mínima utilizando los datos de las secuencias obtenidas por
Margoliash (Fitch & Margoliash 1967).
Sin
embargo, los métodos cuantitativos computacionales introducidos por Margoliash
y Dayhoff, no eliminaron de una vez y para siempre el papel del juicio y la
subjetividad en la elaboración de árboles filogenéticos y clasificaciones. Los
taxónomos se siguen enfrentando a problemas metodológicos en la toma de
decisiones acerca de cuál taxonomía o árbol representa de mejor manera las
relaciones entre especies, si bien tales problemas son cada vez más
sofisticados e involucran cada vez una mayor cantidad de datos y una mayor
complejidad en el razonamiento estadístico. Estas dificultades se hacen
explícitas al analizar los pasos básicos que un científico o grupo de ellos
debe llevar a cabo para reconstruir una filogenia molecular, y se describen
brevemente a continuación[9]:
El
primer paso para realizar una reconstrucción filogenética molecular consiste en
definir el tipo de evidencia que se utilizará y el tipo de reconstrucción que
se va a realizar, es decir, si se quiere reconstruir la historia de la especie
o especies con la que se esté trabajando, o bien únicamente la correspondiente
al carácter de interés; un criterio fundamental que puede no estar exento de
discusión es si dichas secuencias tienen o no un origen común, es decir si son
homólogas.[10]
En ese
mismo sentido es necesario decidir si se trabajará utilizando secuencias de
amino ácidos o bien de ácidos nucleicos. Hoy en día, y a partir de fines de la
década de 1990, es cada vez más común utilizar únicamente secuencias de ácidos
nucleicos (dna o rna),
debido a que ofrecen una mayor facilidad para su digitalización; las
características de estas moléculas, compuestas de combinaciones de cuatro
monómeros (nucleótidos) facilitan su conversión en valores numéricos.
Una vez
resuelta esta cuestión es necesario, independientemente del método que se vaya
a seguir para la reconstrucción final, realizar un alineamiento múltiple de las
secuencias obtenidas. Básicamente este paso consiste en arreglar las cadenas de
modo que se alcance la mayor similitud entre sus secuencias, pero sin
intervenir excesiva o sesgadamente en el arreglo. La manera en que se
interpreta este criterio está sujeto a cuestión (evidentemente, sugiere la peligrosa
intervención de un criterio subjetivo) y para ello se han desarrollado
diferentes tipos de software que
implementan uno o varios algoritmos para estos fines, y que son explícitos en
los criterios usados. Entre los más conocidos y utilizados se encuentran Clustal (Larkin
et al.), mafft (Katoh & Standley), Muscle (Edgar 2004) y T-Coffee (Notredame,
Higgins, & Heringa); cada uno de ellos permite
establecer valores para diferentes parámetros con la finalidad de evaluar el
peso que se da a diferentes elementos del alineamiento y de los caracteres a
trabajar. Si bien estos parámetros se establecen numéricamente, atribuyendo
probabilidades a procesos físicos como el conocido “múltiple-hit” (es decir, el
cálculo de cuántas mutaciones pueden haber ocurrido en un mismo sitio a lo
largo de millones de años de evolución, los cuales “aparecen” como un solo
cambio o mutación observable), existen distintos modelos del comportamiento de
tales procesos.
Cada
algoritmo de alineamiento, pues, incorpora distintos supuestos y modelos del
comportamiento de la variación en la evolución, y les atribuye distintas
probabilidades. Estos valores no resultan del juicio o experiencia del
sistemático, sino que dependen del modelo físico que se adopte del problema de
la mutación múltiple u otros escenarios evolutivos. Por supuesto, entre los
sistemáticos existen disputas sobre cuáles modelos y algoritmos son más adecuados,
y esto genera mejoras continuas de los algoritmos, que en parte dependen de los
resultados de investigaciones independientes acerca de la frecuencia de los
diferentes tipos de mutaciones. Aun así, una vez que se ha obtenido un
alineamiento satisfactorio para el científico, es siempre posible editarlo “a
ojo”, para que se ajuste a las expectativas que se tienen del mismo. Si bien
esto se realiza con reservas, se trata de una de las instancias donde más claramente
se involucra nuevamente el juicio del experto, y que subsiguientes algoritmos
han tratado de eliminar.
El
siguiente paso -que dista de no ser problemático tanto en términos
metodológicos como en lo que respecta a las decisiones que se deben tomar y por
lo tanto, los criterios a fijar-, es la (re)construcción del árbol filogenético
en sí. Uno de los primeros árboles filogenéticos construidos utilizando
caracteres moleculares fue, como ya se mencionó, el producto de la colaboración
entre Walter Fitch y Emmanuel Margoliash
en 1967. El árbol se
conceptualizó como “[…] una representación gráfica del orden en el que los
subconjuntos [de caracteres] fueron unidos” (Fitch & Margoliash 280). En este caso, los
resultados del alineamiento (también automatizado) se utilizaron como una
matriz de distancias evolutivas entre las secuencias, y se utilizaron para
reconstruir las relaciones entre las especies que eran objeto del estudio.
Actualmente esta tarea se sigue realizando automáticamente, utilizando
programas y algoritmos altamente especializados que implementan uno o varios
métodos. Esos métodos pueden ser
clasificados, de acuerdo con la narrativa tradicional centrada en las discusiones
de escuelas taxonómicas, en tres grupos principales: 1. Métodos de distancia. 2. Métodos de máxima parsimonia. 3. Métodos
de máxima verosimilitud (Maximum
likelihood) (ver nota 5 arriba). Los últimos dos generalmente se agrupan
como métodos basados en caracteres.
Los métodos basados en distancias cuentan las diferencias entre dos
secuencias y las transforman en una matriz de distancia; con esa matriz se
construye un árbol que agrupa aquellas secuencias que tienen las distancias más
cortas y se añaden las demás conforme la distancia crece. Estos, en general, se han asociado a la
escuela feneticista.
Los métodos de parsimonia, a su vez, se basan en la hipótesis de trabajo
de que del árbol más parsimonioso “[…] se puede esperar que tenga un alto grado
de correspondencia con la filogenia real. Su justificación descansa en el uso
más eficiente de la información y no
presupone que la evolución sigue el camino más parsimonioso” (Fitch 1971
406, cursivas nuestras). Comunmente se obtienen varios “árboles más
parsimoniosos” a partir del mismo grupo de datos y resulta necesario decidir
cuál de ellos usar; en ese caso solo los grupos que están en estricto consenso
(es decir, que convergen) son considerados como apoyados por los datos. Tales
métodos fueron, en sus orígenes, utilizados por los cladistas.
A la par de los métodos de parsimonia se encuentran los que utilizan
criterios únicamente estadísticos como la máxima verosimilitud (maximum likelihood); estos métodos
estadísticos asignan la probabilidad de que un grupo de datos pueda ser
explicado por un modelo evolutivo determinado a priori. Los métodos de maximum
likelihood son computacionalmente intensivos; es decir, utilizarlos requiere
una gran cantidad de cálculos y por lo tanto un enorme “poder de cómputo”, y
parten del principio de que el acercamiento estadístico sin preconcepciones es mejor que uno biológicamente sensible. La elección entre diferentes
árboles no suele, ocurrir puesto que el mejor árbol debería ser dado por el
valor de verosimilitud. Debido al
diluvio de datos moleculares (secuencias de dna) y al creciente poder de cómputo, se ha hecho
materialmente posible el uso de estos métodos, que se convirtieron en la década
pasada, en los más utilizados por practicantes de todos tipos. Puede decirse,
de hecho, que el intercambio de métodos de este tipo terminó por borrar los
pequeños resquicios de las disputas de décadas anteriores.
Ahora bien, a partir de la década de 1990 se comenzaron a utilizar,
además, métodos Bayesianos para realizar este tipo de reconstrucciones, aunque
las ideas al respecto se pueden rastrear hasta la década de los 1960 en
trabajos fundadores como la tesis doctoral de uno de los máximos exponentes de
la matematización de la sistemática: Joseph Felsenstein (1968 21-32).
La utilización práctica de los métodos estadísticos requiere, sin
embargo, de importantes decisiones no automatizadas, que sigue tomando el
taxónomo, como puede ser el modelo de evolución que se utilizará para
reconstruir un árbol determinado. En este sentido, en un esfuerzo matematizador,
Abascal, Zardoya y Posada desarrollaron un
programa que permite establecer los mejores parámetros para obtener el mejor
árbol usando caracteres moleculares utilizando métodos de distancia,
verosimilitud o bayesianos.
Nuestra
reconstrucción de las prácticas de la taxonomía en las últimas décadas muestra
que la posibilidad de decir algo relevante acerca de la objetividad, como un
valor que se persigue en las representaciones científicas de este campo,
requiere la atención detallada a las prácticas e instrumentos que los
practicantes han incorporado, adaptado y desarrollado en las décadas después de
la segunda guerra mundial. Algunas de esas prácticas y herramientas fueron
originalmente desarrolladas en la solución de problemas originados en otros
campos, del mismo modo que los instrumentos y métodos de la sistemática han
sido llevados a otras áreas de investigación y se han aplicado en problemas
distantes; aun así, el carácter y soluciones específicas que adopta el problema
de la objetividad en la sistemática no es comprensible sin atender los retos
históricos de esta disciplina (ligada al peso de la autoridad y al volumen de
las colecciones de institucionales), como a los problemas específicos que
supone el análisis estadístico masivo de datos moleculares.
El
trabajo científico de la sistemática contemporánea se basa en el uso intensivo
de bases de datos moleculares y en la explotación de un enorme poder
computacional, accesibles a numerosos equipos de investigación que hoy en día
-a diferencia de la década de 1960- se localizan alrededor del mundo. A
mediados del siglo pasado, George G. Simpson desde su posición en el Museo de
Historia Natural de Nueva York, o Ernst Mayr en su calidad de director del
Museo de Zoología Comparada de Harvard, poseían la autoridad y la experiencia que
les daba su cercanía con las enormes colecciones biológicas de sus respectivas
instituciones. El juicio del experto, el peso de caracteres o la familiaridad
con un grupo específico han sido reemplazados, gradualmente, por la objetividad
mecánica (Galton y Daston) y el poder de los números (Porter). Al relegar a las
máquinas la iteración de los algoritmos (el software o la paquetería en uso en
cualquier grupo de sistemática), se ha alcanzado un alto grado de
automatización del trabajo del taxónomo, tanto de los cálculos como de las
decisiones que antes se encontraban, literalmente, en manos y a juicio del
practicante individual. Por otro lado, los algoritmos y las decisiones basadas
en probabilidades y en valores numéricos asignados, hacen posible explicitar los criterios utilizados,
comunicarlos y publicarlos para que potencialmente sean reproducibles por
cualquiera, por lejos que se encuentre, siempre y cuando utilice los mismos
datos accesibles en las bases globales. En todos esos sentidos la práctica de
la sistemática ha consistido y consiste hoy en día en hacer menos subjetivos y privados
los criterios de la clasificación y de inferencia filogenética.
Con la
llegada de los métodos bayesianos para la inferencia de filogenias, gracias al
desarrollo de herramientas matemáticas como los métodos de Cadenas de Markov
Monte Carlo (Markov Chain Montecarlo Methods, mcmm)
y el crecimiento de la capacidad de cómputo, se ha abierto una interesante discusión.
Sin embargo, como proponen Sterner
y Lidgard, y hemos mostrado aquí y en
nuestros trabajos anteriores, las discusiones sobre la utilización de una u
otra herramienta para la reconstrucción de filogenias se vuelven a enfocar en
el tema de la objetividad y la eliminación de la subjetividad en las decisiones
del taxónomo.
Ahora
bien, ¿qué nos dice la historia reciente de las prácticas de la sistemática,
que sea relevante para el filósofo de la ciencia? Al iniciar este ensayo
sostuvimos la necesidad de un historicismo radical para una filosofía de la
ciencia que sea relevante en nuestra comprensión de las prácticas científicas.
En el contexto actual esta demanda es indispensable para una adecuada
valoración de la robustez del conocimiento científico frente a sus críticos y
los defensores de los “alternative facts”.
Para defender a la ciencia no necesitamos refugiarnos en métodos infalibles o en
virtudes con validez universal (cualquiera que sea lo que esto signifique). El
caso que hemos presentado, enfocado en las prácticas de un campo contemporáneo
de la ciencia, ilustra la paulatina pero constante incorporación de
herramientas estadísticas cada vez más sofisticadas como sinónimo de
“objetividad”. Estas herramientas y desarrollos son sancionados por una
comunidad permanentemente escéptica, pero que contribuye a la construcción de un
concepto(s) e ideal de objetividad propio, el cual urge al desapego de la
subjetividad y el conocimiento privado.
En este
caso, hablar de objetividad remite a paquetes de software diseñados para los
fines epistémicos de la sistemática (la clasificación y la inferencia de
relaciones evolutivas), y a problemas relevantes para sus practicantes, como la
elaboración de alineamientos confiables o la elección correcta entre árboles
filogenéticos alternativos. El proceso histórico por el que se ha adoptado un
ideal de objetividad automático y cuantitativo (o matematizado) no constituye
un ideal teórico a alcanzar, sino una práctica materialmente posible gracias al
acceso a enormes bases de datos y a un creciente poder de cómputo. Es decir, el
tipo de objetividad reconocida por los practicantes de la sistemática a inicios
del siglo xxi se ha construido en
estrecha relación –y diríamos de manera contingente- con los desarrollos
tecnológicos y científicos de las ciencias de la vida, las ciencias de la
computación y las matemáticas de los últimos cincuenta a sesenta años. No
existen ese ideal ni esas prácticas fuera
de estos desarrollos instrumentales y prácticos, y por tanto la forma en que
los taxónomos entienden la objetividad se encuentra muy lejos del “View from
Nowhere” de Thomas Nagel (15).
Respecto
a la relación entre las disciplinas de la historia y la filosofía de la
ciencia, queremos llamar la atención al hecho de que el énfasis en las disputas
teóricas en la sistemática obstaculizó por varias décadas la escritura de
narrativas históricas centradas en prácticas, indispensables para comprender la
disciplina actual. En la última sección mencionamos los pasos generales para la
reconstrucción de una filogenia molecular. El primer paso en esa metodología
corresponde a la elección del caracter a partir del cual se construye la
filogenia, este puede ser una secuencia de gen (dna)
o bien de proteína (amino ácidos); caracteres que son relativamente simples de
digitalizar. Sin embargo, no todos los caracteres son fácilmente codificables
para su utilización en la construcción de filogenias moleculares. Durante l as
décadas de los 1960 a 1980 los practicantes tanto de las escuelas feneticista
como cladista se enfrentaban con el problema de la codificación de caracteres
de forma que pudieran ser utilizados en el flujo
de trabajo de la construcción de una filogenia utilizando computadoras.
Dicho problema fue atacado por ambas escuelas compartiendo metodologías, por
ejemplo, las llamadas codificación
binaria, normalización de caracteres o
el additive coding, o bien haciendo
aportaciones sobre unas u otras metodologías independientemente de la escuela
que la hubiese desarrollado. Incluso, métodos como el gap coding se consideran neutrales para ambas escuelas (Sterner & Lidgard 19–21). Esto quiere decir que a nivel
de los practicantes de la sistemática,
la utilidad y la eficacia de las herramientas ha estado, en muchas ocasiones
-aunque no siempre-, por encima de las diferencias “filosóficas” entre escuelas
rivales. Los practicantes “se prestan” y adoptan herramientas, y seguramente su
labor, en las últimas seis décadas, ha tenido un carácter más híbrido del que
ha sido retratado en reconstrucciones clásicas del campo, como las elaboradas
por David Hull o Elliot Sober en las cuales se enfatizan los debates teóricos y
las diferencias “filosóficas”.
En términos generales, no se discute ya entre los taxónomos sobre la
superioridad de una escuela sobre otra; se discute más bien si la elección de un
método dado (o el flujo de trabajo)
responde a los mejores criterios de objetividad que se esperan de la labor
científica. Es decir, la posibilidad de que el conocimiento y la práctica no
dependan para su puesta en práctica del practicante individual, ya que para eso
se encuentran las computadoras. Frecuentemente, más bien, se hacen
consideraciones sobre cuán práctico es un método u otro en función del tiempo
con que se cuenta, o el poder de cómputo que requiera para ejecutarse. Volviendo
al punto de la objetividad y poniéndolo
en los términos que Joseph Felsenstein expresaba en una entrevista reciente (Harmon 2017): “Creo que todos
somos bayesianos cuando se trata de cruzar la calle y balanceamos la evidencia
de los autos que se aproximan contra nuestros antecedentes (priors). Pero es ahí donde está una de
las críticas al bayesianismo: ¿tenemos todos los mismos antecedentes?”.[11]
Abascal, F., R. Zardoya, y D. Posada. “ProtTest: selection of best-fit models of protein evolution”. Bioinformatics 21.9 (2005): 2104-2105. <https://doi.org/10.1093/bioinformatics/bti263>.
Anaya, V., y Suárez, E. s/f. “Subjectivity through the main door: The success of Bayesian methods in the reconstruction of molecular phylogenies”. En prensa.
Daston, L., y Galison, P. “The Image of Objectivity”. Representations 40 (1992): 81–128.
_______. Objectivity. New York: Zone Books, 2007. <https://mitpress.mit.edu/books/objectivity>.
Dayhoff, M. O. Atlas of Gene Sequence and Structure. Vol. 4. National Biomedical Research Fundation, 1969.
De Chadarevian, S. “Protein Sequencing and the Making of Molecular Genetics”. Trends in Biochemical Sciences 24.5 (1999): 203–206. <https://doi.org/10.1016/S0968-0004(99)01360-2>.
_______. Designs for Life: Molecular Biology after World War II. Cambridge, MA: Cambridge University Press, 2002.
De Chadarevian, S. y Harmke, K. Molecularizing Biology and Medicine: New Practices and Alliances, 1920s to 1970s. Australia: Harwood Academic Publishers, 1998.
Eck, R. V., y Margaret O. D. Atlas of Protein Sequence and Structure. Silver Spring, Maryland: National Biomedical Research Foundation, 1966.
Edgar, R. C. “Muscle: Multiple Sequence Alignment with High Accuracy and High Throughput.” Nucleic Acids Research 32.5 (2004): 1792–1797. <https://doi.org/10.1093/nar/gkh340>.
Felsenstein, J. “Statistical Inference and Estimation of Phylogenies”.Ph.D. Thesis. University of Chicago, 1968.
_______. “The Troubled Growth of Statistical Phylogenetics”. Systematic Biology 50.4 (2001): 465–467.
Fitch, W. M. “Homology: a personal view on some of the problems”. Trends in Genetics 16.5 (2000): 227–231. <https://doi.org/10.1016/S0168-9525(00)02005-9>.
Fitch, W. M., y Emanuel M. “Construction of Phylogenetic Trees”. Science 155.3760 (1967):279–284. <https://doi.org/10.1126/science.155.3760.279>.
García-Sancho, M. “A New Insight into Sanger’s Development of Sequencing: From Proteins to dna, 1943-1977”. Journal of the History of Biology 43.2 (2010): 265–323. <https://doi.org/10.1007/s10739-009-9184-1>.
Gigerenzer, G., Zeno S., Theodore, P., Lorraine, D., John, B., y Lorenz, K. The Empire of Chance: How Probability Changed Science and Everyday Life. Cambridge: Cambridge University Press, 1989. <https://doi.org/10.1017/CBO9780511720482>.
Hagen, J. B. “Naturalists, Molecular Biologists, and the Challenges of Molecular Evolution”. Journal of the History of Biology 32.2 (1999): 321–341.
_______. “The Introduction of Computers into Systematic Research in the United States during the 1960s”. Studies in the History and Philosophy of Biological and Biomedical Sciences 32 (2001): 291–314.
_______. “The Statistical Frame of Mind in Systematic Biology from Quantitative Zoology to Biometry”. Journal of the History of Biology 36.2 (2003): 353–384.
Harmon, L. J. “Dechronization Interviews Joe Felsenstein”. Consultado el 10 de octubre de 2017.http://treethinkers.blogspot.com/2009/04/dechronization-interviews-joe.html.
Hull, D. L. Science as a Process: An Evolutionary Account of the Social and Conceptual Development of Science. University of Chicago Press, 1988.
Katoh, K., y D. M. Standley. “mafft Multiple Sequence Alignment Software Version 7: Improvements in Performance and Usability.” Molecular Biology and Evolution 30.4 (2013): 772–780. <https://doi.org/10.1093/molbev/mst010>.
Larkin, M. A., G. Blackshields, N. P. Brown, R. Chenna, P. A. McGettigan, H. McWilliam, F. Valentin, et al. “Clustal w and Clustal x Version 2.0”. Bioinformatics 23.21 (2007): 2947–48. <https://doi.org/10.1093/bioinformatics/btm404>.
Lenoir, T. “Shaping Biomedicine as an Information Science”. Proceedings of the 1998 Conference on the History and Heritage of Science Information Systems. Eds. Bowden, M. E. Trudi, B. y Robert W. Medford. New Jersey: asis Monograph Series, Information Today, 1999. 27–45 <http://webdoc.sub.gwdg.de/ebook/a/2001/asisbook.pdf#page=39>.
Leonelli, S. “Introduction: Making Sense of Data-Driven Research in the Biological and Biomedical Sciences”. Studies in History and Philosophy of Biological and Biomedical Sciences 43.1 (2012): 1–3. https://doi.org/10.1016/j.shpsc.2011.10.001.
Margoliash, E. “Primary Structure and Evolution of Cytochrome C”. Proceedings of the National Academy of Sciences 50.4 (1963): 672–679.
Nagel, T. The View from Nowhere. New York: Oxford University Press, 1989. https://global.oup.com/academic/product/the-view-from-nowhere-780195056440.
Notredame, C., D. G. Higgins, y J. Heringa. “T-Coffee: A Novel Method for Fast and Accurate Multiple Sequence Alignment”. Journal of Molecular Biology 302.1 (2000): 205–217.< https://doi.org/10.1006/jmbi.2000.4042>.
November, J. A. Biomedical Computing: Digitizing Life in the United States. The Johns Hopkins University Press, 2012. <https://muse.jhu.edu/book/14634>.
Pickstone, J. “Ways of Knowing: Towards a Historical Sociology of Science, Technology and Medicine”. The British Journal for the History of Science 26.4 (1993): 4433.
Porter, T. “Quantification and the accounting ideal in science”. Social studies of science 22.4 (1992):633–651.
_______. Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. New Jersey: Princeton University Press, 1995. <https://www.jstor.org/stable/j.ctt7sp8x>.
Simpson, G. G. “The Meaning of Taxonomic Statements”. Classification and Human Evolution. Ed. Sherwood I. Washburn. London: Methuen and Co. Ltd, 1964. 1–31.
Sober, E. Reconstructing the Past. Parsimony, Evolution, and Inference. MIT Pres, 1988.
Sokal, R. R., y Peter, H. A. S. The Principles of Numerical Taxonomy. London: W.H. Freeman & Co., 1963.< http://www.jstor.org/stable/1217562>.
Sterner, B, y Scott L. “Moving Past the Systematics Wars”. Journal of the History of Biology 51.1 (2017): 31-67. <https://doi.org/10.1007/s10739-017-9471-1>.
Strasser, B. J. “Collecting, Comparing, and Computing
Sequences: The Making of Margaret O. Dayhoff’s Atlas of Protein Sequence and
Structure, 1954-1965”. Journal of the History of Biology 43.4 (2010): 623–660. <https://doi.org/10.1007/s10739-009-9221-0>.
Suárez, Edna, y Víctor Hugo Anaya. “History, Objectivity, and the Construction of Molecular Phylogenies”. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences 39.4 (2008): 451–468.
_______. “La ansiedad
metodológica como búsqueda de objetividad: La construcción de filogenias
moleculares”. Ludus Vitalis 17.31 (2009): 33–64.
Suárez-Díaz, Edna. “The Long and Winding Road of Molecular Data in Phylogenetic Analysis”. Journal of the History of Biology 47.3 (2014): 443–478.
_______. “The Molecular Basis of Evolution and Disease: A Cold War Alliance”. Journal of the History of Biology (2017): 1-28. <https://doi.org/10.1007/s10739-017-9476-9>.
Zuckerkandl, Emile. “Perspectives in Molecular Anthropology”. Classification and Human Evolution. Ed. Sherwood I. Washburn. London: Methuen and Co. Limited, 1964.
Zuckerkandl, E., y L. Pauling. “Molecules as Documents of Evolutionary History”. Journal of Theoretical Biology 8.2 (1965): 357–366.
Zuckerkandl, Emile, y Linus Pauling. “Molecular
Disease, Evolution and Genic Heterogeneity”. Horizons in Biochemistry: Albert Szent-Györyi Dedicatory Volume. Eds.
M Kasha y B Pullman. New York: Academic Press, 1962. 189–225.
[1]Agradecimientos:
Los autores deseamos agradecer a la unam
por el financiamiento aportado a los proyectos papiit 401017 y ia2017616,
que hicieron posible la colaboración aquí plasmada. Agradecemos también la
invitación del Dr. Sergio Martínez (iif-unam)
para participar en este volumen.
[2] Hoy en día se usa el término “sistemática” para
este campo de la investigación biológica, el cual incluye la clasificación taxonómica u ordenamiento
de las especies de acuerdo a su similitud (heredera de la historia natural), y
la reconstrucción filogenética de
esas especies de acuerdo a criterios de ancestría o genealogía (como parte de
la biología evolutiva). Estas dos actividades y fines se asociaron en la década
de 1960 con la escuela feneticista y la escuela cladista respectivamente. Como
veremos en este artículo, tales distinciones teóricas tuvieron escasa
relevancia para el trabajo cotidiano de los sistemáticos o taxónomos. En este
artículo nos referiremos a los practicantes de esa disciplina utilizando
indistintamente ambos términos.
[3] Un ejemplo de ello es la utilización de los métodos bayesianos para la
reconstrucción de filogenias (Anaya Muñoz & Suárez Díaz. En prensa).
[4] La “molecularización” describe el proceso de
producción de nuevas alianzas entre la investigación científica, la industria y
los Estados (principalmente las potencias occidentales de Europa y
Norteamérica), que dio lugar, entre otras cosas, a la biomedicina (De Chadarevian & Kamminga, Introducción).
[5] Por proteínas
“homólogas” los primeros evolucionistas moleculares entendían aquellas
proteínas que realizaban la misma función en distintas especies y que mostraban
una alta similitud (estadísticamente se han establecido diferentes parámetros
para reconocer cuándo la similitud es suficiente para suponer homología) y como
caracteres consideraban a cada amino ácido de la proteína en cuestión. Como
sabe cualquier biólogo evolutivo, el uso del término “homología” en esta forma
podría ser problemático. Si bien este es un tema que escapa al alcance del
presente artículo, la discusión sobre homología en el contexto de las
filogenias moleculares ha llevado al desarrollo continuo de sofisticadas
herramientas estadísticas para su determinación.
[6] El problema principal era cómo relacionar la recuperación de relaciones
genealógicas (relaciones de ancestría-descendencia) con las clasificaciones de
los seres vivos. Los cladistas sostenían que la genealogía por sí misma debería
influir en la clasificación; los feneticistas, en cambio, que la similitud
general debía determinar la clasificación (y así se podrían proponer hipótesis
genealógicas a partir de esos datos). Mientras tanto, los taxónomos
evolucionistas sostenían que la clasificación debía reflejar tanto la
genealogía como la similitud adaptativa. Cada escuela desarrolló métodos
propios: el cladismo los métodos de parsimonia, el feneticismo los de máxima
verosimilitud (maximum likelihood). Pero la taxonomía evolutiva proveniente de la
Síntesis Moderna había afianzado una mezcla de metodologías tanto explícitas
como implícitas, que fueron el origen de las críticas de sus rivales.
[7] En este artículo (significativamente titulado “Molecules as Documents
of Evolutionary History”), Emilé Zuckerkandl introdujo una clasificación de
moléculas dependiendo de la cantidad de información que portaban. Las moléculas
Semantoforéticas o semantidas
(literalmente moléculas con significado), incluían a los ácidos nucléicos y las
proteínas, y se decía que concentraban la mayor cantidad de información sobre
la historia de los seres vivos. Véase Suárez, 2007.
[8] Al analizar un par
de cadenas proteicas homólogas, un residuo de aminoácido está o no presente; en
el caso de las secuencias de nucleótidos del dna el lenguaje en base 4 de los cuatro nucleótidos es el fundamento para
realizar muchos análisis estadísticos sin las complicaciones que plagan otros
tipos de datos. Como veremos, esto no quiere decir, sin embargo, que la
elaboración de comparaciones de secuencias no sea problemática.
[9] Un recuento detallado de este proceso está más allá
de los objetivos de este texto, sin embargo puede verse Suárez-Díaz, E &
Anaya-Muñoz (2008) y Suárez & Anaya
(2009).
[10] Este punto es fundamental pues una reconstrucción
de ancestro-descendencia carece de sentido si se hace a partir de caracteres
que tienen orígenes independientes.
[11] […] I think we're all Bayesians when we come to cross the street,
balancing evidence of approaching cars against our priors. But that's where one
of the criticisms of Bayesianism comes in -- do we all have the same priors?[…]
En el original.
Véase: <https://treethinkers.blogspot.com/2009/04/dechronization-interviews-joe.html>.