Philologia Hispalensis · 2024 Vol. · 38 · Nº 2 · pp. 41-57
ISSN 1132-0265 · © 2024. E. Universidad de Sevilla. · (CC BY-NC-ND 4.0 DEED)
Gimena del Rio Riande
Instituto de Investigaciones Bibliográficas y Crítica Textual (Consejo Nacional de Investigaciones Científicas y Técnicas)
ORCID: 0000-0002-8997-5415
Recibido: 01-02-2024. Aceptado: 12-02-2024
Resumen
El trabajo de edición digital de textos implica una serie de actividades complejas. Se necesitan diferentes saberes —filológicos, informáticos, etc.—, a la vez que infraestructuras para alojar datos, recursos y, claro está, la edición digital en tanto producto acabado. Este trabajo reflexiona sobre los problemas de sostenibilidad, archivo y preservación de los primeros proyectos de Informática Humanística y, principalmente, de los relacionados con la temprana actividad de edición digital en España. Asimismo, compara algunas de sus estrategias para que cualquier proyecto de edición digital desarrollado en la actualidad pueda crecer y preservarse a largo plazo. Para ello apela a criterios de clasificación como haute couture o prêt-à-porter (Pierazzo, 2019), a metodologías de publicación y/o archivo de la minimal computing, o al uso de repositorios de código y datos.
Palabras clave: sostenibilidad, archivo, preservación, edición digital, humanidades digitales.
Abstract
Digital editions often imply a complex work. They require different types of knowledge —philological, computational, etc.— along with infrastructures to host data, resources, and the digital edition as a final product. The article reflects on the sustainability, archiving, and preservation issues of early Humanities Computing projects and early digital edition projects in Spain in order to propose strategies for any digital edition project that wants to remain online and achieve long-term preservation. Also, it appeals to classification criteria for digital editions such as haute couture or prêt-à-porter (Pierazzo, 2019), methodologies of publication and/or archiving of minimal computing, or the use of code and data repositories.
Keywords: sustainability, archive, preservation, digital edition, digital humanities.
En el capítulo 9, «There Had to Be a Better Way», del libro Computation and the Humanities. Towards an Oral History of Digital Humanities (Nitti y Nyhan, 2016), John Nitti relata cómo una subvención de la National Endowment for the Humanities le dio la oportunidad de comenzar en el año 1972 una versión computarizada del Dictionary of the Old Spanish Language (DOSL) en el Hispanic Seminary of Medieval Studies (HSMS) de la Universidad de Wisconsin-Madison[1].
El DOSL es una de las primeras grandes iniciativas de la investigación en humanidades con tecnología informática aplicada, así como también un buen ejemplo de la enorme importancia que tienen las decisiones humanas en la elección de metodologías adecuadas e infraestructuras sólidas para que un proyecto de humanidades digitales (HD)[2] supere con éxito su puesta en funcionamiento y el paso del tiempo. Para el momento en el que Nitti y su maestro Lloyd Kasten comenzaron a pensar en esta versión computarizada basada en el diccionario de García Solalinde, este se conservaba en treinta archivadores (Burrus, 1983: 209). La transformación del DOSL del formato analógico al electrónico implicó el empleo de las últimas innovaciones informáticas de ese entonces: el escaneo de códigos de barra para acelerar la introducción de datos y el reconocimiento óptico de caracteres (OCR) para las transcripciones de 250 manuscritos e incunables de entre fines del 900 y 1500 (Kiell, 1988: 6), además del desarrollo de un sistema unificado de codificación, más tarde conocido como Sistema Madison, que se utilizó como tecnología de representación textual para los derivados de este proyecto[3].
Si el equipo de trabajo del HSMS no hubiese sido lo suficientemente competente a la hora de elegir las metodologías informáticas para la creación de datasets, si las decisiones sobre gestión de grandes datos textuales no hubiesen sido las más apropiadas y si las infraestructuras no hubiesen sido cumplidamente robustas para permitir la sostenibilidad, y preservación de este proyecto en el tiempo, hoy no contaríamos con gran parte de estas primeras iniciativas que cimentaron las HD relacionadas con la filología y la edición de textos en nuestra lengua[4]. Por un lado, el DOSL fue la base para que en 1978 el HSMS publicara la primera serie en microfichas de la serie de Texts and Concordances. Casi dos décadas después, en 1997, estas comenzaron a publicarse en CD-ROM y finalmente, en 2005 pasaron al formato en línea y de allí a la Biblioteca Digital de Textos Antiguos en Español, lanzada en 2011[5]. Por otro lado, tampoco existirían proyectos que reusaron el DOSL, como Philobiblon o el Archivo Digital de Manuscritos y Textos Españoles (ADMYTE)[6]. Y mucho menos, en un arco de tiempo más cercano al nuestro, tendríamos hoy acceso al Old Spanish Textual Archive (OSTA)[7], desarrollado por Francisco Gago Jover y Javier Pueyo Mena sobre la idea del Old Spanish Archive (OSA) de Nitti (1978).
Los primeros años de las HD hispanohablantes son deudores, sin lugar a duda, de las propuestas de trabajo del HSMS, de las del Centro per L’Automazione dell’Analisi Letteraria (CAAL), fundado en 1956 por el jesuita Roberto Busa (Burton, 1981), y también de las de la Escuela de verano de Pisa, dirigida por Antonio Zampolli desde 1972[8]. Sin buscar exhaustividad alguna en las referencias bibliográficas que aquí traigo, salta a la vista el gran interés inicial por la aplicación de la tecnología a la investigación en lingüística hispánica en esos tiempos: la tesis de doctorado del chileno Leopoldo Sáez Godoy acerca de una clasificación estadística del léxico de Lope de Rueda defendida en la Universidad de Bonn (Sáez Godoy, 1968), el trabajo del español Francisco Marcos Marín sobre traducción automática (1971) o la Base estadística del español de México de los mexicanos Luis Fernando Lara y Roberto Ham Chande (Lara y Ham Chande, 1974) son buenos ejemplos de este primer periodo[9]. Recién hacia mediados de la década del ochenta del siglo xx comienzan las preguntas por la codificación y la edición de textos en español, como bien lo demuestran algunos de los trabajos que Francisco Marcos Marín (1986) y Charles Faulhaber (1986) publican en ese entonces[10].
A los fines de este trabajo, que no tiene intención de hacer una revisión sistemática de todas las primeras publicaciones y los proyectos de HD relacionados con el ámbito hispánico[11], sino que se interesa por pensar las condiciones que hicieron que algunas de estas antiguas iniciativas se mantengan hoy en línea y que otras hayan desaparecido por el camino, voy a traer como caso de estudio algunos pocos ejemplos de proyectos de edición digital de textos hispánicos que se desarrollaron en España antes de 2011[12]. Elijo este límite, ya que fue para ese entonces cuando se realizó el primer encuentro que se definió a sí mismo a través de la voz humanidades digitales en España, y que dio origen a la asociación española Humanidades Digitales Hispánicas (HDH) en 2012[13]. Ese hito supuso un nuevo momento para el desarrollo del campo, donde las instituciones poco a poco empezaron a acompañar estas iniciativas de investigación y se generaron y consolidaron nuevos espacios para la construcción de conocimiento[14]. Decido recortarme únicamente sobre proyectos de edición digital de textos, ya que esta línea de trabajo es una de las manifestaciones más consolidadas en el campo de las HD y, principalmente en Europa y en España, una de las más prolíficas (Pierazzo, 2019). No obstante, como es sabido, una edición digital supone un trabajo complejo, lento y que necesita de una diversidad de saberes y de sólidas infraestructuras digitales para su construcción y mantenimiento. En otras palabras, si el filólogo o editor no es un experto en informática, o si se está editando un corpus extenso, cualquier proyecto de edición digital necesitará de un equipo de trabajo versátil, que puede incluir desde filólogos que sean capaces de modelar los textos para que en su formato web sean lo suficientemente expresivos y permitan la recuperación y visualización de la información en diferentes formatos, a alumnos o colaboradores que realicen trabajos de codificación, así como a expertos en tecnologías de publicación y preservación web. Una de las características de los proyectos de edición digital ha sido el uso del lenguaje de marcado de la Text Encoding Initiative (TEI) para la codificación y publicación web de textos[15]. Desde la publicación de sus primeras guías directrices (Guidelines) en 1994, la TEI se consolidó como el lenguaje de marcado más eficiente para la recuperación de la información textual para las humanidades, aunque en el ámbito hispánico su introducción fue algo compleja (del Rio Riande, 2017; Allés-Torrent y del Rio Riande, 2020): hasta 2018 contábamos con pocos tutoriales o materiales científicos en español que guiaran a los interesados en el marcado TEI, así como tampoco con plugins especializados para editores de código abierto[16]. Por estas razones, aun hoy día en algunos países los proyectos de edición digital de textos son, con justa razón, percibidos como demasiado caros y complejos para llevar adelante, además de resultados de investigación excluidos de la evaluación científica (Pierazzo, 2019: 211; Allés-Torrent y del Rio Riande, 2023)[17].
Las ediciones digitales pueden ser muy diversas (Allés-Torrent, 2020): podemos pensar en la edición de un único texto, de un conjunto de textos, en ediciones anotadas o críticas. El editor puede trabajar en ellas como editor-filólogo o la apuesta puede apenas estar en la reedición en formato digital de obras publicadas analógicamente y luego digitalizadas[19]. El modelado de un texto depende de lo que el editor quiera que sus lectores recuperen en el formato digital y, claro está, de su comprensión del texto y, me animaría a decir, de su formación como filólogo-editor[20]. Desde otro lugar, como decía en el apartado anterior, una edición digital también depende, en gran medida, de los recursos humanos y financieros con los que se cuente y del conocimiento acerca de las tecnologías adecuadas para que el proyecto pueda ser sostenible y pueda sobrevivir a los diferentes avatares académicos o tecnológicos.
Echando mano de una clasificación de la industria de la moda, Elena Pierazzo divide las ediciones digitales de textos en haute couture y prêt-à-porter (Pierazzo, 2019). En palabras de la filóloga italiana:
Haute Couture produces luxury objects which are extremely expensive and beyond the reach of most of us. While Haute Couture is featured in television and glossy magazines, as its name suggests, Prêt-à-Porter (‘ready to wear’) is the term used to refer to the class of items people can actually buy in shops and wear in their normal day-to-day lives. (Pierazzo, 2019: 213)
Pierazzo sostiene que la mayoría de las ediciones digitales podrían ser definidas como haute couture: se trata de productos únicos, en el sentido de que un texto nunca es igual a otro, y que, por ende, muchas veces necesitamos aplicar herramientas y tecnologías específicas a cada uno de los textos que pretendemos editar (Pierazzo, 2019: 214). Las ediciones haute couture se caracterizarían, según la profesora de la Universidad de Grenoble Alpes, por la experimentación e innovación y por el uso de herramientas diseñadas ad hoc para encajar con las necesidades específicas de un proyecto determinado[21]. También se trataría de ediciones que cuentan con un equipo robusto de profesionales competentes y con financiación suficiente para cubrir tareas de investigación y desarrollo. El gran problema de las ediciones haute couture es justamente ese: necesitan de infraestructura y mantenimiento específicos a largo plazo para que sus componentes no queden obsoletos y para que sus productos terminados puedan permanecer en línea, y claro está, de financiación o soporte institucional, aun cuando el proyecto haya ya acabado. Por el contrario, en el modelo editorial prêt-à-porter los proyectos dependen de herramientas previamente desarrolladas e infraestructuras preexistentes para publicación y almacenamiento. Pierazzo argumenta que, paradójicamente, este enfoque menos ambicioso desde lo tecnológico ayudaría a que los proyectos de edición digital pusiesen el énfasis en el texto que se está editando y no tanto en la creación de infraestructuras o herramientas que pueden ser complejas, costosas y que pueden requerir tiempos de desarrollo extensos que no siempre van de la mano con los tiempos de la investigación académica. Paradójicamente, en este trabajo de 2019 la autora toma tres plataformas prêt-à-porter desarrolladas hasta 2018 como casos de estudio, ya que las que considera activas y productivas para la edición de textos: la Versioning Machine[22], Edition Visualization Technology (EVT)[23] y TEI Publisher[24]. Pues bien, si para 2018 esta selección resultaba sugerente, la primera de estas plataformas hoy día apenas tiene mantenimiento y ha quedado bastante obsoleta, la segunda continúa en su proceso de desarrollo, y es TEI Publisher el software que ha sido más adoptado para grandes ediciones digitales, principalmente en universidades europeas anglófonas[25].
Es de destacar que casi todos los primeros proyectos de edición digital en España se construyen desde una perspectiva haute couture, solo que, a diferencia de lo que sucede con los proyectos anglófonos que menciona Pierazzo, estas iniciativas contaban con muy pocos modelos locales que seguir, algo que las vuelve aún más interesantes como objeto de estudio.
Por ejemplo, hacia fines del siglo xx comienzan a desarrollarse en España proyectos de edición digital subvencionados: en 1998, en Galicia se inicia la Base de Datos da Lírica Profana Galego-Portuguesa Medieval (MedDB)[26]. Se trata de un proyecto que transforma en texto digital las ediciones en papel de los cancioneros de trovadores gallego-portugueses que considera más rigurosas y permite la consulta a textos completos y búsquedas simples y complejas de términos, rimas y esquemas métricos. El proyecto, activo hoy en día, nunca hizo uso del marcado TEI y desarrolló sus propias infraestructuras en la forma de bases de datos relacionales para mantenerse en línea desde el Centro Ramón Piñeiro para la Investigación en Humanidades, en Santiago de Compostela[27]. En una línea similar, el gran proyecto de edición digital de ese entonces, la Biblioteca Virtual Miguel de Cervantes (BVMC), fundada en 1999, al igual que MedDB, reusó ediciones sin problemas de derechos de autor de textos fundamentales de la cultura hispánica. Activa en la actualidad, fue una de las iniciativas señeras a la hora de considerar la importancia de los lenguajes de marcado para grandes corpus textuales digitales y hacer uso de la TEI, aunque, bien es verdad, en escasas ocasiones[28]. La BVMC cumplió con todos los requisitos de proyecto haute couture por las herramientas y tecnologías innovadoras que puso en funcionamiento (Bia Plata y Pedreño, 2001) y por el modo en el que se constituyó como equipo de investigación —que hoy en día se define como laboratorio de humanidades digitales—, sumando grupos de trabajo en diferentes instituciones en España y América Latina. Finalmente, podríamos sumar aquí a Artelope: Base de datos y Argumentos del teatro de Lope de Vega[29]. El proyecto de la Universidad de Valencia también llega a nuestros días funcionando con financiación continua, desde 2001. Se trata de un gran nodo de materiales para el estudio del teatro de Lope de Vega, que hoy alberga diferentes colecciones de obras dramáticas (EMOTHE, Lope de Vega, Canon 60). Artelope organizó un exitoso esquema de trabajo en el que se incluyen colaboradores de muchas instituciones de España, México o Argentina. Artelope también construyó sus propias herramientas y sumó otras previamente desarrolladas para gestionar y publicar sus flujos de trabajo. Por ejemplo, y al igual que lo mencionado en la nota 28 para el CORDE, el CREA y el DGE, en el trabajo editorial de los colaboradores el marcado TEI continúa ocultándose en etiquetas semánticas utilizando el programa Filemaker. Este trabajo de data entry se transforma posteriormente en TEI para su posterior publicación web.
Modelo de edición digital prêt-à-porter, en cuanto a las tecnologías estándar que utilizó (HTML, TEI, CSS, XSL), fue TESORO: Edición electrónica del Teatro Español del Siglo de Oro para la difusión del español y la formación a distancia, llevado a cabo entre 2000 y 2003 en la Universidad Carlos III de Madrid. Al igual que MedDB o la BVMC, el proyecto no buscaba hacer ediciones críticas propias, sino reusar otras ya publicadas. TESORO es uno de los primeros proyectos que documenta todo el proceso de investigación: digitalización, confección de DTD, aplicación de TEI lite (U5) para codificar los textos, tecnologías web utilizadas para la transformación de textos, características del servidor, etc. (Caridad Sebastián et al., 2003)[30]. Durante muchos años su sitio web se mantuvo en línea, aunque solo se llegó a publicar allí cinco de los doscientos textos que tenía en su horizonte de trabajo[31].
De lo hasta aquí expuesto puede concluirse que, en su mayoría, fueron los proyectos de edición haute couture los que pudieron producir una edición digital en su momento y mantenerse en línea en la actualidad. Financiación sostenida, grandes y variados equipos de trabajo y apoyo institucional para lo académico y lo tecnológico fueron las variables —muy similares a las que manejó en su momento el HSMS— que determinaron su éxito. Pero las HD actuales dan cuenta de un panorama bastante más variado que las del momento que estudiamos. Hoy existe una variada cantidad de proyectos de diferente envergadura, carreras de posgrado y hasta cursos especializados en los que enseñamos a nuestros alumnos el arte y la ciencia de la edición digital[32]. Si hoy escribimos y hablamos de HD globales y de diversidad[33], entonces debemos proponer, al menos, diferentes caminos para que cualquier proyecto de edición digital, a gran, mediana o pequeña escala, pueda sostenerse y preservarse. Al fin y al cabo, aunque no es objeto de este estudio, todo proyecto de HD y toda edición digital es parte de ese acervo cultural que menciona la UNESCO (2003) en su Carta para la preservación del patrimonio digital.
En otro lugar he afirmado que la infraestructura de los proyectos de HD debería simplemente funcionar y ser visible, por un lado, para no olvidar nunca los problemas que puede traer consigo el uso de la tecnología para la investigación, y también porque cuanto más adoptada, adaptada y distribuida esté una tecnología, mayores probabilidades de éxito y perdurabilidad tendrá su aplicación (del Rio Riande, 2023). En mi opinión, en una época en la que las HD se han institucionalizado y enseñamos a nuestros alumnos a hacer ediciones digitales debemos proponer soluciones haute couture o prêt-à-porter, dependiendo de las ambiciones y la financiación del proyecto, aunque siempre manteniendo en el horizonte los problemas de sostenibilidad del software especializado que, muchas veces, deja de mantenerse o es utilizado por una pequeña comunidad (Van Zundert, 2012; Dombrowski, 2014).
La dificultad para acceder a una infraestructura institucional para publicación y preservación ha sido un problema que afecta de manera general a quienes comienzan a trabajar en proyectos de HD después de adquirir, a través de formación formal o informal, la suficiente competencia en las herramientas necesarias para sus estudios o investigaciones (Allés-Torrent y del Rio Riande, 2020). Incluso grupos consolidados pueden encontrarse con un acceso limitado a la infraestructura de sus instituciones o enfrentar problemas financieros o burocráticos para utilizar servicios externos (del Rio Riande, 2022). Como respuesta a estas demandas surge, al interior del grupo de interés (Special Interest Group) de la Alliance of the Digital Humanities Organizations (ADHO) llamado Global Outlook (GO::DH), un grupo dedicado a lo que se ha denominado como minimal computing[34].
La filosofía de la minimal computing puede entenderse en funcionamiento: el uso de una infraestructura informática basada en la instalación de paquetes y dependencias, manejo de línea de comandos, uso de tecnologías web y trabajo con repositorios de código y texto y construcción de sitios web estáticos (del Rio Riande, 2022; Allés-Torrent y del Rio Riande, en prensa). En este trabajo con infraestructuras visibles se exhorta a los estudiantes e investigadores en cualquier lugar del mundo a pensar su quehacer como humanistas digitales de forma completa y autónoma, sin depender de plataformas ajenas o servidores a la hora de comenzar sus proyectos de investigación (Viglianti et al., 2022). Risam y Gil (2022) la describen asimismo como una heurística que comprende cuatro preguntas para determinar qué es necesario y suficiente para desarrollar un proyecto de HD: 1) ¿qué necesitamos?; 2) ¿qué tenemos?; 3) ¿qué debemos priorizar?; y 4) ¿a qué estamos dispuestos a renunciar?
Un buen ejemplo de práctica de la minimal computing para la edición digital es el modo en el que se ha adaptado a estos fines el generador de sitios estáticos Jekyll[35]. Jekyll utiliza diferentes lenguajes de código estándar como Markdown, HTML, CSS, JavaScript, YAML, Liquid, además GitHub y GitHub Pages, para archivo y publicación web, respectivamente[36]. Su gran ventaja es que no necesita ninguna base de datos que genere las páginas (a diferencia de otros CMS como Wordpress) y que estas son almacenables en un servidor básico compatible con GitHub y el servicio de GitHub Pages[37]. Su gran desventaja es que no permite búsquedas complejas en los corpus que se editan, pues, como decía, estos generadores web no trabajan sobre una base de datos. En 2015, un equipo liderado por Alex Gil creó Ed[38], una plantilla concebida para proyectos editoriales simples, que ha sido asimismo reusada en otros flujos de trabajo, y con generadores estáticos similares como Gatsby, incorporando el marcado TEI con CETEIcean (Viglianti, 2022)[39].
Lo interesante, a los fines de este trabajo es que, en este workflow editorial podemos sumar desde el inicio la posibilidad de añadir elementos para el archivo y la preservación de textos y código. En los repositorios de GitHub podemos almacenar desde fichas TEI, XSL, CSS, a código específico en JavaScript. Además, a cada repositorio GitHub se le pueden asignar identificadores persistentes desde el repositorio general Zenodo[40], al mismo tiempo de poder hacer así citable texto y código, abrir datos y publicar versiones de preservación del proyecto[41]. Asimismo, en otro orden de cosas, el hecho de que Jekyll y Zenodo sean infraestructuras de código abierto para múltiples usos (comercial, institucional, etc.) y que sean sostenidos por una comunidad global con capítulos en todo el mundo, dan a priori sostenibilidad a cualquier proyecto[42].
De este modo, los sitios web estáticos son una excelente solución para archivo y preservación de proyectos de edición digital modestos, mediano, o más complejos, ya que no solo requieren lo absolutamente mínimo de la infraestructura de alojamiento de una edición digital para mantenerse: un repositorio de documentos y código. Los sitios estáticos, una vez creados, no requieren demasiado mantenimiento activo y pueden moverse y transferirse fácilmente como cualquier colección de archivos. Así, más allá de la elección de la minimal computing como solución de publicación, derivar sitios dinámicos a estáticos, como solución de archivo y preservación, es una elección acertada cuando el acceso a la infraestructura se vuelve limitado, al finalizar un proyecto, tal y como lo expresan los Endings Principles for Digital Longevity del Endings Project (2022)[43].
Ha de destacarse que en esta propuesta que traigo no se incluye la curaduría de los datos y su revisión, sino que lo que se archiva y preserva son flujos de trabajo. El método de archivo de ediciones hechas en algún generador de web estático con publicación a través de GitHub y archivo de versiones en Zenodo es muy útil para almacenar y preservar las distintas versiones de un proyecto, pero no da por sentado que los datos que allí se encuentren hayan sido curados y revisados por un revisor externo experto.
En el ámbito de las humanidades contamos con algunas infraestructuras de publicación digital de textos que son además repositorios especializados en la preservación de datos de ediciones digitales, como TextGrid[44], que forma parte de los proyectos de infraestructura de investigación respaldados por la UE CLARIN y DARIAH. Una ventaja de TextGrid es que ayuda a mantener la calidad de los datos, brindando revisión de los datos y ayudando a que los datos cumplan con los estándares de la comunidad para habilitar la interoperabilidad y reutilización (Calvo Tello et al., 2023) que se sostienen en los principios FAIR[45] (Calvo Tello y Rißler-Pipka, 2023; Rojas Castro, 2023)[46]. Un problema es que TextGrid almacena principalmente imágenes y documentos XML-TEI, dejando de lado toda una serie de recursos que se generan en una edición digital, como los relacionados con el código (por ejemplo, las hojas de estilo CSS y los documentos XSL derivados de las fichas TEI). Se trata además de una iniciativa europea, que no está abierta a cualquier proyecto de edición digital a priori[47].
No existe una única solución para garantizar la sostenibilidad y la preservación a largo plazo de una edición digital. Si bien toda decisión debe tomarse teniendo en cuenta el tipo de proyecto en el que se trabaja, la financiación y el apoyo institucional con los que se cuenta, la evolución tecnológica de los medios digitales ha demostrado que la obsolescencia es más habitual de lo que se piensa.
Hoy las HD son un campo diverso y deben ofrecerse soluciones de archivo y preservación a grandes, medianos y pequeños proyectos de edición digital. El desafío de la gestión de la preservación a largo plazo es considerar todos los tipos de contenidos y formatos de una edición digital. Por ello, es útil recordar la importancia de conocer estas complejidades a la hora de comenzar una edición digital, ya que no siempre las bibliotecas o los servicios técnicos universitarios tienen políticas de preservación para este tipo de proyectos o están capacitados para tomar decisiones que muchas veces requieren de la contratación de servicios externos. Como intenté reflejar en este trabajo, las propuestas de la minimal computing, por ejemplo, se adaptan, como servicio de archivo y preservación, a grandes, medianos y pequeños proyectos que desarrollen ediciones dinámicas o estáticas. Al fin y al cabo, se trata de la necesidad de salvar nuestro trabajo, que es parte de ese invisible patrimonio cultural digital, a fin de garantizar el acceso perenne a nuestras ediciones digitales.
Allés-Torrent, S. (2020). Crítica textual y edición digital o ¿dónde está la crítica en las ediciones digitales? Studia Aurea, 14. https://doi.org/10.5565/rev/studiaaurea.395
Allés-Torrent, S. y del Rio Riande, G. (2020). The Switchover: Teaching and Learning the Text Encoding Initiative in Spanish. Journal of the Text Encoding Initiative, (12). https://doi.org/10.4000/jtei.2994
Allés-Torrent, S. y del Rio Riande, G. (2023). ¿Quién conforma la comunidad de la TEI en español? Análisis de los datos de una encuesta. Journal of the Text Encoding Initiative, (16). https://doi.org/10.4000/jtei.4927
Allés-Torrent, S. y del Rio Riande, G. (en prensa). Autonomía y control: Minimal Computing como propuesta pedagógica para las Humanidades Digitales. En C. Martínez Cantón (Ed.), Las Humanidades Digitales en la enseñanza de las literaturas hispánicas. Aplicaciones prácticas. Peter Lang.
Alvar López, M. (1977). Informática y Lingüística. Revista Española de Lingüística, 7(1), 192-212.
Bia Plata, A. y Pedreño, A. (2001). The Miguel de Cervantes Digital Library: The Hispanic Voice on the Web. Literary and Linguistic Computing, 16(2), 161-177. https://doi.org/10.1093/llc/16.2.161
Bondi, A. B. (2000). Characteristics of scalability and their impact on performance. En M. Woodside, H. Gomaa y D. Menasce (Eds.), WOSP’00: Proceedings of the second international workshop on Software and performance (pp. 195-203). Association for Computing Machinery. https://doi.org/10.1145/350391.350432
Burrus, V. A. (1983). Procedures and Progress on the Dictionary of the Old Spanish Language. Computers and the Humanities, 17(4), 209-213. http://www.jstor.org/stable/30204091 https://doi.org/10.1007/BF02252807
Burton, D. M. (1981). Automated Concordances and Word Indexes: The Fifties. Computers and the Humanities, 15(1), 1-14. https://doi.org/10.1007/BF02404370
Calvo Tello, J. y Rißler-Pipka, N. (2023). ¿Qué hacer con textos que no se pueden publicar? Datos derivados, criterios FAIR y TEI. Journal of the Text Encoding Initiative, (16). https://doi.org/10.4000/jtei.4720
Calvo Tello, J., Funk, S. E., Goebel, M., Kurzawe, D., Rißler-Pipka, N., Veentjer, U. y Weimer, L. (2023). Entre corpus, herramientas y archivos de autoridad: TextGrid Repository para los Estudios de Literatura Española. Revista de Humanidades Digitales, 8, 90-108. https://doi.org/10.5944/rhd.vol.8.2023.37994
Caridad Sebastián, M., Nogales Flores, J. T., Arellano Pardo, A. C. y Martín Galán, B. (2003). Una experiencia de aplicación de XML y TEI a obras teatrales del Siglo de Oro español. En FESABID (Ed.), Los sistemas de información en las organizaciones. Eficacia y transparencia. [Fesabid 2003. 8.ª Jornadas Españolas de Documentación. Barcelona 6, 7 y 8 de febrero de 2003] (pp. 395-404). FESABID.
Dombrowski, Q. (2014). What Ever Happened to Project Bamboo? Literary and Linguistic Computing, 29(3), 326-339. https://doi.org/10.1093/llc/fqu026
Endings Project. (2022). Endings Principles for Digital Longevity. https://endings.uvic.ca/principles.html
Faulhaber, C. B. (1986). Hispanismo e Informática. Incipit, (6), 157-184. https://ojs.iibicrit-conicet.gob.ar/index.php/incipit/article/view/77
Hernández Lorenzo, L. (2020). Humanidades Digitales y Literatura Española: 50 años de repaso histórico y panorámica de proyectos representativos. Janus: estudios sobre el Siglo de Oro, (9), 562-595.
Irizarry, E. (1997). Informática y literatura: análisis de textos hispánicos. Proyecto A Ediciones-Editorial de la Universidad de Puerto Rico.
Kiell, M. (1988). A Dictionary on a Disk. Humanities (National Endowment for the Humanities) Research Tools from Text to Disk, 9(3), 5-7.
Lamíquiz Ibáñez, V. (1978). Uso del ordenador en la investigación lingüística. Español actual: Revista de español vivo, (34), 1-7.
Lara, L. F. y Ham Chande, R. (1974). Base estadística del Diccionario del Español de México. Nueva revista de filología hispánica, 23(2), 245-267. https://doi.org/10.24201/nrfh.v23i2.1642
Llisterri, J. (1999). Transcripción, etiquetado y codificación de corpus orales. Revista Española de Lingüística Aplicada, 1, 53-82. http://liceu.uab.es/~joaquim/publicacions/FDS97.html
Lucía Megías, J. M. (2003). La “Informática Humanística”: notas volanderas desde el ámbito hispánico. Incipit, (23), 91-114. https://ojs.iibicrit-conicet.gob.ar/index.php/incipit/article/view/436
Mackenzie, D. (1997). A manual of manuscript transcription for the Dictionary of the Old Spanish Language (5th ed.). Hispanic Seminary of Medieval Studies.
Marcos Marín, F. (1986). Metodología informática para la edición de textos. Incipit, (6), 185-197.
Marcos Marín, F. (2009). Historia humana de la lengua española y su computación. Studies in Hispanic and Lusophone Linguistics, 2(2), 387-416. https://doi.org/10.1515/shll-2009-1057
Nitti, J. (1978). Computers and the Old Spanish Dictionary. Computers and the Humanities, 12(1-2), 43-52. https://www.jstor.org/stable/30199934 https://doi.org/10.1007/BF02392915
Nitti, J. y Nyhan, J. (2016). There Had to Be a Better Way. En J. Nyhan y A. Flinn (Eds.), Computation and the Humanities: Towards an Oral History of Digital Humanities (pp. 137-156). Springer Open.
Oxford Learner’s Dictionary. (2024). Sustainability. Oxford University Press. https://www.oxfordlearnersdictionaries.com/definition/english/sustainability?q=sustainability
Pierazzo, E. (2019). What future for digital scholarly editions? From Haute Couture to Prêt-à-Porter. International Journal of Digital Humanities, 1, 209-220. https://link.springer.com/article/10.1007/s42803-019-00019-3 https://doi.org/10.1007/s42803-019-00019-3
Pino, M. (1996). Encoding Two Large Spanish Corpora with TEI Scheme: Design and Technical Aspects of Textual Markup. En The Text Encoding Initiative Guidelines and Their Application to Building Digital Libraries Workshop, Digital Libraries’96- First ACM International Conference on Digital Libraries, March 20-23, 1996, Bethesda, Maryland USA.
del Rio Riande, G. (2017). Humanidades Digitales: Life on the other side. Plenaria del cierre del congreso de la Text Encoding Initiative. Victoria, British Columbia, Canada, November 11-15. https://www.slideshare.net/GimenaDelRioRiande/humanidades-digitales-life-on-the-other-side
del Rio Riande, G. (2020a). Las Cantigas de Santa María bajo el prisma de las Humanidades Digitales. En E. Fidalgo (Ed.), Alfonso X el Sabio, cronista y protagonista de su tiempo (pp. 369-386). Cilengua.
del Rio Riande, G. (2020b). Editing a Medieval Hispanic Poetry Corpus with TextGrid. Text+. https://www.text-plus.org/en/research-data/user-story-407/
del Rio Riande, G. (2022). Humanidades Digitales o las Humanidades en la intersección de lo digital, lo público, lo mínimo y lo abierto. Publicaciones de la Asociación Argentina de Humanidades Digitales, 3. https://doi.org/10.24215/27187470e038
del Rio Riande, G. (2023). Humanidades digitales: infraestructuras visibles e invisibles. Computers and Culture, (1), 19-33. https://cora.ucc.ie/items/66539883-e141-4446-9741-0668ecd1b840
Risam, R. y Gil, A. (2022). Introduction: The Questions of Minimal Computing. Digital Humanities Quarterly, 16(2). https://www.digitalhumanities.org/dhq/vol/16/2/000646/000646.html
Rodríguez Adrados, F. (1976). Utilización de ordenadores en problemas de Lingüística. Revista de la Universidad Complutense, 102, 5-14.
Rojas Castro, A. (2013). El mapa y el territorio: una aproximación histórico-bibliográfica a la emergencia de las Humanidades Digitales en España. Caracteres: estudios culturales y críticos de la esfera digital, 2(2), 10-53.
Rojas Castro, A. (2023). Los principios FAIR y el Proyecto Humboldt Digital. Una confrontación. En A. Peirats y J. A. Calvo Gómez (Eds.), Humanidades Digitales y Patrimonio Cultural: proyectos y tendencias (pp. 161-184). Tirant lo Blanch.
Sáez Godoy, L. (1968). El léxico de Lope de Rueda: Clasificaciones conceptual y estadística [Tesis Doctoral]. Universidad de Bonn.
UNESCO. (2003). Carta para la Preservación del Patrimonio Digital. UNESCO.
UNESCO. (2007). Recomendações sobre Software Livre para Repositório e Sistema de Preservação. UNESCO.
Van Zundert, J. (2012). If you build it, will we come? Large scale digital infrastructures as a dead end for digital humanities. Historical Social Research (Köln), 37(3), 165-186. https://www.jstor.org/stable/41636603
Viglianti, R. (2022). Adapting CETEIcean for static site building with React and Gatsby. Zenodo. https://doi.org/10.5281/zenodo.7085753
Viglianti, R., del Rio Riande, G., Hernández, N. y De León, R. (2022). Open, Equitable, and Minimal: Teaching Digital Scholarly Editing North and South. Digital Humanities Quarterly, 16(2). http://www.digitalhumanities.org/dhq/vol/16/2/000591/000591.html
Viglianti, R. y del Rio Riande, G. (en prensa). Against infrastructure: global approaches to digital scholarly editing. En J. O’Sullivan (Ed.), C21 editions. Bloomsbury Publishing.
[1] El HSMS había sido fundado en los Estados Unidos de Norteamérica en 1931 por el profesor castellano Antonio García Solalinde, discípulo del gran filólogo Ramón Menéndez Pidal, y el diccionario, en su versión analógica, era el gran proyecto que García Solalinde buscaba llevar a cabo desde 1920 (del Rio Riande, 2020a).
[2] Por una cuestión de espacio, no entro en detalles acerca de las particularidades de las definiciones de informática humanística y humanidades digitales, ni de los inicios de las humanidades digitales en España. Para ellos, recomiendo la lectura de Rojas Castro (2013). Tan solo menciono aquí, con la simple intención de dar una aproximación general al tema, que la voz informática humanística (humanities computing en inglés, informatica umanistica en italiano), que suele preceder a la de humanidades digitales (digital humanities, en inglés), en ámbito hispano apenas comienza a utilizarse hacia fines de la década del noventa del siglo xx o principios de dos mil (Lucía Megías, 2003) y que hasta entonces términos compuestos como nuevas tecnologías o informática y literatura, etc. (Irizarry, 1997) eran los utilizados en trabajos de investigación sobre humanidades y tecnología en nuestra lengua.
[3] El Sistema Madison fue desarrollado por David Mackenzie y Kenneth Buelow como parte de un manual de transcripción de manuscritos para el DOSL. Fue publicado por primera vez en 1977 y reimpreso periódicamente durante veinte años, hasta 1997. El Sistema Madison tenía como objetivo proporcionar una representación fiel del texto medieval, a través de una codificación diseñada para indicar abreviaturas, supresiones o modificaciones editoriales, y describir ciertos aspectos del texto, como rúbricas, glosas, texto en idioma diferente al del texto base, miniaturas y otras características físicas del manuscrito (Mackenzie, 1997: 39), algo que años más tarde, por ejemplo, el módulo de Manuscript Description de la Text Encoding Initiative (TEI) propondría, aunque desde un sistema mucho más expresivo y sin basarse en esta iniciativa del HSMS. Véase: https://www.tei-c.org/release/doc/tei-p5-doc/en/html/index.html
[4] Restrinjo el término sostenibilidad al contexto de desarrollo informático. En otras palabras, me refiero a la capacidad de un sistema informático de cambiar su tamaño o configuración para adaptarse a circunstancias cambiantes (Bondi, 2000; Oxford Learner’s Dictionary, 2024). La definición de preservación que en este trabajo manejo también está restringida a lo digital y, principalmente a la preservación de patrimonio cultural digital tal y como lo consideran la Carta para la Preservación del Patrimonio Digital (UNESCO, 2003) y las Recomendaciones sobre Software Libre para Repositorios y Sistemas de Preservación (UNESCO, 2007) de la UNESCO, en los que se explicita que la preservación digital del patrimonio cultural debe garantizar el acceso a esos recursos con todas las funcionalidades de los registros.
[5] Para más detalle y acceso a las obras, véase: http://www.hispanicseminary.org/textconc-en.html
[6] En 1992, una gran cantidad de textos preparados por el HSMS se incluyeron en la primera biblioteca electrónica en español, el Archivo Digital de Manuscritos y Textos Españoles (ADMYTE), hoy alojado mediante sistema de registro con suscripción de pago en https://www.admyte.com/. Francisco Marcos Marín, Charles Faulhaber y Ángel Gómez Moreno, todos ellos medievalistas, desarrollaron esta biblioteca digital que en sus inicios estaba compuesta por tres CD-ROM que contenían 64 textos medievales transcritos por varios investigadores dentro del marco de codificación Madison del HSMS. En 1997, las bibliografías pasarían a ser parte del sitio online Philobiblon: https://bancroft.berkeley.edu/philobiblon/. Las ediciones del HSMS, pueden ser consultadas desde: http://www.hispanicseminary.org/.
[7] Accesible desde: https://osta.oldspanishtextualarchive.org/.
[8] Para una contextualización más exhaustiva de este periodo recomiendo Marcos Marín (2009).
[9] Nótese el interés sobre este tema en la década de 1970 en España: en 1976 se publica un número de la revista de la Universidad Complutense titulado Utilización de ordenadores en problemas de lingüística. El número no está accesible en la actualidad en formato físico o digital, pero parece ser la publicación de las actas de un coloquio sobre el asunto que se celebró en 1975 en España (Rodríguez Adrados, 1976). Dos años después, Lamíquiz Ibáñez (1978) continuaría el tema, y hasta el mismo Manuel Alvar López alzaría su voz sobre la importancia del uso de ordenadores en este campo (Alvar López, 1977).
[10] Ambos trabajos eran informes surgidos de un panel que habían coordinado en el congreso de la Asociación Internacional de Hispanistas, celebrado en Berlín, unos meses antes, en agosto de 1986. Germán Orduna, director del Seminario de Edición y Crítica Textual (SECRIT) argentino en ese entonces, les ofreció publicar los trabajos en la revista Incipit.
[11] Puede consultarse para ello Rojas Castro (2013), Hernández Lorenzo (2020), Allés-Torrent y del Rio Riande (2020), entre muchos otros.
[12] El uso de la voz edición digital de textos en este trabajo es deliberado. Soy consciente de que se ha denominado a este campo edición académica digital, edición filológica digital, etc. Yo misma he usado estas denominaciones en otros trabajos. En la actualidad, evito utilizar edición académica digital, dado que en América Latina esta hace referencia a la edición de revistas científicas. A pesar de que creo que el campo debería optar por la denominación edición filológica digital, para poner el interés en el abordaje de la lectura cercana y la rigurosidad en el trabajo editorial, y después encarar debates sobre los tipos de edición digital (crítica, simplificada, etc.), entiendo que muchos proyectos, y tantos otros que aquí menciono, no están operando desde ese lugar, sino de otro más híbrido, a veces relacionado con el análisis de registros bibliográficos, la lingüística de corpus, etc.
[13] Tal y como se expone en su sitio, la sociedad Humanidades Digitales Hispánicas (HDH) «[…] surgió durante las sesiones del Simposio sobre Edición Digital de Textos Múltiples en la Universidad de Deusto (Bilbao) el 25 de noviembre de 2011». Texto accesible desde: https://humanidadesdigitaleshispanicas.es/.
[14] España cuenta a día de hoy con una nutrida oferta de másteres en HD, además de revistas dedicadas al tema —como la Revista de Humanidades Digitales (RHD)—. El ingreso de España en 2023 a la infraestructura europea DARIAH termina de coronar este segundo periodo.
[15] Puede accederse al sitio de la TEI y sus Guías Directrices desde: https://tei-c.org/. Para una relación más completa de proyectos de edición digital de textos hispánicos remito a Allés-Torrent (2020) y Allés-Torrent y del Rio Riande (2020, 2023).
[16] Como el plugin Scholarly XML, desarrollado por Raffaele Viglianti, que permite un esquema simple con el uso del esquema tei.all, en un software de código abierto y de descarga gratuita como Visual Studio Code (VS Code). Accesible desde: https://marketplace.visualstudio.com/items?itemName=raffazizzi.sxml
[17] Sobre el problema de la evaluación de recursos producidos en el marco de proyectos de HD, la mencionada HDH publicó en 2021 un documento llamado Recomendaciones para la evaluación y reconocimiento de la investigación llevada a cabo en el ámbito de las Humanidades Digitales al que puede accederse desde su página web: https://humanidadesdigitaleshispanicas.es/recursos/informes/.
[18] Avanzamos sobre la propuesta de clasificación de Pierazzo en Viglianti y del Rio Riande (en prensa).
[19] La Biblioteca Virtual Miguel de Cervantes (BVMC), a la que más adelante me referiré, es un gran ejemplo de producción de ediciones digitales sobre publicaciones en papel más tarde digitalizadas. También gran parte de los textos que hemos editado, aunque utilizando otros estándares de marcado y publicación, en la Biblioteca Digital del HD LAB (IIBICRIT, CONICET) sigue la idea del reúso editorial de la BVMC (del Rio Riande, 2023). Puede accederse a las ediciones del HD LAB desde: https://hdlab.space/biblioteca-digital/
[20] Para muestra, un botón. La edición digital del Cantar de Mio Cid, desarrollada por Matthew Bailey en los Estados Unidos sería una labor inaudita para un editor formado en la escuela de crítica textual española. Puede accederse a la edición desde: https://miocid.wlu.edu/.
[21] Entre los ejemplos haute couture que menciona Pierazzo está, por ejemplo, el enorme Piers Plowman Electronic Archive: https://piers.chass.ncsu.edu/.
[22] La última vez que se actualizó el sitio de la Versioning Machine fue en 2016: http://v-machine.org/.
[23] Señalo que el acceso al sitio de la EVT es, desde muchos navegadores, poco seguro: https://evt.labcd.unipi.it/.
[24] Desde 2020, TEI Publisher (https://teipublisher.com/index.html) pasó a ser parte de un proyecto a mayores llamado e-editiones: https://www.e-editiones.org/.
[25] Esto puede verse en los proyectos que se han desarrollado con TEI Publisher y sus herramientas, listados en el sitio de e-editiones: https://www.e-editiones.org/map/. También resaltamos esto en Allés-Torrent y del Rio Riande (2023).
[26] Accesible desde: http://bernal.cirp.gal/ords/f?p=129:57::::::.
[27] También en Galicia, aunque en la Universidad de La Coruña, el Seminario interdisciplinar para el estudio de la Literatura áurea española (SIELAE), dirigido por Sagrario López Poza, inició en 1995 el proyecto Archivo digital de imágenes y base de datos con el análisis de los libros de emblemas hispánicos ilustrados para consultar a través de redes internacionales de comunicaciones. Aunque en el proyecto usaron la TEI, su Biblioteca Digital de Libros de Emblemas Traducidos (BIDISO) no puede considerarse una edición digital: https://www.bidiso.es/LiteraturaEmblematica/buscarObras.htm;jsessionid=DD6F10D071376AF85C331F377FEB4CA3
[28] Me refiero al uso de la TEI aplicado a la edición de textos literarios, históricos. Curiosamente, los primeros trabajos de investigación que hicieron uso de la TEI en España la utilizaron sobre corpus lingüísticos, como fue el Corpus Oral de Referencia del Español Contemporáneo (CORLEC), un proyecto que Marcos Marín había iniciado en 1991-1992 en el Laboratorio de Lingüística Computacional de la Universidad Autónoma de Madrid. El proyecto utilizó SGML y algunas etiquetas TEI-XML traducidas al español. En 1993, investigadores de la Universidad de Málaga también participaron en el Proyecto Europeo NERC (Network of European Reference Corpora). NERC utilizó la TEI para la codificación. Juan Andrés Villena Ponsoda, Antonio Manuel Ávila Muñoz y Manuel Alvar, miembros del proyecto, decidieron que la TEI también debería utilizarse en su proyecto Corpus de Variedades Vernáculas Malagueñas (VUM) (Llisterri, 1999). Sin embargo, nada de esto se puede ver en los sitios de CORLEC o VUM en la actualidad. Para este mismo momento comienzan a desarrollarse proyectos de la Real Academia Española (RAE), como el Corpus Diacrónico del Español (CORDE) y el Corpus de Referencia del Español Actual (CREA), que harían asimismo uso de la codificación TEI desde 1996, aunque solo para marcar los teiHeader o encabezados y de forma oculta a los colaboradores del proyecto (Pino, 1996). En una línea temporal y de trabajo similar, el Diccionario Griego-Español (DGE), al igual que CORDE y CREA, y los otros corpus lingüísticos mencionados comenzó en 2008 a integrar la TEI en su trabajo. Sin embargo, al igual que estos dos, el proyecto continúa convirtiendo etiquetas XML a TEI. Los colaboradores del diccionario no hacen ninguna codificación, solo marcan los aspectos filológicos en el corpus con el que trabajan, mientras que el grupo técnico utiliza un complejo sistema de retroconversión de códigos. Ninguno de estos proyectos se ha encarado como edición digital stricto sensu.
[29] Sitio web del proyecto: https://artelope.uv.es/.
[30] El hecho de que la mayoría de sus integrantes fueran documentalistas y bibliotecarios colaboró, claro está, con este trabajo señero de documentación de un proyecto de edición digital con TEI. Aunque no se trata específicamente de un proyecto de edición digital, de esta misma época es Manuscritos de América en las colecciones reales, un catálogo que utilizó el módulo msDescription de la TEI y el programa MASTER desarrollado por Peter Robinson. «Manuscritos...» se llevó a cabo entre 2000 y 2003 por José Luis Rodríguez, bibliotecario principal de la Real Biblioteca de Madrid, y María Luisa López-Vidriero. Utilizarían este módulo nuevamente en el Índice del Conde de Gondomar (Ex Bibliotheca Gondomariensi) en 2008 (del Rio Riande, 2017). Este último se encuentra accesible desde: https://inventarios.realbiblioteca.es/.
[31] No traigo aquí otros proyectos inconclusos, de los que tengo poca documentación. Pero, por ejemplo, para 2007 el proyecto Atenea, dirigido por Nuria Rodríguez Ortega, afirmaba estar codificando imágenes y textos con TEI, aunque no hay resultados publicados de esta iniciativa. Durante varios años las actividades del proyecto se publicaban desde http://150.214.57.112:8080/atenea_ttc/Inicio.action, pero hoy el sitio no está accesible online. Carmen Isasi iniciaría en esos años, en la Universidad de Deusto, el proyecto Andrés de Poza. En este proyecto de investigación se reflexionó por primera vez en España sobre una metodología para alinear y editar textos multilingües usando la TEI, mas aún hoy no pueden verse desde el sitio del proyecto (http://andresdepoza.com/) textos editados.
[32] Algunos pueden verse desde el mapa de cursos de HD de DARIAH: https://www.dariah.eu/tools-services/tools-and-services/tools/digital-humanities-course-registry/.
[33] Existen congresos de HD que específicamente apuntan a cuestionar estos temas, principalmente en los Estados Unidos de Norteamérica, como el Global DH Symposium (https://msuglobaldh.org/). En los últimos años han crecido sustancialmente las presentaciones online de grupos de España y América Latina en este simposio de carácter virtual.
[34] Sitio del grupo de interés minimal computing accesible desde: https://go-dh.github.io/mincomp/about/. En el año 2022 la revista Digital Humanities Quarterly le dedicó un número completo a la minimal computing. Puede consultarse desde: https://www.digitalhumanities.org/dhq/vol/16/2/index.html
[35] Sitio oficial de Jekyll: https://jekyllrb.com/.
[36] Es por el uso de estas tecnologías estándar que afirmo que gran parte de los principios de la minimal computing están en sintonía con algunas de las tecnologías que permiten flujos de trabajos abiertos como los que propone la ciencia abierta (del Rio Riande, 2022). Todas las ediciones desarrolladas en el HD LAB que menciono en la nota 19 de este trabajo se construyeron desde un abordaje de minimal computing y en un flujo de trabajo basado en herramientas open source, como por ejemplo, el editor de código Visual Studio Code y el plugin Scholarly desarrollado por Raffaele Viglianti para utilizar en ediciones digitales con TEI con este software.
[37] De hecho, Jekyll es la tecnología utilizada por GitHub Pages para generar y hospedar los sitios web a partir de los repositorios de GitHub.
[38] Ed es una plantilla libre y gratuita que permite la elaboración de ediciones digitales con GitHub y GitHub Pages y que favorece la manipulación y creación de diferentes tipologías textuales como prosa, teatro, poesía. La plantilla viene acompañada de una detallada documentación, disponible en: https://minicomp.github.io/ed/.
[39] Sitio web de CETEIcean: https://teic.github.io/CETEIcean/.
[40] Zenodo es un repositorio de datos de investigación de propósito general hospedado por CERN y financiado por el proyecto europeo OpenAIRE, que se ha convertido en una solución popular y robusta para almacenar y publicar datos de investigación, con la opción de asignar identificadores persistentes, como DOIs, a los recursos. No desconozco que existen o repositorios que nacieron como iniciativas HD que pueden ser útiles para preservar gran parte de los recursos elaborados como parte de proyectos de edición digital. Por ejemplo, Huma-Num, la infraestructura nacional francesa dedicada a las HD es idónea para la publicación de textos derivados de investigaciones (artículos, presentaciones, etc.) y Nakala puede utilizarse como repositorio de datos. Otro ejemplo es Humanities Commons, que funciona como una red social y un repositorio de textos y datos para las humanidades. A pesar de que son útiles para la preservación a largo plazo de textos y datos, ninguno de estos dos permite el archivo de flujos de trabajo, como a través de GitHub y Zenodo.
[41] Un breve tutorial que expande los pasos aquí mencionados en: https://www.lib.uiowa.edu/data/share-and-preserve-your-code/. La posibilidad de almacenar las fichas TEI en GitHub es de suma importancia para cualquier proyecto. El papel de la codificación TEI como formato de archivo e intercambio es una ventaja para la preservación de ediciones digitales a largo plazo y para su documentación: el lenguaje TEI fue diseñado para modelar y codificar tanto el texto, por ejemplo, de una fuente existente, como la intervención académica de los editores durante la transcripción y edición. Esto convierte a un documento TEI en un registro importante del trabajo editorial en sí mismo. En otras palabras, una ficha TEI colabora sustancialmente con la documentación de un proyecto de edición digital. Además, en los últimos tiempos, se han desarrollado servicios muy interesantes para el rastreo de proyectos realizados con TEI vía GitHub, como TEI Pelican, https://teihub.netlify.app/, lo que demuestra la potencialidad del uso de esta plataforma.
[42] GitHub es hoy día una plataforma propietaria, aunque alberga la comunidad de código abierto más grande del mundo y millones de proyectos open source.
[43] Cuento una experiencia personal en la que mi edición digital de poemas del género preguntas y respuestas del Cancionero de Baena desapareció de la web en del Rio Riande (2020b). Gracias a la minimal computing puede accederse a esta edición nuevamente desde: https://hdlab.space/Poesia-Medieval/preguntasyrespuestas/.
[44] Acceso al repositorio de datos desde: https://textgridrep.org/browse/root
[45] FAIR es el acrónimo de Findable, Accesible, Interoperable and Reusable. Estos principios acerca de la naturaleza de los datos digitales fueron alojados, en sus comienzos, por el grupo de investigación FORCE11. Puede consultarse el sitio de los principios FAIR desde: https://force11.org/info/guiding-principles-for-findable-accessible-interoperable-and-re-usable-data-publishing-version-b1-0/#:~:text=The%20FAIR%20
[46] En líneas generales, los objetivos de estas infraestructuras son los de centralizar y custodiar datos de investigación para evitar la dispersión y pérdida de estos durante la vida de un proyecto, así como los de liberar al investigador o, incluso al grupo de investigación, de la responsabilidad de la conservación de datos y recursos a largo plazo.
[47] En Argentina, por ejemplo, el repositorio de datos CONICET Digital nos ha permitido preservar los datos de las ediciones digitales que desarrollamos, gracias a un primer depósito de los datos de estas vía GitHub-Zenodo: https://ri.conicet.gov.ar/handle/11336/200472