Press "Enter" to skip to content

Argo N.2 _ Francesca Tomasi: «Le nuove frontiere della filologia»

Metodi conservativi e nuove tecnologie informatiche

L’utilizzo di nuove tecnologie nel trattamento di dati afferenti al settore delle scienze umane, oltre ai numerosi ambiti di applicazione, ha contribuito alla ridefinizione delle procedure di analisi ed elaborazione delle fonti testuali. Il processo innovativo introdotto dall’uso dell’informatica nella letteratura ha favorito il sorgere di settori di ricerca raggruppati attorno ad una nuova disciplina denominata “informatica umanistica” che individua fra i suoi obiettivi la produzione di strutture ipertestuali interrogabili sulla rete, la realizzazione di banche dati on-line, la costruzione di CD-ROM multimediali, i sistemi di analisi del testo all’interno di database, la digitalizzazione delle immagini ai fini della distribuzione. In realtà gli ambiti di impiego delle nuove tecnologie al settore letterario contano un numero consistente di tentativi, di realizzazioni, di utilizzo di software diversi, di settori di applicazione e fra essi anche quello filologico.
L’approccio filologico al testo o meglio alla tradizione documentaria del testo è stato infatti brillantemente ridefinito alla luce dell’apporto ermeneutico fornito dalle nuove discipline informatiche.

Nel settore delle applicazioni tecnologiche all’indagine ecdotica sono stati fatti notevoli progressi in questi ultimi anni, anche se ancora la sostanziale diffidenza da parte dei filologi tradizionalisti assieme al concetto del mero utilizzo dell’informatica, cioè dell’esclusivo impiego dello strumento e non della scienza, non hanno concesso di definire in modo equo lo stato dell’arte in materia. Tito Orlandi, che a lungo si è occupato e a tutt’oggi si occupa di filologia e informatica, individua in questa reticenza uno dei problemi fondanti la scarsa adesione alla disciplina e i conseguenti limitati risultati in materia.[1]

Diremo che il processo di formalizzazione dei procedimenti, cioè di adesione all’applicazione di nuovi metodi automatici in ambito filologico, si intreccia con l’evoluzione metodologica di questa disciplina. Vale a dire che tanto più i filologi si sono interrogati sui precetti fondanti le basi dell’approccio ecdotico quanto più è stato possibile definire in quali aspetti del percorso filologico e con quali strumenti informatici l’elaboratore poteva contribuire all’attività necessaria al lavoro editoriale. Tre sono gli ambiti in cui il ricorso all’elaboratore pare indispensabile al lavoro ecdotico, e che comunque raccolgono un maggior numero di adesioni rispetto al passato: la recensio e la conseguente collatio codicum, la ricostruzione automatica dello stemma, la stampa del testo critico con apparato.

La raccolta dei più autorevoli testimoni di una tradizione testuale può infatti, dopo l’attento vaglio del filologo, essere destinata al calcolatore. Il metodo statistico teorizzato dal Quentin consente di automatizzare l’operazione di collazione con conseguente eliminatio codicum descriptorum, agevolando il confronto elettronico in grado di produrre la serie delle lezioni varianti di ogni testimone. Questo significa consentire al filologo di raccogliere i dati necessari alla ricostruzione dello stemma codicum. È certo che per un computer istruito a compiere calcoli statistici non è complesso individuare i loca variantia; posti due testi, di cui si sia effettuata la trascrizione elettronica, a confronto l’elaboratore è in grado di presentare tutti i punti in cui i testimoni differiscono. Esistono poi applicativi specifici che consentono anche di ricostruire automaticamente uno stemma. È chiaro che però il calcolatore fornisce dati non interpretati, riporta il luoghi varianti, ma non è in grado di assegnare un “peso” a ciascuna lezione. Fornisce quindi un criterio squisitamente statistico, un output solamente numerico e quantitativo. Spetta al filologo l’analisi qualitativa dei risultati e quindi l’assegnazione del peso ermeneutico di ciascuna lectio. I filologi tradizionalisti, che si siano interrogati sull’apporto fornito dalle procedure elettroniche, pur ritenendo, come è ovvio, che sia indispensabile l’intervento umano a valutare la raccolta dei dati elettronici, superando il criterio qualitativo quentiniano, concordano tuttavia sull’indiscussa velocità delle operazioni e sulla precisione dei risultati, ammirevolmente raggiunti dal software adeguato.

Ad un primo e più ovvio livello l’automatizzazione consente di avere risultati in tempi molto più brevi rispetto a quelli tradizionali ed una precisione che manualmente sarebbe possibile solo a scapito di una dilatazione temporale non proficua. Ma l’informatica non riguarda il solo uso della macchina, significa invece interpretazione della scienza informatica come disciplina che si occupa del trattamento e della gestione dell’informazione trasmessa da una fonte; questo comporta che l’uso del calcolatore deve consentire di affrontare questioni non risolvibili secondo le procedure tradizionali. In questo senso non mutano solo tempi e qualità dei risultati ma anche la metodologia di approccio al corpus testuale che rappresenta la tradizione di un’opera. I risultati più interessanti sono infatti da ricercarsi nella realizzazione dell’edizione critica, nella ricostruzione del testo che più autorevolmente ripropone la volontà ultima dell’autore, e nella strutturazione dell’apparato. Questo significa sottrarre all’immobilità ed alla fissità della stampa la vivacità del testo criticamente stabilito, e consentire di visualizzare dinamicamente la storia della tradizione testuale, vale a dire rappresentare in costrutti ipertestuali la vicenda testuale e, come nota Raul Mordenti, restituire sullo schermo la mobilità del testo con le varianti. Non è un caso che lo stesso Mordenti, attento studioso dei rapporti fra filologia e computer, parli non del testo ma della «plurale mobilità di tanti e diversi testi…».[2]  D’altronde, come rileva Guido Guglielmi ne La parola del testo,[3]  un in sé del testo non si può cogliere e non esiste, non sta da nessuna parte, se non nella «biblioteca di Babele» teorizzata da Borges. Mai l’edizione può dirsi, in questo senso, definitivamente conclusa e quindi non ha senso relegare ad un testo unico la multiforme vitalità di una tradizione. Anche perché al filologo rimane comunque da considerare quale sia davvero la volontà ultima dell’autore, che non sempre corrisponde temporalmente all’ultimo prodotto uscito dalla sua mano.[4]  L’operazione di eliminatio codicum porta alla perdita di una serie di dati informazionali che non interessano l’esito finale del tradizionale prodotto editoriale, quali possono configurarsi le coloriture linguistiche di un testimone che portano il filologo a rigettare la lezione; oppure si perde la particolarità del sistema grafematico e fono-morfologico d’autore o delle scelte dello stampatore in quanto eventuali scelte fonetiche o grafematiche sono oggetto di “normalizzazione” in fase di costruzione del testo criticamente stabilito. Un ipertesto computerizzato consentirebbe invece di rappresentare la storia della tradizione accogliendo tutti i testimoni, che possono sempre essere portatori di informazione. È necessario costruire lo sfondo ed il panorama culturale che possono fornire interessanti aspetti sociologici.[5]  Anche le varianti d’autore,[6] gli errori dei copisti, le scelte dello stampatore possono essere interessanti per l’analisi della tradizione del testo e per questo essere oggetto di interesse per lo storico, il bibliografo, il linguista. Un costrutto ipertestuale consentirebbe di conservare l’intera tradizione ed ospitare l’edizione interpretativa, quella diplomatica fino a quella critica. Accanto alla possibilità di “navigare” entro le diverse forme del testo si aggiunge poi l’eventualità di strutturare un apparato multi-livello che raccolga, accanto alla tradizionale lezione variante trasmessa dai diversi testimoni, una serie di informazioni di natura critica, interpretativa, storica, linguistica cioè un apparato di commento in cui è l’utente che sceglie a quale livello vuole spingere l’analisi.

Quello che potrei definire “l’apparato dinamico” consente dunque di superare la staticità della tradizionale edizione cartacea. La possibilità è cioè di visualizzare, utilizzando criteri rappresentazionali variabili, per ogni lezione, la corrispettiva tradita da uno o più testimoni e per ciascuna ricondurre la variante al contesto esteso del testo che la tramanda; rimandare da un nome di persona alla biografia relativa; descrivere o esplicitare un evento storico; sciogliere il significato di un vocabolo; definire il significante grammaticale, retorico, stilistico di una sezione. Si pensi poi alla possibilità di affiancare alla trascrizione elettronica il corrispettivo originale in formato digitale (indispensabile per quelle tradizioni ove i testimoni sono rappresentati da fonti primarie come manoscritti, incunaboli o cinquecentine). Spesso infatti nulla quanto il testo originale (dove per originale intendo il documento, cioè l’attestazione fisica del testo, la sua espressione materiale) è apportatore d’informazione. La presenza dell’immagine digitale fornisce un corpus informazionale di estremo interesse per il paleografo o il codicologo.

Ritengo comunque che un ambito in cui l’elaboratore ha realmente contribuito alla ridefinizione critica del valore del testo nel suo formato elettronico è la “codifica digitale”, cioè il sistema in grado di assegnare una precisa funzione logico-strutturale ad ogni sezione testuale, impiegando marcatori, cioè stringhe di testo, che identificano il ruolo assolto dal blocco di testo cui si riferiscono.[7]

Concludendo, si possono quindi individuare due discipline apparentemente assai dissimili ma fondamentalmente guidate dal medesimo obiettivo: il trattamento, l’analisi e la gestione di contenuti informazionali trasmessi da una fonte portatrice di dati ancora non interpretati. È per questo auspicabile una sempre maggior adesione a procedure elettroniche nella pratica filologica, per riqualificare l’approccio al testo e ridefinire il sistema di indagine della tradizione, nei termini di una nuova consapevolezza che l’apporto del calcolatore è in grado di fornire. Come afferma Dino Buzzetti,[8]  «l’edizione digitale si giustifica pienamente solo se può fornire soluzioni a problemi difficilmente affrontabili in modo diverso».[9] 
Rimane comunque sempre imprescindibile l’apporto ermeneutico del filologo, l’irripetibilità del momento analitico dell’interprete, al quale il calcolatore non può supplire. La divinatio sarà sempre un’operazione necessaria e la macchina non sarà mai in grado di elaborare ipotesi e congetture in grado di scalzare il lavoro dell’editore.

Bibliografia

D’Arco Avalle, Silvio, Principi di critica testuale, Padova, Antenore, 1978.
Irigoin, Jean e Zarri, Gian Piero (a cura di), La pratique des ordinateurs dans la critique des textes, Colloque International du CNRS nr. 579, Paris, Editions du CNRS, 1979.
Savoca, Giuseppe (a cura di), Lessicografia, filologia e critica: atti del Convegno Internazionale di Studi, Catania – Siracusa 26-28 aprile 1985, Firenze, Olschki, 1986.
Orlandi, Tito, Problemi di codifica e trattamento informatico in campo filologico, ivi.
Gigliozzi, Giuseppe (a cura di), Studi di codifica e trattamento automatico di testi, Roma, Bulzoni, 1987.
Adamo, Giovanni, La codifica come rappresentazione. Trasmissione e trattamento dell’informazione nell’elaborazione automatica dei dati in ambito umanistico, ivi.
Orlandi, Tito, Informatica umanistica. Riflessioni storiche e metodologiche con due esempi, ivi.
Mordenti, Raul, Appunti per una semiotica della trascrizione nella procedura ecdotica computazionale, ivi.
Stussi, Alfredo, Nuovo avviamento agli studi di filologia italiana, Bologna, Il Mulino, 1988.
Adamo, Giovanni (a cura di), Trattamento, edizione e stampa di testi con il calcolatore, Roma, Bulzoni, 1989.
Orlandi, Tito, Informatica umanistica, Roma, Nuova Italia Scientifica, 1990.
Mordenti, Raul, Oltre il gesto della moglie di Lot: esperienze e proposte di uso dell’informatica per l’edizione critica, in Récit et informatique, Actes de la journée d’études, textes réunis par Bérard, Claude Cazalé, La Garenne-Colombes, Éditions de l’Espace Européen, 1991.
Adamo, Giovanni e Moscati, Sabatino e Presutti, Ennio, Calcolatori e scienze umane: archeologia e arte, storia e scienze giuridiche e sociali, linguistica, letteratura: scritti del Convegno organizzato dall’Accademia nazionale dei Lincei e dalla Fondazione IBM Italia, Milano, Etas libri, 1992.
Mordenti, Raul, Informatica e filologia, ivi.
Toschi, L., L’archivio elettronico “Carlo Goldoni”: un caso di filologia applicata, ivi.
Buzzetti, Dino e Pari, Patel e Tabarroni, Andrea, Libri e maestri a Bologna nel XIV secolo: un’edizione come «database», in «Schede umanistiche », n.s. II, 2, Bologna, CLUEB, 1992.
Gigliozzi, Giuseppe, Letteratura, modelli e computer. Manuale teorico-pratico per l’applicazione dell’informatica al lavoro letterario, Roma, Euroma, 1993.
Adamo, Giovanni, Bibliografia di informatica umanistica, Roma, Bulzoni, 1994.
Leopardi, Claudio e Morelli, Marcello e Santi, Francesco, Macchine per leggere. Tradizioni e nuove tecnologie per comprendere i testi : Atti del Convegno di studio della Fondazione Ezio Franceschini e della Fondazione IBM Italia. Certosa del Galluzzo, 19 novembre 1993, Spoleto, Centro Italiano di Studi sull’alto Medioevo, 1994.
Ciotti, Fabio, Il testo elettronico. Memorizzazione, codifica ed edizione, ivi.
Vuillemin, Alain et Lenoble, Michel (textes réunis par), Littérature et informatique. Littérature générée par ordinateur, Artois, Artois Presses Université, 1995. Si legge anche all’indirizzo: <http://www.refer.fr/multi_ct/littinfo/u>.
Perilli, Lorenzo, Filologia Computazionale, Contributi del Centro Linceo Interdisciplinare “Beniamino Segre”, n° 93, Roma, Accademia nazionale dei Lincei, 1995.
Buzzetti, Dino, Il testo «fluido». Sull’uso dell’informatica nella critica e nell’analisi testuale in Filosofia e informatica, Atti del primo incontro italiano sulle applicazioni informatiche e multimediali nelle discipline filosofiche, a cura di Luciano Floridi, Torino, Paravia, 1996.
Busa, Roberto, Lingua letteratura computer, a cura di Mario Ricciardi, Torino, Bollati Boringhieri, 1996.
Roncaglia, Aurelio, Procedimenti formali e «divinatio» nell’ecdotica, ivi.
Nerozzi Bellman, Patrizia (a cura di), Internet e le Muse. La rivoluzione digitale nella cultura umanistica, Milano, Mimesis, 1997.
Ciotti, Fabio, Testo, rappresentazione e computer. Contributi per una teoria della codifica informatica dei testi, ivi.
Roncaglia, Gino, Alcune riflessioni su edizioni critiche, edizioni elettroniche, edizioni in rete, ivi.
Cazalé Bérard, Claude e Mordenti, Raul, La costituzione del testo e la «comunità degli interpreti» : libertà e responsabilità del critico/editore/ermeneuta in ambiente elettronico inter-attivo, ivi.
Gigliozzi, Giuseppe, Il testo e il computer. Manuale di informatica per gli studi letterari, Milano, Mondadori, 1997.
Cadioli, Alberto, Il critico navigante, saggio sull’ipertesto e la critica letteraria, Genova, Marietti, 1998.
Landow, George P., L’ipertesto. Tecnologie digitali e critica letteraria, a cura di P. Ferri, Milano, Mondadori, 1998.
Buzzetti, Dino, Progressi nell’applicazione dell’elaboratore allo studio delle tradizioni testuali, Dattiloscritto.
Buzzetti, Dino, Edizione critica e teoria del testo digitale, Dattiloscritto.

Note

[1] Tito Orlandi, Informatica umanistica, Roma, Nuova Italia Scientifica, 1990.


[2] Raul Mordenti, Oltre il gesto della moglie di Lot: esperienze e proposte di uso dell’informatica per l’edizione critica, in Récit et informatique, Actes de la journée d’études, textes réunis par C. Cazalé Bérard, Éditions de l’Espace Européen, La Garenne-Colombes, 1991.


[3] Guido Guglielmi, La parola del testo. Letteratura come storia, Bologna, Il Mulino, 1993, p. 9.


[4] Caso esemplare è la Gerusalemme Liberata del Tasso per cui è ancora aperta la disquisizione in merito alla costruzione del testo critico caratterizzante la volontà ultima dell’autore.


 [5] Si pensi alla tradizione caratterizzante del Boccaccio, copista per passione.


[6] Un caso noto, ad esempio, è A Silvia di Leopardi, dove è interessante riportare le successive modifiche apportate dal poeta nell’elaborazione del componimento (in quanto conservatesi nella storia della tradizione del testo). È il caso dell’edizione critica che presenti più documenti originali, corrispondenti ai diversi stadi di elaborazione del testo. L’apparato genetico-evolutivo o diacronico cui approda l’editore quando, affrontando il problema critico di identificare la versione testuale in cui si esprime la più matura volontà dell’autore, deve rendere leggibile il processo di elaborazione, è quello che meglio si presta ad attività di tipo elettronico. Caso esemplificativo l’edizione dei Ricordi di Guicciardini, curata da Spongano (1951).


[7] Non è questo il luogo per dedicarsi ad una trattazione in merito al problema della codifica dei testi. Basti il riferimento al linguaggio SGML e alla sua DTD TEI (Text Encoding Initiative) in uso nella codifica di testi di natura umanistica. Numerosissime sono le pubblicazioni in merito e i saggi dedicati. Per una visione d’insieme sulla codifica, su SGML e sulla struttura della TEI cfr. . Sui problemi di codifica e l’uso del linguaggio SGML in ambito umanistico cfr. Fabio Ciotti, Testo, rappresentazione e computer. Contributi per una teoria della codifica informatica dei testi, in Internet e le Muse, a cura di Patrizia Nerozzi Bellman, Milano, Mimesis, 1997; Studi di codifica e trattamento automatico di testi, a cura di Giuseppe Gigliozzi, Bulzoni, Roma 1987.


[8] Che a lungo si è occupato e a tutt’oggi si occupa di tradizioni testuali di tipo “fluido” e del conseguente problema della strutturazione dell’edizione nella forma del database (cfr. bibliografia finale).


[9] Dino Buzzetti, Edizione critica e teoria del testo digitale, Dattiloscritto.

         

Condividi