Digital Humanities and Generative AI: yet another methodological turn?
|
Generative Artificial Intelligence (AI), particularly Large Language Models (LLMs), is redefining the boundaries and methodologies of Digital Humanities. Its impact extends beyond practical applications, challenging the epistemological foundations of the field while opening new research frontiers. Unlike the explicit formalization and modeling of theoretical concepts and analytical workflows typical of Digital Humanities, generative AI relies on inductive, probabilistic, and sub-symbolic methods. It captures and models implicit structures of meaning found within vast cultural datasets, representing them as multidimensional and continuous vector spaces. This paradigm appears more adept at addressing the complexity of cultural phenomena, which often resist explicit formalization. LLMs, in particular, partially implement interpretative processes that underlie the comprehension of cultural dynamics, decoupling these processes from the subjective human dimension traditionally tied to hermeneutic methodologies. This epistemological shift not only opens up new avenues of research but also presents significant challenges. The Digital Humanities community is tasked with defining a new research agenda that accommodates these changes, setting out fundamental lines of inquiry. This talk aims to contribute to this agenda-setting effort by 1) exploring how LLMs and other generative AI systems can be theoretically conceptualized and understood; 2) identifying potential areas of investigation in computational and digital studies of cultural phenomena; 3) illustrating some case studies within the subfield of computational literary studies. |
Digital Humanities and Generative AI: yet another methodological turn?
|
L'introduzione dei sistemi di intelligenza artificiale generativa (AI), in particolare i grandi modelli linguistici (LLM), sta ridefinendo l’assetto metodologico delle Digital Humanities. Il suo impatto va oltre le applicazioni pratiche, e riguarda in primo luogo le basi epistemologiche del campo, aprendo nuove frontiere di ricerca. Le Digital Humanities hanno tradizionalmente favorito un approccio metodologico fondato su formalizzazione e modellazione esplicite dei concetti teorici e dei workflow. La IA generativa invece si basa su metodi induttivi, probabilistici e sub-simbolici. Cattura e modella le strutture implicite di significato che si trovano all'interno di vasti insiemi di dati culturali, rappresentandoli come spazi vettoriali multidimensionali e continui. Questo paradigma sembra più adatto ad affrontare la complessità dei fenomeni culturali, che spesso resistono a una formalizzazione esplicita. I LLM, in particolare, implementano, almeno parzialmente, i processi interpretativi alla base della comprensione delle dinamiche culturali, separando questi processi dalla dimensione soggettiva umana delle metodologie ermeneutiche tradizionali. Questo cambiamento epistemologico non solo apre nuove strade di ricerca, ma presenta anche sfide significative. La comunità delle Digital Humanities ha il compito di definire una nuova agenda di ricerca che tenga conto di questi cambiamenti, definendo le linee di indagine fondamentali. Questo intervento intende contribuire a questo sforzo di definizione dell'agenda: 1) esplorando come i LLM e altri sistemi di intelligenza artificiale generativa possano essere concettualizzati e compresi a livello teorico; 2) identificando potenziali aree di indagine negli studi computazionali e digitali dei fenomeni culturali; 3) illustrando alcuni casi di studio all'interno del sottocampo degli studi letterari computazionali. |