Il 25-26 febbraio si è svolta a Trento la 5a edizione del workshop internazionale dedicato ai temi del "3D Virtual Reconstruction and Visualization of Complex Architectures". Organizzato da Fabio Remondino dell'unità 3DOM della Fondazione Bruno Kessler, si è tenuto presso la sede scientifica della stessa FBK. Le 8 sessioni che hanno animato l'intensa due giorni hanno coperto quasi tutti i topic inerenti il tema principale: grande assente di questa edizione, per evitare sovrapposizioni tematiche con il CIPA di settembre, è stato il Cultural Heritage, sostituito dal più generico ma per certi versi più idoneo Historic Building. Nonostante questo, diversi i progetti presentati dallo spiccato carattere archeologico e molte le novità in termini di algoritmi dalla potenziale ricaduta nel campo culturale: in particolare la crescente attenzione verso la messa a punto e l'utilizzo di sistemi in grado di supportare la semantica applicata agli oggetti, accanto alle più classiche keyword e ontologie. Altro tema a cui è dedicata particolare attenzione è "l'integrazione" all'interno del medesimo sistema o database di elementi eterogenei come il dato del rilievo e/o del rilevamento di architetture complesse unitamente ai documenti storici che lo riguardano, sia come sorgente di dati utili alla ricostruzione che come documentazione utile all'amministrazione e conservazione dello stesso.
Alcuni progetti hanno concentrato l'attenzione sulla qualità del dato metrico generato dai moderni algoritmi di Structure from Motion, messi sempre più a dura prova in scenari ad alta complessità: per quanto l'integrazione di questi algoritmi in software sia open source che freeware o commerciale (alcuni di nuovo o recente sviluppo, come SAMANTHA di 3Dflow o SURE del dipartimento IFP dell'Università di Stoccarda disponibile dal prossimo marzo e dedicato al matching in sistemi multi-view stereo) restituisca risultati sostanzialmente affidabili, tanto più nell'ambito dell'architettura storica dove non sono richieste precisioni sub-millimetriche, permane la necessità di ancorare sempre il processamento delle immagini ad una presa strumentale la cui precisione è certificata e a punti dí appoggio di coordinate note, soprattutto nel caso fotogrammetrico. Fondamentale è l'esperienza dell'operatore che attende alla presa fotografica o strumentale, senza la quale anche il sistema più preciso si rivela il meno accurato.
Tematiche emergenti ed importanti sono state portate all'attenzione dai due keynotes di apertura delle giornate, in particolare il secondo relativo alle immagini oblique. Tale tipologia di presa risulta particolarmente efficace per l'analisi delle strutture verticali (vd in contesti urbani la crescente attenzione rivolta alla visualizzazione e al 3D city modelling di Bing, Google Maps e Apple Map), finalizzata alla classificazione delle facciate, degli oggetti in scena, o anche alla mappatura dei disastri (i recenti avvenimenti de L'Aquila e del ferrarese ne offrono un esempio).
L'immancabile overview finale sui trend ha poi confermato dati di cui si aveva sentore: crescono sempre più applicazioni low-cost a discapito di strumentazione dal costo elevato come i laser scanner, cresce la fotogrammetria e prendono sempre più piede i processi BIM, la cui applicazione in contesti archeologici presenta ancora delle difficoltà di non facile soluzione. Le modellazioni parametriche e procedurali nascono infatti dall'assunto che sia possibile racchiudere all'interno di formule matematiche le forme standard dei modelli architettonici: se una certa serialità/linearità esiste in epoca contemporanea, molto più variegato e complesso è l'utilizzo dello spazio in epoche anteriori. La creazione di librerie appositamente studiate e la messa a punto di algoritmi in grado di supportare elementi geometrici complessi all'interno di questi ambienti (presentato un prototipo che consente l'importazione di dati ottenuti da point cloud) costituiscono certo la strada privilegiata verso la soluzione, almeno parziale, di queste difficoltà.
Il quadro generale emerso durante il convegno si può cosÏ riassumere: sotto il profilo ingegneristico, pur poco comprensibile all'umanista, è in atto un progressivo affinamento degli algoritmi di analisi delle immagini e già oggi i risultati raggiunti risultano affidabili. I sistemi di gestione ed elaborazione dei dati sono robusti e andrebbero progressivamente integrati nei processi di ricerca archeologica. L'umanista dal canto suo deve essere cosciente dei limiti e delle potenzialità di questi sistemi, progressivamente assumendo su di sé l'onere del processo di acquisizione del dato, affiancando operativamente gli expertise con cognizione di causa senza delegare interamente a terzi avulsi dal contesto archeologico e quindi non pienamente coscienti del potenziale di conoscenza insito nelle fasi di rilevamento e rilievo. Per farlo, conoscenza ed esperienza risultano di imprescindibile importanza, e in nessun caso si può stabilire a priori la tecnica migliore per la generazione del dato tridimensionale, dipendente da contesto e finalità, da valutare attentamente nella fase preliminare di un progetto di ricerca. In questa ottica, la parola chiave è sempre "integrazione", di più fonti e più tecniche.