AI e BIM: non è un’evoluzione tecnologica, è una trasformazione della professione

Per anni il BIM è stato il simbolo della digitalizzazione nel settore delle costruzioni. Ha portato metodo, struttura, controllo informativo. Ha reso i processi più coordinati e tracciabili. Ma ciò che sta accadendo oggi con l’integrazione dell’Intelligenza Artificiale va oltre un’evoluzione tecnologica: sta modificando la natura stessa del lavoro progettuale.

Il BIM è nato come modello informativo, una rappresentazione digitale ricca di geometria, attributi e relazioni. L’AI introduce una dimensione diversa: non si limita a contenere informazioni, ma le interpreta, le correla, le utilizza per generare ipotesi e simulare scenari. Il modello non è più soltanto un archivio strutturato, ma diventa un sistema interrogabile in linguaggio naturale, capace di supportare decisioni complesse e, progressivamente, di proporre soluzioni.

Oggi l’intelligenza artificiale nei processi BIM svolge soprattutto un ruolo di supporto. Automatizza verifiche, accelera controlli, facilita analisi che prima richiedevano tempo e competenze specialistiche. Tuttavia la direzione è chiara: stiamo passando da strumenti reattivi a sistemi in grado di agire per obiettivi. Questo significa che non ci limiteremo più a chiedere al modello “se” qualcosa è conforme, ma potremo chiedergli “come” raggiungere un risultato entro determinati vincoli.

In questo scenario la questione centrale non è tecnica, ma culturale. Se un sistema è in grado di generare molteplici alternative progettuali in pochi secondi, qual è il ruolo dell’autore? Se una simulazione predittiva suggerisce l’impatto di una scelta lungo l’intero ciclo di vita di un edificio, chi ne assume la responsabilità? L’AI non elimina il progettista, ma lo costringe a ridefinirsi. Il valore non sarà più soltanto nella capacità di modellare correttamente, bensì nella capacità di definire obiettivi chiari, impostare vincoli intelligenti e validare criticamente le soluzioni proposte da sistemi autonomi.

C’è anche un rischio meno evidente. Se il settore utilizza gli stessi modelli linguistici, gli stessi algoritmi e gli stessi framework operativi, la produzione progettuale potrebbe progressivamente convergere verso soluzioni simili. L’intelligenza artificiale può amplificare la creatività, ma può anche standardizzarla. La differenza dipenderà dalla qualità delle domande che sapremo formulare e dalla nostra capacità di governare questi strumenti, non di subirli.

La trasformazione in atto richiede nuove competenze, ma soprattutto una nuova consapevolezza. Il professionista tecnico si trova sempre più a operare in un ecosistema dove modelli informativi, dati in tempo reale e sistemi intelligenti dialogano tra loro. In questo contesto il ruolo umano si sposta verso la supervisione, l’orchestrazione, la mediazione tra logiche deterministiche e logiche probabilistiche. È una posizione più complessa, non più semplice.

Non si tratta soltanto di scenari teorici. In diversi contesti internazionali stanno emergendo casi studio in cui l’integrazione tra AI e BIM ha già prodotto risultati tangibili: modelli predittivi applicati alla manutenzione degli impianti attraverso digital twin, algoritmi di ottimizzazione energetica in fase di progettazione parametrica, sistemi di riconoscimento automatico delle interferenze basati su apprendimento automatico, piattaforme di monitoraggio avanzato che confrontano in tempo reale stato previsto e stato reale del cantiere. Sono sperimentazioni ancora in evoluzione, ma indicano con chiarezza la direzione. L’AI non sostituisce il modello informativo: lo rende un sistema dinamico, capace di apprendere dal dato e di alimentare decisioni più consapevoli lungo tutto il ciclo di vita dell’opera.

Non si tratta di una rivoluzione improvvisa, bensì di una trasformazione silenziosa che sta già incidendo sulle pratiche quotidiane. Considerare l’AI come un semplice strumento aggiuntivo significa sottovalutarne la portata. La vera questione non è se l’intelligenza artificiale diventerà parte integrante del BIM. Lo sta già diventando.

La questione è se saremo in grado di ridefinire il nostro ruolo professionale prima che sia il contesto tecnologico a farlo per noi.

Centri storici e rischio alluvionale: il problema non sono (solo) i dati, ma come li facciamo dialogare

L’aumento della frequenza e dell’intensità degli eventi climatici estremi sta modificando in modo sostanziale il quadro del rischio urbano. Nei centri storici, questa trasformazione è particolarmente critica: morfologie compatte, edifici stratificati, funzioni miste e spazi pubblici complessi rendono la valutazione del rischio alluvionale un problema multidimensionale.

Non si tratta soltanto di modellare la pericolosità idraulica. Il nodo reale è comprendere come hazard, vulnerabilità edilizia ed esposizione degli utenti interagiscano tra loro all’interno di un sistema urbano consolidato.

Il nostro recente lavoro si colloca esattamente in questo spazio: propone un workflow integrato che combina GIS, BIM e VR per costruire una piattaforma informativa coerente a supporto della gestione del rischio in centri storici soggetti a esondazione fluviale.

La complessità dei centri storici

A differenza delle espansioni urbane contemporanee, i centri storici presentano caratteristiche che amplificano le criticità:

  • tessuti edilizi densi e morfologicamente irregolari;
  • eterogeneità costruttiva e strutturale;
  • sovrapposizione di funzioni residenziali, commerciali e turistico-culturali;
  • dinamiche di occupazione variabili nel tempo e nello spazio.

Queste condizioni rendono difficile applicare modelli di analisi standardizzati. La scala urbana è necessaria per comprendere la distribuzione della pericolosità; la scala edilizia è indispensabile per valutare la vulnerabilità; la scala d’uso è fondamentale per stimare l’esposizione reale.

Senza un’infrastruttura informativa capace di connettere queste scale, il rischio viene frammentato in analisi parziali.

Un approccio multi-scalare integrato

Il workflow proposto si fonda su una logica multi-scalare che collega:

  • analisi macro del costruito urbano attraverso GIS;
  • modellazione meso di isolati e spazi aperti selezionati tramite BIM;
  • simulazione e comunicazione immersiva attraverso ambienti VR.

L’obiettivo non è sovrapporre strumenti, ma costruire un ecosistema digitale nel quale ciascun ambiente contribuisca a una comprensione integrata del rischio.

Un elemento chiave dell’approccio è l’adozione di una struttura tipologica: le caratteristiche dei casi reali vengono astratte in cluster rappresentativi, consentendo di trasferire conoscenza tra porzioni diverse del tessuto urbano e di costruire scenari comparabili.

Il sistema sviluppato consente di identificare aree prioritarie sulla base delle caratteristiche costruttive e dei pattern di occupazione, esplorare scenari differenziati di impatto, supportare modellazioni più specialistiche – come hazard modelling ed evacuation simulation – e utilizzare ambienti immersivi per attività di formazione e comunicazione del rischio. Il passaggio decisivo non è tuttavia la sola produzione di modelli, ma la trasformazione di dati eterogenei in scenari operativi, attraverso un lavoro esplicito di strutturazione e trasferimento dell’informazione tra livelli diversi di analisi.

Caso studio

Il workflow è stato testato su un centro storico dell’Italia centrale esposto a rischio di esondazione fluviale, dimostrando come l’integrazione tra GIS, BIM e VR permetta di mettere in relazione dataset e processi che nella pratica corrente vengono affrontati separatamente: analisi idrauliche, valutazioni di vulnerabilità edilizia e studi sull’esposizione degli utenti possono così convergere in una piattaforma coerente. Il risultato non è soltanto una rappresentazione più articolata del rischio, ma la costruzione di una base informativa strutturata a supporto di decisioni più consapevoli.

In questa prospettiva, il contributo del lavoro va oltre la modellazione e riguarda il trasferimento tecnologico verso stakeholder tecnici e amministrativi. Le tecnologie digitali generano valore solo quando diventano strumenti effettivamente integrati nei processi decisionali; ciò richiede chiarezza sugli obiettivi operativi, definizione esplicita delle domande a cui il sistema deve rispondere e attenzione alla fruibilità delle informazioni da parte di attori diversi. La resilienza urbana non dipende esclusivamente dalla qualità delle simulazioni, ma dalla capacità di connettere competenza tecnica e responsabilità decisionale all’interno di un quadro informativo coerente.

Mariella De Fino, Gabriele Bernardini, Caterina Alighieri, Riccardo Tavolare, Enrico Quagliarini, Fabio Fatiguso, Flood risk management in historic centres: A scalable typological framework integrating GIS, BIM and VR, International Journal of Disaster Risk Reduction,Volume 135, 2026,106031,ISSN 2212-4209,
https://doi.org/10.1016/j.ijdrr.2026.106031.
(https://www.sciencedirect.com/science/article/pii/S2212420926000439)

Comprendere i legami tra i documenti: un passo verso la chiarezza digitale

Nel mondo digitale di oggi, la gestione dei documenti non riguarda più soltanto l’archiviazione. Ciò che davvero fa la differenza è la capacità di descrivere le relazioni tra i contenuti: capire come un file si collega a un altro, cosa lo aggiorna, cosa lo contraddice o cosa lo completa.

Ogni progetto complesso, che sia un’infrastruttura, un’opera architettonica o un processo aziendale articolato, è fatto di centinaia di documenti che interagiscono tra loro. Disegni, modelli, relazioni, verbali, elenchi, dati tecnici: tutti elementi che raramente vivono isolati. Spesso, anzi, un documento esiste proprio in funzione di altri.

Per questo diventa fondamentale poter esplicitare semanticamente questi legami, cioè descriverli in modo che siano comprensibili non solo a chi legge, ma anche ai sistemi che gestiscono le informazioni.

I legami più comuni sono quelli di identità, quando due elementi rappresentano la stessa informazione in forme diverse; oppure di conflitto, quando due versioni entrano in contrasto e occorre decidere quale sia valida. Esistono poi legami di alternativa, utili quando si vogliono rappresentare opzioni di progetto o varianti; e relazioni di specializzazione, con cui si esprime che un documento è un approfondimento o una declinazione locale di un altro più generale.

Ci sono anche connessioni di tipo:

  • aggregativo o gerarchico, dove più elementi concorrono a formare un insieme coerente (pensiamo, ad esempio, a un modello che comprende sottoparti indipendenti);
  • appartenenza, che consentono di raggruppare documenti o entità secondo criteri funzionali o tematici.

Altre relazioni descrivono dipendenze temporali o di controllo: un documento che sostituisce un altro, che ne chiarisce i dettagli, o che stabilisce regole e vincoli per la sua applicazione.

Tutti questi legami possono essere rappresentati in forma strutturata, sfruttando linguaggi ontologici come RDF o OWL, che permettono di esprimere connessioni tra entità in modo leggibile sia dalle persone che dalle macchine. In pratica, si costruisce una rete di relazioni, una sorta di “grammatica dell’informazione” che consente di navigare i documenti non più solo per nome o posizione, ma per significato e relazione.

Questa capacità di legare i dati non aggiunge solo ordine: aggiunge valore interpretativo. Un insieme di file collegati in modo semantico diventa un contenitore informativo coerente, capace di raccontare non solo cosa c’è, ma anche come e perché le informazioni sono tra loro connesse.

È un passo cruciale verso una gestione più intelligente e trasparente dei flussi documentali, in cui la tecnologia non si limita a conservare, ma aiuta davvero a comprendere.

Vedere il mondo come azione: la percezione diretta secondo Gibson

Riflettendo sul tema della percezione, mi sono spesso interrogato su quanto la tradizione psicologica e filosofica l’abbia trattata come un processo prevalentemente interno, mediato da rappresentazioni e inferenze. L’incontro con il pensiero di James J. Gibson ha profondamente modificato questa prospettiva, introducendo una visione radicalmente diversa del rapporto tra organismo e ambiente.

Gibson concepisce la percezione come diretta, ossia come un contatto immediato con il mondo e non come il risultato di un’elaborazione cognitiva su dati sensoriali grezzi. Il suo approccio, noto come ecologico, rovescia l’idea che il soggetto debba “ricostruire” la realtà a partire dagli stimoli. Secondo Gibson, l’informazione necessaria a percepire è già presente nell’ambiente: non è ambigua né incompleta, ma strutturata in modo tale da poter essere colta da un organismo in movimento.

Ciò che percepiamo, dunque, non è una semplice somma di sensazioni, ma un insieme di invarianti che rimangono costanti attraverso le variazioni del flusso ottico. Il movimento stesso del corpo diventa una condizione di conoscenza: muovendoci, esploriamo l’ambiente e raccogliamo informazione sulle sue proprietà. In questo senso, la percezione non è mai passiva, ma è un’attività esplorativa e intenzionale.

Un concetto centrale della teoria gibsoniana è quello di affordance. Ogni oggetto o superficie offre all’organismo determinate possibilità di azione: un pavimento permette di camminare, una tazza di essere afferrata, una scala di essere salita. Le affordances non sono proprietà oggettive né rappresentazioni soggettive: sono relazioni tra l’organismo e il suo ambiente, definite dalla compatibilità tra le caratteristiche fisiche del mondo e le capacità del corpo.

Trovo che questa impostazione sposti l’attenzione dal “come vediamo” al “perché percepiamo”. La percezione, per Gibson, non serve a produrre un’immagine mentale del mondo, ma a guidare il comportamento in modo efficace e adattivo. Vedere non è interpretare, ma agire nel mondo.

Questa prospettiva ha implicazioni che vanno oltre la psicologia della percezione. Essa invita a ripensare il modo in cui consideriamo l’esperienza corporea, il ruolo del contesto, e persino la possibilità di una percezione artificiale. Un sistema privo di corpo, di movimento e di intenzionalità — come una macchina che elabora immagini — non può percepire nel senso gibsoniano, perché gli manca il legame diretto con un ambiente da abitare.

In definitiva, con la sua teoria si può affermare che percepire significa essere immersi nel mondo, partecipare attivamente alla sua struttura e scoprirne, di continuo, le possibilità di azione. La percezione non è una rappresentazione della realtà, ma la forma primaria della nostra relazione con essa.

RASE nel BIM: come strutturare requisiti e specifiche secondo la ISO 12911:2023

Nel mondo del Building Information Modelling (BIM), la gestione strutturata delle informazioni è un requisito indispensabile per garantire qualità, coerenza e interoperabilità tra tutti gli attori coinvolti.
Il metodo RASE — introdotto e formalizzato nella norma ISO 12911:2023 — offre un approccio chiaro e sistematico per organizzare le specifiche tecniche di implementazione del BIM.

Cos’è il metodo RASE

RASE è l’acronimo di Requirement, Application, Selection, Exception.
È un modello logico che consente di descrivere i requisiti informativi in modo comprensibile, contestualizzato e verificabile, sia da persone sia da sistemi software di controllo.

Questo approccio nasce dall’esigenza di tradurre la complessità delle informazioni BIM in un linguaggio comune, che riduca le ambiguità e renda i processi più trasparenti e controllabili.

Le quattro componenti del metodo

  1. Requirement (Requisito) – Definisce ciò che deve essere soddisfatto o prodotto.
  2. Application (Applicazione) – Specifica dove, quando e in quali condizioni si applica il requisito.
  3. Selection (Selezione) – Identifica le possibili alternative o scelte disponibili.
  4. Exception (Eccezione) – Indica i casi in cui il requisito non si applica o può essere derogato.

Attraverso questa struttura, ogni requisito diventa tracciabile e misurabile, facilitando la gestione e la verifica automatizzata.

Il ruolo del RASE nella ISO 12911:2023

La ISO 12911:2023 integra il metodo RASE come fondamento per la redazione delle BIM Implementation Specifications, ossia le specifiche di implementazione del BIM.
Il framework proposto dalla norma è suddiviso in tre sezioni principali:

  • Outcomes – definizione degli obiettivi e dei risultati attesi;
  • Controls – regole e politiche di gestione delle informazioni;
  • Inputs – requisiti operativi e dati necessari alla produzione dei contenuti informativi.

Il metodo RASE permette di collegare questi tre livelli attraverso una logica univoca, riducendo le ambiguità e favorendo l’automazione dei controlli di qualità.

Vantaggi dell’approccio RASE

L’adozione del metodo RASE porta benefici concreti a chi gestisce processi BIM:

  • Chiarezza nella definizione dei requisiti informativi;
  • Verificabilità tramite controlli automatici o manuali;
  • Interoperabilità tra strumenti software e sistemi di gestione;
  • Allineamento tra le diverse figure professionali e organizzative.

In sostanza, RASE trasforma le specifiche BIM in documenti strutturati, controllabili e comparabili, favorendo una gestione più efficiente e coerente delle informazioni.

Conclusione

Il metodo RASE rappresenta uno dei passaggi chiave verso la maturità digitale del settore delle costruzioni.
Applicarlo significa adottare un linguaggio condiviso per la definizione dei requisiti informativi, in linea con la logica e le finalità della ISO 12911:2023.
È un passo concreto verso la qualità, la trasparenza e l’automazione nei processi BIM.

NVIDIA GR00T: foundation model per una nuova generazione di robot umanoidi intelligenti

Con l’annuncio di Project GR00T, NVIDIA inaugura una nuova era per la robotica umanoide, introducendo una piattaforma che combina intelligenza artificiale generativa, simulazione avanzata e hardware accelerato per fornire ai robot capacità cognitive e motorie sempre più simili a quelle umane. GR00T — acronimo di Generalist Robot 00 Technology — è concepito come un foundation model destinato a servire come cervello generalista per robot umanoidi, capace di apprendere da video, istruzioni linguistiche e interazioni sensomotorie in ambienti fisici e virtuali.

Alla base del progetto c’è l’idea di un modello multimodale in grado di generalizzare il comportamento attraverso ambienti, compiti e robot differenti, analogamente a quanto fatto da foundation model nel linguaggio naturale e nella visione artificiale. L’obiettivo di NVIDIA è quello di fornire una piattaforma integrata in grado di accelerare la ricerca e lo sviluppo di robot autonomi in grado di navigare, manipolare e interagire in ambienti complessi e non strutturati.

Il framework GR00T si integra strettamente con l’ecosistema Isaac, la piattaforma NVIDIA per la robotica, e in particolare con:

Isaac Lab
(per l’addestramento RL e simulato)

Isaac Sim
(per la simulazione fotorealistica in Omniverse)

Isaac ROS
(per l’esecuzione su robot reali).

In questo modo, NVIDIA propone una pipeline end-to-end che va dall’addestramento nel dominio simulato alla distribuzione nel mondo fisico, riducendo drasticamente il sim-to-real gap attraverso rendering avanzato, modellazione dinamica precisa e dominio adattivo.

La piattaforma è ottimizzata per girare sulla nuova generazione di moduli Jetson Thor, basati sull’architettura GPU NVIDIA Thor, capaci di eseguire modelli di AI generativa di grandi dimensioni direttamente a bordo del robot. Questo consente decisioni in tempo reale, inferenza locale e gestione di comportamenti complessi senza necessità di connessioni cloud continue — un passo cruciale per la robotica autonoma in tempo reale.

Il modello GR00T non si limita alla percezione, ma estende il suo dominio alla pianificazione motoria e alla comprensione semantica delle istruzioni, integrando moduli di NLP, Computer Vision e controllo motorio profondo. In termini pratici, questo significa che un robot addestrato con GR00T potrà, ad esempio, vedere un’azione in video e riprodurla, ricevere un comando vocale e decomporlo in sotto-azioni eseguibili, oppure apprendere nuove abilità attraverso l’osservazione.

Importanti aziende nel settore della robotica umanoide — tra cui 1X Technologies, Agility Robotics, Boston Dynamics, Figure AI, Sanctuary AI, Unitree Robotics e molte altre — stanno già collaborando con NVIDIA per l’integrazione del modello GR00T nei loro sistemi. Questo suggerisce una convergenza dell’ecosistema industriale verso standard comuni, accelerando i tempi di adozione di robot realmente autonomi in applicazioni industriali, domestiche e sanitarie.

Per approfondire leggi l’articolo

d

CUDA NVIDIA e codici orfani

La sigla CUDA, ben conosciuta da chi si occupa di programmazione nell’ambito della computer graphics e computer vision, è l’acronimo di Compute Unified Device Architecture e rappresenta una infrastruttura API di accesso alle potenzialità di calcolo offerte dalla schede video NVIDIA, direttamente da codice, offrendo enormi vantaggi di scalabilità computazionale.