Super-resolution e machine learning

Quante volte ho sorriso durante la visione di alcuni film nel vedere esperti tecnologi al fianco di detective che riuscivano con pochi click a generare, partendo da un semplice fotogramma di una camera piazzata in un vicolo, un ingrandimento che trasformava magicamente un ammasso di pixel sfocati in una immagina nitida, svelando così il volto dell’assassino o la targa di un veicolo.
Se fino a poco tempo fa potevano essere considerate libertà cinematografiche che rendevano più avvincente la sceneggiatura aggiungendo quel pizzico di fantasy-hi-tech che piace tanto al pubblico, oggi possiamo affermare che è diventata una applicazione possibile.

Tralasciando le applicazioni specifiche in ambito automobilistico (in cui modelli e algoritmi sono calibrati sul riconoscimento specifico di targhe di autoveicoli), uno degli approcci più condivisi fra i ricercatori si chiama Super-resolution e la troviamo, in alcune sue applicazioni primordiali, già utilizzabile all’interno di alcuni prodotti Adobe (es. Photoshop dalla versione 13.2) o di software specifici (oltre ad alcune implementazioni hardware all’interno delle GPU).La sua genesi affonda le radici in sperimentazioni e algoritmi differenti, utilizzati in ambito grafico per assolvere a esigenze differenze.
All’interno dei prodotti Adobe, ad esempio, già da qualche anno troviamo la tecnologia Enhance Details (in cui l’immagine veniva migliorata nella nitidezza e nell’aspetto cromatico, senza alterare la sua risoluzione).

Gli algoritmi di super-resolution che troviamo all’interno dei software Adobe, invece, consentono generalmente un ricampionamento lineare 2x per lato (andando così a raddoppiare la risoluzione totale per un massimo di 4x) mantenendo una migliore qualità dell’immagine rispetto all’utilizzo dei consueti algoritmi di interpolazione (es. linear, nearest-neighbor, bilinear e bicubic).

Super-resolution

La tecnologia super-resolution si basa su algoritmi di machine-learning addestrati opportunamente per interpolare i pixel aggiunti sulla base della tipologia delle forme e dell’immagine su cui viene applicata. Questo consente di evitare i consueti problemi di aliasing generati dai metodi precedenti.

Esempio di ingrandimento classico con l’utilizzo di filtri bicubico.
Si noti sulla destra la presenza di aliasing che fa perdere nitidezza ai contorni.
 Image Credit: Masa Ushioda/Seapics/Solent News

Un esempio di sperimentazione ci viene offerta da alcuni ricercatori di Google che nel 2016 hanno messo a punto un’applicazione di un modello di machine-learning chimato RAISR: Rapid and Accurate Image Super Resolution, che ha consentito di ottenere immagini ingrandite con una ottima resa qualitativa.
Questo approccio ha visto la creazione di un dataset composto da 10.000 coppie di immagini (a bassa e alta risoluzione) utilizzato come training per la calibrazione del modello di machine-learning.

L’ applicazione ha permesso l’affinamento di filtri adattivi non-lineari che, applicati ad una immagine ingrandita con uno dei metodi classici di interpolazione (es. bilinear), consentono un miglioramento dei risultati rappresentativi andando ad diminuire la presenza di artefatti.

I filtri così generati, che basano la loro matematica su alcune peculiarità delle immagini (contorni, gradienti, direzione, forza, coerenza, ecc.), vengono associati tramite funzioni hash alle caratteristiche dell’immagine oggetto di ingrandimento, così da essere utilizzati nei punti e nei modi opportuni.
L’immagine così elaborata viene, infine, “unita” a quella interpolata linearmente in partenza, utilizzando una funzione di media pesata, abbattendo i possibili artefatti generati dai filtri.

Workflow dell’applicazione. A sinistra l’immagine di partenza. Al centro l’immagine ingrandita con un filtro bicubico, a destra l’immagine in output dall’algoritmo RAISR.
Top: Original, Bottom: RAISR super-resolved 2x. Original image from Andrzej Dragan

Super-Resolution via Repeated Refinements

Ma come dicevano all’inizio, i progressi nel campo dell’elaborazione di immagini sintetiche sta facendo passi da gigante, grazie anche all’integrazione di modelli sempre più complessi di machine learning all’interno dei laboratori di ricerca.

Un esempio che oggi voglio descrivere è rappresentato dal Super-Resolution via Repeated Refinements (SR3), un algoritmo sviluppato all’interno dei laboratori Google, che basa la propria funzionalità sul processo di denoising stocastico applicato al resample di un’immagine.

L’ approccio al problema è innovativo. Pur basandosi sempre su modelli di machine-learning, questo algoritmo applica il training su immagini sottoposte a noising progressivo. In questo modo il modello viene calibrato per poter essere successivamente utilizzato in modo inverso, partendo da un noising completo fino all’immagine scalata.

Esempio di Image Super-Resolution via Iterative Refinement
by Chitwan Saharia Jonathan Ho,  William Chan,  Tim Salimans,  David Fleet,  Mohammad Norouzi)
Super Resolution results: (Sopra) 64×64 → 512×512 face super-resolution, (Sotto) 64×64 -> 256×256 natural image super-resolution.

Questo approccio ha dimostrato ottimi risultati di benchmark nella scalatura 4x-8x soprattutto per immagini ritraenti visi umani e immagini naturali. Nell’articolo (che si può leggere tramite i riferimenti in basso), si ipotizza anche la possibilità di superare il confine degli 8x applicando più volte in cascata l’algoritmo stesso, arrivando a raggiungere fattori moltiplicativi più elevati.

E’ facile immaginare che tali applicazioni di sintesi digitale porteranno sempre più applicazioni in ambiti differenti, da quello fotografico a quello medico, consentendo magari anche il riutilizzo di video e foto registrate con apparecchiature hardware con caratteristiche e ottiche obsolete.

Per approfondire:

RAIY. Romano, J. Isidoro and P. Milanfar, “RAISR: Rapid and Accurate Image Super Resolution,” in IEEE Transactions on Computational Imaging, vol. 3, no. 1, pp. 110-125, March 2017, doi: 10.1109/TCI.2016.2629284.

Image Super-Resolution via Iterative Refinement – 2021 – Image and Video Processing (eess.IV); Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG) – Chitwan Saharia, Jonathan Ho, William Chan, Tim Salimans, David J. Fleet, Mohammad Norouzi

Yulun Zhang, Kunpeng Li, Kai Li, Lichen Wang, Bineng, Zhong, and Yun Fu. Image super-resolution using very deep residual channel attention networks. In Proceedings of the European conference on computer vision (ECCV).

Autodesk Educational: controllo centralizzato

In questi giorni molti utenti educational stanno ricevendo un’email in cui Autodesk annuncia una nuova modalità di registrazione e assegnazione delle licenze Educational.

Con questa nuova modalità, Autodesk permette ai Docenti di assegnare le licenze educational ai propri studenti in modo centralizzato. In questo modo, si potranno indicare un massimo di 125 nominativi che saranno automaticamente assegnati come educational student, accedendo immediatamente alle licenze disponibili per i software scelti.

In questo modo, l’accesso ai software educational diventa più facile e immediato, bypassando le procedure di verifica finora necessarie per dimostrare l’eleggibilità dello status educational.

Come funziona?

Il Docente (che dovrà essere già autenticato e riconosciuto come utente educational), dopo l’accesso alla propria pagina Autodesk Educational potrà scegliere se scaricare i software disponibili come singolo utente (per il proprio utilizzo nell’ambito educativo) o gestire l’assegnazione di una classe.
In quest’ultimo caso, avrà la possibilità di scegliere che tipologia di gestione vuole utilizzare, se tramite un server centralizzato di autenticazione o una più comune gestione per singolo utente, che permette a ciascun nominativo indicato di scaricare ed utilizzare sul proprio pc i programmi selezionati.

Ogni docente ha a sua disposizione 125 nominativi per ciascun software disponibile, che potrà indicare nella pagina apposita tramite i loro indirizzi email. Questi nominativi dovranno corrispondere a studenti (di età minima 13 anni), docenti o collaboratori scolastici (vedi pagina idoneità).

La funzionalità di questi abbonamenti sarà legata alla effettiva eleggibilità del docente che, come succedeva fino a poco tempo fa, deve essere rinnovata di anno in anno. E’ bene specificare, dunque, che se tale rinnovo viene interrotto o non rinnovato, tutti gli abbonamenti degli studenti associati verranno automaticamente disabilitati.

Considerato l’aggiornamento della procedura di autenticazione educational che Autodesk aveva avviato nel corso dell’anno precedente, che prevedeva una più attenta e accurata riconoscibilità dello status di studente/docente, è evidente che questa nuova procedura mira a facilitare la gestione in ambito educativo, consentendo un’attivazione centralizzata e veloce dei vari abbonamenti necessari a far lavorare una classe o un laboratorio.

Per approfondire:
condizioni per essere ammesso alle versioni educational
pagina Autodesk Educational

Nuovo Decreto n. 312 sul BIM

E’ stato da poco pubblicato un nuovo decreto che aggiorna il Decreto Baratono (D.M. 560/2017), testo di riferimento nazionale all’adozione della metodologia BIM per gli appalti pubblici.

In questo nuovo testo, si introducono alcune definizioni che vanno meglio a definire le modalità di adozione delle procedure BIM, andando anche a chiarire le modalità di premialità previste per incentivare l’adozione di questa nuova metodologia.

Nel D.M. 560/2017 veniva specificato che le stazioni appaltanti dovevano adempiere preliminarmente alle seguenti attività:

  • Adozione di un piano formativo per il proprio personale coinvolto nelle procedure
  • Adozione di un piano di acquisizione ed organizzazione dell’infrastruttura hardware/software necessaria per la gestione dei processi BIM
  • L’assunzione di un atto organizzativo in cui specificare i processi di monitoraggio e gestione delle varie fasi procedurali in tutte le sue specifiche applicative.

Nel nuovo Decreto viene alleggerito tale requisito allo scopo di incentivare l’adozione sperimentale del BIM nelle pubbliche amministrazioni, prevedendo tale possibilità anche se queste non hanno ancora adottato le condizioni di cui sopra, ma le abbiano previste in una programmazione.

Come sappiamo, l’adozione del BIM ha portato notevoli stravolgimenti all’interno di enti appaltanti e studi professionali, andando spesso a ridefinire dinamiche, procedure e competenze interne. Per agevolare tale processo di adeguamento ed in considerazione anche delle forti limitazioni che il COVID ha portato all’interno dell’intero mercato, il nuovo decreto definisce una riprogrammazione delle date di adozione come segue:

  • 1 gennaio 2022: per le opere di nuova costruzione ed interventi su costruzioni esistenti, fatta eccezione per le opere di ordinaria manutenzione di importo a base di gara pari o superiore a 15 milioni di euro;
  • 1 gennaio 2023: per le opere di nuova costruzione, ed interventi su costruzioni esistenti, fatta eccezione per le opere di ordinaria e straordinaria manutenzione di importo a base di gara pari o superiore alla soglia di cui all’articolo 35 del codice dei contratti pubblici;
  • 1 gennaio 2025: per le opere di nuova costruzione, ed interventi su costruzioni esistenti, fatta eccezione per le opere di ordinaria e straordinaria manutenzione di importo a base di gara pari o superiore a 1 milione di euro.

Come si nota, viene meno la soglia al di sotto del milione di euro, probabilmente in attesa di monitorare l’adozione di queste nuove procedure nel mercato e valutarne i processi attuati.

Un’altra modifica interessante introdotta dal D.M. 312/2021 riguarda la disponibilità del modello informativo dello stato di fatto,  che il Decreto precedente (art. 7) prevedeva dovesse essere incluso all’interno del capitolato informativo e che ora diventa facoltativo, liberando così l’onere di una digitalizzazione del patrimonio edilizio gestito dell’ente appaltante che poteva rallentare la sperimentazione e l’adozione delle nuove procedure.

Per incentivare l’adozione del BIM, questo nuovo decreto introduce anche la possibilità di prevedere delle premialità in fase di aggiudicazione di gara, andando ad identificare quelle offerte che consentano l’integrazione dei modelli all’interno dell’infrastruttura di gestione dell’ente o tali da agevolare la tracciabilità ed il monitoraggio del ciclo di vita dell’opera.

Per approfondire:

Decreto Ministeriale numero 312 del 02/08/2021
Articolo Ingenio-web

Immagine di copertina di Paul Wilkinson

In-camera VFX con UE4.27

Siamo ormai abituati agli annunci dirompenti del team Epic sulle nuove incredibili integrazioni all’interno del famoso ambiente di sviluppo Unreal Engine.

Una delle discipline in cui gli sviluppatori della casa americana stanno investendo da diverso tempo è l’integrazione del rendering in realtime in fase di produzione visiva.
Ne è un esempio l’integrazione del mo-cap in tempo reale o del tracking della camera da ripresa.

Le funzioni in-camera VFX

Immaginiamo di avere a disposizioni un set di ripresa con un background costituito da pannelli LED (come tanti monitor) collegati tra loro che proiettano un’immagine sincronizzata con la scena virtuale presente all’interno di un progetto di Unreal Engine.
La camera di ripresa presente fisicamente all’interno dello stage, viene collegata ad un sistema di live tracking in modo che i suoi movimenti vengano tracciati e sincronizzati con la camera virtuale presente all’interno del progetto UE4 e visualizzata on-stage; in questo modo, la scena visualizzata sui display in background risulta perfettamente calibrata con la ripresa live simulando un inner-frustum calibrato con il FOV della camera
I display esterni al campo visivo, proietteranno l’ambiente virtuale circostante, in un outer-frustum che collaborerà ad una illuminazione (e riflessione) realistica dei soggetti e dei materiali ripresi.

A questo, si aggiunge la possibilità di inserire effetti visivi all’interno della ripresa virtuale, ritrovandoli immediatamente in off-axis projection, con un perfetto allineamento con la scena reale.
Grazie ai sistemi nDisplay, Live Link, Multi-User Editing, e Web Remote Control offerti da Unreal, l’utente è in grado di creare un vero e proprio set digitale virtuale.

Shooting virtuale

Ed è proprio su questa linea di sviluppo che i programmatori di Epic in collaborazione con lo studio di produzione Bullit, hanno sperimentato una piccola produzione cinematografica in virtual-real time, integrando le nuove tecnologie presenti nella versione 4.27 di Unreal Engine.

All’interno degli studi californiani della NantStudios, si è sperimentato un workflow innovativo, in cui pre-produzione, shooting e post-produzione si sono integrati all’interno di un ambiente totalmente virtualizzabile e programmabile in tempo reale.
Sfruttando la potenza di calcolo di due GPU NVIDIA Quadro A6000 ed un sistema di proiezione LED dello stage virtuale, il team è riuscito a chiudere questa produzione in soli 4 giorni, sfruttando i nuovi tools di controllo e simulazione in-camera offerti dall’ambiente grafico Unreal.
La possibilità di riconfigurare in pochissimo tempo una scena, simulandone configurazioni ambientali ed illuminazione, ha portato ad una notevole diminuzione dei tempi di produzione con, ovviamente, conseguente risparmio economico.

Inoltre, la possibilità di provare nuove configurazioni in realtime, ha permesso un approccio più creativo e spontaneo, facilitando la sperimentazione di nuovi setup, consentendo al regista di valutarne immediatamente la resa.

Questo nuovo paradigma di produzione porta con sè anche una rivoluzione nei flussi di lavoro normalmente configurati in una produzione; riunire sul set, durante le riprese, tutti i teams coinvolti normalmente nelle fasi di pre-produzione e post-produzione, porta ad una collaborare in tempo reale sulla scena in fase di shooting, riducendo eventuali incoerenze che normalmente possono verificarsi in fase di lavorazione non simultanea.

Un innovativo modo di concepire la produzione visiva troverà presto integrazioni sempre più diffuse nei vari ambienti di sviluppo, avvicinando settori e professionalità che normalmente sono separati in comparti differenti della computer grafica.

Per approfondire: visita il sito UnrealEngine

Visualizza l’hardware raccomandato

NVIDIA DLSS 2.0

Con l’architettura Turing, NVIDIA ha iniziato ad implementare dal 2018 nuove tecnologie che sfruttano algoritmi di Intelligenza Artificiale per ottimizzare la resa qualitativa delle applicazioni e dei giochi.
Una fra queste è la tecnologia DLSS, acronimo di Deep Learning Super Sampling.

Si tratta di un algoritmo implementato nel chipset NVIDIA che permette di effettuare dei calcoli di rendering con un subsampling dell’immagine, quindi ad una risoluzione inferiore, per poi rielaborarla automaticamente tramite un super-sampling effettuato internamente dai Tensor core presenti nel chip, per ottenere un’immagine ad una risoluzione maggiore, conservando una qualità ottimale ed un alto frame rate.

Ciò che differenzia questa tecnologia rispetto ai più consueti algoritmi di up-scaling, è la rete neurale profonda utilizzata internamente che, istruita dalle immagini del gioco stesso, permette una migliore calibrazione e di conseguenza una resa grafica più efficiente, specificatamente sulle features del gioco stesso.

Architettura DLSS v.2.0

In definitiva, questa strategia consente di diminuire i tempi di calcolo conservando ottime qualità visive anche alle più alte risoluzioni, con il limite, ovviamente, di richiedere alle case produttrici l’integrazione di questa funzionalità all’interno del proprio workflow (quindi solo alcuni titoli sono compatibili con il DLSS).

Nel 2020, con l’implementazione dei nuovi chipset, NVIDIA ha portato degli aggiornamenti anche a questa tecnologia (DLSS v.2.0) portando nuovi vantaggi in termini prestazionali ed implementativi.

Deliver Us the Moon – DLSS 2.0


In particolare, la fase di training della rete neurale viene in parte generalizzata sui componenti grafici più comuni all’interno dei giochi (come i sistemi particellari di fumo, fuoco, ecc.) senza la necessità quindi di ricevere un dataset di immagini specifico da ciascun produttori.

Inoltre, per i titoli che supportano questa tecnologia, è possibile impostare tre livelli di qualità computazionale: qualità, bilanciato, performance, in modo da poter impostare, sulla base delle caratteristiche hardware in possesso, un setup funzionale.

Ovviamente anche AMD è impegnata nella ricerca ed implementazione tecnologica nella pipeline di rendering dei propri chipset e al Computex 2021 ha presentato FidelityFX Super Resolution, la sua risposta al DLSS di NVIDIA (per approfondire visita il link)

Per approfondire DLSS 2.0: visita il link

Costruzioni Lego e Intelligenza artificiale

Si chiama BrickIt l’app basata su algoritmi di Intelligenza artificiale che permette di fotografare i pezzi Lego a nostra disposizione e proporci delle originali idee progettuali.

Ok, so bene che in questo caso siamo ai limiti di un articolo “acchiappa click”, come quelli che si trovano spesso nelle riviste generaliste con lo scopo di incuriosire e attirare l’attenzione di un pubblico non specialista utilizzando termini iper-tecnologici per descrivere applicazioni banali.
Ma, sarà forse il mood estivo o la ricerca di nuovi stimoli da parte dei piccoli di casa, ho voluto sperimentare questa nuova App che promette di automatizzare la progettazione di costruzioni Lego sulla base dei pezzi a nostra disposizione.

L’ App in questione si chiama BrickIt (brickit.app) ed è disponibile al momento solo per piattaforma iOs (iPhone) in forma gratuita.
Il funzionamento è davvero semplice ed immediato: si dispongono i pezzi lego su una superficie piana (possibilmente a tinta unita), facendo attenzione a non occludere i pezzi più piccoli sotto quelli più grandi; si fotografa questa disposizione e l’app fa tutto il resto, costruendo dei veri e propri libretti di costruzione che ci guidano nella realizzazione di oggetti alternativi, tutti realizzabili con i pezzi che abbiamo fotografato.


Ma non finisce qui! Infatti durante gli step di costruzione, possiamo chiedere all’App di mostrarci l’area della fotografia in cui è presente il pezzo di cui necessitiamo, facendoci risparmiare lunghi tempi di ricerca.
Tale funzionalità consente anche di scegliere, fra i pezzi presenti, delle alternative cromatiche che possiamo integrare nel progetto.

Sono consapevole che qualcuno potrebbe non apprezzare tale funzionalità, affermando che la ricerca e l’identificazione dei pezzi (come avviene per alcune tipologie di gioco, come i puzzle) rientra proprio nelle fasi creative del gioco e che quindi eliminarle altera la dinamica ludica (basti pensare quando, seguendo un libretto delle istruzioni per il montaggio e dopo una disperata ricerca di pezzi all’interno del nostro contenitore, siamo portati all’adozione di varianti , rendendo di fatto originale e unica la nostra costruzione).

Ma in questo testo vorrei soffermarmi principalmente sugli aspetti tecnologici e implementativi di questa App che dimostra come “semplici” algoritmi di matching fotografico affiancati ad un sistema di proposta progettuale possano essere coniugati in un’applicazione semplice e utile, davvero alla portata di chiunque.
Il riconoscimento fotografico si basa su estrazioni di features (forma e contrasto), identificando attraverso un dizionario di immagini le varie tipologie di pezzo Lego (al momento in questo database non sono inclusi la serie Lego Technic e Lego Duplo).

Dopodiché, un modello di pattern recognition cerca in un catalogo già predisposto le occorrenze presenti, proponendoci delle alternative di costruzione, con le relative istruzioni di montaggio. Queste istruzioni si basano presumibilmente su un prontuario già presente, essendo le immagini della guida non correlate ai colori dei pezzi in nostro possesso.

Fase di sperimentazione e costruzione. 🙂

L’idea progettuale è molto simpatica ed apre ad una integrazione ludica e tecnologica comunque basata sulla socializzazione e sulle capacità di personalizzazione progettuale.

Da un punto di vista funzionale l’app si è rivelata abbastanza stabile.
Durante la “sperimentazione” (con il supporto di un esperto in costruzioni ;)) l’App ha commesso pochi errori di identificazione, principalmente a causa di parziali occlusioni dei pezzi sotto altri. Tale evenienza però ha permesso piccole reinterpretazioni pesonali che hanno reso ancora più originali le nostre creazioni.

P.S.: Citazione doverosa in tale ambito è il software di progettazione sviluppato da Lego Digital Designer (https://www.lego.com/it-it/ldd) per la creazione di nuovi progetti di costruzione, con relativa elaborazione automatica di istruzioni di montaggio. In questo caso ovviamente si tratta di una semplice applicazione per la progettazione 3D senza alcun supporto di AI.

https://www.youtube.com/watch?v=z5U_BqJcQ3Y

La percezione del tempo con il VR

Ho trovato per caso questo interessante articolo pubblicato su Timing & Time Perception. Alcuni ricercatori hanno sperimentato come la percezione del tempo venga influenzata dall’utilizzo dei dispositivi di realtà virtuale.
A qualcuno potrebbe risultare persino scontata come affermazione, confrontandosi magari con la reazione dei propri figli dinnanzi ad un videogame che li fa “estraniare” dal cosiddetto qui ed ora, scatenando difficili discussioni su quanto tempo sia realmente passato davanti alla console. :))

Ovviamente in questo caso leggiamo di una ricerca effettuata con criteri e metodi scientifici, in cui dei ricercatori hanno “misurato” quanto l’immersività della realtà virtuale alteri la percezione del tempo, creando quella che viene definita una compressione del tempo.
Benché tale fenomeno fosse stato già affrontato in determinati ambiti specifici, in questo caso gli studiosi hanno cercato di concentrarsi sul fenomeno percettivo astraendolo dal contesto di riferimento, quindi concentrandosi proprio sulla distorsione che la nostra mente subisce con l’utilizzo di dispositivi immersivi.
Chi volesse approfondire questa tematica, credo possa trovare un interessante esempio di sperimentazione in ambito medico nell’articolo Schneider, S. M., Kisby, C. K. & Flint, E. P. (2011). Effect of virtual reality on time perception in patients receiving chemotherapy. Support. Care Cancer, 19, 555–564. doi: 10.1007/S00520-010-0852-7. in cui viene osservato come l’utilizzo della realtà virtuale modifichi la percezione del tempo in pazienti oncologici sottoposti a chemioterapia sulla base di alcune variabili messe in correlazione (es. età, sesso, stato fisico, ecc.).

Come dicevamo, in questo articolo i ricercatori hanno cercato di studiare, con un approccio statistico, l’aspetto percettivo del tempo, analizzando il comportamento di diversi studenti che si sono sottoposti a questa sperimentazione, confrontandosi con la risoluzione di una sorta di labirinto 3D (creato con Unity) in modalità VR e tradizionale.
Durante questa esperienza digitale, i partecipanti dovevano premere una combinazione di tasti quando pensavano fossero passati 5 minuti.

La ricerca ha portato alla luce un effettivo processo di compressione del tempo fra gli utilizzatori delle tecnologie VR. L’attribuzione di tale fenomeno, secondo gli autori, non è attribuibile a condizioni contestuali o emotivi nell’utilizzo delle apparecchiature (diciamo che l’entusiasmo dell’utilizzo dei visori VR potrebbe in qualche modo alterare la misurazione, ma in questo caso i risultati sarebbero stati opposti), quanto piuttosto ad una possibile minore percezione del proprio corpo a causa dell’isolamento a cui conduce l’immersività VR (l’utente non “vede” il proprio corpo, né il contesto ambientale e pertanto perde dei riferimenti su cui basare la propria percezione dello trascorrere del tempo).

Nello specifico, lo studio ha evidenziato che i partecipanti che hanno giocato tramite VR hanno utilizzato la simulazione per una media di 72,6 secondi in più prima di percepire il trascorrere dei 5 minuti rispetto agli altri partecipanti che hanno utilizzato un monitor tradizionale.

In attesa che nuovi ed ulteriori studi possano portare eventuali altre conferme a tale ipotesi, potremmo magari iniziare ad immaginare possibili applicazioni della VR in ambiti terapeutici e medici, in cui questa “compressione temporale” possa diventare funzionale all’attenuazione di patologie o donare sollievo durante terapie particolarmente intense.

Per approfondire: leggi l’articolo

Revit 2022 novità

Come ogni anno in questo periodo arriva la nuova release di Revit che anima gli utilizzatori nella speranza di trovare upgrade che superino i limiti di utilizzo del software di Authoring di casa Autodesk.
Dalle prime news, devo ammettere che quest’anno ci sono alcune interessanti novità che penso possano confortare la stragrande maggioranza dei professionisti BIM.
In attesa di poterle provare in prima persona, ho cercato qui di sintetizzarle, dando risalto a quelle che – ovviamente secondo le mie necessità – risultano le novità più interessanti.

Murature variabili

Iniziamo con quella a cui avevo riposto maggiore aspettative.
Finalmente Revit supporta le murature a stratigrafia variabile, per la modellazione dei paramenti fuori piombo.

Probabilmente, per chi come me utilizza Revit soprattuto in ambito HBIM, ritengo che questa sia la caratteristica di cui si sentiva maggiore necessità e che trovava ripiego in varie e discutibili strategie e workround.
Nella versione 2022 finalmente è possibile aggiungere ad un determinato strato del pacchetto murario la proprietà “variabile” (come succedeva già per i pavimenti e tetti) per compensare l’inclinazione del muro.


In questo modo è possibile, tramite le proprietà di tipo, impostare un’inclinazione indipendente di entrambe le facce della nostra muratura ed ottenere il nostro muro personalizzato.
L’inserimento degli inserti potrà essere allineato ad entrambe le facce.

Load Autodesk Family

Una funzione che si allinea ad altri software di modellazione parametrica è l’accesso migliorato alla libreria di famiglie caricabili che Autodesk ci offre. Al pulsante caratteristico che troviamo nella scheda INSERISCI da cui possiamo caricare i files .RFA, si aggiunge un pulsante che consente di accedere ad una finestra di selezione che ci consente di scorrere e ricercare in modo globale gli elementi che ci interessano, indipendentemente dalla “cartella” in cui risiedono, tramite una navigazione facilitata ed una ricerca testuale.

Integrazione con FormIt

L’integrazione con il software FormIt Pro è stata nativamente supportata in modo bidirezionale, consentendo di esportare una geometria da Revit all’interno del programma di concept, modificarla qui dentro e ritornare con una sorta di switch-back all’interno di Revit, ritrovando ovviamente le geometrie aggiornate ed i relativi materiali.
Altra possibilità che ci viene offerta nella nuova versione di Revit è il supporto del formato axm di FormIt nella finestra di inserimento CAD, supportando in tale operazione il riconoscimento dei materiali e di eventuali layers.
In quest’ultima features troviamo anche il supporto per il formato 3DM di Rhinoceros.

Resta ovviamente da valutare l’aspetto semantico che entrambe le procedure ci consentiranno di mantenere all’interno del nostro progetto BIM.

Condivisione web delle viste

Una caratteristica che si preannuncia molto utile in ambito operativo è la possibilità di condividere tramite il web delle viste 2D del nostro progetto, che potranno così essere automaticamente condivise ed utilizzate come base per delle revisioni da remoto.

Immaginate quindi di dover far revisionare una tavola del vostro progetto; anziché realizzare un PDF e inviarlo via email, con questa funzionalità potremmo caricare automaticamente la nostra vista su un cloud basato su Autodesk viewer e renderla visibile e commentabile dal nostro interlocutore.
Tali revisioni, saranno visualizzabili direttamente all’interno di Revit.

Abachi e computi

Nella parte di report analitico, Revit 2022 ha inserito il supporto della proprietà workset all’interno dei campi di computi e abachi, dandoci così la possibilità di filtrare i nostri report in base a queste proprietà.

Altre interessanti funzionalità che riguardano la reportistica aggiungono scalabilità e facilità di configurazione, agevolando la creazione degli abachi.

Per approfondire: https://blogs.autodesk.com/revit/2021/04/06/whats-new-in-revit-2022/

Il sistema Pixar

Il sistema Pixar di Christian Uva
Ed. Il Mulino 2017

Devo ammettere che l’acquisto di questo libro è stato quasi impulsivo, non riuscendo a trovare recensioni o estratti che potessero disperdere alcune mie perplessità su di un titolo italiano dedicato alla genesi della grande industria californiana Pixar.

Il libro si presenta molto maneggevole, di dimensioni ridotte, facile da inserire in qualsiasi borsa per portarlo nella nostra quotidianità.
Le pagine risultano di grammatura molto bassa, lasciando intravedere il testo retrostante, ma considerata la natura descrittiva del contenuto, non lo considero un grosso problema, anzi, ne caratterizza il peso ridotto e la sua economicità.

Diciamo subito che il testo non è di natura tecnica, ma vuole descrivere la nascita della Pixar analizzandone il contesto storico e sociale che hanno motivato le aspettative imprenditoriali e produttive dei vari soggetti coinvolti direttamente ed indirettamente alla nascita del brand.

La lettura è abbastanza scorrevole, soprattutto nella prima metà del libro, con alcuni interessanti collegamenti semantici fra l’estetica grafica, utilizzata nelle produzioni Pixar, ed una ideologia all’immaginazione culturale che animava gli animi in quell’epoca, con ” […] una visione dello zeitgeist mito-politico e mito-poetico”.
L’idea che una scelta tecnica, un algoritmo o una determinata risoluzione grafica, possa essere ricondotta o collegata in qualche modo ad un tentativo di provocazione immaginaria subordinandola al fotorealismo, mi ha affascinato, consentendomi una visione olistica di una rappresentatività digitale misurata.

Devo ammettere però che la seconda metà è stata portata a termine con fatica, forse perché troppo concentrata sulla ricerca, a volte – a mio avviso – forzata, di connotazioni identitarie fra le produzioni cinematografiche e le condizioni sociali che attraversavano quegli anni, pur riconoscendo all’autore il merito di conservare la natura argomentativa e analitica nello scritto.

Tentando di esprimere un giudizio complessivo, reputerei il libro come un interessante tentativo di sintonizzare la nascita e le scelte tecnologiche di una delle più straordinaria industrie cinematografiche di tutti i tempi, all’interno di un progetto culturale espressione di un preciso contesto identitario e sociale, che ne ha – per quanto afferma l’autore – caratterizzato fortemente le sue connotazioni iconiche.