Stable Diffusion: Una chiave per svelare i misteri della mente?

Una ricerca all’avanguardia suggerisce che è possibile ricostruire immagini ad alta risoluzione dall’attività cerebrale umana, aprendo la strada a una tecnologia rivoluzionaria che un giorno potrebbe leggere la mente.

Wim Wenders aveva già immaginato qualcosa del genere nel 1991 nel film “Fino alla fine del mondo”. In questo film lo scienziato Farber crea un avveniristico dispositivo per registrare i sogni direttamente da chi sta dormendo. Questo ha portato alla nascita di una nuova forma di dipendenza: Claire, il ricercatore e suo figlio sono ossessionati dalla necessità di vedere i loro sogni registrati sulla macchina digitale. Questa macchina sarebbe poi stata in grado di fornire immagini attraverso la stimolazione biochimica del cervello, permettendo alla vista di una persona cieca di vedere.

In un altro film di fantascienza, Minority Report del 2002, Steven Spielberg immaginava un futuro in cui un “dipartimento di polizia pre-crimine” preveniva i crimini prima che accadessero, grazie alle visioni di tre chiaroveggenti geneticamente modificati. Se questo concetto poteva sembrare al di là del possibile, i recenti progressi delle neuroscienze ci stanno avvicinando alla generazione di immagini direttamente dal cervello umano.

Due ricercatori giapponesi, Yu Takagi e Shinji Nishimoto, hanno recentemente pubblicato un lavoro innovativo che esplora l’uso dei modelli di diffusione (classe di modelli di apprendimento automatico in grado di generare nuovi dati sulla base dei dati di addestramento.), in particolare “Stable Diffusion” un innovativo algoritmo, per creare immagini ad alta risoluzione dall’attività cerebrale umana. Utilizzando la risonanza magnetica funzionale (fMRI), lo studio mirava a scoprire la relazione tra i modelli di visione computerizzata e il sistema visivo umano, ricostruendo le esperienze visive dall’attività cerebrale.

La fMRI misura i cambiamenti del flusso sanguigno nel cervello per rilevare l’attività neuronale. I ricercatori sono riusciti a ricostruire immagini ad alta risoluzione senza bisogno di un addestramento estensivo o di una messa a punto dei modelli di apprendimento profondo. Si tratta di un risultato significativo, poiché i precedenti tentativi di ricostruire immagini visive dalla fMRI si basavano sull’addestramento di modelli generativi profondi su grandi insiemi di dati, un compito impegnativo nelle neuroscienze a causa delle dimensioni ridotte dei campioni.

I modelli di diffusione latente (LDM) offrono una soluzione a questa limitazione. I modelli LDM possono imparare a creare immagini trasformando semplici modelli di rumore in immagini complesse, utilizzando un set di immagini per imparare a creare nuove immagini simili. Una volta addestrato, il modello può creare immagini partendo da un modello di rumore casuale e trasformandolo gradualmente in un’immagine che sembra appartenere al set di dati.

Nel loro studio, Takagi e Nishimoto hanno mappato componenti specifiche della diffusione stabile a regioni cerebrali distinte, fornendo un’interpretazione quantitativa dei LDM dal punto di vista delle neuroscienze. Questa mappatura delle regioni cerebrali potrebbe avere implicazioni significative per la ricerca futura su come il cervello umano elabora le informazioni visive.

Anche se la tecnologia di lettura della mente può sembrare ancora fantascienza, questa ricerca ci porta un passo più vicino a un futuro in cui sarà possibile – chissà forse un giorno non proprio lontano – una comunicazione diretta tra il cervello e le macchine.

Per chi volesse approfondire: https://sites.google.com/view/stablediffusion-with-brain/.

C’è da sottolineare che lo studio non è più solo un preprint, ma è stato accettato da CVPR (Conference on Computer Vision and Pattern Recognition) conferenza annuale sulla visione artificiale e il riconoscimento dei modelli, considerata la più importante nel suo campo. https://cvpr2023.thecvf.com/.

Mirko Compagno


Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale 4.0 Internazionale.

METAVERSO ART: Il futuro (o uno dei futuri) dell’espressione artistica

METAVERSO ART: Il futuro (o uno dei futuri) dell’espressione artistica

Siete pronti a entrare in un mondo in cui l’arte non è solo qualcosa da vedere su una parete, ma un’esperienza coinvolgente che coinvolge tutti i sensi? Benvenuti nel Metaverso, un mondo virtuale in cui arte e tecnologia si fondono per creare una forma completamente nuova di espressione artistica. In questo articolo esploreremo il mondo della Metaverse Art e il modo in cui sta cambiando il modo in cui percepiamo e interagiamo con l’arte.

Cos’è la Metaverse Art?
La Metaverse art è una forma di arte digitale che esiste all’interno di ambienti di realtà virtuale (VR) e realtà aumentata (AR). È un’esperienza immersiva che permette allo spettatore di entrare e interagire con una mostra o una galleria d’arte virtuale. A differenza dell’arte tradizionale, la Metaverse art non è limitata allo spazio fisico e gli artisti hanno la libertà di creare senza vincoli di dimensione, forma o materiale.

Le origini
La Metaverse art affonda le sue radici agli albori di Internet, con lo sviluppo di mondi virtuali come Second Life, una delle prime piattaforme che ha permesso agli utenti di creare e condividere le proprie creazioni digitali in uno spazio virtuale. Con l’avanzare della tecnologia, anche il mondo del della Metaverse Art se si è evoluto: nuove piattaforme come Decentraland e Cryptovoxels sono diventate destinazioni popolari per artisti e collezionisti.

Artisti e collezionisti
La Metaverse Art offre una serie di vantaggi sia per gli artisti che per i collezionisti. Per gli artisti, fornisce un nuovo mezzo di espressione creativa che non è limitato dallo spazio fisico o da vincoli materiali. Inoltre, consente agli artisti di raggiungere un pubblico globale, poiché le mostre virtuali sono accessibili da qualsiasi parte del mondo. Per i collezionisti, la Metaverse Art offre un nuovo modo di sperimentare e interagire con l’arte, con l’ulteriore vantaggio di poter vedere e collezionare rare opere d’arte digitale che possono rivalutarsi nel tempo.

Uno degli sviluppi più significativi nel mondo della Metaverse Art è stata l’ascesa dei token non fungibili (NFT). Gli NFT sono beni digitali unici memorizzati su una blockchain e possono rappresentare qualsiasi cosa, da opere d’arte a musica a immobili virtuali. Gli NFT sono diventati sempre più popolari nel mondo dell’arte, con alcune opere d’arte digitali vendute all’asta per milioni di dollari.


Il futuro

Con l’avanzare della tecnologia, le possibilità della Metaverse Art sono virtualmente illimitate. In futuro potremo assistere a esperienze virtuali ancora più coinvolgenti, con l’integrazione di tecnologie come il feedback aptico e la simulazione degli odori. Inoltre, ci aspettiamo di vedere un numero maggiore di collaborazioni tra artisti e tecnologi, che lavoreranno insieme per spingere i confini di ciò che è possibile nel Metaverso.

L’impatto della Metaverse Art va ben oltre il mondo dell’arte. Ha il potenziale per cambiare il modo in cui pensiamo alla creatività, all’innovazione e alla collaborazione. Ha anche il potenziale di democratizzare il mondo dell’arte, rendendolo più accessibile a un pubblico più vasto. Continuando a esplorare le possibilità della Metaverse Art, possiamo aspettarci di vederla giocare un ruolo sempre più importante nel plasmare il nostro panorama culturale.

Conclusione

In conclusione, la Metaverse Art è un campo eccitante e in rapida evoluzione che offre una nuova forma di espressione artistica non limitata dallo spazio fisico o da vincoli materiali. Offre agli artisti nuove opportunità di creare e condividere le loro opere e ai collezionisti nuovi modi di sperimentare e interagire con l’arte. Con l’avanzare della tecnologia, possiamo aspettarci di vedere sviluppi ancora più entusiasmanti nel mondo della Metaverse Art, con il potenziale di trasformare il nostro panorama culturale in modi che possiamo solo immaginare.

BIM & Metaverso

Il Metaverso è uno spazio virtuale in cui le persone possono interagire, lavorare, giocare e persino acquistare terreni o opere d’arte virtuali. È un’evoluzione degli ecosistemi Internet e digitali, resa possibile dai dati, dall’XR (realtà estesa), dalla blockchain, dall’AI.

Possiamo immergerci in questo universo virtuale utilizzando visori di realtà virtuale, occhiali di realtà aumentata, app per cellulare e altri dispositivi. Il Metaverso rappresenta la convergenza tra il mondo digitale e quello fisico, comprensivo dell’utlizzo dell’attuale tecnologia, come la lettura di email sul cellulare, l’invio di messaggi, gli acquisti e l’ascolto di musica.

Il Building Information Modeling (BIM) è mira a creare e gestire rappresentazioni digitali dettagliate di edifici, infrastrutture e altri beni costruiti. Viene utilizzato per progettare, costruire e gestire queste strutture ed implica la creazione di un modello digitale di un edificio o di un’altra struttura che include informazioni sulla progettazione, la costruzione e il funzionamento. Questo modello può poi essere utilizzato per supportare diverse attività, come la progettazione, la costruzione e la gestione della struttura.

C’è una certa sovrapposizione tra il concetto di metaverso e BIM, poiché entrambi utilizzano tecnologie digitali per creare e gestire rappresentazioni virtuali di oggetti o spazi fisici. Proviamo a immaginare quali potrebbero essere i punti di incontro e di combinazione tra i due.

Progettazione e visualizzazione di edifici in 3D. Utilizzando il BIM, è possibile creare modelli digitali accurati degli edifici che possono essere esplorati in modo interattivo all’interno di un metaverso. Questo può essere utile per la progettazione di edifici e per la presentazione di progetti ai clienti.

Collaborazione e coordinamento dei progetti. Il metaverso può essere utilizzato come piattaforma di collaborazione per i progetti di costruzione, permettendo ai team di lavorare insieme e condividere i modelli BIM in tempo reale.

Simulazione e analisi della performance. Utilizzando il BIM e il metaverso, è possibile creare simulazioni di come un edificio funzionerà in diverse condizioni climatiche e di utilizzo, permettendo di valutare la performance dell’edificio e identificare eventuali problemi prima della costruzione.

Gestione e manutenzione degli edifici. Il metaverso può essere utilizzato come piattaforma per la gestione e la manutenzione degli edifici, permettendo di monitorare le prestazioni degli edifici e pianificare gli interventi di manutenzione necessari.

Formazione e istruzione. Il metaverso può essere utilizzato come strumento di formazione per gli studenti di architettura e ingegneria, permettendo loro di esplorare edifici virtuali e imparare come funzionano in modo interattivo.

In sintesi, l’utilizzo sinergico del BIM e del metaverso può contribuire a rendere la gestione e la manutenzione degli edifici più efficiente e meno dispendiosa, permettendo di identificare e risolvere i problemi in modo tempestivo e garatendo allo stesso tempo sia la sicurezza che il funzionamento ottimale degli edifici.

Mirko Compagno


This work is licensed under a Creative Commons Attribution 4.0 International License.


Occhio, il futuro è già presente!

Il CEO di Mojo Vision, Drew Perkins, ha indossato per la prima volta il prototipo di lente a contatto in realtà aumentata.

Il futuro è molto più vicino di quanto la maggior parte delle persone pensi. Anzi, il futuro è già qui. L’ho visto. L’ho indossato. Funziona. È successo tutto nei laboratori di Mojo Vision a Saratoga, in California, il 23 giugno 2022, ed è stata la prima dimostrazione di una lente a contatto in realtà aumentata completa di funzioni. Con mia grande gioia, ho scoperto che potevo interagire con una bussola per orientarmi, visualizzare immagini e utilizzare un teleprompter sullo schermo per leggere una citazione…” Queste sono le parole di Drew Perkins CEO della Mojo Vision startup americana che con il proprio team di ingegneri ha lavorato ai confini della fisica e della miniaturizzazione dell’elettronica riuscendo a realizzare uno schermo microLED (da 14.000 pixel per pollice e con un diametro inferiore a 0,5 mm e un pixel-pitch di 1,8 micron) delle dimensioni di un granello di sabbia.

Di recente è stato annunciato il prototipo avanzato di Mojo Lens, che integra una serie di nuove funzionalità hardware e tecnologie innovative integrate direttamente nella lente, tra cui un nuovo e avanzato display, il tracciamento oculare e le comunicazioni. L’ultimo ostacolo tecnico per indossare la lente è stato quello di garantire che i sistemi di alimentazione e di comunicazione radio funzionassero senza fili.

L’interfaccia delle Mojo Lens è basata sul tracciamento degli occhi, che consente agli utenti di accedere ai contenuti e selezionare gli elementi senza l’ausilio di controller manuali o gestuali, ma solo con il movimento naturale degli occhi.

Dopo aver completato i test preclinici e ridotto i potenziali rischi per la sicurezza, si è potuto procedere alla sperimentazione dell’utilizzo della lente in realtà aumentata. I prossimi passi della Mojo Vision sarà quello di perfezionare le sue lenti per sottoporli alla FDA (Federal Drug Administration) e ottenerne l’approvazione per il mercato.

Riparare i PC con la realtà aumentata

Dell Technologies ha presentato una nuova applicazione di realtà aumentata (Dell AR Assistant) che guida gli utenti attraverso le procedure di manutenzione e riparazione di oltre 100 PC e server Dell in sette lingue diverse e con istruzioni passo-passo. Tutto ciò che serve è uno smartphone Android o iOS. L’app non richiede un login e non archivia o trasmette informazioni sul cliente. Lo sviluppo dell’applicazione è avvenuto durante i primi mesi della pandemia, quando i tecnici non potevano recarsi a casa delle persone.

Dell mette a disposizione online i manuali dei prodotti e le relative risorse, e lo fa da oltre un decennio. Sono inclusi i download di software, driver, BIOS, firmware, patch del sistema operativo e di sicurezza. Il Dell AR Assistant è un’estensione naturale dei manuali, in un formato facile da seguire e accessibile al cliente da qualsiasi luogo. Gli utenti dell’AR Assistant possono vedere i loro dispositivi e le modalità di riparazione grazie alla realtà aumentata e alle sovrapposizioni informative sulla macchina da riparare, sfruttando la fotocamera dello smartphone.

Tara Gale, Client Solutions Country Lead, Dell Technologies Ireland, ha dichiarato: “La riparabilità continua a essere una priorità per noi di Dell Technologies. Sappiamo che gli utenti vogliono avere un maggiore controllo sui loro dispositivi, anche per quanto riguarda le riparazioni. Da sempre sostenitrice della riparabilità, Dell ha cambiato le carte in tavola con un’applicazione di realtà aumentata per le riparazioni IT, il Dell AR Assistant, unica nel suo genere. Il nostro obiettivo è quello di consentire ai consumatori di riparare facilmente i dispositivi da soli, laddove ne siano in grado. In definitiva stiamo cercando di ridurre i tempi di riparazione per i problemi che possono essere risolti dagli stessi utenti, con un piccolo aiuto da parte di Dell“.

Microscopio digitale & Smartglasses per l’industria elettronica

Un settore altamente innovativo come quello dell’ industria elettronica, può beneficiare enormemente della sinergia tra il microscopio digitale e gli smartglasses. Nel nostro progetto realizzato per la IMW abbiamo connesso i due device in modo tale che il tecnico possa vedere direttamente dove sta operando senza necessariamente alzare ogni volta lo sguardo verso il monitor. Questo ha comportato un forte riduzione del carico cognitivo da parte dell’operatore con la conseguente riduzione degli errori.

Mirko Compagno

Nextech AR Solutions Announces Limited Early Access to HoloX – Telepresence Creator Platform

HoloX advances self-serve augmented reality human holograms

VANCOUVER, British Columbia–(BUSINESS WIRE)–Nextech AR Solutions Corp. (“Nextech” or the “Company”) (OTCQB: NEXCF) (NEO: NTAR) (CSE: NTAR) (FSE: N29), a diversified leading provider of augmented reality (“AR”) experience technologies and services, is pleased to announce an exclusive, early access program for users to create, view and share their human holograms. Program participation will support the development lifecycle of HoloX, leading to its full release expected in the third quarter of 2021. In addition to the smart packaging use case noted below, AR human holograms have uses within dating applications, speaker keynotes, remote support, virtual brand ambassadors for new product launches and episodic content for marketing.

For HoloX early access program – limited to 100 seats – and DEMO VIDEO, CLICK HERE.

“Our goal to allow anyone to create and share their own augmented reality human hologram – using just a smart phone – is the key step towards mass adoption,” commented Evan Gappelberg, Founder and CEO of Nextech AR Solutions. “With the ongoing advancements made to our applications, we continue to tie together our AR offerings into one platform that offers an array of AR solutions. The ability to create the feeling of presence – or being in the same room in real time – with a live-streaming human hologram is one of the core technologies that will lead the transformation towards spatial computing.”

“At Nextech AR, we are bridging physical and digital worlds,” commented Paul Duffy, President and Chairman of Nextech, creator of the HumaGram™ and holder of multiple patents for Augmented Reality and Holographic Telepresence. “AR is the new mass medium used for the benefit of humanity and I’m pleased to see it become a reality. We firmly believe that utilizing live streaming human holograms will result in an explosion of new use cases and is destined to play a significant role in global entertainment, commerce and learning.”

About HoloX

Powered by artificial intelligence and augmented reality, HoloX builds on the Company’s AiRShow app (Google PlayApple App Store) used in the music and entertainment industries where artists and public speakers utilize holograms to meet individual audience members where they are – often in their own homes. In addition, this technology has been applied successfully to smart packaging where AR human holograms are used to engage, enable and retain customers while increasing product sales and brand awareness. Nextech sees additional use cases with holographic dating applications, speaker keynotes, remote support, virtual brand ambassadors for new product launches and episodic content for marketing.

fonte: https://www.businesswire.com/news/home/20210616005465/en/Nextech-AR-Solutions-Announces-Limited-Early-Access-to-HoloX-%E2%80%93-Telepresence-Creator-Platform

LIKE BEAUTY IN FLAMES

LIKE BEAUTY IN FLAMES is a new work by renowned artist Jenny Holzer that presents her signature text-based art through the medium of augmented reality (AR). This unique artwork, made exclusively for the Guggenheim Museum Bilbao and accessed through a standalone application for mobile devices, provides three distinct AR experiences—two site-specific works that engage the Guggenheim Bilbao’s architecture and a third that can be accessed from anywhere in the world. LIKE BEAUTY IN FLAMES harnesses new technology in a continuation of what Holzer does best: placing thought-provoking texts in the public sphere in a democratic and accessible way.

For over four decades, Holzer has experimented with the written word, constantly innovating strategies for the display of her works. Texts—sometimes the artist’s own, other times quotations by writers she admires—appear in bold fonts chosen for their direct, approachable quality. Since 1996 she has projected words in light onto landscapes and architecture, an act of ephemeral graffiti that recalls her early practice of pasting anonymous Truisms posters on the streets of New York City. The Truisms, comprising over 250 single-sentence declarations, embody a range of voices and viewpoints, eliciting diverse responses. The artist has a long-standing interest in appropriating the modes and media of official communication, presenting compelling messages on news screens, bronze plaques, and stone benches as well as T-shirts, condom wrappers, and pencils. Her work has long occupied an important place in public art, often through temporary offerings such as arresting large-scale projections and roving digital billboard trucks emblazoned with her texts. Her voice remains resonant and courageous, inviting viewer engagement through the simple act of reading.

At the Guggenheim Bilbao, an AR version of one of Holzer’s signature LED signs glides through the central Atrium, the column bending and spiraling as Truisms in English, Spanish, Basque, and French scroll past. Each of the museum’s three floors provides a different experience, as the LED’s interaction with the building’s architecture shifts depending on one’s vantage point. Outside, AR projections appear on the museum’s facade from five locations around the campus in a virtual echo of the artist’s monumental 2019 work For Bilbao, which was presented in conjunction with her retrospective exhibition Thing Indescribable. The texts selected by Holzer for the AR projections are by other authors; the work’s title, LIKE BEAUTY IN FLAMES, is borrowed from Polish poet Anna Świrszczyńska’s poem “Beauty Dies,” one of the many arresting texts that Holzer has made into immaterial spectacle. The artwork’s final component can be accessed from anywhere in the world and enables users to see Holzer’s Truisms take form in space over any live view. This new possibility embodies the spirit that has informed Holzer’s practice throughout her long career of placing language in the public domain to spark reflection and contemplation.

Plano-Localizadores-app-holzer

THE IMPACT ON PUBLIC SPACE

The public space surrounding the Guggenheim Museum Bilbao is the setting for one of three augmented reality experiences designed as part of the app LIKE BEAUTY IN FLAMES. Bilbao residents and visitors can look for the QR codes at five points around the museum, open the app and enjoy virtual light projections on the facade.

ABOUT THE TECHNOLOGY

This immersive and dynamic artwork is made possible by a mobile app that uses AR to provide unlimited access to three virtual experiences. Harnessing augmented reality, advanced image-recognition technology, 3D spatial positioning and cutting-edge graphics features, users can watch the AR version of the LED sign move through the museum’s atrium. They can also see a recreation of Holzer’s nighttime projections, facilitated by their devices’ GPS and gyroscope features, which direct them to various points around the outside of the museum. Combining digital technologies with the real-world, this innovative mobile app developed by London-based digital agency Holition brings Holzer’s practice to users’ own mobile devices.

LIKE BEAUTY IN FLAMES demonstrates a commitment on the part of the Guggenheim Museum Bilbao to technology in the arts. This project marks the beginning of a three-year plan to present pioneering projects in which technology is central to the artwork.

fonte: https://www.guggenheim-bilbao.eus/la-coleccion/obras/like-beauty-in-flames

Extended Reality In Healthcare: 3 Reasons The Industry Must Get Ready For AR And VR

There is huge potential to apply extended reality (XR) technologies – namely, virtual reality (VR) and augmented reality (AR) – to healthcare. From self-care and wellbeing to treatment and even surgical procedures, XR is already helping to improve many aspects of healthcare. Sure, it’s early days, but the transformation is underway. And that means the healthcare industry must get ready.

Extended Reality In Healthcare: 3 Reasons The Industry Must Get Ready For AR And VR
Extended Reality In Healthcare: 3 Reasons The Industry Must Get Ready For AR And VR ADOBE STOCK

Here are three reasons why the healthcare industry should embrace XR technologies.

1. XR can improve wellbeing

The positive effects of mindfulness and meditation on overall health and wellbeing are well documented. As such, a plethora of meditation apps have sprung up to help people meditate and de-stress, often using relaxing sounds and guided instructions. Now, some of these solutions are incorporating VR to make guided meditations more immersive.

Guided Meditation VR is one such app. It comes with more than 100 ready-made meditations in beautiful virtual settings, such as a beach, a secluded forest, and even the top of a mountain. Meanwhile, gentle audio instructions guide you through various breathing exercises. If you’ve struggled with meditation because you can’t tune out the real world, then putting on a VR headset and using a VR meditation app could help you literally block out everything around you. I can certainly see the benefits of this.

2. XR can help to visualize medical data more effectively

Now let’s move onto an AR example. Because it overlays digital images and information onto the real-world view, AR is ideally suited to visualizing medical information – such as overlaying anatomical data onto the patient in real life. This can help clinicians carry out procedures in a faster, more accurate way.

A simple example comes from AccuVein, the global leader in vein visualization. Here, a map of veins is overlayed onto the surface of the patient’s skin to help health professionals find veins more easily (for starting IVs and drawing blood). The technology is primarily used to help clinicians find veins that otherwise couldn’t be seen or felt, and evidence shows that vein visualization dramatically improves clinicians’ ability to find these difficult veins on the first attempt – by as much as 98 percent in pediatric cases and 96 percent with adult patients.

3. XR can improve therapeutic treatments and even surgeries

Meanwhile, VR is proving to have serious therapeutic chops. Among other things, it can be used to immerse patients in relaxing simulated environments, which can help to calm them before (or even during) treatment, reduce pain and generally improve the experience of being in a hospital or clinical setting.

In one example, a team in Brazil used VR to help children beat their fear of vaccinations. The project, called VR Vaccine, involved children watching (via a VR headset) an animated adventure story, while a nurse (who can see the story unfolding on a separate screen) synchronizes the action of cleansing the skin and administering the injection with the story. The team’s research showed that most children feared the needle itself rather than the pain they might feel, so the VR approach was devised to essentially block out and distract from the needle. The project, the brainchild of Brazilian pharmacy chain Hermes Pardini, was so successful, the company has since installed VR headsets in all of its pharmacies to help with its vaccine campaigns.

But VR isn’t just for kids. For adult patients under regional anesthetic (i.e., they aren’t “put under” for the procedure), VR has been proven to help patients stay calm and relaxed during surgery. At St George’s Hospital in London, patients undergoing procedures with regional anesthetic were given the option of using a VR headset before and during their operation, which immersed them in calming virtual landscapes. This proved incredibly effective; a staggering 100 percent of participants said wearing the headset improved their overall hospital experience, 94 percent said they felt more relaxed, and 80 percent reported feeling less pain. Patients reported feeling so immersed in the experience; they weren’t even aware of being in the operating theater.

I hope these examples show how XR can help to enhance healthcare. As well as improving patient outcomes, VR and AR can improve accessibility for health and wellbeing services. With a growing population and people generally living longer lives, healthcare services around the world are coming under increasing pressure (and that’s without the impact of COVID-19). Our healthcare systems are already struggling. Waiting times can be long, access to certain services (such as mental health services) can be limited, and, depending on where you are in the world, medical treatment can be hugely expensive. We urgently need greater adoption of technology in healthcare to alleviate these pressures – and I believe XR has a key role to play in this.

fonte: https://www.forbes.com/sites/bernardmarr/2021/06/14/extended-reality-in-healthcare-3-reasons-the-industry-must-get-ready-for-ar-and-vr/?sh=25b6223573a4

HUA ZHIBING: LA PRIMA STUDENTESSA VIRTUALE CINESE

Hua Zhibing è la prima studentessa virtuale cinese thumbnail

Hua Zhibing, la prima studentessa virtuale cinese sviluppata dalla Tsinghua University ha incontrato i fan giovedì quando ha aperto un account sulla piattaforma cinese Sina Weibo (sito di microblogging cinese).

Nel primo post su Weibo, la studentessa virtuale di nome Hua Zhibing, ha salutato i netizen cinesi e ha detto che inizierà a studiare nel laboratorio di informatica della Tsinghua University, attirando ben duemila follower in appena nove ore.

Un video di presentazione di Hua Zhibing è stato pubblicato nel suo primo post su Weibo. In esso, una giovane ragazza vaga per il campus mentre una voce femminile si presenta. “Sono stata dipendente dalla letteratura e dall’arte da quando sono nata. Gli scienziati non solo mi hanno dato il mio aspetto e la mia voce, ma mi hanno anche insegnato a comporre”, ha detto Hua Zhibing, notando che la musica di sottofondo nel video è stata composta da lei.

Tang Jie, professore presso il Dipartimento di Informatica della Tsinghua University, uno dei principali sviluppatori di Hua Zhibing, ha detto durante un forum sull’intelligenza artificiale tenutosi tra martedì e giovedì a Pechino, che La ragazza nel video era una persona reale ma il volto e la voce erano virtualmente sintetizzati.

Hua Zhibing studentessa virtuale
Photo Credits: Weibo

Photo Credits: Weibo

Hua Zhibing si è ufficialmente registrata ed è diventata uno studentessa della Tsinghua University martedì. Gli sviluppatori hanno detto al forum che hanno grandi aspettative per Hua Zhibing, sperando che possa continuare ad imparare, esplorare e coltivare le abilità di creatività e comunicazione in futuro. Gli sviluppatori pensano anche ad un possibile impiego per la studentessa virtuale dopo la laurea.

Hua Zhibing si basa sull’ultima versione di un modello di “deep learning” sviluppato in Cina, Wudao 2.0, che letteralmente significa “comprensione delle leggi naturali”. Può elaborare 1,75 trilioni di parametri, battendo il record di 1,6 trilioni precedentemente stabilito dal modello di linguaggio AI Switch Transformer di Google.

fonte: https://www.globaltimes.cn/page/202106/1225392.shtml