Quantum Metaverse

The Metaverse and quantum computing are two emerging technological frontiers destined to radically transform how we interact with the digital world and solve complex problems. The synergy between these two technologies promises to unlock new levels of virtual experience and computational capabilities. In this short article, we will explore the potential impact of quantum computing on the Metaverse, highlighting possibilities for enhanced virtual environments, complex interactions, and customized user experiences. We will also see how quantum computing can contribute to greater security in the Metaverse through quantum cryptography, protecting user transactions and communications. Finally, we will underline the promising potential of the synergy between Metaverse and quantum computing in revolutionizing our digital life.

Introduction

The Metaverse, a parallel digital universe where people can interact in immersive 3D environments, requires enormous computational power and data processing speed to operate smoothly and without interruptions. Currently, the limits of classical computing technology represent a significant challenge for the Metaverse, especially in terms of scalability and complexity of virtual environments. On the other hand, quantum computing offers exponentially superior computational power compared to traditional computers, thanks to the principles of quantum mechanics. Quantum computers can perform calculations that would be impractical for classical computers, especially in terms of optimization and simulation.

The Synergy between Metaverse and Quantum Computing

The most exciting aspect of the synergy between Metaverse and quantum computing is the possibility of using quantum computers to manage the vast amounts of data generated within the Metaverse. This could translate into more realistic virtual environments, more complex interactions, and deeper user experiences. Quantum computing could also allow new levels of security in the Metaverse, using quantum cryptography to protect user transactions and communications. This synergy not only improves the user experience in the Metaverse, but also has the potential to stimulate innovation in fields such as graphic rendering optimization, artificial intelligence, and data analysis.

Quantum Computing and the Challenges of the Metaverse

Despite the potential benefits of quantum computing for the Metaverse, there are challenges that need to be addressed. Firstly, the development of practical and scalable quantum computers is still ongoing and their availability for widespread use in the Metaverse is not immediate. Furthermore, integrating quantum computing into existing Metaverse infrastructure and platforms requires careful consideration and adaptation. Also, the implications on quantum computing security, such as the vulnerability of traditional encryption methods to quantum attacks, must be addressed through the adoption of post-quantum cryptographic algorithms and quantum-resistant security methods.

Quantum Computing and the Future of the Metaverse

As the Metaverse continues to expand, quantum computing could become the main driver to overcome current technical limitations, paving the way for otherwise unthinkable virtual experiences. The combination of Metaverse and quantum computing has the potential to revolutionize the way we live, work, and play in the digital world. The collaborative and decentralized nature of the Metaverse aligns well with the transformative capabilities of quantum computing, creating a powerful synergy that can shape the future of the digital world.

Mirko Compagno

Stable Diffusion: Una chiave per svelare i misteri della mente?

Una ricerca all’avanguardia suggerisce che è possibile ricostruire immagini ad alta risoluzione dall’attività cerebrale umana, aprendo la strada a una tecnologia rivoluzionaria che un giorno potrebbe leggere la mente.

Wim Wenders aveva già immaginato qualcosa del genere nel 1991 nel film “Fino alla fine del mondo”. In questo film lo scienziato Farber crea un avveniristico dispositivo per registrare i sogni direttamente da chi sta dormendo. Questo ha portato alla nascita di una nuova forma di dipendenza: Claire, il ricercatore e suo figlio sono ossessionati dalla necessità di vedere i loro sogni registrati sulla macchina digitale. Questa macchina sarebbe poi stata in grado di fornire immagini attraverso la stimolazione biochimica del cervello, permettendo alla vista di una persona cieca di vedere.

In un altro film di fantascienza, Minority Report del 2002, Steven Spielberg immaginava un futuro in cui un “dipartimento di polizia pre-crimine” preveniva i crimini prima che accadessero, grazie alle visioni di tre chiaroveggenti geneticamente modificati. Se questo concetto poteva sembrare al di là del possibile, i recenti progressi delle neuroscienze ci stanno avvicinando alla generazione di immagini direttamente dal cervello umano.

Due ricercatori giapponesi, Yu Takagi e Shinji Nishimoto, hanno recentemente pubblicato un lavoro innovativo che esplora l’uso dei modelli di diffusione (classe di modelli di apprendimento automatico in grado di generare nuovi dati sulla base dei dati di addestramento.), in particolare “Stable Diffusion” un innovativo algoritmo, per creare immagini ad alta risoluzione dall’attività cerebrale umana. Utilizzando la risonanza magnetica funzionale (fMRI), lo studio mirava a scoprire la relazione tra i modelli di visione computerizzata e il sistema visivo umano, ricostruendo le esperienze visive dall’attività cerebrale.

La fMRI misura i cambiamenti del flusso sanguigno nel cervello per rilevare l’attività neuronale. I ricercatori sono riusciti a ricostruire immagini ad alta risoluzione senza bisogno di un addestramento estensivo o di una messa a punto dei modelli di apprendimento profondo. Si tratta di un risultato significativo, poiché i precedenti tentativi di ricostruire immagini visive dalla fMRI si basavano sull’addestramento di modelli generativi profondi su grandi insiemi di dati, un compito impegnativo nelle neuroscienze a causa delle dimensioni ridotte dei campioni.

I modelli di diffusione latente (LDM) offrono una soluzione a questa limitazione. I modelli LDM possono imparare a creare immagini trasformando semplici modelli di rumore in immagini complesse, utilizzando un set di immagini per imparare a creare nuove immagini simili. Una volta addestrato, il modello può creare immagini partendo da un modello di rumore casuale e trasformandolo gradualmente in un’immagine che sembra appartenere al set di dati.

Nel loro studio, Takagi e Nishimoto hanno mappato componenti specifiche della diffusione stabile a regioni cerebrali distinte, fornendo un’interpretazione quantitativa dei LDM dal punto di vista delle neuroscienze. Questa mappatura delle regioni cerebrali potrebbe avere implicazioni significative per la ricerca futura su come il cervello umano elabora le informazioni visive.

Anche se la tecnologia di lettura della mente può sembrare ancora fantascienza, questa ricerca ci porta un passo più vicino a un futuro in cui sarà possibile – chissà forse un giorno non proprio lontano – una comunicazione diretta tra il cervello e le macchine.

Per chi volesse approfondire: https://sites.google.com/view/stablediffusion-with-brain/.

C’è da sottolineare che lo studio non è più solo un preprint, ma è stato accettato da CVPR (Conference on Computer Vision and Pattern Recognition) conferenza annuale sulla visione artificiale e il riconoscimento dei modelli, considerata la più importante nel suo campo. https://cvpr2023.thecvf.com/.

Mirko Compagno


Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale 4.0 Internazionale.

L’intelligenza artificiale nel settore delle costruzioni

Il settore delle costruzioni è stato tradizionalmente afflitto da bassi livelli di innovazione, con conseguente produttività e crescita limitate. Mentre altri settori hanno abbracciato la trasformazione digitale e l’automazione, l’edilizia è stata lenta nell’adottare strumenti innovativi come l’intelligenza artificiale (AI).

Tuttavia, i potenziali benefici dell’IA nel settore delle costruzioni sono enormi, con applicazioni che riguardano la progettazione, le gare d’appalto, i finanziamenti, gli acquisti, le operazioni, la gestione degli asset e la trasformazione del modello di business. Riducendo gli sforamenti dei costi, migliorando la sicurezza in cantiere, semplificando la gestione dei piani di progetto e favorendo l’aumento della produttività nei cantieri, l’IA ha il potere di rivoluzionare il settore.

Si prevede che il mercato globale delle costruzioni registrerà una crescita dell’85%, raggiungendo i 15,5 trilioni di dollari entro il 2030. Con l’adozione dell’IA, il settore potrebbe potenzialmente aumentare la produttività dallo 0,8% all’1,4% all’anno, un miglioramento significativo rispetto alla crescita annuale minima di circa l’1% registrata negli ultimi due decenni.

La digitalizzazione del settore delle costruzioni è in ritardo rispetto ad altri settori, come quello manifatturiero, dei magazzini e della logistica, della vendita al dettaglio e delle telecomunicazioni. Tuttavia, il settore sta iniziando a riconoscere il potenziale dell’IA e sta investendo risorse significative in iniziative di ricerca e sviluppo (R&S) per far progredire le tecnologie IA all’interno del settore.

Ad esempio, il Building Information Modeling (BIM) è emerso come struttura digitale fondamentale per il settore delle costruzioni. Combinando l’IA con il BIM, le imprese edili possono semplificare e automatizzare diverse procedure, tra cui la progettazione automatizzata e la verifica delle regole, la ricostruzione 3D as-built, l’estrazione dei log degli eventi, l’analisi delle prestazioni degli edifici, la realtà virtuale e aumentata e il digital twin.

L’intelligenza artificiale può essere utilizzata anche per rilevare e valutare i rischi nel settore delle costruzioni, prevedere gli incidenti e lanciare avvisi tempestivi. Raccogliendo e analizzando i dati preziosi provenienti dagli indossabili intelligenti, è possibile sviluppare algoritmi di IA per affrontare potenziali problemi in loco e migliorare l’efficienza complessiva. Le intuizioni ricavate dall’analisi dei dati possono essere utilizzate per prendere decisioni strategiche, rafforzando ulteriormente gli sforzi di gestione del rischio nel settore.

Le imprese di costruzione stanno ponendo maggiore enfasi sulla riduzione degli sprechi e adottano approcci proattivi basati sui dati che sfruttano l’analisi avanzata con l’intelligenza artificiale per ridurre al minimo gli sprechi. Le strategie includono l’ottimizzazione della costruzione fuori sede, la selezione di materiali appropriati, l’implementazione di pratiche di approvvigionamento efficienti dal punto di vista dei rifiuti, la facilitazione degli sforzi di riutilizzo e recupero, la decostruzione e la promozione della flessibilità nei processi di costruzione.

I modelli di intelligenza artificiale sono uno strumento prezioso per prevedere con precisione i costi di costruzione e le tempistiche di progetto, riducendo l’impatto finanziario di stime imprecise di costi e tempi. Inoltre, le tecnologie di IA come l’apprendimento profondo, che emulano il cervello umano utilizzando modelli predittivi e statistiche, possono migliorare ulteriormente la precisione della previsione dei tempi e dei costi nei progetti edili.

L’uso dell’IA può anche migliorare la sicurezza sul lavoro utilizzando l’analisi predittiva nel settore delle costruzioni. Le tecnologie AI e BIM possono ridurre il rischio di incidenti e migliorare la sicurezza grazie a tecnologie di monitoraggio della sicurezza basate su sensori e indossabili. Questi strumenti possono identificare i potenziali pericoli in un cantiere e allertare i responsabili in anticipo per ridurre i rischi.

Se da un lato l’adozione dell’IA presenta notevoli opportunità per migliorare l’efficienza e la produttività del settore edile, dall’altro vi sono diverse sfide che ne impediscono l’adozione diffusa. Tra queste, fattori culturali, problemi di sicurezza, costi iniziali elevati, unicità del progetto, tecnologie robotiche, barriere istituzionali e condivisione delle informazioni.

Nonostante queste sfide, i vantaggi dell’IA nel settore delle costruzioni sono troppo significativi per essere ignorati. Man mano che un numero maggiore di imprese edili inizierà ad adottare l’IA, si verificherà un effetto a cascata che ridurrà l’impatto di questi ostacoli. Altri settori hanno già adottato l’IA per incrementare la produttività e l’edilizia ne seguirà sicuramente l’esempio.

Mirko Compagno


Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale 4.0 Internazionale.

BIM & Metaverso

Il Metaverso è uno spazio virtuale in cui le persone possono interagire, lavorare, giocare e persino acquistare terreni o opere d’arte virtuali. È un’evoluzione degli ecosistemi Internet e digitali, resa possibile dai dati, dall’XR (realtà estesa), dalla blockchain, dall’AI.

Possiamo immergerci in questo universo virtuale utilizzando visori di realtà virtuale, occhiali di realtà aumentata, app per cellulare e altri dispositivi. Il Metaverso rappresenta la convergenza tra il mondo digitale e quello fisico, comprensivo dell’utlizzo dell’attuale tecnologia, come la lettura di email sul cellulare, l’invio di messaggi, gli acquisti e l’ascolto di musica.

Il Building Information Modeling (BIM) è mira a creare e gestire rappresentazioni digitali dettagliate di edifici, infrastrutture e altri beni costruiti. Viene utilizzato per progettare, costruire e gestire queste strutture ed implica la creazione di un modello digitale di un edificio o di un’altra struttura che include informazioni sulla progettazione, la costruzione e il funzionamento. Questo modello può poi essere utilizzato per supportare diverse attività, come la progettazione, la costruzione e la gestione della struttura.

C’è una certa sovrapposizione tra il concetto di metaverso e BIM, poiché entrambi utilizzano tecnologie digitali per creare e gestire rappresentazioni virtuali di oggetti o spazi fisici. Proviamo a immaginare quali potrebbero essere i punti di incontro e di combinazione tra i due.

Progettazione e visualizzazione di edifici in 3D. Utilizzando il BIM, è possibile creare modelli digitali accurati degli edifici che possono essere esplorati in modo interattivo all’interno di un metaverso. Questo può essere utile per la progettazione di edifici e per la presentazione di progetti ai clienti.

Collaborazione e coordinamento dei progetti. Il metaverso può essere utilizzato come piattaforma di collaborazione per i progetti di costruzione, permettendo ai team di lavorare insieme e condividere i modelli BIM in tempo reale.

Simulazione e analisi della performance. Utilizzando il BIM e il metaverso, è possibile creare simulazioni di come un edificio funzionerà in diverse condizioni climatiche e di utilizzo, permettendo di valutare la performance dell’edificio e identificare eventuali problemi prima della costruzione.

Gestione e manutenzione degli edifici. Il metaverso può essere utilizzato come piattaforma per la gestione e la manutenzione degli edifici, permettendo di monitorare le prestazioni degli edifici e pianificare gli interventi di manutenzione necessari.

Formazione e istruzione. Il metaverso può essere utilizzato come strumento di formazione per gli studenti di architettura e ingegneria, permettendo loro di esplorare edifici virtuali e imparare come funzionano in modo interattivo.

In sintesi, l’utilizzo sinergico del BIM e del metaverso può contribuire a rendere la gestione e la manutenzione degli edifici più efficiente e meno dispendiosa, permettendo di identificare e risolvere i problemi in modo tempestivo e garatendo allo stesso tempo sia la sicurezza che il funzionamento ottimale degli edifici.

Mirko Compagno


This work is licensed under a Creative Commons Attribution 4.0 International License.


Occhio, il futuro è già presente!

Il CEO di Mojo Vision, Drew Perkins, ha indossato per la prima volta il prototipo di lente a contatto in realtà aumentata.

Il futuro è molto più vicino di quanto la maggior parte delle persone pensi. Anzi, il futuro è già qui. L’ho visto. L’ho indossato. Funziona. È successo tutto nei laboratori di Mojo Vision a Saratoga, in California, il 23 giugno 2022, ed è stata la prima dimostrazione di una lente a contatto in realtà aumentata completa di funzioni. Con mia grande gioia, ho scoperto che potevo interagire con una bussola per orientarmi, visualizzare immagini e utilizzare un teleprompter sullo schermo per leggere una citazione…” Queste sono le parole di Drew Perkins CEO della Mojo Vision startup americana che con il proprio team di ingegneri ha lavorato ai confini della fisica e della miniaturizzazione dell’elettronica riuscendo a realizzare uno schermo microLED (da 14.000 pixel per pollice e con un diametro inferiore a 0,5 mm e un pixel-pitch di 1,8 micron) delle dimensioni di un granello di sabbia.

Di recente è stato annunciato il prototipo avanzato di Mojo Lens, che integra una serie di nuove funzionalità hardware e tecnologie innovative integrate direttamente nella lente, tra cui un nuovo e avanzato display, il tracciamento oculare e le comunicazioni. L’ultimo ostacolo tecnico per indossare la lente è stato quello di garantire che i sistemi di alimentazione e di comunicazione radio funzionassero senza fili.

L’interfaccia delle Mojo Lens è basata sul tracciamento degli occhi, che consente agli utenti di accedere ai contenuti e selezionare gli elementi senza l’ausilio di controller manuali o gestuali, ma solo con il movimento naturale degli occhi.

Dopo aver completato i test preclinici e ridotto i potenziali rischi per la sicurezza, si è potuto procedere alla sperimentazione dell’utilizzo della lente in realtà aumentata. I prossimi passi della Mojo Vision sarà quello di perfezionare le sue lenti per sottoporli alla FDA (Federal Drug Administration) e ottenerne l’approvazione per il mercato.

Vuoi vedere come disegna un artista? Guarda il suo avatar

Il pittore tedesco Albert Oehlen ha collaborato con specialisti della VR (VIVE Arts, the Serpentine e MacInnes Studio) per creare un’opera per Art Basel.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

“Basement Drawing” trasporta lo spettatore al centro della sua pratica artistica accompagnata dalla musica composta dallo stesso Oehlen e dal suo avatar altamente realistico. Il pubblico può osservare il processo creativo di Oehlen con il visore “VIVE Focus 3”.

Il pittore tedesco Albert Oehlen è un artista molto riservato, ma anche un artista che si esprime in molte forme e che fa della tecnologia un ulteriore strumento per la propria arte. Quando a Oehlen è stato chiesto se si sarebbe fatto riprendere nell’atto di dipingere, ha preferito farsi rappresentare da un avatar digitale all’interno del suo studio di Pasadena in California.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

“Ho pensato”, ha detto, “che sarebbe stato bello avere un avatar che potesse dipingere al posto mio e che mi avrebbe anche evitato di essere fotografato”. In “Basement Drawing” lo spettatore si trova faccia a faccia con un avatar iperrealistico di Oehlen. L’Oehlen virtuale – realizzato da MacInnes e dal suo team – avanza poi verso un tavolo e si siede per fare un disegno a penna e inchiostro, in sincronia con un brano composto dall’artista.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

L’Oehlen virtuale si trova per la prima volta in piedi in uno studio seminterrato dai soffitti bassi e ricco di dettagli. Lo sguardo della figura digitale è rilassato, interrogativo. L’avatar annuisce bruscamente con la testa a tempo di musica, mentre disegna come un automa, in quello che sembra un omaggio alla marionetta meccanica.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

Su un lato dello spazio un autoritratto si anima per mostrare l’artista che beve “cofftea”, una bevanda ibrida di tè e caffè ideata in collaborazione con Oehlen “che non ti farà mai più dormire”.

Proposito di questa esperienza Oehlen ha detto che “essere faccia a faccia con il proprio avatar non è bello. Ma lo preferisco piuttosto che essere faccia a faccia con gli spettatori”. “Credo che Albert sia rimasto un po’ scioccato nel vedere se stesso come un avatar 3D”, dice MacInnes. “Nella vita reale non riusciamo mai a sperimentare veramente noi stessi dall’esterno, fisicamente interattivi in 3D”. MacInnes e Oehlen stanno lavorando insieme su altri usi del suo avatar digitale.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

“Ho in programma di realizzare un’ulteriore esperienza virtuale”, dice Oehlen, ma sono “così estremi che non posso parlarne”.

Mirko Compagno

Microscopio digitale & Smartglasses per l’industria elettronica

Un settore altamente innovativo come quello dell’ industria elettronica, può beneficiare enormemente della sinergia tra il microscopio digitale e gli smartglasses. Nel nostro progetto realizzato per la IMW abbiamo connesso i due device in modo tale che il tecnico possa vedere direttamente dove sta operando senza necessariamente alzare ogni volta lo sguardo verso il monitor. Questo ha comportato un forte riduzione del carico cognitivo da parte dell’operatore con la conseguente riduzione degli errori.

Mirko Compagno

Covid and Big Tech are driving Augmented Reality into healthcare

Augmented Reality tech is helping hospitals to deliver better patient care while at the same time cutting down on Covid infection danger, as Giacomo Lee reports.

Covid and Big Tech are driving Augmented Reality into healthcare

Alder Hey Children’s Hospital in Liverpool has added to a long list of “firsts” in its century-long history by making innovative use of Augmented Reality (AR) technology to help its staff deliver better care.

“I was in the operating theatre performing a complex repair on a little heart, no bigger than the size of a strawberry,” says Rafael Guerrero, heart unit director and chief of congenital cardiac surgery at Alder Hey, one of the largest children’s hospitals in the UK.

Guerrero, who is also clinical director of innovation at Alder Hey, is recounting how he strapped on a pair of Microsoft’s HoloLens 2 smartglasses during surgery last year, bringing a new kind of cutting edge into the operating theatre – that of augmented reality. Transmitting the view of the patient’s heart live through HoloLens to colleagues nowhere nearby, as well as reviewing the echocardiogram at the same time, the procedure was another example of groundbreaking healthcare in Alder Hey’s wards.

In those wards there’s an obvious risk that Covid stalks the corridors, but older stalwarts such as MRSA remain equally infectious. As such, Alder Hey, the first hospital to test penicillin and to establish a neo-natal unit in the UK, wanted to use immersive, augmented and mixed reality (MR) technology to reduce the amount of physical contact between hospital staff and the public.

Working with Insight’s FastStart service to find technological solutions, the hospital primarily needed a way to communicate and share images and real life scenarios with other practitioners, regardless of location. This had to be done through video and audio in real time 24/7, not only for remote patient care, but also virtual ward rounds and staff training.

Wearing a HoloLens 2 device running Microsoft’s remote assist software Dynamics 365, Guerrero could perform his rounds alone. Other specialists joined in using the Teams app, seeing exactly what the clinician saw, along with three-dimensional (3D) echocardiography.

Alongside this augmented reality including real-life video, there was the ability for 2-way audio/video communication and sharing other visual content. Other important tasks  – such as updating patient records  – could also be redistributed among the team to save time as Guerrero worked.

“Using HoloLens, we have already demonstrated the potential of mixed-reality healthcare applications to minimise the number of staff required to be in contact with patients; share expertise in the shortest possible time and from any location; and, ultimately, increase the quality of care,”.

Guerrero believes these applications would allow Alder Hey to support clinicians and patients in other hospitals and in the community, without the need for travel in either direction, thus helping efficiency and expertise-sharing in the NHS.

“While Covid-19 has acted as a catalyst, mixed reality devices that can support collaboration, mobility and remote learning need to be part of the technology that we use to drive a healthcare revolution,” says the specialist.

The Augmented Reality revolution in health

GlobalData forecasts that the global AR market will be worth $76bn by 2030, up from $4bn in 2018. As GlobalData analysts write in a recent report on AR in the health industry, “the healthcare sector is undergoing a digital transformation, fuelled by changing healthcare payor and provider need … AR is gradually making its way into the healthcare sector.”

This revolution is coming about for various reasons in more than one area of healthcare. Another application of AR is aiding visualisation during minimally invasive surgery (MIS).

Startups such as Medivis and Proprio are selling MR solutions in the surgical space, with the latter recently talking to Verdict about its AR and artificial intelligence-combined solution. Surgeons can also benefit from the augmented reality “x-ray vision” granted by US brand Augmedix, with an AR navigation tech that allows them to see a patient’s anatomy through skin and tissue whilst operating.

AR is a useful surgeon’s aid for the the visualisation of complex biological processes. EchoPixel’s True 3D software can help healthcare professionals visualise and interact with 3D images that depict human tissue and organs in open space as if they were real objects. Novarad’s OpenSight solution renders 2D, 3D and 4D images of patients interactively, while accurately overlaying them directly onto the patient’s body. Both solutions allow for more accurate surgical planning.

Credit: sh22 via Getty Images

Distant doctors, digital health

The Alder Hey case study, though, shows how AR can be useful when integrated into telemedicine to help healthcare specialists work remotely. The same can apply to medical students: Imperial College London pre-empted Alder Hey somewhat in early 2020 by creating the world’s first virtual ward round for medical students, who watched as a HoloLens-equipped doctor examined a patient.

In times of social distancing, medical students can improve their knowledge and skills by accessing human body models created by AR. Solutions like those from EchoPixel allow medical students to familiarize themselves with the human anatomy and practice surgeries on virtual patients.

Real-life flesh and blood patients can also benefit from an augmented reality when distanced from doctors. A recent GlobalData report on digital health solutions in neurology suggests that virtual reality (VR) and AR are “well placed as a therapy product for neuropsychological conditions because virtual simulations of the outside world are highly realistic and immersive, as well as being non-invasive and non-pharmacological.”

Simulations offer less time-consuming options in comparison to some pharmacological interventions due to their immersive attributes, making for highly engaging forms of therapy.

Indeed, augmented reality technology appears in therapies targeting everything from chronic pain management, mental health and addiction, to behavioural conditions and neurorehabilitation. AR is also used effectively in exposure therapy, overlaying the hands of insect-phobic patients in live video with digital cockroaches and spiders. Cognoa’s Superpower Glass wearable meanwhile, a device based on Google Glass, helps autistic children better understand facial expressions through the use of emojis overlaid on the lens.

Home invasion

The rise of AR in health comes as VR/AR headsets and smart glasses become cheaper, and more AR apps appear on smartphones. Some brands like XRHealth are even sending out headsets to customers to treat ADHD using extended reality (XR). With FDA approval and products covered by insurance for over 50 million people in the US, XRHealth was able to trial a service which also offers a personalised care plan, in-app messaging and video calls with a dedicated clinician. While headsets may be an alien concept in the common household, especially so with regards to healthcare, teleconferencing with a medical professional is perhaps more agreeable to consumers after the pandemic’s video boom.

Medical professionals themselves are also succumbing to AR’s charms. A 2021 poll shared in GlobalData’s report on digital health in neurology found that 18% of 109 respondents in the industry thought AR/VR solutions would be most suitable to treat mental and behavioural health conditions such as depression, anxiety and substance abuse compared to other technologies. Meanwhile 15% of 110 respondents believed AR/VR technologies would be most suitable for neurological conditions such as Alzheimer’s and Parkinson’s.

Credit: sh22 via Getty Images

Big Tech is pushing Augmented Reality in health

Besides the approval of the medical community, AR will also need Big Tech’s money to fully push it through the hospital doors. The adoption of HoloLens devices by Alder Hey and other hospitals shows that Microsoft already has one foot in the door. The tech company’s recent $19.7bn purchase of Nuance Communications will also help.

UK-based Nuance, a speech-recognition company best known for having provided Siri’s speech recognition engine, offers enterprise AI tools that transcribe doctors’ notes and visits during a working day. It isn’t much of a stretch to see that tech mixed with smart glasses: Healthcare professionals regularly require access to information systems, whilst often needing their hands free.

Here AR can reduce the burnout physicians face as it provides easy and quick access to real-time information, thus easing administrative burden. Data from the US suggests that more than 50% of the physician workforce is burned out, with excessive admin a major contributory factor; such burnout can affect safety and the quality of care in hospitals, and also increase healthcare costs.

With smart glasses augmenting reality, staff can work and take notes without the added weight of a physical notepad. This also allows for more accuracy as notes are taken in real-time, rather than the staff trying to recall information after patient interactions.

For Guerrero, this easier way of dealing with information was one reason why the HoloLens experiment was a successful one in Alder Hey.

“Ultimately, the success of any procedure is down to the skills of the surgeon and the team,” he tells Verdict. “Although new technology is used as a tool or aid for the surgeon to use, there are other ways of accessing the same information. It just takes longer and is not as accessible.”

In general, AR in medical devices is led by smaller vendors specialising in software and apps, according to GlobalData analyst Aliyah Farouk. But big tech players are investing in healthcare and working with the industry’s giants. Roche for example partnered with Samsung’s AR/VR subsidiary Harman in 2020.

“It’s difficult to say the extent of investment or impact in augmented healthcare as this is still a largely untapped market,” says Farouk. “You can look at areas where AR is making a big difference in tech, e.g. smart glasses and whether these devices are being used for healthcare purposes. For example, Google relaunched Google Glass Enterprise in 2017 targeting healthcare companies.

“Harman’s collaboration with Roche and Microsoft’s recent purchase of Nuance is reflective of this trend where healthcare companies are increasing their connectivity/digitalization and tech companies are capitalizing on this.”

fonte: https://www.pharmaceutical-technology.com/features/covid-and-big-tech-are-driving-augmented-reality-into-healthcare/

Nextech AR Solutions Announces Limited Early Access to HoloX – Telepresence Creator Platform

HoloX advances self-serve augmented reality human holograms

VANCOUVER, British Columbia–(BUSINESS WIRE)–Nextech AR Solutions Corp. (“Nextech” or the “Company”) (OTCQB: NEXCF) (NEO: NTAR) (CSE: NTAR) (FSE: N29), a diversified leading provider of augmented reality (“AR”) experience technologies and services, is pleased to announce an exclusive, early access program for users to create, view and share their human holograms. Program participation will support the development lifecycle of HoloX, leading to its full release expected in the third quarter of 2021. In addition to the smart packaging use case noted below, AR human holograms have uses within dating applications, speaker keynotes, remote support, virtual brand ambassadors for new product launches and episodic content for marketing.

For HoloX early access program – limited to 100 seats – and DEMO VIDEO, CLICK HERE.

“Our goal to allow anyone to create and share their own augmented reality human hologram – using just a smart phone – is the key step towards mass adoption,” commented Evan Gappelberg, Founder and CEO of Nextech AR Solutions. “With the ongoing advancements made to our applications, we continue to tie together our AR offerings into one platform that offers an array of AR solutions. The ability to create the feeling of presence – or being in the same room in real time – with a live-streaming human hologram is one of the core technologies that will lead the transformation towards spatial computing.”

“At Nextech AR, we are bridging physical and digital worlds,” commented Paul Duffy, President and Chairman of Nextech, creator of the HumaGram™ and holder of multiple patents for Augmented Reality and Holographic Telepresence. “AR is the new mass medium used for the benefit of humanity and I’m pleased to see it become a reality. We firmly believe that utilizing live streaming human holograms will result in an explosion of new use cases and is destined to play a significant role in global entertainment, commerce and learning.”

About HoloX

Powered by artificial intelligence and augmented reality, HoloX builds on the Company’s AiRShow app (Google PlayApple App Store) used in the music and entertainment industries where artists and public speakers utilize holograms to meet individual audience members where they are – often in their own homes. In addition, this technology has been applied successfully to smart packaging where AR human holograms are used to engage, enable and retain customers while increasing product sales and brand awareness. Nextech sees additional use cases with holographic dating applications, speaker keynotes, remote support, virtual brand ambassadors for new product launches and episodic content for marketing.

fonte: https://www.businesswire.com/news/home/20210616005465/en/Nextech-AR-Solutions-Announces-Limited-Early-Access-to-HoloX-%E2%80%93-Telepresence-Creator-Platform