L’alba dei robot sorgerà tra 45 anni

Solo nel 2062 gli automi potranno apprendere unicamente attraverso l’esperienza diretta, proprio come gli esseri umani. Parola di ricercatori

Robot, Sun, Spazio, Lontano, Fantascienza, Utopia

Isaia amava minacciare gli uomini con la promessa dell’ira di Dio; ma tra le sue profezie si incunea un momento di poesia, e di speranza, quando risuona la domanda «Sentinella, a che punto è la notte?». Nel disorientamento dei nostri giorni, tra l’euforia per il progresso tecnologico e il terrore per le ricadute sul lavoro e sulla riservatezza dei dati personali, un interrogativo molto simile è stato posto da cinque ricercatori della Oxford e della Yale University, in un’indagine pubblicata il 31 maggio: When Will Artificial Intelligence Exceed Human Performance? Quando l’intelligenza artificiale supererà le prestazioni dell’uomo?

I loro interlocutori sono stati i 1.634 ricercatori che nel 2015 hanno presentato almeno una pubblicazione alle conferenze Nips e Icml, i più importanti convegni di intelligenza artificiale del mondo. Sono loro i guardiani del nostro futuro planetario; ma solo il 21% ha onorato il compito rispondendo alle domande del questionario: si tratta pur sempre di 350 studiosi, un numero non disprezzabile. Quando si comincerà a intravedere l’alba di un nuovo mondo in cui gli automi saranno dotati di un’emotività e di una personalità paragonabile a quella degli esseri umani? Arriverà il giorno in cui si infurieranno contro di noi, e pianificheranno uno sciopero per protestare contro la condizione di schiavitù in cui li avremo segregati?

La domanda su quanto durerà ancora la notte dell’incoscienza dei robot, rinchiusi nelle istruzioni del software, senza libertà e senza fantasia, si declina in un insieme di interrogativi su tre aree: l’evoluzione dell’ingegneria del pensiero, lo scavalcamento degli uomini in abilità professionali specifiche, le conseguenze sociali del progresso dell’intelligenza artificiale.

L’acronimo Hlmi («intelligenza di alto livello delle macchine») denota la fine del sonno dogmatico, che imprigiona i calcolatori nel determinismo delle istruzioni sequenziate nel programma: la soglia sarà attraversata quando gli automi saranno in grado di svolgere i compiti assegnati meglio (e a un costo inferiore) degli agenti umani, senza soccorsi dall’esterno. In altre parole, senza iniezioni sleali di memoria enciclopedica, in cui siano capitalizzate informazioni non elaborate dall’esperienza vissuta del robot. Dovranno imparare da soli, come fanno i bambini. È una soglia che ha animato le utopie negative della fantascienza, ogni volta in cui è sorto il sospetto che l’alba del pensiero informatico possa coincidere con la discesa della notte sulla società degli uomini, consegnata ad un’epoca di miseria e di schiavitù.

 

Il futuro tra 45 anni

A colpo d’occhio, la soglia dell’Intelligenza di alto livello le macchine potrebbero attraversarla tra 45 anni, con una probabilità del 50%; anticiparla tra nove anni, riduce le possibilità al 10%. Ma se si disaggrega il dato complessivo, emergono le differenze tra le stime degli esperti sulle due sponde dell’Oceano Pacifico. Gli specialisti americani allontanano il raggiungimento del risultato a 74 anni; per i cinesi, invece, la previsione deve essere anticipata a 30 anni – meno della metà del tempo pronosticato dai colleghi occidentali.

Questo dato contiene un’informazione che ha a che fare con le strategie politiche di investimento dei diversi paesi: quando la domanda verte sul risultato generale, il pensiero viene condizionato dal volume di investimenti e dalla pressione dei finanziatori, più che dall’analisi degli aspetti cognitivi, ingegneristici e politici. In Asia il maggiore ottimismo di chi lavora sull’intelligenza artificiale dipende da un fattore esclusivamente finanziario: l’I.A. è uno dei settori che il governo di Pechino ha identificato come strategico per il successo economico della nazione e su cui convergono valanghe di denari. Il fatto che Donald Trump abbia manifestato il suo entusiasmo soprattutto per l’estrazione di carbone, e abbia investito sul lavoro dei esseri umani impegnati nelle miniere di carbone, non ha invece contribuito al risveglio né dell’intelligenza artificiale, né tanto meno di quella naturale.

 

Prima sfida: i videogiochi

La soglia dell’Hmli non si attraversa tutta d’un colpo. Secondo le nostre sentinelle, l’arrivo della nuova era in cui le macchine saranno più intelligenti di noi comincerà ad annunciarsi nelle partite di Angry Birds: l’abilità dei computer nel manovrare il videogame dovrebbe superare quella umana entro il 2019, con una probabilità del 50%. Secondo i più ottimisti, gli uccellini furiosi della Rovio Entertainment potrebbero essere dominati dalle competenze del pensiero informatico entro la fine di quest’anno; per i più pessimisti, l’appuntamento con l’incoronazione di un campione digitale deve essere rinviato al 2024.

La destrezza per interagire con tutti i giochi della Atari, meglio dei ragazzini in carne ed ossa, deve attendere ancora poco meno di otto anni, sempre con una probabilità del 50%; per un esercizio umile – ma prezioso – come il ripiegamento della biancheria (ma con il talento di un commesso), la scadenza è fissata al 2020. Le madri preferirebbero che i pargoli mettessero in ordine la stanza prima di divertirsi; le macchine, come i giovani, antepongono il gioco al dovere.

Se si passa a incarichi di maggiore vocazione intellettuale, la trascrizione di un discorso orale e la traduzione da una lingua all’altra (ma solo al livello di competenza di un non-professionista), sono attese tra sette anni – sempre con una probabilità del 50%. Nel 2025 gli automi cominceranno a scrivere tesine di livello universitario, e sapranno giustificare le mosse eseguite per vincere le partite dei videogame: come nella definizione di Thomas Kuhn, anche la scienza in fondo è un gioco, un rompicapo, perlomeno quando sta attraversano un periodo «ordinario».

Passeranno poco più di dieci anni prima che una macchina sappia comporre una canzone, paragonabile a quelle che occupano le prime 40 posizioni nelle classifiche di vendita; lo farà mentre imparerà a guidare un camion meglio di un pilota umano, ma le serviranno altri tre anni per riuscire a persuadere i clienti, con il talento di un venditore professionista. Vedremo come le learning machine se la caveranno con l’attitudine all’omissione di verità, e con l’inclinazione alla truffa: l’esperimento Tay di Microsoft, l’intelligenza artificiale diventata razzista dopo meno di 24 ore di dialoghi su Twitter, legittima più di una preoccupazione.

 

L’ottimismo degli scienziati

I risultati più sofisticati sono rinviati di oltre un quarto di secolo. La redazione di un libro, che possa ambire a entrare negli elenchi dei bestseller del New York Times, richiederà ancora più di trent’anni di sviluppi; per arrivare alla prima generazione di chirurghi e di matematici meccanici, occorrerà aggiungere altri cinque anni di progressi. Per chi ha la mia età, l’attesa di vita promette di arrivare a vedere questi successi – ma nient’altro – prima di lasciare questo mondo.

Gli esperti di intelligenza artificiale nutrono un’opinione di sé così alta, da ritenere che nascerà un ricercatore (informatico) di AI solo tra ottant’anni: saranno già trascorsi cinquant’anni dalla realizzazione dell’automa che saprà imitare tutte le facoltà di un uomo medio, e ne serviranno altri quaranta per un robot che riuscirà a superare, per doti cognitive e maestria pratica, i migliori specialisti di qualunque attività professionale.

 

fonte: http://www.pagina99.it/2017/06/20/robot-apprendimento-esperienza-machine-learning-ricerca/

Realtà virtuale: esplora il corpo e stampa in 3D

 

Grazie alle nuove tecnologie presentate da GE Healthcare, divisione medicale di General Electric, al Congresso europeo di radiologia in corso a Vienna, la realtà medica potrebbe presto superare l’immaginazione degli appassionati di fantascienza.

Si va dai viaggi all’interno del corpo umano grazie a visori per la realtà virtuale, a modelli 3D del cuore, completi di dettagliate riproduzioni di valvole, atri e ventricoli.

Non capita spesso che i videogiochi ispirino innovazioni pioneristiche in grado di rivoluzionare il modo in cui i medici possono visualizzare l’anatomia umana e diagnosticare eventuali patologie.

Eppure è ciò che è successo a Ludovic Avot, UX Designer di GE Healthcare, e al collega Yannick Le Berre, ingegnere specializzato in imaging medico, mentre giocavano a ‘Fallout 4’, videogame che accompagna i giocatori in una Boston post-apocalittica nei panni di un personaggio chiamato ‘Unico sopravvissuto’.

Immersi nella cupa ambientazione del gioco, i due hanno avuto un’illuminazione: cosa succederebbe se si utilizzasse una tecnologia di realtà virtuale simile a quella applicata ai videogiochi per consentire ai medici di esplorare il corpo umano dall’interno?

Così, combinando strumenti digitali per il design in realtà virtuale e programmi propri del mondo dei videogiochi con dettagliate informazioni 3D ottenute da esami effettuati con Tac e risonanze magnetiche, gli ingegneri hanno realizzato un software che consente l’esplorazione di immagini cliniche complete di colore, illuminazione e consistenza dei tessuti.

Utilizzando un controller e visori per la realtà virtuale come gli Oculus Rift, i medici possono così entrare in una specifica parte del corpo ed esaminarne eventuali anomalie come polipi, tumori e lesioni, oppure investigare al meglio sulle possibili cause dei sintomi del caso.

Secondo un report annuale del PwC Health Research Institute, la realtà virtuale è una delle otto tecnologie che rappresentano una tendenza in crescita per la nuova generazione di innovatori in campo sanitario. Il prototipo è utilizzato da alcuni clienti in Francia per aiutare i dottori a studiare l’anatomia umana e diagnosticare patologie.

“Siamo stati ispirati dalle tecniche per rendering fotorealistici dei videogiochi di ultima generazione”, ha spiegato Avot. “Abbiamo cercato di sfruttare il grandioso potenziale grafico e interattivo delle più moderne tecnologie alla base dei videogame per mostrare le immagini ottenute tramite esami medici nel dettaglio”.

Per i radiologi questo strumento può rappresentare “un nuovo modo per osservare immagini cliniche complesse e interagire con esse. Offre la possibilità di effettuare zoom più estesi, un’opportunità che può rivelarsi molto utile in casi specifici, come ad esempio lo studio del cuore dei bambini. Inoltre gli effetti mettono in risalto il volume e aiutano a comprendere meglio le forme delle strutture anatomiche”.

Oltre che in ambito diagnostico, la tecnologia potrebbe essere utilizzata per la fase preparatoria degli interventi chirurgici più complessi, ma anche per secondi pareri mirati a verificare i risultati di un’operazione.

Al Congresso europeo di radiologia, inoltre, GE Healthcare presenta la stampa di modelli anatomici 3D con l’ausilio della AW Workstation, piattaforma di gestione dati per immagini cliniche ottenute tramite Tac, risonanze magnetiche e Pet.

Una ricerca di IndustryArc, società specializzata in analisi di mercato, stima ad esempio che il mercato della stampa 3D applicata alla sanità possa crescere del 18% annuo fino al 2020.

Nonostante le tante richieste per una tecnologia del genere, molti medici sono ancora insicuri sul come incorporare l’utilizzo della stampa 3D nel loro lavoro. “La soluzione di GE Healthcare è molto semplice”, ha aggiunto Digard. “Con la stampa 3D è possibile riprodurre facilmente qualsiasi cosa: un osso, un dito, una mano ma anche un cuore, un’aorta o le altre arterie”.

Quello presentato a Vienna è soltanto il primo modello del sistema, ma l’azienda pensa già a nuove versioni che potranno spingere i limiti della tecnologia ancora più avanti.

See on Scoop.itAugmented World

 

Google Earth VR: conoscere il mondo con la realtà virtuale

See on Scoop.itAugmented World

Con Google Earth VR puoi visitare i luoghi più affascinanti del mondo direttamente in prima persona. Scopri le app utili per un viaggio 3D intorno al mondo.

Un viaggio virtuale grazie a Google Earth VR, questa è la promessa: la rivoluzione della realtà aumentata e virtuale prosegue. Le moderne tecnologie VR offrono un incentivo incredibile per la fruizione full-immersive dei contenuti video, ma anche dei giochi e di ogni altra esperienza in cui si richieda l’intrattenimento in prima persona. Lo sa bene la società di Mountain View, che ha perciò deciso di implementare questo tipo di tecnologie in merito al suo prodotto Google Earth, in modo tale da riuscire a ultimare un prodotto in grado di garantire un viaggio intorno al mondo direttamente da casa propria e con l’utilizzo di un semplice visore per la realtà virtuale.

Apple has a secret team working to make the iPhone’s camera a portal to augmented reality

See on Scoop.itAugmented World

For the First time we take our camera rig outside and shoot what our optics can do in daytime conditions. No tricks or post effects were used in this video and it was shot with a iPhone 6.

Apple is integrating augmented reality technology into the iPhone’s camera app, a person familiar with the matter told Business Insider. The effort, which involves teams from several acquired startups, reflects Apple’s near-term desire to put augmented reality technology into consumers’ hands even as it develops special glasses that could eventually change the way people perceive their surroundings.

Apple also recently hired an expert in head-mounted displays, in the latest sign of its longer-term glasses initiative. Augmented reality is an exploding field in technology in which digital objects are superimposed onto the real world. A view of a city street for instance can be enriched with a map for directions, a coupon for a nearby store or an animated character in a video game.

The ultimate goal is a pair of smart glasses, and companies including Google, Microsoft, Facebook, Apple and Snapchat are all actively developing or exploring such a product. But in the near-term most popular augmented reality applications will take place on a smartphone, as was the case with this summer’s smash hit Pokemon Go app. Point and recognize By adding AR technology into the iPhone’s camera software, Apple wants consumers to be able to point the phone at a real-world object and have it be recognized, according to the person familiar with the matter.

That would require creating or licensing a database of 3D objects. Another early feature for Apple’s AR integration into the camera app could be to recognize and manipulate people’s faces. Apple integrated facial recognition technology into the photos app in the most recent version of its iOS software, and purchased FaceShift, a company with similar technology in 2015. Apple has acquired several AR and virtual reality technology companies in recent years including Metaio, in February 2014 and Flyby Media in January 2016.

The employees from both groups are now working in Apple’s camera group. Eventually, the person said, after the AR features are built into the iPhone camera app, Apple will release the technology behind them as an SDK for app developers, like it did with its Touch ID fingerprint sensor. At that point, Apple will become a competitor to companies like Vuforia and Blippar. Apple declined to comment. Several leaders in the augmented reality space have previously said they expect Apple to integrate AR into the next version of iOS.

Apple is also working on a pair of skinny, stylish smart glasses that pairs to an iPhone to display contextual information, Bloomberg reported on Monday and sources have told Business Insider. However, the timeline for the device is far into the future — 2018 or later, according to the Bloomberg report.

But there are some signs that the project has moved out of the exploration labs and into a more advanced stage in which Apple is exploring production. John Border, who lists his title as “senior optics manufacturing exploration engineer,” joined Apple in September, according to his LinkedIn profile. Border’s bio describes him as a “subject matter expert in the fields of head-worn displays, plastic optics manufacturing, camera systems and image sensors.”

Before joining Apple, he was chief engineer at Osterhout Design Group, a small 50-person company based in San Francisco. ODG is notable as one of the few companies currently demoing a fully functional pair of smart glasses. ODG sells a device called the R-7 Smartglasses that uses “3D stereoscopic ultra-transparent see-thru HD displays” to superimpose computer graphics into the real world.

Formazione 4.0? Si fa con la Realtà Virtuale e Aumentata

See on Scoop.itAugmented World

Dagli ambienti di training aziendale – con esperienze immersive che mostrano ai dipendenti come eseguire le operazioni più semplici, come montare e smontare le componenti di una macchina utensile, e quelle più complesse – ai laboratori digitali negli istituti tecnici per i lavoratori di domani, che insegnano agli studenti a lavorare con parchi macchine nuovi e al passo con i tempi. Chi pensava che la realtà virtuale e la realtà aumentata fossero solo gaming e intrattenimento, dovrà ricredersi.

Nell’ambito di Technology Hub – l’evento professionale delle tecnologie innovative promosso da Senaf (MiCo- fieramilanocity, 20-22 aprile 2017) il settore AR/VR Hub sarà dedicato agli strumenti e agli ambienti di realtà virtuale per fare formazione.

Attraverso un monitor, è possibile guidare passo passo i lavori da compiere all’interno di un ambiente che ricrea perfettamente la realtà, impartendo istruzioni tanto agli studenti, sulla conoscenza degli strumenti tecnici, quanto ai professionisti, affinché la manutenzione possa essere effettuata tempestivamente, in qualunque settore, a distanza e senza la presenza dell’”esperto” impegnato fisicamente altrove. Ma non solo. Grazie alla realtà virtuale sistemi complessi, che richiedono tempi lunghi di progettazione, possono essere introdotti in anticipo nelle aziende, accorciando nettamente i tempi di utilizzo rispetto a quando saranno operativi.

Tra le opportunità possibili anche le applicazioni software in Realtà Aumentata, che prevedono la sovrapposizione di informazioni e contenuti digitali tridimensionali sull’ambiente reale, attraverso l’utilizzo di dispositivi mobili come smartphone o tablet, oppure di device di ultima generazione come visori e occhiali 3D. Nel mondo dell’automotive ad esempio, dove una grande parte della produzione è affidata ai robot, la realtà aumentata potrà giocare un ruolo di primo piano per facilitare il controllo delle macchine da parte degli uomini.

Per verificare che tutti i pezzi prodotti siano uguali tra loro, si potrà fare affidamento a modelli virtuali generati dalla AR e posti sopra i prodotti reali, che ne verificheranno la corrispondenza e il rispetto dei criteri di qualità. Inoltre, posizionando marcatori AR sui punti principali del macchinario, come il saldatore o il braccio meccanico, la tecnologia sarà in grado di riconoscere i pezzi, mostrare in 3D esattamente dove si potrebbe verificare l’errore e visualizzare in tempo reale le informazioni su come risolverlo.

Parte grazie all’IoT e alla Virtual reality la concept car I-PACE Jaguar

Parte grazie all’IoT e alla Virtual reality la concept car I-PACE Jaguar | Augmented World | Scoop.it

Elettrica e intelligente ma nello stesso tempo supercar con lo spazio di un SUV. La sfida di Jaguar si chiama I-PACE è una concept car che la largo, larghissimo uso di tecnologie digitali e di IoT in particolare. Innanzitutto si tratta di un ingresso in grande stile nel mercato dei veicoli elettrici da parte del marchio britannico che per la presentazione ufficiale non ha esitato a far leva su una soluzione di realtà virtuale.

La I-PACE Concept apre una nuova fase per Jaguar che con questa concept intende prepararsi alla produzione di serie, con un percorso che prevede l’arrivo sul mercato per i clienti nel 2018 che però possono già prenderne visione grazie alla virtual reality e possono naturalmente prenotarla. La sfida della società inglese parte dal presupposto di interpretare la vettura elettrica con la massima attenzione alle prestazioni e al comfort nella prospettiva della Smart Mobility del futuro. Il veicolo è in grado di sviluppare una accelerazione da 0 a 100 in circa 4 secondi grazie a due motori elettrici che generano 700 Nm di coppia e 400 CV di potenza.

I motori elettrici e il pacco batteria agli ioni di litio da 90 kWh nascono dalla progettazione di Jaguar Land Rover per offrire le migliori prestazioni e la più elevata autonomia possibile, nella maggior parte dei tragitti quotidiani.  Ovunque vi troviate nel mondo, potete semplicemente collegare la vostra auto ad una comune presa elettrica durante la notte e disporre di un’autonomia giornaliera sufficiente per un tragitto medio di circa 50 km.

Lo sviluppo e la promozione del prodotto passa attraverso una soluzione di virtual reality che permette ai potenziali clienti, agli amanti del marchio così come ai curiosi delle supercar e dell’high tech di prendere visione con la massima aderenza alla realtà del nuovo veicolo anche se al momento è appunto una concpt car disponibile in una unica versione. Grazie alla partnership con  HTC VIVE e con Dell Precision è stato realizzato il primo reveal live al mondo basato sulla Virtual Reality per un viaggio nell’universo virtuale alla scoperta della nuovissima Jaguar I-PACE Concept.

Il reveal live ha permesso di condividere con un pubblico  disperso in tutto il mondo il veicolo presentato ufficialmente a Los Angeles con un coinvolgimento totale su tutti i dettagli e i particolari della vettura. Grazie alle cuffie HTC Vive Business Edition e alle workstation Dell Precision, i partecipanti hanno potuto calarsi all’interno della concept car e interagire dal vivo con gli altri partecipanti. Gli ospiti, “seduti” sui sedili virtuali della concept car, hanno goduto di una visione a 360° di Venice Beach e della I-PACE Concept che prendeva vita intorno a loro correva loro incontro attraverso un deserto virtuale.

Per Oculus serviranno finalmente PC meno potenti

 

La realtà virtuale di Oculus si è appena fatta meno costosa. La società controllata da Facebook ha infatti annunciato l’introduzione sul suo visore Oculus Rift di una nuova tecnologia chiamata Asynchronous Spacewarp, pensata per rendere più facile alle schede grafiche dei PC il difficile compito di inviare al gadget il flusso di immagini necessario per l’immersione nella realtà virtuale.

Il risultato è che anche schede grafiche meno potenti e costose di quelle fino a ieri richieste dal visore potranno essere utilizzate per tuffarsi nei mondi virtuali di Oculus e dei suoi partner.

 

 

 

fonte: http://www.wired.it/gadget/computer/2016/11/16/oculus-pc-meno-potenti/

Apple granted patent for head-mounted virtual reality display

The Stack reports that Apple has been granted a patent for a head-mounted virtual reality display which is designed to temporarily integrate a device such as the iPhone to act as the screen and processing power for the headset.

They also suggest using an extra clicker device as a scroll wheel and for other control functions. The patent which was filed in January 2015 and granted on the 1st November 2016 appears to simply display the state of the art as we know it at present, but is crucially a continuation of a September 2008 patent, meaning it likely precedes a number of similar devices such as Samsung Gear VR and Google Cardboard.

The patent, if enforceable, may represent a massive land grab by litigation-happy Apple, but may be good news for Microsoft for a number of reasons. One is that Microsoft’s approach is very different, and does not rely on phones due to its obvious weakness in this area. The other is that Microsoft and Apple have a long-standing cross-licensing agreement which actually precedes this patent, meaning Redmond is likely immune from any fall-out, unlike Google for example.

 

 

 

fonte: https://mspoweruser.com/bloomberg-confirms-apple-developing-augmented-reality-headset/

Shakespeare’s Tempest gets mixed reality makeover

Shakespeare’s Tempest has been given a mixed reality makeover by the Royal Shakespeare Company. The makers say it is the first play to feature a virtual character controlled in real-time by an actor.

User Experience Design Meets the Connected World

How state–of–the–art technology is changing the way businesses function and deliver:

The buzz surrounding the Internet of Things (IoT) seems to be getting louder—the ‘next big thing’ is knocking at the door. Increased applications of sensors, machine-to-machine (M2M) communications, and advanced cloud computing to interpret and transmit data are architecting a smarter and hyper–connected world.

IoT, with its mobile, virtual, and instantaneous connections is truly innovation at its finest—poised to help companies leap into the connected age, with far–reaching impact. Understandably then, industries across the world are gearing up to gain faster insights and deliver innovative products and services.

However, before jumping on to the IoT bandwagon, companies must accurately evaluate their customers’ latent needs. Innovation and utility should work in perfect unison, in order to drive genuine value and improved customer experiences.

Calibrating the toolbox – Balancing innovation with intrinsic value:

IoT does not exist in isolation—the value of IoT matures alongside data and insights it generates. It exists in combination with a complex ecosystem of devices that can interoperate seamlessly to deliver unique insights into their usage and condition. Similarly, voluminous data is of little actual utility, unless it displays hidden patterns analyzing customer behavior and help predict adverse situations.

Therefore, the true adoption of IoT would involve the ability to generate, ingest, and analyze billions of disparate data streams, and glean insights from a connected environment. These insights could open doors for reshaping existing processes—consider for example, the product development process—making them more agile and optimizing the roles of people involved to improve productivity and deliver greater value.

This will also help accelerate the ‘design–test–learn–iterate’ process, ensuring that market feedback is incorporated in the makers’ product roadmaps in a timely fashion. Currently, the process of gathering market feedback is disparate, cumbersome, and time consuming—and organizations are left unable to meet strict time-to-market demands, especially that of consumer markets.

A unique example of IoT–driven, interactive user interface design is Samsung’s Family Hub refrigerator. This smart appliance enables online ordering, controlling other home appliances, displaying messages, and sending emails. A user can check the contents of the refrigerator remotely, stream music, and even compare and manage recipes online. However, is there really a demand to have tweets displayed on our fridge door?

The largely lukewarm response to recent industry innovations have sounded a clarion call on the need to evaluate, assess and streamline the way forward.

Similarly, consider the constantly expanding domain of wearables. As technology continues to become more intimate, wearables have also broadened customers’ expectations for tailored services. Gartner predicts that while wearables are currently an immature market, by 2020, they would exceed 500 million shipments. However, as CCS Insights’ user survey reveals, despite high customer awareness, a significant proportion of wearable device owners have stopped using them as the device did not provide enough functionalities.

While designing wearables, it’s imperative for companies to consider a wide gamut of challenges/factors related to user engagement and durability (including fairly long battery lives, where applicable). For example, Jawbone’s first production run of UP bracelets were all recalled due to an improperly sized power capacitor. The brand image was salvaged to a certain extent, only because the company instituted a ‘no questions asked guarantee’, and offered a full refund.

The writing on the wall is clear—innovation merely for its own sake cannot inspire or attract customer retention; the product must hold its own unique and effective brand promise, and offer high utility.

Engineering Synergy – Crafting an IoT framework that’s smart and simple:

Product design and user experience are key decision influencers in the digital age. Challenges such as cross–platform design and inter–connectivity between devices have emerged as the primary areas of concern.

It is also important for functionality to be distributed across devices. However, only some of the devices may have screens; others may emit only sound or light signals. In some cases, device interactions are channelized via mobile apps.

Industries must therefore, move towards a sharply–tuned blueprint: a lucid and connected experience that ensures functionality and consistency across different user interfaces, as well as seamless cross–device interactions.

Remember, the device, user, and service experiences are inextricably linked in an IoT product—and without doubt, a user will be quick to discard a connected item, if it does not deliver a satisfactory experience.

Companies should strive to harness this comprehensive amalgamation—technology innovations coupled with solid design strategies—armed with a build-test-learn process. This would eventually aid the creation of an expanding and robust ecosystem.

What then lies at the foundation of this transformation? What is the essential blueprint governing the implementation of agile and concentrated IoT applications? The answer foretells the road ahead for enlightened organizations; it is important that businesses continue to gather product-usage data, captured via multiple devices, continuously to generate insights and incorporate them in the product features. This would shrink the possibility of dissonance between designer, developer, and the final user—creating a finely-balanced value chain of consistent and top-of-the-line quality, and unmatched user experience.

 

From www.cso.com.au