News

Intel blickt in die Zukunft: Virtuelle Anprobe und intelligente Scheinwerfer

In Hamburg gewährte Intel einen Blick hinter die Kulissen und zeigte, welche Formen intelligenter PC-Anwendungen schon jetzt zu haben sind und was die Zukunft bringen könnte. Geforscht wird unter anderem an besserer Sicht für Autofahrten bei Regen und virtuellen Umkleidekabinen.

Datenaustausch© violetkaipa / Fotolia.com

Was ist bereits heute möglich und was könnte in Zukunft machbar sein? Das zeigte Intel am Mittwoch im Rahmen des Intel Future Showcase in Hamburg. Zu sehen gab es verschiedene Anwendungsszenarien vom schon verfügbaren Kleinst-PC für das Wohnzimmer bis hin zu Projekten, die künftig den Alltag erleichtern könnten - wie eine intelligente Scheinwerfersteuerung im Auto oder eine virtuelle Anprobe von Bekleidung in Onlineshops. Ein zentrales Thema war zudem die Gestensteuerung.

Intel NUC: Mini-PC für das Wohnzimmer

Im Bereich der schon jetzt auf dem Markt erhältlichen Lösungen bot Intel die Möglichkeit, den NUC auszuprobieren: NUC steht für Next Unit of Computing und kommt als Mini-Rechner für verschiedene Einsatzzwecke daher. Durch das lüfterlose Design taugt der PC auch als Multimedia-Gerät für das Wohnzimmer, er ist mit rund 12 x 11 x 4 Zentimetern in etwa so klein wie ein Apple TV und wahlweise als Barebone oder fertig konfiguriert zu haben.

Los geht es ab circa 160 Euro, Bastler können den Rechner dann selbst um Arbeitsspeicher und eine SSD ergänzen. Im Komplettpaket mit einem Intel Core i3-3217U-Prozessor der dritten Generation mit HD 4000 Grafik und Windows-Betriebssystem fallen unter 500 Euro an. Der Intel NUC lässt sich beispielsweise unter einem Fernseher deponieren, per VESA-Halterung aber auch an dessen Rückseite schrauben. Zum Anschluss des Displays und von Zubehör bringt er zwei HDMI- und drei USB-Ports mit, Thunderbolt ist optional. Als Heimkino-PC genutzt, lässt er sich mit einer passenden Fernbedienung steuern. Diese hat etwa Smartphone-Ausmaße, ist aber extrem leicht. Zwar hat Intel auch ein Touchpad und zwei Maustasten integriert, ganz so komfortabel wie mit einer richtigen Maus oder mit Fernbedienungen mit größerer Touchfläche - wie sie Sony bei seiner Google TV-Box nutzt - konnten wir den PC im Showcase aber nicht ansteuern. Der Mauszeiger bewegte sich eher langsam und hakelig voran.

Verbesserte Gestensteuerung

Unter den Demonstrationen für Anwendungen für die nahe Zukunft waren verschiedene Praxisfälle zu sehen, deren Ziel das bessere Verständnis der Bedürfnisse des Nutzers durch den Computer ist, wie Intel ausführte. Ein Beispiel hierfür ist das Log-In in Windows per Gesichtserkennung über eine kostenpflichtige App aus dem Intel-eigenen Shop AppUp, die Intel in Aktion zeigte. Das Log-In verlief überraschend schnell, sei aber nicht als Sicherheitslösung anzusehen, sondern eher als bequemere Alternative zur Passworteingabe gedacht. Der Grund: Zwar lässt sich die Anwendung nicht mit einem Foto austricksen, da sie Bewegung erfordert, ein Versuch mit einem Video der anzumeldenden Person wäre daher aber auch nicht auszuschließen.

Ein Thema, das die Technik-Branche nun schon seit Jahren beschäftigt, ist die Steuerung mit Handgesten - im Konsolenbereich längst angekommen. Hier und da findet sie in bereits erhältlichen Notebooks schon Anwendung und bietet dann eine rudimentäre Hand-Kamerasteuerung für den Mediaplayer, von flüssigen, unmittelbaren Wischbewegungen wie im Film "Minority Report" ist das Ergebnis aber in der Praxis noch weit entfernt. Um neue Anwendungsmöglichkeiten zu erproben, hat Intel Entwicklern eine 3D-Kamera und ein Software Developer Kit an die Hand gegeben. Diese haben sich bereits verschiedene Spiele vorgenommen, um Maus und Tastatur oder Controller durch die Hände zu ersetzen.

Noch nicht zum Download verfügbar, aber offenbar in Arbeit ist ein Aufsatz für "Portal 2": Intel zeigte, wie sich die Blöcke im Spiel einfach per Hand durch den Raum bewegen und an die passende Stelle setzen lassen. Endkunden sollen die hierzu erforderliche neue Webcam in der zweiten Jahreshälfte für rund 150 Euro kaufen können. Sie erkannte im Test nicht nur die Lage der Hand, sondern auch die Bewegungen einzelner Finger, was anhand von Snake Charmer demonstriert wurde: Aus einer goldenen Schlange tröpfelnde Münzen ließen sich mit der Hand vor der Tiefenkamera auffangen oder wegschnipsen. Mit der Kamera konnte außerdem eine Runde Schere-Stein-Papier gegen einen virtuellen Affen namens Moogi gespielt werden, der sich per Handbewegung heranwinken und auch füttern ließ. Wie gut das klappte, war stark von der Position von Hand und Kopf vor der Kamera abhängig, oftmals liefen Bewegungen ins Leere. Darüber hinaus gab es einen Videochat zu sehen, bei dem der Hintergrund automatisch ausgeblendet wurde. Lange Haare stellten für das Programm offensichtlich eine größere Schwierigkeit dar als Kurzhaarfrisuren, so dass mitunter ein Teil der Frisur mit abgeschnitten wurde.

Weiter auf Seite 2: 360° Wireless Display, Fahren bei Regen und Shopping der Zukunft.

Eine Weiterentwicklung der bestehenden Schnittstelle Intel Wireless Display ist 360° Wireless Display, das mit einem entsprechend bestückten oder aufgerüsteten Fernseher und einem Intel-Smartphone eine Rundumsicht in Videos erlaubt. Um sich umzuschauen, muss lediglich das Handy bewegt werden - so können beispielsweise Orte wie in Google Street View oder Sportaufnahmen gefühlt näher erlebt werden.

Sicherer Autofahren bei Regen

Noch in weiter entfernter Zukunft, in Zahlen ausgedrückt zehn Jahre, liegt das Projekt der intelligenten Autoscheinwerfer, an dem Intel zusammen mit der Carnegie Mellon Universität arbeitet. Konkret geht es um Fahren bei Regen. Über eine Digitalkamera wird der Regenfall erfasst, um dem Bordsystem Daten zur Berechnung der nächsten Regentropfen zu liefern. Durch gezieltes Ein- oder Ausschalten einzelner Lampen im jeweiligen Scheinwerfer soll die Sicht durch den Regen hindurch verbessert werden. Mit enLive hingegen wird das Zuhause schlauer: Die lernfähige Plattform kann sich mit der Hilfe von Tablets oder anderen Geräten Wissen aneignen, um Elemente im Haus wie die Beleuchtung oder Heizung schon im Vorfeld auf die Bedürfnisse des Nutzers zuzuschneiden. Auch Energieversorger sollen davon profitieren, indem sie Voraussagen über die benötigten Kapazitäten treffen können.

Shopping der Zukunft?

Ebenfalls ein Forschungsfeld ist das Onlineshopping: Bereits auf der CeBIT 2012 zeigte Intel eine frühe Vorstufe einer Augmented-Reality-App für Ultrabooks, mit der der Nutzer sich vor der Webcam virtuelle Hüte oder Brillen aufsetzen konnte. Der Magic Mirror in Hamburg sah schon deutlich besser, war aber nur als Video zu betrachten. Ausgangspunkt ist ein Avatar, der die Maße des Nutzers abbildet und auf diese Weise für ihn Kleidungsstücke anprobieren kann. So soll der Kunde nicht nur sehen können, was passt und was nicht, sondern kann sich auch wie in der Umkleidekabine zuhause vor dem Rechner von mehreren Seiten aus betrachten. Laut Intel könnte das auch für Social-Shopping-Erlebnisse mit den Freunden interessant sein, eine Umsetzung sieht der Chip-Hersteller aber noch einige Jahre entfernt.

Die unter dem Motto "The day after tomorrow" präsentierten Demos sind damit noch Zukunftsmusik; ob sie jemals in dieser Form erhältlich sein werden, ist ungewiss. Doch zeichnet sich schon jetzt ab, dass der PC beziehungsweise auch Tablets und Smartphones persönlicher werden und quasi lernen, vorauszuahnen, was der Nutzer als nächstes vorhat - man denke an Siri, Google Now oder das Samsung Galaxy S4, das für bestimmte Gesten gar nicht mehr direkt berührt werden muss. Besonders für die E-Commerce-Branche dürfte das von Interesse sein, denn die Bestellprozeduren nach dem Trial-and-Error-Prinzip mit teuren Retouren könnten sich durch eine virtuelle Anprobe vor dem Bildschirm vermeiden lassen.

(Saskia Brintrup)

Kommentieren Forum

Dieser Artikel wurde noch nicht kommentiert. Schreiben Sie uns Ihre Meinung!

Mehr aus dem Web

Zum Seitenanfang