JP2009505268A - エンドユーザプログラミングのための拡張現実感眼鏡のためのシステム、装置及び方法 - Google Patents

エンドユーザプログラミングのための拡張現実感眼鏡のためのシステム、装置及び方法 Download PDF

Info

Publication number
JP2009505268A
JP2009505268A JP2008526596A JP2008526596A JP2009505268A JP 2009505268 A JP2009505268 A JP 2009505268A JP 2008526596 A JP2008526596 A JP 2008526596A JP 2008526596 A JP2008526596 A JP 2008526596A JP 2009505268 A JP2009505268 A JP 2009505268A
Authority
JP
Japan
Prior art keywords
user
augmented reality
reality glasses
view
end user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008526596A
Other languages
English (en)
Inventor
ドールン マルクス ジー エル エム ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009505268A publication Critical patent/JP2009505268A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

エンドユーザプログラマが、環境知能の環境の仮想的なインタラクションのメカニズム/パターンが現実の位置、表面、オブジェクト及び装置に重畳されるように、物理的な大きさを持つ環境知能の環境を可視化することを可能とする、拡張現実感(AR)眼鏡131のためのシステム、装置及び方法が提供される。更に、エンドユーザは、環境知能の環境において、仮想的なインタラクションのメカニズム/パターンをプログラミングし、これらを対応する現実のオブジェクト及び装置に重畳させることができる。

Description

本発明は、エンドユーザプログラマが、仮想的なインタラクションのメカニズム/パターンが現実のオブジェクト及び装置に重畳されるように、物理的な大きさを持つ環境知能の環境を可視化することを可能とする、拡張現実感眼鏡のためのシステム、装置及び方法に関する。
環境知能(Ambient Intelligence)は、最近の重要な3つの技術、即ちユビキタス(ubiquitous)コンピューティング、ユビキタス通信及びユーザに適応したインタフェースの集中として定義される。「環境(Ambient)」は、「全ての側面に存在する」と定義される(例えば「Merriam-Webster Dictionary」を参照)。ユビキタスは、「同時に至るところにある」と定義され(例えば「The American Heritage Dictionary」を参照)、家庭、職場、病院及び小売店等を含む全ての環境におけるコンピューティング及び通信の遍在という概念を取り入れるものである。ユビキタスコンピューティングは、或る環境における日常のオブジェクトにマイクロプロセッサを組み込むことを意味する。家庭においては、これら日常のオブジェクトは、家具、衣服、玩具及び埃(ナノテクノロジ)を含む。ユビキタス通信は、特別な無線ネットワーキングを利用して、これら日常のオブジェクトが互いに及び近隣に居る生物と通信することが可能であることを意味する。また、このことは全て目立たないように実現される。
目標の環境を複製することが可能でない場合に、斯かる環境知能の環境のためのソフトアプリケーションを、エンドユーザは如何に開発するであろうか。また、可能である場合であっても、当該環境における知能装置間の不可視な又は仮想的な相互接続及び生物(人間に限らない)との関係が、如何にエンドユーザ開発者に対して可視とされるであろうか。
既存のエンドユーザプログラミング手法はしばしば、ユーザが自身のアプリケーションを開発することを可能とするため、コンピュータ画面上における視覚的なプログラミング言語を利用する。しかしながら、これらエンドユーザプログラミング手法は、物理的な大きさもが存在する環境知能の環境に対してはうまく動作しない。エンドユーザによって容易に理解され且つエンドユーザプログラミングに適した、仮想的な及び現実の大きさの視覚化は、コンピュータグラフィクスのみを利用していては困難である。例えば、エンドユーザ開発者は専門家であり又はプロフェッショナルな分野における労働者であり得るが、家庭においては消費者でもあり得る。エンドユーザが欲することを行うためのプログラミング装置は、家具を再配置するかのように単純で便利であるべきである。
ここで図1A及びBを参照すると、環境知能とのエンドユーザのインタラクションをグラフィカルなユーザインタフェースによって可視化する代わりに、本発明の好適な実施例は、拡張現実感(augmented reality、AR)眼鏡131を利用する。該眼鏡を通して、仮想的なインタラクションのメカニズム/パターン(例えばコンテキスト起動要因101及び102並びに環境知能アプリケーション間のリンク)が、現実のオブジェクト105及び106並びに装置に重畳される。
エンドユーザプログラマが拡張現実感(AR)眼鏡131を通して環境知能の環境を見るとき、該エンドユーザは「書き込み」モードにあると言われ、即ちエンドユーザは現実のオブジェクト及び装置に具現化されているかのように環境知能アプリケーション内の既存の関係を「見る」ことができる。環境知能の環境の他の全てのエンドユーザのように、エンドユーザプログラマが拡張現実感(AR)眼鏡131を装着していないときには、該エンドユーザは「読み取り」モードにあると言われる。なぜなら、前記関係はもはや「可視」ではなく、その影響が体験され得るのみであるからである。
現実の体験は、主体志向であり反射的且つ不随意な態様で形成されると言うことができる。ユーザは、該ユーザが存在する状況を(ある程度)選択し得るが、該状況は常に個人が制御することができない態様で該ユーザに影響を及ぼす。ユーザは感覚により知覚された「テキスト」を「読む」が、該ユーザの動作によって影響をも与える(「書き込む」)。現在の環境知覚の環境における読み取りと書き込みとの分離は、リハーサルとパフォーマンスとの分離に類似している。
本発明のシステム、装置及び方法は、ユーザが環境知能の環境のためのアプリケーションを開発するための方法であって、斯かる環境を「ビート(beat)」と呼ばれる小さなアプリケーションを有する構成部分に分割することに基づく、効果的且つ効率的な方法を提供する。ユーザは、これらビートを開発並びに保持及び更新するため、拡張現実感(AR)眼鏡131を利用する。
これらビートはこのとき、一意的なストーリーを形成するため、環境知能の環境(特定の環境における用途)のユーザからのフィードバックに基づく、環境ナラティブ(narrative)エンジン300により配列される。即ち、ユーザが環境知能の環境とインタラクトすることにより(例えば該環境をトレーニングすることにより)、ビートのセットが相互に関係付けられる。該ビートのセット及びそれらの相互関係は、ビート間の遷移を捕捉することにより所与のユーザに対してパーソナライズされることもでき、該ユーザの環境知能体験の個人的なストーリーを形成する。該個人的なストーリーは或る種の永続的なメモリに保持され、混合された現実における或る種のインタラクティブなナラティブ/ドラマのセットにおける特定のユーザとの将来のインタラクションにおいて環境知能の環境を生成するために環境ナラティブエンジン300により利用される。代替として、トレーニングは、複数のユーザのインタラクションをトレーニング期間にわたって平均化することにより得られても良く、また必要なときに更新されても良い。
例えばパフォーマンス環境のような共同制作環境においては、個人がパフォーマンスをしているときに、該パフォーマンス自体がそれによってオーサリング(author)されるべき且つ環境ナラティブに追加されるべき新たなビートを形成し、それによりインタラクティブなナラティブの構造及び内容をリアルタイムに変化させる。パフォーマは、パフォーマンスをしている間オーサリングされているビートを「見る」ため、パフォーマンスをしている間AR眼鏡131を装着しても良いし、又は後にAR眼鏡131を装着しパフォーマンスによって生成されたビートをレビューすることにより当該パフォーマンスをレビューしても良い。AR眼鏡131を装着しているパフォーマは、例えば該パフォーマがパフォーマンスに満足できず、異なるビート(又は修正されたビート)を達成するため全て又は一部を繰り返すことを欲する場合、パフォーマンスがオーサリングされているときに、ビートを「編集」するためにパフォーマンスを中断しても良い。
上述したように、ナラティブに対する継続中の修正が可能である。即ち、ビート及びビート間の相互関係を追加/修正/削除することにより、またビート間の遷移を修正及び追加することにより、環境知能の環境のトレーニング及び再トレーニングが可能である。本発明の拡張現実感(AR)眼鏡131は、環境が使用されている(オーサリング)間に、ビート及びビートの遷移を可視とする(可視化)ことにより、元の開発を容易化する。その後、本発明の拡張現実感(AR)眼鏡は、展開/開発された環境知能の環境の保守及び拡張(更新)のため同様の機能を実行する。
以下の記載は限定のためではなく説明のために提供されるものであることは、当業者には理解されるべきである。当業者は、本発明の精神及び添付される請求項の範囲内となる多くの変更例があることを理解する。既知の機能及び動作の不必要な詳細は、本発明を不明瞭にしないために本記載から省かれ得る。
本発明のシステム、装置及び方法は、環境知能の環境のユーザプログラミングのための拡張現実感(AR)眼鏡を提供する。AR眼鏡が特に有用である環境知能の環境を含む状況は、以下のとおりである。
1.状況
美術館への通常の来訪者が該美術館の部屋及びホールを歩く際、しばしば絵画やその歴史を理解することが困難である。より好ましい学習経験を提供するため、来訪者の知識レベル(初心者、中級者、上級者又は子供/大人)に対して調整され、鑑賞されるべき美術オブジェクトに対して調整された、設置されたディジタルメディア(テキスト/画像、音楽/音声及びビデオ)が、選択された美術オブジェクトに対して提供される。
以下のユーザ状況を考える。美術史家が、アムステルダムの国立美術館を訪れる。該美術史家が「17世紀のオランダ」のホールに入ったとき、レンブラント・ファン・ラインの有名な絵画「夜警」(1642年)を鑑賞する。該美術史家が当該絵画へと歩み寄ると、該絵画及び黄金時代についての多くの詳細を示すテキストが、該絵画の隣にあるディスプレイに現れる。該美術史家は、17世紀の肖像画及び光の使用についてのセクションに特に興味を持つ。しばらくの後、画面上のメッセージが該美術史家をヨハネス・フェルメールの絵画へと向けさせる。該美術史家が「牛乳を注ぐ女」(1658-1660年)へと近づくと、ストーリーが継続する。
国立美術館の館長が、より多くの設置メディアを、該美術館における絵画及び芸術作品に対して追加することを決定する。起動要因及び起動要因に関連するメディアを見るため、該館長は拡張現実感(AR)眼鏡131を装着する。図1Aは、該館長が該館長の拡張現実感(AR)眼鏡131を通して見るものの例を示す。地面における紫色の円101は、ユーザがメディアのプレゼンテーション(紫色の球体102)を起動することができる領域を示す。床の黄色の点線104は、或る絵画から他の絵画へのリンク(例えば、肖像画における光の使用に焦点を当てたもの)を示す。前記館長が該館長のAR眼鏡又は該館長のポケットの中のモバイル型マウス装置(図1D)150にあるボタン151を押下すると、視野132にダイアログ画面が出現し、該館長が設置されたメディアオブジェクトを管理することを可能とする。該館長は、或る絵画に対して新たなメディアオブジェクトを追加することを選択する。歩き回るか又はインタラクションの半径を選択することにより、該館長は設置されたメディアオブジェクトが起動されることができる領域を定義する。該館長は来訪者の知識レベルを「上級」に設定し、AR眼鏡131の視野132に表示されるプレゼンテーションのリストから適切なメディアプレゼンテーションを選択する。対応するプレゼンテーションは、美術館のデータベースに保存されている。次いでアイコンが、絵画103の隣にあるディスプレイ上に現れる。該館長は新たな設置されたメディアオブジェクトを保存し、メディア−美術間の関連及び起動要因を「プログラミング」する際の支援として拡張現実感(AR)眼鏡を利用して、メディアを伴う芸術作品を追加及び更新することを継続する。
本発明によるAR眼鏡131を利用した実装は、以下のとおりである。
2.実装
本発明の好適な実施例においては、アーキテクチャはインタラクティブなナラティブと考えられる。ユーザが建物内を歩く態様に依存して、異なるストーリーがユーザに語られる。ディジタルメディア及び照明により拡張され、アーキテクチャの組み合わせられたビューは環境のナラティブである。環境を歩く(環境とインタラクトする)ことにより、ユーザは、環境知能として知覚される、一意的で個人的なストーリーを生成する。美術史家のような来訪者のための「読み取り」モードにおいては、ユーザは既にプログラムされたものしか体験できない。(拡張現実感(AR)眼鏡131を装着することにより起動される)「書き込み」モードにおいては、権限を持つ美術館職員が、環境のナラティブにおける配置メディアを変更することができる。
環境のナラティブの極小の単位は、ビートと呼ばれる。各ビートは、前提条件部と実行可能動作部とを有する対から成る。前提条件部は更に、ステージ上(位置)、パフォーマンス(動作)、動作者(ユーザの役割)、小道具(prop)(触知可能なオブジェクト及び電子装置)及びスクリプト(知識レベルを含むストーリー値)から成る群から選択される条件の少なくとも1つの記述を有し、動作部が実行される前には真である必要がある。動作部は、前提条件が真である場合にはいつでも環境においてそれぞれレンダリング/起動される、実際のプレゼンテーション記述又はアプリケーションを含む。ビートは、ユーザフィードバック(例えばユーザの命令/音声)、状況情報(例えば利用可能なユーザ、装置)及びストーリーの状態に基づいて、ビートシーケンス化エンジン300によりシーケンス化される。
図2は、ビートドキュメントの例200である。該ドキュメントは、以下を含む。
(i)ビートが起動のためスケジューリングされる前に満たされるべき前提条件(precondition)201。ステージ(stage)要素は例えば、「wing1」と名付けられた位置に「夜警」と呼ばれるステージがある必要があることを示す。動作者(actor)要素は更に、「上級(advanced)」(専門家)であるとして既知の来訪者(visitor)が存在している必要があることを示す。該前提条件は基本的に、動作が許容される状況を記述する。
(ii)前提条件が真である場合にとられる動作(action)。主(main)部203は、ハイパーメディア・プレゼンテーション・マークアップを含み、ことによるとストーリー値(story-value)204、起動要因(trigger)205及びリンク(link)206のようなナビゲーション要素を含む。これら要素は、動作/アプリケーションがビートシーケンス化処理にどのように影響を与え得るかを規定するために利用される。図2において、各タイプの1つが示されているが、ビート記述においてはこれらのそれぞれが幾つあっても良い(全くなくても良い)。
上述したように、好適な実施例においては、少なくとも2つのインタラクションモード、即ち「読み取り」モードとオーサリング即ち「書き込み」モードとがある。
以下のステップは、環境知能の環境の通常の利用(読み取りモード)の間に実行される。
−状況を捕捉する:センサが、ユーザ、装置及びオブジェクトにおける変化を探知するため、環境(1以上の場所)を継続的に監視する。状況モデルを構築するため、幾つかのタイプのセンサが互いと組み合わせられて用いられても良い。状況情報は、ビートシーケンス化エンジンが、ビートの前提条件が満たされているか否かを決定するために必要とされる。
−或るビートを開始ビート(例えば「index.html」ページ)として利用する:該ビートは、ナラティブにおける入口点を形成する。動作部が実行される。動作部は、ブラウザプラットフォームに送信されることができるプレゼンテーションマークアップを含んでも良いし、又は特別なアプリケーションに対するリモートプロシージャコールを含んでも良い。
−ユーザフィードバック(例えばキーボードの押下、マウスのクリック)をローカルに処理する。プレゼンテーションマークアップ又はアプリケーションにおいてビートのマークアップ要素が遭遇された場合、ビートシーケンス化エンジン300に命令が送信され、該エンジンにおいて該命令がビートセットと照合される。要素id及びドキュメントidが存在する場合、ユーザフィードバックのイベント(リンク、起動要因の設定/解除、ストーリー値の変更)が、ビートシーケンス化エンジン300により処理される。例えば図2において、プレゼンテーションにおいてリンク要素が到達された場合、「to」フィールドに規定されたクエリが実行される。その結果のビートは、アクティブなビートのセットに追加される(該ビートの全ての前提条件が満たされている場合)。
−センサ網により認識された状況の変化(例えば新たなユーザが環境に入ってきた場合)を、ビートシーケンス化エンジン300に送信する。
ビートシーケンス化エンジン300のフロー図の例が、図3に示される。リンク、起動要因(遅延されたリンク;起動要因の前提条件が合致された場合に起動される)及びストーリー値(ナラティブ状態情報のためのセッション変数)の使用が、高度に動的なシステムに帰着する。
好適な実施例においては、権限のあるユーザが環境知能の環境にいるときに、該ユーザが拡張現実感(AR)眼鏡131を装着した場合に、「書き込み」モードが起動される。該モードにおいては、ビートシーケンス化エンジン300が「読み取り」モードにおける場合と同様に機能し続け、ユーザの動作に対して迅速なユーザフィードバックを提供する。しかしながら、環境知能の環境の通常の動作に加え、オーサリングツール502は、拡張現実感(AR)眼鏡131のユーザの視野132において、ナラティブについてのメタデータを可視化する。図1Aにおいて、アイコン103、経路104及び円102が、該付加的な情報又はメタデータを示している。
−アイコン103は、ビートの動作部を表す。動作部が複数の装置を利用する場合、当該ビートに対して複数のアイコンが出現する。好適な実施例においては、同一のビートにどのアイコンが属しているかを示すため、色又は他の視覚的な特徴が利用される。
−対応して、組み合わせ色付き経路104は、或る色付きビートから他の色付きビートへのリンクを表す。該経路の源とアンカービートとが、色特性によって示される。源のビートが青いアイコンを持ち、行き先のビートが赤いアイコンを持つ場合、経路は例えば青/赤の点線となる。
−床、壁または天井における、対応して色付けされた円102又は長方形は、色付きビートがアクティブである位置を表す。
該付加的な情報又はメタデータは、ビートシーケンス化エンジン300によって、ビートセットから抽出され得る。
−好適な実施例においては、各ビートがプレビュー特性(オフラインのシミュレーションのために利用される)を持つ。該ビートプレビュー特性は、アイコンと関連付けられる。ビートセットにおいてビートドキュメント中の前提条件セクションにおいて規定される各装置及びオブジェクトは、該アイコンによりマークされる。ビートシーケンス化エンジンは装置及びオブジェクトの位置及び場所を知っているため、拡張現実システム(例えば図4及び5を参照)が、ユーザが装着している拡張現実感眼鏡131を利用し、ユーザの方向を考慮に入れて(例えば図4のカメラ402を利用して)、仮想的なアイコンを現実のオブジェクトに重畳することができる。
−ビート記述の動作部においてリンクが規定される。リンクの源及び行き先が算出され得る。各ビート記述中のステージ前提条件が、経路を決定するために利用される。好適な実施例においては、視界の直接の線がない場合には、ビート間の経路を算出するため、及びAR眼鏡131の装着者に対してどの経路が可視化されるかを算出するため(例えば104を参照)、予め保存された建物/場所の物理的な図面が利用される。
−ビート記述におけるステージ前提条件及び状況モデル(正確な座標)から、ビートがアクティブである領域が抽出される。好適な実施例においては、本発明の拡張現実感(AR)眼鏡は、仮想的な平面を、現実の例えば壁又は床に重畳させるために利用される。
図4は、典型的な拡張現実システム400のフローを示す。拡張現実感眼鏡131におけるカメラ402は、ユーザの座標及び方向を、データ取得モジュール403に送信する。該データ取得モジュール403は、環境の3Dモデル407のためのデータ(アイコン、経路及び領域並びにビートシーケンス化エンジンの状況モデルにおける位置データ)を取得するため、ビートシーケンス化モジュール300に要求する(307)。該3Dモデル407は、カメラの現実のビュー405を用いて拡張された2D平面を生成するため、カメラ402からの位置データと共にグラフィクス描画エンジン308により利用される。拡張されたビデオ406は次いで、ユーザが装着している拡張現実感眼鏡を介して、ユーザに提示される。
ユーザの視点からの、環境知能の環境の環境ナラティブ構造の可視化は、本発明の拡張現実感(AR)眼鏡131により提供される「読み取り」機能である。本発明の「書き込み」機能は更に、拡張現実感(AR)眼鏡131を利用して可視化された環境知能の環境をユーザが変更/プログラミングすることを可能とする。好ましくは、図5に示されるように、本発明はオーサリングツール502と、少なくとも1つのユーザ入力装置131、140及び150へのインタフェースとを提供する。ユーザ入力装置は、身振りを捕捉するための手段と、本発明の拡張現実感眼鏡を装着しているユーザの視野132に提示される拡張された環境の3Dモデルにおけるアイコン及び経路を選択するための携帯型ボタン装置/モバイル型マウス150とを含む。
好適な実施例においては、本発明のAR眼鏡を装着したユーザの視野132に出現するアイコン及び経路を選択するための、ユーザの視野132におけるグラフィカルユーザインタフェース(GUI)600乃至900が備えられる。該GUIが単一の画面に収まらない場合には、ユーザが多段階の画面GUIにおいて前方及び後方に移動することを可能とするためのスクロールメカニズムが提供される。好適な実施例においては、該スクロールメカニズムは、モバイル型マウスのスクロールボタン、AR眼鏡131上のスクロールボタン、又はヘッドセットにより捕捉される音声コマンドのうちの1つである。他の可能性は、ユーザの身振り、頷き、及びその他の身体の動きを、ユーザが装着しているAR眼鏡131の視野132におけるディスプレイをスクロールさせる指示として捕捉することを含む。音声コマンドを取り入れた好適な実施例においては、発話されたキーワードがメニュー及び機能へのショートカットとして利用され、音声認識器が特定のキーワードで起動し、対応するメニュー及び機能を選択する。
本発明のオーサリングツール502を用いると、ユーザは環境ナラティブの構造を変更することができる。為された変更は、本発明のAR眼鏡131の装着者の視野132に提示されるメタデータを生成するビートシーケンス化エンジン300により利用されるビートデータベースへとコミットされる。好適な実施例のARシステム500のグラフィクス描画部408は、拡張されたビューと共に該GUIを描画する。図5は、オーサリングツール502、ビートシーケンス化エンジン300及び拡張現実システム402乃至408の間の関係の好適な実施例を示す。
環境知能の環境のためのオーサリングツール502は、典型的に以下を有する。
−ビート動作、リンク及び前提条件の変更
−ビート及びリンクの追加
−ビート及びリンクの削除
典型的なオーサリングツール502は、ユーザが新たなビート及びリンクを追加し、古いものを除去し、既存のものを変更することを可能とする。これらの機能は、AR眼鏡131の「書き込み」モードにおいて提供される。好適な実施例においては、「読み取り」モードにはユーザの指示により入り、それにより「読み取り」モードに入るためにユーザがAR眼鏡131を外す必要がないようにされる。この「読み取り」モードにおいては、ユーザは該ユーザのAR眼鏡131において可視化された付加的な情報を見るが、環境知能の環境はユーザがAR眼鏡を装着することなく「読み取り」モードにあるかのように動作する。また、好適な実施例においては、試行ビートが指定されることができ、それによりビートの試行セットが保存されることができ、後に一度にセットとして追加/削除されることができる。このことは、削除された他のビートと共にでしか利用されないビートをユーザが除去し忘れるという状況を回避する。このことはまた、例えば他の建物に何らかの環境知能を提供するため、以前に定義されデバッグされたビートセットの再利用を可能とする。
ボタン151に触れることにより、AR眼鏡131の視野132において異なる画面が選択され表示されるような代替実施例においては、他のGUIが可能である。更に、代替の実施例は、音声対話及びヘッドセット140を利用しても良い。全ての代替GUI実施例において、ユーザはユーザの動作に対して即座のフィードバックを受ける。
好適な実施例においては、アイコン、経路及び領域を選択することにより、ユーザが異なるオーサリング画面を立ち上げる。
好適な実施例においては、アイコンを選択することにより、ユーザが特定のビートの動作部を変更する。第1の画面601が、入ってくる及び出て行くリンク601.2のようなビートについての情報を提供する例が、図6に示される。第2の画面602は、ユーザがアイコンを修正することを可能とする。画面601及び602は共に、本発明の拡張現実感眼鏡131を装着するユーザの視野132に出現する。
経路を選択することにより、ユーザはリンク701.1/701.2の源及び/又は行き先を変更する(701)ことができる(図7)。ユーザは、ビートデータベースから既存のビートを選択することができ、又はクエリ701.3を特定することができる(例えば、幾つかのキーワードを発話することによって。次いで、クエリのキーワードに合致するビートのアイコンが、アイコンに表示される)。
領域を選択することによって、ユーザは選択されたビートの前提条件801及び802(図8)を変更することができる。
ユーザは、或るユーザがビートの前提条件を変更してから、オーサリング画面を切り換え得る(ユーザはまた、該前提条件が持つ影響を変更し、動作を変更したいと欲し得る)。ARシステム500は、即座のフィードバックをユーザに提供する。全ての変更は、本発明のAR眼鏡131により提供される可視化に反映される。
新たなビートを追加するため、ユーザは該ユーザが新たなビートを追加したい旨を示唆する。好適な実施例においては、このことはボタンを押下することにより実現され、ユーザが新たなビートの前提条件及び動作部を生成することができるモードを立ち上げる。該前提条件が、最初に規定される必要がある(これら前提条件が選択され得るアプリケーションを限定するであろうからである)。装置及びオブジェクトに触れることにより、ユーザは新たなビート記述の前提条件セクションに対して小道具を追加することができる。タグ付けされた衣服を装着することにより、ユーザは、動作者の役割を仮定し動作者の制約を追加することができる。好適な実施例においては、ボタンを押しながら歩き回ることにより、ユーザはビートがアクティブになることができる領域を設定する。全てのインタラクションは、可能な限り、実世界と近いものとされる。前提条件が設定された後、ユーザは該新たな前提条件に関連付けられる必要があるスクリプト又はアプリケーションを選択する。最後のステップは、環境ナラティブに新たなビートを追加することである。
ここで図9を参照すると、一定の数の起動要因(例えば美術館における1つの部屋のような各場所に対して1つ)を持つルートのビート(環境)905を含む基本的な構造が示される。各起動要因は、該特定の場所について、ビートを開始させる。該「場所」ビート904.1乃至904.Nは、最初は何もしない。しかし、ユーザが新たなビートを追加する際、ユーザは該ビートを適切な「場所」ビート904.1乃至904.Nに追加することができる(又は後の利用のため単にデータベースに該ビートを追加しても良い)。該動作は、オーサリングツール502により、正しい「場所」ビート904.1乃至904.Nに追加される起動要因要素へと変換される。ユーザは、ユーザ定義されたビートを削除することのみ可能とされる。
起動要因要素は、前提条件部とリンク記述とを持つ。該前提条件が満たされると、リンクが横断される(更にビートが開始される)。好適な実施例においては、可能なプロット構造を制約することにより、ツール502が簡素化される。新たなリンクを追加するためには、ユーザは、特定のボタンを押下することによって、該ユーザが新たなリンクを追加したい旨を示唆する必要がある。好適な実施例においては、このことは、ボタン押下と組み合わせて身振りを利用することにより為され、それによりユーザは、或るアイコンをリンクの始点として選択し、他のアイコンを該リンクの終点として選択することができる。該リンクの始点は視野132においてダイアログ画面を立ち上げ、該画面において、スクリプト又はアプリケーションにおけるどの点において該リンクが横断されるべきであるかをユーザが規定する。ユーザが満足した場合、該ユーザは該新たなリンクを保存する。ARシステムは、ユーザに対して即座のフィードバックを提供する。新たなビート及びリンクは、拡張現実感眼鏡131の視野132において即座に描画される。図10は、新たなに追加されたリンクが、AR眼鏡131の視野132においてどのように現れるかを示す。
ビート及びリンクの削除は、ビート及びリンクの追加に類似する。ユーザは、特定のボタンを押下することにより、又は音声コマンドにより、削除を示唆する。ユーザは次いで、(依然として装着されている該ユーザのAR眼鏡を用いて物理的なオブジェクト又は装置に触れることにより)アイコンを選択し、ビート(及び該ビートから出て行くリンクの全て)が削除される旨の警告を受ける。該モードにおいてユーザがリンクを選択した場合も同様に、該ユーザは該リンクが削除される旨の警告を受ける。ARシステム500は、ユーザに対して即座のフィードバックを提供する。削除されたビート及びリンクは、拡張現実感眼鏡131の視野132から削除される。種々の設定でユーザがビート及びリンクの削除並びにその影響を実験することを可能とするため、「アンドゥ(undo)」/「デバッグ」モードが提供される。図11における強調箇所1101は、該「アンドゥ」操作が好適な実施例において実装されたときに、該操作により影響を受けるビート1001を示す。
本発明の好適な実施例が記載され説明されたが、ここで説明された装置及びシステムアーキテクチャ並びに方法は説明のためのものであり、本発明の真の範囲から逸脱することなく、種々の変更及び修正が為され得、本発明の要素に代わる同等物が代用され得ることは、当業者には理解されるであろう。加えて、本発明の中心範囲から逸脱することなく、本発明の教示を特定の状況に適応させるために、多くの変更が為され得る。それ故本発明は、本発明を実行するための予期される最良の形態として開示された実施例に限定されるものではなく、本発明は添付される請求の範囲内となる全ての実施例を含むことが意図されている。
拡張現実感(AR)眼鏡を利用した環境知能の環境の装着者の印象を示す。 拡張現実感(AR)眼鏡の実装の例を示す。 イヤフォン及びマイクロフォンを有するヘッドセットを含むAR眼鏡のためのオーディオ入力/出力装置の例を示す。 本発明のAR眼鏡の視野において選択を為すためのモバイル型マウス状装置の例を示す。 典型的なビートドキュメントを示す。 典型的なビートシーケンス化エンジンのフロー図を示す。 典型的な拡張現実システムを示す。 本発明による、オーサリングツールにより修正された、図4の拡張現実システムを示す。 本発明のAR眼鏡を用いたビートオーサリング用ユーザインタフェースの画面を示す。 リンク修正を実現するための、本発明のAR眼鏡を用いたユーザインタフェースの画面を示す。 前提条件の修正/定義のための、本発明のAR眼鏡を用いたユーザインタフェースの画面を示す。 プロット構造への新たなビートの追加を示す。 新たに追加されたリンクがAR眼鏡の視野にどのように現れるかを示す。 「アンドゥ」操作により影響を受けるビートを示す。

Claims (16)

  1. エンドユーザが、少なくとも1つのプログラム可能な構成要素を含むように環境知能の環境をプログラムすることを可能とするための装置であって、前記装置は、
    透明な視野を持つ拡張現実感眼鏡であって、該拡張現実感眼鏡を装着したときエンドユーザに対して、前記透明な視野において前記ユーザによって見られる対応する実世界のエンティティに近接する前記少なくとも1つのプログラム可能な構成要素を前記透明な視野において可視化する拡張現実感眼鏡と、
    前記少なくとも1つのプログラム可能な構成要素について、少なくとも1つのプログラムをエンドユーザが閲覧、作成及び修正するための、前記拡張現実感眼鏡を装着しているエンドユーザの前記拡張現実感眼鏡の視野において出現するユーザプログラミングインタフェースと、
    前記ユーザプログラミングインタフェースが前記視野において出現しているときに、ユーザが前記ユーザプログラミングインタフェースに対して指示し反応するための、少なくとも1つのユーザ入力装置と、
    を有する装置。
  2. 前記拡張現実感眼鏡は更に、エンドユーザが前記環境知能の環境とインタラクトするときに前記少なくとも1つのプログラム可能な構成要素を「読み取る」機能と、前記拡張現実感眼鏡を装着していない場合にエンドユーザによって見られるであろう視野に前記環境知能の環境とのエンドユーザのインタラクションを表示する機能とを有する、請求項1に記載の装置。
  3. 前記ユーザプログラミングインタフェースは、前記少なくとも1つのユーザ入力装置と組み合わせられ、それによりアイコン、ビート、領域及びリンクのいずれかを別個に及び組み合わせて生成、取得、変更/削除、命名及び保存することのそれぞれを含む「書き込み」の機能を有する、請求項1に記載の装置。
  4. 前記拡張現実感眼鏡は更に、エンドユーザが前記環境知能の環境とインタラクトするときに前記少なくとも1つのプログラム可能な構成要素を「読み取る」機能と、エンドユーザによって見られる前記環境知能の環境の少なくも1つの構成要素のビューを表示する機能とを有する、請求項3に記載の装置。
  5. 前記ユーザプログラミングインタフェースは、前記拡張現実感眼鏡の視野に提示されるグラフィカルユーザインタフェースを有し、
    前記ユーザ入力装置は、音声入力/出力のためのヘッドセット、左ボタン、右ボタン及びメニューボタンを含むボタン装置/モバイル型マウス、音声入力及びオーディオフィードバックのためのマイクロフォン及びスピーカを含むハンドヘルド型オーディオ入出力ワンド、前記拡張現実感眼鏡に組み込まれるホイールマウス、並びに前記拡張現実感眼鏡に組み込まれる左及び右ボタンから成る群から選択される装置の組み合わせを有する、請求項1に記載の装置。
  6. 前記ユーザプログラミングインタフェースは、前記少なくとも1つのユーザ入力装置と組み合わせられ、それによりアイコン、ビート、領域及びリンクのいずれかを別個に及び組み合わせて生成、取得、変更/削除、命名及び保存することのそれぞれを含む「書き込み」の機能を有する、請求項2に記載の装置。
  7. 前記拡張現実感眼鏡を装着しているユーザにより見られている場面を決定するための、前記拡張現実感眼鏡を装着しているエンドユーザの位置及び方向に関する情報を提供するための手段と、
    少なくとも前記視野において前記少なくとも1つの構成要素に近接する対応する実世界のエンティティを可視化するための、構成要素の位置情報を取得するための手段と、
    を更に有する、請求項2に記載の装置。
  8. 前記エンドユーザの位置及び方向に関する情報を提供するための手段は、前記拡張現実感眼鏡に装着されたカメラであり、
    前記構成要素の位置情報を取得するための手段は、構成要素の位置のデータベースから位置情報を取得することと、前記構成要素を検知するために配置されたセンサ網から位置情報を取得することと、から成る群から選択される、請求項7に記載の装置。
  9. 前記ユーザプログラミングインタフェースは、前記少なくとも1つのユーザ入力装置と組み合わせられ、それによりアイコン、ビート、領域及びリンクのいずれかを別個に及び組み合わせて生成、取得、変更/削除、命名及び保存することのそれぞれを含む「書き込み」の機能を有する、請求項8に記載の装置。
  10. 前記ユーザプログラミングインタフェースは、前記拡張現実感眼鏡の視野に提示されるグラフィカルユーザインタフェースを有し、
    前記ユーザ入力装置は、音声入力/出力のためのヘッドセット、左ボタン、右ボタン及びメニューボタンを含むボタン装置/モバイル装置、音声入力及びオーディオフィードバックのためのマイクロフォン及びスピーカを含むハンドヘルド型オーディオ入出力ワンド、前記拡張現実感眼鏡に組み込まれるホイールマウス、並びに前記拡張現実感眼鏡に組み込まれる左及び右ボタンから成る群から選択される装置の組み合わせである、請求項9に記載の装置。
  11. 環境知能の環境のエンドユーザプログラミングのためのシステムであって、前記システムは拡張現実システムを有し、前記拡張現実システムは、
    エンドユーザによって装着される、請求項1に記載の拡張現実感眼鏡と、
    前記拡張現実感眼鏡を装着している間にエンドユーザによって起動される環境知能の環境のプログラム可能な構成要素を「読み取る」ためのビートシーケンス化エンジンと、
    を含み、前記起動される構成要素は前記エンドユーザによって装着された前記拡張現実感眼鏡の視野において可視化され、前記システムは更に、
    前記拡張現実感眼鏡の視野において表示されるユーザインタフェースを利用して、環境知能の環境のプログラム可能な構成要素及び関連するプログラムを「書き込む」ため、前記エンドユーザのための前記拡張現実システムにインタフェース接続されたエンドユーザ入力を収集するためのオーサリングツールを有するシステム。
  12. 環境知能の環境におけるエンドユーザが、少なくとも1つのプログラム可能な構成要素を含むように、前記環境知能の環境をプログラムするための方法であって、前記方法は、
    透明な視野を持つ拡張現実感眼鏡を提供するステップと、
    エンドユーザが前記環境知能の環境において前記拡張現実感眼鏡を装着したときに、前記視野において、前記透明な視野において見られる対応する実世界のエンティティに近接する前記少なくとも1つのプログラム可能な構成要素を可視化するステップと、
    「アンドゥ」/「デバッグ」モードを持つ、エンドユーザが前記少なくとも1つのプログラム可能な構成要素についての少なくとも1つのプログラムを「読み取る」及び「書き込む」ことを可能とする、前記視野におけるエンドユーザプログラミングインタフェースを表示するステップと、
    前記エンドユーザプログラミングインタフェースが前記視野において出現したときに、エンドユーザが表示された前記エンドユーザプログラミングインタフェースに対して指示し反応して、前記少なくとも1つのプログラム可能な構成要素をプログラムするための、少なくとも1つのユーザ入力装置を提供するステップと、
    を有する方法。
  13. 前記拡張現実感眼鏡を装着しているエンドユーザの位置及び方向に関する情報を供給するステップと、
    前記供給されたエンドユーザの位置及び方向情報から、前記拡張現実感眼鏡を装着しているエンドユーザにより見られている場面を決定するステップと、
    プログラム可能な構成要素の位置情報を取得するステップと、
    前記透明な視野において見られる対応する実世界のエンティティに近接する前記少なくとも1つのプログラム可能な構成要素を前記視野において可視化するステップと、
    を更に有する、請求項12に記載の方法。
  14. 前記エンドユーザの位置及び方向に関する情報を供給するステップは、前記拡張現実感眼鏡に装着されたカメラを備えるステップを更に有し、
    前記構成要素の位置情報を取得するステップは、位置のデータベース及び前記構成要素の位置を検知するために配置されたセンサ網から成る群から選択される情報源からの情報を取得するステップを更に有する、
    請求項13に記載の方法。
  15. プログラム可能な構成要素についてのプログラムを「書き込む」ステップにおいて、前記エンドユーザインタフェースを表示するステップと、前記少なくとも1つのユーザ入力装置を提供するステップとを組み合わせるステップを更に有し、前記「書き込む」ステップは、アイコン、ビート、領域及びリンクのいずれかを別個に及び組み合わせて生成、取得、変更/削除、命名及び保存するサブステップを有する、請求項14に記載の方法。
  16. 前記エンドユーザプログラミングインタフェースを表示するステップは、前記拡張現実感眼鏡の視野に提示されるグラフィカルユーザインタフェースを表示するステップを更に有し、
    前記ユーザ入力装置を提供するステップは、音声入力/出力のためのヘッドセット、左ボタン、右ボタン及びメニューボタンを含むボタン装置/モバイル型マウス、音声入力及びオーディオフィードバックのためのマイクロフォン及びスピーカを含むハンドヘルド型オーディオ入出力ワンド、前記拡張現実感眼鏡に組み込まれるホイールマウス、並びに前記拡張現実感眼鏡に組み込まれる左及び右ボタンから成る群から選択される装置の組み合わせを提供するステップを更に有する、
    請求項15に記載の方法。
JP2008526596A 2005-08-15 2006-08-15 エンドユーザプログラミングのための拡張現実感眼鏡のためのシステム、装置及び方法 Withdrawn JP2009505268A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US70832205P 2005-08-15 2005-08-15
PCT/IB2006/052812 WO2007020591A2 (en) 2005-08-15 2006-08-15 System, apparatus, and method for augmented reality glasses for end-user programming

Publications (1)

Publication Number Publication Date
JP2009505268A true JP2009505268A (ja) 2009-02-05

Family

ID=37575270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008526596A Withdrawn JP2009505268A (ja) 2005-08-15 2006-08-15 エンドユーザプログラミングのための拡張現実感眼鏡のためのシステム、装置及び方法

Country Status (6)

Country Link
US (1) US20100164990A1 (ja)
EP (1) EP1922614A2 (ja)
JP (1) JP2009505268A (ja)
CN (1) CN101243392A (ja)
RU (1) RU2008110056A (ja)
WO (1) WO2007020591A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094091B2 (en) 2009-12-15 2012-01-10 Kabushiki Kaisha Toshiba Information presenting apparatus, method, and computer program product
JP2014515854A (ja) * 2011-03-29 2014-07-03 クアルコム,インコーポレイテッド 拡張現実システムにおける実世界表面への仮想画像のアンカリング
JP2016110542A (ja) * 2014-12-10 2016-06-20 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US10185388B2 (en) 2014-11-17 2019-01-22 Seiko Epson Corporation Head mounted display, display system, control method of head mounted display, and computer program

Families Citing this family (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070257881A1 (en) * 2006-05-08 2007-11-08 Marja-Leena Nurmela Music player and method
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
US8390534B2 (en) * 2007-03-08 2013-03-05 Siemens Aktiengesellschaft Method and device for generating tracking configurations for augmented reality applications
US8855719B2 (en) * 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US9886231B2 (en) 2008-03-28 2018-02-06 Kopin Corporation Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US20090327883A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Dynamically adapting visualizations
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
EP2427812A4 (en) * 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US20100325154A1 (en) * 2009-06-22 2010-12-23 Nokia Corporation Method and apparatus for a virtual image world
JP5263049B2 (ja) * 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2011039647A (ja) * 2009-08-07 2011-02-24 Sony Corp 情報提供装置および方法、端末装置および情報処理方法、並びにプログラム
JP5728159B2 (ja) 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
CN102792339B (zh) * 2010-03-17 2016-04-27 索尼公司 信息处理装置、信息处理方法
MX350182B (es) 2010-06-15 2017-08-08 Ticketmaster L L C Metodo y sistemas para configuracion y modelado por computadora de lugares de eventos y mapas interactvos.
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
US9781170B2 (en) 2010-06-15 2017-10-03 Live Nation Entertainment, Inc. Establishing communication links using routing protocols
US9573064B2 (en) * 2010-06-24 2017-02-21 Microsoft Technology Licensing, Llc Virtual and location-based multiplayer gaming
US20120256917A1 (en) * 2010-06-25 2012-10-11 Lieberman Stevan H Augmented Reality System
US20120105440A1 (en) * 2010-06-25 2012-05-03 Lieberman Stevan H Augmented Reality System
KR101325757B1 (ko) * 2010-07-09 2013-11-08 주식회사 팬택 가상 마커 생성을 이용한 증강 현실 제공 장치 및 방법
KR101285391B1 (ko) * 2010-07-28 2013-07-10 주식회사 팬택 음향 객체 정보 융합 장치 및 방법
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9111326B1 (en) 2010-12-21 2015-08-18 Rawles Llc Designation of zones of interest within an augmented reality environment
US8845110B1 (en) 2010-12-23 2014-09-30 Rawles Llc Powered augmented reality projection accessory display device
US9134593B1 (en) 2010-12-23 2015-09-15 Amazon Technologies, Inc. Generation and modulation of non-visible structured light for augmented reality projection system
US8905551B1 (en) 2010-12-23 2014-12-09 Rawles Llc Unpowered augmented reality projection accessory display device
US8845107B1 (en) 2010-12-23 2014-09-30 Rawles Llc Characterization of a scene with structured light
US9721386B1 (en) * 2010-12-27 2017-08-01 Amazon Technologies, Inc. Integrated augmented reality environment
US9607315B1 (en) 2010-12-30 2017-03-28 Amazon Technologies, Inc. Complementing operation of display devices in an augmented reality environment
US9508194B1 (en) 2010-12-30 2016-11-29 Amazon Technologies, Inc. Utilizing content output devices in an augmented reality environment
JP5742263B2 (ja) * 2011-02-04 2015-07-01 セイコーエプソン株式会社 虚像表示装置
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US10114451B2 (en) * 2011-03-22 2018-10-30 Fmr Llc Augmented reality in a virtual tour through a financial portfolio
JP5741160B2 (ja) * 2011-04-08 2015-07-01 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
RU2017118159A (ru) 2011-05-06 2018-10-30 Мэджик Лип, Инк. Мир массового одновременного удаленного цифрового присутствия
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8749573B2 (en) 2011-05-26 2014-06-10 Nokia Corporation Method and apparatus for providing input through an apparatus configured to provide for display of an image
CN102810099B (zh) * 2011-05-31 2018-04-27 中兴通讯股份有限公司 增强现实视图的存储方法和装置
US9597587B2 (en) * 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
EP2724262A4 (en) * 2011-06-21 2015-04-01 Ericsson Telefon Ab L M INTERMEDIATE STORAGE SUPPORT FOR VISUAL SEARCH AND EXTENDED REALITY IN MOBILE NETWORKS
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US9155964B2 (en) 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
US9118782B1 (en) 2011-09-19 2015-08-25 Amazon Technologies, Inc. Optical interference mitigation
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
JP2015504616A (ja) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9606992B2 (en) 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9547406B1 (en) 2011-10-31 2017-01-17 Google Inc. Velocity-based triggering
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US9525964B2 (en) * 2012-02-02 2016-12-20 Nokia Technologies Oy Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
US20130257906A1 (en) * 2012-03-31 2013-10-03 Feng Tang Generating publication based on augmented reality interaction by user at physical site
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
EP2842055B1 (en) 2012-04-25 2018-06-27 Kopin Corporation Instant translation system
US9442290B2 (en) 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
US9210413B2 (en) * 2012-05-15 2015-12-08 Imagine Mobile Augmented Reality Ltd System worn by a moving user for fully augmenting reality by anchoring virtual objects
US10019221B2 (en) 2012-05-16 2018-07-10 Nokia Technologies Oy Method and apparatus for concurrently presenting different representations of the same information on multiple displays
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US10176635B2 (en) 2012-06-28 2019-01-08 Microsoft Technology Licensing, Llc Saving augmented realities
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US9111383B2 (en) * 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
CN103902202B (zh) * 2012-12-24 2017-08-29 联想(北京)有限公司 一种信息处理方法及电子设备
US9180053B2 (en) 2013-01-29 2015-11-10 Xerox Corporation Central vision impairment compensation
US9301085B2 (en) 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
CN104007889B (zh) * 2013-02-27 2018-03-27 联想(北京)有限公司 一种反馈方法和电子设备
US9639964B2 (en) 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
US10109075B2 (en) 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9092865B2 (en) 2013-08-16 2015-07-28 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Map generation for an environment based on captured images
CN103480152A (zh) * 2013-08-31 2014-01-01 中山大学 一种可遥控的摇距临境移动系统
US20150161822A1 (en) * 2013-12-11 2015-06-11 Adobe Systems Incorporated Location-Specific Digital Artwork Using Augmented Reality
CN103793473A (zh) * 2013-12-17 2014-05-14 微软公司 保存增强现实
US9323323B2 (en) * 2014-01-06 2016-04-26 Playground Energy Ltd Augmented reality system for playground equipment incorporating transforming avatars
CN103927350A (zh) * 2014-04-04 2014-07-16 百度在线网络技术(北京)有限公司 基于智能眼镜的提示方法和装置
US9723109B2 (en) * 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US10133356B2 (en) * 2014-06-11 2018-11-20 Atheer, Inc. Method and apparatus for controlling a system via a sensor
US9798299B2 (en) 2014-06-20 2017-10-24 International Business Machines Corporation Preventing substrate penetrating devices from damaging obscured objects
US20170153866A1 (en) * 2014-07-03 2017-06-01 Imagine Mobile Augmented Reality Ltd. Audiovisual Surround Augmented Reality (ASAR)
EP3175616A1 (en) * 2014-07-31 2017-06-07 Seiko Epson Corporation Display device, control method for display device, and program
US9892560B2 (en) * 2014-09-11 2018-02-13 Nant Holdings Ip, Llc Marker-based augmented reality authoring tools
US9366883B2 (en) 2014-11-13 2016-06-14 International Business Machines Corporation Using google glass to project a red overlay that enhances night vision
US9916002B2 (en) * 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
US10043319B2 (en) 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
CN104598037B (zh) * 2015-03-02 2018-08-31 联想(北京)有限公司 信息处理方法及装置
US9520002B1 (en) 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10007352B2 (en) 2015-08-21 2018-06-26 Microsoft Technology Licensing, Llc Holographic display system with undo functionality
US10186086B2 (en) 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
US10564794B2 (en) * 2015-09-15 2020-02-18 Xerox Corporation Method and system for document management considering location, time and social context
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
CN106648038A (zh) * 2015-10-30 2017-05-10 北京锤子数码科技有限公司 在虚拟现实中显示交互对象的方法和装置
US10768772B2 (en) * 2015-11-19 2020-09-08 Microsoft Technology Licensing, Llc Context-aware recommendations of relevant presentation content displayed in mixed environments
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
US10304247B2 (en) 2015-12-09 2019-05-28 Microsoft Technology Licensing, Llc Third party holographic portal
US10163198B2 (en) 2016-02-26 2018-12-25 Samsung Electronics Co., Ltd. Portable image device for simulating interaction with electronic device
CN105867617B (zh) 2016-03-25 2018-12-25 京东方科技集团股份有限公司 增强现实设备、系统、图像处理方法及装置
US10452821B2 (en) * 2016-03-30 2019-10-22 International Business Machines Corporation Tiered code obfuscation in a development environment
CN105912121A (zh) * 2016-04-14 2016-08-31 北京越想象国际科贸发展有限公司 一种增强现实的方法及系统
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US10095461B2 (en) * 2016-09-23 2018-10-09 Intel IP Corporation Outside-facing display for head-mounted displays
US10481479B2 (en) * 2016-09-26 2019-11-19 Ronald S. Maynard Immersive optical projection system
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
CN106683194A (zh) * 2016-12-13 2017-05-17 安徽乐年健康养老产业有限公司 一种增强现实医疗通讯系统
US20180182375A1 (en) * 2016-12-22 2018-06-28 Essential Products, Inc. Method, system, and apparatus for voice and video digital travel companion
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
CN106875493B (zh) * 2017-02-24 2018-03-09 广东电网有限责任公司教育培训评价中心 Ar眼镜中虚拟目标物的叠加方法
CN106908951A (zh) 2017-02-27 2017-06-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
RU2660631C1 (ru) * 2017-04-26 2018-07-06 Общество с ограниченной ответственностью "ТрансИнжКом" Способ и система для формирования изображений совмещенной реальности
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) * 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
GB2566734A (en) * 2017-09-25 2019-03-27 Red Frog Digital Ltd Wearable device, system and method
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US10964110B2 (en) * 2018-05-07 2021-03-30 Vmware, Inc. Managed actions using augmented reality
US10902684B2 (en) 2018-05-18 2021-01-26 Microsoft Technology Licensing, Llc Multiple users dynamically editing a scene in a three-dimensional immersive environment
WO2019235958A1 (ru) * 2018-06-08 2019-12-12 Oganesyan Maxim Samvelovich Способ предоставления услуги виртуального посещения мероприятия
US11049608B2 (en) 2018-07-03 2021-06-29 H&R Accounts, Inc. 3D augmented reality document interaction
US10860120B2 (en) 2018-12-04 2020-12-08 International Business Machines Corporation Method and system to automatically map physical objects into input devices in real time
US10890992B2 (en) 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces
US11150788B2 (en) 2019-03-14 2021-10-19 Ebay Inc. Augmented or virtual reality (AR/VR) companion device techniques
US11977725B2 (en) * 2019-08-07 2024-05-07 Human Mode, LLC Authoring system for interactive virtual reality environments
CN114585423A (zh) 2019-08-22 2022-06-03 Nantg移动有限责任公司 虚拟和现实世界的内容创建、装置、系统和方法
US11398216B2 (en) * 2020-03-11 2022-07-26 Nuance Communication, Inc. Ambient cooperative intelligence system and method
CN112712597A (zh) * 2020-12-21 2021-04-27 上海影创信息科技有限公司 目的地相同用户的轨迹提示方法和系统
CN112397070B (zh) * 2021-01-19 2021-04-30 北京佳珥医学科技有限公司 一种滑动翻译ar眼镜

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5334991A (en) * 1992-05-15 1994-08-02 Reflection Technology Dual image head-mounted display
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6756998B1 (en) * 2000-10-19 2004-06-29 Destiny Networks, Inc. User interface and method for home automation system
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US7693702B1 (en) * 2002-11-01 2010-04-06 Lockheed Martin Corporation Visualizing space systems modeling using augmented reality
US7047092B2 (en) * 2003-04-08 2006-05-16 Coraccess Systems Home automation contextual user interface

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094091B2 (en) 2009-12-15 2012-01-10 Kabushiki Kaisha Toshiba Information presenting apparatus, method, and computer program product
JP2014515854A (ja) * 2011-03-29 2014-07-03 クアルコム,インコーポレイテッド 拡張現実システムにおける実世界表面への仮想画像のアンカリング
US9047698B2 (en) 2011-03-29 2015-06-02 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US9142062B2 (en) 2011-03-29 2015-09-22 Qualcomm Incorporated Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking
US9384594B2 (en) 2011-03-29 2016-07-05 Qualcomm Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
US10185388B2 (en) 2014-11-17 2019-01-22 Seiko Epson Corporation Head mounted display, display system, control method of head mounted display, and computer program
JP2016110542A (ja) * 2014-12-10 2016-06-20 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Also Published As

Publication number Publication date
CN101243392A (zh) 2008-08-13
EP1922614A2 (en) 2008-05-21
WO2007020591A2 (en) 2007-02-22
US20100164990A1 (en) 2010-07-01
WO2007020591A3 (en) 2007-08-09
RU2008110056A (ru) 2009-09-27

Similar Documents

Publication Publication Date Title
JP2009505268A (ja) エンドユーザプログラミングのための拡張現実感眼鏡のためのシステム、装置及び方法
DK180470B1 (en) Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
JP2022140779A (ja) 広範囲同時遠隔ディジタル提示世界
Peissner et al. MyUI: generating accessible user interfaces from multimodal design patterns
US20040051718A1 (en) Authoring system
US20230092103A1 (en) Content linking for artificial reality environments
Sandor et al. A rapid prototyping software infrastructure for user interfaces in ubiquitous augmented reality
US20120229509A1 (en) System and method for user interaction
Ohlenburg et al. The MORGAN framework: enabling dynamic multi-user AR and VR projects
US20180373504A1 (en) Graphical interface to generate instructions to control a representation by an output interface of one or more objects
KR20120072126A (ko) 간접체험을 위한 비주얼 서로게이트와 그 공급 장치 및 방법
US20200320795A1 (en) System and layering method for fast input-driven composition and live-generation of mixed digital content
US8036995B2 (en) Method for programming by rehearsal
JP2023515988A (ja) 拡張現実ゲスト認識システム及び方法
CN113610984A (zh) 一种基于Hololens2全息眼镜的增强现实方法
JP2006221550A (ja) インタフェース方法、装置、プログラム、および記録媒体
Lin et al. CATtalk: An IoT-based interactive art development platform
Coen A prototype intelligent environment
CN106716501A (zh) 一种可视化装修设计方法及其装置、机器人
Barakonyi et al. Augmented reality agents for user interface adaptation
Honauer Designing a remote-controlled interactive dance costume
Webb et al. Choreographic buttons: promoting social interaction through human movement and clear affordances
B. Owen et al. Integrating the audience into a theatre performance using mobile devices
Li et al. A robot motion control mechanism using robot drama markup language
Wang et al. Narrative Controllability in Visual Reality Interactive Film

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091110