JP2018073433A - 触覚フィードバックを備えた拡張現実ユーザ・インタフェース - Google Patents

触覚フィードバックを備えた拡張現実ユーザ・インタフェース Download PDF

Info

Publication number
JP2018073433A
JP2018073433A JP2017250980A JP2017250980A JP2018073433A JP 2018073433 A JP2018073433 A JP 2018073433A JP 2017250980 A JP2017250980 A JP 2017250980A JP 2017250980 A JP2017250980 A JP 2017250980A JP 2018073433 A JP2018073433 A JP 2018073433A
Authority
JP
Japan
Prior art keywords
augmented reality
feedback
environment
control signal
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017250980A
Other languages
English (en)
Other versions
JP6713445B2 (ja
Inventor
ラクロワ,ロバート
Lacroix Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2018073433A publication Critical patent/JP2018073433A/ja
Application granted granted Critical
Publication of JP6713445B2 publication Critical patent/JP6713445B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】拡張現実環境中で生じたイベントに基づいてフィードバックを生成するよう構成されたデバイスを提供する。【解決手段】システム10は、デバイス100、AR(拡張現実)デバイス200を含む。デバイス100は、ウェアラブル・デバイスとして構成することができ、AR環境に基づいてフィードバックを提供する。ARデバイス200は、拡張現実環境を生成する。デバイス100は、ARデバイス200からの制御信号を受信するプロセッサ110と、受信された制御信号に基づいてフィードバックを提供するフィードバック・デバイス120とを含む。デバイス100が受信する制御信号は、拡張現実環境内に生じたイベントを表す。拡張現実環境には、少なくとも一つの物理オブジェクトが中に存在する物理空間と、該物理オブジェクトを拡張する一つ以上の仮想オブジェクトが中に表示される拡張現実空間とを含めることができる。【選択図】図1

Description

本発明は、拡張現実環境中で生じたイベントに基づいてフィードバックを生成するよう構成されたデバイスに関する。
拡張現実デバイスは、物理空間中の物理オブジェクトが、仮想空間中の仮想オブジェクトと同時にその中に表示される拡張現実環境を提供する。各種の拡張現実デバイスは、物理オブジェクト上に配置された特定のコード(例えば、QRコード)を認識し、その特定のコードに基づいて、物理オブジェクトを含むビュー中に一つ以上の仮想オブジェクトを表示し、該仮想オブジェクトによって該物理オブジェクトを拡張する。別の拡張現実デバイスは、例えば、画像認識を行うサーバに画像を送信するなどして、画像認識を用いて特定の既知の物理オブジェクトを認識することができる。
拡張現実システムの進展にもかかわらず、拡張仮想環境と相互作用を行う能力は限られている。例えば、在来の拡張現実デバイスは、通常、拡張現実環境に関連して入力を与えるために音声認識を用いる。ユーザに対する有用なフィードバックの提供も限られている。さらに、仮想現実環境中のオブジェクトの認識も演算集約的となり得て、多くの事例で使い勝手を損ねている。
本開示は、拡張現実環境中で生じたイベントに基づいてフィードバックを生成し、拡張現実環境に入力を提供し、拡張現実環境と関連付けて認識される、ように構成されたデバイスに関する。この拡張現実環境は、本デバイスに通信可能に連結された拡張現実デバイスによって生成することができる。
本開示のデバイスは、拡張現実環境に基づいてフィードバックを提供するよう構成することが可能である。本デバイスには、例えば、拡張現実デバイスからの制御信号を受信するよう構成されたプロセッサと、受信された制御信号に基づいてフィードバックを提供するよう構成されたフィードバック・デバイスとを含めることができる。拡張現実デバイスは、拡張現実環境を生成することができ、本デバイスから遠隔に置くことが可能である。本デバイスによって受信される制御信号は、拡張現実環境内に生じたイベントを表すものとすることができる。拡張現実環境には、少なくとも一つの物理オブジェクトが中に存在する物理空間と、該物理オブジェクトを拡張する一つ以上の仮想オブジェクトが中に表示される拡張現実空間とを含めることができる。
イベントには、本デバイスと拡張現実環境との相互作用、拡張現実環境に対して起きているアクションの確認、本デバイスが拡張現実デバイスによって認識されていることの確認、本デバイスと拡張現実空間中に表現された一つ以上の仮想オブジェクトとの相互作用、および/または拡張現実環境中の他の出来事を含めることが可能である。
本デバイスには、例えば、通信ポート、位置または方位デバイス、入力コンポーネント、および/または他のコンポーネントを含めることができる。通信ポートには、例えば拡張現実デバイスとの、通信チャネルの維持を可能にするためのインターフェースを含めることができる。拡張現実デバイスからの制御信号は通信チャネルを通して受信することができ、このチャネルは有線または無線の通信チャネルを含み得る。位置または方位デバイ
スは、通信チャネルを介し、拡張現実デバイスに位置、方位またはその両方を提供するよう構成することができる。入力コンポーネントは、例えば、ボタン押し、ジェスチャ、および/または他の入力などの入力を受け取るよう構成することが可能である。この入力は、プロセッサによって通信チャネルを介して拡張現実デバイスに伝達することができる。
いくつかの実施態様において、本デバイスのプロセッサは、例えば、フィードバック制御モジュール、通信モジュール、および/または他のコンピュータ・プログラム・モジュールを含む一つ以上のモジュールを実行するよう構成することができる。フィードバック制御モジュールは、制御信号を受信し、フィードバック・デバイスにフィードバックを提供させるよう構成することが可能である。通信モジュールは、本デバイスと拡張現実デバイスとの間の通信を推進するよう構成することができる。
フィードバック制御モジュールは、制御信号を受信し、フィードバック・デバイスにフィードバックを提供させるよう構成することが可能である。制御信号は、拡張現実デバイスにおけるイベントを表すものとすることができる。このイベントには、例えば、拡張仮想環境中に表示されている一つ以上の仮想オブジェクト、本デバイスと該一つ以上の仮想オブジェクトとの間の一つ以上の相互作用、および/または拡張現実環境に関連する他の出来事を含めることができる。いくつかの実施形態において、フィードバック制御モジュールは、フィードバック・デバイスに制御信号を与えるよう構成することが可能である。この実施形態において、制御信号をフィードバック・デバイスに直接印加してフィードバックを行わせることができる。いくつかの実施形態において、フィードバック制御モジュールは、受信された制御信号に基づいてフィードバック信号を決めるよう構成することが可能である。これらの実施形態において、フィードバック制御モジュールは、受信制御信号に基づくフィードバック信号を決めるためにルックアップ・テーブルを参照することができる。
通信モジュールは、本デバイスと拡張現実デバイスとの間の通信を推進するよう構成することができる。いくつかの実施態様において、通信モジュールは、本デバイス、拡張現実デバイス、サーバ、本デバイスのものと同様なコンポーネントおよび機能を含む携帯端末、および/または本デバイスと通信が可能な他のデバイス、の間での通信を推進するよう構成することが可能である。この通信モジュールは、本デバイス、拡張現実デバイス、サーバ、携帯端末、および/または他のデバイスの間での通信のため、有線または無線の通信チャネルを備えるよう構成することができる。
いくつかの実施態様において、フィードバック・デバイスには、触覚効果の形で触覚フィードバックを提供するよう構成された触覚出力デバイス、視覚フィードバックを提供するよう構成された視覚デバイス、聴覚フィードバックを提供するよう構成された聴覚デバイス、および/またはフィードバックを生成する他のデバイスを含めることが可能である。触覚出力デバイスは、例えば、内部でモータが偏心質量を動かす偏心回転質量(“ERM”:Eccentric Rotating Mass)、内部でスプリングに取り付けられた質量が前後に駆動される線形共鳴アクチュエータ(“LRA”:Linear
Resonant Actuator)、または、圧電物質、電気活性ポリマーまたは形
状合金などの「スマート材料」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または、触覚(例、振動触覚)フィードバックなどの物理的フィードバック提供する他の種類のアクチュエータなど、アクチュエータを含めることができる。触覚出力デバイスには、静電気摩擦(ESF:electrostatic friction)、超音波表面摩擦(USF:ultrasonic surface friction)を使うもの、または超音波触覚トランスデューサを使い音響放
射圧を誘導するもの、または触覚基板とフレキシブルまたは変形可能表面とを使うもの、またはエア・ジェットを用いたエア吐き出しなどの射出触覚出力を与えるものなど、非機
械的または非振動型のデバイスを含めることが可能である。視覚デバイスは、デバイスでの可視光など視覚フィードバックを生成するよう構成することができる。例えば、視覚フィードバックは、拡張現実環境中のイベントの発生を視覚的に示すことが可能である。
フィードバック・デバイスは、フィードバック制御モジュールから一つ以上の信号(例えば、制御信号またはフィードバック信号)を受信するよう構成することができる。触覚出力デバイス、視覚デバイス、聴覚デバイス、および/または他のフィードバック・デバイスは、これら一つ以上の信号に基づいて、本デバイスを介してフィードバックを提供することができる。
本デバイスには、識別指標を生成するよう構成された識別子デバイスを含めることが可能である。識別指標は、拡張現実デバイスが本デバイスを識別するために用いることができる。この識別指標には、可視の光学署名(例えば、可視波長内の光の光学署名)または不可視の署名(例えば、可視波長外の光の光学署名)を含めることが可能である。いくつかの実施態様において、本デバイスの表面に拡張現実シンボルを配置することができる。この拡張現実シンボルは、例えば、拡張現実環境内の本デバイスの方位を測定したり、拡張現実環境中で本デバイスの存在を識別したり、および/または他の形での本デバイスの認識を可能にしたりするために用いることができる。いくつかの実施態様において、本デバイスは、可聴署名、赤外線署名、および/または拡張現実デバイスが認識できる他の署名を発することが可能である。
いくつかの実施態様において、本デバイスは、指輪などウェアラブル・デバイスとして構成することができる。これらの実施態様において、フィードバック・デバイスには、指輪の周りに配置された発光バンドを含めることが可能である。発光バンドからのフィードバックには、拡張現実環境中の一つ以上の仮想オブジェクトにコーディネート可能な、色、パターン、および/または他の視覚特性を含めることができる。これらフィードバック・デバイスには、相隔てて指輪に配置された一つ以上の触覚出力デバイスを含めることも可能である。
いくつかの実施態様において、本デバイスは、手袋、指ぬき、指輪、および/または身に着けられる他のデバイスを含み得る。これらの実施態様において、フィードバック・デバイスには、本デバイスの指先部分および/または本デバイスの他の部分に配置された発光バンドを含めることが可能である。フィードバック・デバイスには、該デバイス全体に相隔てて配置された一つ以上の触覚出力デバイスを含めることもできる。識別指標および/または拡張現実シンボルは、本デバイスの表面上に配置することが可能である。いくつかの実施態様において、本デバイスは、着用者の手指の少なくとも指先を覆うことができる。識別指標または拡張現実シンボルは、着用者の指先を覆う本デバイスの表面、および/または本デバイスの他の表面に配置することが可能である。
いくつかの実施態様において、携帯端末にも同じまたは類似のコンポーネントおよび機能を含めることが可能で、該端末は、本デバイスと同じまたは類似の方法で拡張現実デバイスと相互作用することができる。この携帯端末には、例えば、タッチペン、ジョイスティック、携帯電話、ビデオ・ゲーム・コントローラ、および/または拡張現実デバイスと通信可能に連結できる他の携帯端末を含めることが可能である。いくつかの実施態様において、本デバイスおよび携帯端末の両方が、同時に拡張現実デバイスと相互作用することができる。
拡張現実(“AR”:augmented reality)デバイスは、拡張現実空間および物理空間の両方を含む拡張現実環境を生成するよう構成することができる。ARデバイスには、例えば、通信ポート、撮像デバイス、プロセッサ、および/または他のコ
ンポーネントを含めることが可能である。通信ポートには、例えば本デバイスとの、通信チャネルの維持を可能にするためのインターフェースを含めることができる。カメラなどの撮像デバイスは、物理空間を画像化するよう構成することが可能である。いくつかの実施態様において、拡張現実デバイスの撮像デバイスには、カメラ、赤外線検出装置、および/または他の画像記録デバイスを含めることができる。プロセッサは、物理空間に合わさった拡張現実空間を生成するよう構成することができる。プロセッサは、物理空間中の少なくとも一つの物理オブジェクトを認識し、拡張現実空間において、一つ以上の仮想オブジェクトを使って該少なくとも一つの物理オブジェクトを拡張するよう構成することが可能である。プロセッサは、拡張現実環境内のイベントを判定し、有線または無線通信チャネルを介して、本デバイスにそのイベントを表す制御信号を伝達するよう構成することができる。該制御信号は、本デバイスでフィードバックを生成させることができる。
いくつかの実施態様において、ARデバイスのプロセッサは、例えば、オブジェクト認識モジュール、オブジェクト生成モジュール、イベント処理モジュール、制御信号生成モジュール、通信モジュール、および/または他のコンピュータ・プログラム・モジュールを含め、一つ以上のモジュールを実行するよう構成することが可能である。オブジェクト認識モジュールは、物理空間中の物理オブジェクトを認識するよう構成することができる。オブジェクト生成モジュールは、仮想オブジェクトを生成して、認識された物理オブジェクトを拡張するよう構成することが可能である。イベント処理モジュールは、拡張現実環境内にイベントが生じたかどうかを検出するよう構成することができる。制御信号生成モジュールは、イベントに関連する情報を受信し、本デバイスに送信するための制御信号を生成するよう構成することが可能である。通信モジュールは、拡張現実デバイスと本デバイスとの間の通信を推進するよう構成することができる。
いくつかの実施態様において、拡張現実環境に基づいてフィードバックを提供するシステムには、拡張現実デバイス、本デバイスおよび/または携帯端末を含めることが可能である。
本明細書で開示するシステムおよび/または方法のこれらまたは他の目的、特徴、および特性と、関連する構造体のエレメントの動作の方法および機能、並びに部品の組み合わせおよび製造の経済性は、添付の図面を参照しながら、以下の説明および添付の特許請求の範囲を考慮することによってさらに明らかになろう。これらはすべて、本明細書の一部を構成し、同じ参照番号は、様々な図面において対応する部分を示す。但し、当然のことながら、これらの図面は、例示と説明だけのためのものであって、本発明の限定範囲を定義することは意図されていない。本明細書と請求項での使用において、単数形「ある(“a”、“an”)」、および「該(“the”)」は、文脈上明確に別段に示されていなければ、複数対象も含むものと意図されている。
以下の図のコンポーネントは、本開示の一般的原理を強調するよう図示されており、必ずしも一定縮尺では描かれていない。相対応するコンポーネントを指定する参照文字は、一貫性および明確化のため全体の図を通して必要に応じ反復使用されている。
本発明のある実施態様による、拡張現実環境に基づいてフィードバックを提供する例示的なシステムのブロック図を示す。
本発明の種々の実施態様による、指輪などのウェアラブル・デバイスとして構成された例示的なデバイスの概略図を示す。
本発明の種々の実施態様による、タッチペンなどの携帯端末として構成された例示的なデバイスの概略図を示す。
本発明のある実施態様による、例示的なフィードバック・デバイスの概略図を示す。
本発明の諸実施態様による、例示的な拡張現実環境の描写を示す。
本発明の種々の実施態様による、例示的な拡張現実デバイスの概略図を示す。 本発明の種々の実施態様による、例示的な拡張現実デバイスの概略図を示す。 本発明の種々の実施態様による、例示的な拡張現実デバイスの概略図を示す。
本発明のある実施態様による、拡張現実環境に基づいてフィードバックを提供するための例示的なプロセスのフローチャートを示す。
本発明のある実施態様による、拡張現実環境に基づいてフィードバックを提供するための例示的なプロセスのフローチャートを示す。
図1は、拡張現実(“AR”)環境に基づいてフィードバックを提供する例示的なシステム10のブロック図を示す。システム10には、デバイス100、拡張現実(“AR”)デバイス200、通信チャネル300、サーバ400、携帯端末102、および/または、デバイス100、ARデバイス200、またはサーバ400と通信することが可能な他のデバイスを含めることができる。
デバイス100は、AR環境に基づいてフィードバックを提供するよう構成することができる。例えば、デバイス100は、AR環境中に生じたイベントに基づいてフィードバックを生成し、AR環境に入力を与え、AR環境と関連して認識されるように構成することが可能である。AR環境は、デバイス100と通信可能に連結されたARデバイス200によって生成することができる。
ARデバイス200は、AR環境を生成することができ、デバイス100から遠隔に置くことが可能である。デバイス100によって受信される制御信号は、AR環境に生じたイベントを表すことができる。AR環境には、少なくとも一つの物理オブジェクトが存在する物理空間と、該物理オブジェクトを拡張する一つ以上の仮想オブジェクトが表示された拡張現実(“AR”)空間とを含めることが可能である。後記で詳しく説明するように、いくつかの実施態様において、ARデバイス200は、眼鏡の形状に構成することができる。
イベントには、デバイス100とAR環境との間の相互作用、AR環境に対して起きているアクションの確認、デバイス100がARデバイス200によって認識されていることの確認、デバイス100とAR空間中に表現された一つ以上の仮想オブジェクトとの間の相互作用、ユーザとAR環境との間の相互作用、および/またはAR環境中の他の出来事を含めることが可能である。
いくつかの実施態様において、デバイス100には、例えば、ARデバイス200からの制御信号を受信するよう構成されたプロセッサ110、受信された制御信号に基づいてフィードバックを提供するよう構成されたフィードバック・デバイス120、通信ポート
130、位置/方位デバイス140、入力コンポーネント150、識別子デバイス160、および/または他のコンポーネントを含めることができる。後記で詳しく説明するように、いくつかの実施態様において、デバイス100は手袋、指ぬき、指輪、および/または身に着けられる他のデバイスを含み得る。いくつかの実施態様において、デバイス100は、タッチペン、ジョイスティック、携帯電話、ビデオ・ゲーム・コントローラ、および/またはARデバイス200と通信可能に連結できる他の携帯端末など、携帯端末として構成することが可能である。いくつかの実施態様において、デバイス100とARデバイス200とは、単一の物理デバイス中の別個のデバイスとすることもでき、単一の物理デバイスに組み込むことも可能である。
いくつかの実施態様において、デバイス100のプロセッサ110は、例えば、フィードバック制御モジュール111、通信モジュール112、および/またはデバイス100の他のコンピュータ・プログラム・モジュールなど、一つ以上のモジュールを実行するよう構成することができる。フィードバック制御モジュール111は、制御信号を受信して、フィードバック・デバイス120にフィードバックを提供させるよう構成することが可能である。通信モジュール112は、デバイス100とARデバイス200との間の通信を推進するよう構成することができる。
フィードバック制御モジュール111は、(例えば、ARデバイス200から)制御信号を受信し、フィードバック・デバイス120にデバイス100を介してフィードバックを提供させるよう構成することが可能である。制御信号は、ARデバイス200におけるイベントを表すものとすることができる。このイベントは、例えば、拡張仮想環境中に表示されている一つ以上の仮想オブジェクト、デバイス100と該一つ以上の仮想オブジェクトとの間の一つ以上の相互作用、および/またはAR環境に関連する他の出来事を含み得る。いくつかの実施形態において、フィードバック制御モジュール111は、フィードバック・デバイス120に制御信号を与えるよう構成することが可能である。この実施形態において、制御信号をフィードバック・デバイス120に直接印加してフィードバックを行わせることもできる。いくつかの実施形態において、フィードバック制御モジュール111は、受信された制御信号に基づいてフィードバック応答を決めるよう構成することが可能である。これらの実施形態において、フィードバック制御モジュール111は、受信制御信号に基づくフィードバック応答を決めるためにルックアップ・テーブルを参照することができる。フィードバック応答は、受信制御信号に基づいて生成される対象の、一つ以上の種類のフィードバックと、指定フィードバックの種類に対する一つ以上のフィードバック信号とを含み得る。フィードバック制御モジュール111は、フィードバック応答の指定フィードバック信号を生成し、そのフィードバック信号を、それら信号が対応するそれぞれのフィードバック・デバイス120に送信するよう構成することができる。
いくつかの実施態様において、フィードバック制御モジュール111は、受信制御信号に基づいて、どの種類のフィードバックおよびどのフィードバック信号をフィードバック応答に含めるかを決めるためにデバイス100のルックアップ・テーブルを参照することができる。フィードバック応答には、単一のフィードバック信号、単一のフィードバック・デバイス120に対する複数のフィードバック信号、複数のフィードバック・デバイス120に対する複数のフィードバック信号、一つ以上のフィードバック・デバイス120に対するフィードバック信号のパターン、および/または他の種類のフィードバック応答を含めることが可能である。いくつかの実施態様において、フィードバック応答の種類は、制御信号によって表されるイベントの種類を示すものとすることができる。例えば、単一の信号を含むフィードバック応答によって、イベントがAR環境中でのデバイス100の認識を表していることを示すことができよう。あるパターンの信号を含むフィードバック応答は、イベントがデバイス100とAR環境との間の相互作用を表していることを示すものとすることもできよう。各種のフィードバック応答に関連付けられた表示内容は上
述した例に限定されない。
いくつかの実施態様において、ルックアップ・テーブルは、複数の制御信号と複数のフィードバック応答との間の関連付けを格納することができる。例えば、ある制御信号があるイベントが発生したことを示す情報を含む場合、ルックアップ・テーブルには、その制御信号に関連付けられたフィードバック応答を格納することが可能である。ある制御信号がある種類のイベントが発生したことを示す情報を含む場合、ルックアップ・テーブルには、制御信号の情報によって示され得る一つ以上の種類のイベントに対する一つ以上の異なったフィードバック応答を格納することができる。ある制御信号が、拡張仮想環境中に仮想オブジェクト(群)が表示されたことを示す情報を含む場合、拡張仮想環境中に表示され得る各種の仮想オブジェクトに対する各種のフィードバック応答を格納することが可能である。例えば、フィードバック応答は、信号中に示された一つ以上の仮想オブジェクトに対し、フィードバック応答が信号中に示された一つ以上の仮想オブジェクトの一つ以上の特性に対応するようにコーディネートすることができる。フィードバックには、色、形状、パターン、フィードバック信号の数、および/または示された仮想オブジェクトと類似の特性を含めることが可能である。ある制御信号が、デバイス100と一つ以上の仮想オブジェクトとの間の相互作用を示す情報を含む場合、ルックアップ・テーブルは、デバイス100とAR環境との間に起こり得る各種の相互作用に対する相異なるフィードバック応答を格納することができる。いくつかの実施態様において、フィードバック制御モジュール111は、複数の制御信号と関連するフィードバック応答を含むルックアップ・テーブルを格納するよう構成されたサーバ400から、フィードバック応答を読み出すことが可能である。
通信モジュール112は、デバイス100とARデバイス200との間の通信を推進するよう構成することができる。いくつかの実施態様において、通信モジュール112は、デバイス100と、ARデバイス200、サーバ400、携帯端末102(該端末にはデバイス100と類似のコンポーネントおよび機能を含めることができる)、および/またはデバイス100と通信が可能な他のデバイスと、の間の通信を推進するよう構成することができる。通信モジュール112は、デバイス100と、ARデバイス200、携帯端末102、サーバ400、および/またはデバイス100と通信する他のデバイスと、の間の通信のために有線または無線通信チャネル300を備えるよう構成することが可能である。
フィードバック・デバイス120には、触覚効果の形で触覚フィードバックを提供するよう構成された一つ以上の触覚出力デバイス、視覚フィードバックを提供するよう構成された一つ以上の視覚デバイス、聴覚フィードバックを提供するよう構成された一つ以上の聴覚デバイス、および/またはフィードバックを生成する他のデバイスを含めることができる。触覚出力デバイスには、例えば、内部でモータが偏心質量を動かす偏心回転質量(“ERM”)、内部でスプリングに取り付けられた質量が前後に駆動される線形共鳴アクチュエータ(“LRA”)、または、圧電物質、電気活性ポリマーまたは形状合金などの「スマート材料」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または、触覚(例、振動触覚)フィードバックなどの物理的フィードバック提供する他の種類のアクチュエータなど、アクチュエータを含めることができる。触覚出力デバイスには、静電気摩擦(ESF)、超音波表面摩擦(USF)を使うもの、または超音波触覚トランスデューサを使い音響放射圧を誘導するもの、または触覚基板とフレキシブルまたは変形可能表面とを使うもの、またはエア・ジェットを用いたエア吐き出しなどの射出触覚出力を与えるものなど、非機械的または非振動型のデバイスを含めることが可能である。視覚デバイスは、デバイス100での可視光など視覚フィードバックを生成するよう構成することが可能である。例えば、視覚フィードバックは、AR環境中のイベントの発生を視覚的に示すことができる。
フィードバック・デバイス120は、フィードバック制御モジュール111から一つ以上の信号(例えば、制御信号またはフィードバック信号)を受信するよう構成することができる。触覚出力デバイス、視覚デバイス、聴覚デバイス、および/または他のフィードバック・デバイス120は、一つ以上の信号に基づいて、デバイス100を介してフィードバックを提供することが可能である。
通信ポート130には、例えばARデバイス200との、通信チャネル300の維持を可能にするためのインターフェースを含めることができる。ARデバイス200からの制御信号は通信チャネル300を通して受信することが可能で、該チャネルは有線または無線の通信チャネルを含み得る。
位置/方位デバイス140は、通信チャネル300を介し、ARデバイス200に位置、方位またはその両方を提供するよう構成することができる。例えば、位置/方位デバイス140には、ジャイロスコープ、地理空間測位デバイス、コンパス、および/または他の方位または位置確認デバイスを含めることが可能である。
入力コンポーネント150は、例えば、ボタン押し、ジェスチャ、および/または他の入力などの入力を受け取るよう構成することが可能である。この入力は、プロセッサ110によって通信チャネル300を介してARデバイス200に伝達することができる。例えば、入力コンポーネント150には、タッチ・パッド、タッチ・スクリーン、機械的ボタン、スイッチ、および/または入力を受け取ることが可能な他の入力コンポーネントを含めることができる。
識別子デバイス160は、デバイス100に対する識別指標を生成するよう構成することができる。識別指標は、ARデバイス200がデバイス100を識別するために用いることができる。この識別指標には、可視の光学署名(例えば、可視波長内の光の光学署名)または不可視の署名(例えば、可視波長外の光の光学署名)を含めることが可能である。いくつかの実施態様において、フィードバック・デバイス120は、例えば光学署名を生成することによって、識別指標を生成することができる。
いくつかの実施態様において、デバイス100の表面に拡張現実(“AR”)シンボルを配置することができる。このARシンボルは、例えば、AR環境内のデバイス100の方位を測定したり、AR環境中でデバイス100の存在を識別したり、および/または他の形でデバイス100の認識を可能にしたりするために用いることができる。いくつかの実施態様において、デバイス100は、可聴署名、赤外線署名、および/またはARデバイス200が認識できる他の署名を発することが可能である。
いくつかの実施態様において、図2Aに示すように、デバイス100は指輪200などウェアラブル・デバイスとして構成することができる。いくつかの実施態様において、デバイス100は、手袋、指ぬき、指輪、および/または、身に着けられる他のデバイス100を含み得る。フィードバック・デバイス120には一つ以上のデバイスを含めることができる。該一つ以上のデバイスは、デバイス100の一つ以上の部分に配置することが可能である。識別子デバイス160には、識別指標および/またはARシンボルを含めることができ、これらは、着用者の指先を覆うデバイス100の表面、および/またはデバイス100の他の表面に配置することが可能である。いくつかの実施態様において、識別子デバイス160は、識別指標および/またはARシンボルを生成することができる。いくつかの実施態様において、デバイス100は、着用者の手指の少なくとも指爪を覆うことが可能である。識別指標またはARシンボルは、着用者の指爪覆うデバイス100の表面、および/またはデバイス100の他の表面に配置することが可能である。
図2Bに示すように、いくつかの実施態様において、デバイス100は携帯端末102として構成することができる。携帯端末102には、同一のまたは類似のコンポーネントおよび機能を含めることが可能で、該端末は、デバイス100と同じまたは類似の方法でARデバイス200と相互作用することができる。この携帯端末102には、例えば、タッチペン、ジョイスティック、携帯電話、ビデオ・ゲーム・コントローラ、および/またはARデバイス200と通信可能に連結できる他の携帯端末102を含めることが可能である。いくつかの実施態様において、デバイス100および携帯端末102の両方が、ARデバイス200と同時に相互作用することができる。
図3に示すように、デバイス100のフィードバック・デバイス120は一つ以上のデバイスを含み得る。いくつかの実施態様において、該一つ以上のデバイスはデバイス100に相隔てて配置することができる。フィードバック・デバイス120には、一つ以上の触覚効果を提供するよう構成された一つ以上の触覚出力デバイス122、視覚フィードバックを提供するよう構成された一つ以上の視覚デバイス124、聴覚フィードバックを提供するよう構成された一つ以上の聴覚デバイス126、発光バンド128、および/またはフィードバックを生成する他のデバイスを含めることが可能である。
触覚出力デバイス122には、例えば、内部でモータが偏心質量を動かす偏心回転質量(“ERM”)、内部でスプリングに取り付けられた質量が前後に駆動される線形共鳴アクチュエータ(“LRA”)、または、圧電物質、電気活性ポリマーまたは形状合金などの「スマート材料」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または、触覚(例、振動触覚)フィードバックなどの物理的フィードバック提供する他の種類のアクチュエータなど、アクチュエータを含めることができる。触覚出力デバイスには、静電気摩擦(ESF)、超音波表面摩擦(USF)を使うもの、または超音波触覚トランスデューサを使い音響放射圧を誘導するもの、または触覚基板とフレキシブルまたは変形可能表面とを使うもの、またはエア・ジェットを用いたエア吐き出しなどの射出触覚出力を与えるものなど、非機械的または非振動型のデバイスを含めることが可能である。いくつかの実施態様において、一つ以上の触覚出力デバイス122は、デバイス100全体に相隔てて配置することができる。
視覚デバイス124は、デバイス100での可視光など視覚フィードバックを生成するよう構成することができる。例えば、視覚フィードバックは、AR環境中のイベントの発生を視覚的に示すことが可能である。
聴覚デバイス126は、デバイス100での一つ以上の音声などの聴覚フィードバックを生成するよう構成することができる。例えば、聴覚フィードバックは、AR環境中のイベントの発生を音声で示すことができる。
発光バンド128は、デバイス100から、および/またはその周りに発する発光バンドを生成するよう構成することが可能である。バンド128による発光には、色、パターン、および/または他の視覚特性を含めることができる。この視覚特性は、AR環境中の一つ以上の仮想オブジェクトにコーディネートすることが可能である。
図1に戻って、ARデバイス200は、AR空間および物理空間の両方含むAR環境を生成するよう構成することができる。ARデバイス200には、例えばプロセッサ210、撮像デバイス200、通信ポート230、および/または他のコンポーネントを含めることができる。プロセッサ210は、物理空間に合わさったAR空間を生成するよう構成することができる。プロセッサ210は、物理空間中の少なくとも一つの物理オブジェクトを認識し、AR空間において、一つ以上の仮想オブジェクトを使って該少なくとも一つ
の物理オブジェクトを拡張するよう構成することが可能である。プロセッサ210は、AR環境内のイベントを判定し、有線または無線通信チャネル300を介して、デバイス100にそのイベントを表す制御信号を伝達するよう構成することができる。該制御信号は、デバイス100においてフィードバックを生成させることができる。撮像デバイス220は、物理空間を画像化するよう構成することが可能である。いくつかの実施態様において、撮像デバイス220には、一つ以上のカメラ、赤外線検出装置、ビデオ・カメラ、および/または他の画像記録デバイスを含めることができる。通信ポート230には、例えば、デバイス100との通信チャネル300の維持を可能にするためのインターフェースを含めることができる。
いくつかの実施態様において、プロセッサ210は、例えば、オブジェクト認識モジュール211、オブジェクト生成モジュール212、イベント処理モジュール213、制御信号生成モジュール214、通信モジュール215、および/または他のコンピュータ・プログラム・モジュールを含め、一つ以上のモジュールを実行するよう構成することが可能である。オブジェクト認識モジュール211は、物理空間中の物理オブジェクトを認識するよう構成することができる。オブジェクト生成モジュール212は、認識された物理オブジェクトを拡張するため、仮想オブジェクトを生成するよう構成することが可能である。イベント処理モジュール213は、AR環境内にイベントが生じたかどうかを検出するよう構成することができる。制御信号生成モジュール214は、イベントに関連する情報を受信し、デバイス100に送信するための制御信号を生成するよう構成することが可能である。通信モジュール215は、ARデバイス200とデバイス100との間の通信を推進するよう構成することができる。
いくつかの実施態様において、オブジェクト認識モジュール211は、物理空間中のオブジェクトを認識するよう構成することができる。オブジェクト認識モジュール211は、撮像デバイス220およびARデバイス200のストレージと通信して、物理空間中のオブジェクトを認識することができる。例えば、オブジェクト認識モジュール211は、撮像デバイス220が捕捉した視覚データを受信することができ、その視覚データを処理して、捕捉された視覚データ中に一つ以上のオブジェクトが存在するかどうかを判定することができる。オブジェクト認識モジュール211は、視覚データ中に存在する捕捉オブジェクトをストレージ中に格納されたオブジェクトと比較することが可能である。
例えば、オブジェクト認識モジュール211は、既知の技法によって、捕捉オブジェクトのピクセルをストレージ中の格納オブジェクトのピクセルと比較することができる。捕捉オブジェクトのピクセルの閾値パーセント(例えば、80%、90%、100%および/または他のパーセント)が格納オブジェクトのピクセルと合致すれば、オブジェクト認識モジュール211は、その捕捉オブジェクトが当該格納オブジェクトとして認識されたと判定することが可能である。いくつかの実施態様において、閾値パーセントは、撮像デバイス220の解像度の如何によって決めるようにすることができる。
オブジェクト認識モジュール211は、格納オブジェクトに関連する情報を取得し、該格納オブジェクトに関連する情報および捕捉オブジェクトに関連する情報をオブジェクト生成モジュール212に送信することができる。オブジェクト生成モジュール212に送信される情報には、例えば、格納オブジェクトに対する画像データ、格納オブジェクトの種類、捕捉オブジェクトの物理空間中の位置、捕捉オブジェクトの他の物理オブジェクトに対する近接度、格納オブジェクトに関連するコンテキスト情報、捕捉オブジェクトに関連するコンテキスト情報、および/または、格納オブジェクトまたは捕捉オブジェクトに関連する他のデータを含めることが可能である。いくつかの実施態様において、オブジェクト認識モジュール211は、格納オブジェクトに関連する情報および捕捉オブジェクトに関連する情報を、イベント処理モジュール213と、制御信号生成モジュール214と
、および/または、プロセッサ210の他のモジュールと、のうちの一つ以上に送信することができる。
いくつかの実施態様において、捕捉オブジェクトが格納オブジェクトと合致しない場合、オブジェクト認識モジュール211は、捕捉オブジェクトに関連するデータをサーバ400に送信し、サーバ400がオブジェクト認識を行なえるようにすることが可能である。サーバ400が捕捉オブジェクトを認識した場合、サーバ400は、捕捉オブジェクトに合致した格納オブジェクトに関連する情報を、オブジェクト認識モジュール211に伝達することができる。オブジェクト認識モジュールは、格納オブジェクトに関連する情報はサーバ400から、捕捉オブジェクトに関連する情報は自ら、オブジェクト生成モジュール212に送信することが可能である。サーバ400が捕捉オブジェクトを認識しない場合、サーバ400は、合致するものが見付からなかった旨を連絡することができる。
いくつかの実施態様において、オブジェクト生成モジュール212は、オブジェクト認識モジュール211から物理オブジェクトに関連する情報を受信することができ、AR環境中で、その物理オブジェクトを拡張するために一つ以上の仮想オブジェクトを生成することが可能である。オブジェクト生成モジュール212は、ストレージにアクセスして、一つ以上の仮想オブジェクトが当該物理オブジェクトに関連付けられているかどうかを判定することができる。当該物理オブジェクトに関連付けられた仮想オブジェクトが無い場合、オブジェクト生成モジュール212は、サーバ400と通信し、サーバ400のストレージが、該一つ以上の物理オブジェクトと一つ以上の仮想オブジェクトとの間の一つ以上の関連付けを格納しているかどうかを判定することが可能である。サーバ400のストレージ中に関連付けが見付かった場合、サーバ400は、オブジェクト生成モジュール212に、関連付けられた仮想オブジェクトに関連するデータを伝達することができる。
ある仮想オブジェクトが、オブジェクト認識モジュール211から受信した情報中で識別された物理オブジェクトに関連付けられている場合、オブジェクト生成モジュール212は、物理空間に合わさったAR空間を生成することができる。図4は、例示的なAR環境500のブロック図を示す。AR環境500は、一つ以上の物理オブジェクト520a、520b、…、520nを含む物理空間520と、物理空間520中の一つ以上の物理オブジェクト520a、520b、…、520nを拡張する一つ以上の仮想オブジェクト510a、510b、…、510nを含むAR空間510とを含む。
いくつかの実施態様において、オブジェクト生成モジュール212は、AR空間510中の一つ以上の仮想オブジェクト510a、510b、…、510nを使って、物理オブジェクト520nを拡張することができる。例えば、オブジェクト生成モジュール212は、ARデバイス200のディスプレイ面を用いてAR空間510(および一つ以上の仮想オブジェクト510a、510b、…、510n)を表示することが可能である。いくつかの実施態様において、表示されるAR空間510および一つ以上の仮想オブジェクト510a、510b、…、510nは、ARデバイス200のディスプレイ面を用いて三次元的に表現することができる。
ARデバイス200のディスプレイを用いて表示されるAR環境500には、物理空間520およびAR空間510を含めることが可能である。いくつかの実施形態において、物理空間520は、撮像デバイス220によって画像化して該ディスプレイを介して表示することができる。いくつかの実施形態において、少なくとも部分的に透明なディスプレイ(例えば、レンズ)であって、それを通して物理空間520を見られるようにディスプレイが構成されている実施形態などにおいては、物理空間520は、ディスプレイを通してそのまま見ることが可能である。物理空間520を表示するためにいずれの実施形態が使われていても、一つ以上の仮想オブジェクト510a、510b、…、510nは、物
理空間520中に存在する一つ以上の物理オブジェクト520a、520b、…、520nに一致してまたは関連付けて表示させ、これにより、AR環境500中の一つ以上の物理オブジェクト520a、520b、…、520nを拡張することができる。単一の仮想オブジェクト510aが、単一の物理オブジェクト520aを拡張することもあるいは複数の物理オブジェクト520a、520b、…、520nを拡張することも可能である。複数の仮想オブジェクト510a、510b、…、510nが、単一の物理オブジェクト520aを拡張することもあるいは複数の物理オブジェクト520a、520b、…、520nを拡張することも可能である。物理空間520中に存在する物理オブジェクト520a、520b、…、520nを拡張する仮想オブジェクト510a、510b、…、510nの数および種類は、上述の例には限定されない。
いくつかの実施態様において、イベント処理モジュール213は、AR環境中でイベントが生じているどうかを検出するよう構成することができる。イベント処理モジュール213は、撮像デバイス220、オブジェクト認識モジュール211、オブジェクト生成モジュール212、ストレージ、および/または、ARデバイス200の他のモジュールまたはデバイスから、データを受信することが可能である。ARデバイス200のストレージは、ARデバイス200が認識可能な一つ以上のイベントに関連するデータを格納することができる。例えば、ARデバイス200のストレージは、例として、デバイス100とAR環境との間の相互作用、AR環境に対して起きているアクションの確認、デバイス100がARデバイス200によって認識されていることの確認、デバイス100とAR空間510中に表現された一つ以上の仮想オブジェクトとの間の相互作用、物理オブジェクトを拡張するための特定の種類の仮想オブジェクトの生成、デバイス100の認識、携帯端末102の認識、ユーザとAR環境との間の相互作用、および/またはAR環境に関連する他の出来事を含め、イベントに関連するデータを格納することが可能である。
いくつかの実施態様において、イベント処理モジュール213は、撮像デバイス220からの視覚データ、視覚データ中の捕捉オブジェクトに関連するオブジェクト認識モジュール211からの情報、オブジェクト生成モジュール212によって生成された仮想オブジェクトに関連する情報、および/またはAR環境に関連する他の情報を受信することができる。イベント処理モジュール213は、受信した情報をストレージに格納されたイベントに関連するデータと比較して、それら情報(または情報の一部)が、あるイベントに関連するかどうかを判定することが可能である。受信した情報があるイベントに関連する場合、イベント処理モジュール213は該受信情報および関連するイベントについてのデータを、制御信号生成モジュール214に送信することができる。
いくつかの実施態様において、イベント処理モジュール213は、プロセッサから、デバイス100とAR環境との間に生じた相互作用、AR環境中の変更された一つ以上の仮想オブジェクト、デバイス100からの入力が受信されたこと、デバイス100から受信された入力がARデバイス200によって処理されたこと、ユーザとAR環境との間で行われた相互作用、および/または他の処理がARデバイス200によって行われたことを示す、データ受信することが可能である。いくつかの実施態様において、イベント処理モジュール213は、プロセッサ210から受信したデータをストレージに格納されたデータと比較して、そのデータがあるイベントに関連付けられているかどうかを判定することができる。受信情報の一部または全部が、ストレージに格納されているイベントに関連付けられている場合、イベント処理モジュール213は、受信情報および関連イベントに関連するデータを含むイベント・データ、制御信号生成モジュール214に送信することが可能である。
いくつかの実施態様において、受信情報がストレージに格納されているイベントに関連付けられていない場合、イベント処理モジュール213は、サーバ400がイベント処理
を行なえるように、受信情報を含めイベント・データをサーバ400に送信することができる。受信情報の一部または全部が、サーバ400のストレージに格納されているイベントに関連付けられている場合、サーバ400は、関連するイベントに関連する情報をイベント処理モジュール213に伝達することが可能である。イベント処理モジュール213は、受信情報および関連イベントに関連するデータ含むイベント・データを、制御信号生成モジュール214に送信することができる。受信情報が、サーバ400のストレージに格納されているイベントに関連付けられていない場合、サーバ400は、合致するものが見付からなかった旨を連絡することができる。
いくつかの実施態様において、制御信号生成モジュール214は、イベント処理モジュール213からイベント・データを受信し、デバイス100に送信するため該イベント・データに基づいて制御信号を生成するよう構成することが可能である。ARデバイス200のストレージには、複数のイベントと複数の制御信号とをそれぞれ関連付けるルックアップ・テーブルを含めることができる。制御信号生成モジュール214は、イベント処理モジュール213から受信したイベント・データに基づいて、デバイス100に送信するための制御信号を生成することができる。例えば、制御信号生成モジュール214は、受信したイベント・データをストレージに格納されたデータと比較することが可能である。イベント・データの一部または全部がストレージ中に格納されたイベントと合致する場合、制御信号生成モジュール214は、合致したイベントに関連付けられた制御信号に結び付く制御信号を生成することができる。イベント・データがストレージ中に格納されたイベントと合致しない場合、制御信号生成モジュール214は、そのイベント・データをサーバ400に連絡し、サーバのストレージが、該イベント・データの一部または全部に関連付けられた制御信号を格納しているかどうかを判定することが可能である。この制御信号には、例えば、イベントが生じたことを示す情報、特定の種類のイベントが生じたことを示す情報、拡張仮想環境中に一つ以上の仮想オブジェクトが表示された/されることを示す情報、デバイス100と一つ以上の仮想オブジェクトとの間の一つ以上の相互作用示す情報、および/またはAR環境中のイベントに関連する他の情報を含めることができる。
通信モジュール215は、ARデバイス200とデバイス100との間の通信を推進するよう構成することができる。いくつかの実施態様において、通信モジュール215は、ARデバイス200と、デバイス100、サーバ400、携帯端末102、および/またはARデバイス200と通信可能な他のデバイスと、の間の通信を推進するよう構成することが可能である。通信モジュール215は、ARデバイス200と、デバイス100および/または携帯端末102との間の通信のための有線または無線通信チャネル300を備えるよう構成することができる。通信モジュール215は、有線または無線通信チャネル300を介し、あるいは別の通信チャネルを介して、ARデバイス200と、デバイス100、携帯端末102、サーバ、および/または他のデバイスと、の間の通信を提供するよう構成することが可能である。通信モジュール215は、制御信号生成モジュール214によって生成された制御信号を、有線または無線通信チャネル300を介してデバイス100および/または携帯端末102に通信するよう構成することができる。
いくつかの実施態様において、ARデバイス200のプロセッサ210は、デバイス100が、撮像デバイス220の視界内、および/またはAR環境500の物理空間520内で移動されたとき、デバイス100を認識するよう構成することが可能である。例えば、ARデバイス200のオブジェクト認識モジュール211は、撮像デバイス220からの画像データとストレージに格納された画像データとを比較することによってデバイス100を認識するよう構成することができる。ARデバイス200のストレージには、デバイス100に対応する画像データを含めることが可能である。このストレージには、デバイス100上に配置が可能な一つ以上の指標に対応する画像データを含めることができる
。この指標には、製品コード、QRコード、デバイス100に関連付けられた画像、および/またはデバイス100を識別するのに用いられる他の画像を含めることが可能である。ARデバイス200のプロセッサ210は、可聴署名、赤外線署名、および/またはデバイス100によって生成される他の署名を認識するよう構成することができる。これらの実施態様において、制御信号生成モジュール214が、デバイス100の認識を表すことが可能な制御信号を生成して、デバイス100で生成されるフィードバックがその認識を示すようにすることが可能である。
いくつかの実施態様において、プロセッサ210は、デバイス100から、デバイス100の位置および/またはデバイス100の方位を受信するよう構成することができる。デバイス100の位置および方位は通信チャネル300を介して、デバイス100とARデバイス200との間で通信することが可能である。プロセッサ210は、受信された位置および/または方位に基づいて、AR環境500内のデバイス100の位置および/またはデバイス100の方位を判定するよう構成することができる。いくつかの実施態様において、デバイス100上に、位置インジケータ画像および/または方位インジケータ画像を配置することができる。オブジェクト認識モジュール211は、ウェアラブル・オブジェクト100が撮像デバイスの視界内および/またはAR環境500の物理空間520内にあることを認識する際に、この位置インジケータ画像および/または方位インジケータ画像を認識することが可能である。位置インジケータ画像および/または方位インジケータ画像のデータは、AR環境500内のデバイス100の位置および/または方位を判定するため、オブジェクト認識モジュール211、イベント処理モジュール213、および/またはARデバイス200の他のモジュールによって処理することができる。いくつかの実施態様において、プロセッサ210は、物理オブジェクトとデバイス100との間の距離を顧慮せずに、デバイス100をAR環境500内に位置付けるよう構成することが可能である。
プロセッサ210は、デバイス100から入力を受信するよう構成することができる。例えば、プロセッサ210は、デバイス100から、入力コンポーネント150を介して受け取られた入力に関連するデータを受信することができる。入力コンポーネント150を介して受け取られる入力は、例えば、ボタン押し、ジェスチャ、および/または他の入力を含み得る。ARデバイス200のプロセッサ210は、受信されたデータを処理し、その処理に基づいて機能を遂行することができる。例えば、プロセッサ210は、AR環境500中の一つ以上の仮想オブジェクト510a、510b、…、510nを追加、削除、変更および別途に修正することが可能である。プロセッサ210は、この処理に基づいてデバイス100にデータを送信することができる。プロセッサ210は、該処理に基づいて他の機能を遂行することが可能である。いくつかの実施態様において、該プロセッサは、デバイス100から、デバイス100に対する識別指標および入力が識別指標を含むことの提示を含む入力を受信することができる。ARデバイス200は、識別指標を格納しておき、その識別指標をデバイス100と関連付けることが可能である。
図5Aに示されるように、いくつかの実施態様において、ARデバイス200は眼鏡の形状に構成することができる。例えば、ARデバイス200は、眼鏡の一つまたは両方のレンズ250を用いてAR環境500(AR環境500A、500B)を表示するよう構成することが可能である。ARデバイス200のコンポーネント(例えば、撮像デバイス220、無線トランシーバ240、プロセッサなど)は眼鏡のさまざまな位置に配置することができる。以下は、単なる例示のためのものであって限定されない例である。一方のレンズ250Aの近くのフレームの部分(またはレンズ250Aの一部)に撮像デバイス220を含めることができる。他方のレンズの250Bの近くのフレームの部分(またはレンズ250Bの一部)に、通信ポートを包含可能な無線トランシーバ240を含めることが可能である。眼鏡のアーム210(レンズから耳に延び出している眼鏡フレームの部
分を含む)には、プロセッサ、通信ポート、および/またはARデバイス200の他のコンポーネントを含めることができる。いくつかの実施態様において、眼鏡アーム210A,210Bには、プロセッサと、通信ポートと、および/またはARデバイス200の他のコンポーネントとのうちの一つ以上を含めることが可能である。他の構成も同様に用いることができる。
図5Bに示すように、いくつかの実施態様において、ARデバイス200は、携帯電話、パーソナル・デジタル・アシスタント、スマートフォン、および/またはその他の携帯電話として構成することが可能である。撮像デバイス220は、一つ以上のカメラ(例えば、正面向きカメラ220A、背面向きカメラ220B、および/または携帯電話の他のカメラ)を含み得る。この携帯電話のプロセッサには、ARデバイス200のプロセッサのコンポーネントおよび機能を含めることができる。電話の通信コンポーネントおよび機能(例えば、一つ以上のポート、無線トランシーバ、一つ以上のアンテナ、他のデバイスとの通信を推進する処理機能、および/またはその他の通信コンポーネントおよび機能)には、ARデバイス200の通信ポートおよび通信モジュールを含めることが可能である。携帯デバイスのディスプレイは、AR環境500を表示するよう構成することができる。
いくつかの実施態様において、ARデバイス200は、ラップトップ、デスクトップコンピュータ、タブレット、および/または他のコンピューティング・デバイスなど、コンピューティング・デバイスとして構成することが可能である。一つ以上の撮像デバイス220A、220Bは、正面向きカメラ、背面向きカメラ、コンピューティング・デバイスと通信可能に連結されたウェブカメラ、および/または他の撮像デバイスを含み得る。コンピューティング・デバイスのプロセッサには、ARデバイス200のプロセッサのコンポーネントおよび機能を含めることができる。コンピューティング・デバイスの通信コンポーネントおよび機能(例えば、一つ以上のポート、無線トランシーバ、一つ以上のアンテナ、他のデバイスとの通信を推進する処理機能、および/または他の通信コンポーネントおよび機能)には、ARデバイス200の通信ポートおよび通信モジュールを含めることが可能である。コンピューティング・デバイスのディスプレイは、AR環境500を表示するよう構成することができる。
図5Cに示すように、いくつかの実施態様において、ARデバイス200は、テレビジョン、ビデオ・ゲーム・システム、および/または動画を表示するための他のデバイスを含み得る。一つ以上の撮像デバイス220は、正面向きカメラ、オブジェクト・センサ、コンピューティング・デバイスと通信可能に連結されたウェブカメラ、および/または他の撮像デバイスを含み得る。このデバイスのプロセッサには、ARデバイス200のプロセッサのコンポーネントおよび機能を含めることができる。該デバイスの通信コンポーネントおよび機能(例えば、一つ以上のポート、無線トランシーバ、一つ以上のアンテナ、他のデバイスとの通信を推進する処理機能、および/または他の通信コンポーネントおよび機能)には、ARデバイス200の通信ポートおよび通信モジュールを含めることが可能である。該デバイスのディスプレイ250は、AR環境500を表示するよう構成することができる。
図1に戻って参照すると、いくつかの実施態様において、サーバ400は、一つ以上のデバイス100、ARデバイス200、携帯端末102、および/またはサーバ400と交信する他のデバイスと通信するよう構成することが可能である。いくつかの実施態様において、サーバ400には、プロセッサ、ストレージ、および通信ポートを含めることができる。
サーバ400のプロセッサは、データを受信し、オブジェクトを認識し、イベントを処
理し、データを送信し、および/または他の機能を提供するよう構成することが可能である。いくつかの実施態様において、サーバ400は、デバイス100のプロセッサ110から制御信号を受信するよう構成することができる。サーバ400のストレージには、複数の制御信号と複数のフィードバック応答とを含む、デバイス100のルックアップ・テーブルと類似または同じ仕方で構成可能な、ルックアップ・テーブルを含めることができる。このルックアップ・テーブルが当該制御信号に関連するエントリを含む場合、サーバ400は、フィードバック応答を含む情報をフィードバック制御モジュール111に伝達することが可能である。サーバ400のルックアップ・テーブルが制御信号に関連するエントリを含まない場合、サーバ400は、その制御信号に合致するものが見付からなかった旨を、フィードバック制御モジュール111に連絡することができる。いくつかの実施態様において、サーバ400は、デバイス100から受信したデータに関連する画像処理および/またはオブジェクト認識を実施することができる。
いくつかの実施態様において、サーバ400は、ARデバイス200の撮像デバイス220によって捕捉されたオブジェクトに関連するデータを受信することができる。サーバ400のプロセッサは、捕捉オブジェクトに関連するオブジェクト認識を実施することができる。サーバ400のストレージには、一つ以上の物理オブジェクトを含むルックアップ・テーブルを含めることが可能である。サーバ400は、ルックアップ・テーブルが、受信されたデータから認識されたオブジェクトに関連するエントリを含んでいるかどうかを判定することができる。ルックアップ・テーブルが認識されたオブジェクトに関連するエントリを含む場合、サーバ400は、認識されたオブジェクトに合致する格納オブジェクトに関連する情報を、オブジェクト認識モジュール211に伝達することが可能である。サーバ400が認識されたオブジェクトを認知しなかった場合、サーバ400は、合致するものが見付からなかった旨をオブジェクト認識モジュール211に連絡することができる。
いくつかの実施態様において、サーバ400は、ARデバイス200のプロセッサ210のオブジェクト認識モジュール211によって認識された物理オブジェクトに関連するデータを受信することが可能である。サーバ400のプロセッサは、サーバ400のストレージが、物理オブジェクトと一つ以上の仮想オブジェクトとの間の関連付けを格納しているかどうかを判定することができる。いくつかの実施態様において、サーバ400のストレージには、物理オブジェクト、仮想オブジェクト、および一つ以上の物理オブジェクトと一つ以上の仮想オブジェクトとの間の一つ以上の相互関係を含むルックアップ・テーブルを含めることが可能である。サーバ400のストレージ中に関連付けが見付かった場合、サーバ400は、オブジェクト生成モジュール212に、関連する仮想オブジェクトに関するデータを伝達することができる。サーバ400のストレージ中に関連付けが見付からなかった場合、サーバ400は、関連付けが見付からなかったことを連絡することができる。
いくつかの実施態様において、サーバ400は、ARデバイス200のプロセッサ210のイベント処理モジュール213からイベント・データを受信するよう構成することができる。サーバ400のストレージには、複数のイベントと複数の制御信号とをそれぞれ関連付けるルックアップ・テーブルを含めることが可能である。イベント・データの一部または全部がサーバ400のストレージ中に格納されたイベントと合致する場合、サーバ400のプロセッサは、そのイベントに関連するイベント・データを、イベント処理モジュール213に伝達することができる。イベント・データがストレージ中に格納されたイベントと合致しない場合、サーバ400のプロセッサは、合致するものが見付からなかったことをARデバイス200に連絡することができる。
サーバ400の通信ポートには、例えば、デバイス100、携帯端末102、ARデバ
イス200、および/またはサーバ400と交信する他のデバイスとの通信チャネル300の維持を可能にするためのインターフェースを含めることができる。データおよび/または信号は、通信チャネル300、および/または、サーバ400がデータおよび/または信号を受信するための他の通信チャネル、を介して受信することが可能である。
図6は、本発明のある実施態様による、AR環境500に基づいてフィードバックを提供する例示的なプロセスのフローチャートを示す。図6および他の図面に記載のオペレーションは、上記で詳しく説明したシステム・コンポーネントの一部または全部を使って達成することができ、いくつかの実施態様において、さまざまなオペレーションを色々なシーケンスで実施することが可能である。他の実施態様において、図6および他の図面に示されたオペレーションの一部または全部と共に、追加のオペレーションを実施することが可能である。さらなる他の実施態様においては、一つ以上のオペレーションが同時に実行され得る。さらなる他の実施態様では、さまざまなオペレーションの一つ以上の組み合わせが実行され得る。いくつかの実施態様は、図6および他の図面に関連して記載されたオペレーションの全部は実行しなくてもよい。上記のように記載されたオペレーションは例示的性質のものであり、しかして限定するものと見なすべきではない。
いくつかの実施形態において、図6および他の図面のオペレーションは、一つ以上のプロセシング・デバイス(例えば、デバイス100、ARデバイス200、サーバ400、携帯端末102、および/または他のデバイス)中に実装することができる。一つ以上のプロセシング・デバイスは、電子ストレージ媒体上に電子的に格納された命令に応じて、図6および他の図面のオペレーションの一部または全部を実行する一つ以上のデバイスを含み得る。該一つ以上のプロセシング・デバイスには、図6および他の図面のオペレーションの一つ以上を実行するため特別に設計されるハードウェア、ファームウエア、および/またはソフトウェアを用いて構成される一つ以上のデバイスも含めることができる。
オペレーション602で、デバイス100とARデバイス200との間に通信チャネル300を確立することができる。
オペレーション604で、AR環境500においてイベントの発生を検出することが可能である。ARデバイス200のプロセッサ210の、オブジェクト認識モジュール211およびオブジェクト生成モジュール212の一つまたは両方を、物理空間520に合わさったAR空間510を含む、AR環境500の生成を推進するよう構成することができる。イベント処理モジュール213は、プロセッサ210および撮像デバイス220のうちの一つ以上から受信した情報に基づいて、AR環境500内のイベントを判定するよう構成することができる。このイベントには、デバイス100とAR環境500との間の相互作用、AR環境500に対して起きているアクションの確認、デバイス100がARデバイス200によって認識されていることの確認、デバイス100とAR空間510中に表現された一つ以上の仮想オブジェクトとの間の相互作用、ユーザとAR環境との間の相互作用および/またはAR環境500中の他の出来事を含めることが可能である。
オペレーション606で、デバイス100は、ARデバイス200から制御信号を受信することができる。制御信号生成モジュール214は、ARデバイス200のイベント処理モジュール213がイベントを検出したとき、検出されたイベントに関連付けられた制御信号を特定し、その制御信号を有線または無線通信チャネル300を介してデバイス100に伝達するよう構成することが可能である。プロセッサ110のフィードバック制御モジュール111がその制御信号を受信することができる。制御信号は、AR環境500中のイベント発生の検出に基づくものとすることができる。
オペレーション608で、デバイス100を介してフィードバックを提供することがで
きる。フィードバック制御モジュール111は、フィードバック・デバイス120に、デバイス100を介してフィードバックを提供させることが可能である。いくつかの実施態様において、フィードバック制御モジュール111は、フィードバック・デバイス120に制御信号を与えるように構成することができる。これの実施形態において、制御信号をフィードバック・デバイス120に直接印加してフィードバックを行わせることが可能である。いくつかの実施態様において、フィードバック制御モジュール111は、受信した制御信号に基づいてフィードバック応答を決めるよう構成することができる。フィードバック制御モジュール111は、一つ以上の種類のフィードバックと生成対象の指定フィードバックの種類の一つ以上のフィードバック信号とを含むフィードバック応答を提供することができる。フィードバック制御モジュール111は、フィードバック応答の指定フィードバック信号を生成し、そのフィードバック信号をそれら信号が対応するそれぞれのフィードバック・デバイス120に送信するよう構成することが可能である。
デバイス100の一つ以上のフィードバック・デバイス120は、デバイス100を介してフィードバックを提供することができる。いくつかの実施態様において、提供するフィードバックは、フィードバック制御モジュール111から受信した一つ以上のフィードバック信号に基づくものとすることが可能である。このフィードバックは、AR環境500内で検出されたイベントに対応させることができる。例えば、フィードバックはイベントを表すことができる。
図7は、本発明のある実施態様による、AR環境に基づいてフィードバックを提供する例示的なプロセスのフローチャートを示す。
オペレーション702で、デバイス100とARデバイス200との間に通信チャネル300を確立することができる。
オペレーション704で、ARデバイス200のAR環境500内でデバイス100を検出することが可能である。例えば、ARデバイス200の撮像デバイス220は、AR環境500の物理空間520中の画像を捕捉することができる。ARデバイス200のプロセッサ210のオブジェクト認識モジュール211は、撮像デバイス220によって捕捉された画像データに基づいて、デバイス100を検出することが可能である。いくつかの実施態様において、デバイス100は、画像中のオブジェクトを検出することができ、検出されたオブジェクトに関連付けられたデータに基づいて、該オブジェクトがデバイスかどうかを判定することが可能である。いくつかの実施態様において、オブジェクト認識モジュール211は、デバイス100に配された識別指標に基づいてデバイス100を検出することができる。いくつかの実施態様においては、ARデバイスのプロセッサ210は、デバイス100の識別指標に基づいてデバイス100を検出することが可能である。この識別指標には、可視の光学署名(例えば、可視波長内の光の光学署名)または不可視の署名(例えば、可視波長外の光の光学署名)を含めることが可能である。いくつかの実施態様において、デバイス100の表面にARシンボルを配置することができる。オブジェクト認識モジュール211は、デバイス100上に配置されたARシンボルに基づいてデバイス100を検出することが可能である。いくつかの実施態様において、ARデバイスのプロセッサ210は、可聴署名、赤外線署名、および/または、デバイス100が発する他の署名に基づいてデバイス100を検出することができる。
オペレーション706で、デバイス100は、ARデバイス200から、AR環境500内でのデバイス100の認識を示す制御信号を受信することができる。オブジェクト認識モジュール211およびプロセッサ210のうちの一つ以上が、AR環境500内でデバイス100を識別したとき、イベント処理モジュール213にデバイス100の認識を示すデータを送信することが可能である。イベント処理モジュール213は、オブジェク
ト認識モジュール211から受信したデータをストレージ中に格納されたデータと比較して、そのデータがあるイベントと関連付けられているかどうかを判定することができる。受信した情報の一部または全部が、デバイス100の認識を含むイベントに関連している場合、イベント処理モジュール213は、受信情報およびデバイス100の認識に関連するデータを含むイベント・データを、制御信号生成モジュール214に送信することが可能である。制御信号生成モジュール214は、イベント処理モジュール213からイベント・データを受信し、デバイス100に送信するため、該イベント・データに基づいて制御信号を生成するよう構成することができる。
プロセッサ110のフィードバック制御モジュール111は、制御信号生成モジュール214によって生成された制御信号を受信することが可能である。該制御信号は、AR環境500中のイベント発生の検出を示すことができる。
オペレーション708で、AR環境500内でのデバイス100の認識を示すフィードバックを、デバイス100を介して提供することが可能である。フィードバック制御モジュール111は、フィードバック・デバイス120に、デバイス100を介してフィードバックを提供させることができる。いくつかの実施態様において、フィードバック制御モジュール111は、フィードバック・デバイス120に対し制御信号を与えるよう構成することが可能である。これらの実施形態において、該制御信号をフィードバック・デバイス120に直接印加してフィードバックを行わせることができる。いくつかの実施態様において、フィードバック制御モジュール111は、受信された制御信号に基づいてフィードバック応答を決めるよう構成することが可能である。フィードバック制御モジュール111は、フィードバック応答の指定フィードバック信号を生成し、該フィードバック信号を、それら信号が対応するそれぞれのフィードバック・デバイス120に送信するよう構成することが可能である。
フィードバックはデバイス100を介して提供することができる。例えば、デバイス100の一つ以上のフィードバック・デバイス120は、デバイス100を介してフィードバックを提供することが可能である。いくつかの実施態様において、提供するフィードバックは、フィードバック制御モジュール111から受信された一つ以上のフィードバック信号に基づくものとすることができる。このフィードバックは、AR環境500内で検出されたイベントに対応させることが可能である。例えば、フィードバックは、AR環境500内でのデバイス100の認識を表すことができる。
オペレーション710で、デバイス100とAR環境500との間の相互作用を検出することが可能である。例えば、ある相互作用は、入力コンポーネント150を介して受け取られデバイス100から受信された入力に基づいて検出することができる。相互作用は、AR環境500中のデバイス100の認識、AR環境500中のデバイス100の移動、デバイス100とAR環境500の物理空間520中の物理オブジェクト520aとの相互作用、デバイス100とAR環境500の仮想空間510中の仮想オブジェクト510aとの相互作用、AR環境500中のデバイス100によって提供されるフィードバック(例えば、物理空間510中で提供される視覚フィードバックおよび/またはARデバイス200が認識可能な他のフィードバック)、AR環境500中でのユーザの認識、AR環境500中でのユーザの移動、ユーザとAR環境500の物理空間520中の物理オブジェクト520aとの相互作用、ユーザとAR環境の仮想空間510中の仮想オブジェクト510aとの相互作用、および/またはデバイス100とAR環境500との間の別の相互作用、に基づいて検出することが可能である。
オペレーション712で、デバイス100は、ARデバイス200から、デバイス100とAR環境500との間の相互作用を示す制御信号を受信することができる。ARデバ
イス200(例えば、オブジェクト認識モジュール211、イベント処理モジュール213、制御信号生成モジュール214、および/またはARデバイス200の他のモジュールまたはデバイスを含む)が、サービス100とAR環境500との間の相互作用を検出した場合、ARデバイス200(例えば、イベント処理モジュール213、制御信号生成モジュール214、および/またはARデバイス200の他のモジュールまたはデバイスを含む)は、相互作用の検出に基づいて、デバイス100に送信するための制御信号を生成することが可能である。
プロセッサ110のフィードバック制御モジュール111は、ARデバイス200によって生成された制御信号を受信することができる。この制御信号は、デバイス100とAR環境500との間の相互作用の検出に基づくものとすることが可能である。
オペレーション714で、デバイス100を介して、該相互作用を示すフィードバック提供することが可能である。フィードバック制御モジュール111は、フィードバック・デバイス120に、デバイス100を介してフィードバックを提供させることができる。いくつかの実施態様において、フィードバック制御モジュール111は、フィードバック・デバイス120に制御信号を与えるよう構成することが可能である。これらの実施形態において、制御信号をフィードバック・デバイス120に直接印加してフィードバックを行わせることができる。いくつかの実施態様において、フィードバック制御モジュール111は、受信された制御信号に基づいてフィードバック応答を決めるよう構成することが可能である。フィードバック制御モジュール111は、フィードバック応答の指定フィードバック信号を生成し、該フィードバック信号を、それら信号が対応するそれぞれのフィードバック・デバイス120に送信するよう構成することが可能である。
フィードバックはデバイス100を介して提供することができる。例えば、デバイス100の一つ以上のフィードバック・デバイス120は、デバイス100を介してフィードバックを提供することが可能である。いくつかの実施態様において、提供するフィードバックは、フィードバック制御モジュール111から受信された一つ以上のフィードバック信号に基づくものとすることができる。このフィードバックは、デバイス100とAR環境500との間で検出された相互作用に対応させることが可能である。例えば、フィードバックは、デバイス100とAR環境500との間の相互作用を表すことが可能である。
オペレーション716で、AR環境500内でのデバイス100の位置および/または方位を検出することができる。いくつかの実施態様において、デバイス100の位置/方位デバイス140は、通信チャネル300を介して、ARデバイス200に位置、方位、またはその両方を提供するよう構成することが可能である。例えば、位置/方位デバイス140には、ジャイロスコープ、地理空間測位デバイス、コンパス、および/または他の方位/位置確認デバイスを含めることが可能である。ARデバイス200のプロセッサ210は、受信された位置および/または方位に基づいて、AR環境500内のデバイス100の位置および/またはデバイス100の方位を判定するよう構成することができる。いくつかの実施態様において、デバイス100上に、位置インジケータ画像および/または方位インジケータ画像を配置することができる。オブジェクト認識モジュール211は、ウェアラブル・オブジェクト100が、撮像デバイスの視界内および/またはAR環境500の物理空間520内にあることを認識する際に、この位置インジケータ画像および/または方位インジケータ画像を認識することが可能である。位置インジケータ画像および/または方位インジケータ画像のデータは、オブジェクト認識モジュール211、イベント処理モジュール213、および/またはARデバイス200の他のモジュールによって処理され、AR環境500内のデバイス100の位置および/または方位を判定することができる。
オペレーション718で、AR環境500中の仮想オブジェクトのある近接域内に、デバイス100があることを検出することができる。いくつかの実施態様において、ARデバイス200は、AR環境500中のデバイス100の位置および/または方位の測定に基づいて、デバイス100がAR環境500中の仮想オブジェクト(例えば、仮想オブジェクト510n)のある近接域内にあるかどうかを判定することが可能である。
オペレーション720で、デバイス100は、ARデバイス200から、AR環境500の仮想オブジェクトの一つ以上の特性を示す制御信号を受信することができる。デバイス100は、仮想オブジェクト510aの一つ以上の特性を示す制御信号を受信することが可能である。いくつかの実施態様において、デバイス100は、仮想オブジェクト510aのある近接域内での当デバイスの検出に基づいた制御信号を受信することができる。いくつかの実施態様において、デバイス100は、仮想オブジェクト510aに対するデバイス100の位置の検出とは切り離して制御信号を受信することが可能である。
オペレーション722で、仮想オブジェクトにコーディネートされたフィードバックをデバイス100を介して提供することができる。プロセッサ110のフィードバック制御モジュール111は、仮想オブジェクト510aの一つ以上の特性を示す制御信号を受信することが可能である。フィードバック制御モジュール111は、仮想オブジェクト510aの一つ以上の特性に基づいて、フィードバック・デバイス120に、デバイス100を介してフィードバックを提供させることができる。フィードバック制御モジュール111は、受信した制御信号に基づいてフィードバック応答を決めるように構成することが可能である。フィードバック制御モジュール111は、フィードバック応答の指定フィードバック信号を生成し、該フィードバック信号を、それら信号が対応するそれぞれのフィードバック・デバイス120に送信するよう構成することが可能である。該フィードバック信号は、それぞれのフィードバック・デバイス120に、仮想オブジェクト510aの一つ以上の特性に対応するフィードバックを提供させることができる。
デバイス100の一つ以上のフィードバック・デバイス120は、デバイス100を介して、仮想オブジェクト510aの一つ以上の特性に対応するフィードバックを提供することが可能である。例えば、仮想オブジェクト510aの一つ以上の特性が、色、パターン、および/または他の視覚特性を含む場合、フィードバック・デバイス120は、同じ色、対応する視覚、聴覚、および/または触覚パターンのフィードバック、および/または他の対応するフィードバックを提供することができる。いくつかの実施態様において、フィードバック・デバイス120は、デバイス100の部分にある発行バンドを介してフィードバックを提供することが可能である。発光バンドには、仮想オブジェクト510aにコーディネートされた、色、パターン、および/または他の視覚特性を含めることができる。
オペレーション724で、ユーザとAR環境500との間の相互作用を検出することが可能である。例えば、相互作用は、撮像デバイス220、通信ポート230、および/または他のデバイスを介しARデバイス200から受信された入力に基づいて検出することができる。相互作用は、AR環境500中でのユーザの認識、AR環境500中でのユーザの移動、ユーザとAR環境500の物理空間520中の物理オブジェクト520aとの相互作用、ユーザとAR環境500の仮想空間510中の仮想オブジェクト510aとの相互作用、AR環境500の物理空間520中の物理オブジェクト520aのある物理的近接域内でのユーザの検出、AR環境500の仮想空間510中の仮想オブジェクト510aのある近接域内でのユーザの検出、および/またはユーザとAR環境500との間の別の相互作用、に基づいて検出することが可能である。いくつかの実施態様において、ARデバイス200(例えば、オブジェクト認識モジュール211、イベント処理モジュール213、制御信号生成モジュール214、および/またはARデバイス200の他のモ
ジュールまたはデバイスを含む)は、デバイス100および/またはARデバイス200に関連する情報を有するユーザ間の相互作用だけを検出することができる。いくつかの実施態様において、ARデバイス200(例えば、オブジェクト認識モジュール211、イベント処理モジュール213、制御信号生成モジュール214、および/またはARデバイス200の他のモジュールまたはデバイスを含む)は、任意のユーザとAR環境500との間の相互作用を検出することが可能である。
オペレーション726で、デバイス100は、ARデバイス200から、ユーザとAR環境500との間の相互作用を示す制御信号を受信することができる。ARデバイス200(例えば、オブジェクト認識モジュール211、イベント処理モジュール213、制御信号生成モジュール214、および/またはARデバイス200の他のモジュールまたはデバイスを含む)が、ユーザとAR環境500との間の相互作用を検出したとき、ARデバイス200(例えば、イベント処理モジュール213、制御信号生成モジュール214、および/またはARデバイス200の他のモジュールまたはデバイスを含む)は、その相互作用の検出に基づいて、デバイス100への送信のための制御信号を生成することが可能である。
プロセッサ110のフィードバック制御モジュール111は、ARデバイス200によって生成された制御信号を受信することができる。該制御信号は、ユーザとAR環境500との間の相互作用の検出に基づくものとすることが可能である。
オペレーション728で、デバイス100を介して、該相互作用を示すフィードバックを提供することができる。フィードバック制御モジュール111は、フィードバック・デバイス120に、デバイス100を介してフィードバック提供させることが可能である。いくつかの実施態様において、フィードバック制御モジュール111は、フィードバック・デバイス120に制御信号を与えるよう構成することができる。これらの実施形態において、制御信号をフィードバック・デバイス120に直接印加してフィードバックを行わせることができる。いくつかの実施形態において、フィードバック制御モジュール111は、受信された制御信号に基づいてフィードバック信号を決めるよう構成することが可能である。フィードバック制御モジュール111は、フィードバック応答の指定フィードバック信号を生成し、そのフィードバック信号を、それら信号が対応するそれぞれのフィードバック・デバイス120に送信するよう構成することができる。
フィードバックはデバイス100を介して提供することができる。例えば、デバイス100の一つ以上のフィードバック・デバイス120は、デバイス100を介してフィードバックを提供することが可能である。いくつかの実施態様において、提供するフィードバックは、フィードバック制御モジュール111から受信した一つ以上のフィードバック信号に基づくものとすることができる。このフィードバックは、デバイス100とAR環境500との間で検出された相互作用に対応させることが可能である。例えば、フィードバックは、デバイス100とAR環境500との間の相互作用を表すことができる。本開示のシステム(群)および/または方法(群)は、現在、最も実用的で好ましいと考えられる実施態様に基づいて、例示のために詳細に説明してきたが、当然ながら、かかる詳細は例示目的のためだけのものであって、本開示は、開示された実施態様に限定されるものでなく、それどころか、添付の請求項の精神および範囲内にある変更および等価なアレンジメントを網羅するよう意図されている。例えば、当然ながら、本開示は、可能な程度において任意の実施態様の一つ以上の特徴と任意の他の実施態様の一つ以上の特徴との組み合わせが可能なことを想定している。

Claims (24)

  1. 拡張現実環境に基づいてフィードバックを提供するよう構成されたデバイスであって、
    前記デバイスの遠隔にあり、前記拡張現実環境を生成する拡張現実デバイスから、前記拡張現実環境中に生じているイベントを表す制御信号を受信するよう構成されたプロセッサと、
    前記受信された制御信号に基づいてフィードバックを提供するよう構成されたフィードバック・デバイスと、
    を備えるデバイス。
  2. 前記フィードバック・デバイスが、触覚効果を提供するよう構成された触覚出力デバイス、視覚効果を提供するよう構成された視覚デバイス、または聴覚効果を提供するよう構成された聴覚デバイスを含む、請求項1に記載のデバイス。
  3. 前記フィードバック・デバイスが、触覚効果を生成するよう構成されたアクチュエータを含む、請求項1に記載のデバイス。
  4. 前記フィードバック・デバイスが、触覚効果を生成するよう構成された非機械的触覚出力デバイスを含む、請求項1に記載のデバイス。
  5. 前記イベントが、前記デバイスと前記拡張現実環境との相互作用、前記拡張現実環境に対して起きているアクションの確認、または前記デバイスが前記拡張現実デバイスによって認識されていることの確認を含む、請求項1に記載のデバイス。
  6. 前記拡張現実デバイスとの無線または有線通信チャネルを確立するよう構成された通信ポートをさらに含み、前記制御信号が前記無線または有線通信チャネルを介して受信される、
    請求項1に記載のデバイス。
  7. 前記拡張現実デバイスに、前記無線または有線通信チャネルを介して、位置、方位、またはその両方を提供するよう構成された位置または方位デバイス、
    をさらに含む、請求項6に記載のデバイス。
  8. 入力を受け取るよう構成された入力コンポーネントをさらに含み、前記プロセッサが、前記入力を前記有線または無線通信チャネルを介して前記拡張現実デバイスに伝達するよう構成される、
    請求項6に記載のデバイス。
  9. 前記拡張現実環境が、一つ以上の仮想オブジェクトがその中に表示された拡張現実空間、および前記デバイスと前記一つ以上の仮想オブジェクトとの間の相互作用を含む前記イベントを含む、請求項1に記載のデバイス。
  10. 前記フィードバック・デバイスが、視覚フィードバックを提供するよう構成された視覚デバイスを含み、前記視覚デバイスは、前記デバイスにおいて前記一つ以上の仮想オブジェクトにコーディネートされた視覚フィードバックを生成するよう構成される、請求項9に記載のデバイス。
  11. 前記デバイスにおける前記視覚フィードバックが、前記一つ以上の仮想オブジェクトに対して両方が類似の色またはパターンを含むようにコーディネートされる、請求項10に記載のデバイス。
  12. 前記デバイスの表面上に配置された拡張現実シンボルをさらに含み、前記拡張現実シンボルは、前記拡張現実環境内での前記デバイスの方位を測定するために用いられる、
    請求項1に記載のデバイス。
  13. 前記拡張現実デバイスによって前記デバイスを識別するために用いられる識別指標を生成するよう構成された識別子デバイスをさらに備える請求項1に記載のデバイス。
  14. 前記識別指標が光学署名または不可視の署名を含む、請求項13に記載のデバイス。
  15. 前記デバイスが指輪として構成される、請求項1に記載のデバイス。
  16. 前記フィードバック・デバイスが前記指輪周りに配置された発光バンドを含む、請求項15に記載のデバイス。
  17. 拡張現実空間と物理空間とを含む拡張現実環境を生成するよう構成された拡張現実デバイスであって、
    あるデバイスとの有線または無線通信チャネルを確立するよう構成された通信ポートと、
    前記物理空間を画像化するよう構成された撮像デバイスと、
    プロセッサと、
    を備え、
    前記プロセッサは、
    前記物理空間と合わさった前記拡張現実空間を生成し、
    前記物理空間中の少なくとも一つの物理オブジェクトを認識して、前記拡張現実空間中の一つ以上の仮想オブジェクトを使って前記少なくとも一つの物理オブジェクトを拡張し、
    前記拡張現実環境内のイベントを判定し、
    前記イベントを表す制御信号を、前記有線または無線通信チャネルを介して前記デバイスに伝達し、前記制御信号が前記デバイスにおいてフィードバックを生成させる、
    よう構成される、拡張現実デバイス。
  18. 前記プロセッサは、前記デバイスが前記撮像デバイスの視界内且つ前記物理空間内で移動されるとき、前記デバイスを認識するよう構成される、請求項17に記載の拡張現実デバイス。
  19. 前記制御信号が、前記デバイスの前記認識を表し、前記デバイスで生成される前記フィードバックが前記認識を示すようにする、請求項18に記載の拡張現実デバイス。
  20. 前記プロセッサが、
    前記デバイスから、前記デバイスの位置、前記デバイスの方位、または前記デバイスの前記位置および前記デバイスの前記方位の両方を受信し、
    前記デバイスの前記受信された位置、前記デバイスの前記受信された方位、または前記受信された方位および前記受信された位置の両方に基づいて、前記拡張現実環境内の前記デバイスの前記位置、前記デバイスの前記方位、または前記デバイスの前記位置および前記方位の両方を測定する、
    よう構成される、請求項17に記載の拡張現実デバイス。
  21. 前記プロセッサが、前記少なくとも一つの物理オブジェクトと前記デバイスとの間の距離を顧慮せずに、前記デバイスを前記拡張現実環境内に位置付けるよう構成される、請求
    項17に記載の拡張現実デバイス。
  22. 前記拡張現実デバイスが眼鏡として構成される、請求項17に記載の拡張現実デバイス。
  23. 前記拡張現実環境が前記眼鏡のレンズを介して伝えられる、請求項22に記載の拡張現実デバイス。
  24. 拡張現実環境に基づいてフィードバックを提供するシステムであって、
    デバイスと、拡張現実デバイスとを備え、
    当該拡張現実デバイスは、
    前記デバイスとの有線または無線通信チャネルを確立するよう構成された通信ポート、
    前記物理空間を画像化するよう構成された撮像デバイス、および
    プロセッサ、を含み、
    前記プロセッサは、
    前記物理空間と合わさった前記拡張現実空間を生成し、
    前記物理空間中の少なくとも一つの物理オブジェクトを認識して、前記拡張現実空間中の一つ以上の仮想オブジェクトを使って前記少なくとも一つの物理オブジェクトを拡張し、
    前記拡張現実環境内のイベントを判定し、
    前記イベントを表す制御信号を、前記有線または無線通信チャネルを介して前記デバイスに伝達し、前記制御信号が前記デバイスにおいてフィードバックを生成させる、
    よう構成され、
    前記デバイスは、前記受信された制御信号に基づいてフィードバックを提供するよう構成されたフィードバック・デバイスを含む、
    システム。
JP2017250980A 2013-01-15 2017-12-27 触覚フィードバックを備えた拡張現実ユーザ・インタフェース Expired - Fee Related JP6713445B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/741,826 2013-01-15
US13/741,826 US20140198130A1 (en) 2013-01-15 2013-01-15 Augmented reality user interface with haptic feedback

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014001010A Division JP6271256B2 (ja) 2013-01-15 2014-01-07 触覚フィードバックを備えた拡張現実ユーザ・インタフェース

Publications (2)

Publication Number Publication Date
JP2018073433A true JP2018073433A (ja) 2018-05-10
JP6713445B2 JP6713445B2 (ja) 2020-06-24

Family

ID=49958279

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014001010A Expired - Fee Related JP6271256B2 (ja) 2013-01-15 2014-01-07 触覚フィードバックを備えた拡張現実ユーザ・インタフェース
JP2017250980A Expired - Fee Related JP6713445B2 (ja) 2013-01-15 2017-12-27 触覚フィードバックを備えた拡張現実ユーザ・インタフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014001010A Expired - Fee Related JP6271256B2 (ja) 2013-01-15 2014-01-07 触覚フィードバックを備えた拡張現実ユーザ・インタフェース

Country Status (5)

Country Link
US (1) US20140198130A1 (ja)
EP (1) EP2755113A3 (ja)
JP (2) JP6271256B2 (ja)
KR (1) KR20140092267A (ja)
CN (2) CN110262666A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059949A1 (ko) * 2018-09-20 2020-03-26 (주)리얼감 포스 피드백 방법 및 시스템

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2741177B1 (en) 2008-07-15 2019-06-26 Immersion Corporation Systems and Methods for Transmitting Haptic Messages
EP2754008A4 (en) * 2011-06-21 2015-04-22 Univ Northwestern TOUCHING INTERFACE DEVICE AND METHOD FOR USING CROSS-HOLLOWS ON HUMAN LIMBS
US9041647B2 (en) * 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
JP2015130168A (ja) * 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
EP3940509A1 (en) * 2014-10-31 2022-01-19 Sony Group Corporation Electronic device and feedback providing method
US20170323062A1 (en) * 2014-11-18 2017-11-09 Koninklijke Philips N.V. User guidance system and method, use of an augmented reality device
US9846484B2 (en) * 2014-12-04 2017-12-19 Immersion Corporation Systems and methods for controlling haptic signals
CN105739671A (zh) * 2014-12-08 2016-07-06 北京蚁视科技有限公司 一种振动反馈装置及含有该装置的近眼显示器
EP3234742A4 (en) * 2014-12-16 2018-08-08 Quan Xiao Methods and apparatus for high intuitive human-computer interface
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US10921896B2 (en) 2015-03-16 2021-02-16 Facebook Technologies, Llc Device interaction in augmented reality
JP6834962B2 (ja) * 2015-09-08 2021-02-24 ソニー株式会社 情報処理装置、方法およびコンピュータプログラム
US9857874B2 (en) * 2015-11-03 2018-01-02 Chunghwa Picture Tubes, Ltd. Augmented reality system and augmented reality interaction method
WO2017127128A1 (en) * 2016-01-22 2017-07-27 Elwha Llc Feedback for enhanced situational awareness
US20210385299A1 (en) * 2016-01-25 2021-12-09 Hiscene Information Technology Co., Ltd Method and apparatus for augmented reality interaction and presentation
CN106997235B (zh) * 2016-01-25 2018-07-13 亮风台(上海)信息科技有限公司 用于实现增强现实交互和展示的方法、设备
DE102016113060A1 (de) 2016-07-15 2018-01-18 Beckhoff Automation Gmbh Verfahren zum Steuern eines Objekts
KR20180019270A (ko) * 2016-08-16 2018-02-26 (주)알비케이이엠디 증강현실 또는 가상현실 구현 기기와 연동되는 햅틱 디바이스
US10427039B2 (en) * 2016-12-08 2019-10-01 Immersion Corporation Haptic surround functionality
US10019875B1 (en) * 2016-12-30 2018-07-10 Immersion Corporation Inertial haptic actuators having a cantilevered beam and a smart material
EP3602245B1 (en) 2017-03-21 2023-09-27 InterDigital VC Holdings, Inc. Method and system for the detection and augmentation of tactile interactions in augmented reality
CN110678827B (zh) * 2017-06-08 2023-11-10 霍尼韦尔国际公司 用于在工业自动化系统和其他系统中以增强/虚拟现实记录和重放交互式内容的装置和方法
CN109147001A (zh) * 2017-06-19 2019-01-04 亮风台(上海)信息科技有限公司 一种用于呈现虚拟指甲的方法与设备
KR102364678B1 (ko) * 2017-06-20 2022-02-18 엘지전자 주식회사 이동 단말기
CN107422942A (zh) * 2017-08-15 2017-12-01 吴金河 一种沉浸式体验的控制系统及方法
US20190155387A1 (en) * 2017-11-22 2019-05-23 Immersion Corporation Haptic Accessory Apparatus
JP6453501B1 (ja) * 2018-02-01 2019-01-16 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
US10572016B2 (en) * 2018-03-06 2020-02-25 Microsoft Technology Licensing, Llc Spatialized haptic device force feedback
US20190324538A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment
US11270597B2 (en) 2018-05-01 2022-03-08 Codescribe Llc Simulated reality technologies for enhanced medical protocol training
US11875693B2 (en) 2018-05-01 2024-01-16 Codescribe Corporation Simulated reality technologies for enhanced medical protocol training
EP3599538B1 (en) * 2018-07-24 2023-07-19 Nokia Technologies Oy Method and apparatus for adding interactive objects to a virtual reality environment
CN110928472B (zh) * 2018-09-19 2023-05-05 阿里巴巴集团控股有限公司 物品处理方法、装置及电子设备
CN109917911B (zh) * 2019-02-20 2021-12-28 西北工业大学 一种基于信息物理交互的振动触觉反馈装置设计方法
US10852827B1 (en) 2019-03-25 2020-12-01 Facebook Technologies, Llc Tactile simulation of initial contact with virtual objects
CN110442233B (zh) * 2019-06-18 2020-12-04 中国人民解放军军事科学院国防科技创新研究院 一种基于手势交互的增强现实键鼠系统
KR102467436B1 (ko) * 2020-11-13 2022-11-16 (주)에이트원 산업 안전 가상 훈련 시스템 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069918A (ja) * 2007-09-10 2009-04-02 Canon Inc 情報処理装置、情報処理方法
JP2010020526A (ja) * 2008-07-10 2010-01-28 Ritsumeikan 操作システム
JP2010537302A (ja) * 2007-08-19 2010-12-02 リングボウ エルティディ. 指に装着される装置とその使用方法
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1758156A (en) * 1928-12-27 1930-05-13 Frederick W Huber Method and means for cementing oil wells
JP2002082751A (ja) * 2000-09-08 2002-03-22 Mitsubishi Electric Corp 仮想空間とのインタラクション装置およびこれを応用した仮想空間システム
WO2003038800A1 (en) * 2001-11-01 2003-05-08 Immersion Corporation Method and apparatus for providing tactile sensations
JP2003316493A (ja) * 2002-04-19 2003-11-07 Seiko Epson Corp 触覚提示装置
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US20060017654A1 (en) * 2004-07-23 2006-01-26 Romo Justin R Virtual reality interactivity system and method
WO2006081198A2 (en) * 2005-01-25 2006-08-03 The Board Of Trustees Of The University Of Illinois Compact haptic and augmented virtual reality system
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US20090289955A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device
US8747116B2 (en) * 2008-08-21 2014-06-10 Lincoln Global, Inc. System and method providing arc welding training in a real-time simulated virtual reality environment using real-time weld puddle feedback
US9978288B2 (en) * 2009-02-13 2018-05-22 University Of Florida Research Foundation, Inc. Communication and skills training using interactive virtual humans
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US8542105B2 (en) * 2009-11-24 2013-09-24 Immersion Corporation Handheld computer interface with haptic feedback
US8633916B2 (en) * 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
CN101819462B (zh) * 2010-03-12 2011-07-20 东南大学 基于力/触觉交互设备的图像纹理的力触觉再现系统
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment
CA2835120C (en) * 2011-05-06 2019-05-28 Magic Leap, Inc. Massive simultaneous remote digital presence world
US20130002425A1 (en) * 2011-07-01 2013-01-03 General Electric Company Augmented reality excessive noise display and warning system
US20130265300A1 (en) * 2011-07-03 2013-10-10 Neorai Vardi Computer device in form of wearable glasses and user interface thereof
CA3207408A1 (en) * 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010537302A (ja) * 2007-08-19 2010-12-02 リングボウ エルティディ. 指に装着される装置とその使用方法
JP2009069918A (ja) * 2007-09-10 2009-04-02 Canon Inc 情報処理装置、情報処理方法
JP2010020526A (ja) * 2008-07-10 2010-01-28 Ritsumeikan 操作システム
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高見 雄介: "複数の道具型デバイスを活用する複合現実型木材加工システム", ヒューマンインタフェース学会論文誌 2012年度, vol. 14, no. 2, JPN6018039761, 25 May 2012 (2012-05-25), pages 141 - 150, ISSN: 0004124980 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059949A1 (ko) * 2018-09-20 2020-03-26 (주)리얼감 포스 피드백 방법 및 시스템

Also Published As

Publication number Publication date
JP2014139784A (ja) 2014-07-31
CN103970265A (zh) 2014-08-06
JP6271256B2 (ja) 2018-01-31
EP2755113A3 (en) 2016-12-28
CN110262666A (zh) 2019-09-20
CN103970265B (zh) 2019-08-23
JP6713445B2 (ja) 2020-06-24
EP2755113A2 (en) 2014-07-16
US20140198130A1 (en) 2014-07-17
KR20140092267A (ko) 2014-07-23

Similar Documents

Publication Publication Date Title
JP6713445B2 (ja) 触覚フィードバックを備えた拡張現実ユーザ・インタフェース
US20190164394A1 (en) System with wearable device and haptic output device
US10395116B2 (en) Dynamically created and updated indoor positioning map
US20180068614A1 (en) Wearable display device
US20180033177A1 (en) Method for image display and electronic device supporting the same
US20170277259A1 (en) Eye tracking via transparent near eye lens
KR20190089627A (ko) Ar 서비스를 제공하는 디바이스 및 그 동작 방법
CN111857365B (zh) 用于头戴式设备的基于触笔的输入
KR102360176B1 (ko) 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스
CN110968190B (zh) 用于触摸检测的imu
CN107076999A (zh) 使用目光接触经由平视显示器进行对接
CN103713387A (zh) 电子设备和采集方法
TW201807540A (zh) 信息處理系統、操作方法及操作程序
KR102118434B1 (ko) 모바일 디바이스 및 그 제어 방법
JP2023531849A (ja) オーディオ認識を行う拡張現実デバイスおよびその制御方法
US11775168B1 (en) Eyewear device user interface
US11863860B2 (en) Image capture eyewear with context-based sending
WO2024049463A1 (en) Virtual keyboard
KR20170093057A (ko) 미디어 중심의 웨어러블 전자 기기를 위한 손 제스쳐 명령의 처리 방법 및 장치
KR20160027813A (ko) 글래스형 단말기
CN117590933A (zh) 用于多个视图的相机
KR20240094948A (ko) 객체에 대한 정보를 획득하기 위한 전자 장치 및 방법
CN117425889A (zh) 作为生物计量信号的弯曲估计
CN109086579A (zh) 一种解密加密的可见代码的方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190827

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200603

R150 Certificate of patent or registration of utility model

Ref document number: 6713445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees