JP2018005676A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2018005676A
JP2018005676A JP2016133483A JP2016133483A JP2018005676A JP 2018005676 A JP2018005676 A JP 2018005676A JP 2016133483 A JP2016133483 A JP 2016133483A JP 2016133483 A JP2016133483 A JP 2016133483A JP 2018005676 A JP2018005676 A JP 2018005676A
Authority
JP
Japan
Prior art keywords
user
virtual object
information processing
execution unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016133483A
Other languages
English (en)
Inventor
浩丈 市川
Hirotake Ichikawa
浩丈 市川
佐藤 直之
Naoyuki Sato
直之 佐藤
誠司 鈴木
Seiji Suzuki
誠司 鈴木
真人 島川
Masato Shimakawa
真人 島川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016133483A priority Critical patent/JP2018005676A/ja
Priority to PCT/JP2017/013486 priority patent/WO2018008208A1/ja
Publication of JP2018005676A publication Critical patent/JP2018005676A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】オブジェクトが仮想オブジェクトであることを、状況に適応的にユーザに認識させることが可能な、情報処理装置、情報処理方法、およびプログラムを提案する。
【解決手段】仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、を備える、情報処理装置。
【選択図】図8

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、実世界に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)に関する技術が各種開発されている(例えば下記特許文献1参照)。
また、ARコンテンツの表示時における視認性の向上を図るための技術も提案されている。例えば、下記特許文献2には、透過ディスプレイの背後に位置する実物体を、透過ディスプレイを通してユーザが視認可能なように、透過ディスプレイにおける表示オブジェクトの表示を制御する技術が記載されている。
特開2012−155654号公報 特許第5830987号公報
ところで、例えばユーザの動作状況などの状況に応じて、オブジェクトが仮想オブジェクトであることをユーザに認識させることも望まれる。しかしながら、特許文献1および特許文献2には、表示対象のオブジェクトが仮想オブジェクトであることをユーザに通知することは開示されていない。
そこで、本開示では、オブジェクトが仮想オブジェクトであることを、状況に適応的にユーザに認識させることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、を備える、情報処理装置が提供される。
また、本開示によれば、仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理をプロセッサが実行すること、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータを、仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、として機能させるための、プログラムが提供される。
以上説明したように本開示によれば、オブジェクトが仮想オブジェクトであることを、状況に適応的にユーザに認識させることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態による情報処理システムの構成例を示した説明図である。 ARグラス10を通して実オブジェクトおよび仮想オブジェクトをユーザが視認する様子を示した概略図である。 図2に示した状況において表示部124を通して視認される実オブジェクトおよび仮想オブジェクトを示した図である。 本実施形態によるARグラス10の構成例を示した機能ブロック図である。 ユーザが仮想オブジェクト32に体重を預ける姿勢の一例を示した図である。 仮想オブジェクト32に対するユーザの動作の流れの一例を示した図である。 図6に示した各状況における表示部124の表示例を示した図である。 本実施形態による第1の動作例を示したフローチャートである。 本実施形態による第2の動作例を示したフローチャートである。 本実施形態によるARグラス10のハードウェア構成例を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてARグラス10aおよびARグラス10bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、ARグラス10aおよびARグラス10bを特に区別する必要が無い場合には、単にARグラス10と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
<<1.情報処理システムの構成>>
まず、本開示の実施形態による情報処理システムの構成について、図1を参照して説明する。図1に示すように、当該情報処理システムは、ARグラス10、サーバ20、および、通信網22を含む。
<1−1.ARグラス10>
ARグラス10は、本開示における情報処理装置の一例である。ARグラス10は、予め実世界上の位置に関連付けられている仮想オブジェクトの表示を制御する装置である。例えば、ARグラス10は、まず、ARグラス10の位置情報に基づいて、当該位置の周囲(例えば上下左右全方位の一定の範囲)に位置する仮想オブジェクトを、通信網22を介してサーバ20から取得する。そして、ARグラス10は、ARグラス10の姿勢(またはユーザの視線方向の検出結果)に基づいて、取得した仮想オブジェクトのうち、ユーザの視界内に含まれる仮想オブジェクトを、後述する表示部124に表示する。例えば、ARグラス10は、取得した仮想オブジェクトに基づいて右目用画像および左目用画像を生成し、そして、右目用画像を右目用表示部124aに表示し、かつ、左目用画像を左目用表示部124bに表示する。これにより、仮想的な立体視映像をユーザに視認させることができる。なお、(ARグラス10の)表示部124は、透過型のディスプレイで構成される。
ここで、仮想オブジェクトは、基本的に3Dのオブジェクトである。また、仮想オブジェクトは、基本的には、実世界上に存在する種類のオブジェクト(例えば、椅子、ベッド、壁、ドア、動物(人や犬)など)であり得る。例えば、仮想オブジェクトは、実オブジェクトと同様の形状、サイズ、および色で表示される。なお、仮想オブジェクトは、実オブジェクトの存在に依存せずに、実世界上の位置に関連付けられ得る。
図2は、ユーザがARグラス10を装着して、実オブジェクト30および仮想オブジェクト32を視認する様子を示した概略図である。なお、図2に示した例では、実オブジェクト30は、実物の机である。また、仮想オブジェクト32は、椅子の仮想オブジェクトであり、かつ、写実的に(つまり、実物の椅子であるかのように)表示され得る。
また、図3は、図2に示した状況において、表示部124を通して視認される実オブジェクト30および仮想オブジェクト32の例を示した図である。図3に示したように、ユーザの視界内に含まれる実オブジェクト30および仮想オブジェクト32は、表示部124を通して同時にユーザに視認される。
また、ARグラス10は、通信網22を介してサーバ20と通信することが可能である。
<1−2.サーバ20>
サーバ20は、実世界の位置情報と関連付けて仮想オブジェクトを記憶する装置である。ここで、実世界の位置情報は、緯度および経度を含む情報であってもよいし、所定の建物内の間取り図の情報であってもよい。また、サーバ20は、仮想オブジェクトの取得要求を例えばARグラス10などの他の装置から受信した場合には、当該取得要求に対応する仮想オブジェクトを当該他の装置へ送信する。
<1−3.通信網22>
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<1−4.課題の整理>
以上、本実施形態による情報処理システムの構成について説明した。ところで、写実的な3Dの仮想オブジェクトが表示部124に表示されると、ユーザは当該仮想オブジェクトが仮想オブジェクトであるか実オブジェクトであるかを識別し難い。特に表示部124が高輝度なディスプレイである場合には、ユーザはさらに識別し難い。そして、仮想オブジェクトを実オブジェクトであるとユーザが誤認識してしまうと、様々な危険がユーザに生じ得る。例えば、ユーザは、仮想の椅子に座ろうとして転倒したり、または、仮想の壁に寄り掛かろうとして転倒する恐れがある。
そこで、上記事情を一着眼点にして、本実施形態によるARグラス10を創作するに至った。本実施形態によるARグラス10は、仮想オブジェクトであるオブジェクトに対するユーザの動作認識の結果に基づいて、当該オブジェクトが仮想オブジェクトであることをユーザに認識させるための処理を実行する。このため、例えば、ユーザの周囲に位置する特定のオブジェクトが仮想オブジェクトであることを適切なタイミングで当該ユーザに認識させることができる。
<<2.実施形態の詳細な説明>>
<2−1.構成>
以上、本実施形態による情報処理システムの構成について説明した。次に、本実施形態によるARグラス10の構成について詳細に説明する。図4は、本実施形態によるARグラス10の構成例を示した機能ブロック図である。図4に示すように、ARグラス10は、制御部100、通信部120、センサ部122、表示部124、音声出力部126、および、記憶部128を有する。
{2−1−1.制御部100}
制御部100は、ARグラス10に内蔵される、後述するCPU(Central Processing Unit)150や、RAM(Random Access Memory)154などのハードウェアを用いて、ARグラス10の動作を統括的に制御する。また、図4に示すように、制御部100は、仮想オブジェクト取得部102、動作認識部104、および、処理実行部106を有する。
{2−1−2.仮想オブジェクト取得部102}
仮想オブジェクト取得部102は、後述するセンサ部122による、ARグラス10の位置情報の測定結果に基づいて、表示対象の仮想オブジェクトをサーバ20から取得する。例えば、仮想オブジェクト取得部102は、まず、センサ部122により測定された位置情報をサーバ20へ送信することにより、当該位置情報の周囲(例えば上下左右全方位の一定の範囲)に位置付けられている複数の仮想オブジェクトをサーバ20から取得する。
{2−1−3.動作認識部104}
動作認識部104は、例えばセンサ部122による、ARグラス10の位置情報、姿勢、速度、加速度、または、方位などの測定結果に基づいて、ユーザの動作を認識する。または、動作認識部104は、センサ部122により撮像された一連の動画像に基づいて、ユーザの動作を認識することも可能である。
例えば、動作認識部104は、センサ部122による測定結果に基づいて、所定の動作を認識する。ここで、所定の動作は、例えば体重を預ける姿勢以外の姿勢から体重を預ける姿勢へ変える動作などの、姿勢の変化を伴う所定の動作であり得る。なお、「体重を預ける姿勢以外の姿勢」は、本開示における第1の姿勢の一例であり、また、体重を預ける姿勢は、本開示における第2の姿勢の一例である。また、体重を預ける姿勢は、例えば、寄り掛かる姿勢や座る姿勢などである。
また、動作認識部104は、ユーザの動作に関する学習データと、センサ部122による現在の測定結果とに基づいて、例えば所定の時間分の未来におけるユーザの動作を予測することも可能である。なお、この学習データは、例えば過去のユーザの動作に関する測定結果(または動作の認識結果)に基づいて動作の特徴が学習されることにより予め生成され得る。また、学習データはユーザごとに生成されてもよいし、または、複数のユーザの測定結果の履歴に基づいて一つの学習データだけが生成されてもよい。
{2−1−4.処理実行部106}
(2−1−4−1.仮想オブジェクトの表示)
処理実行部106は、センサ部122により測定される、ARグラス10の姿勢(またはユーザの視線方向)に基づいて、仮想オブジェクト取得部102により取得された仮想オブジェクトの表示を制御する。より具体的には、処理実行部106は、まず、仮想オブジェクト取得部102により取得された仮想オブジェクトのうち、ARグラス10の姿勢(またはユーザの視線方向)の測定結果に基づいて、ユーザの視界内に含まれる仮想オブジェクトを抽出する。そして、処理実行部106は、抽出した仮想オブジェクトを表示部124に表示させる。
(2−1−4−2.通知処理)
また、処理実行部106は、仮想オブジェクト取得部102により取得された仮想オブジェクト、および、動作認識部104による動作認識の結果(または動作予測)に基づいて、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させるための処理(以下、通知処理と称する)を実行する。ここで、対象のオブジェクトは、例えば、実世界においてユーザから所定の範囲内の位置に関連付けられている仮想オブジェクトであり得る。
例えば、処理実行部106は、仮想オブジェクト取得部102により取得された仮想オブジェクトに対するユーザの動作認識の結果(または動作予測)に基づいて、当該オブジェクトに関する通知処理を実行する。ここで、通知処理は、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させるための表示制御、音声の出力制御、および/または、触覚刺激(振動など)の出力制御を行うことである。
例えば、通知処理は、対象の仮想オブジェクトの表示属性または表示位置を変化させることである。一例として、通知処理は、対象の仮想オブジェクトの表示色をデフォルトの表示色から変更したり、当該仮想オブジェクトを半透明にしたり、当該仮想オブジェクトのサイズを拡大または縮小したり、当該仮想オブジェクトをワイヤフレーム表示するように変更したり、当該仮想オブジェクトの周囲にデコレーションを付加したり、当該仮想オブジェクトの形状を変更したり、当該仮想オブジェクトを非表示にしたり、または、当該仮想オブジェクトを別の種類の仮想オブジェクトに置き換えることであってもよい。または、通知処理は、対象の仮想オブジェクトがデフォルトではアニメーション表示されていない場合に、当該仮想オブジェクトをアニメーション表示(例えば、所定の時間間隔で点滅させたり、連続的に回転させるなど)するように変更することであってもよい。これらの変化は実オブジェクトでは生じ得ないので、これらの変化がなされることにより、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させることができる。
または、通知処理は、例えば警告用のテキストや画像などの他の仮想オブジェクトを新たに表示させることであってもよい。または、通知処理は、警告用の音声(例えばブザー音や、「危険です!」などの音声など)や触覚刺激(振動など)を出力させることであってもよい。
(2−1−4−3.通知処理の具体例1)
以下では、処理実行部106による通知処理の実行方法に関してより詳細に説明する。例えば、処理実行部106は、仮想オブジェクト取得部102により取得された仮想オブジェクトに対する動作認識の結果、および、当該仮想オブジェクトの実世界上の位置とユーザとの位置関係に基づいて、通知処理を実行するか否かを決定する。一例として、仮想オブジェクトの実世界上の位置とユーザとの距離が所定の閾値以下である仮想オブジェクトが存在する場合には、処理実行部106は、該当の仮想オブジェクトに対するユーザの動作認識の結果に基づいて、通知処理を実行するか否かを決定する。また、全ての仮想オブジェクトの実世界上の位置とユーザとの距離が所定の閾値よりも大きい場合には、処理実行部106は、通知処理を実行しない。
前者の場合、例えば、ユーザとの距離が所定の閾値以下である仮想オブジェクトに対する、上述した所定の動作が認識された場合には、処理実行部106は、該当の仮想オブジェクトに関して通知処理を実行する。また、当該仮想オブジェクトに対する、上述した所定の動作が認識されない場合には、処理実行部106は、該当の仮想オブジェクトに関して通知処理を実行しない。なお、仮想オブジェクトの実世界上の位置とユーザとの距離は、センサ部122により測定されるARグラス10の位置および姿勢(またはユーザの視線方向の検出結果)と、当該仮想オブジェクトの実世界上の位置とに基づいて特定され得る。
ここで、図5を参照して、上記の機能についてより詳細に説明する。図5に示したように、対象の仮想オブジェクト32の実世界上の位置とユーザとの距離が所定の閾値(=D)であり、かつ、仮想オブジェクト32の方へユーザが体重を預けるように姿勢を変える動作が認識された(または当該動作が予測された)とする。この場合、処理実行部106は、例えば、警告用の音声を音声出力部126に出力させたり、または、表示部124において警告用のオブジェクトを新たに表示させる。これにより、対象の仮想オブジェクト32が仮想オブジェクトであることをユーザに認識させることができ、ユーザに注意喚起を行うことができる。
(2−1−4−4.通知処理の具体例2)
または、処理実行部106は、仮想オブジェクト取得部102により取得された個々の仮想オブジェクトに関連付けて登録されている通知条件に基づいて、通知処理を実行することも可能である。ここで、通知条件は、例えば、仮想オブジェクトごとに、当該仮想オブジェクト(の実世界上の位置)にユーザの身体のいずれの部位が接近した場合に通知処理を実行するかの条件である。例えば、仮想オブジェクトの種類が椅子である場合には、臀部、背中、または、手などが接近した場合に通知処理を開始するように定められ得る。また、仮想オブジェクトの種類が壁である場合には、肩、背中、または、手などが接近した場合に通知処理を開始するように定められ得る。あるいは、仮想オブジェクトにユーザの身体のいずれの部位が接近したことに加え、高さ方向において当該仮想オブジェクトと当該部位が所定の位置関係を有することを条件に通知処理が行われても良い。具体的には、ユーザが仮想オブジェクトを踏もうとするようなケースが想定される。この場合、仮想オブジェクトにユーザの脚が接近し、かつ、仮想オブジェクトの上方にユーザの脚が位置することを条件として通知処理が行われてもよい。あるいは、高さ方向の位置関係の代わりに、高さ方向におけるユーザの体のいずれかの部位の速度あるいは加速度が通知処理の条件として用いられても良い。
例えば、処理実行部106は、仮想オブジェクト取得部102により取得された仮想オブジェクトごとに、当該仮想オブジェクトに関連付けて登録されている種類の当該ユーザの部位と当該仮想オブジェクトとの距離に基づいて、通知処理を実行するか否かを決定する。一例として、該当の部位と当該仮想オブジェクトとの距離が所定の閾値以下になった場合(つまり接近した場合)には、処理実行部106は、当該仮想オブジェクトに関して通知処理を実行する。また、該当の部位と当該仮想オブジェクトとの距離が所定の閾値よりも大きい場合には、処理実行部106は、当該仮想オブジェクトに関して通知処理を実行しない。
(2−1−4−5.通知処理の具体例3)
または、処理実行部106は、所定の基準に基づいて、通知処理を段階的に実行することも可能である。例えば、処理実行部106は、まず、対象の仮想オブジェクトの実世界上の位置とユーザとの位置関係に基づいて、当該オブジェクトが仮想オブジェクトであることをユーザに認識させるための第1の処理(以下、第1の通知処理と称する)を実行する。そして、処理実行部106は、当該オブジェクトに対するユーザの動作認識の結果に基づいて、当該オブジェクトが仮想オブジェクトであることをユーザに認識させるための第2の処理(以下、第2の通知処理と称する)を実行する。
より具体的には、仮想オブジェクトの実世界上の位置とユーザとの距離が所定の閾値以下である仮想オブジェクトが存在する場合には、処理実行部106は、まず、該当の仮想オブジェクトに関して第1の通知処理を実行する。その後、処理実行部106は、該当の仮想オブジェクトに対するユーザの動作認識の結果に基づいて、該当の仮想オブジェクトに関して第2の通知処理を実行する。
また、全ての仮想オブジェクトの実世界上の位置とユーザとの距離が所定の閾値よりも大きい間は、処理実行部106は、全ての仮想オブジェクトに関して第1の通知処理および第2の通知処理を実行しない。
ここで、第1の通知処理は、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させるための第1の表示制御を行うことであり、かつ、第2の通知処理は、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させるための第2の表示制御を行うことであり得る。例えば、第1の通知処理は、対象の仮想オブジェクトの表示属性または表示位置を変化させることであり、かつ、第2の通知処理は、他の仮想オブジェクトを新たに表示させることであってもよい。
あるいは、第1の通知処理は、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させるための表示制御、音声の出力制御、および、触覚刺激(振動など)の出力制御の三種類のうちのいずれか一つを行うことであり、かつ、第2の通知処理は、上記三種類の制御のうち、第1の通知処理とは異なるいずれかの種類の制御を行うことであり得る。例えば、第1の通知処理は、仮想オブジェクトの表示属性または表示位置を変化させることであり、かつ、第2の通知処理は、警告用の音声を音声出力部126に出力させることであってもよい。
‐適用例
ここで、図6および図7を参照して、上記の機能についてより詳細に説明する。図6は、仮想オブジェクト32に対するユーザの動作の流れの例を示した説明図である。また、図7は、図6の(a)〜(c)に示した各状況における表示部124の表示例を示した図である。なお、図6および図7に示した仮想オブジェクト32は、図2に示した椅子の仮想オブジェクト32と同一である。
まず、図6の(a)に示したように、仮想オブジェクト32の実世界上の位置とユーザとの距離(=d)が所定の閾値(=D)よりも大きい状況を想定する。この際には、ARグラス10は、仮想オブジェクト32をデフォルトの表示属性で表示部124に表示させる(図7の(a))。
その後、ユーザが仮想オブジェクト32の方へ移動し、そして、図6の(b)に示すように、仮想オブジェクト32の実世界上の位置とユーザとの距離(=d)が所定の閾値(=D)よりも小さくなったとする。この際には、図7の(b)に示したように、処理実行部106は、例えば仮想オブジェクト32の表示色をデフォルトの表示色から変化させ、そして、表示部124に表示させる(第1の通知処理)。
その後、ユーザは仮想オブジェクト32の方へさらに移動し、そして、図6の(c)に示すように、仮想オブジェクト32に座るように姿勢を変化させ始めたとする。この際には、図7の(c)に示したように、処理実行部106は、例えば警告用の仮想オブジェクト34を新たに表示部124に表示させる(第2の通知処理)。このように、通知処理を段階的に行うことにより、仮想オブジェクト32が仮想オブジェクトであることをユーザに対して、より強調して通知することができる。従って、仮想オブジェクト32を実オブジェクトであるとユーザが誤認識する恐れをさらに減少させることができる。
(2−1−4−6.通知処理の変形例)
なお、変形例として、処理実行部106は、上述した通知処理の内容を、所定の基準に基づいて動的に変化させてもよい。ここで、所定の基準は、仮想オブジェクトの実世界上の位置とユーザとの位置関係であり得る。例えば、「通知処理」が仮想オブジェクトの透過度を変化させる処理である場合、処理実行部106は、仮想オブジェクトの実世界上の位置とユーザとの距離が小さくなるほど、表示部124に表示される当該仮想オブジェクトの透過度をより大きくさせてもよい。また、「通知処理」が仮想オブジェクトの実世界上の位置を変化させる処理である場合、処理実行部106は、仮想オブジェクトの実世界上の位置とユーザとの距離が所定の距離よりも小さくならないように、ユーザの移動に応じて、当該仮想オブジェクトの実世界上の位置を変化させてもよい。これにより、例えば、ユーザが仮想オブジェクトに近づこうとしても当該仮想オブジェクトが遠ざかっていく(当該仮想オブジェクトに対して所定の距離以上近づくことができない)ような体験を実現することができる。そして、このような体験を通して、該当のオブジェクトが仮想オブジェクトであることをユーザに認識させることができる。
または、所定の基準は、ユーザの動作認識であり得る。例えば、「通知処理」が仮想オブジェクトの透過度を変化させる処理である場合、処理実行部106は、仮想オブジェクトの方へユーザが体重を預ける(例えば寄り掛かる)ように姿勢を変化させるにつれて、表示部124に表示される当該仮想オブジェクトの透過度をより大きくさせてもよい。また、「通知処理」が警告用の音声を出力させる処理である場合、処理実行部106は、仮想オブジェクトの方へユーザが体重を預けるように姿勢を変化させるにつれて、出力される警告用の音声の音量をより大きくしてもよい。
{2−1−5.通信部120}
通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、仮想オブジェクト取得部102の制御に従って、現在位置の周囲に位置する仮想オブジェクトの取得要求をサーバ20へ送信する。また、通信部120は、仮想オブジェクトをサーバ20から受信する。
{2−1−6.センサ部122}
センサ部122は、例えば、GPS(Global Positioning System)などの測位衛星から測位信号を受信して現在位置を測位する測位装置を含み得る。また、センサ部122は、測域センサを含み得る。
さらに、センサ部122は、例えば、3軸加速度センサ、ジャイロスコープ、磁気センサ、カメラ、深度センサ、および/または、マイクロフォンなどを含む。例えば、センサ部122は、ARグラス10の速度、加速度、姿勢、または方位などを測定する。また、センサ部122は、ARグラス10を装着するユーザの目の画像を撮影したり、ARグラス10の前方の画像を撮影する。また、センサ部122は、ユーザの前方に位置する物体を検出したり、また、検出した物体までの距離を検出し得る。
{2−1−7.表示部124}
表示部124は、本開示における出力部の一例である。表示部124は、出力制御部108の制御に従って、映像を表示する。例えば、表示部124は、左目用レンズおよび右目用レンズそれぞれの少なくとも一部の領域(投影面)に対して映像を投影する。なお、左目用レンズおよび右目用レンズは、例えば樹脂やガラスなどの透明材料により形成され得る。
なお、変形例として、表示部124は液晶パネルを有し、かつ、液晶パネルの透過率が制御可能であってもよい。これにより、表示部124は、透明または半透明の状態に制御され得る。
{2−1−8.音声出力部126}
音声出力部126は、本開示における出力部の一例である。音声出力部126は、出力制御部108の制御に従って、音声を出力する。
{2−1−9.記憶部128}
記憶部128は、各種のデータや各種のソフトウェアを記憶する。
<2−2.動作>
以上、本実施形態による構成について説明した。次に、本実施形態による動作について、「2−2−1.第1の動作例」〜「2−2−2.第2の動作例」において説明する。図8は、本実施形態による第1の動作例を示したフローチャートである。
{2−2−1.第1の動作例}
図8に示したように、まず、ARグラス10の仮想オブジェクト取得部102は、センサ部122による位置情報の測定結果に基づいて、現在位置の周囲(例えば上下左右全方位の一定の範囲)に位置する複数の仮想オブジェクトをサーバ20から取得する(S101)。
続いて、処理実行部106は、センサ部122による測定結果に基づいて、仮想オブジェクト取得部102により取得された個々の仮想オブジェクトの実世界上の位置とユーザとの距離を算出する。そして、処理実行部106は、ユーザとの距離が所定の閾値以下である仮想オブジェクトが存在するか否かを判定する(S103)。ユーザとの距離が所定の閾値以下である仮想オブジェクトが存在しない場合には(S103:No)、ARグラス10は、後述するS109の処理を行う。
一方、ユーザとの距離が所定の閾値以下である仮想オブジェクトが存在する場合には(S103:Yes)、処理実行部106は、該当の仮想オブジェクトのうちの少なくともいずれかに対する所定の動作が動作認識部104により認識されたか否かを判定する(S105)。所定の動作が認識されていない場合には(S105:No)、ARグラス10は、後述するS109の処理を行う。
一方、該当の仮想オブジェクトのうちの少なくともいずれかに対する所定の動作が認識された場合には(S105:Yes)、処理実行部106は、該当の仮想オブジェクトの各々に関して通知処理を実行する(S107)。
その後、処理実行部106は、センサ部122によるARグラス10の姿勢(またはユーザの視線方向)の測定結果と、S107での処理結果とに基づいて、S101で取得された仮想オブジェクトのうちユーザの視界内に位置する仮想オブジェクトを表示部124に表示させる(S109)。あるいは、S107およびS109の処理は一体的に行われてもよい。
{2−2−2.第2の動作例}
次に、本実施形態による第2の動作例について説明する。図9は、本実施形態による第2の動作例を示したフローチャートである。なお、図9に示したS201は、第1の動作例におけるS101と同様である。
S201の後、処理実行部106は、S201で取得された個々の仮想オブジェクトに関連付けて登録されている通知条件を例えばサーバ20または記憶部128から取得する(S203)。なお、この通知条件は、上述したように、例えば仮想オブジェクトごとに、当該仮想オブジェクト(の実世界上の位置)にユーザの身体のいずれの部位が接近した場合に通知処理を実行するかの条件であり得る。
続いて、処理実行部106は、S201で取得された仮想オブジェクトのうちの少なくともいずれかに関連付けられている通知条件が成立するか否かを判定する(S205)。全ての仮想オブジェクトに関して通知条件が成立しないと判定された場合には(S205:No)、処理実行部106は、後述するS209の処理を行う。
一方、少なくともいずれかの仮想オブジェクトに関連付けられている通知条件が成立すると判定された場合には(S205:Yes)、処理実行部106は、該当の仮想オブジェクトに関して通知処理を実行する(S207)。
なお、図9に示したS209は、第1の動作例におけるS109と同様である。なお、S207およびS209の動作は一体的に行われてもよい。
<2−3.効果>
以上説明したように、本実施形態によれば、ARグラス10は、仮想オブジェクトであるオブジェクトに対するユーザの動作認識の結果に基づいて、当該オブジェクトが仮想オブジェクトであることを当該ユーザに認識させるための処理を実行する。このため、例えば、ユーザの周囲に位置する特定のオブジェクトが仮想オブジェクトであることを適切なタイミングで当該ユーザに認識させることができる。
例えば、仮想オブジェクトに対する所定の動作(例えば仮想オブジェクトの方へユーザが体重を預けるように姿勢を変化させる動作など)が認識された場合には、ARグラス10は、当該オブジェクトが仮想オブジェクトであることをユーザに認識させるための処理を実行する。このため、仮に仮想オブジェクトが(あたかも実オブジェクトであるかのように)写実的に表示されている場合であっても、当該オブジェクトに対してユーザが所定の動作を行おうとする際には、当該オブジェクトが仮想オブジェクトであることをユーザに認識させることができる。
従って、仮想オブジェクトの表示時における安全性を向上させることができる。例えば、表示部124に表示されている仮想オブジェクトを実オブジェクトであるとユーザが誤認識してしまうことによりユーザが転倒してしまう等の危険の発生を防止することができる。
<<3.ハードウェア構成>>
次に、本実施形態によるARグラス10のハードウェア構成について、図10を参照して説明する。図10に示すように、ARグラス10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってARグラス10内の動作全般を制御する。また、CPU150は、ARグラス10において制御部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、およびRAM154を相互に接続する。
インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を、バス156と接続する。
入力装置160は、例えばボタン、スイッチ、レバー、マイクロフォンなどユーザが情報を入力するための入力手段、および、ユーザによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などから構成される。
出力装置162は、例えば、プロジェクタなどの表示装置、および、スピーカーなどの音声出力装置を含む。なお、表示装置は、液晶ディスプレイ(LCD:Liquid Crystal Display)装置や、OLED(Organic Light Emitting Diode)装置などであってもよい。
ストレージ装置164は、記憶部128として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
通信装置166は、例えば通信網22などに接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部120として機能する。
<<4.変形例>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<4−1.変形例1>
例えば、上述した実施形態では、本開示における情報処理装置がARグラス10である例について説明したが、かかる例に限定されない。例えば、上述した処理実行部106を(ARグラス10の代わりに)サーバ20が含む場合には、当該情報処理装置は、サーバ20であってもよい。この場合、サーバ20は、ARグラス10の位置情報および姿勢情報(およびユーザの視線方向の検出結果)と、動作認識部104による動作認識の結果とをARグラス10から取得することにより、ARグラス10に対して通知処理を行うことが可能である。例えば、サーバ20は、これらの情報に基づいて、対象のオブジェクトが仮想オブジェクトであることをユーザに認識させるための表示制御や音声の出力制御などをARグラス10に対して行う。また、この場合、動作認識部104の機能は、ARグラス10の代わりに、サーバ20が行ってもよい。
また、当該情報処理装置は、サーバ20に限定されず、例えば、スマートフォン、タブレット端末、PC(Personal Computer)、または、ゲーム機など、通信網22に接続可能な他の種類の装置であってもよい。
<4−2.変形例2>
また、上述した実施形態では、本開示における表示部がARグラス10の表示部124である例について説明したが、かかる例に限定されない。例えば、当該表示部は、ビデオ透過型のHMD(Head Mounted Display)のディスプレイであってもよい。この場合、ユーザの前方の撮像映像が当該ディスプレイに逐次表示され得る。
または、当該表示部は、3Dプロジェクタであってもよい。この場合、例えば、サーバ20は、ユーザが装着するセンサまたは環境内に配置されたセンサによるユーザの視界のセンシング結果に基づいて、仮想オブジェクトを投影対象に対して当該3Dプロジェクタにプロジェクションマッピングさせる。これにより、上述した実施形態と同様の機能を実現することができる。なお、投影対象は、平面であってもよいし、立体物であってもよい。
<4−3.変形例3>
また、上述した実施形態の動作における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
また、上述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した実施形態によるARグラス10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、
を備える、情報処理装置。
(2)
前記第1のオブジェクトに対する前記ユーザの所定の動作が認識された場合には、前記処理実行部は、前記処理を実行し、
前記第1のオブジェクトに対する前記ユーザの所定の動作が認識されない場合には、前記処理実行部は、前記処理を実行しない、前記(1)に記載の情報処理装置。
(3)
前記ユーザの所定の動作は、第1の姿勢から第2の姿勢へ変える動作を含む、前記(2)に記載の情報処理装置。
(4)
前記第1の姿勢は、体重を預ける姿勢以外の姿勢であり、
前記第2の姿勢は、体重を預ける姿勢である、前記(3)に記載の情報処理装置。
(5)
前記ユーザの所定の動作は、前記第1のオブジェクトに対する前記ユーザの所定の部位の接近と、高さ方向における前記ユーザの所定の部位の移動を含む、前記(2)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記処理実行部は、さらに、実世界における前記第1のオブジェクトに関連付けられた領域と、前記ユーザとの位置関係に基づいて、前記処理を実行する、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記領域と前記ユーザとの距離が所定の閾値以下である場合には、前記処理実行部は、前記ユーザの動作認識の結果に基づいて、前記処理を実行する、前記(6)に記載の情報処理装置。
(8)
前記領域と前記ユーザとの距離が所定の閾値よりも大きい場合には、前記処理実行部は、前記処理を実行しない、前記(6)または(7)に記載の情報処理装置。
(9)
前記処理実行部は、さらに、実世界における前記第1のオブジェクトに関連付けられた領域に接近する前記ユーザの部位の認識結果に基づいて、前記処理を実行する、前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記処理実行部は、さらに、実世界における前記第1のオブジェクトに関連付けられた領域と、前記ユーザの身体のうち、前記第1のオブジェクトに関連付けられている種類の部位との距離に基づいて、前記処理を実行する、前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(11)
前記ユーザの身体のうち、前記第1のオブジェクトに関連付けられている種類の部位と前記領域との距離が所定の閾値以下になった場合には、前記処理実行部は、前記処理を実行し、
前記ユーザの身体のうち、前記第1のオブジェクトに関連付けられている種類の部位と前記領域との距離が所定の閾値よりも大きい場合には、前記処理実行部は、前記処理を実行しない、前記(10)に記載の情報処理装置。
(12)
前記処理は、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための表示制御、音声の出力制御、および/または、触覚刺激の出力制御を行うことである、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記処理は、前記第1のオブジェクトの表示属性または表示位置を変化させることを含む、前記(12)に記載の情報処理装置。
(14)
前記処理は、警告情報を出力部に出力させることを含む、前記(12)または(13)に記載の情報処理装置。
(15)
前記処理実行部は、実世界における前記第1のオブジェクトに関連付けられた領域と前記ユーザとの位置関係に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための第1の処理を実行し、
前記処理実行部は、前記第1のオブジェクトに対する前記ユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための第2の処理を実行する、前記(2)に記載の情報処理装置。
(16)
前記領域と前記ユーザとの距離が所定の閾値以下である場合には、前記処理実行部は、前記第1の処理を実行し、かつ、前記ユーザの動作認識の結果に基づいて前記第2の処理を実行する、前記(15)に記載の情報処理装置。
(17)
前記領域と前記ユーザとの距離が所定の閾値よりも大きい場合には、前記処理実行部は、前記第1の処理および前記第2の処理を実行しない、前記(15)または(16)に記載の情報処理装置。
(18)
前記第1の処理は、表示部に対する第1の表示制御を行うことであり、
前記第2の処理は、前記表示部に対する第2の表示制御を行うことである、前記(15)〜(17)のいずれか一項に記載の情報処理装置。
(19)
仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理をプロセッサが実行すること、
を含む、情報処理方法。
(20)
コンピュータを、
仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、
として機能させるための、プログラム。
10 ARグラス
20 サーバ
22 通信網
100 制御部
102 仮想オブジェクト取得部
104 動作認識部
106 処理実行部
108 出力制御部
120 通信部
122 センサ部
124 表示部
126 音声出力部
128 記憶部

Claims (20)

  1. 仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、
    を備える、情報処理装置。
  2. 前記第1のオブジェクトに対する前記ユーザの所定の動作が認識された場合には、前記処理実行部は、前記処理を実行し、
    前記第1のオブジェクトに対する前記ユーザの所定の動作が認識されない場合には、前記処理実行部は、前記処理を実行しない、請求項1に記載の情報処理装置。
  3. 前記ユーザの所定の動作は、第1の姿勢から第2の姿勢へ変える動作を含む、請求項2に記載の情報処理装置。
  4. 前記第1の姿勢は、体重を預ける姿勢以外の姿勢であり、
    前記第2の姿勢は、体重を預ける姿勢である、請求項3に記載の情報処理装置。
  5. 前記ユーザの所定の動作は、前記第1のオブジェクトに対する前記ユーザの所定の部位の接近と、高さ方向における前記ユーザの所定の部位の移動を含む、請求項2に記載の情報処理装置。
  6. 前記処理実行部は、さらに、実世界における前記第1のオブジェクトに関連付けられた領域と、前記ユーザとの位置関係に基づいて、前記処理を実行する、請求項1に記載の情報処理装置。
  7. 前記領域と前記ユーザとの距離が所定の閾値以下である場合には、前記処理実行部は、前記ユーザの動作認識の結果に基づいて、前記処理を実行する、請求項6に記載の情報処理装置。
  8. 前記領域と前記ユーザとの距離が所定の閾値よりも大きい場合には、前記処理実行部は、前記処理を実行しない、請求項6に記載の情報処理装置。
  9. 前記処理実行部は、さらに、実世界における前記第1のオブジェクトに関連付けられた領域に接近する前記ユーザの部位の認識結果に基づいて、前記処理を実行する、請求項1に記載の情報処理装置。
  10. 前記処理実行部は、さらに、実世界における前記第1のオブジェクトに関連付けられた領域と、前記ユーザの身体のうち、前記第1のオブジェクトに関連付けられている種類の部位との距離に基づいて、前記処理を実行する、請求項1に記載の情報処理装置。
  11. 前記ユーザの身体のうち、前記第1のオブジェクトに関連付けられている種類の部位と前記領域との距離が所定の閾値以下になった場合には、前記処理実行部は、前記処理を実行し、
    前記ユーザの身体のうち、前記第1のオブジェクトに関連付けられている種類の部位と前記領域との距離が所定の閾値よりも大きい場合には、前記処理実行部は、前記処理を実行しない、請求項10に記載の情報処理装置。
  12. 前記処理は、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための表示制御、音声の出力制御、および/または、触覚刺激の出力制御を行うことである、請求項1に記載の情報処理装置。
  13. 前記処理は、前記第1のオブジェクトの表示属性または表示位置を変化させることを含む、請求項12に記載の情報処理装置。
  14. 前記処理は、警告情報を出力部に出力させることを含む、請求項12に記載の情報処理装置。
  15. 前記処理実行部は、実世界における前記第1のオブジェクトに関連付けられた領域と前記ユーザとの位置関係に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための第1の処理を実行し、
    前記処理実行部は、前記第1のオブジェクトに対する前記ユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための第2の処理を実行する、請求項2に記載の情報処理装置。
  16. 前記領域と前記ユーザとの距離が所定の閾値以下である場合には、前記処理実行部は、前記第1の処理を実行し、かつ、前記ユーザの動作認識の結果に基づいて前記第2の処理を実行する、請求項15に記載の情報処理装置。
  17. 前記領域と前記ユーザとの距離が所定の閾値よりも大きい場合には、前記処理実行部は、前記第1の処理および前記第2の処理を実行しない、請求項15に記載の情報処理装置。
  18. 前記第1の処理は、表示部に対する第1の表示制御を行うことであり、
    前記第2の処理は、前記表示部に対する第2の表示制御を行うことである、請求項15に記載の情報処理装置。
  19. 仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理をプロセッサが実行すること、
    を含む、情報処理方法。
  20. コンピュータを、
    仮想オブジェクトである第1のオブジェクトに対するユーザの動作認識の結果に基づいて、前記第1のオブジェクトが仮想オブジェクトであることを前記ユーザに認識させるための処理を実行する処理実行部、
    として機能させるための、プログラム。
JP2016133483A 2016-07-05 2016-07-05 情報処理装置、情報処理方法、およびプログラム Pending JP2018005676A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016133483A JP2018005676A (ja) 2016-07-05 2016-07-05 情報処理装置、情報処理方法、およびプログラム
PCT/JP2017/013486 WO2018008208A1 (ja) 2016-07-05 2017-03-30 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133483A JP2018005676A (ja) 2016-07-05 2016-07-05 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2018005676A true JP2018005676A (ja) 2018-01-11

Family

ID=60912048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133483A Pending JP2018005676A (ja) 2016-07-05 2016-07-05 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP2018005676A (ja)
WO (1) WO2018008208A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169622A (ja) * 2008-01-15 2009-07-30 Canon Inc 画像処理装置、画像処理方法
JP5691568B2 (ja) * 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
JP5888372B2 (ja) * 2013-08-29 2016-03-22 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム

Also Published As

Publication number Publication date
WO2018008208A1 (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
US11810226B2 (en) Systems and methods for utilizing a living entity as a marker for augmented reality content
CN107015638B (zh) 用于向头戴式显示器用户报警的方法和装置
JP2022140779A (ja) 広範囲同時遠隔ディジタル提示世界
US10088900B2 (en) Information processing method and information processing system
CN108304063B (zh) 信息处理装置、信息处理方法和计算机可读介质
US20170287215A1 (en) Pass-through camera user interface elements for virtual reality
WO2018125742A2 (en) Dynamic depth-based content creation in virtual reality environments
JP6558839B2 (ja) 媒介現実
KR20170130602A (ko) 증강 현실 및/또는 가상 현실에서의 터치 스크린 호버 검출
KR20220008281A (ko) 머리 장착 디스플레이들에 대한 동적 장애물 충돌 경고들을 생성하기 위한 시스템들 및 방법들
WO2018092545A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018524684A (ja) 媒介現実
JP2018005005A (ja) 情報処理装置、情報処理方法、およびプログラム
CN108021227B (zh) 在虚拟现实中快速移动的方法及虚拟现实装置
CN116964542A (zh) 用于在虚拟现实中提供空间感知的系统和方法
KR20220125353A (ko) 인공 현실에서 물리적 환경의 실시간 시각화를 자동으로 트리거하기 위한 시스템, 방법 및 매체
JP2023520968A (ja) 人工現実中にいる間に定義された空間の境界内のオブジェクトを検出するためのシステムおよび方法
TW202238531A (zh) 虛擬實境環境中的混合實境物件
JP2023519470A (ja) 人工現実中にいる間に侵入を検出するためのシステムおよび方法
WO2018198503A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018173399A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11474595B2 (en) Display device and display device control method
CN112269472A (zh) 构建虚拟边界对象的方法和系统及其vr眼镜
WO2018008208A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021241110A1 (ja) 情報処理装置、情報処理方法及びプログラム