JP2018097645A - 情報処理装置、情報処理システム、その制御方法及びプログラム - Google Patents

情報処理装置、情報処理システム、その制御方法及びプログラム Download PDF

Info

Publication number
JP2018097645A
JP2018097645A JP2016242078A JP2016242078A JP2018097645A JP 2018097645 A JP2018097645 A JP 2018097645A JP 2016242078 A JP2016242078 A JP 2016242078A JP 2016242078 A JP2016242078 A JP 2016242078A JP 2018097645 A JP2018097645 A JP 2018097645A
Authority
JP
Japan
Prior art keywords
virtual object
head
display device
user
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016242078A
Other languages
English (en)
Other versions
JP6820469B2 (ja
Inventor
弘貴 深草
Hiroki Fukakusa
弘貴 深草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016242078A priority Critical patent/JP6820469B2/ja
Publication of JP2018097645A publication Critical patent/JP2018097645A/ja
Application granted granted Critical
Publication of JP6820469B2 publication Critical patent/JP6820469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの視線に応じて仮想物体の表示を容易に切り替え可能な仕組みを提供すること【解決手段】頭部装着型表示装置を装着しているユーザの視線からユーザが着目している着目対象の物体を特定し、着目対象の物体とは別に、着目対象の物体に対応する仮想物体を頭部装着型表示装置に表示する仮想物体として決定し、当該仮想物体を頭部装着型表示装置に表示すべく制御し、ユーザの着目対象の物体が別の物体となった場合には、頭部装着型表示装置において既に表示されている前記仮想物体を前記別の物体に対応する仮想物体とすることを決定し、頭部装着型表示装置に表示すべく制御する【選択図】図8

Description

本発明は、情報処理装置、情報処理システム、その制御方法及びプログラムに関する。
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイ(HMD)を装着したユーザに対し、現実物体と仮想物体を配置した空間の疑似体験を提供できる。MR空間(現実空間と仮想空間とを合成した複合現実空間)を生成するにあたり、仮想空間を現実空間の位置合わせに用いられる位置指標として、センサや二次元マーカを用いる場合がある。
特許文献1には、HMDで撮像された画像の中のマーカ画像からHMDの位置姿勢を特定し、HMDの位置姿勢から見た仮想物体の画像を生成、表示する技術が記載されている。
引用文献2には、センサを用いてHMDの位置姿勢を特定し、ユーザの手が所定の仮想物体と近付いた場合に、当該仮想物体の表示形態を変更する技術が記載されている。
また、HMDには視線追跡機能が搭載されているものがある。これはHMDに搭載されている機構により、装着者の目の動きを認識する機能である(例えば特許文献3)。視線を検知することで、視線の先にある仮想物体を選択したり、識別表示したりすることができる。
特開2005−293141号公報 特開2009−169622号公報 特開2011−224213号公報
例えば、複合現実を用いて、製品に係る作業のシミュレーションを行いたいことがある。例えば車のエンジン及びボディの配置・形状を検討するにあたり、車のエンジン部分の仮想物体を表示し、手にスパナ等の整備用の工具を持ち、エンジンと車のボディとの間に工具を差し込む隙間が十分にあるか、手や腕の入る隙間が十分にあるか確認しながら設計を行うことがある。
現実の工具を使うこともできるが、場合によっては、工具も仮想物体で代用することができる。この場合、ユーザが工具を握っている感触を伝えるために、マーカが貼り付けられた現実物体をユーザに持たせ、当該マーカに工具の仮想物体を重畳させる等して複合現実を体感させることが行われている。
そして、これはエンジンに限らないが、製品によっては複数の工具を使い分ける必要がある。よってシミュレーションを行うためには、都度、手元の工具を最適な工具に持ち替えなければならない。現実物体を持ち替えるのが手間な場合は、マーカに対応する仮想物体を、仮想物体の表示状態を管理しているPCを操作する等して切り替えることが可能だが、いちいちPCの前に移動して操作するのは時間がかかり、手間である。
本発明は、ユーザの視線に応じて仮想物体の表示を容易に切り替え可能な仕組みを提供することを目的とする。
本発明は、頭部装着型表示装置を備える情報処理装置であって、前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定手段と、前記特定手段により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定手段と、前記決定手段によって表示することが決定された仮想物体を前記頭部装着型表示装置に表示すべく制御する表示制御手段と、を備え、前記決定手段は、前記特定手段により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示制御手段により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、前記表示制御手段は、前記決定手段により決定された前記別の物体に対応する仮想物体を前記頭部装着型表示装置に表示すべく制御することを特徴とする。
本発明によれば、ユーザの視線に応じて仮想物体の表示を容易に切り替え可能な仕組みを提供することができる。
本発明の第1の実施形態における、情報処理システムの構成の一例を示す図である。 本発明の第1の実施形態における、各種装置のハードウェア構成の一例を示す図である。 本発明の第1の実施形態における、各種装置の機能構成の一例を示す図である。 本発明の第1の実施形態における、仮想物体の表示処理の流れを示すフローチャートである。 本発明の第1の実施形態における、視線による着目対象物体の特定処理の流れを示すフローチャートである。 本発明の第1の実施形態における、着目対象物体に応じた仮想物体の表示変更処理の流れを示すフローチャートである。 本発明の第1の実施形態における、各種データ構成の一例を示す図である。 本発明の第1の実施形態における、着目対象物体に応じた仮想物体の表示変更の様子を示す図である。 本発明の第2の実施形態における処理の流れを示すフローチャートである。
以下、図面を参照して、本発明の実施の形態の一例について説明する。
まず図1を参照して、本発明の第1の実施形態における、情報処理システムの構成の一例について説明する。
図1に示すように、本発明における各種装置はネットワークを介して通信可能に接続されている。例えばPC100は、ケーブルでヘッドマウントディスプレイ(頭部装着型表示装置)であるHMD101と通信可能に接続されている。
つまり、PC100は表示装置の1つとしてHMD101を備えており、PC100で生成した画像をHMD101に出力し、表示させることが可能である。
PC100には、HMD101により撮像される現実画像に重畳する3次元モデルが記憶されている。現実物体に対して、CGである当該3次元モデルのことを仮想物体と呼ぶこととする。
PC100は自機の管理するHMD101より現実画像を取得して、当該現実画像に仮想物体の画像を重畳した複合現実画像(MR画像)を生成し、HMD101のディスプレイに表示させるべく、当該MR画像をHMD101に送信する。HMD101は受信したMR画像をディスプレイに表示する。
HMD101は、HMD101を装着したユーザの視線を検出する機構を備えており、検出した視線の情報をPC100に送信する。
光学式センサ104は、HMD101に設置された3つのマーカ103の位置姿勢を計測するセンサであり、マーカ103から所定のオフセットを設けたHMD101の位置姿勢を計測するための装置である。
ターゲット105は、例えばマーカが貼り付けられた持ち運び可能な現実物体である。当該ターゲットに貼り付けられたマーカの位置に仮想物体の位置を設定してMR画像を生成・表示することで、ユーザはターゲット移動させるだけで簡単に当該仮想物体を移動させることができる。以上が図1の説明である。
次に図2を参照して、本発明の第1の実施形態における各種装置のハードウェア構成の一例について説明する。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
また、ROM202には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム(OS)、その他各種装置の実行する機能を実現するために必要な各種プログラムが記憶されている。
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
本発明のPC100が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。
ビデオコントローラ(VC)206は、HMD101が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。
汎用バス209は、HMD101の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。以上が図2の説明である。
次に図3を参照して、本発明の第1の実施形態における各種装置の機能構成の一例について説明する。
撮像部311は、カメラ装置により撮像画像(現実画像)を撮像する撮像部である。撮像画像送信部312は、撮像部311で撮像処理を実行することにより取得した撮像画像をPC100に送信する送信部である。
視線情報送信部314は、HMD101を装着しているユーザの視線にかかる情報(視線情報)を生成し、PC100に送信する機能部である。例えば、特開2010−199789号公報や、特開2016−127587号公報に記載されているように、HMDに、ユーザの眼に向けて非可視光を照射する非可視光照射装置、ハーフミラーを設置し、ユーザの眼で反射された非可視光を撮像するカメラを設置して反射光を撮像し、ユーザの眼がディスプレイ上の(表示画面に表示する現実画像上の)どこを見ているのかを所定の時間感覚で計測・特定する。そして、特定した当該ディスプレイ情報の位置(X,Y)の情報を視線情報として、逐次PC100に送信する。
MR画像受信部315は、PC100から送信されたMR画像を受信する受信部であり、MR画像表示部316は、当該MR画像を表示する表示部である。
撮像画像受信部321は、HMD101より撮像画像を受信して記憶する記憶部である。HMD位置姿勢記憶部322は、HMDの101の位置姿勢を取得して記憶する記憶部である。HMDの位置姿勢は、HMD101に設置された複数(例えば3つ以上)のマーカ(光反射マーカ)を光学式センサ104(モーションキャプチャカメラ)が撮像することにより光学式センサ104により特定される。PC100は、当該光学式センサ104からHMD101の位置姿勢の情報(HMD101のX,Y,Z座標・姿勢の値)を受信して記憶する。
仮想物体情報記憶部323は、仮想物体の形状を記憶したファイルや、仮想物体をどのマーカの位置に表示するかの情報、また、仮想空間における仮想物体の位置姿勢の情報を記憶する記憶部である。なお、本実施形態においては、仮想物体を対応付けるマーカは二次元マーカとする。
MR画像生成部324は、HMD101の右目・左目ビデオカメラにより撮像されて送信される現実空間の画像と、HMD位置姿勢記憶部322で記憶したHMD101の最新の位置姿勢(位置及び向き)に基づいて撮像した仮想空間の画像(仮想物体の画像)とを重畳した複合現実画像(MR画像)を生成する機能部である。MR画像送信部325は、MR画像生成部324で生成されたMR画像をHMD101に表示させるべく送信する。
視線情報取得部326は、HMD101から視線情報を受信して取得する。着目物体特定部327は、当該視線情報を用いて、HMD101のディスプレイ上でユーザが見ている物体を特定する。つまり、ユーザの視線の先にある、ユーザが着目している物体(着目物体)を特定する。
対応仮想物体特定部328は、着目物体特定部327により特定された着目物体に対応する仮想物体を特定する。
例えば、ユーザが当該着目物体に着目している場合に、当該着目物体とは別にMR画像上に重畳して表示する仮想物体を特定する。
例えば、ユーザが着目しているナットのCGモデルに対応する工具であるスパナのCGモデルを、当該ナットとスパナの対応関係を記憶したテーブルを参照して、対応仮想物体として特定する。
表示仮想物体設定部329は、対応仮想物体特定部328によって特定された仮想物体を、MR画像の生成に用いる仮想物体として、つまり、HMD101の表示画面に表示させる仮想物体として設定する。既に表示対象
例えば既にユーザの手元に位置決定されている工具のCGモデルの代わりに、ユーザの着目物体に応じて新たに対応仮想物体特定部328で特定された工具のCGを、表示対象のCGとしてメモリに記憶する。
MR画像生成部324は、MR画像を生成する際、当該テーブルの中に記憶されている仮想物体を現実画像に重畳してMR画像を生成する。以上が図3の説明である。
以下に説明する図4〜図6、図9フローチャートの各ステップの処理は、PC100のCPU201が、自機の備える各機能部の機能を用いて実行する。
次に図4を参照して、本発明の第1の実施形態における、仮想物体の表示処理の流れについて説明する。
ステップS401で、PC100は、外部メモリ211に記憶されている仮想物体の一覧をRAM203上に読み出して、MR画像の生成に用いる仮想物体の一覧、つまり、HMD101に表示する候補とするCGの一覧として保持する。
また、MR画像の生成に必要なその他の情報を外部メモリ211から読み出してRAM203上に保持する。
外部メモリに記憶されている仮想物体の一覧の情報とは、例えば図7の仮想物体情報730である。モデル名731は、仮想物体の形状を記憶したファイルのファイル名であり、仮想物体の名称である。
ファイル名は、当該仮想物体のPC100の外部メモリ211における記憶場所を示すURLを含む文字列である。
種類732は仮想物体の種類である。対応モデル733は、当該仮想物体に対応する別の仮想物体である。対応モデル733は、例えば、モデル名731にユーザが着目している間、ユーザの手元に表示する仮想物体のファイル名である。
位置734、姿勢735は、仮想空間におけるモデル名731の仮想物体の位置姿勢を示す。本実施形態においては、仮想空間上の位置及び姿勢=現実空間上の位置及び姿勢である。つまり、仮想空間の位置と現実空間の位置とが一致した複合現実空間が規定されている。
位置734、姿勢735に値が挿入されている仮想物体は、位置姿勢が固定されている物体である。位置734、姿勢735に値が挿入されていない仮想物体は、当該仮想物体が対応付けられたマーカの位置姿勢に連動して、位置姿勢を変更するものとする。
また、MR画像の生成に必要なその他の情報とは、例えば図7のターゲット情報710、ターゲット対応情報720、現実物体情報740である。
ターゲット情報710は、例えばマーカが貼り付けられた持ち運び可能な現実物体であるターゲットにかかる情報である。
ターゲットID711は、マーカID712のマーカが貼り付けられた現実物体であるターゲットの識別情報である。
マーカID712は二次元マーカの名称であり、個別の識別画像であるマーカ画像の名称である。マーカID712は、マーカの名称と、当該マーカの画像が記憶されているPC100の外部メモリ211上のアドレスを含んだ文字列である。大きさ713は、マーカ画像の縦横の大きさである。
位置714、姿勢715は、HMD101のカメラで撮像した撮像画像に含まれるマーカ画像の大きさや傾きと、HMD101の位置姿勢から特定されるマーカID712のマーカの位置姿勢である。つまり、ターゲットID711の示すターゲットの位置姿勢であり、リアルタイムに変動する位置姿勢である。
検出中フラグ716は、ターゲットのマーカID712のマーカ位置を検出・更新中か否かを示すフラグである。検出中フラグ716=1は、カメラでマーカID712のマーカを撮像中であり、マーカの位置を検出・更新中であることを示す。検出中フラグ716=0は、カメラでマーカID712のマーカを撮像できておらず、マーカの位置を検出できていない状態を示す。
PC100は、HMD101から取得した現実画像におけるマーカの認識可否に応じて、検出中フラグ716を切り替え、更新する。
ターゲット対応情報720は、ターゲット(ターゲットID721)及びターゲットに貼り付けられたマーカ(マーカID722)と、対応する仮想物体(モデル名723)を記憶管理するデータテーブルである。
オフセット位置724、オフセット姿勢725は、位置714及び姿勢715に示すマーカID722の位置姿勢からどれだけ離れた位置、どれだけ傾け方向変更した姿勢をモデル名723の仮想物体の位置姿勢とするかを示す、仮想物体の位置姿勢の情報である。
つまり、ターゲット対応情報720は、ターゲットと、ターゲットに付されたマーカと、仮想物体とを対応付けた情報である。
現実物体情報740は、ユーザがどの種類(物体種類741)の現実物体に着目している場合に、どの仮想物体(対応モデル742)を表示するかを設定した情報である。
ステップS401で、PC100は、配置仮想物体情報750をRAM203上に生成して保持する。配置仮想物体情報750は、MR画像の生成に実際に使用する仮想物体(モデル名753)の位置姿勢(位置754・姿勢755)を記憶するテーブルである。
ターゲットID751とマーカID752は、今現在、モデル名753の仮想物体が対応付けられているターゲット及びマーカを示す。
例えば、仮想物体情報730に位置姿勢が記憶されている仮想物体は、ターゲットID751及びマーカID752には値を挿入せず、モデル名及び位置姿勢をそれぞれ753〜755に挿入して、MR画像の生成に用いる仮想物体として配置仮想物体情報750に記憶する。
PC100は、ユーザによるMR体験の開始指示がされてから終了指示がされるまでの間、ステップS402〜S407の処理を繰り返す。例えば0.5秒間隔で繰り返し実行する。
ステップS402で、PC100は、光学式センサ104からHMD101の位置姿勢の情報を取得して、外部メモリに記憶する。具体的には、図7のHMD情報700に、当該位置姿勢を取得したHMD101の識別情報であるHMD ID701、光学式センサ104から取得した、当該HMD101の現実空間上の位置702、姿勢703を記憶する。
ステップS403で、PC100は、HMD101のカメラで撮像された現実画像を取得してメモリ上に記憶する。
そして、当該現実画像中のマーカ画像を検出することにより検出された現実物体の位置姿勢を特定し、記憶する。具体的には、図7のターゲット情報710における、現実画像中から検出したマーカの位置姿勢を位置714、姿勢715に上書き・更新する。つまり、ターゲットの一姿勢を特定する(ステップS404)。
ステップS405で、PC100は、ターゲット対応情報720を参照して、ステップS402で現実画像から検出したマーカに対応する仮想物体を特定する。そして、当該仮想物体の位置姿勢を、当該仮想物体に対応するターゲットの位置姿勢に応じて決定して記憶する。
具体的には、当該仮想物体のファイル名をモデル名753に、また、ターゲットID751及びマーカID752に対応付けられているターゲットのID及びマーカのIDを挿入して記憶する。
そして、714及び715に記憶されている当該ターゲットの最新の位置姿勢から、ターゲット対応情報720において当該仮想物体に対応付けられたオフセット位置724及びオフセット姿勢725だけ座標をずらし、傾けた位置姿勢を、モデル名753の仮想物体の位置姿勢として位置754、姿勢755に挿入して記憶する。
ステップS406で、PC100は、不図示の情報であるHMD101のカメラの画角及びHMD101の位置姿勢の情報と、配置仮想物体情報750に記憶されている最新の仮想物体の位置姿勢の情報とを参照して、HMD101用のMR画像を生成し、ステップS407でHMD101に出力(送信)して表示させる(表示制御手段に該当)。以上が図4の説明である。
次に図5を参照して、本発明の第1の実施形態における、視線による着目対象物体の特定処理の流れについて説明する。
PC100は、ユーザによるMR体験の開始指示がされてから終了指示がされるまでの間、ステップS501〜S504の処理を、所定の時間間隔で繰り返す。例えば0.5秒間隔で繰り返し実行する。
ステップS501で、PC100は、HMD101を装着した装着者であり、MRの体験者であるユーザの視線情報を取得する。
本発明の実施形態における視線情報とは、例えば、特開2010−199789号公報や、特開2016−127587号公報に記載されているように、HMD101に設置された、ユーザの眼に向けて非可視光を照射する非可視光照射装置、ハーフミラー、ユーザの眼で反射された非可視光を撮像するカメラを使って、HMD101で眼の反射光を撮像することによって得られた、ユーザの眼がディスプレイ上の(表示画面に表示する現実画像上の)どこを見ているのかを示す、ディスプレイ上のX,Y座標を示す情報である。
ステップS502で、PC100は、ユーザの見ているディスプレイ上の位置に仮想物体が重畳されているか判定する。
例えば、HMD101におけるユーザの眼自体の位置の情報と、眼からHMD101のディスプレイまでの距離の情報(いずれもHMD101及びPC100に、予め設定・記憶されている固定の位置及び距離)、ユーザがディスプレイのどこを見ているかを示す情報、HMD101自体の位置姿勢から特定されるユーザの眼が向いている方向に、配置仮想物体情報750において、仮想物体が位置しているかを判定する。
視線の先に仮想物体がある場合には、視線の先にあるHMD101から直近の仮想物体を、ユーザが着目している着目物体として特定し、その仮想物体情報730をRAM203に記憶する(ステップS503)。
また、視線の先に仮想物体がない場合、ユーザが着目しているディスプレイ上の位置と、着目時点でディスプレイに表示されていた画像とから、ユーザが着目していた現実画像の位置に存在する現実物体を、公知の画像解析処理を実行して認識し、特定して、当該特定された現実物体の情報(例えば現実物体が何であるかを示す、物体種類の情報)を、ユーザの着目物体の情報としてRAM203に記憶する(ステップS504)。以上が図5の説明である。
次に図6を参照して、本発明の第1の実施形態における、着目対象物体に応じた仮想物体の表示変更処理の流れについて説明する。
ステップS601で、PC100は、不図示のモード切替画面におけるユーザ操作に応じて、仮想物体の表示モードを、ユーザが着目している物体に応じて自動で仮想物体の表示を切り替える自動切替モードに設定変更する。
ステップS602で、PC100は、ターゲット情報710を参照して、ステップS603で、検出中のターゲットが複数存在するか判定する。
検出中のターゲットが1つだけの場合は、当該ターゲットを処理対象のターゲットとして特定し、RAM203上に記憶する。検出中のターゲットが複数存在する場合は処理をステップS604に移行し、HMD101の位置から最も近い位置のターゲットを処理対象として特定・選択して記憶する。
ステップS605で、PC100は、PC100は、ステップS503またはステップS504で記憶された最新の着目物体の情報を取得する。例えば着目物体の物体種類の情報を取得する。
そして、着目物体が仮想物体の場合には仮想物体情報730を参照し、着目物体が現実物体の場合には現実物体情報740を参照して、着目物体に対応する仮想物体を特定する(ステップS606)。仮想物体情報730においては、対応モデル733の仮想物体を、現実物体情報740においては、対応モデル742の仮想物体を特定することとなる。
なお、対応する仮想物体がない場合(仮想物体情報730、現実物体情報740に記憶されていない場合)、図6の処理を終了する。つまり、ターゲットに付け替える仮想物体が存在しないということである。
よって、もしも配置仮想物体情報750において、処理対象としたターゲットに対応付けられて記憶されている仮想物体が既にある場合、今まで通り、当該既に配置仮想物体情報750に当該ターゲットと対応付けて記憶されている仮想物体の表示処理が、ターゲットの動きに応じて行われることとなる。
ステップS607で、PC100は、ステップS606で特定した仮想物体のファイル名を、ステップS603〜S604で処理対象として特定したターゲットのターゲットID及びマーカIDと対応付けて、配置仮想物体情報750に記憶する。
具体的には、処理対象のターゲットのターゲットIDをターゲットID751に、処理対象のターゲットに貼り付けられたマーカのマーカIDをマーカID752に、仮想物体のファイル名をモデル名753に記憶する。つまり、当該仮想物体の位置を、位置754、姿勢755に決定する。
既に同一のターゲットID及びマーカIDのデータが配置仮想物体情報750に存在する場合、当該データのモデル名753を、ステップS606で特定した仮想物体のファイル名に書き替えて記憶、更新する。以上が図6の説明である。
本実施形態においては、ステップ607の処理を終了してから遅くとも0.5秒後には、図4の処理(配置仮想物体情報750を用いたMR画像の生成処理)が行われる。
つまり、図6の処理を実行することで、ユーザの視線、具体的にはユーザの視線により特定されたユーザの着目物体に応じて、仮想物体の表示を容易に切り替えることができる。
例えば図8に、着目対象物体に応じた仮想物体の表示変更の様子を示す図である。800、810、820は、HMD101に表示する表示画面の一例でありMR画像が表示されている。
801はユーザが着目している位置、つまりユーザの視線情報を示す。105はターゲットであり、802は、750において今現在ターゲットに対応付けて記憶されている仮想物体であり、754、755の位置姿勢で仮想空間に配置されている。
810に示すように、ユーザがnatAに着目すると、PC100は図7の仮想物体情報730を参照してnatAに対応する仮想物体であるS00A.vrml(spannerA)を特定して、ターゲット105の位置に位置決定し、MR画像を生成してHMD101に送信・表示させる。
802からS00A.vrmlへの仮想物体の切り替えの様子を、図7の配置仮想物体情報750に示す。
また、820に示すように、ユーザがnatBに着目すると、PC100は図7の仮想物体情報730を参照してnatBに対応する仮想物体であるS00B.vrml(spannerB)を特定して、ターゲット105の位置に位置決定し、MR画像を生成してHMD101に送信・表示させる。
以上説明したように、本発明の第1の実施形態によれば、ユーザの視線に応じて仮想物体の表示を容易に切り替え可能な仕組みを提供することができる。
例えば、ユーザの視線に応じて、ユーザが着目している物体とは別の仮想物体の表示を容易に変更することができる。
また、複数のターゲットがある場合には、ターゲットを絞り込んで仮想物体の表示を変更することができる。
<第2の実施形態>
図9を参照して、本発明の第2の実施形態について説明する。なお、第1の実施形態と共通する処理やハードウェア構成、機能構成、データ構成等については説明を省略する。
PC100は、ステップS603で、検出中のターゲットが1つであると判定され処理対象のターゲットが特定された場合、又はステップS604で処理対象のターゲットが特定された場合に、図9のステップS901の処理を実行する。
なお、PC100は、MRの体験開始から終了指示を受け付けるまでの間の、ターゲット情報910のターゲットのごとの位置姿勢の履歴を、外部メモリ211に逐次記憶するものとする。
ステップS901でPC100は、当該処理対象のターゲットをユーザが手に持っているか判定する。
具体的には、当該ターゲットの位置姿勢の履歴を過去所定時間分取得し、当該ターゲットが動いている場合には、ユーザが当該ターゲットを手に持っていると判定する。所定時間とは、例えば1.5秒であるものとする。
ターゲットが机等の上に置かれている場合、過去1.5秒の間における位置姿勢の変化はない、もしくは所定の振れ幅に収まるはずである。
PC100は、当該ターゲットの位置姿勢の値の変化が所定値(予め外部メモリに記憶されているX,Y,Zの値)以上だった場合、ターゲットが移動している(動いている)、つまり、ユーザがターゲットを手に持っていると判定する(所持物体特定手段に該当)。
ターゲットがユーザの手に持たれている場合、処理を図6のステップS605に移行する。つまり、ターゲットがユーザの手に持たれている場合には、着目物体に対応する仮想物体を、当該ユーザの手に持たれている仮想物体に対応付けて表示する。
一方、ターゲットがユーザの手に持たれていない場合は(置かれている場合等は)、処理を終了する。以上が図9の説明である。
以上説明したように、本発明の第2の実施形態によれば、ユーザの視線に応じて、ユーザの手に持たれている仮想物体の表示を容易に切り替え可能な仕組みを提供することができる。
つまり、ユーザが現実物体を手に持った状態でユーザが何かに着目した場合に、当該着目している物体に対して何かを行おうとしていると推定し、着目している物体に応じて手に持っている現実物体の位置に仮想物体を表示したり、その表示を切り替えることができる。
当該切り替え処理により、ユーザが手に持っている、現実物体に対応する仮想物体を切り替える操作をする手間を軽減できる。
また、ユーザが仮想物体を手に持った状態でユーザが何かに着目した場合に、当該着目している物体に対して何かを行おうとしていると推定し、着目している物体に応じて手に持っている仮想物体の表示を切り替えることができる。
当該切り替え処理により、ユーザが手に持っている仮想物体を切り替える操作をする手間を軽減できる。
なお、上述した説明においては、ターゲットが動いている場合に当該ターゲットがユーザの手に持たれていると判定したが、例えば、配置仮想物体情報750において、当該ターゲットに現在対応付けられている仮想物体が移動している場合に、当該ターゲット(ターゲットの位置にある仮想物体)がユーザの手に持たれていると判定するようにしてもよい。
また、更に他の方法で判定を行うこともできる。例えば、ユーザの手に、手の形状をした仮想物体を配置し、当該手の仮想物体の位置とターゲットの位置が所定距離以内(例えば5cm以内)又は、手の仮想物体と現在ターゲットに対応付けられている仮想物体が接触している場合に、当該ターゲットがユーザの手に持たれていると判定するようにしてもよい。
手の仮想物体のデータは予め外部メモリ211に記憶してある。手の仮想物体の配置は、具体的には、HMD101の撮像した現実画像からユーザの手の肌色を認識し、三角測量で手までの距離を算出、HMD101と手の位置関係から仮想空間における手の位置姿勢を算出して、手の仮想物体の位置姿勢を当該手の位置姿勢に決定、配置仮想物体情報750に記憶することで実現可能である。
ターゲットが動いていて、且つ手の仮想物体に触れている場合に、当該ターゲット(ターゲットの位置にある仮想物体)がユーザの手に持たれていると判定するようにしてもよい。
なお、上述した実施形態においては、現実物体に着目している場合も着目している現実物体に対応する仮想物体をユーザの手元に表示するものとしたが、現実画像を解析してユーザが何に着目しているのかを特定するには、相当な処理リソースが消費されると考えられる。また、解析の完了に時間もかかることが考えられる。
よって、例えば図5のステップS503で、視線の先に仮想物体がないと判定された場合は、現実物体の解析処理を行わず、処理をステップS501に戻してもよい。
これにより、処理リソースの消費を抑え、ユーザが仮想物体に着目している場合に、当該仮想物体とは別の仮想物体の表示を容易に切り替えることができる。
また、例えば、ユーザが着目する対象が小さな部品の場合、当該小さな部品に視線を向け続けることは難しい。当該部品が取り付けられた土台となる仮想物体を部位ごとに区分けした方が、場合によっては部品よりも当該区分けされた部位の方が大きく、部品単位に仮想物体を対応付けるよりもデータの管理が容易である。また、対象が大きい方が着目状態を維持し易い。
よって、例えばある1つの仮想物体を部位ごとに区分けして当該区分けした部位(仮想空間における4点以上のXYZ座標によって規定される空間・エリア)ごとに対応する仮想物体を記憶しておき、ユーザが当該部位に着目した場合に、当該部位に対応する仮想物体をターゲットに対応付けて位置決定、表示するようにしてもよい。
以上説明したように、本発明によれば、ユーザの視線に応じて仮想物体の表示を容易に切り替え可能な仕組みを提供することができる。
例えば、ユーザの手元のマーカに対応する仮想物体の表示を、ユーザが見ている場所に応じて容易に切り替えることができる。
また、上述した実施形態においてはHMD101がユーザの視線を検出するものとしたが、例えばPC100が、HMD101の向いている方向そのものをユーザの視線方向として取得し、HMD101の向いている方向にある直近の物体を、着目物体として特定してもよい。
なお、上述した実施形態においては光学式センサを用いてHMD101の位置姿勢を検出し、取得したが、例えば特開2002−229730号公報等に記載されているように、磁気センサ、超音波センサなどを利用して検出するようにしてもよい。つまり、HMDの位置姿勢検出に係る手段は問わない。
また、103に示す光学式センサ104で位置姿勢を検出可能なマーカをターゲットに付与し、ターゲットの位置姿勢を検出、記憶・更新するようにしてもよい。
また、例えば二次元マーカの画像を用いてHMD101の位置姿勢を特定して取得するようにしてもよい。具体的には、例えば、HMD101から取得した現実画像に含まれる二次元マーカ(以下、マーカと記載)の情報からHMD101の位置姿勢を特定する。マーカはHMDの撮像する現実の室内に複数貼り付けられているものとする。マーカの形状は問わないが、本実施形態では正方形であり、全て同じサイズであるものとする。各マーカにはユニークなマーカ番号が埋め込まれているものとする。そして個々のマーカが識別でき、デコードした際にそのマーカ番号が得られるものとする。マーカは、HMD101の位置姿勢がどのような状態であっても、内蔵するカメラの視野内に最低でも3つが含まれるように、予め既知の位置に貼り付けられているものとする。
PC100は、撮像した現実画像中の3つの位置検出用マーカ(その位置は既知)それぞれのサイズから、HMD101からそれぞれまでの位置検出用マーカまでの距離を求める。そして、3つの位置検出用マーカから求めた3つの距離が重なる位置を、HMD101の位置として決定する。また、HMD101の姿勢は、撮像した画像中の3つの位置検出用マーカの配置から求めればよい。
なお、マーカの法線方向に視点があるとき、そのマーカ画像が正方形に見えることになる。そして、視点が法線方向からずれると、そのずれの度合いに応じて正方形が歪んで見える。つまり、この歪みから、視点の軸に対するマーカで規定される平面の向きが判明し、マーカのサイズから視点とマーカ間の距離を検出でき、マーカが貼り付けられた平面が規定できる。また、実施形態では、マーカには、互いに識別できる2つの印が設けられ、マーカの中心位置を原点とし、マーカで規定される上記の平面上の、原点からその印に向かう2つのベクトルを2軸、マーカの中心位置から法線方向の1軸で、局所的(ローカル)な3次元座標を規定する3軸を規定しているものとする。
マーカの種類(マーカが果たす役割の種類)は、HMD101の位置姿勢を決定するための位置検出用マーカ、並びに、そのマーカで規定される箇所に仮想物体(3次元モデル)を描画するものとして利用される配置用マーカの2種類がある。
配置用マーカとは、仮想物体を表示する位置を特定するために用いられるマーカである。PC100のCPU201は、当該配置用マーカが検出された際、当該配置用マーカが存在する位置(正確には後述するように当該配置用マーカの重心位置からオフセットを持つ位置)に仮想物体を表示するための処理を行う。例えば、仮想物体を当該オフセットの示す仮想空間上の位置に配置する処理を行う。
仮想物体のデータはPC100の外部メモリ上に、当該仮想物体を仮想空間上のいずれの位置にどのような姿勢で配置するかを示す位置姿勢の情報と対応付けられて記憶されている。
上述した配置用マーカの中心位置の座標を{Xv,Yv,Zv}とし、仮想物体の形状と特定するデータ中の座標を{Xi,Yi,Zi}(ここで、i=0,1,2,・・・)と定義したとき、距離Lは次式で得られる。
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
ここで、iを変化させた際の最小の距離Lを、配置用マーカと仮想物体との距離とした。なお、上記では距離を計算する際に、最終的に平方根を求めたが、大小の判定で良いのであれば、平行根を求める必要な無く、座標の差分の二乗和を算出しても構わない。
なお、上記式では、配置用マーカの中心位置=仮想物体の中心位置とした場合である。先に説明したように、仮想物体の配置される位置は、配置用マーカの中心位置に対し、オフセットが与えられる。
なお、マーカに埋め込めるビット数にもよるが、位置検出用マーカと配置用マーカを兼ねるマーカを定義して、外部メモリに記憶するようにしても構わない。
尚、上記実施形態は、本発明に係る例であると認識されたい。たとえば、HMD101の位置姿勢を検出するため、上記実施形態では位置検出用マーカが撮像した視野内に3つは存在するものとして、位置検出用マーカを部屋中に多数張り付けるものとしたが、これによって本発明が限定されるものではない。位置検出用マーカには向きを規定する印があり、位置検出用マーカの座標だけでなく、形状や寸法も既知であれば、撮像した画像の位置検出の歪み、サイズ、印の位置から、1つの位置検出用マーカからだけでもHMD101の位置姿勢を特定できる。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 PC
101 HMD
103 マーカ
104 光学式センサ
150 ネットワーク

Claims (11)

  1. 頭部装着型表示装置を備える情報処理装置であって、
    前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定手段と、
    前記特定手段により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定手段と、
    前記決定手段によって表示することが決定された仮想物体を前記頭部装着型表示装置に表示すべく制御する表示制御手段と、
    を備え、
    前記決定手段は、前記特定手段により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示制御手段により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、
    前記表示制御手段は、前記決定手段により決定された前記別の物体に対応する仮想物体を前記頭部装着型表示装置に表示すべく制御することを特徴とする情報処理装置。
  2. 前記ユーザの手に持たれている前記仮想物体を特定する所持物体特定手段と、
    を備え、
    前記決定手段は、前記着目対象の物体に対応する仮想物体を、前記所持物体特定手段により特定された前記ユーザの手に持たれている仮想物体と入れ替えて表示する仮想物体として決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記所持物体特定手段は、前記ユーザの手の仮想物体に触れている仮想物体を、前記ユーザの手に持たれている仮想物体として特定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記所持物体特定手段は、空間の中を移動している仮想物体を、前記ユーザの手に持たれている仮想物体として特定することを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記情報処理装置は、所定の現実物体に対応付けて表示する前記仮想物体を記憶する情報処理装置であって、
    前記決定手段は、前記着目対象の物体に対応する仮想物体を、前記所定の現実物体に対応付けて表示する前記仮想物体として決定し、
    前記表示制御手段は、前記決定手段による決定に従って、前記着目対象の物体に対応する仮想物体を、前記所定の現実物体の位置に表示すべく制御することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記所定の現実物体が複数ある場合に、前記頭部装着型表示装置の位置と複数の前記所定の現実物体の位置に応じて、前記表示制御手段により表示制御を行なう前記仮想物体の位置とする前記所定の現実物体を選択する選択手段と、
    を備え、
    前記決定手段は、前記着目対象の物体に対応する仮想物体を、前記選択手段により選択された前記所定の現実物体に対応付けて表示する前記仮想物体として決定することを特徴とする請求項5に記載の情報処理装置。
  7. 頭部装着型表示装置を備える情報処理装置の制御方法であって、
    前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定工程と、
    前記特定工程により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定工程と、
    前記決定工程によって表示することが決定された仮想物体を前記頭部装着型表示装置に表示すべく制御する表示制御工程と、
    を含み、
    前記決定工程は、前記特定工程により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示制御工程により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、
    前記表示制御工程は、前記決定工程により決定された前記別の物体に対応する仮想物体を前記頭部装着型表示装置に表示すべく制御することを特徴とする制御方法。
  8. 頭部装着型表示装置を備える情報処理装置を制御するためのプログラムであって、
    前記情報処理装置を、
    前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定手段と、
    前記特定手段により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定手段と、
    前記決定手段によって表示することが決定された仮想物体を前記頭部装着型表示装置に表示すべく制御する表示制御手段として機能させ、
    前記決定手段は、前記特定手段により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示制御手段により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、
    前記表示制御手段は、前記決定手段により決定された前記別の物体に対応する仮想物体を前記頭部装着型表示装置に表示すべく制御することを特徴とするプログラム。
  9. 頭部装着型表示装置と、情報処理装置とを含む情報処理システムであって、
    前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定手段と、
    前記特定手段により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定手段と、
    前記決定手段によって表示することが決定された仮想物体を表示する表示手段と、
    を備え、
    前記決定手段は、前記特定手段により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示手段により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、
    前記表示手段は、前記決定手段により決定された前記別の物体に対応する仮想物体を表示することを特徴とする情報処理システム。
  10. 頭部装着型表示装置と、情報処理装置とを含む情報処理システムの制御方法であって、
    前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定工程と、
    前記特定工程により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定工程と、
    前記決定工程によって表示することが決定された仮想物体を表示する表示工程と、
    を含み、
    前記決定工程は、前記特定工程により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示工程により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、
    前記表示工程は、前記決定工程により決定された前記別の物体に対応する仮想物体を表示することを特徴とする制御方法。
  11. 頭部装着型表示装置と、情報処理装置とを含む情報処理システムを制御するためのプログラムであって、
    前記情報処理システムを、
    前記頭部装着型表示装置を装着しているユーザの視線から、前記ユーザが着目している着目対象の物体を特定する特定手段と、
    前記特定手段により特定された前記着目対象の物体とは別に、前記着目対象の物体に対応する仮想物体を前記頭部装着型表示装置に表示する仮想物体として決定する決定手段と、
    前記決定手段によって表示することが決定された仮想物体を表示する表示手段として機能させ、
    前記決定手段は、前記特定手段により特定されたユーザの着目対象の物体が別の物体となった場合に、前記表示手段により前記頭部装着型表示装置において既に表示されている前記仮想物体を、前記別の物体に対応する仮想物体とすることを決定し、
    前記表示手段は、前記決定手段により決定された前記別の物体に対応する仮想物体を表示することを特徴とするプログラム。
JP2016242078A 2016-12-14 2016-12-14 情報処理装置、情報処理システム、その制御方法及びプログラム Active JP6820469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016242078A JP6820469B2 (ja) 2016-12-14 2016-12-14 情報処理装置、情報処理システム、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016242078A JP6820469B2 (ja) 2016-12-14 2016-12-14 情報処理装置、情報処理システム、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018097645A true JP2018097645A (ja) 2018-06-21
JP6820469B2 JP6820469B2 (ja) 2021-01-27

Family

ID=62633609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016242078A Active JP6820469B2 (ja) 2016-12-14 2016-12-14 情報処理装置、情報処理システム、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6820469B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210241534A1 (en) * 2020-01-31 2021-08-05 Surgical Theater, Inc. System and method for augmenting and synchronizing a virtual model with a physical model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006506737A (ja) * 2002-11-19 2006-02-23 モトローラ・インコーポレイテッド 身体中心的な仮想対話型装置および方法
JP2008272123A (ja) * 2007-04-26 2008-11-13 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20130187835A1 (en) * 2012-01-25 2013-07-25 Ben Vaught Recognition of image on external display
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006506737A (ja) * 2002-11-19 2006-02-23 モトローラ・インコーポレイテッド 身体中心的な仮想対話型装置および方法
JP2008272123A (ja) * 2007-04-26 2008-11-13 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20130187835A1 (en) * 2012-01-25 2013-07-25 Ben Vaught Recognition of image on external display
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210241534A1 (en) * 2020-01-31 2021-08-05 Surgical Theater, Inc. System and method for augmenting and synchronizing a virtual model with a physical model

Also Published As

Publication number Publication date
JP6820469B2 (ja) 2021-01-27

Similar Documents

Publication Publication Date Title
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
JP6730642B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6978701B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP6677890B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP2015125641A (ja) 情報処理装置、その制御方法、及びプログラム
JP6409861B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018142230A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US9594436B2 (en) Three-dimensional image display device, cursor display method therefor, and computer program
JP6730577B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6725827B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6820469B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
US20220207832A1 (en) Method and apparatus for providing virtual contents in virtual space based on common coordinate system
JP2018124746A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
KR101473234B1 (ko) 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템
JP6376251B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2016115148A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP6164177B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6683919B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6734537B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
WO2023054661A1 (ja) 注視位置分析システム及び注視位置分析方法
JP7029087B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6744543B2 (ja) 情報処理システム、その制御方法、及びプログラム
JP2017102685A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6820469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250