JP7210131B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7210131B2 JP7210131B2 JP2017153553A JP2017153553A JP7210131B2 JP 7210131 B2 JP7210131 B2 JP 7210131B2 JP 2017153553 A JP2017153553 A JP 2017153553A JP 2017153553 A JP2017153553 A JP 2017153553A JP 7210131 B2 JP7210131 B2 JP 7210131B2
- Authority
- JP
- Japan
- Prior art keywords
- menu
- information processing
- orientation
- virtual space
- dimensional pointer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
特許文献1の方法では、視線により選択されたオブジェクトを基点としてメニューを表示し、更に、選択したメニューが次階層のメニューを持つ場合、次階層が前階層を覆わないように表示する。
図1は、情報処理システムを構成する各装置の機能構成の一例を示す図である。情報システムは、情報処理装置1000と、HMD1200と、画像表示装置1300と、操作入力装置1400と、を含む。HMD1200は、頭部装着型表示装置の一例である。
情報処理装置1000は、撮像画像取得部1010、位置姿勢計測部1020、視錐台算出部1030、仮想データ保持部1040、三次元ポインタ位置姿勢取得部1050、オブジェクト選択判定部1060、モード選択部1070を機能構成として含む。更に、情報処理装置1000は、メニュー形式保持部1080、メニュー操作受取部1090、メニュー形式決定部1100、メニュー生成部1110、メニュー実行部1120、仮想空間生成部1130、複合現実画像生成部1140を機能構成として含む。
HMD1200は、画像撮像部1210、画像表示部1220、画角保持部1230を機能構成として含む。ここで、情報処理装置1000とHMD1200とはデータ通信が可能なように接続されている。情報処理装置1000とHMD1200との間の接続は、有線、無線の何れであってもよい。
図2は、情報処理装置1000のハードウェア構成の一例を示す図である。CPU2010は、バス2000を介して接続する各デバイスを統括的に制御する。CPU2010は、読み出し専用メモリ(ROM)2020に記憶されたプログラムを読み出して実行する。オペレーティングシステム(OS)のプログラム、本実施形態に係る各処理プログラム、デバイスドライバのプログラム等はROM2020に記憶されており、ランダムアクセスメモリ(RAM)2030に一時記憶され、CPU2010によって適宜実行される。また、入力I/F2040は、外部の装置(表示装置や操作装置等)から情報処理装置1000で処理可能な形式で入力信号として入力する。また、出力I/F2050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
CPU2010がROM2020に記憶されたプログラムに基づき処理を実行することによって、図1や後述する図5の情報処理装置1000の機能構成、及び後述する図3及び図6のフローチャートの処理が実現される。
HMD1200も少なくともCPUやROM等のメモリを有し、HMD1200のCPUがHMD1200のメモリに記憶されているプログラムに基づき処理を実行することによって、図1や後述する図5のHMD1200の機能構成等が実現される。
位置姿勢計測部1020は、撮像画像取得部1010により取得された現実空間画像を用いて画像処理を行い、画像中の点や線等の特徴的な情報(特徴情報)を抽出することで位置姿勢を計測する。位置姿勢計測部1020は、位置姿勢情報を視錐台算出部1030及び複合現実画像生成部1140に入力する。本実施形態では、画像処理による位置姿勢計測を説明するが、位置姿勢計測部1020は、赤外光を用いて位置姿勢を計測してもよいし、超音波を用いて位置姿勢を計測してもよいし、磁気センサを用いて位置姿勢を計測してもよい。更に位置姿勢計測部1020は、奥行きセンサを用いて位置姿勢を計測してもよいし、機械的に位置姿勢を計測してもよい。
視錐台算出部1030は、画角保持部1230により得られたHMDの画角情報と位置姿勢計測部1020により得られたHMD位置とに基づき、左目右目各々の視錐台を算出する。視錐台を算出するための技術については既知の事実であるので、これについての詳細な説明は省略する。視錐台算出部1030は、算出結果をアプリケーションメニュー位置姿勢算出部1115に入力する。
仮想データ保持部1040は、仮想空間を構成する仮想物体に係るデータ(形状情報や位置姿勢情報)や仮想空間中に照射する光源に係るデータ等、仮想空間のデータを保持し、オブジェクト選択判定部1060及び仮想空間生成部1130に入力する。
オブジェクト選択判定部1060は、仮想データ保持部1040で保持されている仮想空間データのうち仮想物体の形状情報及び位置姿勢情報を取得する。更に、オブジェクト選択判定部1060は、三次元ポインタ位置姿勢取得部1050により取得された三次元ポインタの位置姿勢から三次元ポインタが仮想物体と交差しているか否かを判定する。交差している場合、オブジェクト選択判定部1060は、仮想物体を選択していると見做し、選択している仮想物体情報をメニュー形式決定部1100に入力する。更に、オブジェクト選択判定部1060は、仮想物体と三次元ポインタとの交点情報をオブジェクトメニュー位置姿勢算出部1113に入力する。
モード選択部1070は、複数のモードからモードを選択する。本実施形態では仮想物体を操作する操作編集モードとユーザが寸法線や断面等の追加を行う追加編集モードとの場合を説明するが、これに限定されない。即ち、仮想物体の干渉判定を行う干渉判定モードや複合現実空間の体験記録をとる記録モードであってもよい。モード選択部1070は、選択したモード情報をオブジェクトメニュー項目設定部1114に入力する。
メニュー操作受取部1090は、操作入力装置1400から入力されたイベントを受け取り、メニュー形式決定部1100、メニュー実行部1120にメニュー操作を促す。
メニュー形式決定部1100は、メニュー操作受取部1090からメニュー表示操作を受け取ったタイミングでオブジェクト選択判定部1060の判定に応じて、メニュー形式保持部1080に保持されているメニュー形式のうち適切なメニュー形式を採用する。メニュー形式決定部1100は、採用したメニュー形式をメニュー生成部1110に入力する。本実施形態では、三次元ポインタが仮想物体を選択しているか否かによってメニュー形式を決定する例を説明するが、これに限定されない。即ち、メニュー形式決定部1100は、操作入力装置1400から入力されたイベントの違いによってメニュー形式を決定してもよい。
オブジェクトメニュー生成部1111は、オブジェクトメニュー位置姿勢算出部1113とオブジェクトメニュー項目設定部1114とで構成されている。オブジェクトメニュー生成部1111は、オブジェクトメニュー位置姿勢算出部1113により算出された位置に、オブジェクトメニュー項目設定部1114で設定されたメニュー項目を表示するようメニューを生成する。オブジェクトメニュー生成部1111は、生成したメニューをメニュー生成部1110に入力する。
オブジェクトメニュー位置姿勢算出部1113は、オブジェクト選択判定部1060により取得した三次元ポインタと選択された仮想物体との交点とに基づいてメニューの位置姿勢を算出する。
オブジェクトメニュー項目設定部1114は、モード選択部1070により選択されたモードに基づき、仮想物体の操作を行うためのメニュー項目を設定する。
アプリケーションメニュー生成部1112は、アプリケーションメニュー位置姿勢算出部1115とアプリケーションメニュー項目設定部1116とで構成されている。アプリケーションメニュー生成部1112は、アプリケーションメニュー位置姿勢算出部1115により算出された位置に、アプリケーションメニュー項目設定部1116で設定されたメニュー項目を表示するよう生成する。アプリケーションメニュー生成部1112は、生成したメニューをメニュー生成部1110に入力する。
アプリケーションメニュー位置姿勢算出部1115は、視錐台算出部1030により算出された視錐台情報に基づき、メニューの位置姿勢を算出する。
アプリケーションメニュー項目設定部1116は、仮想物体に依らないアプリケーションに関わる操作を行うためのメニュー項目を設定する。
仮想空間生成部1130は、仮想データ保持部1040で保持された仮想データとメニュー生成部1110で生成されたメニューとを基に仮想空間を生成し、複合現実画像生成部1140に入力する。
複合現実画像生成部1140は、仮想空間生成部1130で生成された仮想空間と位置姿勢計測部1020の計測結果とに基づいて仮想空間画像を生成する。更に、複合現実画像生成部1140は、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実空間の画像(複合現実画像)を生成する。なお、所定の位置から見える仮想空間を生成するための技術については既知の事実であるので、これについての詳細な説明は省略する。その後に、複合現実画像生成部1140は、生成した複合現実画像をHMD1200の画像表示部1220に対して出力する。また、複合現実画像生成部1140は、画像表示装置1300に同時に表示してもよい。HMDに限ったことではなく表示できる装置であればよく、タブレット・スマートフォン等の表示端末であってもよい。
HMD1200は、液晶画面等で構成される表示装置で、夫々右目用と左目用とが設けられており、夫々はHMD1200を頭部に装着したユーザの右目、左目の眼前に位置するように、HMDに取り付けられている。また、左右の画面には夫々視差のついた画像がステレオ表示される。
画像撮像部1210は、HMD1200に映る現実空間を撮像し、撮像画像を現実空間画像として情報処理装置1000に入力する。
画像表示部1220は、情報処理装置1000で生成された複合現実画像を表示する。
画角保持部1230は、HMDの表示画角情報を保持している。表示画角情報を視錐台算出部1030に入力する。
本実施形態においてHMD1200は、撮像装置により撮像された画像に基づいて生成された複合現実画像を表示装置に表示するビデオシースルー型のHMDであることとして説明する。しかしながら、HMD1200は、現実空間を透過して観察することが可能な表示媒体に仮想空間画像を重畳して表示する光学シースルー型のHMDを用いてもよい。
S3000において、位置姿勢計測部1020は、画像撮像部1210から現実空間画像を取得し、画像から位置姿勢を計測する。そして、位置姿勢計測部1020は、S3100に処理を移す。
S3100において、メニュー操作受取部1090は、操作入力装置1400からの入力情報を参照し、メニューを表示する操作が入力されているかどうか調べる。メニュー操作受取部1090は、メニューを表示する操作が入力されている場合は、S3200に処理を移し、メニューを表示する操作が入力されていない場合は、S3500に処理を移す。
S3200において、三次元ポインタ位置姿勢取得部1050は、三次元ポインタの位置を取得する。そして、三次元ポインタ位置姿勢取得部1050は、S3300に処理を移す。
S3310において、オブジェクトメニュー項目設定部1114は、モード選択部1070において選択されているモードに応じて、仮想物体の操作に関わるメニュー項目を設定する。仮想物体の操作に関わるメニューは、仮想物体用のメニューの一例である。モードが操作編集モードの場合、オブジェクトメニュー項目設定部1114は、選択した仮想物体に対して直接操作を行うためのメニュー項目を設定する。例えば、オブジェクトメニュー項目設定部1114は、仮想物体の移動、表示非表示、削除、複製等を行うメニュー項目を設定する。モードが追加編集モードの場合、オブジェクトメニュー項目設定部1114は、選択した仮想物体に対して追加操作を行うためのメニュー項目を設定する。例えば、オブジェクトメニュー項目設定部1114は、寸法線の追加、断面の追加、メモの追加等を行うメニュー項目を設定する。本実施形態では、上記メニュー項目を用いて説明を行うが、これに限定されない。そして、オブジェクトメニュー項目設定部1114は、S3311に処理を移す。
S3320において、アプリケーションメニュー項目設定部1116は、モード選択メニューを含むアプリケーションメニュー項目を設定する。そして、アプリケーションメニュー項目設定部1116は、S3321に処理を移す。
図4は、オブジェクトメニューとアプリケーションメニューとの表示位置について示した図である。図4(A)は、メニュー表示前におけるユーザ4000が仮想空間を体験している様子を示した図である。ユーザ4000は三次元ポインタ4010を把持し、仮想物体4020により構成された仮想空間を体験する。図4(B)は、ユーザ4000がオブジェクトメニュー4100を表示した様子を示した図である。図4(C)は、ユーザ4000がアプリケーションメニュー4200を表示した様子を示した図である。図4(D)は、視錐台から見たアプリケーションメニュー4200の配置を示した図である。
S3311において、オブジェクトメニュー位置姿勢算出部1113は、オブジェクト選択判定部1060において得られた、三次元ポインタ4010と仮想物体4020との交点情報を取得する。オブジェクトメニュー位置姿勢算出部1113は、交点を基準とした位置に、三次元ポインタ4010で選択しやすいよう縦一列のオブジェクトメニュー4100を、位置姿勢計測部1020において計測された視線方向に垂直になるよう位置姿勢を算出する。本実施形態では、縦一列に表示するメニューを用いて説明するが、これに限定されない。即ち、オブジェクトメニュー位置姿勢算出部1113は、横一列に表示してもよいし、円形に表示してもよいし、格子状に表示してもよい。そして、オブジェクトメニュー位置姿勢算出部1113は、S3400に処理を移す。
本実施形態は、S3311及びS3321において、ユーザの視線方向に垂直にメニューを表示するための位置姿勢算出方法を説明したが、これに限定されない。即ち、ユーザに視認しやすい向きで表示されればよく、視線方向に垂直以外の特定の向きであってもよいし、ユーザが任意で設定できてもよい。
S3500において、仮想空間生成部1130は、仮想データ保持部1040で保持されている仮想空間に係るデータと、メニュー生成部1110において生成したメニューと、を用いて仮想空間を生成する。そして、仮想空間生成部1130は、S3600に処理を移す。
S3600において、複合現実画像生成部1140は、仮想空間生成部1130で生成された仮想空間と位置姿勢計測部1020の位置姿勢とに基づいて、仮想空間画像を生成する。更に、複合現実画像生成部1140は、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実画像を生成する。複合現実画像生成部1140は、生成した複合現実画像を、HMDの画像表示部又は画像表示装置に対して出力する。そして、複合現実画像生成部1140は、S3700に処理を移す。S3500とS3600の一部は、第2の生成の処理の一例である。また、S3600の一部は、第3の生成の処理の一例である。
S3700において、CPU2010は、ユーザによって本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合、本処理を終了する。一方、CPU2010は、本処理の終了指示が入力されておらず、本処理を終了する条件も満たされていない場合は、処理をS3000に戻す。
上記実施形態では、撮像画像に仮想画像を合成した画像を表示させるMRシステムに適用した例を説明した。しかしながらこれに限定されない。例えば、本実施形態は仮想画像のみを表示させるVR(Virtual Reality)システムに適用することができる。その場合には、上記実施形態においては、複合現実画像生成部1140は、撮像画像取得部1010で取得された現実空間画像に仮想画像を重畳することなく、仮想空間画像そのままを表示装置に表示させるように機能すればよい。そしてそのようなVRシステムにおいて、センサを用いて位置姿勢を計測する場合には、撮像画像取得部1010はなくてもよい。
実施形態1では、仮想物体に依らないアプリケーションに対する操作と仮想物体に対する操作とをメニューの表示形式を切り替えることにより実現したが、本実施形態では、現実空間を三次元再構成したモデル(現実モデル)に対する操作を加えた場合を示す。以下では、仮想空間を構成する仮想物体と現実モデルとを総称してオブジェクトと呼ぶ。
図5は、実施形態2の情報処理システムを構成する各装置の機能構成の一例を示す図である。図1と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
現実モデル生成部5010は、撮像画像取得部1010で取られた現実空間画像を基に現実モデルを生成する。現実モデルの生成方法にはSurreal Vision社のKinectFusionが考えられる。KinectFusionはKinectを使ったリアルタイム三次元再構成であり、先ずデプスカメラを使った点群の作成を行う。次に、ICP(Iterative Closest Point)によるカメラ位置姿勢推定、三次元オブジェクト生成、レンダリングの流れで三次元再構成を行う。本実施形態ではKinectFusionを用いて説明するが、これに限定されない。現実モデル生成部5010は、生成した現実モデルデータをデータ保持部5020に入力する。
データ保持部5020は、仮想空間を構成する仮想物体に係るデータ(形状情報や位置姿勢情報)や仮想空間中に照射する光源に係るデータ等、仮想空間のデータと現実モデル生成部により生成された現実モデルデータとを保持する。データ保持部5020は、仮想空間データと現実モデルデータとを仮想空間生成部1130、オブジェクト選択判定部1060に入力する。
オブジェクト識別部5030は、オブジェクト選択判定部1060によって選択されたと見なされたオブジェクトが仮想物体であるか現実モデルであるかを識別する。オブジェクト識別部5030は、識別結果をメニュー形式決定部5040に入力する。オブジェクト識別部5030は、オブジェクト選択判定部1060でオブジェクトが選択されていないと判定された場合は、識別することなく、選択されていない旨をメニュー形式決定部5040に入力する。
オブジェクトメニュー生成部5050は、オブジェクトメニュー位置姿勢算出部1113とオブジェクトメニュー項目設定部5051とで構成されている。オブジェクトメニュー生成部5050は、オブジェクトメニュー位置姿勢算出部1113で算出された位置に、オブジェクトメニュー項目設定部5051で設定されたメニュー項目を表示するよう生成する。また、オブジェクトメニュー生成部5050は、メニュー形式決定部5040で決定されたメニュー形式に基づき選択されたオブジェクトが仮想物体であるか現実モデルであるかを認識できるよう異なる配色を用いてメニューを生成する。オブジェクトメニュー生成部5050は、生成した結果をメニュー生成部1110に入力する。本実施形態では、選択されたオブジェクトが仮想物体であるか現実モデルであるかをユーザが認識するためにメニューの配色を変えた場合を説明するが、これに限定されない。オブジェクトメニュー生成部5050は、メニューの形状を変えてもよいし、メニュー中に表示するメニュー名を変えてもよい。
オブジェクトメニュー項目設定部5051は、モード選択部1070により選択されたモードを取得する。更に、オブジェクトメニュー項目設定部5051は、オブジェクト識別部の識別結果によりオブジェクトが選択されているか否かを取得する。オブジェクトメニュー項目設定部5051は、選択モード及びオブジェクト識別結果及び選択されているオブジェクトが仮想物体であるか現実モデルであるかに基づき、メニュー項目を設定する。
S6100において、オブジェクト識別部5030は、オブジェクト選択判定部1060により選択されたオブジェクトの種類が現実モデルであるか仮想物体であるかを識別する。オブジェクト識別部5030は、選択しているオブジェクトが現実モデルの場合は、S6110に処理を移し、仮想物体が選択されていた場合は、S3310に処理を移す。
S6110において、オブジェクトメニュー項目設定部5051は、モード選択部1070により選択されているモードに応じて現実モデル操作に関わる操作メニュー項目を設定する。現実モデル操作に関わる操作メニューは、現実モデルに対して操作を行う操作メニューの一例である。オブジェクトメニュー項目設定部5051は、モードが操作編集モードの場合、選択した現実モデルに対して操作を行うためのメニュー項目を設定する。オブジェクトメニュー項目設定部5051が設定するメニュー項目は、選択した現実モデルに対して重ね合わせる仮想物体を選択する操作のメニュー項目であってもよいし、干渉判定対象にする操作や同様の形状の仮想物体を複製する操作のメニュー項目であってもよい。また、オブジェクトメニュー項目設定部5051が設定するメニュー項目は、色の変更やテクスチャの貼付等マテリアルを変更する操作のメニュー項目であってもよい。オブジェクトメニュー項目設定部5051は、モードが追加編集モードの場合、選択した現実モデルに対して追加操作を行うメニューを設定する。オブジェクトメニュー項目設定部5051は、寸法線の追加、メモの追加等を行うメニュー項目を設定する。そして、オブジェクトメニュー項目設定部5051は、S6111に処理を移す。
S6111において、オブジェクトメニュー生成部5050は、選択されたオブジェクトが現実モデルであることを示すメニュー配色を設定する。そして、オブジェクトメニュー生成部5050は、S3311に処理を移す。
S6120において、オブジェクトメニュー生成部5050は、選択されたオブジェクトが仮想物体であることを示すメニュー配色を設定する。そして、オブジェクトメニュー生成部5050は、S3311に処理を移す。
上記実施形態では、撮像画像に仮想空間画像を合成した画像を表示させるMRシステムに適用した例を説明した。しかしながらこれに限定されない。例えば、本実施形態は現実モデルのみをレンダリングした画像を表示させるシステムに適用することができる。その場合には、上記実施形態において、仮想空間生成部1130は、現実モデルのみにより構成された仮想空間を生成すればよい。
(変形例2)
上記実施形態では、選択したオブジェクトが仮想物体であるか現実モデルであるかを識別することにより、設定するメニュー項目を変更する例を説明した。しかしながらこれに限定されない。例えば、仮想物体に属性を不図示のオブジェクト属性保持部に持たせ、その属性を不図示のオブジェクト属性判定部に識別することにより、設定するメニュー項目を変更してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
図1や図5の情報処理装置1000の機能構成の一部又は全てはハードウェア構成として情報処理装置1000に実装してもよい。
上述した各実施形態によれば、体験状況に応じて適切に表示可能なメニューを生成することができる。
2010 CPU
Claims (16)
- ユーザの頭部の位置姿勢を計測する計測手段と、
仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定手段と、
前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成手段と、
前記第1の生成手段により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成手段と、
前記第2の生成手段により生成された前記仮想空間画像と現実空間画像とを重畳し、複合現実画像を生成する第3の生成手段と、
前記第3の生成手段により生成された前記複合現実画像を出力する出力手段と、
を有する情報処理装置。 - ユーザの頭部の位置姿勢を計測する計測手段と、
仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定手段と、
前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成手段と、
前記第1の生成手段により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成手段と、
前記第2の生成手段により生成された前記仮想空間画像を出力する出力手段と、
を有する情報処理装置。 - 前記第1の生成手段は、前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記視線方向にメニュー面が垂直になるように、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向にメニュー面が垂直になるように、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する請求項1又は2記載の情報処理装置。
- 前記第1の生成手段は、前記三次元ポインタがオブジェクトを指している場合であって、前記オブジェクトの種類が現実モデルである場合、現実モデルに対して操作を行う操作メニューを生成し、前記三次元ポインタがオブジェクトを指している場合であって、前記オブジェクトの種類が仮想物体である場合、仮想物体に対して操作を行う操作メニューを生成する請求項1乃至3何れか1項記載の情報処理装置。
- モードを選択する選択手段を更に有し、
前記第1の生成手段は、前記三次元ポインタがオブジェクトを指している場合であって、前記オブジェクトの種類が現実モデルである場合、前記現実モデルに対して前記選択手段によって選択されたモードに応じた操作を行う操作メニューを生成する請求項4記載の情報処理装置。 - 前記モードが操作編集モードの場合、前記第1の生成手段は、前記現実モデルに対して操作を行う操作メニューを生成する請求項5記載の情報処理装置。
- 前記モードが追加編集モードの場合、前記第1の生成手段は、前記現実モデルに対して追加操作を行う操作メニューを生成する請求項5記載の情報処理装置。
- 前記第1の生成手段は、前記三次元ポインタがオブジェクトを指している場合、前記オブジェクトの属性に応じて生成するオブジェクトに関わる操作メニューを変更する請求項1乃至4何れか1項記載の情報処理装置。
- 前記出力手段は、前記複合現実画像を頭部装着型表示装置に出力する請求項1記載の情報処理装置。
- 前記出力手段は、前記複合現実画像をビデオシースルー型の表示装置に出力する請求項1記載の情報処理装置。
- 前記出力手段は、前記仮想空間画像を頭部装着型表示装置に出力する請求項2記載の情報処理装置。
- 前記出力手段は、前記仮想空間画像を光学シースルー型の表示装置に出力する請求項2記載の情報処理装置。
- 前記仮想空間に係るデータは、当該仮想空間における仮想物体の形状情報または位置姿勢情報、もしくは当該仮想空間における光源の情報を含む請求項1乃至12何れか1項記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
ユーザの頭部の位置姿勢を計測する計測工程と、
仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定工程と、
前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成工程と、
前記第1の生成工程により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成工程と、
前記第2の生成工程により生成された前記仮想空間画像と現実空間画像とを重畳し、複合現実画像を生成する第3の生成工程と、
前記第3の生成工程により生成された前記複合現実画像を出力する出力工程と、
を含む情報処理方法。 - 情報処理装置が実行する情報処理方法であって、
ユーザの頭部の位置姿勢を計測する計測工程と、
仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定工程と、
前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成工程と、
前記第1の生成工程により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成工程と、
前記第2の生成工程により生成された前記仮想空間画像を出力する出力工程と、
を含む情報処理方法。 - コンピュータを、請求項1乃至13何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153553A JP7210131B2 (ja) | 2017-08-08 | 2017-08-08 | 情報処理装置、情報処理方法及びプログラム |
JP2022009944A JP2022058753A (ja) | 2017-08-08 | 2022-01-26 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153553A JP7210131B2 (ja) | 2017-08-08 | 2017-08-08 | 情報処理装置、情報処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022009944A Division JP2022058753A (ja) | 2017-08-08 | 2022-01-26 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019032713A JP2019032713A (ja) | 2019-02-28 |
JP2019032713A5 JP2019032713A5 (ja) | 2020-09-10 |
JP7210131B2 true JP7210131B2 (ja) | 2023-01-23 |
Family
ID=65523449
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017153553A Active JP7210131B2 (ja) | 2017-08-08 | 2017-08-08 | 情報処理装置、情報処理方法及びプログラム |
JP2022009944A Pending JP2022058753A (ja) | 2017-08-08 | 2022-01-26 | 情報処理装置、情報処理方法及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022009944A Pending JP2022058753A (ja) | 2017-08-08 | 2022-01-26 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7210131B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7419003B2 (ja) * | 2019-09-12 | 2024-01-22 | 株式会社日立システムズ | 情報表示装置、情報表示方法及び情報表示システム |
JP7016438B1 (ja) | 2021-03-29 | 2022-02-18 | グリー株式会社 | 情報処理システム、情報処理方法およびコンピュータプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049298A (ja) | 2001-08-17 | 2002-02-15 | Ohbayashi Corp | 風環境予測プログラムおよび風環境予測方法 |
JP2002175114A (ja) | 2000-12-07 | 2002-06-21 | Nissin Electric Co Ltd | ポップアップメニューの動的変更方法 |
JP2005107963A (ja) | 2003-09-30 | 2005-04-21 | Canon Inc | 三次元cg操作方法および装置 |
JP2006048145A (ja) | 2004-07-30 | 2006-02-16 | Japan Research Institute Ltd | ビジネスモデリング支援方法およびビジネスモデリング支援プログラム |
JP2011128777A (ja) | 2009-12-16 | 2011-06-30 | Yokogawa Electric Corp | 操作監視装置 |
JP2011228859A (ja) | 2010-04-16 | 2011-11-10 | Sony Computer Entertainment Inc | 3次元画像表示装置、および3次元画像表示方法 |
JP2017058971A (ja) | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0447368A (ja) * | 1990-06-12 | 1992-02-17 | Nippon Kensetsu Computer Kk | コンピュータ設計支援システム |
JP2003175114A (ja) * | 2001-12-11 | 2003-06-24 | Unitika Ltd | 殺菌消毒綿 |
JP4533087B2 (ja) * | 2004-10-28 | 2010-08-25 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
JP2010145861A (ja) * | 2008-12-19 | 2010-07-01 | Brother Ind Ltd | ヘッドマウントディスプレイ |
US8675912B2 (en) * | 2008-12-22 | 2014-03-18 | IPointer, Inc. | System and method for initiating actions and providing feedback by pointing at object of interest |
WO2012020497A1 (ja) * | 2010-08-12 | 2012-02-16 | 富士通株式会社 | 情報処理装置および情報処理プログラム |
JP2013084096A (ja) * | 2011-10-07 | 2013-05-09 | Sharp Corp | 情報処理装置 |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
-
2017
- 2017-08-08 JP JP2017153553A patent/JP7210131B2/ja active Active
-
2022
- 2022-01-26 JP JP2022009944A patent/JP2022058753A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175114A (ja) | 2000-12-07 | 2002-06-21 | Nissin Electric Co Ltd | ポップアップメニューの動的変更方法 |
JP2002049298A (ja) | 2001-08-17 | 2002-02-15 | Ohbayashi Corp | 風環境予測プログラムおよび風環境予測方法 |
JP2005107963A (ja) | 2003-09-30 | 2005-04-21 | Canon Inc | 三次元cg操作方法および装置 |
JP2006048145A (ja) | 2004-07-30 | 2006-02-16 | Japan Research Institute Ltd | ビジネスモデリング支援方法およびビジネスモデリング支援プログラム |
JP2011128777A (ja) | 2009-12-16 | 2011-06-30 | Yokogawa Electric Corp | 操作監視装置 |
JP2011228859A (ja) | 2010-04-16 | 2011-11-10 | Sony Computer Entertainment Inc | 3次元画像表示装置、および3次元画像表示方法 |
JP2017058971A (ja) | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
Non-Patent Citations (1)
Title |
---|
猪股 志夫,"速攻解決 AutoCAD LT逆引きリファレンス",初版,ソシム株式会社,2015年06月15日,pp.84-85. |
Also Published As
Publication number | Publication date |
---|---|
JP2022058753A (ja) | 2022-04-12 |
JP2019032713A (ja) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5871345B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
CN110022470B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
CN105659295B (zh) | 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备 | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
US10095030B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
JP4533087B2 (ja) | 画像処理方法、画像処理装置 | |
JP5843340B2 (ja) | 3次元環境共有システム及び3次元環境共有方法 | |
CN107615214A (zh) | 界面控制系统、界面控制装置、界面控制方法及程序 | |
CN111161396B (zh) | 虚拟内容的控制方法、装置、终端设备及存储介质 | |
KR100971667B1 (ko) | 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치 | |
US20130106694A1 (en) | Three-dimensional display device, three-dimensional image capturing device, and pointing determination method | |
US9727229B2 (en) | Stereoscopic display device, method for accepting instruction, and non-transitory computer-readable medium for recording program | |
JP7005224B2 (ja) | 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体 | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
JP2022058753A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6065908B2 (ja) | 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム | |
JP2013168120A (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
JP6562371B1 (ja) | 表示装置、表示処理装置、および表示処理プログラム | |
CN112578983B (zh) | 手指取向触摸检测 | |
JP5520772B2 (ja) | 立体画像の表示システム及び表示方法 | |
JP6514386B1 (ja) | プログラム、記録媒体及び画像生成方法 | |
CN117707332A (zh) | 信息处理设备、控制方法和非暂态计算机存储介质 | |
CN118689363A (zh) | 显示3d图像的方法、装置、电子设备和存储介质 | |
KR20130065580A (ko) | 전자 장치, ar 이미지 생성 방법 및 컴퓨터 판독가능 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210813 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220126 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220204 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220208 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20220318 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220329 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220419 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220705 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221004 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221115 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20221213 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7210131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |