JP2018036942A - 3次元ユーザインタフェース装置および3次元操作用プログラム - Google Patents

3次元ユーザインタフェース装置および3次元操作用プログラム Download PDF

Info

Publication number
JP2018036942A
JP2018036942A JP2016170712A JP2016170712A JP2018036942A JP 2018036942 A JP2018036942 A JP 2018036942A JP 2016170712 A JP2016170712 A JP 2016170712A JP 2016170712 A JP2016170712 A JP 2016170712A JP 2018036942 A JP2018036942 A JP 2018036942A
Authority
JP
Japan
Prior art keywords
dimensional
user
area
region
space image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016170712A
Other languages
English (en)
Inventor
拓宏 水野
Takuhiro Mizuno
拓宏 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpha Code Inc
Original Assignee
Alpha Code Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpha Code Inc filed Critical Alpha Code Inc
Priority to JP2016170712A priority Critical patent/JP2018036942A/ja
Publication of JP2018036942A publication Critical patent/JP2018036942A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】3次元空間画像上で、ユーザの特定部位の可動範囲外においてもオブジェクトの操作を簡単に行うことができるようにする。【解決手段】ユーザの手の可動範囲に対応する3次元空間画像上の3次元範囲内の位置に第1の領域を設定する第1の領域設定部15と、ユーザによる操作に基づいて調整された3次元空間画像上の3次元位置に第2の領域を設定する第2の領域設定部16と、第1の領域内における3次元位置を第2の領域内における3次元位置に置換する位置情報置換部17とを備え、ユーザが第1の領域に対して操作を行っときに、第2の領域に対して操作を行ったものとして処理するようにすることにより、ユーザの手の可動範囲外の3次元位置に第2の領域を設定しておくことで、ユーザが歩いて移動する操作を行うことなく、ユーザの手の可動範囲外においてオブジェクトの操作を行うことができるようにする。【選択図】図2

Description

本発明は、3次元ユーザインタフェース装置および3次元操作用プログラムに関し、特に、3次元空間画像内でオブジェクトを操作するためのユーザインタフェース技術に関するものである。
従来、仮想現実の3次元空間画像内でオブジェクトを操作するためのユーザインタフェース技術が種々提供されている(例えば、特許文献1〜5参照)。特許文献1には、3次元仮想現実空間画像上にポインタを表示し、このポインタを3次元仮想現実空間画像の中に表示されているオブジェクトの何れかに重ね合わせることにより、所望のオブジェクトを指定することが記載されている。
また、特許文献2には、仮想3次元空間とは別に仮想オブジェクトを表示し、仮想オブジェクトを基準とした所定3次元範囲内に対象者の特定部位が存在しているか否かを判定し、その判定結果に応じて、仮想3次元空間に対して所定処理を実行させるか否かを決定することが記載されている。また、特許文献3には、所定の操作を契機に、選択操作に対するオブジェクトの反応領域またはポインティングカーソルのセンス範囲を変更することが記載されている。
また、特許文献4,5には、一部のオブジェクトが他のオブジェクトの陰に隠れて選択できない場合の操作方法が開示されている。例えば、特許文献4には、仮想空間上に複数の3次元オブジェクトを配置編集する場合、上面図で選択したオブジェクトを正面図で最前面に表示することが記載されている。また、特許文献5には、画面上におけるオブジェクトの選択操作イベントに対して選択候補となるオブジェクトを抽出し、抽出された選択候補オブジェクトの中から特定の1つまたは複数のオブジェクトを自動選択することが記載されている。
特開平10−154053号公報 特許第5936155号公報 特開2003−5878号公報 特開平9−305797号公報 特開2003−6678号公報
仮想現実に関する従来のユーザインタフェース技術では、ユーザの手の動きをグローブやコントローラ等の3次元検出装置により検出し、検出した手の動きに応じて、3次元空間画像上にあるオブジェクトを操作する場合、実際に手を動かすことができる範囲内でしかオブジェクトを操作することができない。例えば、手を動かすことのできる範囲が1mであれば、3次元空間画像上でも現在位置から1mの範囲内でしかオブジェクトを操作することができない。
ここで、ユーザの足にも3次元検出装置を装着しておき、ユーザが実際に歩く動作をすることにより、3次元空間画像上の現在位置を移動させれば、移動前に手の動きの範囲外にあった位置においてもオブジェクトを操作することが可能となる。しかしながら、数m程度の移動であればまだよいが、遠方の位置においてオブジェクトを操作したい場合には移動距離が長くなり、現実的なユーザインタフェースとは言えない。すなわち、遠方の所望位置にオブジェクトを設定したり、遠方にあるオブジェクトに何らかの編集をしたりする操作に多大な手間がかかり、非常に不便であるという問題があった。
本発明は、このような問題を解決するために成されたものであり、3次元空間画像上で、ユーザの特定部位の可動範囲外においてもオブジェクトの操作を簡単に行うことができるようにすることを目的とする。
上記した課題を解決するために、本発明では、ユーザの特定部位の可動範囲に対応する3次元空間画像上の3次元範囲内の3次元位置に第1の領域を設定するとともに、ユーザによる操作に基づいて調整された3次元空間画像上の3次元位置に第2の領域を設定し、第1の領域における3次元位置を第2の領域における3次元位置に置換するようにしている。
上記のように構成した本発明によれば、ユーザが第1の領域に対して操作を行うと、第2の領域に対して操作を行ったものとして処理されることとなる。そのため、ユーザの特定部位の可動範囲外に対応する3次元空間画像上の3次元位置に第2の領域を設定しておけば、当該可動範囲外においてオブジェクトの操作を行ったものとすることが可能となる。これにより、ユーザが現在位置から移動するための操作を行うことなく、ユーザの特定部位の可動範囲外においてオブジェクトの操作を簡単に行うことができる。
本実施形態による3次元ユーザインタフェース装置を備えたコンピュータシステムの構成例を示す図である。 本実施形態による3次元ユーザインタフェース装置の機能構成例を示すブロック図である。 本実施形態の表示制御部によってHMDに表示される画面の一例を示す図である。 本実施形態の位置情報置換部による処理の内容を説明するための図である。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による3次元ユーザインタフェース装置を備えたコンピュータシステムの構成例を示す図である。図1に示すように、本実施形態のコンピュータシステムは、コンピュータ100、コントローラ200およびHMD300を備えて構成されている。
コンピュータ100は、例えばパーソナルコンピュータにより構成され、再生装置110および本実施形態の3次元ユーザインタフェース装置(以下、3次元UI装置と記す)120を備えている。再生装置110は、3次元空間画像を再生する。3次元空間画像は、仮想現実の3次元空間を作るための視差画像であり、再生装置110により再生された3次元空間画像は、ユーザが装着したHMD300に表示される。
この3次元空間画像が表示されるHMD300には、ジャイロセンサや加速度センサが搭載されており、ユーザの頭の動きを検出することが可能となっている。そして、再生装置110は、HMD300のセンサにより検出されたユーザの頭の動きに応じて、HMD300の表示上に実現される3次元空間が動的に変わるように、3次元空間画像の再生を制御する。
すなわち、ユーザが正面を向くと、そのことがHMD300のセンサにより検出され、再生装置110は、正面の3次元空間が広がるような3次元空間画像を再生する。ユーザが右の方に頭をx1度向けると、そのことがHMD300のセンサにより検出され、再生装置110は、右側にx1度移動した3次元空間が広がるような3次元空間画像を再生する。また、ユーザが左の方に頭をx2度向けると、そのことがHMD300のセンサにより検出され、再生装置110は、左側にx2度移動した3次元空間が広がるような3次元空間画像を再生する。
なお、表示する3次元空間画像は、経時的に内容が変化する動画像であってもよいし、経時的に内容が変化しない静止画像であってもよい。また、3次元空間画像は、動画像の1コマを構成するフレーム画像であってもよい。本実施形態では、これらの3次元空間画像内の任意の位置のオブジェクトを設定したり、3次元空間画像内に設定済みの任意のオブジェクトを指定して編集したりすることを可能にするものである。
3次元UI装置120は、再生装置110により再生される3次元空間画像内におけるユーザによる操作を制御する。ユーザによる操作は、コントローラ200を通じて行われる。コントローラ200は、ユーザの特定部位の動きを検出する3次元検出装置の一例である。本実施形態では、コントローラ200はユーザが手に持って使用するものであり、ユーザの特定部位として手の動きを検出可能に構成されている。具体的には、コントローラ200は、ジャイロセンサや加速度センサを搭載しており、これによってユーザの手の動きを検出することが可能となっている。
また、コントローラ200は、操作ボタンも備えている。この操作ボタンは、例えば、3次元空間画像内のオブジェクトを把持するために使用される。すなわち、コントローラ200を持った手を現実空間上で移動させることにより、3次元空間画像上に表示されるポインタの位置を移動させる。そして、3次元空間画像内にあるオブジェクトにポインタを合わせた状態で操作ボタンを押下することにより、オブジェクトを把持することが可能である。
コントローラ200の操作ボタンを押下している間はオブジェクトを把持し続け、押下を止めると把持状態が解除される。これにより、操作ボタンを押下したままコントローラ200を移動させることにより、その動きに合わせて3次元空間画像上でオブジェクトを移動させることが可能であり、任意の位置にオブジェクトを設定することができる。詳細は後述するが、本実施形態では、ユーザの手が届く可動範囲を超える3次元空間画像上の位置(例えば、現在位置から遠方の3次元位置)に対しても、オブジェクトを設定することが可能である。
また、コントローラ200の操作ボタンは、3次元空間画像内のオブジェクトを編集するためにも使用される。そのための操作ボタンは、上記したオブジェクト把持用の操作ボタンとは別のものであってもよい。ここで、実施可能なオブジェクトの編集の内容は、任意に定めることが可能である。例えば、オブジェクトを変形させる操作や、オブジェクトのプロパティを開いて編集する操作などが一例として挙げられる。
図2は、本実施形態による3次元UI装置120の機能構成例を示すブロック図である。図2に示すように、本実施形態の3次元UI装置120は、その機能構成として、表示制御部11、操作受付部12、3次元情報取得部13、特定部位位置算出部14、第1の領域設定部15、第2の領域設定部16、位置情報置換部17および操作実行部18を備えて構成されている。
上記各機能ブロック11〜18は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11〜18は、実際にはCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶された3次元操作用プログラムが動作することによって実現される。
表示制御部11は、再生装置110により再生されてHMD300に表示される3次元空間画像内に、ユーザインタフェースに関する各種の情報を重畳して表示させる制御を行う。例えば、表示制御部11は、アイコン等のオブジェクトを3次元空間画像に重畳して表示させる。また、表示制御部11は、オブジェクトを操作する際に用いるポインタ(3次元空間画像内にあるユーザの仮想の手に相当)や操作バーを3次元空間画像に重畳して表示させる。さらに、表示制御部11は、ユーザの仮想の手の可動範囲外の位置でオブジェクトを操作する際に用いる所定の領域枠を3次元空間画像に重畳して表示させる。
操作受付部12は、コントローラ200を通じて行われるユーザの操作を受け付ける。ここでいうユーザの操作とは、コントローラ200を現実空間上で移動させる操作、コントローラ200の操作ボタンを押下する操作を含む。すなわち、操作受付部12は、コントローラ200を移動させたときにジャイロゼンサや角速度センサにより検出される、ユーザの手の動きを表す3次元情報を受け付ける。また、操作受付部12は、操作ボタンの押下情報を受け付ける。
3次元情報取得部13は、ユーザの手の動きを検出するコントローラ200から操作受付部12を通じて上述の3次元情報を取得する。特定部位位置算出部14は、3次元情報取得部13により取得される3次元情報を用いて、ユーザの手の動きに関する3次元空間画像上の3次元位置を算出する。すなわち、特定部位位置算出部14は、現実空間上でユーザがコントローラ200を所持した手を移動させたときに、その手の位置に対応する3次元空間画像上における仮想の手の3次元位置を算出する。なお、これについては公知の技術を適用することが可能である。
第1の領域設定部15は、ユーザによるコントローラ200に対する操作に基づいて、ユーザの手の可動範囲に対応する3次元空間画像上の3次元範囲内の3次元位置に、第1の領域を設定する。すなわち、第1の領域設定部15は、コントローラ200に対する操作ボタンの操作を操作受付部12が受け付けたときに、3次元空間画像上に第1の領域を設定する。例えば、3次元空間画像に表示された領域設定用アイコンにポインタを合わせた状態で、ユーザがコントローラ200の操作ボタンを押下すると、第1の領域設定部15が3次元空間画像上に第1の領域を設定する。
ここで、第1の領域設定部15が第1の領域を設定する3次元空間画像上の3次元位置は、ユーザの手を実際に動かすことができる可動範囲に対応する3次元空間画像上の可動範囲内の所定位置である。例えば、ユーザの手の可動範囲が半径1mの範囲であるとした場合、第1の領域設定部15は、3次元空間画像上の現在位置から半径1mの範囲内の所定位置に、第1の領域を設定する。したがって、この第1の領域は、コントローラ200の移動によって仮想の手が届く範囲内に設定される。
第1の領域は、所定の形状および所定の大きさにて設定される。例えば、第1の領域は、半径が1mの円形とする。なお、第1の領域に奥行はなく、平面状の領域である。第1の領域設定部15は、例えば、3次元空間画像の奥行方向に対して第1の領域の平面が垂直となるように、第1の領域を設定する。
上述したように、表示制御部11は、第1の領域設定部15により設定された第1の領域を表す所定の領域枠を3次元空間画像に重畳して表示させる。なお、ユーザがコントローラ200の操作ボタンを押下したときには、第1の領域が3次元空間画像上の所定位置に設定され、その所定位置に第1の領域の領域枠が表示される。その後、この領域枠にポインタを合わせて把持する操作を行い、コントローラ200を移動させることにより、仮想の手の可動範囲内で領域枠を移動させることを可能にしてもよい。
第2の領域設定部16は、3次元空間画像上において、ユーザによるコントローラ200に対する操作に基づいて調整された3次元位置に、第2の領域を設定する。第2の領域設定部16も、コントローラ200に対する操作ボタンの操作を操作受付部12が受け付けたときに、3次元空間画像上に第2の領域を設定する。すなわち、第2の領域設定部16は、第1の領域設定部15が第1の領域を設定するのと同時に、第2の領域を3次元空間画像上に設定する。第2の領域は、例えば、第1の領域と同形同大のものとして設定する。この第2の領域も奥行はなく、平面状の領域である。
ここで、第2の領域設定部16が第2の領域を設定する3次元空間画像上の3次元位置は、3次元空間画像上の任意の3次元位置である。すなわち、ユーザの仮想の手を動かすことができる可動範囲内に限らず、当該可動範囲外の3次元位置にも第2の領域を設定することが可能である。また、第2の領域の設定位置は、ユーザによるコントローラ200に対する操作に応じて任意に調整することが可能である。例えば、第2の領域設定部16は、3次元空間画像上に表示された操作バー(操作子の一例)に対するユーザによる操作に基づいて、第2の領域の設定位置を調整する。
上述したように、表示制御部11は、第2の領域設定部16により設定された第2の領域を表す所定の領域枠を3次元空間画像に重畳して表示させる。なお、ユーザがコントローラ200の操作ボタンを押下したときには、第2の領域が3次元空間画像上の所定位置に設定され、その所定位置に第2の領域の領域枠が表示される。その後、3次元空間画像上に表示された操作バーに対する操作により、3次元空間画像上の任意の3次元位置に第2の領域が移動されると、その設定位置の移動に合わせて領域枠も移動して表示される。
位置情報置換部17は、第1の領域設定部15により設定された第1の領域における3次元位置を、第2の領域設定部16により設定された第2の領域における3次元位置に置換する。特に、本実施形態では、位置情報置換部17は、第1の領域における奥行方向の3次元位置(現在位置からの距離)を、第2の領域における奥行方向の3次元位置に置換する。
例えば、3次元空間画像上で現在位置から50cm前方の位置に第1の領域を設定するとともに、現在位置から10m前方の位置に第2の領域を設定したとする。この場合、位置情報置換部17は、第1の領域内においては、現在位置から50cm3次元位置を、現在位置から10mの3次元位置に置換する。
すなわち、位置情報置換部17は、特定部位位置算出部14により算出されたユーザの手に関する3次元空間画像上の3次元位置(仮想の手の3次元位置)が、第1の領域設定部15により設定された第1の領域内であった場合、仮想の手の3次元位置を、第2の領域設定部16により設定された第2の領域における3次元位置に置換する。
これにより、ユーザが手に持ったコントローラ200を操作して、第1の領域内に仮想の手を入れると、その仮想の手は第2の領域内に入れられたものとして扱われるようになる。一方、第1の領域の外に仮想の手がある場合は、特定部位位置算出部14により算出された3次元位置そのものに仮想の手があるものとして扱われる。
なお、仮想の手については、これを3次元空間画像上に重畳して表示させてもよいし、表示させなくてもよい。仮想の手を3次元空間画像上に表示させない場合、特定部位位置算出部14により算出された仮想の手の3次元位置が第1の領域内であった場合に、第1の領域内をハイライト表示させるとか、領域枠を強調表示させるなどすることにより、仮想の手が第1の領域内に入っていることが分かるようにするとよい。
操作実行部18は、特定部位位置算出部14により算出された3次元空間画像上の3次元位置、または、位置情報置換部17により置換された3次元空間画像上の3次元位置に対して、操作受付部12が受け付けたコントローラ200に対する操作に応じた処理を実行する。例えば、上記何れかの3次元位置に対してオブジェクトを設定したり、上記何れかの3次元位置にあるオブジェクトに対して編集をしたりする処理を実行する。
図3は、表示制御部11によってHMD300に表示される画面の一例を示す図である。図3に示すように、HMD300の画面には、再生装置110により再生された3次元空間画像30が表示されている。また、HMD300の画面には、第1の領域設定部15により設定された第1の領域を表す領域枠(以下、第1の領域枠という)31、第2の領域設定部16により設定された第2の領域を表す領域枠(以下、第2の領域枠という)32、第2の領域の設定位置を調整するための操作に使用する操作バー33が3次元空間画像30に重畳して表示されている。
第1の領域枠31は、3次元空間画像30内でユーザが存在する現在位置(画面最下部の位置)から、ユーザの仮想の手が届く可動範囲内の3次元位置に表示されている。なお、図3の例では、円形をした第1の領域の上半分を示す半円の領域枠を表示しているが、第1の領域の全体を示す円形の領域枠を表示するようにしてもよい。
一方、第2の領域枠32は、ユーザの仮想の手が届く可動範囲内に限らず、当該可動範囲外も含めて、ユーザが指定した任意の3次元位置に表示されている。操作バー33は、第1の領域枠31の近傍に表示されている。これにより、操作バー33にはユーザの仮想の手が届くため、コントローラ200の操作を通じて操作バー33を操作することが可能である。
操作バー33は、第2の領域を設定する左右の方向と前後の距離とを調整するためのものである。例えば、操作バー33を把持して左右に移動(または回転)させることにより、それに連動して第2の領域を左右に移動させることが可能である。図3(a)は正面方向に操作バー33がある状態を示しており、そのため第2の領域枠32も正面方向に表示されている。これに対し、図3(b)は、操作バー33を少し右側に移動させた状態を示しており、そのため第2の領域枠32も正面から少し右側に移動した位置に表示されている。
また、操作バー33は、距離設定ボタン33aを含んでいる。この距離設定ボタン33aは、ポインタを合わせて把持した状態で、操作バー33の左端と右端との間をスライド操作することが可能に成されている。操作バー33の左端に近い位置に距離設定ボタン33aがあるほど、現在位置からの距離が短いことを示す。一方、操作バー33の右端に近い位置に距離設定ボタン33aがあるほど、現在位置からの距離が長いことを示す。
図3(a)は、現在位置から2mの位置に第2の領域を設定したことを示している。そのため、3次元空間画像30の現在位置から2m前方の3次元位置に第2の領域枠32が表示されている。また、図3(b)は、現在位置から10mの位置に第2の領域を設定したことを示している。そのため、3次元空間画像30の現在位置から10m前方の3次元位置に第2の領域枠32が表示されている。図3(b)では、図3(a)に比べて現在位置から遠い位置に第2の領域が設定されているので、その距離差に応じて奥行き感が出るように、第2の領域枠32が小さく表示されている。
なお、図3では、HMD300を装着したユーザが頭を動かすことなく、コントローラ200を操作したときの状態を示している。そのため、図3(a)、(b)の何れにおいても、3次元空間画像30の表示状態は変わっていない。これに対し、ユーザが頭を動かすと、それに連動して3次元空間画像30も変化する。従って、図3に示した画面の外側の位置に第2の領域を設定したいときは、頭を動かして3次元空間画像30を変化させ、その上でコントローラ200を操作すればよい。
図4は、位置情報置換部17による処理の内容を説明するための図である。図4は、3次元空間画像30により表される3次元空間を模式的に示したものであり、この3次元空間の最下部が、仮想のユーザ40が存在する現在位置に設定されている。この図4の例では、ユーザ40の現在位置から50cm前方の3次元位置に第1の領域41が設定されるとともに、現在位置から10m前方の3次元位置に第2の領域42が設定されている。第1の領域41の設定位置は、ユーザの仮想の手40aが届く可動範囲内の位置である。
上述したように、位置情報置換部17は、特定部位位置算出部14により算出された仮想の手40aの3次元位置が第1の領域41内であった場合、現在位置から50cmの3次元位置を、現在位置から10mの3次元位置に置換する。このため、図4に示すように、第1の領域41内に仮想の手40aを入れて現在位置から80cm前方の3次元位置、すなわち、第1の領域41から30cm前方の3次元位置にオブジェクト45を設定するような操作を行うと、50cmの3次元位置が置換された10m先の第2の領域42から30cm前方の3次元位置にオブジェクト45が設定されるようになる。
以上詳しく説明したように、本実施形態では、コントローラ200を所持したユーザの手の可動範囲に対応する3次元空間画像上の3次元範囲内の3次元位置に第1の領域を設定するとともに、ユーザによるコントローラ200に対する操作に基づいて調整された3次元空間画像上の3次元位置に第2の領域を設定し、第1の領域における3次元位置を第2の領域における3次元位置に置換するようにしている。
このように構成した本実施形態によれば、ユーザが第1の領域に対して操作を行うと、第2の領域に対して操作を行ったものとして処理されることとなる。そのため、ユーザの手の可動範囲外に対応する3次元空間画像上の3次元位置に第2の領域を設定しておけば、当該可動範囲外においてオブジェクトの操作を行ったものとすることが可能となる。これにより、ユーザが現在位置から移動するための操作を行うことなく、ユーザの特定部位の可動範囲外においてオブジェクトの操作を簡単に行うことができる。
なお、上記実施形態では、ユーザの特定部位の動きを検出する3次元検出装置として、ユーザが手に持って使用するコントローラ200を例に挙げて説明したが、本発明はこれに限定されない。例えば、ユーザが手に嵌めて使用するグローブであってもよい。あるいは、ユーザが足に嵌めて使用するコントローラであってもよい。この場合、コントローラは、ユーザの特定部位として足の動きを検出する。
また、上記実施形態では、ユーザによるコントローラ200の操作に基づいて第1の領域を設定する例について説明したが、本発明はこれに限定されない。例えば、HMD300に表示されている3次元空間画像の範囲内において、仮想の手が届かない位置にオブジェクトが存在する場合は、第1の領域を自動的に設定するようにしてもよい。この場合、そのオブジェクトが存在する3次元位置に第2の領域を自動的に設定するようにしてもよい。
また、上記実施形態では、3次元空間画像上に表示された操作バー33に対する操作に基づいて、第2の領域の設定位置を調整する例について説明したが、本発明はこれに限定されない。例えば、コントローラ200に設けた操作ボタンの操作に基づいて第2の領域の設定位置を調整するようにしてもよい。あるいは、第1の領域枠31に対する操作に基づいて、第2の領域の設定位置を調整するようにしてもよい。
第1の領域枠31を操作子として用いる一例として、次のようにすることが可能である。すなわち、第1の領域枠31を把持して左右に移動させることにより、その動きに連動させて第2の領域を左右に移動させるようにする。また、第1の領域枠31に距離設定ボタン33aを表示させ、この距離設定ボタン33aを把持してスライド操作することにより、第2の領域の現在位置からの距離を調整するようにする。
また、上記実施形態では、第1の領域および第2の領域を設定しても、3次元空間画像の表示状態が変わらない例について説明したが、本発明はこれに限定されない。例えば、第1の領域枠内について3次元空間画像の表示を変えるようにしてもよい。具体的には、図4のように現在位置から50cm前方に第1の領域41を設定した場合、第2の領域42の後方50cmの位置にユーザがいると仮定して、その仮定位置から第2の領域42の方向を見た場合の3次元空間画像を第1の領域枠31に表示させる。このようにすれば、第2の領域42から前方の3次元空間画像が拡大して第1の領域枠31に表示されるので、その拡大画像を参照しながらオブジェクトの操作を行うことができ、便利である。
また、上記実施形態では、仮想現実の3次元空間画像上に第1の領域および第2の領域を設定して3次元位置の置換を行う例について説明したが、本発明はこれに限定されない。例えば、拡張現実の3次元空間画像上に第1の領域および第2の領域を設定して3次元位置の置換を行うようにしてもよい。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
11 表示制御部
12 操作受付部
13 3次元情報取得部
14 特定部位位置算出部
15 第1の領域設定部
16 第2の領域設定部
17 位置情報置換部
18 操作実行部
31 第1の領域枠
32 第2の領域枠
33 操作バー
33a 距離設定ボタン
41 第1の領域
42 第2の領域
120 3次元UI装置
200 コントローラ
300 HMD

Claims (5)

  1. 3次元空間画像内におけるユーザによる操作を制御するための3次元ユーザインタフェース装置であって、
    上記ユーザの特定部位の可動範囲に対応する3次元空間画像上の3次元範囲内の3次元位置に、第1の領域を設定する第1の領域設定部と、
    上記3次元空間画像上において、上記ユーザによる操作に基づいて調整された3次元位置に、第2の領域を設定する第2の領域設定部と、
    上記第1の領域設定部により設定された上記第1の領域における3次元位置を、上記第2の領域設定部により設定された上記第2の領域における3次元位置に置換する位置情報置換部とを備えたことを特徴とする3次元ユーザインタフェース装置。
  2. 上記第1の領域設定部は、上記ユーザによる操作に基づいて、上記第1の領域を設定することを特徴とする請求項1に記載の3次元ユーザインタフェース装置。
  3. 上記第2の領域設定部は、上記3次元空間画像上に表示された操作子に対する上記ユーザによる操作に基づいて、上記第2の領域の設定位置を調整することを特徴とする請求項1または2に記載の3次元ユーザインタフェース装置。
  4. 上記ユーザの特定部位の動きを検出する3次元検出装置から3次元情報を取得する3次元情報取得部と、
    上記3次元情報取得部により取得される上記3次元情報を用いて、上記ユーザの特定部位に関する3次元空間画像上の3次元位置を算出する特定部位位置算出部とを更に備え、
    上記位置情報置換部は、上記特定部位位置算出部により算出された上記特定部位に関する3次元空間画像上の3次元位置が、上記第1の領域設定部により設定された上記第1の領域内であった場合、上記特定部位に関する3次元空間画像上の3次元位置を、上記第2の領域設定部により設定された上記第2の領域における3次元位置に置換することを特徴とする請求項1〜3の何れか1項に記載の3次元ユーザインタフェース装置。
  5. ユーザの特定部位の動きを検出する3次元検出装置から3次元情報を取得する3次元情報取得手段、
    上記3次元情報取得手段により取得される上記3次元情報を用いて、上記ユーザの特定部位に関する3次元空間画像上の3次元位置を算出する特定部位位置算出手段、
    上記ユーザの特定部位の可動範囲に対応する上記3次元空間画像上の3次元範囲内の3次元位置に、第1の領域を設定する第1の領域設定手段、
    上記3次元空間画像上において、上記ユーザによる操作に基づいて調整された3次元位置に、第2の領域を設定する第2の領域設定手段、および
    上記第1の領域設定手段により設定された上記第1の領域における3次元位置を、上記第2の領域設定手段により設定された上記第2の領域における3次元位置に置換する位置情報置換手段
    としてコンピュータを機能させるための3次元操作用プログラム。
JP2016170712A 2016-09-01 2016-09-01 3次元ユーザインタフェース装置および3次元操作用プログラム Pending JP2018036942A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016170712A JP2018036942A (ja) 2016-09-01 2016-09-01 3次元ユーザインタフェース装置および3次元操作用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016170712A JP2018036942A (ja) 2016-09-01 2016-09-01 3次元ユーザインタフェース装置および3次元操作用プログラム

Publications (1)

Publication Number Publication Date
JP2018036942A true JP2018036942A (ja) 2018-03-08

Family

ID=61565854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016170712A Pending JP2018036942A (ja) 2016-09-01 2016-09-01 3次元ユーザインタフェース装置および3次元操作用プログラム

Country Status (1)

Country Link
JP (1) JP2018036942A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020013039A1 (ja) * 2018-07-12 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置及びコントローラ装置の制御方法
JP2021531587A (ja) * 2018-07-24 2021-11-18 ノキア テクノロジーズ オーユー インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020013039A1 (ja) * 2018-07-12 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置及びコントローラ装置の制御方法
JP6990769B2 (ja) 2018-07-12 2022-01-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置及びコントローラ装置の制御方法
US11701578B2 (en) 2018-07-12 2023-07-18 Sony Interactive Entertainment Inc. Information processing apparatus and control method for controller apparatus
JP2021531587A (ja) * 2018-07-24 2021-11-18 ノキア テクノロジーズ オーユー インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置
JP7075073B2 (ja) 2018-07-24 2022-05-25 ノキア テクノロジーズ オーユー インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置

Similar Documents

Publication Publication Date Title
US9685005B2 (en) Virtual lasers for interacting with augmented reality environments
JP4533087B2 (ja) 画像処理方法、画像処理装置
EP3217258B1 (en) Method and system for editing scene in three-dimensional space
JP6618681B2 (ja) 情報処理装置及びその制御方法及びプログラム、並びに、情報処理システム
US11070724B2 (en) Image processing apparatus and method
JPWO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JPWO2014016987A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
TW201322178A (zh) 擴增實境的方法及系統
EP3759711B1 (en) Methods, systems, and media for object grouping and manipulation in immersive environments
JP2014093034A (ja) 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
KR20130078322A (ko) 3d 영상 제어 장치 및 방법
KR20210136858A (ko) 화상표시장치, 제어방법, 및 프로그램
US9478068B2 (en) Computer-readable medium, image processing device, image processing system, and image processing method
JP6065908B2 (ja) 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
EP3449390A1 (en) Augmented media
JP2018036942A (ja) 3次元ユーザインタフェース装置および3次元操作用プログラム
KR102361985B1 (ko) 웨어러블 디바이스 기반의 매뉴얼 제공 방법 및 그 시스템
US11308670B2 (en) Image processing apparatus and method
JP6514416B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2016115148A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN105787971B (zh) 一种信息处理方法和电子设备
JP2019186698A (ja) 情報処理装置、処理方法、及びプログラム
KR101263881B1 (ko) 무인 방송 제어 시스템
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2015219875A (ja) 情報処理方法、情報処理装置及び記録媒体