JP6240135B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6240135B2
JP6240135B2 JP2015209834A JP2015209834A JP6240135B2 JP 6240135 B2 JP6240135 B2 JP 6240135B2 JP 2015209834 A JP2015209834 A JP 2015209834A JP 2015209834 A JP2015209834 A JP 2015209834A JP 6240135 B2 JP6240135 B2 JP 6240135B2
Authority
JP
Japan
Prior art keywords
user
virtual
movement
proximity
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015209834A
Other languages
English (en)
Other versions
JP2017083995A (ja
Inventor
裕史 松生
裕史 松生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2015209834A priority Critical patent/JP6240135B2/ja
Priority to US15/280,316 priority patent/US9886085B2/en
Publication of JP2017083995A publication Critical patent/JP2017083995A/ja
Application granted granted Critical
Publication of JP6240135B2 publication Critical patent/JP6240135B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Description

本発明は画像処理装置、画像処理方法およびプログラムに関する。
ユーザが、コントローラの操作により3次元的な位置を入力したり、操作対象の仮想空間内の物体を選択することにより、ユーザの操作と仮想空間内の物体とのインタラクションを実現する技術がある。
インタラクションのリアリティを向上させるために、インタラクションに関する処理の精度を高くすることが考えられる。例えば、操作量と仮想空間内の動きの比や、接触判定に用いる閾値となる距離などを変更することにより、インタラクションのリアリティを向上させるとともに細かい操作を可能にすることができる。一方、単に精度を高くすると、ユーザに細かい操作を強いることになるなどの理由により、ユーザの期待に応じた操作ができないことが懸念される。
本発明は上記課題を鑑みてなされたものであって、その目的は、処理の精度の向上とユーザの操作性とを両立させる技術を提供することである。
上記課題を解決するために、本発明にかかる画像処理装置は、ユーザを代表する代表位置と物体の位置との近さを算出する近さ算出手段と、算出された近さに応じた精度で前記物体の仮想空間における動きを決定する動き決定手段と、決定された動きに基づいて画像を描画する描画手段と、を含む。
また、本発明にかかる画像処理方法は、ユーザを代表する代表位置と物体の位置との近さを算出するステップと、算出された近さに応じた精度で前記物体の仮想空間における動きを決定するステップと、決定された動きに基づいて画像を描画するステップと、を含む。
また、本発明にかかるプログラムは、ユーザを代表する代表位置と物体の位置との近さを算出する近さ算出手段、算出された近さに応じた精度で前記物体の仮想空間における動きを決定する動き決定手段、および、決定された動きに基づいて画像を描画する描画手段、としてコンピュータを機能させる。
本発明によれば、処理の精度の向上とユーザの操作性とを両立させることができる。
本発明の一形態では、画像処理装置は実空間において前記ユーザにより指示された実指示位置を前記物体の位置として取得する実指示位置取得手段をさらに含み、前記代表位置は実空間における前記ユーザの位置であり、前記動き決定手段は、前記近さに応じた精度で仮想空間における指示位置である仮想指示位置の動きを決定することにより前記物体の動きを決定してもよい。
本発明の一形態では、前記動き決定手段は、前記代表位置と前記実指示位置とが近いほど、前記代表位置と実指示位置との距離に対する、仮想空間におけるユーザを代表する仮想代表位置と仮想指示位置との距離の比が大きくなるように仮想指示位置の動きを決定してもよい。
本発明の一形態では、前記代表位置は仮想空間における前記ユーザを代表する位置であり、前記物体の位置は仮想空間において前記ユーザが指し示す位置であり、前記動き決定手段は、前記近さに応じて判定閾値を決定し、前記決定された判定閾値より距離が小さい仮想空間内の物体を検出し、前記検出された前記物体の動きを決定してもよい。
本発明の実施形態にかかる画像処理装置のハードウェア構成の一例を示す図である。 ユーザが画像処理装置を使用する際の入出力デバイスの使用方法を説明する図である。 表示される画像の一例を示す図である。 画像処理装置が実現する機能を示すブロック図である。 ユーザからの距離と精度との関係を模式的に示す図である。 画像処理装置の処理フローの一例を示す図である。 実空間におけるユーザからの距離と仮想空間における距離との関係を示す図である。 実空間における距離と位置との関係を示す図であ 仮想空間における位置と実空間における距離との関係を示す図である モード決定部、操作判定閾値決定部、被操作オブジェクト決定部に関わる処理フローの一例を示す図である。
以下では、本発明の実施形態について図面に基づいて説明する。出現する構成要素のうち同一機能を有するものには同じ符号を付し、その説明を省略する。
図1は、本発明の実施形態にかかる画像処理装置1のハードウェア構成の一例を示す図である。画像処理装置1は、パーソナルコンピュータや家庭用ゲーム機、または携帯情報端末である。画像処理装置1は、プロセッサ11、記憶部12、通信部13、操作入力部14、表示制御部15を含む。
プロセッサ11は、記憶部12に格納されているプログラムに従って動作し、通信部13や操作入力部14、表示制御部15等を制御する。なお、上記プログラムは、フラッシュメモリ等のコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよいし、インターネット等のネットワークを介して提供されるものであってもよい。
記憶部12は、DRAMやフラッシュメモリ等のメモリ素子によって構成されている。記憶部12は、上記プログラムを格納する。また、記憶部12は、プロセッサ11や通信部13等から入力される情報や演算結果を格納する。
通信部13は有線LANや無線LANを構成する集積回路やコネクタ、アンテナなどにより構成されている。通信部13は、ネットワークを介して他の装置と通信する機能を有する。通信部13は、プロセッサ11の制御に基づいて、他の装置から受信した情報をプロセッサ11や記憶部12に入力し、他の装置に情報を送信する。
操作入力部14は、ユーザの操作を検出するハードウェアからの入力を取得する回路である。操作入力部14は、例えばユーザが位置を入力する位置入力デバイスやキーボード等の入力デバイスから入力を取得し、検出された情報をプロセッサ11や記憶部12に入力する。
表示制御部15はディスプレイ等の表示出力デバイスを制御する回路を含んでいる。表示制御部15は、プロセッサ11の制御に基づいて、表示出力デバイスに画像を表示させる。
図2は、ユーザ61が画像処理装置1を使用する際の入力デバイス等の使用方法の一例を説明する図である。図2の例は、ユーザ61を上からみた図である。本実施形態の例では、入力デバイスとしてモーションコントローラ62,63、カメラ64を用い、表示出力デバイスとしてヘッドマウントディスプレイ65を用いる。
モーションコントローラ62,63のそれぞれは、カメラ64に位置を認識させるためのボール部と、ユーザ61に握らせるための把持部とを有する。把持部には、ボタンが設けられており、ユーザ61がボタンを操作すると、モーションコントローラ62,63は無線を介して操作入力部14へそのボタンの操作の情報を送信し、操作入力部14はその情報を取得する。カメラ64は、モーションコントローラ62,63のボール部を含む画像を撮影し、その撮影された画像内でのボール部の位置および大きさに基づいて、モーションコントローラ62,63が実空間において指示する位置である実指示位置を検出する。操作入力部14は、その検出されたモーションコントローラ62,63の実指示位置を取得する。
ヘッドマウントディスプレイ65は、ユーザ61の頭部に装着するディスプレイであり、ユーザ61の目前に画像を表示する。その表示された画像が視差を考慮したものである場合は、ユーザ61は画像に含まれる物体を立体的に認識することができる。ヘッドマウントディスプレイ65は、ユーザ61にとって臨場感が高い画像を表示することができる。また、視差があると、ユーザ61は仮想空間内の物体の3次元的な位置を正確に認識できるようになり、ユーザ61は仮想空間内の物体とのよりよいインタラクションを体験できる。
図3は、表示される画像の一例を示す図である。本実施形態で表示される画像は、仮想空間内のユーザ61の位置(以下では「仮想代表位置」と記載する)における視点の向きに対する3次元画像である、この画像において、モーションコントローラ62,63が指示する実指示位置に相当する仮想空間内の位置(以下では「仮想指示位置」とも呼ぶ)に指示オブジェクト72,73が表示されている。また、指示オブジェクト73により操作される被操作オブジェクト74も表示されている。なお、モーションコントローラ62,63の操作により仮想代表位置が移動したり、仮想空間におけるユーザ61の視点の向きが変化したり、仮想空間内で画像が描画される範囲内にあるオブジェクトの位置や向きが変化すると、画像処理装置1はそれらの変化が反映された画像を描画し、その画像をヘッドマウントディスプレイ65等の表示出力デバイスに表示させる。
図4は、本実施形態にかかる画像処理装置1が実現する機能を示すブロック図である。画像処理装置1は機能的に、実位置取得部51、距離算出部52、動作決定部53、画像描画部54を含む。また、動作決定部53は、仮想指示位置決定部56、モード決定部57、操作判定閾値決定部58、被操作オブジェクト決定部59、物理計算部60を含む。
実位置取得部51は、主に、プロセッサ11が記憶部12に記憶されるプログラムを実行し、モーションコントローラ62または63やカメラ64からの情報を取得する操作入力部14からの情報を処理し、処理結果を記憶部12に格納することにより実現される。距離算出部52、動作決定部53は、主に、プロセッサ11が記憶部12に記憶されるプログラムを実行し、記憶部12等に格納された情報を処理し、処理結果を記憶部12に格納することにより実現される。画像描画部54は、主に、プロセッサ11が記憶部12に記憶されるプログラムを実行し、記憶部12等に格納された情報を処理し、表示出力デバイスが画像を表示するよう表示制御部15を制御することにより実現される。
実位置取得部51は、実空間においてユーザ61により指示された実指示位置を取得する。また、実位置取得部51は、実空間におけるユーザ61の位置(「実代表位置」と呼ぶ)を取得する。実位置取得部51が取得する実指示位置および実代表位置は、3次元空間における位置である。本実施形態では実指示位置はモーションコントローラ62,63のボール部の位置であるが、ユーザ61の手の位置そのものであってもよい。実代表位置はヘッドマウントディスプレイ65の位置(ユーザ61の視点に相当する位置)であってもよいし、ユーザ61の胸部に対して少し前の位置のようなユーザ61の近傍の位置であってもよい。
距離算出部52は、ユーザ61を代表する代表位置と物体の位置との近さを算出する。より具体的には、距離算出部52は、ユーザ61の実代表位置と実指示位置との近さや、仮想代表位置と仮想空間内のオブジェクトの位置との近さを算出する。前者の場合、近さの算出に用いられる物体はユーザ61が位置を指示する物体であり、例えばモーションコントローラ62,63やユーザ61の手である。
動作決定部53は、算出された近さに応じた精度で仮想空間における物体の動きを決定する。動作決定部53により上記精度で決定される仮想空間における物体の動きには、仮想空間内に配置されるユーザ61以外のオブジェクトの動きや、仮想指示位置により示される指示オブジェクト72,73の動きが含まれる。
図5は、ユーザ61からの距離と精度との関係を模式的に示す図である。例えば、図5において、動作決定部53は、所定の値より距離が小さい領域(一点鎖線よりユーザ61に近い領域)である高精度領域68では、その所定の値より距離が大きい領域である低精度領域69より物体の動きの精度が高くなるように物体の動きを決定する。また、例えば、高精度領域68にモーションコントローラ63がある場合には、低精度領域69にモーションコントローラ63がある場合に比べて、動作決定部53は高精度に仮想指示位置を求める。
画像描画部54は、決定された物体の動きに基づいて、仮想空間における物体の3次元画像を描画する。画像描画部54は、仮想空間において、仮想代表位置からユーザ61の視点の向きをみた場合の画像を描画する。
仮想指示位置決定部56は、実代表位置と実指示位置の近さと、実指示位置と、に基づいて、仮想指示位置の動きを決定する。
モード決定部57は、ユーザ61の操作に基づいて、現在のモードが、インタラクションモードであるか否かを決定する。インタラクションモードは、ユーザ61が実指示位置を移動させることで仮想空間内にある被操作オブジェクト74を操作できるモードである。
操作判定閾値決定部58は、代表位置と物体の位置との近さに基づいて、判定閾値を決定する。この判定閾値は、仮想空間内にあるオブジェクトが、操作の対象となる被操作オブジェクト74であるか否かを判定するためのものである。操作判定閾値決定部58が用いる代表位置と物体の位置との近さは、仮想代表位置と仮想指示位置との近さであってもよいし、仮想代表位置と指示オブジェクト72,73と異なる仮想空間内のオブジェクトの位置との近さであってもよい。
被操作オブジェクト決定部59は、決定された判定閾値に基づいて被操作オブジェクト74を検出する。より具体的には、被操作オブジェクト決定部59は、指示オブジェクト72,73やユーザ61と異なる仮想空間内の複数のオブジェクトのうち、仮想指示位置との距離が判定閾値より小さいオブジェクトを被操作オブジェクト74として検出する。
物理計算部60は、仮想空間において、被操作オブジェクト74を含む複数のオブジェクトの動きが物理法則に従うように複数のオブジェクトの動きを算出する。なお、物理計算部60は、複数のオブジェクトのそれぞれと仮想代表位置との近さに応じた精度で、そのオブジェクトの動きを算出してもよい。
図6は、画像処理装置1の処理フローの一例を示す図である。はじめに、実位置取得部51は、実指示位置やボタン操作を取得する(ステップS101)。実位置取得部51は、そのボタン操作として、例えば、現時点でボタンが押されているか、ボタンが新たに押下されたか、ボタンが離されたか、のそれぞれを検出する。また、実位置取得部51は現在の実指示位置およびユーザ61を代表する位置である実代表位置も取得する。
次に、距離算出部52は、ユーザ61の実代表位置と、実指示位置との距離を算出する(ステップS102)。距離算出部52は、ユーザ61の実代表位置と実指示位置との近さとして、実代表位置と実指示位置との3次元的な距離を求めてもよいし、実代表位置および実指示位置の水平成分のみを用いて2次元的な距離を求めてもよい。
仮想指示位置決定部56は、算出された実代表位置と実指示位置との距離に基づいて、実指示位置を仮想指示位置に対応する仮想空間内の位置に変換する(ステップS103)。また、仮想指示位置決定部56は、現時点の仮想指示位置と、変換された仮想空間内の位置とに基づいて、仮想指示位置の移動速度と回転速度とを決定する。仮想空間内のオブジェクトと指示オブジェクト72,73との衝突等が無い場合は、決定された移動速度により移動された仮想指示位置と変換された仮想空間内の位置とは同じとなる。より具体的には、仮想指示位置決定部56は、仮に衝突等が発生しない場合に、実代表位置と実指示位置とが近いほど、実代表位置と実指示位置との距離に対する仮想代表位置と仮想指示位置との距離の比が大きくなるように仮想指示位置の動きを決定する。見方を変えると、仮想指示位置決定部56は、実代表位置と実指示位置とが近いほど、実指示位置の移動量に対する仮想指示位置の移動量の比が大きくなるように仮想指示位置の動きを決定する。
図7は、実空間におけるユーザ61からの距離と仮想空間における距離との関係を示す図である。図7に示されるグラフは、横軸(x軸)が実代表位置と実指示位置との距離(実距離)を示し、縦軸(y軸)が仮想空間における仮想代表位置と仮想指示位置との距離(仮想距離)を示す。グラフ中の実線は実距離と仮想距離との関係を示し、その関係は例えば1.5次関数といった多項式関数で示される。グラフ中の破線は実線と比較するために、実距離と仮想距離とが等しい場合の実距離と仮想距離との従来の関係を示すものである。仮想指示位置決定部56は図7により示される関係に応じて実距離を仮想距離に変換し、実空間における方向と、仮想距離と、仮想空間におけるユーザ61の代表位置および視点の向きに基づいて仮想指示位置を算出する。例えば、領域91ではユーザ61が示す実距離より仮想空間内の仮想距離が小さいため、指示オブジェクト72,73等の物体の動きが従来より高精度に決定される。一方、領域92ではユーザが示す実距離より仮想空間内の仮想距離が大きいため、指示オブジェクト72,73等の物体の動きが従来より低精度に決定される。
図8は、実空間における距離と位置との関係を示す図であり、図9は、仮想空間における位置と実空間における距離との関係を示す図である。図8には、代表位置Cからの距離が小さいものから順に、弧L1からL13が記載されている。弧L1からL13のそれぞれは、代表位置Cからの距離が同じ点を結ぶ曲線であり、実空間において、弧L1からL13のうち隣り合う2つの弧の間隔は一定である。一方、図9に示す仮想空間においては、弧L1からL13は図8が示す実空間上の弧L1からL13に対応する位置に記載されている。図9では、弧L1からL13のうち隣り合う2つの弧について、代表位置Cに近いほど隣り合う2つの弧の間隔が小さくなり、代表位置Cから遠いほど隣り合う2つの弧の間隔が大きくなる。したがって、代表位置Cに近いほど実指示位置の動きに対する仮想指示位置の変化が小さく、より高精度に仮想指示位置が決定される。これにより、仮想指示位置に関連する仮想空間内のオブジェクト(例えば指示オブジェクト72,73や被操作オブジェクト74)の動きは、代表位置からの距離に応じて決定される。
次に、モード決定部57は、ユーザ61のボタン操作や実指示位置に基づいて、現在のモードを決定し、またインタラクションモードに決定された場合には被操作オブジェクト決定部59は被操作オブジェクト74を決定する(ステップS104)。具体的には、モード決定部57は、操作判定閾値決定部58により決定される判定閾値に基づいて、現在の動作モードがインタラクションモードであるか否かを決定する。判定閾値は距離算出部52により求められた仮想代表位置と仮想指示位置との近さに基づいて決定される。また、被操作オブジェクト決定部59は、インタラクションモードに決定される場合に、仮想空間内にある複数のオブジェクトから被操作オブジェクト74を選択する。
以下では、ステップS104の処理についてさらに説明する。図10は、モード決定部57、操作判定閾値決定部58、被操作オブジェクト決定部59に関わる処理フローの一例を示す図である。モード決定部57は、はじめに、モーションコントローラ62,63からの入力に基づいて、ユーザ61がモーションコントローラ62,63のいずれかに含まれるボタンを新たに押下したか否かを検出する(ステップS201)。ボタンが新たに押下された場合には(ステップS201のY)、距離算出部52は仮想代表位置と仮想指示位置との3次元的または水平的な距離を算出する(ステップS202)。ここで、モーションコントローラ62,63のうちボタンが押下されたものを対象コントローラと記載する。そして操作判定閾値決定部58は算出された仮想指示位置と仮想代表位置との距離に基づいて、判定閾値を求める(ステップS203)。より具体的には、操作判定閾値決定部58は、算出された距離が大きいほど判定閾値が大きくなるように判定閾値を求める。例えば、操作判定閾値決定部58は、算出された距離がある定数値より小さい場合に第1の値を判定閾値として決定し、大きい場合に第1の値より大きい第2の値を判定閾値として決定してよい。また、操作判定閾値決定部58は、算出された距離に対して単調増加する関数によって判定閾値を計算してもよい。
判定閾値が求められると、被操作オブジェクト決定部59は、ボタンが押下された対象コントローラにより示される仮想指示位置と複数のオブジェクトのそれぞれとの間の距離を算出し、その仮想指示位置に最も近いオブジェクトを検出する(ステップS204)。そして、被操作オブジェクト決定部59は検出されたオブジェクトと仮想指示位置との距離が判定閾値より小さいかを判定する(ステップS205)。検出されたオブジェクトと仮想指示位置との距離が判定閾値より小さい場合には(ステップS205のY)、モード決定部57は現在のモードをインタラクションモードに設定し、被操作オブジェクト決定部59は被操作オブジェクト74として検出されたオブジェクトを設定し(ステップS206)、またモード決定部57は対象コントローラ情報としてボタンが押下された対象コントローラを示す情報を記憶部12に記憶させる。一方、検出されたオブジェクトと仮想指示位置との距離が判定閾値より大きい場合には(ステップS205のN)、被操作オブジェクト74は存在しないため、ステップS206はスキップされる。
ここで、ステップS201においてユーザ61がボタンを新たに押下しておらず(ステップS201のN)、かつ、ユーザ61が対象コントローラ情報が示す対象コントローラのボタンを離した場合には(ステップS207のY)、モード決定部57は現在のモードをインタラクションモードと異なるモードに設定し、インタラクションモードを解除する(ステップS208)。一方、ユーザ61がそのボタンを離していない場合には(ステップS207のN)、モード決定部57は動作モードを変更しない。
ステップS104の処理が行われると、物理計算部60は、現在のモードがインタラクションモードの場合には(ステップS105)、仮想指示位置にある指示オブジェクト72または73の移動速度や、その指示オブジェクト72または73と被操作オブジェクト74との位置関係に基づいて、被操作オブジェクト74の動きを決定する(ステップS106)。例えば、物理計算部60は、被操作オブジェクト74が指示オブジェクト72または73に吸着し、被操作オブジェクト74のうち吸着する箇所が指示オブジェクト72または73と同じように移動するように被操作オブジェクト74の動きを決定してもよい。
これまでの説明からわかるように、判定閾値が仮想指示位置と仮想代表位置との距離に基づいて設定され、その判定閾値によって操作対象となるオブジェクトが決定される。例えば仮想指示位置がユーザ61に近い場合、遠い場合に比べて、あるオブジェクトを操作する際に仮想指示位置をそのオブジェクトに近づける必要がある。見方を変えれば、仮想指示位置がユーザ61に近い場合、意図しないオブジェクトが被操作オブジェクト74になる可能性が低くなり、より高精度にオブジェクトの動きを決定することができる。一方、仮想指示位置がユーザ61から遠い場合、精度は低くなるものの、ユーザ61はよりルーズな操作で、被操作オブジェクト74を決定することが可能になる。例えば、ユーザ61は、指示オブジェクト72または73では届かない位置にある物体を掴むこともできる。なお、判定閾値に相当するオブジェクトと仮想指示位置との間隔は、仮想代表位置と仮想指示位置との距離に比べてかなり小さく、操作されるオブジェクトの位置と仮想指示位置とは十分に近い。したがって、操作されるオブジェクトと仮想代表位置との近さに基づいて、その操作されるオブジェクトの動作が決定されているともいえる。
また、物理計算部60は、決定された指示オブジェクト72,73の動きや、決定された操作されるオブジェクトの動き、複数のオブジェクトについての所与の動きに基づいて、仮想空間内の複数のオブジェクトの動きを決定する(ステップS107)。複数のオブジェクトの決定される動きは、移動速度や回転速度であり、また物理計算部60は画像描画部54が次に描画するフレームにおける複数のオブジェクトの位置や角度も算出する。物理計算部60は、画像描画部54が描画する指示オブジェクト72,73の位置、つまり仮想指示位置も決定する。ここで、物理計算部60により算出される指示オブジェクト72,73の位置は、仮想指示位置決定部56により決定された移動速度および回転速度で動いた際に他のオブジェクト(障害物)と衝突する場合には、例えばその障害物との衝突が生じた位置のような、衝突が考慮された位置となる。したがって、画像描画部54が描画する際の仮想指示位置は、仮想指示位置決定部56において実指示位置を変換することにより取得された仮想空間内の位置に基づくが、一致しない場合がある。このように指示オブジェクト72,73の位置を決定することにより、指示オブジェクト72,73が障害物にめり込むことを防ぎ、違和感のない自然なインタラクションを実現できる。
物理計算部60は、複数のオブジェクトの速度を取得し、その速度に基づいて、衝突判定を行う。また、2以上のオブジェクトにおいて互いの位置等に拘束条件が存在する場合には、物理計算部60は拘束ソルバの処理により、その2以上のオブジェクトについて、その拘束条件を満たす位置等を算出する。拘束ソルバは、インパルス法などの既知の反復解法によって拘束条件を満たすオブジェクトの位置等を算出する。
複数のオブジェクトの動きが決定されると、画像描画部54は、その決定されたオブジェクトの位置や角度、仮想代表位置や視点の方向に基づいて、オブジェクトの三次元画像を描画する(ステップS107)。
1 画像処理装置、11 プロセッサ、12 記憶部、13 通信部、14 操作入力部、15 表示制御部、51 実位置取得部、52 距離算出部、53 動作決定部、54 画像描画部、56 仮想指示位置決定部、57 モード決定部、58 操作判定閾値決定部、59 被操作オブジェクト決定部、60 物理計算部、61 ユーザ、62,63 モーションコントローラ、64 カメラ、65 ヘッドマウントディスプレイ、68 高精度領域、69 低精度領域、72,73 指示オブジェクト、74 被操作オブジェクト、91,92 領域。

Claims (6)

  1. ユーザを代表する代表位置と物体の位置との近さを算出する近さ算出手段と、
    算出された近さに応じた精度で前記物体の仮想空間における動きを決定する動き決定手段と、
    決定された動きに基づいて画像を描画する描画手段と、
    実空間において前記ユーザにより指示された実指示位置を前記物体の位置として取得する実指示位置取得手段と、
    を含み、
    前記代表位置は実空間における前記ユーザの位置であり、
    前記動き決定手段は、前記代表位置と前記実指示位置とが近いほど、前記代表位置と実指示位置との距離に対する、仮想空間におけるユーザを代表する仮想代表位置と仮想指示位置との距離の比が大きくなるように仮想指示位置の動きを決定する、
    ことを特徴とする画像処理装置。
  2. ユーザを代表する代表位置と物体の位置との近さを算出する近さ算出手段と、
    算出された近さに応じた精度で前記物体の仮想空間における動きを決定する動き決定手段と、
    決定された動きに基づいて画像を描画する描画手段と、
    を含み、
    前記代表位置は仮想空間における前記ユーザを代表する位置であり、
    前記物体の位置は仮想空間において前記ユーザが指し示す位置であり、
    前記動き決定手段は、前記近さに応じて判定閾値を決定し、前記決定された判定閾値より距離が小さい仮想空間内の物体を検出し、前記検出された前記物体の動きを決定する、
    画像処理装置。
  3. ユーザを代表する代表位置と物体の位置との近さを算出するステップと、
    算出された近さに応じた精度で前記物体の仮想空間における動きを決定するステップと、
    決定された動きに基づいて画像を描画するステップと、
    実空間において前記ユーザにより指示された実指示位置を前記物体の位置として取得するステップと、
    を含み、
    前記代表位置は実空間における前記ユーザの位置であり、
    前記動きを決定するステップでは、前記代表位置と前記実指示位置とが近いほど、前記代表位置と実指示位置との距離に対する、仮想空間におけるユーザを代表する仮想代表位置と仮想指示位置との距離の比が大きくなるように仮想指示位置の動きを決定する、
    ことを特徴とする画像処理方法。
  4. ユーザを代表する代表位置と物体の位置との近さを算出するステップと、
    算出された近さに応じた精度で前記物体の仮想空間における動きを決定するステップと、
    決定された動きに基づいて画像を描画するステップと、
    を含み、
    前記代表位置は仮想空間における前記ユーザを代表する位置であり、
    前記物体の位置は仮想空間において前記ユーザが指し示す位置であり、
    前記動きを決定するステップでは、前記近さに応じて判定閾値を決定し、前記決定された判定閾値より距離が小さい仮想空間内の物体を検出し、前記検出された前記物体の動きを決定する、
    ことを特徴とする画像処理方法。
  5. ユーザを代表する代表位置と物体の位置との近さを算出する近さ算出手段、
    算出された近さに応じた精度で前記物体の仮想空間における動きを決定する動き決定手段
    定された動きに基づいて画像を描画する描画手段、および、
    実空間において前記ユーザにより指示された実指示位置を前記物体の位置として取得する実指示位置取得手段、
    としてコンピュータを機能させ
    前記代表位置は実空間における前記ユーザの位置であり、
    前記動き決定手段は、前記代表位置と前記実指示位置とが近いほど、前記代表位置と実指示位置との距離に対する、仮想空間におけるユーザを代表する仮想代表位置と仮想指示位置との距離の比が大きくなるように仮想指示位置の動きを決定する、
    プログラム。
  6. ユーザを代表する代表位置と物体の位置との近さを算出する近さ算出手段、
    算出された近さに応じた精度で前記物体の仮想空間における動きを決定する動き決定手段、および、
    決定された動きに基づいて画像を描画する描画手段、
    としてコンピュータを機能させ、
    前記代表位置は仮想空間における前記ユーザを代表する位置であり、
    前記物体の位置は仮想空間において前記ユーザが指し示す位置であり、
    前記動き決定手段は、前記近さに応じて判定閾値を決定し、前記決定された判定閾値より距離が小さい仮想空間内の物体を検出し、前記検出された前記物体の動きを決定する、
    プログラム。
JP2015209834A 2015-10-26 2015-10-26 画像処理装置、画像処理方法およびプログラム Active JP6240135B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015209834A JP6240135B2 (ja) 2015-10-26 2015-10-26 画像処理装置、画像処理方法およびプログラム
US15/280,316 US9886085B2 (en) 2015-10-26 2016-09-29 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209834A JP6240135B2 (ja) 2015-10-26 2015-10-26 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017083995A JP2017083995A (ja) 2017-05-18
JP6240135B2 true JP6240135B2 (ja) 2017-11-29

Family

ID=58558675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209834A Active JP6240135B2 (ja) 2015-10-26 2015-10-26 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US9886085B2 (ja)
JP (1) JP6240135B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10168767B2 (en) * 2016-09-30 2019-01-01 Intel Corporation Interaction mode selection based on detected distance between user and machine interface
WO2018074054A1 (ja) * 2016-10-19 2018-04-26 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
CN109906423B (zh) * 2016-11-02 2022-05-06 松下知识产权经营株式会社 姿势输入系统及姿势输入方法、电子设备
KR102092464B1 (ko) * 2017-12-26 2020-03-23 (주)스코넥엔터테인먼트 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6646643B2 (en) * 2001-01-05 2003-11-11 The United States Of America As Represented By The Secretary Of The Navy User control of simulated locomotion
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP5629144B2 (ja) * 2010-06-28 2014-11-19 株式会社タイトー ゲーム装置
JP5711962B2 (ja) * 2010-12-27 2015-05-07 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
JP6112815B2 (ja) * 2012-09-27 2017-04-12 京セラ株式会社 表示装置、制御システムおよび制御プログラム
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
JP5948275B2 (ja) 2013-03-29 2016-07-06 富士フイルム株式会社 放射線撮影装置及び放射線撮影方法、並びに放射線撮影制御プログラム

Also Published As

Publication number Publication date
JP2017083995A (ja) 2017-05-18
US9886085B2 (en) 2018-02-06
US20170115727A1 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6240135B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5502954B2 (ja) 操作端末、操作制御方法、操作制御プログラム
US20160188109A1 (en) Electronic system with gesture calibration mechanism and method of operation thereof
JP6620163B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN112068757B (zh) 一种用于虚拟现实的目标选择方法及系统
KR101888491B1 (ko) 가상 공간 이동 장치 및 방법
US9229614B2 (en) Storage medium storing information processing program, information processing device, information processing system, and method for calculating specified position
JP2019187801A (ja) ゲーム制御装置、ゲームシステム、及びプログラム
KR100446236B1 (ko) 비접촉식 3차원 무선 조이스틱
US10901496B2 (en) Image processing apparatus, image processing method, and program
JP6874149B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10643387B2 (en) Three-dimensional data display device, three-dimensional data display method, and program
JP6447521B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017151806A (ja) 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置
CN107728811B (zh) 界面操控方法、装置及系统
US20200258193A1 (en) Information processing apparatus, information processing method, and storage medium
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
JP2013178645A (ja) 電子機器の入力装置
JP7475800B2 (ja) 方向指示入力プログラム、方向指示入力装置、および方向指示入力を利用するプログラム
JP2019188118A (ja) ゲーム制御装置、ゲームシステム、及びプログラム
JP2023027205A (ja) 方向指示入力プログラム、方向指示入力装置、および方向指示入力を利用するプログラム
JP6559017B2 (ja) 制御装置及び制御方法
JP2021009525A (ja) 方向指示入力プログラム、方向指示入力装置、および方向指示入力を利用するプログラム
JP2014219879A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171102

R150 Certificate of patent or registration of utility model

Ref document number: 6240135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250