JP5839220B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP5839220B2
JP5839220B2 JP2011165129A JP2011165129A JP5839220B2 JP 5839220 B2 JP5839220 B2 JP 5839220B2 JP 2011165129 A JP2011165129 A JP 2011165129A JP 2011165129 A JP2011165129 A JP 2011165129A JP 5839220 B2 JP5839220 B2 JP 5839220B2
Authority
JP
Japan
Prior art keywords
operator
gazing point
viewpoint
virtual viewpoint
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011165129A
Other languages
English (en)
Other versions
JP2013029958A5 (ja
JP2013029958A (ja
Inventor
達雄 藤原
達雄 藤原
直之 尾上
直之 尾上
潤一 山下
潤一 山下
贇 孫
贇 孫
小林 直樹
小林  直樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Sony Corp
Original Assignee
Sony Interactive Entertainment Inc
Sony Corp
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Corp, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2011165129A priority Critical patent/JP5839220B2/ja
Priority to US13/552,963 priority patent/US9342925B2/en
Priority to CN201210254460.8A priority patent/CN103150009B/zh
Publication of JP2013029958A publication Critical patent/JP2013029958A/ja
Publication of JP2013029958A5 publication Critical patent/JP2013029958A5/ja
Application granted granted Critical
Publication of JP5839220B2 publication Critical patent/JP5839220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)
  • Position Input By Displaying (AREA)

Description

本技術は、3次元仮想空間の画像等を表示することが可能な情報処理装置、情報処理方法、及びプログラムに関する。
イメージセンサを用いてオペレータを撮影し、頭姿勢、注視方向、閉眼及び表情等の顔パラメータを測定するシステムが知られている。例えば特許文献1によれば、測定した顔パラメータが、ヒューマンマシンインタフェース(HMI)設計などの分野において、システムとオペレータの対話を測定するために用いられる。また特許文献1には、顔パラメータから疲労及び注意散漫情報を導出する自動車運転者支援システムが記載されている(特許文献1の段落[0005]、[0006]等参照)。
特表2009−517745号公報
さらに特許文献1には、上記した顔パラメータを用いた顔と注視の追跡システムが、パーソナルコンピュータに対するインターフェースが発展するにつれて、コンピュータキーボードやマウスと同じくらい広範に分布する(ユビキタスになる)可能性がある旨の記載がある(特許文献1の明細書段落[0007]等参照)。すなわち上記の追跡システムのような操作者の動きをもとにした情報処理システムが普及していくと思われる。
以上のような事情に鑑み、本技術の目的は、操作者の動きをもとにした操作性の高い画像表示システムを実現することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、画像生成部と、検出部と、視点変位部とを具備する。
前記画像生成部は、3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成する。
前記検出部は、操作者の動きを検出する。
前記視点変位部は、前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる。
この情報処理装置では、注視点を所定の仮想視点から眺めた場合の視点画像が生成される。そして操作者の動きをもとに、設定された注視点を基準として仮想視点が変位される。これにより、操作者の動きをもとにした操作性の高い画像表示システムを実現することが可能となる。
前記視点変位部は、前記設定された注視点を中心として前記仮想視点を変位させてもよい。
これにより、例えば3次元の仮想空間において注視点を回り込んで見るという直感的な操作が可能となる。
前記検出部は、撮影された前記操作者の画像から前記操作者の動きを検出してもよい。
これにより、操作者の画像をもとに操作者の動きを高精度に検出することが可能となる。
前記検出部は、前記操作者の顔の位置を検出してもよい。この場合、前記視点変位部は、前記顔の位置の変位をもとに前記仮想視点を変位させてもよい。
このように顔の位置の変位をもとに仮想視点が変位されてもよい。これにより、顔を動かして注視点を見るという直感的な操作が可能となる。
前記検出部は、前記操作者の顔の向きを検出してもよい。この場合、前記視点変位部は、前記顔の向きの変位をもとに前記仮想視点を変位させてもよい。
このように顔の向きの変位をもとに仮想視点が変位されてもよい。これにより、顔を動かして注視点を見るという直感的な操作が可能となる。
前記検出部は、前記操作者の手の動きを検出してもよい。この場合、前記視点変位部は、前記手の動きをもとに前記仮想視点を変位させてもよい。
このように手の動きをもとに仮想視点が変位されてもよい。これにより、例えば手で注視点を回しながら、注視点の周囲等を見るという直感的な操作が可能となる。
前記情報処理装置は、前記注視点を設定する設定部をさらに具備してもよい。
これにより、例えば仮想空間内の注目するオブジェクト等に注視点を設定するといった操作が可能となる。
前記情報処理装置は、前記操作者の操作を受け付けるインターフェース部をさらに具備してもよい。この場合、前記設定部は、前記インターフェース部により受け付けられた操作をもとに前記注視点を設定してもよい。
このように操作者の操作により注視点が設定されてもよい。これにより操作性を向上させることができる。
前記設定部は、前記検出された操作者の動きをもとに前記注視点を設定してもよい。
このように操作者の動きをもとに注視点が設定されてもよい。これにより操作性を向上させることができる。
前記情報処理装置は、注視点変位部と、切替部とをさらに具備してもよい。
前記注視点変位部は、前記仮想視点を基準として前記注視点を変位させる。
前記切替部は、前記視点変位部と前記注視点変位部とを切り替える。
これにより、眺められる点を基準とした視点制御の切り替えが可能となる。その結果、操作性の高い画像表示システムが実現する。
本技術の一形態に係る情報処理方法は、3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成することを含む。
操作者の動きが検出される。
前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点が変位される。
本技術の一形態に係るプログラムは、コンピュータに、生成ステップと、検出ステップと、変位ステップとを実行させる。
前記生成ステップは、3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成する。
前記検出ステップは、操作者の動きを検出する。
前記変位ステップは、前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる。
以上のように、本技術によれば、操作者の動きをもとにした操作性の高い画像表示システムを実現することが可能である。
本技術の第1の実施形態に係る情報処理装置を少なくとも含む情報処理システムの構成を示すブロック図である。 本実施形態に係る情報処理装置の機能的な構成例を説明するための模式的な図である。 本実施形態に係る注視点及び仮想視点について説明するための模式的な図である。 本実施形態に係る注視点を基準とした仮想視点の決定処理の一例を示す模式的な図である。 本実施形態に係る注視点を基準とした仮想視点の決定処理の一例を示す模式的な図である。 本実施形態に係る注視点を基準とした仮想視点の決定処理の一例を示す模式的な図である。 本実施形態に係る情報処理装置の動作例を示すフローチャートである。 本実施形態に係る現在位置中心の視点制御について説明するための模式的な図である。 本技術の第2の実施形態に係る情報処理装置の動作を説明するための模式的な図である。 本技術の第3の実施形態に係る情報処理装置の動作を説明するための模式的な図である。 本技術に係る画像表示システムの他の例を示す模式的な図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
図1は、本技術の第1の実施形態に係る情報処理装置を少なくとも含む情報処理システムの構成を示すブロック図である。情報処理装置100としては、例えばゲーム機器やPC(Personal Computer)等の種々のコンピュータが用いられる。
本実施形態に係る情報処理装置100により、仮想の3次元仮想空間内に配置された複数のポリゴン等からなる3次元オブジェクトがレンダリングされる。このような3次元グラフィックスは、例えば、CAD(Computer Aided Design)やゲーム等において利用される。
情報処理装置100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力インターフェース105、及び、これらを互いに接続するバス104を備える。
入出力インターフェース105には、表示部106、入力部107、記憶部108、通信部109、撮像部110、ドライブ部111等が接続される。
表示部106は、例えば液晶、EL(Electro-Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。
入力部107は、例えばコントローラ、ポインティングデバイス、キーボード、タッチパネル、その他の操作装置である。入力部107がタッチパネルを含む場合、そのタッチパネルは表示部106と一体となり得る。本実施形態では、入力部107を介して、操作者の操作が入出力インターフェース105に受け付けられる。
記憶部108は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)、フラッシュメモリ、その他の固体メモリである。
撮像部110は、図示しない撮像制御部、撮像素子及び撮像光学系を有する。撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Devices)センサ等が用いられる。撮像光学系は、撮像素子の撮像面上に被写体像を結像させる。撮像制御部は、CPU101からの指示に基づき、撮像素子を駆動し、撮像素子から出力される画像信号に対して信号処理を行う。
本実施形態では撮像部110として、表示部106の上部に対面カメラが設けられている。この対面カメラにより、情報処理装置100を用いてゲーム等を行う操作者が撮影される。
ドライブ部111は、例えば光学記録媒体、フロッピー(登録商標)ディスク、磁気記録テープ、フラッシュメモリ等、リムーバブルの記録媒体112を駆動することが可能なデバイスである。これに対し上記記憶部108は、主にリムーバブルでない記録媒体を駆動する、情報処理装置100に予め搭載されたデバイスとして使用される場合が多い。
通信部109は、LAN(Local Area Network)、WAN(Wide Area Network)等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部109は、有線及び無線のどちらを利用して通信するものであってもよい。通信部109は、情報処理装置100とは別体で使用される場合が多い。
図2は、本実施形態に係る情報処理装置100の機能的な構成例を説明するための模式的な図である。図2に示す各機能ブロックは、図1に示すROM102や記憶部108等に記憶されたプログラム等のソフトウェア資源と、CPU101等の各ハードウェア資源とが協働することにより実現される。
プログラムは、例えば記録媒体112から情報処理装置100にインストールされる。あるいは、通信部109を介して情報処理装置100にプログラムがインストールされてもよい。
図2に示すように情報処理装置100は、レンダリング部120と、顔検出部121と、顔位置算出部122と、注視点決定部123と、仮想視点決定部124とを有する。
レンダリング部120は、3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成する。すなわち本実施形態では、注視点及び仮想視点の3次元座標及び向きの情報をもとに、3次元の仮想空間を表す視点画像が生成される。レンダリング部120は、本実施形態において画像生成部として機能する。
図3は、上記した注視点及び仮想視点について説明するための模式的な図である。図3に示すように、3次元の仮想空間500内にオブジェクト501が配置されている。この例では、オブジェクト501の中心に注視点505が設定されている。そして仮想視点510から注視点505を眺めた場合の視点画像が生成される。当該視点画像は、表示部106としての表示装置に出力される。
例えば、レンダリング部120により、3次元マップに含まれるポリゴンやテクスチャのデータが記憶部108等から読み出される。そして上記した視点画像が2D画像として生成されて出力される。なお3次元の仮想空間500を表す画像の生成方法やそれに用いられる技術等は限定されない。また視点画像として3D画像が生成され、3D画像を表示可能な表示装置に出力されてもよい。
顔検出部121は、撮像部110として機能するカメラから操作者の撮影画像を受け取る。そして撮影画像から操作者の顔を検出する。例えばカメラから入力される2Dの撮影画像に対して、顔検出処理が実行される。顔検出処理には、例えば学習ベースのViola-Jones等のアルゴリズムが用いられる。しかしながら、顔検出処理のために用いられる技術は限定されず、その他の技術やアルゴリズム等が適宜用いられてよい。
本実施形態では、顔検出部121の検出結果として、撮影画像の座標系(x-yピクセル単位)で、どの区域に顔が検出されたかを示す顔矩形座標データが出力される。当該顔矩形座標データは、顔位置算出部122に出力される。
顔位置算出部122は、顔矩形座標データから矩形の重心の位置を算出し、この重心から顔の位置を算出する。また顔位置算出部122は、矩形の幅及び高さから顔の大きさを算出する。顔位置算出部122により算出された顔の位置及び大きさのデータは、仮想視点決定部124に出力される。
本実施形態では、顔検出部121及び顔位置算出部122が、操作者の動きを検出する検出部として機能する。このように本実施形態では、撮影された操作者の画像から操作者の動きが検出される。また、操作者の撮影画像から操作者の顔の位置が検出される。
注視点決定部123は、入力部107としてのコントローラを介した操作入力をもとに、注視点505を決定する。本実施形態では、注視点決定部123は、注視点を設定する設定部として機能する。
例えば、表示されている2Dの画像上の特定位置を選択可能なポインタが表示される。操作者は、コントローラを操作してポインタを2D画像上の所望の位置へ移動させる。そして所定のボタン等が押されることで、当該ポインタの位置が注視点505として決定される。
あるいは、ポインタの位置に表示されている3Dポリゴン等のオブジェクト501が注視物体として設定されてもよい。そして当該設定された注視物体の中心位置又は重心位置等が注視点505として決定されてもよい。あるいは注視物体として選択されたオブジェクト501の形状等をもとに、当該オブジェクト501の周囲を観察しやすいような点が、注視点505として適宜決定されてもよい。
本実施形態では、3次元マップが参照されることで、注視点505の3次元座標が算出される。当該座標データは仮想視点決定部124に出力される。
なお、コントローラを介して操作されるポインタの位置として2次元座標が入力され、それをもとに注視点505の3次元座標が設定されてもよい。又は3次元座標に準じてポインタが表示可能である場合、ポインタの位置として3次元座標が入力され、当該座標が注視点505の座標として設定されてもよい。
仮想視点決定部124は、顔の位置や大きさをもとに、注視点505を基準として仮想視点510を決定する。そして顔の位置や大きさが変位した場合には、それに応じて注視点505を基準として仮想視点510が変位される。すなわち本実施形態では、仮想視点決定部124は、検出された操作者の動きをもとに、設定された注視点505を基準として仮想視点510を変位させる視点変位部として機能する。仮想視点は3次元座標により表される。
図4〜図6は、注視点505を基準とした仮想視点510の決定処理の一例を示す模式的な図である。図4(A)に示すように、操作者550の撮影画像551から操作者550の顔552の位置及びその変位553が算出される。
例えば操作者550が自分の顔を表示画面に対して右側に動かすと、撮影画像551において左側に操作者550の顔552が表示される(552R参照)。すなわち顔画像551上で顔552の位置が左側に変位した場合、操作者550の右側への動きが検出される。
一方、例えば操作者550が自分の顔を表示画面に対して左側に動かすと、撮影画像551において右側に操作者550の顔552が表示される(552L参照)。すなわち顔画像551上で顔552の位置が右側に変位した場合、操作者550の左側への動きが検出される。
図4(B)に示すように、本実施形態では、注視点505を中心とした球520上に仮想視点510が配置される。そして、検出された顔552の位置の変位をもとに、当該球520上にて注視点505の周囲を回るように仮想視点510が変位される。なお図4(B)では、説明を分かりやすくするために、仮想視点510の位置に操作者550の図が図示されている。
本実施形態では、操作者550の右側への動きに対応するように、注視点505に対して右側(矢印Rの方向)に仮想視点510が変位される。また操作者550の左側への動きに対応するように、注視点505に対して左側(矢印Lの方向)に仮想視点510が変位される。
例えば図4(A)に示すように、顔552が水平方向に動かされた場合、図5(A)に示すように、注視点505を中心としたXY平面に平行な円521の周上にて仮想視点510が変位されてもよい。これにより注視点505を見据えながら左右から廻り込む操作が可能となる。
また顔552の上下の動きも、顔画像551より検出可能である。この場合、図5(B)に示すように、注視点505を中心としたXZ平面に平行な円522の周上にて仮想視点510が変位されてもよい。顔が上に動かされた場合、オブジェクト501に対して上から覗き込む方向で仮想視点510が変位される。顔が下に動かされた場合、逆の方向に仮想視点510が変位される。
このように本実施形態では、顔の水平方向における動きと、垂直方向における動きとがともに検出され、その動きに対応するように球520上で仮想視点510が変位される。これにより、操作者550の動きをもとにした操作性の高い画像表示システムを実現することが可能となる。
なお、顔の水平方向及び垂直方向の動きに対応する仮想視点510の変位が上記したものに限定されるわけではない。例えばオブジェクト501の形状や大きさ等をもとに、顔の位置の変位と仮想視点510の変位とが適宜マッチングされてよい。
図6に示すように、本実施形態では、仮想視点510の決定処理に、顔の大きさのデータも用いられる。本実施形態では、顔の大きさ(=カメラと顔の距離)の変動をオブジェクト501と操作者550との距離変化に反映させるようなマッピングが採用されている。
すなわち本実施形態では、顔552の大きさをもとに上記した球520の半径が定められる。操作者550が顔552を表示画面に近づけた場合、顔552の大きさの増加が検出される。従って、顔の大きさの増加に対応して、球520の半径を小さくさせる(矢印Eの方向)。すなわち表示画面上には、オブジェクト501が拡大されて表示される。
一方、操作者550が顔552を表示画面から遠ざけた場合、顔552の大きさの減少が検出される。従って、顔552の大きさの減少に対応して、球520の半径を大きくさせる(矢印Sの方向)。すなわち表示画面上には、オブジェクト501が縮小されて表示される。このように顔の大きさのデータを用いることで、操作者550の動きをもとにした操作性の高い画像表示システムを実現することが可能となる。
最初に仮想視点510が設定される場合、予め仮想視点510がデフォルトで設定されてもよい。そしてその仮想視点510から注視点505を眺めた場合の視点画像が生成されてもよい。その後、顔552の位置及び大きさの変位をもとに、上記したような仮想視点510の変位処理が実行されてもよい。
図7は、本実施形態に係る情報処理装置100の動作例を示すフローチャートである。
まず顔検出部121により顔検出処理が実行される(ステップ101)。そして撮影画像551中に顔552が存在するか否かが判定される(ステップ102)。撮影画像551中に顔552が存在しないと判定された場合(No)、現在位置中心の視点制御が実行される(ステップ103)。
現在位置中心の視点制御について説明する。図8は、その説明のための模式的な図である。本実施形態では、コントローラの例えば十字キー等を用いた操作をもとに以下に示す現在位置中心の視点制御が実行される。
図8に示すように、現在位置中心の視点制御は、現在の仮想視点510を中心として対象点515が変位する視点制御である。対象点515は、仮想視点510から眺められる対象となる点である。図8(A)に示すように、対象点515は、仮想視点510を基準として回転方向及び直線方向(矢印R,L,E,S)に変位される。
そうすると例えば図8(B)に示すように、対象点515がオブジェクト501から他のオブジェクト511に変位される。そしてオブジェクト511が表示された視点画像が生成される。すなわちこの現在位置中心の視点制御により、操作者550は自分の周りを見渡す操作等が可能となる。
なお仮想視点510が固定されてその周囲を対象点515が回転等する場合に限定されず、操作者550や操作者550が操る表示画面上のキャラクタ等を基準とした、いわゆる一人称の視点制御が種々採用されてよい。
ステップ102にて、撮影画像551中に顔552が存在すると判定された場合(Yes)、顔位置算出部122により顔の位置及び大きさが算出される(ステップ104)。そしてステップ105にて、注視点505を設定するためのボタン操作が入力されたか否かが判定される。
当該ボタン押下操作が入力されない場合(ステップ105のNo)、現在位置中心の視点制御が実行される(ステップ103)。当該ボタン押下操作が入力された場合(ステップ105のYes)、表示画面上のポインタの座標上に、優位な3Dオブジェクトがあるか否かが判定される(ステップ106)。優位な3Dオブジェクトとは、上記したような注視点505を基準とした注視点中心の視点制御の対象となり得るオブジェクトである。
すなわち本実施形態では、注視点中心の視点制御が可能なオブジェクト501が予め設定されている。そしてそのオブジェクト501がポインタにより選択された場合に、注視点中心の視点制御が実行される(ステップ106のYesからステップ107)。
そして操作者550は顔552を動かしながらオブジェクト501を回り込んで観察するという直感的な操作を実行することができる。これにより例えば2D画像を表示する表示装置においても、3次元の空間を十分に感じながら視点画像を観察することができる。
ポインタの座標上に優位な3Dオブジェクトがないと判定された場合、(ステップ106のNo)、現在位置中心の視点制御が実行される(ステップ103)。このように優位なオブジェクトが適宜設定されることで、ステップ103及びステップ107の2つの視点制御の切り替えをスムーズに実行することが可能である。例えば宝箱等の重要なオブジェクトのみ注視点中心の視点制御が可能であるというような設定が可能である。
なお、優位なオブジェクトが設定されず、コントローラの注視点設定ボタンが押されれば、常に注視点中心の視点制御が実行されてもよい。
図7のフローチャートに示すように、本実施形態では、基本的には、コントローラを用いた現在位置中心の視点制御が実行される。これにより操作者550は、まず一人称視点での移動や、キャラクタの移動等を直感的に操作することが可能となる。
しかしながらこの視点制御では、例えば重要なオブジェクト501を回り込んでじっくり観察したいとき等に、旋回移動しながら対象点515を移動させなければならない。すなわち移動しながら視線方向を調整するという動作を繰り返さなければならず、操作が煩雑になる可能性がある。
このような場合に操作者550は、コントローラを用いて、重要なオブジェクト501に注視点505を設定する。そうするとステップ107に示すように注視点中心の視点制御が選択される。この結果、操作者550は、顔552を動かしながら当該オブジェクト501を回り込んで色々な角度からじっくり観察することが可能となる。これにより操作性及び自由度の高い画像表示システムが実現される。
以上、本実施形態に係る情報処理装置100では、注視点505を所定の仮想視点510から眺めた場合の視点画像が生成される。そして操作者550の動きをもとに、設定された注視点505を基準として仮想視点510が変位される。これにより、操作者550の動きをもとにした操作性の高い画像表示システムを実現することが可能となる。
また本実施形態では、注視点505を中心として仮想視点510が変位される。これにより、3次元の仮想空間500において注視点505及び注視物体を回り込んで見るという直感的な操作が可能となる。
また本実施形態では、操作者550の撮影画像551から操作者550の動きが検出されるので、操作者550の動きを高精度に検出することが可能となる。また顔552の位置及び大きさをもとに仮想視点510が変位されるので、顔を動かして注視点505を見るという直感的な操作が可能となる。また本実施形態では、コントローラを用いて、操作者550が注目するオブジェクト501等に注視点505を設定するといった操作が可能となる。
なお、図8に示す現在位置中心の視点制御において、注視点中心の視点制御で設定された注視点505がそのまま対象点515として用いられてもよい。すなわち仮想視点510を基準として注視点505が変位されてもよく、この場合CPU101は注視点変位部として機能する。また注視点中心の視点制御において、現在位置中心の視点制御で設定された対象点515がそのまま注視点505として用いられてもよい。
この場合、例えばコントローラに2つの視点制御を切り替えるためのボタン等が設定されていてもよい。このボタンの操作によりCPU101が、視点変位部と注視点変位部とを切り替える(CPU101が切替部として機能する)。これにより2つの視点制御において眺められる点(注視点505及び対象点515)を基準とした視点制御の切り替え処理が可能となる。その結果、操作性の高い画像表示システムが実現する。
<第2の実施形態>
本技術に係る第2の実施形態の情報処理装置について説明する。これ以降の説明では、上記の実施形態で説明した情報処理装置100における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
図9は、本技術の第2の実施形態に係る情報処理装置の動作を説明するための模式的な図である。本実施形態では、操作者の顔552の画像から操作者の顔552の向きが検出される。そして検出された顔552の向きの変位をもとに、注視点を基準として仮想視点が変位される。
例えば操作者の顔画像から、口、鼻又は目等の各部位の位置や大きさ等が検出される。これらの各部位の位置や大きさ等をもとに顔552の向きが検出される。その他、顔552の向き等を検出するための種々の顔追跡システムが用いられてよい。また例えば視線の向きや方向を解析することが可能な視線解析技術が適宜用いられてもよい。
図9に示すように、本実施形態において顔552の向きとは、3軸方向の回転による顔552の向きのことで、それぞれの軸方向ごとにロール(Roll)、ピッチ(Pitch)、ヨー(Yaw)の3種類がある。典型的には、ヨー軸の回転方向に対応して仮想視点が変位される。
例えば操作者が、オブジェクトに対して左向きに顔の向きを変位させる(図9に示すヨー軸の矢印方向)。そうすると、オブジェクトを右から覗き込むような視点画像が生成される。すなわち図4(B)に示す矢印Rの方向に操作者が回りこんだような視点画像が生成される。
一方、操作者が右向きに顔の向きを変位させると、操作者が左からオブジェクトを覗き込むような視点画像が生成される。すなわち操作者の顔の向きと同じ方向にオブジェクトも回転するような視点画像が生成される。これにより操作性の高い画像表示システムが実現する。
なお、顔552の向きと仮想視点の変位との対応関係(マッピング)は適宜設定可能である。例えば図9に示すピッチ軸の回転方向で顔552が回転される。この場合、オブジェクトを上下から回り込んで見るような視点画像が生成されてもよい。
本実施形態のように顔552の向きの変位をもとに仮想視点が変位されることでも、顔552を動かして注視点を見るという直感的な操作が可能となる。
<第3の実施形態>
図10は、本技術の第3の実施形態に係る情報処理装置の動作を説明するための模式的な図である。本実施形態では、操作者の撮影画像651から操作者の手652の動きが検出される。そして操作者の手652の位置、向き又は姿勢等をもとに仮想視点610が変位される。
例えば操作者が表示画面に対して手652を右側に動かすと(図10(A)の撮影画像651における左側への移動)、図10(B)に示すように、オブジェクト601の左側に回りこむような視点画像が生成される(矢印L)。一方、操作者が表示画面に対して手652を左側に動かすと(撮影画像651では右側)、オブジェクト601の右側に回りこむような視点画像が生成される(矢印R)。
すなわち本実施形態では、例えば手で注視点605を含むオブジェクト601を回しながら、オブジェクト601の周囲等を見るという直感的な操作が可能となる。なお、手652の変位と仮想視点610の変位との対応関係は適宜設定可能である。例えば手を動かした方向からオブジェクトを回り込んで見ることが可能なような設定でもよい。
また表示画面に対して手652を上下に動かすと、それに対応してオブジェクト601を上下から回り込んで見るような視点画像が生成されてもよい。
このように、操作者の顔ではなく手の動きをもとに仮想視点が変位されてもよい。その他、体の別の部位や体全体の位置、向き又は姿勢等をもとに仮想視点が変位されてもよい。
<変形例>
本技術に係る実施形態は、上記で説明した実施形態に限定されず種々変形される。
例えば図11は、本技術に係る画像表示システムの他の例を示す模式的な図である。本実施形態では、操作者750の動きを検出するための検出対象物770が操作者750に設けられる。例えば操作者750Aの手には、当該手の動きを検出するための検出対象物770Aを有するコントローラ707が保持されている。また操作者750Bの頭には、操作者750Bの顔の位置や向き等を検出するための検出対象物770Bが設けられている。
本変形例の情報処理装置700側では、操作者750の撮影画像をもとに、検出対象物770を基準として操作者750の動きが検出される(画像入力部701及び動き検出部702)。そしてそのデータが情報統合部703に出力される。またコントローラ707等を介した注視点設定操作の情報等もコントローラ制御部704から情報統合部703に出力される。そして情報統合部703により、上記で説明したような仮想視点の変位処理が実行され、その情報がゲーム制御部705及びレンダリング部706に出力される。
このように、操作者750の動きを検出するための検出対象物770が、補助的に用いられてもよい。本実施形態では、検出対象物770として色の付いた光を発する発光物が用いられる。これにより画像解析の際に操作者の動き(発光体の動き)を容易に検出することが可能となる。しかしながらそのようなものに限定されず、種々のものが用いられてよい。
また、操作者の撮影画像を用いることなく操作者の動きが検出されてもよい。例えば赤外線センサや測距センサ等が適宜組み合わされて検出部が構成され、これらにより操作者の動きが検出されてもよい。または操作者の視線を解析するためのアイカメラ等が適宜利用されて、操作者の顔の位置や向き等が検出されてもよい。
その他、操作者の顔の位置や向き、視線、手の動き、体の動き等を検出するための種々の技術や装置等が適宜用いられてよい。
また上記した実施形態では、コントローラを介した操作入力をもとに注視点が決定された。しかしながら、検出部により検出された操作者の動きをもとに注視点が決定されてもよい。例えば操作者の視線が検出される場合、視線方向にあるオブジェクトの有無、視線の滞留時間などをもとに注視点が決定されてもよい。あるいは手の動きや顔の位置、それらの停止時間等をもとに、操作者が注目したいオブジェクトが算出されて注視点が決定されてもよい。あるいは、操作者からの音声をもとに注視点が決定されてもよい。
また注視点が設定された際に、当該注視点やそれを含むオブジェクトが表示画面の中央に配置されてもよい。これにより注目するオブジェクト等を十分に観察することが可能である。あるいは、表示画面の端に配置されているオブジェクトに関しては中央に配置する等、注視点又はオブジェクトの表示位置の調整が適宜実行されてもよい。
例えば手の動きをもとに注視点が決定され、手の動きに合わせて注視点の位置が画面中央等の所定の位置に移動される。そして顔の位置を移動させることで注視点の周りを十分に観察するといった操作等も可能となる。
上記では、コントローラへの操作をもとに現在位置中心の視点制御が実行された。しかしながら、操作者の動きをもとに現在位置中心の視点制御が実行されてもよい。すなわち、注視点中心の視点制御と現在位置中心の視点制御がともに、操作者の動きをもとに実行されてもよい。例えば操作者により視点制御のモードを切り替えるボタン等が操作され、これにより2つの視点制御が適宜切り替えられてもよい。
操作者の動きに対応して仮想視点の変位速度が制御されてもよい。例えば顔の位置の変位をもとに仮想視点が変位される際に、顔の向きにより仮想視点の変位速度が調節可能であってもよい。例えばオブジェクトが非常に大きい場合等、顔の位置変化だけでは仮想視点の変位範囲が限られてしまう場合があり、オブジェクトの周囲全体を見ることができない場合がある。このような場合に、顔の向きを変えて仮想視点の変位速度を増加させる。これにより、顔の位置変化に応じて仮想視点を大きく変位させることが可能となり、オブジェクトの周囲全体を観察することが可能となる。
例えば現在の視点制御が、現在位置中心の視点制御であるのか、あるいは注視点中心の視点制御であるかのを操作者に示すアイコン等が、表示画面に表示されてもよい。例えば現在位置中心の視点制御である場合に、図8(A)に示すようなアイコンが、表示画面の右隅等に表示される。そして注視点中心の視点制御である場合には、図6に示すようなアイコンが表示画面に表示される。これにより、操作者にとっての操作性が向上する。
また例えば注視点中心の視点制御が選択されている場合に、図6に示すようなアイコンとともに、顔の位置等の変位とアイコンの各矢印との対応関係を説明するようなテキストや画像等がさらに表示されてもよい(例えば矢印の横に右や左等の文字が表示される等)。
上記した各実施形態及び変形例を適宜組み合わせたものが、本技術にかかる実施形態として採用されてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成する画像生成部と、
操作者の動きを検出する検出部と、
前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる視点変位部と
を具備する情報処理装置。
(2)前記(1)に記載の情報処理装置であって、
前記視点変位部は、前記設定された注視点を中心として前記仮想視点を変位させる
情報処理装置。
(3)前記(1)又は(2)に記載の情報処理装置であって、
前記検出部は、撮影された前記操作者の画像から前記操作者の動きを検出する
情報処理装置。
(4)前記(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記検出部は、前記操作者の顔の位置を検出し、
前記視点変位部は、前記顔の位置の変位をもとに前記仮想視点を変位させる
情報処理装置。
(5)前記(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記検出部は、前記操作者の顔の向きを検出し、
前記視点変位部は、前記顔の向きの変位をもとに前記仮想視点を変位させる
情報処理装置。
(6)前記(1)から(5)のうちいずれか1つに記載の情報処理装置であって、
前記検出部は、前記操作者の手の動きを検出し、
前記視点変位部は、前記手の動きをもとに前記仮想視点を変位させる
情報処理装置。
(7)前記(1)から(6)のうちいずれか1つに記載の情報処理装置であって、
前記注視点を設定する設定部をさらに具備する
情報処理装置。
(8)前記(7)に記載の情報処理装置であって、
前記操作者の操作を受け付けるインターフェース部をさらに具備し、
前記設定部は、前記インターフェース部により受け付けられた操作をもとに前記注視点を設定する
情報処理装置。
(9)前記(7)又は(8)に記載の情報処理装置であって、
前記設定部は、前記検出された操作者の動きをもとに前記注視点を設定する
情報処理装置。
(10)前記(1)から(9)のうちいずれか1つに記載の情報処理装置であって、
前記仮想視点を基準として前記注視点を変位させる注視点変位部と、
前記視点変位部と前記注視点変位部とを切り替える切替部と
をさらに具備する情報処理装置。
(11)3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成し、
操作者の動きを検出し、
前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる
情報処理方法。
(12)3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成するステップと、
操作者の動きを検出するステップと、
前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させるステップと
をコンピュータに実行させるプログラム。
(13)前記(12)に記載のプログラムであって、
前記変位ステップは、前記設定された注視点を中心として前記仮想視点を変位させる
プログラム。
(14)前記(12)又は(13)に記載のプログラムであって、
前記検出ステップは、撮影された前記操作者の画像から前記操作者の動きを検出する
プログラム。
(15)前記(12)から(14)のうちいずれか1つに記載のプログラムであって、
前記検出ステップは、前記操作者の顔の位置を検出し、
前記変位ステップは、前記顔の位置の変位をもとに前記仮想視点を変位させる
プログラム。
(16)前記(12)から(15)のうちいずれか1つに記載のプログラムであって、
前記検出ステップは、前記操作者の顔の向きを検出し、
前記変位ステップは、前記顔の向きの変位をもとに前記仮想視点を変位させる
プログラム。
(17)前記(12)から(16)のうちいずれか1つに記載のプログラムであって、
前記検出ステップは、前記操作者の手の動きを検出し、
前記変位ステップは、前記手の動きをもとに前記仮想視点を変位させる
プログラム。
(18)前記(12)から(17)のうちいずれか1つに記載のプログラムであって、
前記コンピュータに、前記注視点を設定するステップを、
さらに実行させるプログラム。
(19)前記(18)に記載のプログラムであって、
前記コンピュータに、前記操作者の操作を受け付けるステップをさらに実行させ、
前記設定ステップは、前記受け付けられた操作をもとに前記注視点を設定する
プログラム。
(20)前記(18)又は(19)に記載のプログラムであって、
前記設定ステップは、前記検出された操作者の動きをもとに前記注視点を設定する
プログラム。
100…情報処理装置
105…入出力インターフェース
110…撮像部
120…レンダリング部
121…顔検出部
122…顔位置算出部
123…注視点決定部
124…仮想視点決定部
500…仮想空間
501、601…オブジェクト
505、605…注視点
510、610…仮想視点
550…操作者
551、651…撮影画像(顔画像)
552…顔
652…手

Claims (18)

  1. 作者の動きを検出する検出部と、
    前記検出された操作者の動きをもとに、3次元の仮想空間内に注視点を設定する設定部と、
    前記設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成する画像生成部と、
    前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる視点変位部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記視点変位部は、前記設定された注視点を中心として前記仮想視点を変位させる
    情報処理装置。
  3. 請求項1又は2に記載の情報処理装置であって、
    前記検出部は、撮影された前記操作者の画像から前記操作者の動きを検出する
    情報処理装置。
  4. 請求項1から3のうちいずれか1項に記載の情報処理装置であって、
    前記検出部は、前記操作者の顔の位置を検出し、
    前記視点変位部は、前記顔の位置の変位をもとに前記仮想視点を変位させる
    情報処理装置。
  5. 請求項1から4のうちいずれか1項に記載の情報処理装置であって、
    前記検出部は、前記操作者の顔の向きを検出し、
    前記視点変位部は、前記顔の向きの変位をもとに前記仮想視点を変位させる
    情報処理装置。
  6. 請求項1から5のうちいずれか1項に記載の情報処理装置であって、
    前記検出部は、前記操作者の手の動きを検出し、
    前記視点変位部は、前記手の動きをもとに前記仮想視点を変位させる
    情報処理装置。
  7. 請求項1から6のうちいずれか1項に記載の情報処理装置であって、
    前記操作者の操作を受け付けるインターフェース部をさらに具備し、
    前記設定部は、前記インターフェース部により受け付けられた操作をもとに前記注視点を設定する
    情報処理装置。
  8. 請求項1からのうちいずれか1項に記載の情報処理装置であって、
    前記仮想視点を基準として前記注視点を変位させる注視点変位部と、
    前記視点変位部と前記注視点変位部とを切り替える切替部と
    をさらに具備する情報処理装置。
  9. 作者の動きを検出し、
    前記検出された操作者の動きをもとに、3次元の仮想空間内に注視点を設定し、
    前記設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成し、
    前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる
    情報処理方法。
  10. 作者の動きを検出するステップと、
    前記検出された操作者の動きをもとに、3次元の仮想空間内に注視点を設定するステップと、
    前記設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成するステップと、
    前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させるステップと
    をコンピュータに実行させるプログラム。
  11. 請求項10に記載のプログラムであって、
    前記変位ステップは、前記設定された注視点を中心として前記仮想視点を変位させる
    プログラム。
  12. 請求項10又は11に記載のプログラムであって、
    前記検出ステップは、撮影された前記操作者の画像から前記操作者の動きを検出する
    プログラム。
  13. 請求項10から12のうちいずれか1項に記載のプログラムであって、
    前記検出ステップは、前記操作者の顔の位置を検出し、
    前記変位ステップは、前記顔の位置の変位をもとに前記仮想視点を変位させる
    プログラム。
  14. 請求項10から13のうちいずれか1項に記載のプログラムであって、
    前記検出ステップは、前記操作者の顔の向きを検出し、
    前記変位ステップは、前記顔の向きの変位をもとに前記仮想視点を変位させる
    プログラム。
  15. 請求項10から14のうちいずれか1項に記載のプログラムであって、
    前記検出ステップは、前記操作者の手の動きを検出し、
    前記変位ステップは、前記手の動きをもとに前記仮想視点を変位させる
    プログラム。
  16. 請求項10から15のうちいずれか1項に記載のプログラムであって、
    前記コンピュータに、前記操作者の操作を受け付けるステップをさらに実行させ、
    前記設定ステップは、前記受け付けられた操作をもとに前記注視点を設定する
    プログラム。
  17. 請求項10から16のうちいずれか1項に記載のプログラムであって、
    前記コンピュータに、前記仮想視点を基準として前記注視点を変位させるステップと、
    前記注視点を基準として前記仮想視点を変位させる注視点中心制御モードと、前記仮想視点を基準として前記注視点を変位させる現在位置中心制御モードとを切り替えるステップと
    をさらに実行させるプログラム。
  18. 3次元の仮想空間内に設定された注視点を所定の仮想視点から眺めた場合の視点画像を生成する画像生成部と、
    操作者の動きを検出する検出部と、
    前記検出された操作者の動きをもとに、前記設定された注視点を基準として前記仮想視点を変位させる視点変位部と
    前記仮想視点を基準として前記注視点を変位させる注視点変位部と、
    前記視点変位部が動作する注視点中心制御モードと、前記注視点変位部が動作する現在位置中心制御モードとを切り替える切替部と
    を具備する情報処理装置。
JP2011165129A 2011-07-28 2011-07-28 情報処理装置、情報処理方法、及びプログラム Active JP5839220B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011165129A JP5839220B2 (ja) 2011-07-28 2011-07-28 情報処理装置、情報処理方法、及びプログラム
US13/552,963 US9342925B2 (en) 2011-07-28 2012-07-19 Information processing apparatus, information processing method, and program
CN201210254460.8A CN103150009B (zh) 2011-07-28 2012-07-20 信息处理装置和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011165129A JP5839220B2 (ja) 2011-07-28 2011-07-28 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2013029958A JP2013029958A (ja) 2013-02-07
JP2013029958A5 JP2013029958A5 (ja) 2014-08-21
JP5839220B2 true JP5839220B2 (ja) 2016-01-06

Family

ID=47596842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011165129A Active JP5839220B2 (ja) 2011-07-28 2011-07-28 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US9342925B2 (ja)
JP (1) JP5839220B2 (ja)
CN (1) CN103150009B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635311B2 (en) * 2013-09-24 2017-04-25 Sharp Kabushiki Kaisha Image display apparatus and image processing device
US10099134B1 (en) * 2014-12-16 2018-10-16 Kabam, Inc. System and method to better engage passive users of a virtual space by providing panoramic point of views in real time
JP6411244B2 (ja) * 2015-03-05 2018-10-24 日本電信電話株式会社 映像提示方法及び映像提示装置
JP5961892B1 (ja) * 2015-04-03 2016-08-03 株式会社ハコスコ 表示端末ならびに情報記録媒体
KR101807513B1 (ko) * 2015-05-13 2017-12-12 한국전자통신연구원 3차원 공간에서 영상정보를 이용한 사용자 의도 분석장치 및 분석방법
JP6250592B2 (ja) 2015-06-02 2017-12-20 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム
JP6753405B2 (ja) * 2015-09-14 2020-09-09 ソニー株式会社 情報処理装置及び情報処理方法
US10761596B2 (en) 2015-10-15 2020-09-01 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and program
JP2017041229A (ja) * 2016-06-08 2017-02-23 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
US11182950B2 (en) * 2017-05-23 2021-11-23 Sony Corporation Information processing device and information processing method
CN110892455A (zh) * 2017-07-14 2020-03-17 索尼公司 图像处理装置、用于图像处理装置的图像处理方法和程序
US10567649B2 (en) * 2017-07-31 2020-02-18 Facebook, Inc. Parallax viewer system for 3D content
JP7193938B2 (ja) * 2018-07-04 2022-12-21 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP7207913B2 (ja) * 2018-09-07 2023-01-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6713591B1 (ja) * 2019-04-17 2020-06-24 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP7335335B2 (ja) * 2019-06-28 2023-08-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7287172B2 (ja) * 2019-08-06 2023-06-06 凸版印刷株式会社 表示制御装置、表示制御方法、及びプログラム
CN112596840A (zh) * 2020-12-24 2021-04-02 北京城市网邻信息技术有限公司 一种信息处理方法及装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521187B2 (ja) 1996-10-18 2004-04-19 株式会社東芝 固体撮像装置
US6226008B1 (en) * 1997-09-04 2001-05-01 Kabushiki Kaisha Sega Enterprises Image processing device
JPH11235466A (ja) 1997-12-18 1999-08-31 Sega Enterp Ltd コンピュータゲーム装置
JP3602360B2 (ja) 1999-02-23 2004-12-15 三菱電機株式会社 3次元景観表示装置及び表示方法
EP1363246A4 (en) * 2001-02-23 2006-11-08 Fujitsu Ltd "DISPLAY CONTROL DEVICE, INFORMATION EQUIPMENT EQUIPPED WITH THE DISPLAY CONTROL DEVICE AND VIEWPOINT POSITION CONTROL DEVICE"
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
JP4673570B2 (ja) * 2004-03-31 2011-04-20 株式会社セガ 画像生成装置、画像表示方法及びプログラム
JP4242318B2 (ja) 2004-04-26 2009-03-25 任天堂株式会社 3次元画像生成装置および3次元画像生成プログラム
EP1977374A4 (en) * 2005-11-30 2012-09-05 Seeing Machines Pty Ltd VISUAL TRACKING OF GLASSES IN VISUAL HEAD AND EYE TRACKING SYSTEMS
EP2305358B1 (en) 2008-06-30 2019-01-02 Sony Interactive Entertainment Inc. Portable type game device and method for controlling portable type game device
JP2010122879A (ja) 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab 端末装置、表示制御方法および表示制御プログラム
US8564502B2 (en) 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
JP5182202B2 (ja) * 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8704879B1 (en) * 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display

Also Published As

Publication number Publication date
CN103150009B (zh) 2017-03-01
US9342925B2 (en) 2016-05-17
CN103150009A (zh) 2013-06-12
US20130027393A1 (en) 2013-01-31
JP2013029958A (ja) 2013-02-07

Similar Documents

Publication Publication Date Title
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6702489B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
CN108780360B (zh) 虚拟现实导航
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
CN108469899B (zh) 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
US8350896B2 (en) Terminal apparatus, display control method, and display control program
JP4533087B2 (ja) 画像処理方法、画像処理装置
KR101340797B1 (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
CN116719413A (zh) 用于操纵环境中的对象的方法
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP2022535316A (ja) スライドメニューを有する人工現実システム
US9544556B2 (en) Projection control apparatus and projection control method
JP6110893B2 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP5509227B2 (ja) 移動制御装置、移動制御装置の制御方法、及びプログラム
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP2013016060A (ja) 操作入力装置および操作判定方法並びにプログラム
US20130234937A1 (en) Three-dimensional position specification method
CN111161396B (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP2024025272A (ja) 情報処理装置、情報処理方法、プログラム
TW201925989A (zh) 互動系統
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2023181549A1 (ja) 制御装置、制御方法、プログラム
WO2022127479A1 (en) Methods and systems for selection of objects

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151028

R150 Certificate of patent or registration of utility model

Ref document number: 5839220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250