JP2009278456A - Video display device - Google Patents
Video display device Download PDFInfo
- Publication number
- JP2009278456A JP2009278456A JP2008128578A JP2008128578A JP2009278456A JP 2009278456 A JP2009278456 A JP 2009278456A JP 2008128578 A JP2008128578 A JP 2008128578A JP 2008128578 A JP2008128578 A JP 2008128578A JP 2009278456 A JP2009278456 A JP 2009278456A
- Authority
- JP
- Japan
- Prior art keywords
- stereoscopic
- unit
- display unit
- display
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、立体映像を表示する映像表示装置に関する。 The present invention relates to a video display device that displays a stereoscopic video.
立体映像を表示可能な映像表示装置として、特許文献1に記載の技術がある。特許文献1に記載の技術は、インテグラルフォトグラフィの原理に基づき、特殊な眼鏡や訓練を必要とせずに、ユーザが立体像を知覚できるようにしたものである。 As a video display device capable of displaying a stereoscopic video, there is a technique described in Patent Document 1. The technique described in Patent Document 1 is based on the principle of integral photography, and allows a user to perceive a stereoscopic image without requiring special glasses or training.
また、2次元表示のテーブル型ディスプレイとして、特許文献2〜4に記載の技術がある。特許文献2に記載の技術は、ユーザ位置の検出手段を備え、検出されたユーザ位置に基づいて映像表示面に表示される画像の向きを制御し、また、複数ユーザが個別にウィンドウを開き、データ入力等の操作ができるものである。特許文献3に記載の技術は、映像表示面上にペンで書き込まれた会議内容等の情報を該映像表示面に表示している画像情報と合わせて撮影し、パーソナルコンピュータ等に記憶するものであり、特許文献4に記載の技術は、表示部をタッチパネル仕様にしたものである。
Moreover, there exists a technique of patent documents 2-4 as a table-type display of a two-dimensional display. The technology described in Patent Document 2 includes a user position detection unit, controls the orientation of an image displayed on the video display surface based on the detected user position, and a plurality of users individually open a window, Data input and other operations can be performed. The technique described in
特許文献1に記載の技術では、表示されている立体像の形状を直感的に把握することが難しかった。左右の目の間の距離または視力などの身体的要素や、空間認識能力の大小といった要素による個人差はあるものの、形状の凹凸やテクスチャ等、両眼視差を知覚するための助けとなる特徴が十分に存在しない場合には特に顕著である。同様の課題は、広く一般の立体映像表示装置について存在する。 With the technique described in Patent Document 1, it is difficult to intuitively grasp the shape of the displayed stereoscopic image. Features that help to perceive binocular parallax, such as shape irregularities and textures, although there are individual differences due to physical factors such as distance between left and right eyes or visual acuity, and factors such as spatial recognition ability This is particularly noticeable when there is not enough. Similar problems exist for general stereoscopic video display devices.
本発明の目的は、ユーザが物体形状をより直感的に把握し易くなるような映像表示装置を提供することにある。 An object of the present invention is to provide a video display device that makes it easier for a user to grasp an object shape more intuitively.
前記課題を解決するため、本発明の映像表示装置では、立体映像を表示する立体表示部と2次元映像を表示する2次元表示部とを備え、前記2次元表示部に、前記立体表示部で表示している立体像に関する情報を表示するようにした。 In order to solve the above-described problem, the video display device of the present invention includes a stereoscopic display unit that displays a stereoscopic image and a two-dimensional display unit that displays a two-dimensional image, and the stereoscopic display unit includes the stereoscopic display unit. Information about the displayed stereoscopic image is displayed.
本発明によれば、物体形状の把握に役立つより多くの情報を分かり易くユーザに提示することで、従来技術に比べ、ユーザが前記物体の形状をより直感的に把握し易くなる。 According to the present invention, more information useful for grasping the shape of an object is presented to the user in an easy-to-understand manner, thereby making it easier for the user to grasp the shape of the object more intuitively than in the related art.
以下、本発明の実施例について詳細に説明する。 Examples of the present invention will be described in detail below.
以下、図1乃至図12を用いて、本発明の第一の実施例について説明する。本実施例は、例えば、立体電子図鑑や立体データの編集を行うための携帯電子機器に適用するに好適な例である。 The first embodiment of the present invention will be described below with reference to FIGS. The present embodiment is an example suitable for application to, for example, a portable electronic device for editing a three-dimensional electronic pictorial book or three-dimensional data.
図1は本実施例の映像表示装置100の外観図であり、映像表示装置100を手にしたユーザの、左手側に立体表示部101が、右手側に2次元表示入力部102が、それぞれ配置されることを想定した場合の図である。
FIG. 1 is an external view of a
立体表示部101は、所与の立体形状情報に基づく所望の立体像、あるいは所望の立体像に近い立体像が、複数の視点位置から観賞できるものであり、例えば、蝿の目状のマイクロレンズアレイを備えた、インテグラルフォトグラフィ方式(あるいは「インテグラルイメージング方式」とも呼ばれる)の裸眼立体視ディスプレイである。尚、立体表示部101の具体的な実施形態はこれに限るものではなく、例えば、レンチキュラーレンズを備えたインテグラルフォトグラフィ方式の裸眼立体視ディスプレイであってもよいし、ホログラフィックディスプレイを始めとするインテグラルフォトグラフィ方式以外の光線再生方式のディスプレイであってもよいし、視差バリア方式等、光線再生方式とは異なる原理による裸眼立体視ディスプレイであってもよい。
The three-
2次元表示入力部102は、2次元画面上での情報表示及び2次元画面上での情報入力を行うものであり、2次元表示部102aとコマンド入力部102bで構成される。2次元表示入力部102の具体的な例は、例えば、タッチパネルディスプレイである。
The two-dimensional
2次元表示部102aには立体表示部101で表示している立体像に関する情報が表示されるように構成し、コマンド入力部102bからは、例えばペン型のインタフェースにより、2次元表示部102aの画面上の位置の指定が行えるように構成する。このような構成とすることにより、2次元画面上での線画の描画や、2次元画面上に表示されているスライドバー上のスライダーの移動、2次元画面上に表示されているボタンの押下、等の入力を行うことができる。
The two-
撮影部103aと距離画像取得部103bは、映像表示装置100を使用するユーザの視点位置を推定するための情報を取得する視点情報取得部103を構成するものであり、ユーザの視点位置の存在範囲として設計時に想定した空間領域内の情報が取得できるような位置と姿勢で設置する。尚、前記空間領域は、映像表示装置100に対する相対的な空間領域として定義されるものである。撮影部103aの具体的な例は、例えばデジタルカメラであり、距離画像取得部103bの具体的な例は、例えばTOF(time of flight)型距離画像センサである。
The
映像表示装置100は、撮影部103a及び距離画像取得部103bが接続されている図示しない第一のセンサ接続部104aのほか、第二のセンサ接続部104bを備える。第一のセンサ設置部104aと第二のセンサ設置部104bとは、立体表示部101及び2次元表示入力部102を挟んで対面に位置するようにされており、撮影部103a及び距離画像取得部103bを対にして、第一のセンサ接続部104aと第二のセンサ接続部104bのいずれにも接続できるような構成とされている。尚、撮影部103aと距離画像取得部103bの対が、第一のセンサ接続部104aと第二のセンサ接続部104bのどちらに接続しているかという情報は、公知の技術を使って自動で検出できるように構成し、検出した結果は、逐次、後述の記憶部202にセンサ接続情報304として格納するように構成する。
The
尚、映像表示装置100の外観には、図示しない電源スイッチも備える。
Note that the external appearance of the
図2は本実施例の映像表示装置100の構成図である。本実施例の映像表示装置100は、演算処理部201、記憶部202、傾き検出部203、立体表示部101、2次元表示部102a、コマンド入力部102b、及び、視点情報取得部103で構成される。
FIG. 2 is a configuration diagram of the
演算処理部201は、記憶部202に記憶されたプログラム及びデータを使用して、適宜記憶部202を使用しながらコマンド入力部102bから入力されたコマンドに対する処理を行うものであり、例えば、CPUである。
The
記憶部202は、後述(図3)のプログラム及びデータのほか、演算処理部201が為す処理の途中で一時的に生成される中間データを格納するものであり、例えば、RAMとハードディスクの組や、フラッシュメモリである。
The
傾き検出部203は、立体表示部101の傾きを検出するものであり、例えば3軸加速度センサである。傾き検出部203は、立体表示部101の局所座標系のx軸と傾き検出部203のx軸、立体表示部101の局所座標系のy軸と傾き検出部203のy軸、立体表示部101の局所座標系のz軸と傾き検出部203のz軸、とが互いに同じ向きとなるように設置される。傾き検出部203の検出する傾きの情報は、具体的には、x軸が水平面と成す角度αと、y軸が水平面と成す角度βと、z軸が鉛直軸と成す角度γと、で構成され、後述の傾き情報310として記憶部202に、逐次、格納される。尚、本実施例では、αとβの符号は水平面より上向きを正とし、鉛直軸の方向は鉛直上向きを正とする。また、例示した3軸加速度センサによって得られる各軸の重力加速度検出値から、傾き情報(α,β,γ)を算出する方法は、公知である。
The
図3は本実施例の記憶部202に格納するプログラム及びデータを表す図である。尚、演算処理部201が為す処理の途中で一時的に生成される中間データについては、図3における記載を省略した。また、図4は本実施例の局所座標系の取り方を表す図である。
FIG. 3 is a diagram illustrating programs and data stored in the
映像表示プログラム300は、立体表示部101及び2次元表示部102aで表示する映像を、時々刻々変化し得る状態に基づいて生成し、立体表示部101及び2次元表示部102aで表示するための制御を行うプログラムである。映像表示プログラム300の処理の詳細は、後述(図6)する。
The
選択物体情報301は、コマンド入力部102bから入力されたコマンドに基づき設定される情報であり、物体情報315として格納されている複数の物体のうち、どの物体を立体表示部101及び2次元表示部102aで表示するかを示す情報である。
The
表示種別情報302は、コマンド入力部102bから入力されたコマンドに基づき設定される情報である。2次元表示部102aで表示する情報の内容を規定する情報であり、取り得る値は「付加情報」「正面図」「平面図」「側面図」「透視投影図」のうちの1つである。
The
ここで「正面図」とは、立体表示部101で表示している立体像を視点位置基準の局所座標系(後述)のyz平面に正射影した画像のことであり、「平面図」とは、立体表示部101で表示している立体像を視点位置基準の局所座標系(後述)のxy平面に正射影した画像のことであり、「側面図」とは、立体表示部101で表示している立体像を視点位置基準の局所座標系(後述)のxz平面に正射影した画像のことである。また、「透視投影図」とは、立体表示部101で表示している立体像を、表示用視点情報307で示される視点位置と表示用パラメタ309とに基づく透視投影によって写像した画像のことである。各々の画像の具体的な生成方法については後述(図10)する。
Here, the “front view” is an image obtained by orthogonally projecting the stereoscopic image displayed on the
表示倍率情報303は、2次元表示部102aで表示する画像の2次元的な拡大縮小を行うための情報であり、拡大率を表す非負のスカラー値である。
The
センサ接続情報304は、撮影部103aと距離画像取得部103bの対が、現在、第一のセンサ接続部104aと第二のセンサ接続部104bのどちらに接続されているかを示す情報である。
The
視点追従モード情報305は、コマンド入力部102bから入力されたコマンドに基づき設定される情報である。2次元表示部102aで表示する情報を生成するための視点位置としてどのような視点位置を使用するかを規定する情報であり、取り得る値は、現在のユーザの視点位置を使用する「常時追従」、コマンド入力部102bから所定のコマンドが入力された時点におけるユーザの視点位置を使用する「スポット追従」、映像表示装置100の設計値として予め与えられている視点位置を使用する「視点固定」のうちの1つである。
The viewpoint tracking
基準面選択情報306は、コマンド入力部102bから入力されたコマンドに基づき設定される情報である。立体表示部101で表示する立体像を生成するための基準面を規定する情報であり、取り得る値は、立体像として表示される物体の局所座標系のz軸方向を立体表示部101の局所座標系(後述)のz軸方向に一致させる「立体表示面」と、立体像として表示される物体の局所座標系のz軸方向を鉛直軸の方向に一致させる「水平面」のうちの、いずれか1つである。
The reference
表示用視点情報307は、2次元表示部102aに表示する映像を生成する際に使用される視点位置の情報である。表示用視点情報307の座標値は、立体表示部101の局所座標系(後述)を基準とする。表示用視点情報307としては、後述(図11)の視点位置推定処理で推定された視点位置か、標準視点情報308に規定された視点位置の、いずれかが格納される。
The
標準視点情報308は、ユーザの視点位置を追従しない場合に使用される視点位置の情報であり、平均的なユーザを想定し、映像表示装置100の設計値として予め与えておくものである。標準視点情報308の座標値は、立体表示部101の局所座標系(後述)を基準として設計されたものを格納しておく。
The
画像生成用パラメタ309は、公知の技術を用いて、立体表示部101で表示する立体映像、及び、2次元表示部102aで表示する映像を生成するためのパラメタの集合であり、立体表示部101の各画素及び2次元表示部102aの各画素に対して該画素が担当する光線を規定するための情報である。立体表示部101に関しては、例えば、視野角、レンズ配置、画素配置、等の情報であり、2次元表示部102aに関しては、例えば、立体表示部101の局所座標系と2次元表示入力部102の局所座標系との間のスケール変換ファクタ(即ち後述の「k」の値)であるが、これらに限るものではない。
The
立体表示部101の局所座標系は、図4の401に示すようなxyz座標系として定める。即ち、矩形状の映像表示領域の中心を原点とし、映像表示面上にx軸とy軸をy軸が矩形の底辺と平行になるように配し、y軸の正の向きが2次元表示入力部102を配した側、z軸の正の向きが立体表示部101の映像表示面を観賞できる側、となるような、3次元かつ右手系の直交座標系として定める。
The local coordinate system of the
また、2次元表示入力部102の局所座標系は、図4の402に示すようなxy座標系として定める。即ち、矩形状の映像表示領域の中心を原点とし、映像表示面上にx軸とy軸をx軸が矩形の底辺と平行になるように配し、x軸の負の向きが立体表示部101を配した側、y軸の正の向きが矩形の中央から底辺へと向かう向き、となるような、2次元の直交座標系として定める。
The local coordinate system of the two-dimensional
記憶部202に格納されている傾き情報310は、傾き検出部203の検出した立体表示部101の傾き情報(α,β,γ)であり、傾き検出部203により逐次更新される。
The
座標反転情報311は、2次元表示入力部102における表示と入力とを、前述の2次元表示入力部102の局所座標系を基準として行うか、前述の2次元表示入力部102の局所座標系を該座標系の原点を中心として180度回転させた座標系(以下では「反転座標系」と呼ぶ)を基準として行うか、を規定する情報であり、取り得る値は、局所座標系を基準とする「座標反転無し」と反転座標系を基準とする「座標反転有り」のうちのいずれか1つである。
The coordinate
立体表示部101で立体像として表示される物体の局所座標系は、立体表示部101の局所座標系と同様に、3次元かつ右手系の直交座標系として構成し、物体の局所座標系のz軸方向が立体表示部101の局所座標系におけるz軸方向と一致するように構成する。立体像回転情報312は、物体を立体像として表示する際に、物体を、物体の局所座標系のz軸の周りに、どれだけの角度だけ回転させて表示するかを規定する情報である。Nを整数値としたときに、(D+360×N)度の回転は(D)度の回転と同一の作用を表すことになるため、立体像回転情報312としては、前記「N」の値を調整して0度以上360度未満の数値となるようにした(このような調整を以下では「標準化」と呼ぶ)後に、値を格納するよう構成する。尚、反時計回りの方向を正の値とする。
Similar to the local coordinate system of the
視点位置基準基底ベクトル情報313は、表示用視点情報307に依存して変化する局所座標系の直交基底を成す基底ベクトルの情報である。数式を使用して説明すると、次のようになる。まず、z軸の方向を
The viewpoint position reference
で定める。ここで、vは表示用視点情報307で規定される3次元の視点位置を表すベクトルであり、oは注視点の3次元位置を表すベクトルである。直感的な意味としては、視点位置とは所謂目の位置であり、注視点とは目が見ようとしている位置である。注視点の位置は、実際に計測するのではなく、所与の値を使用する。表示する物体ごとに異なる値を設定しておくようにしてもよいし、例えば、立体表示部101の局所座標系の座標原点に固定するようにしてもよい。z軸は、即ち、表示用視点位置から注視点位置へと向かう軸である。尚、ezはz軸方向の方向ベクトルである。
Determined by Here, v is a vector representing the three-dimensional viewpoint position defined by the
次に、x軸とy軸の方向を Next, the direction of the x-axis and y-axis
または Or
で定める。z軸の方向が立体表示部101の局所座標系のz軸の方向に平行でない場合には[数2]を用い、平行である場合には[数3]を用いる。即ち、通常の場合には[数2]を用いて、x軸を「z軸と立体表示部101の局所座標系のz軸とで張られる平面に垂直な方向の軸」、y軸を「前記平面内でz軸と直交する軸」として定めるが、z軸の方向が立体表示部101の局所座標系のz軸の方向に平行となる場合には、前記平面を定めることができないため、例外として、表示用視点情報307の変更前後で前記平面が不変となるように、[数3]を用いてx軸とy軸とを定める。尚、exとeyは、それぞれx軸方向とy軸方向の方向ベクトルである。各方向ベクトルを上記のように定めることで、{ex,ey,ez}は3次元の正規直交基底を成す。
Determined by [Expression 2] is used when the z-axis direction is not parallel to the z-axis direction of the local coordinate system of the
次に、実際に2次元表示部102aで表示する画像を生成するために使用する基底ベクトル{Ex,Ey,Ez}を
Next, basis vectors {Ex, Ey, Ez} used to generate an image to be actually displayed on the two-
で生成する。即ち、正規直交基底{ex,ey,ez}に対し、立体表示部101の局所座標系と2次元表示入力部102の局所座標系との間のスケールの違いを吸収したものが、直交基底{Ex,Ey,Ez}である。スケール変換ファクタkは、スカラーの定数であり、あらかじめ設計値に基づいて計算し、画像生成用パラメタ309として格納しておく。
Generate with In other words, the orthogonal basis {ex, ey, ez} is obtained by absorbing the difference in scale between the local coordinate system of the
表示種別情報302が「透視投影図」の場合には、立体表示部101の局所座標系における3次元の位置ベクトルtの座標値と、2次元表示部102a上の座標値(x,y)との間の関係は、
When the
のようになる。ここでsは表示倍率情報303として記憶部202に格納されている拡大率である。(x,y,h)が未知数であるが、これは
become that way. Here, s is an enlargement ratio stored in the
のように算出する。尚、(x,y)が与えられた場合の[数5]の右辺の座標を、以下では「(x,y)に対応する立体空間位置」と呼ぶ。 Calculate as follows. The coordinates of the right side of [Equation 5] when (x, y) is given are hereinafter referred to as “a three-dimensional space position corresponding to (x, y)”.
一方、表示種別情報302が「正面図」「平面図」「側面図」のいずれかである場合には、立体表示部101の局所座標系における3次元の位置ベクトルtの座標値に
On the other hand, when the
のような座標変換を行って、射影方向を軸に平行とした上で、正射影の処理を行う。 After performing the coordinate transformation as described above and making the projection direction parallel to the axis, the orthographic projection process is performed.
以上[数1]乃至[数7]の説明における各ベクトルの表現は、立体表示部101の局所座標系を基準とした表現とする。視点位置基準基底ベクトル情報313としては、以上のように定められた{ex,ey,ez}及び{Ex,Ey,Ez}を格納しておく。
The expression of each vector in the description of [Equation 1] to [Equation 7] is an expression based on the local coordinate system of the
視点情報取得部の設計情報314は、撮影部103aが撮影した撮影画像データと距離画像取得部103bが取得した距離画像データの各々において、画像データ上の位置から該位置に投影される半直線を算出するための情報である。該半直線の表現は、立体表示部101の局所座標系を基準とする。撮影部103a、距離画像取得部103b、のいずれに対しても、半直線の始点位置となる投影中心の位置と、画素毎の方向ベクトルとを記憶しておけばよいが、例えば撮影部103aの場合であれば、投影中心の位置のほか、投影面の原点の座標と投影面を張る2本の基底ベクトルとを立体表示部101の局所座標系を基準とした表現で記憶しておき、各画素に対応する方向ベクトルをその都度計算によって求めるようにしてもよい。例えば、図5の場合であれば、ピンホールモデルで表される撮影部103aに対して、立体表示部101の局所座標系における、投影中心501の位置と、投影面502の原点の座標と、投影面502を張る2本の基底ベクトルと、を記憶しておくことにより、撮影画像データ上の位置、即ち2次元の位置から、該位置に対応する投影面上の位置503を求めることができ、さらに、投影中心501を始点として前記の位置503を通る半直線504の方向を表すベクトルとして、前記方向ベクトルを算出することができる。尚、方向ベクトルの算出に用いるパラメタを記憶しておけば十分である点については、距離画像取得部103bについても同様である。
The
物体情報315は、1つ以上の物体に関する、立体形状情報315a、付加情報315b、及び、表示用立体情報315c、の組で構成される。
The
立体形状情報315aは、物体の立体形状を定めるための情報であり、例えば、頂点と辺と面の情報を有するポリゴンモデルである。頂点の情報としては、モデルに含まれる頂点の数の情報と、各頂点の3次元座標を備えるように構成し、辺の情報としては、モデルに含まれる辺の数の情報と、各辺の両端の頂点を特定する情報を備えるように構成し、面の情報としては、モデルに含まれる面の数の情報と、各面を構成する頂点を特定する情報と、各面を構成する辺を特定する情報と、各面に貼るテクスチャの情報と、を備えるように構成する。尚、各面を構成する頂点を特定する情報に関しては、各面の外向き法線方向に基づき、反時計回りに順序良く格納するようにする。各頂点の3次元座標は、物体の局所座標系を基準とした値であり、立体表示部101で立体像として表示されるに好適な大きさの値を設定しておく。
The three-dimensional shape information 315a is information for determining the three-dimensional shape of the object, and is, for example, a polygon model having vertex, side, and surface information. Vertex information is configured to include information on the number of vertices included in the model and the three-dimensional coordinates of each vertex, and information on the sides includes information on the number of sides included in the model, It is configured to include information for identifying the vertices at both ends, and as surface information, information on the number of surfaces included in the model, information for identifying the vertices constituting each surface, and sides constituting each surface It comprises so that the information to identify and the information of the texture stuck on each surface may be provided. The information specifying the vertices constituting each surface is stored in order counterclockwise based on the outward normal direction of each surface. The three-dimensional coordinates of each vertex are values based on the local coordinate system of the object, and a value that is suitable for being displayed as a stereoscopic image on the
付加情報315bは、当該物体の名称やサムネイル画像、部位ごとの特徴に関する注釈や寸法などの情報であり、図面情報と文字情報とが混在し得る情報である。
The
表示用立体情報315cは、物体形状情報315aに対して基準面選択情報306と立体像回転情報312とを反映させた情報であり、立体形状情報315aに対して各頂点の3次元座標のみが異なる情報である。各頂点の3次元座標は、立体表示部101の局所座標系を基準として表す。
The display
図6は本実施例の映像表示処理のフロー図である。本実施例の映像表示処理は、映像表示装置100の電源が投入されたことを契機に開始され、映像表示装置100の電源が切断されるまで、演算処理部201によって実行され続ける処理である。
FIG. 6 is a flowchart of the video display process of this embodiment. The video display process according to the present embodiment is a process that is started when the power of the
映像表示処理が開始されると、まず、ステップS601において物体選択処理を行う。ステップS601の物体選択処理は、記憶部202に格納されている物体情報315の中から、立体表示部101及び2次元表示部102aで表示する物体を選択し、該物体の識別情報を、選択物体情報301として記憶部202に格納する処理である。具体的には、例えば、物体情報315の中に含まれている物体の名称やサムネイル画像の一覧を2次元表示部102aで表示することで、選択できる物体の一覧をユーザに提示し、コマンド入力部102bから入力されたユーザの選択結果を、選択物体情報301として格納すればよい。
When the video display process is started, first, an object selection process is performed in step S601. In the object selection processing in step S601, the object displayed on the
次に、ステップS602で表示更新処理を行う。ステップS602の表示更新処理は、立体表示部101に表示する映像、及び、2次元表示部102aに表示する映像を、記憶部202に格納されているデータに基づいて更新する処理である。ステップS602の表示更新処理の詳細は、後述(図10)する。
Next, display update processing is performed in step S602. The display update process in step S602 is a process of updating the video displayed on the
次に、ステップS603でコマンド入力の有無を判定する。ステップS603の処理で新規のコマンド入力「あり」と判定された場合には、ステップS604の処理へと進む。一方、新規のコマンド入力「なし」と判定された場合には、ステップS602の表示更新処理に戻って処理を続ける。 Next, in step S603, it is determined whether a command has been input. If it is determined in step S603 that the new command input is “present”, the process proceeds to step S604. On the other hand, if it is determined that the new command input is “none”, the process returns to the display update process in step S602 and continues.
ステップS604の処理は、入力されたコマンドが設定変更コマンドであったか否かを判定する処理である。入力されたコマンドが設定変更コマンドであった場合は、ステップS605へと進み、後述(図7)の設定変更処理を行った後、ステップS602の表示更新処理に戻って処理を続ける。一方、入力されたコマンドが設定変更コマンドでなかった場合にはステップS606の処理へと進む。尚、設定変更コマンドとは、より詳細には、立体像回転コマンド、表示種別変更コマンド、表示倍率変更コマンド、追従モード変更コマンド、あるいは、基準面変更コマンドである。 The processing in step S604 is processing for determining whether or not the input command is a setting change command. If the input command is a setting change command, the process proceeds to step S605, and after performing a setting change process described later (FIG. 7), the process returns to the display update process in step S602 and continues the process. On the other hand, if the input command is not a setting change command, the process proceeds to step S606. The setting change command is more specifically a stereoscopic image rotation command, a display type change command, a display magnification change command, a tracking mode change command, or a reference plane change command.
ステップS606の処理は、入力されたコマンドが形状変更コマンドであったか否かを判定する処理である。入力されたコマンドが形状変更コマンドであった場合は、ステップS607へと進み、後述(図8)の形状変更処理を行った後、ステップS602の表示更新処理に戻って処理を続ける。一方、入力されたコマンドが形状変更コマンドでなかった場合にはステップS608の処理へと進む。 The processing in step S606 is processing for determining whether or not the input command is a shape change command. If the input command is a shape change command, the process advances to step S607 to perform a shape change process described later (FIG. 8), and then returns to the display update process in step S602 to continue the process. On the other hand, if the input command is not a shape change command, the process proceeds to step S608.
ステップS608の処理は、入力されたコマンドが物体選択コマンドであったか否かを判定する処理である。入力されたコマンドが物体選択コマンドであった場合は、ステップS601の物体選択処理に戻って処理を続け、入力されたコマンドが物体選択コマンドでなかった場合にはステップS602の表示更新処理に戻って処理を続ける。 The process in step S608 is a process for determining whether or not the input command is an object selection command. If the input command is an object selection command, the process returns to the object selection process in step S601 to continue the process. If the input command is not an object selection command, the process returns to the display update process in step S602. Continue processing.
図7は本実施例の設定変更処理のフロー図である。 FIG. 7 is a flowchart of the setting change process of this embodiment.
設定変更処理が開始されると、まず、ステップS701において、入力された設定変更コマンドが、より詳細には立体像回転コマンドであったか否かを判定する。入力された設定変更コマンドが立体像回転コマンドであった場合は、ステップS706の立体像回転処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが立体像回転コマンドでなかった場合には、ステップS702の処理へと進む。 When the setting change process is started, first, in step S701, it is determined whether or not the input setting change command is a stereoscopic image rotation command in more detail. When the input setting change command is a stereoscopic image rotation command, the stereoscopic image rotation process in step S706 is performed, and then the setting change process is terminated. On the other hand, if the input setting change command is not a stereoscopic image rotation command, the process proceeds to step S702.
ステップS702の処理は、入力された設定変更コマンドが、より詳細には表示種別変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが表示種別変更コマンドであった場合には、ステップS707の表示種別変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが表示種別変更コマンドでなかった場合には、ステップS703の処理へと進む。 The process of step S702 is a process of determining whether or not the input setting change command is a display type change command in more detail. If the input setting change command is a display type change command, the display type change process in step S707 is performed, and then the setting change process ends. On the other hand, if the input setting change command is not a display type change command, the process proceeds to step S703.
ステップS703の処理は、入力された設定変更コマンドが、より詳細には表示倍率変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが表示倍率変更コマンドであった場合は、ステップS708の表示倍率変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが表示倍率変更コマンドでなかった場合には、ステップS704の処理へと進む。 The processing in step S703 is processing for determining whether or not the input setting change command is a display magnification change command in more detail. If the input setting change command is a display magnification change command, after performing the display magnification changing process in step S708, the setting changing process is terminated. On the other hand, if the input setting change command is not a display magnification change command, the process proceeds to step S704.
ステップS704の処理は、入力された設定変更コマンドが、より詳細には追従モード変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが追従モード変更コマンドであった場合には、ステップS709の追従モード変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが追従モード変更コマンドでなかった場合には、ステップS705の処理へと進む。 The process of step S704 is a process of determining whether or not the input setting change command is a follow-up mode change command in more detail. If the input setting change command is a follow-up mode change command, after performing the follow-up mode change process in step S709, the setting change process ends. On the other hand, if the input setting change command is not a follow-up mode change command, the process proceeds to step S705.
ステップS705の処理は、入力された設定変更コマンドが、より詳細には基準面変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが基準面変更コマンドであった場合は、ステップS710の基準面変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが基準面変更コマンドでなかった場合には、そのまま設定変更処理を終了する。 The process of step S705 is a process of determining whether or not the input setting change command is a reference plane change command in more detail. If the input setting change command is a reference plane change command, the reference plane change process in step S710 is performed, and then the setting change process is terminated. On the other hand, if the input setting change command is not a reference plane change command, the setting change process is terminated as it is.
ステップS706の立体像回転処理は、コマンド入力部102bから入力された情報に基づき、記憶部202に格納されている立体像回転情報312を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うようにスライドバーをポップアップ表示し、該スライドバー上のスライダーの位置をコマンド入力部102bから変更することで、回転量を入力する。回転量はスライドバーの中央を原点とし、スライダーがスライドバーの中央にある場合に「0度の回転」を表し、スライダーがスライドバーの中央から右に動くに従って反時計回りの回転量が線形に増加し、スライダーがスライドバーの右端に到達した段階で「反時計回りに360度の回転」を表すようにする。尚、スライダーがスライドバーの中央から左に動く場合は、回転の向きが時計回りとなることを表す以外は、スライダーが右に動く場合と同様である。立体像回転情報312の更新は、現在立体像回転情報312として格納されている値を参照し、反時計回りの場合には前記参照した値に入力された値(絶対値)を加え、時計回りの場合には前記参照した値から入力された値(絶対値)を減じて、立体像回転情報312として記憶部202に格納することで行う。尚、演算結果は標準化した後に記憶部202に格納するように構成する。演算結果を記憶部202に格納後、立体像回転処理を終了する。尚、回転量の入力後、ポップアップ表示は消去する。
The stereoscopic image rotation process in step S706 is a process of updating the stereoscopic
ステップS707の表示種別変更処理は、コマンド入力部102bから入力された情報に基づき、表示種別情報302を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように「付加情報」「正面図」「平面図」「側面図」「透視投影図」の五者択一の選択ボタンをポップアップ表示し、該選択ボタンのうちの一つを、コマンド入力部102bから選択することで、選択したい表示種別を入力する。選択したい表示種別の入力後、該入力された表示種別に従って表示種別情報302を更新し、表示種別変更処理を終了する。尚、表示種別の選択後、ポップアップ表示は消去する。
The display type change process in step S707 is a process of updating the
ステップS708の表示倍率変更処理は、コマンド入力部102bから入力された情報に基づき、表示倍率情報303または座標反転情報311を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように、スライドバーと、「右利き用」「左利き用」の二者択一の選択ボタンをポップアップ表示し、前記スライドバー上のスライダーの位置をコマンド入力部102bから変更することで表示倍率を入力し、または、前記選択ボタンのうちの一つをコマンド入力部102bから選択することで座標反転の有無を入力する。表示倍率に関しては、スライドバーの左端を原点とし、スライダーがスライドバーの左端にある場合に「0倍」を表し、スライダーがスライドバーの左端から右に動くに従って倍率が線形に高くなり、スライダーがスライドバーの右端に到達した段階で所定の最大倍率を表すように構成する。また、座標反転の有無に関しては、「右利き用」が選択された場合には「座標反転無し」、「左利き用」が選択された場合には「座標反転有り」がそれぞれ入力されたものとする。表示倍率が入力された場合には、表示倍率情報303の値を前記入力された表示倍率に設定し、表示倍率変更処理を終了する。また、座標反転の有無が入力された場合には、前記入力された座標反転の有無に従って座標反転情報311の値を更新し、表示倍率変更処理を終了する。尚、表示倍率の入力後、または、上下反転の有無の入力後、ポップアップ表示は消去する。
The display magnification change process in step S708 is a process of updating the
ステップS709の追従モード変更処理は、コマンド入力部102bから入力された情報に基づき、視点追従モード情報305を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように「常時追従」「スポット追従」「視点固定」の三者択一の選択ボタンをポップアップ表示し、該選択ボタンのうちの一つを、コマンド入力部102bから選択することで、選択したい視点追従モードを入力する。選択したい視点追従モードの入力後、該入力された視点追従モードに従って視点追従モード情報305を更新し、その後、表示用視点情報307を更新して、視点追従モード変更処理を終了する。表示用視点情報307の更新は、選択された視点追従モードが「常時追従」または「スポット追従」の場合には、後述(図11)の視点位置推定処理を実施することで行い、選択された視点追従モードが「視点固定」の場合には、標準視点情報308を表示用視点情報307に複製することで行う。尚、視点追従モードの選択後、ポップアップ表示は消去する。
The tracking mode change process in step S709 is a process of updating the viewpoint tracking
ステップS710の基準面変更処理は、コマンド入力部102bから入力された情報に基づき、基準面選択情報306を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように「立体表示面」「水平面」の二者択一の選択ボタンをポップアップ表示し、該選択ボタンのうちの一つをコマンド入力部102bから選択することで、選択したい基準面を入力する。選択したい基準面の入力後、該入力された基準面に従って基準面選択情報306を更新し、基準面変更処理を終了する。尚、基準面の選択後、ポップアップ表示は消去する。
The reference plane change process in step S710 is a process for updating the reference
尚、以上で説明したステップS706乃至S710におけるポップアップ表示、及び、コマンド入力部102bを用いた情報入力に関しては、記憶部202に格納されている座標反転情報311を参照し、2次元表示入力部102の局所座標系と反転座標系のうち適切な方を基準の座標系として、表示及び入力の処理を行うように構成する。
Note that the pop-up display in steps S706 to S710 described above and information input using the
図8は本実施例の形状変更処理のフロー図である。本実施例の形状変更処理は、2次元表示部102aで表示されている画像上で、移動させたい頂点をコマンド入力部102bで選択し、続いて、該頂点をどの位置に動かすかを、同じく2次元表示部102aで表示されている画像上で、コマンド入力部102bを用いて指定して、立体形状情報315aを変更する処理である。尚、立体像上の1点だけを移動する場合について説明するが、本発明の実施形態はこれに限るものではない。
FIG. 8 is a flowchart of the shape change process of this embodiment. In the shape change process of the present embodiment, on the image displayed on the two-
形状変更処理が開始されると、まず、ステップS801において、現在記憶部202に格納されている表示種別情報302の値が「付加情報」であるか否かを判定する。表示種別情報302の値が「付加情報」であった場合、形状変更処理を終了する。一方、表示種別情報302の値が「付加情報」でなかった場合、ステップS802の処理へと進む。
When the shape change process is started, first, in step S801, it is determined whether or not the value of the
ステップS802の処理は、現在記憶部202に格納されている表示種別情報302の値が「透視投影図」であるか否かを判定する処理である。表示種別情報302の値が「透視投影図」であった場合には、ステップS803の透視投影用着目点選択処理へと進み、表示種別情報302の値が「透視投影図」でなかった場合には、ステップS805の正射影用着目点選択処理へと進む。
The process of step S802 is a process of determining whether or not the value of the
ステップS803の透視投影用着目点選択処理は、コマンド入力部102bから為された、2次元表示部102aの映像表示領域上の位置(以下「選択位置」と呼ぶ)の入力に基づいて、移動させたい頂点を選択する処理である。このとき、「前記選択位置が、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点の、いずれかの位置に一致しているとは限らない」という前提の下、尤もらしい頂点の一つを選択するようにする。具体的には、表示用視点情報307と画像生成用パラメタ309と視点位置基準基底ベクトル情報313とを参照することにより、前記選択位置に対応する半直線が算出できるため、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点のすべてに対して前記半直線との距離を算出し、距離が最小の頂点を選択する。
The perspective projection point of interest selection processing in step S803 is moved based on the input of the position on the video display area of the two-
例えば、図9の場合であれば、まず、表示用の視点位置901と画像生成用パラメタ309及び視点位置基準基底ベクトル情報313とで定まる投影面902及び投影面902上で前記選択位置に対応する位置903から、前記選択位置に対応する半直線904を算出し、続いて現在2次元表示部102aで表示している物体(該物体の投影面902上における像を、像905に示す)の表示用立体情報(該表示用立体情報で表現される立体を、立体906に示す)を参照して、半直線904との距離が最小となる頂点907を選択すればよい。
For example, in the case of FIG. 9, first, the
尚、距離の算出は、表示用視点情報307を参照して得られた視点位置をv、半直線の方向ベクトルをd、距離を算出したい頂点の位置をpとした場合、pの位置から前記半直線に下ろした垂線のベクトルが
The distance is calculated by assuming that the viewpoint position obtained by referring to the
のように表されるため、この長さを求めればよい。このとき、内積の符号が負となる場合は、前記垂線の足が前記半直線上に乗っていないことを意味するため、選択対象から除外する。尚、vとdとpは3次元のベクトルであり、dは長さ1に正規化しておく。一方、各頂点が現在2次元表示部102a上に描画されているか否かの判定は、例えば、表示用視点情報307を参照して得られた視点位置に関するデプスバッファを生成し、該デプスバッファ上のデプス値と各頂点のデプス値とを比較することで実施すればよい。頂点を選択した後、ステップS804に進む。
Therefore, this length can be obtained. At this time, when the sign of the inner product is negative, it means that the perpendicular foot is not on the half line, and is excluded from the selection target. Note that v, d, and p are three-dimensional vectors, and d is normalized to a length of 1. On the other hand, whether or not each vertex is currently drawn on the two-
ステップS804の透視投影用変更先算出処理は、コマンド入力部102bから為された、2次元表示部102aの映像表示領域上の位置(以下「指定位置」と呼ぶ)の入力に基づいて、ステップS803で選択した頂点を移動させる位置を算出する処理である。具体的には、表示用視点情報307と画像生成用パラメタ309とを参照することにより、前記指定位置に対応する半直線が算出できるため、該半直線上で、ステップS803で選択した頂点の3次元位置に最も近い3次元位置を、移動先の3次元位置として算出する。より詳細には、表示用視点情報307を参照して得られた視点位置をv、半直線の方向ベクトルをd、ステップS803で選択した頂点の位置をpとした場合、
The perspective projection change destination calculation process in step S804 is based on the input of the position on the video display area of the two-
で表される位置を変更先の位置とする。尚、vとdとpは3次元のベクトルであり、dは長さ1に正規化しておく。変更先の位置を算出後、ステップS807の局所形状変更処理に進む。 The position represented by is the change destination position. Note that v, d, and p are three-dimensional vectors, and d is normalized to a length of 1. After calculating the change destination position, the process proceeds to the local shape changing process in step S807.
ステップS805の正射影用着目点選択処理は、投影方法が透視投影ではなく正射影である点を除いては、ステップS803の処理と同様である。「前記選択位置が、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点の、いずれかの位置に一致しているとは限らない」という前提の下で、尤もらしい頂点の一つを選択するために、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点のすべてに対して、2次元表示入力部102の局所座標系上で、前記選択位置との距離を算出し、距離が最小の頂点を選択する。各頂点が現在2次元表示部102a上に描画されているか否かの判定は、例えば、射影方向に関するデプスバッファを生成し、該デプスバッファ上のデプス値と各頂点のデプス値とを比較することで実施すればよい。頂点の選択後、ステップS806に進む。
The orthographic point-of-interest selection processing in step S805 is the same as the processing in step S803 except that the projection method is not orthogonal projection but orthographic projection. The premise that “the selected position does not necessarily coincide with any one of the vertices currently drawn on the two-
ステップS806の正射影用変更先算出処理は、投影方法が透視投影ではなく正射影である点を除いては、ステップS804の処理と同様である。投影方法が正射影の場合、選択された頂点を含み、射影方向に垂直な平面上に、指定された3次元位置を射影し、変更先の3次元位置とする。例えば、ステップS805で選択した頂点の位置をp、射影方向の方向ベクトルをd、コマンド入力部102bから入力された指定位置に対応する立体空間位置をvとした場合、
The orthographic change destination calculation process in step S806 is the same as the process in step S804 except that the projection method is not orthogonal projection but orthographic projection. When the projection method is orthographic projection, the designated three-dimensional position is projected onto a plane that includes the selected vertex and is perpendicular to the projection direction, and sets the changed three-dimensional position. For example, when the position of the vertex selected in step S805 is p, the direction vector of the projection direction is d, and the three-dimensional space position corresponding to the designated position input from the
で表される位置を変更先の位置とする。尚、vとdとpは3次元のベクトルであり、dは長さ1に正規化しておく。変更先の位置を算出後、ステップS807の局所形状変更処理に進む。 The position represented by is the change destination position. Note that v, d, and p are three-dimensional vectors, and d is normalized to a length of 1. After calculating the change destination position, the process proceeds to the local shape changing process in step S807.
ステップS807の局所形状変更処理は、ステップS803またはステップS805で選択された頂点と、ステップS804またはステップS806で算出された変更先の位置に基づいて、選択物体情報301で規定される物体に関する立体形状情報315aを変更する処理である。具体的には、表示用立体情報315cの選択した頂点に関する座標値を算出された変更先の位置に更新した後、立体形状情報315aから表示用立体情報315cを生成する変換(後述)の逆写像にあたる座標変換を用いて、表示用立体情報315cから立体形状情報315aを生成すればよい。より詳細には、基準面選択情報306の値が「立体表示面」である場合、変換前の座標値(X,Y,Z)から変換後の座標値(x,y,z)を
The local shape changing process of step S807 is a three-dimensional shape related to the object specified by the selected
によって算出する。ただし、[数11]は立体像回転情報312の値がθである場合の例である。一方、基準面選択情報306の値が「水平面」である場合には、変換前の座標値(X,Y,Z)から変換後の座標値(x,y,z)を
Calculated by However, [Equation 11] is an example when the value of the stereoscopic
によって算出する。ただし[数12]は立体像回転情報312の値がθであり、傾き情報310の値が(α,β,γ)である場合の例である。表示用立体情報315cのすべての頂点の座標値に関して変換後の座標値を算出した後、変換結果を立体形状情報315aとして格納し、ステップS807の局所形状変更処理を終了する。
Calculated by However, [Equation 12] is an example when the value of the stereoscopic
ステップS807の局所形状変更処理の終了後、形状変更処理を終了する。 After the local shape change process in step S807 ends, the shape change process ends.
図10は本実施例の表示更新処理のフロー図である。
表示更新処理が開始されると、まず、ステップS1001において、表示用立体情報生成処理を行う。ステップS1001の表示用立体情報生成処理は、選択物体情報301で規定される物体に関する立体形状情報315aから、基準面選択情報306、傾き情報310、及び、立体像回転情報312に基づいて、立体表示部101で実際に表示する立体像の情報である表示用立体情報315cを生成する処理である。具体的には、選択物体情報301で規定される物体に関する立体形状情報315aに含まれる各頂点の3次元座標に対して、回転行列による座標変換を行う。
FIG. 10 is a flowchart of the display update process of this embodiment.
When the display update process is started, first, display three-dimensional information generation processing is performed in step S1001. The display stereoscopic information generation processing in step S1001 is performed based on the reference
まず、基準面選択情報306の値が「立体表示面」である場合には、立体像回転情報312を反映させる処理を行う。具体的には、立体像回転情報312の値がθである場合、変換前の座標値(x,y,z)から変換後の座標値(X,Y,Z)を
First, when the value of the reference
によって算出する。算出後、変換結果を表示用立体情報315cとして格納し、表示用立体情報生成処理を終了する。
Calculated by After the calculation, the conversion result is stored as display
一方、基準面選択情報306の値が「水平面」である場合には、さらに、表示された立体像のz軸方向を鉛直方向に一致させるための座標変換を行う必要がある。例えば、立体表示部101の右手側が高くなるように傾いている場合であれば、そのまま表示すると物体の局所座標系のz軸が左手側に傾いてしまうため、立体表示部101の局所座標系において、選択された物体を右に傾けたものを表示用立体とする必要がある。従って、傾き情報310の値が(α,β,γ)である場合に、変換前の座標値(x,y,z)から変換後の座標値(X,Y,Z)を
On the other hand, when the value of the reference
によって算出する。算出後、変換結果を表示用立体情報315cとして格納し、表示用立体情報生成処理を終了する。
Calculated by After the calculation, the conversion result is stored as display
ステップS1002の立体映像生成表示処理は、立体表示部101で所望の立体像が観賞されるような画素値を決定する処理である。表示用立体情報315cと画像生成用パラメタ309とに基づいて、公知の技術を用いて実施すればよい。
The stereoscopic image generation / display process in step S1002 is a process of determining a pixel value such that a desired stereoscopic image can be viewed on the
ステップS1003の処理は、現在記憶部202に格納されている表示種別情報302の値が「付加情報」であるか否かを判定する処理である。表示種別情報302の値が「付加情報」であった場合は、ステップS1004の付加情報表示処理を行った後、表示更新処理を終了する。一方、表示種別情報302の値が「付加情報」でなかった場合は、ステップS1005の処理へと進む。
The process of step S1003 is a process of determining whether or not the value of the
ステップS1004の付加情報表示処理は、記憶部202に格納されている座標反転情報311を参照して基準とする座標系を決定し、該基準とする座標系に基づいて、付加情報315bのうち現在選択されている物体に対応する情報を、2次元表示部102aに表示する処理であり、容易に実施可能である。
In the additional information display process in step S1004, the coordinate system to be used as a reference is determined with reference to the coordinate
ステップS1005の処理は、記憶部202に格納されている視点追従モード情報305の値が「常時追従」であるか否かを判定する処理である。視点追従モード情報305の値が「常時追従」であった場合には、ステップS1006の視点位置推定処理を行った後、ステップS1007の2次元画像生成処理へと進む。一方、視点追従モード情報305の値が「常時追従」でなかった場合には、そのままステップS1007の2次元画像生成処理へと進む。
The process of step S1005 is a process of determining whether or not the value of the viewpoint tracking
ステップS1006の視点位置推定処理は、立体表示部101の局所座標系を基準とした現在のユーザの視点位置を推定し、表示用視点情報307を更新する処理である。ステップS1006の視点位置推定処理の詳細は、後述(図11)する。
The viewpoint position estimation process in step S <b> 1006 is a process for estimating the current user viewpoint position with reference to the local coordinate system of the
ステップS1007の2次元画像生成処理は、2次元表示部102aで所望の映像が得られるように各画素の画素値を決定する処理である。選択物体情報301で規定される物体に関して、表示種別情報302、表示倍率情報303、表示用視点情報307、画像生成用パラメタ309、及び、表示用立体情報315cに基づいて、公知の技術を用いて実施すればよい。正射影の場合、即ち表示種別情報302の値が「正面図」「平面図」「側面図」のいずれかである場合、投影される面に垂直な軸(それぞれ、z軸、y軸、x軸)の負の側から正の側へ向く方向に射影するものとするが、コマンド入力部102bを用いて該方向をどちらにするか選択するような構成としてもよい。
The two-dimensional image generation process in step S1007 is a process for determining the pixel value of each pixel so that a desired image can be obtained by the two-
ステップS1008の2次元画像表示処理は、ステップS1007で生成された2次元画像を、記憶部202に格納されている座標反転情報311を参照して基準とする座標系を決定し、該基準とする座標系に基づいて、2次元表示部102aで表示する処理である。
In the two-dimensional image display processing in step S1008, a coordinate system is determined by referring to the coordinate
ステップS1008の2次元画像表示処理の終了後、表示更新処理を終了する。
図11は、本実施例の視点位置推定処理のフロー図である。視点位置推定処理は、視点情報取得部103から取得した情報に基づき、ユーザの視点位置、または、ユーザの視点位置の近似値を推定する処理である。
After the two-dimensional image display process in step S1008, the display update process ends.
FIG. 11 is a flowchart of the viewpoint position estimation process of the present embodiment. The viewpoint position estimation process is a process of estimating the user's viewpoint position or an approximate value of the user's viewpoint position based on the information acquired from the viewpoint information acquisition unit 103.
視点位置推定処理が開始されると、まず、ステップS1101において、視点情報取得処理を行う。ステップS1101の視点情報取得処理は、妥当性チェック処理を行った後、撮影部103aで撮影画像データを取得し、かつ、距離画像取得部103bで距離画像データを取得する処理である。妥当性チェック処理は、センサ接続情報304と座標反転情報311とを参照し、「座標反転無し」の場合には撮影部103aと距離画像取得部103bの対が第一のセンサ接続部104aに接続されていることを、「座標反転有り」の場合には撮影部103aと距離画像取得部103bの対が第二のセンサ接続部104bに接続されていることを、それぞれ確認する処理である。「座標反転無し」の場合で撮影部103aと距離画像取得部103bの対が第一のセンサ接続部104aに接続されていない場合や、「座標反転有り」の場合で撮影部103aと距離画像取得部103bの対が第二のセンサ接続部104bに接続されていない場合には、撮影部103aと距離画像取得部103bの対を正しいセンサ接続部に接続する旨を2次元表示部102aに表示し、撮影部103aと距離画像取得部103bの対が正しいセンサ接続部に接続されたことがセンサ接続情報304から確認されるまで、センサ接続情報304の値を定期的に確認しながら待機する。
When the viewpoint position estimation processing is started, first, viewpoint information acquisition processing is performed in step S1101. The viewpoint information acquisition process of step S1101 is a process of acquiring the captured image data by the
次に、ステップS1102で、顔検出処理を行う。ステップS1102の顔検出処理は、ステップS1101で取得した撮影画像データ上において、公知の技術を用いて顔領域を検出する処理である。複数の領域が顔領域として検出された場合には、最も近くに存在する顔を検出したと予想される領域、即ち、最も画素数の多い領域1つのみを、所望の顔領域として検出する。 In step S1102, face detection processing is performed. The face detection process in step S1102 is a process for detecting a face area using a known technique on the captured image data acquired in step S1101. When a plurality of areas are detected as face areas, only the area where the nearest face is expected to be detected, that is, only one area having the largest number of pixels is detected as a desired face area.
次に、ステップS1103で、存在方向算出処理を行う。ステップS1103の存在方向算出処理は、ユーザの視点位置の近似値としてのユーザの顔の中心位置が存在し得る半直線を算出する処理である。具体的には、ステップS1102で検出された顔領域から重心位置を算出し、記憶部202に格納されている視点情報取得部の設計情報314を参照して対応する半直線を求めればよい。
Next, in step S1103, an existence direction calculation process is performed. The existence direction calculation process in step S1103 is a process of calculating a half line in which the center position of the user's face can exist as an approximate value of the user's viewpoint position. Specifically, the barycentric position may be calculated from the face area detected in step S1102, and the corresponding half line may be obtained by referring to the
次に、ステップS1104で交点算出処理を行う。ステップS1104の交点算出処理は、ステップS1101で取得した距離画像データで定義される曲面と、ステップS1103で算出した半直線との交点の3次元座標を算出する処理である。具体的には、次のような処理を行えばよい。距離画像データ上の各単位格子を対角線で二分割して生成される三角形メッシュに対して、各々の三角形ポリゴンの頂点を、該頂点に対応する距離データに基づいて、該頂点の位置に対応する半直線上で適切な位置に動かし、複数の三角形ポリゴンの集合として成る曲面を生成する。その後に、該生成された曲面を構成する各々の三角形ポリゴンとステップS1103で算出した半直線との交点を計算することで、目的の交点座標を算出する。前記半直線との交点を有する三角形ポリゴンが複数存在する場合には、撮影部103aの投影中心の位置から最も近い位置の交点の座標値を採用し、前記半直線との交点を有する三角形ポリゴンが存在しない場合には、標準視点情報308で規定される座標値を採用する。
Next, intersection calculation processing is performed in step S1104. The intersection calculation process of step S1104 is a process of calculating the three-dimensional coordinates of the intersection of the curved surface defined by the distance image data acquired in step S1101 and the half line calculated in step S1103. Specifically, the following processing may be performed. For a triangular mesh generated by dividing each unit cell on the distance image data into two diagonal lines, the vertices of each triangular polygon correspond to the positions of the vertices based on the distance data corresponding to the vertices. Move to an appropriate position on the half line to generate a curved surface as a set of multiple triangular polygons. After that, by calculating the intersection point between each triangular polygon constituting the generated curved surface and the half line calculated in step S1103, the target intersection coordinate is calculated. When there are a plurality of triangular polygons having an intersection with the half line, the coordinate value of the intersection closest to the projection center position of the photographing
算出した交点の座標値を表示用視点情報307として記憶部202に格納し、該表示用視点情報307を用いて視点位置基準基底ベクトル情報313を更新した後、ステップS1104の交点算出処理を終了する。
The calculated coordinate value of the intersection is stored in the
ステップS1103及びステップS1104の処理を直感的に説明すると、図12のようになる。即ち、まずステップS1103において、撮影部103aの投影中心の位置1201を始点とし、撮影画像データ上において検出された顔領域の重心位置に対応する、撮影部103aの投影面1202上の位置1203を通るような半直線1204を算出する。次に、ステップS1104において、位置1205を投影中心とする距離画像取得部103bによって取得された距離画像データに基づいて生成された、三角形ポリゴンの集合として成る曲面1206と、前記半直線1204との交点1207の座標値を算出して、表示用視点情報307として記憶部202に格納する。
The processing in steps S1103 and S1104 is intuitively described as shown in FIG. That is, first, in step S1103, the
尚、距離画像データから三角形ポリゴンの集合として成る曲面を生成する方法は、公知の技術を用いればよく、一方向のみの対角線を採用する方法や、面と面の成す角度を考慮して採用する対角線を決定する方法のほか、例えば、細分割(subdivision)と呼ばれる技術によって、より滑らかな曲面を生成するようにしてもよい。 Note that a known technique may be used as a method of generating a curved surface as a set of triangular polygons from distance image data, and a method of adopting a diagonal line in only one direction or an angle between surfaces is adopted. In addition to the method of determining the diagonal line, for example, a smoother curved surface may be generated by a technique called subdivision.
ステップS1104の交点算出処理の終了後、視点位置推定処理を終了する。
以上、本実施例によれば、立体表示部で表示している立体像に関する平面図や透視投影図等の画像情報、または、部位ごとの注釈や寸法等の付加情報を、適宜、2次元表示部で表示するように構成したため、ユーザが直感的に物体形状を把握することを支援することができる。さらに、前記画像情報に関しては、想定されるユーザの視点位置、または、計測に基づいて推定されたユーザの視点位置、を考慮した情報としたために、ユーザが直感的に物体形状を把握することを、より容易にしている。
After the intersection calculation process in step S1104 ends, the viewpoint position estimation process ends.
As described above, according to the present embodiment, image information such as a plan view and a perspective projection diagram regarding a stereoscopic image displayed on the stereoscopic display unit, or additional information such as annotations and dimensions for each part is appropriately displayed in two dimensions. Since it is configured to display on the screen, it is possible to assist the user to intuitively grasp the object shape. Furthermore, with respect to the image information, since the information is considered in consideration of an assumed user viewpoint position or a user viewpoint position estimated based on measurement, the user must intuitively grasp the object shape. Making it easier.
また、前記視点位置の推定を、撮影部で生成した撮影画像に基づく処理としたことで、ユーザの視点位置の存在し得る範囲が広範にわたる場合であってもユーザの視点位置を容易に推定できる。 In addition, since the viewpoint position is estimated based on the captured image generated by the photographing unit, the user's viewpoint position can be easily estimated even when the range of the user's viewpoint position can be wide. .
また、本実施例では、立体表示部で表示している立体像の形状に関する変更を、2次元表示部で表示している情報を変更することで実施しているため、例えばフォースフィードバック機能を備えたペン型インタフェースを用いて立体像に直接変更を加えるような装置に比べ、より容易に、よりユーザの変更意図に近い変更を立体像に施すことができる。 Further, in this embodiment, since the change related to the shape of the stereoscopic image displayed on the stereoscopic display unit is performed by changing the information displayed on the two-dimensional display unit, for example, a force feedback function is provided. Compared to an apparatus that directly changes a stereoscopic image using a pen-type interface, a change closer to the user's change intention can be made to the stereoscopic image more easily.
また、本実施例では、2次元表示部とコマンド入力部とを合わせてタッチパネルディスプレイとして構成したため、立体表示部で表示している立体像を所定の方法で写像した2次元画像との比較を視覚的に行いながら、コマンド入力部からコマンドを入力することができる。従って、例えば、物体形状の変更を伴わずに2次元入力表示部において画像を描画できるようなコマンドを備えた構成とすれば、立体表示部で表示した立体像をユーザが2次元表示部で直感的に模写することができ、本発明の映像表示装置をユーザの立体感覚の醸成に役立つ装置として提供することもできる。 In this embodiment, since the two-dimensional display unit and the command input unit are combined to form a touch panel display, a comparison with a two-dimensional image obtained by mapping a stereoscopic image displayed on the stereoscopic display unit by a predetermined method is visually recognized. The command can be input from the command input unit while performing the operation. Therefore, for example, if the configuration is provided with a command that can draw an image on the two-dimensional input display unit without changing the object shape, the user can intuitively view the three-dimensional image displayed on the three-dimensional display unit on the two-dimensional display unit. The video display device of the present invention can also be provided as a device useful for fostering a user's stereoscopic sense.
また、本実施例では、2次元映像を180度回転させて表示するか否かを設定できるように構成したため、ユーザが右利きの場合にも左利きの場合にも、立体像を遮ることなく2次元表示入力部でのコマンド入力操作ができる。即ち、本実施例の映像表示装置は、反転表示の有無を設定する反転表示設定部を備えており、反転表示有りと設定された場合に2次元表示部102aで表示される映像は、反転表示無しと設定された場合に2次元表示部102aで表示される映像を、所定の点(例えば2次元表示入力部102の局所座標系402の原点)に関して180度回転させたものであるように成されている。
Further, in this embodiment, since it is configured to be able to set whether or not the 2D image is rotated 180 degrees and displayed, the stereoscopic image is not obstructed even when the user is right-handed or left-handed. Command input operation can be performed in the dimension display input section. In other words, the video display device of the present embodiment includes a reverse display setting unit that sets whether or not to perform reverse display. When the reverse display is set, the video displayed on the two-
また、本実施例では、2次元表示部102aで透視投影図を表示する際、その生成に関して、所謂「焦点距離」に相当する値を、表示用視点情報307に基づいて変更されるような構成とした。これにより、ユーザの視点位置が立体表示部101に近い場合も立体表示部101から離れている場合も、2次元表示部102aで表示される立体像の透視投影図の大きさは概ね同じ大きさとなり、形状理解のための補助情報としては、より適した情報として、ユーザに提示することができる。これは即ち、ユーザの視点位置が立体表示部101に近い場合に透視投影によって2次元画像を生成する際の画角を、ユーザの視点位置が立体表示部101から離れている場合に透視投影によって2次元画像を生成する際の画角に比べ、広くしたことに相当する。尚、本発明の実施形態はこれに限るものではなく、焦点距離を固定値として、立体像までの遠近感をも含めた補助情報としてユーザに提示してもよいことは言うまでもない。そのような変更は、容易である。
Further, in the present embodiment, when the perspective projection diagram is displayed on the two-
また、本実施例では、基準面を水平面とする場合、傾き検出部が検出した映像表示装置の傾きに基づき、立体表示部で表示される立体像を、前記立体表示部の傾きに依らず上下方向が一定となるように表示したため、例えば、本発明を携帯電子機器に対して適用した際、歩行しながらの使用で映像表示装置が揺れる場合や、電車の中などで映像表示装置を傾けて使用せざるを得ない場合においても、ユーザに立体像を安定して提示することができるため、ユーザが直感的に物体形状を把握することを支援することができる。 Further, in this embodiment, when the reference plane is a horizontal plane, the stereoscopic image displayed on the stereoscopic display unit is moved up and down regardless of the inclination of the stereoscopic display unit based on the inclination of the video display device detected by the inclination detection unit. For example, when the present invention is applied to a portable electronic device, the video display device shakes when used while walking, or the video display device is tilted while on a train. Even when it must be used, since a stereoscopic image can be stably presented to the user, it is possible to assist the user to intuitively grasp the object shape.
尚、本実施例では、2次元表示部102aとコマンド入力部102bとを一体化させ、タッチパネルディスプレイとして構成したが、本発明の実施形態は、これに限るものではない。コマンド入力部102bは、2次元表示部102aの映像表示領域上でのコマンド入力が可能であるように構成されていればよく、2次元表示部102aとコマンド入力部102bとを一体化させてタッチパネルディスプレイとして構成する代わりに、例えば、光センサ内蔵システム液晶ディスプレイとして構成してもよいし、例えば、2次元表示部102aとコマンド入力部102bとを分離した構成とし、コマンド入力部102bとして、キーボードとマウスを使用するようにしてもよい。コマンド入力部102bとしてキーボードを使用した場合には、例えば、ステップS601の物体選択処理を文字入力によって実施する、すなわち、コマンド入力部102bから文字列として入力された名称に等しい名称の物体を選択して選択物体情報301として格納するような構成とすることもできるし、また、例えば、ステップS706の立体像回転処理における回転量を、コマンド入力部102bからの数値入力に基づいて設定するような構成とすることもできる。同様に、例えば、ステップS708の表示倍率変更処理における表示倍率を、コマンド入力部102bからの数値入力に基づいて設定するような構成とすることも可能である。また、コマンド入力部102bとして、別途ボタンやダイヤル等の情報入力機構を備えるようにしてもよい。例えば、「視点追従モードを『スポット追従』に設定し視点位置推定処理を実施する」ためのボタンを別途備えた構成としてもよいし、表示倍率を変更できるようなダイヤルを別途備えた構成としてもよい。
In the present embodiment, the two-
また、本実施例では、2次元表示部102aで表示される画像情報としてはテクスチャ付きのものを扱ったが、本発明の実施形態はこれに限るものではなく、例えば、「ワイヤフレーム表示」と「テクスチャ表示」の2種類の表示方法をコマンド入力部102bからの入力に従って切り替えられるような構成としてもよい。
Further, in this embodiment, the image information displayed on the two-
また、本実施例では、視点情報取得部103を撮影部103aと距離画像取得部103bとで構成し、視点位置推定処理において視点情報取得部103で取得した視点情報に基づいて視点位置を推定したが、本発明の実施形態はこれに限るものではない。例えば、円形魚眼レンズを備えた2つの撮影部を互いに異なる位置に設置し、それらを視点情報取得部として、顔認識とステレオ視の原理から視点位置を推定するような構成としてもよい。円形魚眼レンズを備えた撮影部を用いる場合には、該撮影部を立体表示部101の局所座標系におけるz座標が正の領域全体が撮影できるように設置することで、立体表示部101で表示した映像を観賞するユーザの視点位置の存在可能な範囲のほぼ全域に関して、画像情報を取得することができる。さらに、傾き検出部203が視点情報取得部103を兼ねるような構成としてもよい。例えば、傾き検出部203が検出した傾き(α,β,γ)が(0,0,0)の場合にユーザの視点位置が標準視点情報308で規定された空間位置に一致するとし、立体表示部101の局所座標系の原点の位置とユーザの視点位置との間の関係は変わらないとして、立体表示部101の局所座標系におけるユーザの視点位置の表現を、傾き検出部203が検出した立体表示部101の傾きの影響を考慮して計算すればよい。この計算は3次元の回転行列による座標変換であり、容易である。
In this embodiment, the viewpoint information acquisition unit 103 includes a photographing
また、視点情報取得部103として空間的に十分な範囲の情報が取得できるデバイスを使用する場合には、視点情報取得部103を、ユーザの視界を妨げないように、映像表示装置100の中央付近に設置するようにしてもよい。このような構成とすることにより、センサ接続部を複数備える必要がなくなり、装置構成を単純化することができる上、2次元表示部における映像の反転表示の有無に拘らず、視点情報取得部103の設置位置を移動する必要がなくなるという効果を奏する。
When a device capable of acquiring a spatially sufficient range of information is used as the viewpoint information acquisition unit 103, the viewpoint information acquisition unit 103 is located near the center of the
また、本実施例では、ユーザの視点位置の推定を、撮影部103aで撮影した画像から顔認識技術を用いて実施するような構成としたが、本発明の実施形態はこれに限るものではなく、種々の視点位置推定技術を使用することができる。例えば、ユーザに装着させる装着具として高再帰性光学反射マーカーを備えた装着具を備え、該装着具を装着したユーザの視点位置を、前記マーカー位置を取得することで推定するようにしてもよい。尚、高再帰性光学反射マーカーの位置を取得する技術は、例えばモーションキャプチャシステムで使用されている、公知の技術である。
In this embodiment, the user's viewpoint position is estimated using the face recognition technology from the image captured by the
また、本実施例では、物体情報315を記憶部202に格納しておく構成としたが、本発明の実施形態はこれに限るものではない。例えば、映像表示装置100の電源投入の度に外部のデータベースに接続するような構成としてもよいし、ネットワークインタフェースを備え、物体の名称をキーワードとしてインターネット上の情報を検索して取得するような構成としてもよい。また、コンパクトフラッシュカードやCD−ROM等の着脱可能な外部媒体との間で情報の授受が行えるようなインタフェースを映像表示装置100が備える構成とし、物体情報315を該着脱可能な媒体を用いて供給するようにしてもよい。いずれの場合も、表示用立体情報315cの書き込みが不可である場合には、表示用立体情報315cを記憶部202に格納するように構成すればよい。
In this embodiment, the
また、本実施例では、立体像の回転は、物体の局所座標系のz軸の周りの回転のみに限定し、また、回転量を直接入力するような構成としたが、本発明の実施形態はこれに限るものではない。例えば、物体の回転量を回転行列として記憶部202に格納し、回転方向と回転量とを入力して該回転行列を更新するような構成とすることで、物体を自由に回転して立体像として表示することができる。また、例えば、「右回転」と「左回転」のボタンを各々備えるような構成とし、単位回転量を設計値として与えておいて、前記ボタンの押下により各々のボタンに対応する方向に前記単位回転量の分だけ立体像を回転させるように、立体像回転情報312を更新する構成としてもよい。
In this embodiment, the rotation of the stereoscopic image is limited to the rotation around the z-axis of the local coordinate system of the object, and the rotation amount is directly input. Is not limited to this. For example, the rotation amount of the object is stored in the
また、本実施例では、立体表示部101に対する2次元表示部102aでの反転表示は図10の表示更新処理において実施したが、本発明の実施形態はこれに限るものではない。例えば、立体表示部101と2次元表示入力部102とを物理的に分離可能な構成とし、立体表示部101の右辺の側、2次元表示入力部102の左辺の側及び右辺の側に、それぞれ信号の授受ができる接続部を備えたような構成としてもよい。そのような構成とした場合、立体表示部101の右辺の側と2次元表示入力部102の左辺の側の接続部同士を接続した場合には反転表示無しの状態となり、立体表示部101の右辺の側と2次元表示入力部102の右辺の側の接続部同士を接続した場合には、2次元表示入力部102自体が相対的に180度回転しているため、表示更新処理における場合分けの必要なしに反転表示有りの状態とすることができる。
In the present embodiment, the reverse display on the two-
また、本実施例では、側面図や平面図の描画において、選択されている物体のみを描画していたが、これに加えて、表示用視点情報307として記憶部202に格納されている視点位置を描画するようにしてもよい。このようにすることにより、ユーザがより直感的に状況を把握することができる。
In the present embodiment, only the selected object is drawn in the drawing of the side view and the plan view. In addition, the viewpoint position stored in the
また、本実施例では、立体形状情報315aはポリゴンモデルであるとし、形状変更処理は選択された頂点1点だけの座標値を変更する場合について説明したが、本発明の実施形態はこれに限るものではない。例えば、物体の形状をNURBS曲面を用いてモデル化しておき、その制御点の位置を変更することで形状変更処理を行うようにしてもよい。また、例えば、各頂点の形状変更前後の変位に基づくエネルギー(変位が大きいほどエネルギーが高い)と隣接する頂点間の形状変形前後の距離の変化に基づくエネルギー(距離の変化が大きいほどエネルギーが高い)とに基づくエネルギー関数を定義しておき、該エネルギー関数の値を小さくするように複数の頂点の座標値を変更する構成としてもよい。 Further, in this embodiment, the three-dimensional shape information 315a is assumed to be a polygon model, and the shape changing process has been described for changing the coordinate value of only one selected vertex, but the embodiment of the present invention is limited to this. It is not a thing. For example, the shape of the object may be modeled using a NURBS curved surface, and the shape changing process may be performed by changing the position of the control point. In addition, for example, energy based on the displacement before and after the shape change of each vertex (the higher the displacement, the higher the energy) and energy based on the change in the distance between adjacent vertices before and after the shape deformation (the higher the distance, the higher the energy ) And the coordinate function of a plurality of vertices may be changed so as to reduce the value of the energy function.
また、本実施例では、2次元表示入力部102を用いて物体情報315に施す変更内容として、形状変形処理を行う例について説明したが、本発明の実施形態はこれに限るものではない。例えば、2次元表示入力部102を用いてテクスチャを描き直し、該テクスチャを用いて立体形状情報315aに含まれるテクスチャの内容を更新するような構成とすることで、立体表示部101で表示している立体像の「塗り絵」を実現することができる。このとき、テクスチャの内容の更新は、表示用視点情報307で規定される視点位置から「見えている」領域のみを対象とするが、この可視判定は、例えば、図8で説明したのと同様に、表示種別情報302の値に対応したデプスバッファを生成し、各面を成すポリゴンに対して、視点位置と該ポリゴンで規定される視体積に含まれる領域に対応するデプス値の最大値と、前記ポリゴンの頂点のデプス値の最小値とを比較して、前記最小値の方が小さくなるような面を候補として残し、その後に、候補として残っている複数の面同士の交差判定を行って、実際に見えている領域を算出すればよい。
In the present embodiment, the example in which the shape deformation process is performed as the content to be changed on the
以下、図13を用いて、本発明の第二の実施例について説明する。本実施例は、立体像の全体形状を把握するために、立体像の多くの部分を同時に観賞したい場合に好適な例である。尚、実施例1と同様な部分に関しては、同じ符号を付け、説明は省略した。 Hereinafter, a second embodiment of the present invention will be described with reference to FIG. This embodiment is a suitable example when it is desired to view many parts of a stereoscopic image at the same time in order to grasp the overall shape of the stereoscopic image. In addition, the same code | symbol was attached | subjected about the part similar to Example 1, and description was abbreviate | omitted.
図13は、本実施例の映像表示装置1300の外観図である。本実施例の映像表示装置1300は、実施例1の映像表示装置100に第二の立体表示部1301を加え、立体表示部1301に表示する立体像を、立体表示部101に表示する立体像に対して、反時計回りに90度、回転させるように構成したものである。具体的には、立体表示部1301に表示させる立体像の向きを、立体表示部101に表示する立体像を該立体像の表示用座標系のz軸の周りに反時計回りに90度回転させた向きに等しくなるように、表示する。
FIG. 13 is an external view of a
このような構成とすることで、例えば、立体表示部101において立体像の前面と左側面がユーザに観賞されている場合には、立体表示部1301において立体像の左側面と背面とがユーザに観賞されることになるため、形状を把握するためのより多くの手掛かりをユーザに同時に提示することができ、ユーザが立体像の形状をより直感的に把握することを支援できる。
With such a configuration, for example, when the front and left side of the stereoscopic image are viewed by the user in the
尚、例えば、処理の対象とする立体像を選択するための領域を、2次元表示部102aの映像表示領域の左下部分と右下部分に備え、実施例1の図8及び図10で説明した処理における2次元表示入力部102に関する処理に関して、前記左下部分の領域がコマンド入力部102bとしてのペン型インタフェースによってポイントされた場合には、立体表示部101に表示されている立体像に対して処理を行い、一方、前記右下部分の領域がペン型インタフェースによってポイントされた場合には、立体表示部1301に表示されている立体像に対して処理を行うような構成としてもよい。いずれの処理も、簡単な座標変換によって、実施例1の場合と同様に実施することができる。
Note that, for example, areas for selecting a stereoscopic image to be processed are provided in the lower left part and the lower right part of the video display area of the two-
結局、本実施例は、同一の物体に関する立体映像を表示する立体表示部を複数備え、立体表示部1301には、所定の視点位置において立体表示部101で表示している立体像とは異なった向きの立体像が鑑賞されるように成されている映像表示装置であり、それぞれの立体表示部に、他の立体表示部で表示している立体像とは異なる向きの立体像が表示される映像表示装置である。
In the end, the present embodiment includes a plurality of stereoscopic display units that display stereoscopic images related to the same object, and the
以下、図14を用いて本発明の第三の実施例について説明する。本実施例は、例えば、テーブル型映像表示装置を用いて複数のユーザが共同作業を行なうような場合に好適な例である。尚、実施例1乃至2と同様な部分に関しては、同じ符号を付け、説明は省略した。 Hereinafter, a third embodiment of the present invention will be described with reference to FIG. This embodiment is an example suitable for a case where a plurality of users collaborate using a table type video display device, for example. In addition, the same code | symbol was attached | subjected about the part similar to Example 1-2, and description was abbreviate | omitted.
図14は本実施例の映像表示装置1400の平面図である。本実施例の映像表示装置1400は、テーブル型の映像表示装置であり、4人のユーザ1441乃至1444が互いに同一の物体を観賞するために使用することを想定したものである。
FIG. 14 is a plan view of the
映像表示装置1400は、立体表示部1401乃至1404と、2次元表示入力部1411乃至1414と、視点位置取得部1421乃至1424と、回転角入力リング1431乃至1434と、を備えるように構成する。
The
立体表示部1401乃至1404の映像表示領域の形状は円形とし、その各々の周囲にユーザの視界を妨げないように回転角入力リング1431乃至1434を配置する。各々の回転角入力リング1431乃至1434は、時計回りと反時計回りの両方に回転させることが可能であり、該回転方向と回転量とを検出し、立体像回転コマンドに対応する情報としてコマンド入力ができるように構成する。
The shapes of the video display areas of the
立体表示部1401乃至1404は、その映像表示面を同一水平面上に配し、立体表示部1401乃至1404の各々の局所座標系のz座標の方向を、前記水平面の法線方向、即ち鉛直方向上向きに一致するように定める。即ち、本実施例では、立体表示部101で表示する立体像を生成するための基準面は「立体表示面」でも「水平面」でも同一の面のことであり、実施例1で説明した基準面に関する処理は、省略する。
The
立体表示部1402で表示される立体像の向きは、立体表示部1401で表示される立体像を立体表示部1401の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、立体表示部1403で表示される立体像の向きは、立体表示部1402で表示される立体像を立体表示部1402の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、立体表示部1404で表示される立体像の向きは、立体表示部1403で表示される立体像を立体表示部1403の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、立体表示部1401で表示される立体像の向きは、立体表示部1404で表示される立体像を立体表示部1404の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、各々、表示する。
The direction of the stereoscopic image displayed on the
2次元表示入力部1411に表示される情報は、立体表示部1401に表示されている立体像または立体表示部1402に表示されている立体像と、視点位置取得部1421が取得したユーザ1441の視点位置とに基づいて生成されたものであり、2次元表示入力部1412に表示される情報は、立体表示部1402に表示されている立体像または立体表示部1403に表示されている立体像と、視点位置取得部1422が取得したユーザ1442の視点位置とに基づいて生成されたものであり、2次元表示入力部1413に表示される情報は、立体表示部1403に表示されている立体像または立体表示部1404に表示されている立体像と、視点位置取得部1423が取得したユーザ1443の視点位置とに基づいて生成されたものであり、2次元表示入力部1414に表示される情報は、立体表示部1404に表示されている立体像または立体表示部1401に表示されている立体像と、視点位置取得部1424が取得したユーザ1444の視点位置とに基づいて生成されたものである。
The information displayed on the two-dimensional
立体表示部1401乃至1404で表示する立体像については、複数のユーザが同時に観賞するものであるから、実施例1で説明した処理のうち、該立体像に関する処理については、排他制御を行うようにする。具体的な排他制御の方法としては、2次元表示入力部1411乃至1414及び回転角入力リング1431乃至1434からのコマンド入力のうち、同時に1つからのコマンド入力だけを受理して処理を行うようにする。より詳細には、物体選択処理S601、形状変更処理S607、及び、立体像回転処理S706について、コマンド入力の排他制御を行うようにする。
Since the stereoscopic images displayed on the
以上、本実施例によれば、1つの立体表示部を複数のユーザで共有することができるため、同一の立体像の形状把握のための手掛かりを、実施例2の場合に比べて効率よく複数のユーザに提示することができる。 As described above, according to the present embodiment, since one stereoscopic display unit can be shared by a plurality of users, a plurality of clues for grasping the shape of the same stereoscopic image can be efficiently obtained compared to the case of the second embodiment. Can be presented to other users.
また、テーブル型の映像表示装置において、立体表示部を複数備える構成とし、各々のユーザが自分の近くにある立体表示部を用いて立体像を観賞するようにしたため、立体表示部をテーブル中央付近に一つだけ備える構成とし、全てのユーザが該中央付近の立体表示部を用いて立体像を観賞するようにした場合に比べ、各々の立体表示部が担当する空間領域を狭く設計することができ、それに伴い、再生する光線の空間密度をより高くすることができるため、より形状把握のし易い立体像をユーザに提供することができる。 In addition, since the table-type video display device includes a plurality of stereoscopic display units, and each user views a stereoscopic image using a stereoscopic display unit near him, the stereoscopic display unit is located near the center of the table. Compared to the case where all users use a stereoscopic display unit near the center to view a stereoscopic image, the spatial area that each stereoscopic display unit is responsible for can be designed to be narrow. As a result, the spatial density of the light rays to be reproduced can be increased, so that a stereoscopic image that is easier to grasp the shape can be provided to the user.
また、立体表示部の映像表示領域の形状を円形とし、立体像の回転に関するコマンド入力を回転入力リングからも実施可能であるような構成としたため、ユーザがより直感的で簡便な方法により立体像を回転させることができ、ユーザが立体像の形状を把握することに集中することを支援できる。 In addition, since the shape of the video display area of the stereoscopic display unit is circular, and the command input regarding the rotation of the stereoscopic image can be performed from the rotation input ring, the stereoscopic image can be obtained by a user's intuitive and simple method. Can be rotated, and it can support that a user concentrates on grasping the shape of a solid image.
尚、本実施例では、四角形の形状をしたテーブルに対して、各頂点に当たる部分に立体表示部を、各辺に当たる部分に2次元表示入力部を配した構成としたが、本発明の実施の形態はこれに限るものではなく、例えば、一般に、多角形の形状をしたテーブルに対して同様の配置を行って実施することができる。例えば、形状が正N角形の場合には、各々の立体表示部で表示する立体像の向きを、該各々の立体表示部の各々左隣の立体表示部で表示される立体像を該左隣の立体表示部の局所座標系のz軸の周りに反時計回りに(360/N)度回転した向きとなるように、各々、表示すればよい。 In this embodiment, the table having a square shape has a configuration in which a three-dimensional display unit is provided at a portion corresponding to each vertex and a two-dimensional display input unit is provided at a portion corresponding to each side. A form is not restricted to this, For example, generally, the same arrangement | positioning can be performed and implemented with respect to the table of a polygonal shape. For example, when the shape is a regular N-gon, the direction of the stereoscopic image displayed on each stereoscopic display unit is changed to the direction of the stereoscopic image displayed on the left adjacent stereoscopic display unit of each stereoscopic display unit. Each of the three-dimensional display units may be displayed so as to be rotated in a counterclockwise (360 / N) degree around the z axis of the local coordinate system.
結局、本実施例は、同一の物体に関する立体映像を表示する複数個の立体表示部を備え、第一の立体表示部で表示した映像と第二の立体表示部で表示した映像とを観賞できる第一の視点位置から第一の立体表示部を見た場合に観賞される映像が、第二の視点位置から第二の立体表示部を見た場合に観賞される映像と等しくされるように成されている映像表示装置であり、各立体表示部では対応する各視点位置から見た場合に同じ映像が観賞されるように表示される映像表示装置である。 After all, the present embodiment includes a plurality of stereoscopic display units that display stereoscopic images related to the same object, so that the video displayed on the first stereoscopic display unit and the video displayed on the second stereoscopic display unit can be viewed. The video viewed when viewing the first stereoscopic display unit from the first viewpoint position is made equal to the video viewed when viewing the second stereoscopic display unit from the second viewpoint position. Each of the three-dimensional display units is a video display device that is displayed so that the same video can be viewed when viewed from each corresponding viewpoint position.
また、例えば、壁際に設置する場合などで、ユーザが映像を見る位置が限定される場合には、図15に平面図を示した映像表示装置1500のように、複数のユーザに共有される一つ以上の立体表示部と、単独のユーザによって観賞されることを想定した一つ以上の立体表示部と、の両方を備えるような構成としてもよい(以下、「変形例)と呼ぶ)。尚、図15において、図14と同じ符号は図14と同じものを表す。
Further, for example, when the position where the user views the video is limited due to the installation on the wall or the like, the
本変形例の映像表示装置1500は、同一の物体に関する立体映像を表示する3つの立体表示部1401乃至1403と、2次元映像を表示する2つの2次元表示入力部1411乃至1412を備え、2次元表示入力部1411には、立体表示部1401で表示している立体像のユーザ1441の視点位置に関する画像情報と、立体表示部1402で表示している立体像のユーザ1441の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されており、2次元表示入力部1412には、立体表示部1402で表示している立体像のユーザ1442の視点位置に関する画像情報と、立体表示部1403で表示している立体像のユーザ1442の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されている映像表示装置である。
A
また、本実施例では円形の映像表示領域の周囲に配置した回転角入力リングを回転させることによって回転方向と回転量とを検出するような構成としたが、本発明の実施形態はこれに限るものではない。例えば、回転角入力リング自体は動かさずに、回転角入力リングに触れている指の動きを、静電容量方式等、公知の方法で検出することで回転方向と回転量とを検出するような構成としてもよいし、映像表示領域とは別の位置に配置した円盤状のダイヤルを回転させることで回転方向と回転量とを検出するような構成としてもよい。いずれの場合にも、円弧状の動きによって回転を表現できるため、ユーザがより直感的で簡便な方法により立体像を回転させることができる。 In this embodiment, the rotation direction input amount is detected by rotating the rotation angle input ring arranged around the circular video display area. However, the embodiment of the present invention is not limited to this. It is not a thing. For example, the rotation direction and the rotation amount are detected by detecting the movement of the finger touching the rotation angle input ring by a known method such as a capacitance method without moving the rotation angle input ring itself. Alternatively, the rotation direction and the rotation amount may be detected by rotating a disk-shaped dial disposed at a position different from the video display area. In any case, since the rotation can be expressed by an arcuate movement, the user can rotate the stereoscopic image by a more intuitive and simple method.
尚、実施例1、2においても、実施例3と同様に、立体表示部を円形としたり、円形の映像表示領域の周囲に配置した回転角入力リング等により回転方向と回転量を検出するようにしてもよい。 In the first and second embodiments, similarly to the third embodiment, the rotation direction and the rotation amount are detected by a three-dimensional display unit having a circular shape or a rotation angle input ring arranged around a circular image display region. It may be.
以上で説明したように、本発明の本質は、物体形状の把握に役立つより多くの情報を分かり易くユーザに提示することで、ユーザが直感的に物体形状を把握できるようにした点にあり、前記各々の実施例に記載の特徴を、用途に合わせて適宜組み合わせて使用してもよいことは言うまでもなく、前記各々の実施例に記載の構成は、発明の趣旨に反しない範囲内で種々変更し得ることも言うまでもない。例えば、表示用立体情報315cは立体表示部で表示する立体像に関する変更があった場合にのみ生成すればよく、必ずしも表示更新処理の度に生成する必要はない。また、立体形状情報315aに含まれる座標値については、立体表示部101の仕様に依らず所定の基準に基づいた大きさの値を設定しておき、立体形状情報315aから表示用立体情報315cを生成する処理と、表示用立体情報315cから立体形状情報315aを更新する処理とにおいて、物体の局所座標系と立体表示部101の局所座標系との間のスケール変換を行うような構成としてもよい。その場合、仕様の異なる複数の映像表示装置に対して、同一の物体情報を使用することができる。
As described above, the essence of the present invention is that the user can intuitively grasp the object shape by easily presenting more information useful for grasping the object shape to the user. It goes without saying that the features described in each of the embodiments may be used in appropriate combination according to the application, and the configuration described in each of the embodiments may be variously modified within the scope not departing from the spirit of the invention. It goes without saying that it can be done. For example, the display
100・・・映像表示装置、
101・・・立体表示部、
102・・・2次元表示入力部、
103a・・・撮影部、
103b・・・距離画像取得部、
104b・・・センサ接続部、
401・・・立体表示部の局所座標系、
402・・・2次元表示入力部の局所座標系、
501・・・撮影部の投影中心、
502・・・撮影部の投影面、
503・・・撮影画像データ上の位置に対応する投影面上の位置、
504・・・撮影画像データ上の位置に対応する半直線、
901・・・表示用の視点位置、
902・・・投影面、
903・・・選択位置に対応する投影面上の位置、
904・・・選択位置に対応する半直線、
905・・・表示用立体情報で表現される立体の投影面上における像、
906・・・表示用立体情報で表現される立体、
907・・・立体の頂点のうち半直線との距離が最小となる頂点、
1201・・・撮影部の投影中心、
1202・・・撮影部の投影面、
1203・・・投影面上における顔領域の重心位置、
1204・・・投影中心を始点とし顔領域の重心位置を通る半直線、
1205・・・距離画像取得部の投影中心、
1206・・・距離画像データに基づいて生成される曲面、
1207・・・半直線と曲面との交点、
1300・・・映像表示装置、
1301・・・立体表示部、
1400・・・映像表示装置、
1401、1402、1403、1404・・・立体表示部、
1411、1412、1413、1414・・・2次元表示入力部、
1421、1422、1423、1424・・・視点位置取得部、
1431、1432、1433、1434・・・回転角入力リング、
1441、1442、1443、1444・・・ユーザ、
1500・・・映像表示装置。
100 ... Video display device,
101 ... 3D display unit,
102 ... 2D display input unit,
103a ... photographing part,
103b ... Distance image acquisition unit,
104b ... sensor connection part,
401 ... Local coordinate system of the stereoscopic display unit,
402 ... A local coordinate system of the two-dimensional display input unit,
501... The projection center of the imaging unit,
502... The projection surface of the imaging unit,
503: a position on the projection surface corresponding to a position on the captured image data,
504 ... a half line corresponding to the position on the captured image data,
901 ... Viewpoint position for display,
902 ... Projection plane,
903 ... a position on the projection surface corresponding to the selected position,
904... A straight line corresponding to the selected position,
905 ... an image on the projection surface of the solid represented by the stereoscopic information for display,
906: a solid represented by display stereoscopic information;
907... Vertex having the minimum distance from the half line among the vertices of the solid,
1201... The projection center of the imaging unit,
1202 ... Projection plane of the photographing unit,
1203 ... Position of the center of gravity of the face area on the projection plane,
1204... A half line passing through the center of gravity of the face area starting from the projection center,
1205 ... The projection center of the distance image acquisition unit,
1206 ... a curved surface generated based on the distance image data,
1207: intersection of half line and curved surface,
1300 ... Video display device,
1301 ... 3D display unit,
1400... Video display device,
1401, 1402, 1403, 1404... 3D display unit,
1411, 1412, 1413, 1414... 2D display input unit,
1421, 1422, 1423, 1424 ... viewpoint position acquisition unit,
1431, 1432, 1433, 1434 ... rotation angle input ring,
1441, 1442, 1443, 1444 ... user,
1500: Image display device.
Claims (18)
前記2次元表示部には前記立体表示部で表示している立体像に関する情報が表示されるように成されていること、
を特徴とする映像表示装置。 A 3D display unit for displaying a 3D image and a 2D display unit for displaying a 2D image;
The two-dimensional display unit is configured to display information regarding a stereoscopic image displayed on the stereoscopic display unit.
A video display device characterized by the above.
を特徴とする、請求項2記載の映像表示装置。 The image information includes at least one of a front view, a plan view, a side view, and a perspective view of the stereoscopic image related to a predetermined viewpoint position;
The video display device according to claim 2, wherein:
前記画像情報は、前記視点推定部が推定した視点位置に基づいて生成されること、
を特徴とする、請求項2記載の映像表示装置。 A viewpoint estimation unit for estimating the viewpoint position of the user;
The image information is generated based on the viewpoint position estimated by the viewpoint estimation unit;
The video display device according to claim 2, wherein:
前記立体像の透視投影図は、前記視点推定部が推定した視点位置に基づく画角に基づいて生成されること、
を特徴とする、請求項4記載の映像表示装置。 The image information is a perspective projection view of the stereoscopic image related to the viewpoint position estimated by the viewpoint estimation unit,
The perspective view of the stereoscopic image is generated based on an angle of view based on a viewpoint position estimated by the viewpoint estimation unit;
The video display device according to claim 4, wherein:
を特徴とする、請求項4記載の映像表示装置。 In the image information, the viewpoint position estimated by the viewpoint estimation unit is drawn,
The video display device according to claim 4, wherein:
を特徴とする、請求項4記載の映像表示装置。 The viewpoint estimation unit includes a photographing unit, and estimates a user's viewpoint position based on image data captured by the photographing unit;
The video display device according to claim 4, wherein:
を特徴とする、請求項7記載の映像表示装置。 The photographing unit includes a fisheye lens;
The video display device according to claim 7, wherein:
前記変更コマンドに基づいて、前記立体表示部で表示している立体像の情報を更新するデータ更新部と、
を備えたことを特徴とする、請求項2記載の映像表示装置。 A command input unit for inputting a change command with respect to the image information displayed on the two-dimensional display unit;
Based on the change command, a data update unit that updates information of the stereoscopic image displayed on the stereoscopic display unit;
The video display device according to claim 2, further comprising:
を特徴とする、請求項9記載の映像表示装置。 The command input unit is configured to input a change command on the video display area of the two-dimensional display unit;
The video display device according to claim 9, wherein:
反転表示有りと設定された場合に前記2次元表示部で表示される映像は、反転表示無しと設定された場合に前記2次元表示部で表示される映像を、所定の点に関して180度回転させたものとされていること、
を特徴とする、請求項9記載の映像表示装置。 It has a reverse display setting part that sets the presence or absence of reverse display,
The image displayed on the two-dimensional display unit when the reverse display is set is rotated 180 degrees with respect to a predetermined point from the image displayed on the two-dimensional display unit when the reverse display is set. What is supposed to be
The video display device according to claim 9, wherein:
第一の結合形態で結合した場合の前記立体表示部と前記2次元表示部との関係は、第二の結合形態で結合した場合の前記立体表示部と前記2次元表示部との関係に対して、前記2次元表示部を所定の点に関して180度回転させた関係と成されていること、
を特徴とする、請求項9記載の映像表示装置。 The three-dimensional display unit and the two-dimensional display unit are configured to be separable so as to be integrated with each other in two combined forms.
The relationship between the stereoscopic display unit and the two-dimensional display unit when combined in the first combined form is the relationship between the stereoscopic display unit and the two-dimensional display unit when combined in the second combined form. The two-dimensional display unit is rotated 180 degrees with respect to a predetermined point.
The video display device according to claim 9, wherein:
第二の立体表示部には、所定の視点位置において第一の立体表示部で表示している立体像とは異なる向きの立体像が観賞されるように成されていること、
を特徴とする映像表示装置。 A plurality of 3D display units for displaying 3D images related to the same object,
The second stereoscopic display unit is configured so that a stereoscopic image in a direction different from the stereoscopic image displayed on the first stereoscopic display unit at a predetermined viewpoint position can be viewed,
A video display device characterized by the above.
同一の物体に関する立体映像を表示する立体表示部を複数備え、
第一の視点位置から第一の立体表示部を見た場合に観賞される映像は、第二の視点位置から第二の立体表示部を見た場合に観賞される映像と等しくされていること、
を特徴とする映像表示装置。 A table-type image display device,
A plurality of 3D display units for displaying 3D images related to the same object,
The video that is viewed when the first stereoscopic display unit is viewed from the first viewpoint position is equal to the video that is viewed when the second stereoscopic display unit is viewed from the second viewpoint position. ,
A video display device characterized by the above.
第一の2次元表示部には、第一の立体表示部で表示している立体像の第一の視点位置に関する画像情報と、第二の立体表示部で表示している立体像の前記第一の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されており、
第二の2次元表示部には、前記第二の立体表示部で表示している立体像の第二の視点位置に関する画像情報と、第三の立体表示部で表示している立体像の前記第二の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されていること、
を特徴とする映像表示装置。 Three stereoscopic display units for displaying a stereoscopic image related to the same object, and two two-dimensional display units for displaying a two-dimensional image,
The first two-dimensional display unit includes image information relating to a first viewpoint position of the stereoscopic image displayed on the first stereoscopic display unit, and the first information of the stereoscopic image displayed on the second stereoscopic display unit. One or both of the image information related to one viewpoint position is displayed,
The second two-dimensional display unit includes image information relating to the second viewpoint position of the stereoscopic image displayed on the second stereoscopic display unit, and the stereoscopic image displayed on the third stereoscopic display unit. One or both of the image information related to the second viewpoint position is displayed,
A video display device characterized by the above.
前記立体表示部で表示される立体像は、前記傾き検出部の検出した傾きに基づいて、前記立体表示部の傾きに依らず上下方向が一定となるように成されていること、
を特徴とする映像表示装置。 A stereoscopic display unit that displays a stereoscopic image; and an inclination detection unit that detects a three-dimensional inclination of the stereoscopic display unit;
The stereoscopic image displayed on the stereoscopic display unit is configured such that the vertical direction is constant regardless of the inclination of the stereoscopic display unit, based on the inclination detected by the inclination detection unit,
A video display device characterized by the above.
該映像表示領域の周囲に配されたリング状の回転角入力部を備え、
前記回転角入力部から入力された回転角に基づき、前記立体表示部で表示する立体像の向きを変更すること、
を特徴とする映像表示装置。 A stereoscopic display unit in which the shape of the video display area for displaying the stereoscopic video is circular;
A ring-shaped rotation angle input unit arranged around the video display area;
Changing the direction of the stereoscopic image displayed on the stereoscopic display unit based on the rotation angle input from the rotation angle input unit;
A video display device characterized by the above.
を特徴とする請求項1記載の映像表示装置。 The stereoscopic display unit is a light-reproducing autostereoscopic display;
The video display device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008128578A JP2009278456A (en) | 2008-05-15 | 2008-05-15 | Video display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008128578A JP2009278456A (en) | 2008-05-15 | 2008-05-15 | Video display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009278456A true JP2009278456A (en) | 2009-11-26 |
Family
ID=41443450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008128578A Pending JP2009278456A (en) | 2008-05-15 | 2008-05-15 | Video display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009278456A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011211685A (en) * | 2010-01-14 | 2011-10-20 | Nintendo Co Ltd | Portable information processing apparatus, and portable game device |
JP2012079211A (en) * | 2010-10-05 | 2012-04-19 | Hitachi Ltd | Display system and display method of stereoscopic image |
JP2012130499A (en) * | 2010-12-21 | 2012-07-12 | Nintendo Co Ltd | Game device, game program, game system, and game method |
JP2012139318A (en) * | 2010-03-12 | 2012-07-26 | Nintendo Co Ltd | Display control program, display control apparatu, display control system, and display control method |
JP2014215313A (en) * | 2013-04-22 | 2014-11-17 | 日本放送協会 | Stereoscopic video display device |
JP2015008394A (en) * | 2013-06-25 | 2015-01-15 | Kddi株式会社 | Information terminal device |
US8952956B2 (en) | 2010-12-16 | 2015-02-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2015222892A (en) * | 2014-05-23 | 2015-12-10 | 日本放送協会 | Display image generation device and program therefor |
JP2016014741A (en) * | 2014-07-01 | 2016-01-28 | 国立研究開発法人情報通信研究機構 | Stereoscopic display |
JP7447474B2 (en) | 2019-12-19 | 2024-03-12 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
WO2024053253A1 (en) * | 2022-09-05 | 2024-03-14 | Toppanホールディングス株式会社 | Aerial display device |
-
2008
- 2008-05-15 JP JP2008128578A patent/JP2009278456A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
JP2011211685A (en) * | 2010-01-14 | 2011-10-20 | Nintendo Co Ltd | Portable information processing apparatus, and portable game device |
JP2016167811A (en) * | 2010-01-14 | 2016-09-15 | 任天堂株式会社 | Portable information processing apparatus and portable game apparatus |
US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2012139318A (en) * | 2010-03-12 | 2012-07-26 | Nintendo Co Ltd | Display control program, display control apparatu, display control system, and display control method |
US10764565B2 (en) | 2010-03-12 | 2020-09-01 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2012079211A (en) * | 2010-10-05 | 2012-04-19 | Hitachi Ltd | Display system and display method of stereoscopic image |
US8952956B2 (en) | 2010-12-16 | 2015-02-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2012130499A (en) * | 2010-12-21 | 2012-07-12 | Nintendo Co Ltd | Game device, game program, game system, and game method |
JP2014215313A (en) * | 2013-04-22 | 2014-11-17 | 日本放送協会 | Stereoscopic video display device |
JP2015008394A (en) * | 2013-06-25 | 2015-01-15 | Kddi株式会社 | Information terminal device |
JP2015222892A (en) * | 2014-05-23 | 2015-12-10 | 日本放送協会 | Display image generation device and program therefor |
JP2016014741A (en) * | 2014-07-01 | 2016-01-28 | 国立研究開発法人情報通信研究機構 | Stereoscopic display |
JP7447474B2 (en) | 2019-12-19 | 2024-03-12 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
WO2024053253A1 (en) * | 2022-09-05 | 2024-03-14 | Toppanホールディングス株式会社 | Aerial display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009278456A (en) | Video display device | |
CN108369742B (en) | Optimized object scanning using sensor fusion | |
US11651563B1 (en) | Dockable billboards for labeling objects in a display having a three dimensional perspective of a virtual or real environment | |
AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
US8254667B2 (en) | Method, medium, and system implementing 3D model generation based on 2D photographic images | |
US20130135295A1 (en) | Method and system for a augmented reality | |
KR101196291B1 (en) | Terminal providing 3d interface by recognizing motion of fingers and method thereof | |
US20120054690A1 (en) | Apparatus and method for displaying three-dimensional (3d) object | |
JP7073850B2 (en) | Input device and input method of input device | |
US11776142B2 (en) | Structuring visual data | |
US20210225038A1 (en) | Visual object history | |
US20230154134A1 (en) | Method and apparatus with pose estimation | |
US10311647B2 (en) | Three dimensional image generation | |
JP2021136017A (en) | Augmented reality system using visual object recognition and stored geometry to create and render virtual objects | |
JP2018112894A (en) | System and control method | |
JP2004272515A (en) | Interface method, device, and program | |
CN113129362A (en) | Method and device for acquiring three-dimensional coordinate data | |
JP6818968B2 (en) | Authoring device, authoring method, and authoring program | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
KR20210023663A (en) | Image processing method and image processing apparatus for generating 3d content using 2d images | |
JP2017068468A (en) | Information processing device, information processing method, and program | |
JP5533311B2 (en) | Exhibit information presentation device and presentation method | |
JPH0916653A (en) | Graphic processor and its method | |
Marton et al. | FOX: The Focus Sliding Surface metaphor for natural exploration of massive models on large-scale light field displays | |
Gupta | The Universal Media Book |