JP2009278456A - Video display device - Google Patents

Video display device Download PDF

Info

Publication number
JP2009278456A
JP2009278456A JP2008128578A JP2008128578A JP2009278456A JP 2009278456 A JP2009278456 A JP 2009278456A JP 2008128578 A JP2008128578 A JP 2008128578A JP 2008128578 A JP2008128578 A JP 2008128578A JP 2009278456 A JP2009278456 A JP 2009278456A
Authority
JP
Japan
Prior art keywords
stereoscopic
unit
display unit
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008128578A
Other languages
Japanese (ja)
Inventor
Takeshi Minagawa
剛 皆川
Chigiri Utsugi
契 宇都木
Takafumi Koike
崇文 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008128578A priority Critical patent/JP2009278456A/en
Publication of JP2009278456A publication Critical patent/JP2009278456A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem: it is difficult, in a conventional three-dimensional (three-dimensional) video display device, to intuitively obtain the shape of an object being displayed. <P>SOLUTION: A video display device includes a three-dimensional display section 101 for displaying a three-dimensional video image and a two-dimensional display section for displaying a 2D video image (102 shown in the figure is a 2D display and input section also used as an input section) and is configured to display, on the 2D display section, information related to a three-dimensional image being displayed on the three-dimensional display section 101. The image information related to the three-dimensional image to be displayed on the three-dimensional display section 101 is image information containing at least one of a front view, a plane view, side view and a transparent projection view of the three-dimensional image related to a predetermined viewpoint position. Furthermore, a viewpoint estimation section is provided for estimating a viewpoint position of a user, and the image information is generated on the basis of the viewpoint position estimated by the viewpoint estimation section. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、立体映像を表示する映像表示装置に関する。   The present invention relates to a video display device that displays a stereoscopic video.

立体映像を表示可能な映像表示装置として、特許文献1に記載の技術がある。特許文献1に記載の技術は、インテグラルフォトグラフィの原理に基づき、特殊な眼鏡や訓練を必要とせずに、ユーザが立体像を知覚できるようにしたものである。   As a video display device capable of displaying a stereoscopic video, there is a technique described in Patent Document 1. The technique described in Patent Document 1 is based on the principle of integral photography, and allows a user to perceive a stereoscopic image without requiring special glasses or training.

また、2次元表示のテーブル型ディスプレイとして、特許文献2〜4に記載の技術がある。特許文献2に記載の技術は、ユーザ位置の検出手段を備え、検出されたユーザ位置に基づいて映像表示面に表示される画像の向きを制御し、また、複数ユーザが個別にウィンドウを開き、データ入力等の操作ができるものである。特許文献3に記載の技術は、映像表示面上にペンで書き込まれた会議内容等の情報を該映像表示面に表示している画像情報と合わせて撮影し、パーソナルコンピュータ等に記憶するものであり、特許文献4に記載の技術は、表示部をタッチパネル仕様にしたものである。   Moreover, there exists a technique of patent documents 2-4 as a table-type display of a two-dimensional display. The technology described in Patent Document 2 includes a user position detection unit, controls the orientation of an image displayed on the video display surface based on the detected user position, and a plurality of users individually open a window, Data input and other operations can be performed. The technique described in Patent Document 3 captures information such as conference contents written with a pen on a video display surface together with image information displayed on the video display surface, and stores it in a personal computer or the like. Yes, the technique described in Patent Document 4 uses a touch panel specification for the display unit.

特開2006−133455号公報JP 2006-133455 A 特開2000−163179号公報JP 2000-163179 A 特許3643907号公報Japanese Patent No. 3643907 特開2001−75733号公報JP 2001-75733 A

特許文献1に記載の技術では、表示されている立体像の形状を直感的に把握することが難しかった。左右の目の間の距離または視力などの身体的要素や、空間認識能力の大小といった要素による個人差はあるものの、形状の凹凸やテクスチャ等、両眼視差を知覚するための助けとなる特徴が十分に存在しない場合には特に顕著である。同様の課題は、広く一般の立体映像表示装置について存在する。   With the technique described in Patent Document 1, it is difficult to intuitively grasp the shape of the displayed stereoscopic image. Features that help to perceive binocular parallax, such as shape irregularities and textures, although there are individual differences due to physical factors such as distance between left and right eyes or visual acuity, and factors such as spatial recognition ability This is particularly noticeable when there is not enough. Similar problems exist for general stereoscopic video display devices.

本発明の目的は、ユーザが物体形状をより直感的に把握し易くなるような映像表示装置を提供することにある。   An object of the present invention is to provide a video display device that makes it easier for a user to grasp an object shape more intuitively.

前記課題を解決するため、本発明の映像表示装置では、立体映像を表示する立体表示部と2次元映像を表示する2次元表示部とを備え、前記2次元表示部に、前記立体表示部で表示している立体像に関する情報を表示するようにした。   In order to solve the above-described problem, the video display device of the present invention includes a stereoscopic display unit that displays a stereoscopic image and a two-dimensional display unit that displays a two-dimensional image, and the stereoscopic display unit includes the stereoscopic display unit. Information about the displayed stereoscopic image is displayed.

本発明によれば、物体形状の把握に役立つより多くの情報を分かり易くユーザに提示することで、従来技術に比べ、ユーザが前記物体の形状をより直感的に把握し易くなる。   According to the present invention, more information useful for grasping the shape of an object is presented to the user in an easy-to-understand manner, thereby making it easier for the user to grasp the shape of the object more intuitively than in the related art.

以下、本発明の実施例について詳細に説明する。   Examples of the present invention will be described in detail below.

以下、図1乃至図12を用いて、本発明の第一の実施例について説明する。本実施例は、例えば、立体電子図鑑や立体データの編集を行うための携帯電子機器に適用するに好適な例である。   The first embodiment of the present invention will be described below with reference to FIGS. The present embodiment is an example suitable for application to, for example, a portable electronic device for editing a three-dimensional electronic pictorial book or three-dimensional data.

図1は本実施例の映像表示装置100の外観図であり、映像表示装置100を手にしたユーザの、左手側に立体表示部101が、右手側に2次元表示入力部102が、それぞれ配置されることを想定した場合の図である。   FIG. 1 is an external view of a video display device 100 according to the present embodiment. A user who holds the video display device 100 has a stereoscopic display unit 101 on the left hand side and a two-dimensional display input unit 102 on the right hand side. It is a figure at the time of assuming that.

立体表示部101は、所与の立体形状情報に基づく所望の立体像、あるいは所望の立体像に近い立体像が、複数の視点位置から観賞できるものであり、例えば、蝿の目状のマイクロレンズアレイを備えた、インテグラルフォトグラフィ方式(あるいは「インテグラルイメージング方式」とも呼ばれる)の裸眼立体視ディスプレイである。尚、立体表示部101の具体的な実施形態はこれに限るものではなく、例えば、レンチキュラーレンズを備えたインテグラルフォトグラフィ方式の裸眼立体視ディスプレイであってもよいし、ホログラフィックディスプレイを始めとするインテグラルフォトグラフィ方式以外の光線再生方式のディスプレイであってもよいし、視差バリア方式等、光線再生方式とは異なる原理による裸眼立体視ディスプレイであってもよい。   The three-dimensional display unit 101 allows a desired three-dimensional image based on given three-dimensional shape information or a three-dimensional image close to the desired three-dimensional image to be viewed from a plurality of viewpoint positions. It is an autostereoscopic display of an integral photography system (also called “integral imaging system”) having an array. The specific embodiment of the stereoscopic display unit 101 is not limited to this, and may be, for example, an integral photography type autostereoscopic display including a lenticular lens, or a holographic display. The display may be a light reproduction type display other than the integral photography method, or may be an autostereoscopic display based on a principle different from the light ray reproduction method, such as a parallax barrier method.

2次元表示入力部102は、2次元画面上での情報表示及び2次元画面上での情報入力を行うものであり、2次元表示部102aとコマンド入力部102bで構成される。2次元表示入力部102の具体的な例は、例えば、タッチパネルディスプレイである。   The two-dimensional display input unit 102 performs information display on the two-dimensional screen and information input on the two-dimensional screen, and includes a two-dimensional display unit 102a and a command input unit 102b. A specific example of the two-dimensional display input unit 102 is, for example, a touch panel display.

2次元表示部102aには立体表示部101で表示している立体像に関する情報が表示されるように構成し、コマンド入力部102bからは、例えばペン型のインタフェースにより、2次元表示部102aの画面上の位置の指定が行えるように構成する。このような構成とすることにより、2次元画面上での線画の描画や、2次元画面上に表示されているスライドバー上のスライダーの移動、2次元画面上に表示されているボタンの押下、等の入力を行うことができる。   The two-dimensional display unit 102a is configured to display information related to the three-dimensional image displayed on the three-dimensional display unit 101. From the command input unit 102b, for example, a screen of the two-dimensional display unit 102a through a pen-type interface. Configure so that the upper position can be specified. With such a configuration, drawing of a line drawing on a two-dimensional screen, movement of a slider on a slide bar displayed on the two-dimensional screen, pressing of a button displayed on the two-dimensional screen, Etc. can be input.

撮影部103aと距離画像取得部103bは、映像表示装置100を使用するユーザの視点位置を推定するための情報を取得する視点情報取得部103を構成するものであり、ユーザの視点位置の存在範囲として設計時に想定した空間領域内の情報が取得できるような位置と姿勢で設置する。尚、前記空間領域は、映像表示装置100に対する相対的な空間領域として定義されるものである。撮影部103aの具体的な例は、例えばデジタルカメラであり、距離画像取得部103bの具体的な例は、例えばTOF(time of flight)型距離画像センサである。   The imaging unit 103a and the distance image acquisition unit 103b constitute a viewpoint information acquisition unit 103 that acquires information for estimating the viewpoint position of the user who uses the video display device 100, and the existence range of the user's viewpoint position. It is installed in a position and posture that can acquire information in the space area assumed at the time of design. The space area is defined as a space area relative to the video display device 100. A specific example of the imaging unit 103a is, for example, a digital camera, and a specific example of the distance image acquisition unit 103b is, for example, a TOF (time of flight) type distance image sensor.

映像表示装置100は、撮影部103a及び距離画像取得部103bが接続されている図示しない第一のセンサ接続部104aのほか、第二のセンサ接続部104bを備える。第一のセンサ設置部104aと第二のセンサ設置部104bとは、立体表示部101及び2次元表示入力部102を挟んで対面に位置するようにされており、撮影部103a及び距離画像取得部103bを対にして、第一のセンサ接続部104aと第二のセンサ接続部104bのいずれにも接続できるような構成とされている。尚、撮影部103aと距離画像取得部103bの対が、第一のセンサ接続部104aと第二のセンサ接続部104bのどちらに接続しているかという情報は、公知の技術を使って自動で検出できるように構成し、検出した結果は、逐次、後述の記憶部202にセンサ接続情報304として格納するように構成する。   The video display device 100 includes a second sensor connection unit 104b in addition to a first sensor connection unit 104a (not shown) to which the photographing unit 103a and the distance image acquisition unit 103b are connected. The first sensor installation unit 104a and the second sensor installation unit 104b are positioned to face each other with the stereoscopic display unit 101 and the two-dimensional display input unit 102 interposed therebetween, and the imaging unit 103a and the distance image acquisition unit. 103b is paired and can be connected to either the first sensor connection unit 104a or the second sensor connection unit 104b. Note that information regarding which of the first sensor connection unit 104a and the second sensor connection unit 104b is connected to the pair of the imaging unit 103a and the distance image acquisition unit 103b is automatically detected using a known technique. The detection result is sequentially stored as sensor connection information 304 in a storage unit 202 described later.

尚、映像表示装置100の外観には、図示しない電源スイッチも備える。   Note that the external appearance of the video display device 100 also includes a power switch (not shown).

図2は本実施例の映像表示装置100の構成図である。本実施例の映像表示装置100は、演算処理部201、記憶部202、傾き検出部203、立体表示部101、2次元表示部102a、コマンド入力部102b、及び、視点情報取得部103で構成される。   FIG. 2 is a configuration diagram of the video display device 100 of the present embodiment. The video display apparatus 100 according to the present embodiment includes an arithmetic processing unit 201, a storage unit 202, an inclination detection unit 203, a stereoscopic display unit 101, a two-dimensional display unit 102a, a command input unit 102b, and a viewpoint information acquisition unit 103. The

演算処理部201は、記憶部202に記憶されたプログラム及びデータを使用して、適宜記憶部202を使用しながらコマンド入力部102bから入力されたコマンドに対する処理を行うものであり、例えば、CPUである。   The arithmetic processing unit 201 uses the program and data stored in the storage unit 202 to process the command input from the command input unit 102b while using the storage unit 202 as appropriate. is there.

記憶部202は、後述(図3)のプログラム及びデータのほか、演算処理部201が為す処理の途中で一時的に生成される中間データを格納するものであり、例えば、RAMとハードディスクの組や、フラッシュメモリである。   The storage unit 202 stores, in addition to programs and data described later (FIG. 3), intermediate data temporarily generated during the processing performed by the arithmetic processing unit 201. For example, a combination of a RAM and a hard disk, Flash memory.

傾き検出部203は、立体表示部101の傾きを検出するものであり、例えば3軸加速度センサである。傾き検出部203は、立体表示部101の局所座標系のx軸と傾き検出部203のx軸、立体表示部101の局所座標系のy軸と傾き検出部203のy軸、立体表示部101の局所座標系のz軸と傾き検出部203のz軸、とが互いに同じ向きとなるように設置される。傾き検出部203の検出する傾きの情報は、具体的には、x軸が水平面と成す角度αと、y軸が水平面と成す角度βと、z軸が鉛直軸と成す角度γと、で構成され、後述の傾き情報310として記憶部202に、逐次、格納される。尚、本実施例では、αとβの符号は水平面より上向きを正とし、鉛直軸の方向は鉛直上向きを正とする。また、例示した3軸加速度センサによって得られる各軸の重力加速度検出値から、傾き情報(α,β,γ)を算出する方法は、公知である。   The tilt detection unit 203 detects the tilt of the stereoscopic display unit 101 and is, for example, a three-axis acceleration sensor. The tilt detection unit 203 includes an x-axis of the local coordinate system of the stereoscopic display unit 101, an x-axis of the tilt detection unit 203, a y-axis of the local coordinate system of the stereoscopic display unit 101, and a y-axis of the tilt detection unit 203, and the stereoscopic display unit 101. The z axis of the local coordinate system and the z axis of the inclination detection unit 203 are installed in the same direction. Specifically, the inclination information detected by the inclination detection unit 203 includes an angle α formed by the x axis with the horizontal plane, an angle β formed by the y axis with the horizontal plane, and an angle γ formed by the z axis with the vertical axis. Then, it is sequentially stored in the storage unit 202 as tilt information 310 to be described later. In this embodiment, the signs of α and β are positive when they are upward from the horizontal plane, and the vertical axis direction is positive when they are vertically upward. Also, a method for calculating the tilt information (α, β, γ) from the gravity acceleration detection value of each axis obtained by the exemplified three-axis acceleration sensor is known.

図3は本実施例の記憶部202に格納するプログラム及びデータを表す図である。尚、演算処理部201が為す処理の途中で一時的に生成される中間データについては、図3における記載を省略した。また、図4は本実施例の局所座標系の取り方を表す図である。   FIG. 3 is a diagram illustrating programs and data stored in the storage unit 202 of this embodiment. Note that the intermediate data temporarily generated during the processing performed by the arithmetic processing unit 201 is omitted in FIG. FIG. 4 is a diagram showing how to adopt the local coordinate system of this embodiment.

映像表示プログラム300は、立体表示部101及び2次元表示部102aで表示する映像を、時々刻々変化し得る状態に基づいて生成し、立体表示部101及び2次元表示部102aで表示するための制御を行うプログラムである。映像表示プログラム300の処理の詳細は、後述(図6)する。   The video display program 300 generates a video to be displayed on the stereoscopic display unit 101 and the two-dimensional display unit 102a based on a state that can change from moment to moment, and controls to display the video on the stereoscopic display unit 101 and the two-dimensional display unit 102a. It is a program that performs. Details of the processing of the video display program 300 will be described later (FIG. 6).

選択物体情報301は、コマンド入力部102bから入力されたコマンドに基づき設定される情報であり、物体情報315として格納されている複数の物体のうち、どの物体を立体表示部101及び2次元表示部102aで表示するかを示す情報である。   The selected object information 301 is information set based on a command input from the command input unit 102b, and among the plurality of objects stored as the object information 315, which object is displayed as the stereoscopic display unit 101 and the two-dimensional display unit. 102a is information indicating whether to display in 102a.

表示種別情報302は、コマンド入力部102bから入力されたコマンドに基づき設定される情報である。2次元表示部102aで表示する情報の内容を規定する情報であり、取り得る値は「付加情報」「正面図」「平面図」「側面図」「透視投影図」のうちの1つである。   The display type information 302 is information set based on the command input from the command input unit 102b. This is information that defines the content of information displayed on the two-dimensional display unit 102a, and a possible value is one of “additional information”, “front view”, “plan view”, “side view”, and “perspective view”. .

ここで「正面図」とは、立体表示部101で表示している立体像を視点位置基準の局所座標系(後述)のyz平面に正射影した画像のことであり、「平面図」とは、立体表示部101で表示している立体像を視点位置基準の局所座標系(後述)のxy平面に正射影した画像のことであり、「側面図」とは、立体表示部101で表示している立体像を視点位置基準の局所座標系(後述)のxz平面に正射影した画像のことである。また、「透視投影図」とは、立体表示部101で表示している立体像を、表示用視点情報307で示される視点位置と表示用パラメタ309とに基づく透視投影によって写像した画像のことである。各々の画像の具体的な生成方法については後述(図10)する。   Here, the “front view” is an image obtained by orthogonally projecting the stereoscopic image displayed on the stereoscopic display unit 101 onto the yz plane of the local coordinate system (described later) based on the viewpoint position. An image obtained by orthogonally projecting a stereoscopic image displayed on the stereoscopic display unit 101 onto an xy plane of a local coordinate system (described later) based on the viewpoint position, and a “side view” is displayed on the stereoscopic display unit 101. This is an image obtained by orthogonally projecting a three-dimensional image onto an xz plane of a local coordinate system (described later) based on the viewpoint position. Also, the “perspective projection view” is an image obtained by mapping a stereoscopic image displayed on the stereoscopic display unit 101 by perspective projection based on the viewpoint position indicated by the display viewpoint information 307 and the display parameter 309. is there. A specific method for generating each image will be described later (FIG. 10).

表示倍率情報303は、2次元表示部102aで表示する画像の2次元的な拡大縮小を行うための情報であり、拡大率を表す非負のスカラー値である。   The display magnification information 303 is information for performing two-dimensional enlargement / reduction of an image displayed on the two-dimensional display unit 102a, and is a non-negative scalar value representing an enlargement ratio.

センサ接続情報304は、撮影部103aと距離画像取得部103bの対が、現在、第一のセンサ接続部104aと第二のセンサ接続部104bのどちらに接続されているかを示す情報である。   The sensor connection information 304 is information indicating whether the pair of the imaging unit 103a and the distance image acquisition unit 103b is currently connected to the first sensor connection unit 104a or the second sensor connection unit 104b.

視点追従モード情報305は、コマンド入力部102bから入力されたコマンドに基づき設定される情報である。2次元表示部102aで表示する情報を生成するための視点位置としてどのような視点位置を使用するかを規定する情報であり、取り得る値は、現在のユーザの視点位置を使用する「常時追従」、コマンド入力部102bから所定のコマンドが入力された時点におけるユーザの視点位置を使用する「スポット追従」、映像表示装置100の設計値として予め与えられている視点位置を使用する「視点固定」のうちの1つである。   The viewpoint tracking mode information 305 is information set based on the command input from the command input unit 102b. This is information that defines what viewpoint position is used as the viewpoint position for generating information to be displayed on the two-dimensional display unit 102a, and a possible value is “always following” that uses the viewpoint position of the current user. "Spot tracking" using the user's viewpoint position when a predetermined command is input from the command input unit 102b, "Fixing viewpoint" using a viewpoint position given in advance as a design value of the video display device 100 One of them.

基準面選択情報306は、コマンド入力部102bから入力されたコマンドに基づき設定される情報である。立体表示部101で表示する立体像を生成するための基準面を規定する情報であり、取り得る値は、立体像として表示される物体の局所座標系のz軸方向を立体表示部101の局所座標系(後述)のz軸方向に一致させる「立体表示面」と、立体像として表示される物体の局所座標系のz軸方向を鉛直軸の方向に一致させる「水平面」のうちの、いずれか1つである。   The reference plane selection information 306 is information set based on the command input from the command input unit 102b. This is information that defines a reference plane for generating a stereoscopic image to be displayed on the stereoscopic display unit 101. Possible values are the z-axis direction of the local coordinate system of an object displayed as a stereoscopic image, and the local area of the stereoscopic display unit 101. Whichever of “stereoscopic display surface” that matches the z-axis direction of the coordinate system (described later) and “horizontal plane” that matches the z-axis direction of the local coordinate system of the object displayed as a stereoscopic image with the direction of the vertical axis Or one.

表示用視点情報307は、2次元表示部102aに表示する映像を生成する際に使用される視点位置の情報である。表示用視点情報307の座標値は、立体表示部101の局所座標系(後述)を基準とする。表示用視点情報307としては、後述(図11)の視点位置推定処理で推定された視点位置か、標準視点情報308に規定された視点位置の、いずれかが格納される。   The display viewpoint information 307 is information on the viewpoint position used when generating an image to be displayed on the two-dimensional display unit 102a. The coordinate values of the display viewpoint information 307 are based on a local coordinate system (described later) of the stereoscopic display unit 101. As the display viewpoint information 307, either the viewpoint position estimated by the viewpoint position estimation process described later (FIG. 11) or the viewpoint position defined in the standard viewpoint information 308 is stored.

標準視点情報308は、ユーザの視点位置を追従しない場合に使用される視点位置の情報であり、平均的なユーザを想定し、映像表示装置100の設計値として予め与えておくものである。標準視点情報308の座標値は、立体表示部101の局所座標系(後述)を基準として設計されたものを格納しておく。   The standard viewpoint information 308 is viewpoint position information used when the user's viewpoint position is not followed, and is given in advance as a design value of the video display device 100 assuming an average user. The coordinate values of the standard viewpoint information 308 are stored based on the local coordinate system (described later) of the stereoscopic display unit 101.

画像生成用パラメタ309は、公知の技術を用いて、立体表示部101で表示する立体映像、及び、2次元表示部102aで表示する映像を生成するためのパラメタの集合であり、立体表示部101の各画素及び2次元表示部102aの各画素に対して該画素が担当する光線を規定するための情報である。立体表示部101に関しては、例えば、視野角、レンズ配置、画素配置、等の情報であり、2次元表示部102aに関しては、例えば、立体表示部101の局所座標系と2次元表示入力部102の局所座標系との間のスケール変換ファクタ(即ち後述の「k」の値)であるが、これらに限るものではない。   The image generation parameter 309 is a set of parameters for generating a stereoscopic video to be displayed on the stereoscopic display unit 101 and a video to be displayed on the two-dimensional display unit 102a using a known technique. This is information for defining the light rays that the pixels are responsible for, and the pixels of the two-dimensional display unit 102a. Regarding the stereoscopic display unit 101, for example, information such as viewing angle, lens arrangement, pixel arrangement, and the like. For the two-dimensional display unit 102 a, for example, the local coordinate system of the stereoscopic display unit 101 and the two-dimensional display input unit 102. Although it is a scale conversion factor (that is, a value of “k” described later) with respect to the local coordinate system, it is not limited to these.

立体表示部101の局所座標系は、図4の401に示すようなxyz座標系として定める。即ち、矩形状の映像表示領域の中心を原点とし、映像表示面上にx軸とy軸をy軸が矩形の底辺と平行になるように配し、y軸の正の向きが2次元表示入力部102を配した側、z軸の正の向きが立体表示部101の映像表示面を観賞できる側、となるような、3次元かつ右手系の直交座標系として定める。   The local coordinate system of the stereoscopic display unit 101 is determined as an xyz coordinate system as indicated by 401 in FIG. That is, the center of the rectangular image display area is set as the origin, the x axis and the y axis are arranged on the image display surface so that the y axis is parallel to the bottom of the rectangle, and the positive direction of the y axis is displayed in two dimensions. It is determined as a three-dimensional, right-handed orthogonal coordinate system in which the input unit 102 is arranged and the positive z-axis direction is the side on which the video display surface of the stereoscopic display unit 101 can be viewed.

また、2次元表示入力部102の局所座標系は、図4の402に示すようなxy座標系として定める。即ち、矩形状の映像表示領域の中心を原点とし、映像表示面上にx軸とy軸をx軸が矩形の底辺と平行になるように配し、x軸の負の向きが立体表示部101を配した側、y軸の正の向きが矩形の中央から底辺へと向かう向き、となるような、2次元の直交座標系として定める。   The local coordinate system of the two-dimensional display input unit 102 is determined as an xy coordinate system as indicated by 402 in FIG. That is, the center of the rectangular image display area is set as the origin, the x axis and the y axis are arranged on the image display surface so that the x axis is parallel to the bottom of the rectangle, and the negative direction of the x axis is the stereoscopic display unit. The two-dimensional orthogonal coordinate system is defined such that the side on which 101 is arranged and the positive direction of the y-axis is the direction from the center of the rectangle to the base.

記憶部202に格納されている傾き情報310は、傾き検出部203の検出した立体表示部101の傾き情報(α,β,γ)であり、傾き検出部203により逐次更新される。   The tilt information 310 stored in the storage unit 202 is tilt information (α, β, γ) of the stereoscopic display unit 101 detected by the tilt detection unit 203 and is sequentially updated by the tilt detection unit 203.

座標反転情報311は、2次元表示入力部102における表示と入力とを、前述の2次元表示入力部102の局所座標系を基準として行うか、前述の2次元表示入力部102の局所座標系を該座標系の原点を中心として180度回転させた座標系(以下では「反転座標系」と呼ぶ)を基準として行うか、を規定する情報であり、取り得る値は、局所座標系を基準とする「座標反転無し」と反転座標系を基準とする「座標反転有り」のうちのいずれか1つである。   The coordinate inversion information 311 is displayed and input in the two-dimensional display input unit 102 based on the local coordinate system of the two-dimensional display input unit 102 described above, or the local coordinate system of the two-dimensional display input unit 102 described above is used. This is information specifying whether or not to use a coordinate system rotated by 180 degrees around the origin of the coordinate system (hereinafter referred to as “inverted coordinate system”), and the possible values are based on the local coordinate system. One of the “coordinate inversion” and the “coordinate inversion” based on the inversion coordinate system.

立体表示部101で立体像として表示される物体の局所座標系は、立体表示部101の局所座標系と同様に、3次元かつ右手系の直交座標系として構成し、物体の局所座標系のz軸方向が立体表示部101の局所座標系におけるz軸方向と一致するように構成する。立体像回転情報312は、物体を立体像として表示する際に、物体を、物体の局所座標系のz軸の周りに、どれだけの角度だけ回転させて表示するかを規定する情報である。Nを整数値としたときに、(D+360×N)度の回転は(D)度の回転と同一の作用を表すことになるため、立体像回転情報312としては、前記「N」の値を調整して0度以上360度未満の数値となるようにした(このような調整を以下では「標準化」と呼ぶ)後に、値を格納するよう構成する。尚、反時計回りの方向を正の値とする。   Similar to the local coordinate system of the stereoscopic display unit 101, the local coordinate system of the object displayed as a stereoscopic image on the stereoscopic display unit 101 is configured as a three-dimensional and right-handed orthogonal coordinate system, and z of the local coordinate system of the object is displayed. The axial direction is configured to coincide with the z-axis direction in the local coordinate system of the stereoscopic display unit 101. The stereoscopic image rotation information 312 is information that defines how much an object is rotated and displayed around the z axis of the local coordinate system of the object when the object is displayed as a stereoscopic image. When N is an integer value, rotation of (D + 360 × N) degrees represents the same action as rotation of (D) degrees. Therefore, as the stereoscopic image rotation information 312, the value of “N” is used. After the adjustment, the value is set to a value not less than 0 degrees and less than 360 degrees (such adjustment is hereinafter referred to as “standardization”), and then the value is stored. The counterclockwise direction is a positive value.

視点位置基準基底ベクトル情報313は、表示用視点情報307に依存して変化する局所座標系の直交基底を成す基底ベクトルの情報である。数式を使用して説明すると、次のようになる。まず、z軸の方向を   The viewpoint position reference basis vector information 313 is information on basis vectors forming an orthogonal basis of a local coordinate system that changes depending on the display viewpoint information 307. The description using mathematical formulas is as follows. First, the z-axis direction

Figure 2009278456
Figure 2009278456

で定める。ここで、vは表示用視点情報307で規定される3次元の視点位置を表すベクトルであり、oは注視点の3次元位置を表すベクトルである。直感的な意味としては、視点位置とは所謂目の位置であり、注視点とは目が見ようとしている位置である。注視点の位置は、実際に計測するのではなく、所与の値を使用する。表示する物体ごとに異なる値を設定しておくようにしてもよいし、例えば、立体表示部101の局所座標系の座標原点に固定するようにしてもよい。z軸は、即ち、表示用視点位置から注視点位置へと向かう軸である。尚、ezはz軸方向の方向ベクトルである。 Determined by Here, v is a vector representing the three-dimensional viewpoint position defined by the display viewpoint information 307, and o is a vector representing the three-dimensional position of the gazing point. Intuitively, the viewpoint position is the so-called eye position, and the gazing point is the position where the eye is looking. The position of the gazing point is not actually measured, but a given value is used. Different values may be set for each object to be displayed, or may be fixed to the coordinate origin of the local coordinate system of the stereoscopic display unit 101, for example. That is, the z-axis is an axis from the display viewpoint position to the gazing point position. Note that ez is a direction vector in the z-axis direction.

次に、x軸とy軸の方向を   Next, the direction of the x-axis and y-axis

Figure 2009278456
Figure 2009278456

または Or

Figure 2009278456
Figure 2009278456

で定める。z軸の方向が立体表示部101の局所座標系のz軸の方向に平行でない場合には[数2]を用い、平行である場合には[数3]を用いる。即ち、通常の場合には[数2]を用いて、x軸を「z軸と立体表示部101の局所座標系のz軸とで張られる平面に垂直な方向の軸」、y軸を「前記平面内でz軸と直交する軸」として定めるが、z軸の方向が立体表示部101の局所座標系のz軸の方向に平行となる場合には、前記平面を定めることができないため、例外として、表示用視点情報307の変更前後で前記平面が不変となるように、[数3]を用いてx軸とy軸とを定める。尚、exとeyは、それぞれx軸方向とy軸方向の方向ベクトルである。各方向ベクトルを上記のように定めることで、{ex,ey,ez}は3次元の正規直交基底を成す。 Determined by [Expression 2] is used when the z-axis direction is not parallel to the z-axis direction of the local coordinate system of the stereoscopic display unit 101, and [Expression 3] is used when they are parallel. That is, in the normal case, using [Equation 2], the x-axis is “an axis in a direction perpendicular to the plane stretched by the z-axis and the z-axis of the local coordinate system of the stereoscopic display unit 101”, and the y-axis is “ However, if the z-axis direction is parallel to the z-axis direction of the local coordinate system of the stereoscopic display unit 101, the plane cannot be determined. As an exception, the x-axis and the y-axis are determined using [Equation 3] so that the plane remains unchanged before and after the display viewpoint information 307 is changed. Here, ex and ey are direction vectors in the x-axis direction and the y-axis direction, respectively. By defining each direction vector as described above, {ex, ey, ez} forms a three-dimensional orthonormal basis.

次に、実際に2次元表示部102aで表示する画像を生成するために使用する基底ベクトル{Ex,Ey,Ez}を   Next, basis vectors {Ex, Ey, Ez} used to generate an image to be actually displayed on the two-dimensional display unit 102a are obtained.

Figure 2009278456
Figure 2009278456

で生成する。即ち、正規直交基底{ex,ey,ez}に対し、立体表示部101の局所座標系と2次元表示入力部102の局所座標系との間のスケールの違いを吸収したものが、直交基底{Ex,Ey,Ez}である。スケール変換ファクタkは、スカラーの定数であり、あらかじめ設計値に基づいて計算し、画像生成用パラメタ309として格納しておく。 Generate with In other words, the orthogonal basis {ex, ey, ez} is obtained by absorbing the difference in scale between the local coordinate system of the stereoscopic display unit 101 and the local coordinate system of the two-dimensional display input unit 102. Ex, Ey, Ez}. The scale conversion factor k is a scalar constant, is calculated based on a design value in advance, and is stored as an image generation parameter 309.

表示種別情報302が「透視投影図」の場合には、立体表示部101の局所座標系における3次元の位置ベクトルtの座標値と、2次元表示部102a上の座標値(x,y)との間の関係は、   When the display type information 302 is “perspective projection”, the coordinate value of the three-dimensional position vector t in the local coordinate system of the stereoscopic display unit 101, the coordinate value (x, y) on the two-dimensional display unit 102a, and The relationship between

Figure 2009278456
Figure 2009278456

のようになる。ここでsは表示倍率情報303として記憶部202に格納されている拡大率である。(x,y,h)が未知数であるが、これは become that way. Here, s is an enlargement ratio stored in the storage unit 202 as the display magnification information 303. (X, y, h) is an unknown number.

Figure 2009278456
Figure 2009278456

のように算出する。尚、(x,y)が与えられた場合の[数5]の右辺の座標を、以下では「(x,y)に対応する立体空間位置」と呼ぶ。 Calculate as follows. The coordinates of the right side of [Equation 5] when (x, y) is given are hereinafter referred to as “a three-dimensional space position corresponding to (x, y)”.

一方、表示種別情報302が「正面図」「平面図」「側面図」のいずれかである場合には、立体表示部101の局所座標系における3次元の位置ベクトルtの座標値に   On the other hand, when the display type information 302 is any one of “front view”, “plan view”, and “side view”, the coordinate value of the three-dimensional position vector t in the local coordinate system of the stereoscopic display unit 101 is displayed.

Figure 2009278456
Figure 2009278456

のような座標変換を行って、射影方向を軸に平行とした上で、正射影の処理を行う。 After performing the coordinate transformation as described above and making the projection direction parallel to the axis, the orthographic projection process is performed.

以上[数1]乃至[数7]の説明における各ベクトルの表現は、立体表示部101の局所座標系を基準とした表現とする。視点位置基準基底ベクトル情報313としては、以上のように定められた{ex,ey,ez}及び{Ex,Ey,Ez}を格納しておく。   The expression of each vector in the description of [Equation 1] to [Equation 7] is an expression based on the local coordinate system of the stereoscopic display unit 101. As the viewpoint position reference basis vector information 313, {ex, ey, ez} and {Ex, Ey, Ez} determined as described above are stored.

視点情報取得部の設計情報314は、撮影部103aが撮影した撮影画像データと距離画像取得部103bが取得した距離画像データの各々において、画像データ上の位置から該位置に投影される半直線を算出するための情報である。該半直線の表現は、立体表示部101の局所座標系を基準とする。撮影部103a、距離画像取得部103b、のいずれに対しても、半直線の始点位置となる投影中心の位置と、画素毎の方向ベクトルとを記憶しておけばよいが、例えば撮影部103aの場合であれば、投影中心の位置のほか、投影面の原点の座標と投影面を張る2本の基底ベクトルとを立体表示部101の局所座標系を基準とした表現で記憶しておき、各画素に対応する方向ベクトルをその都度計算によって求めるようにしてもよい。例えば、図5の場合であれば、ピンホールモデルで表される撮影部103aに対して、立体表示部101の局所座標系における、投影中心501の位置と、投影面502の原点の座標と、投影面502を張る2本の基底ベクトルと、を記憶しておくことにより、撮影画像データ上の位置、即ち2次元の位置から、該位置に対応する投影面上の位置503を求めることができ、さらに、投影中心501を始点として前記の位置503を通る半直線504の方向を表すベクトルとして、前記方向ベクトルを算出することができる。尚、方向ベクトルの算出に用いるパラメタを記憶しておけば十分である点については、距離画像取得部103bについても同様である。   The design information 314 of the viewpoint information acquisition unit includes a half line projected from the position on the image data to the position in each of the captured image data captured by the imaging unit 103a and the distance image data acquired by the distance image acquisition unit 103b. This is information for calculation. The expression of the half line is based on the local coordinate system of the stereoscopic display unit 101. For both the imaging unit 103a and the distance image acquisition unit 103b, it is only necessary to store the position of the projection center that is the starting point position of the half line and the direction vector for each pixel. In this case, in addition to the position of the projection center, the coordinates of the origin of the projection plane and the two base vectors extending the projection plane are stored in an expression based on the local coordinate system of the three-dimensional display unit 101. The direction vector corresponding to the pixel may be obtained by calculation each time. For example, in the case of FIG. 5, the position of the projection center 501 and the coordinates of the origin of the projection plane 502 in the local coordinate system of the stereoscopic display unit 101 for the imaging unit 103a represented by the pinhole model, By storing the two basis vectors extending the projection plane 502, the position 503 on the projection plane corresponding to the position can be obtained from the position on the captured image data, that is, the two-dimensional position. Further, the direction vector can be calculated as a vector representing the direction of the half line 504 passing through the position 503 with the projection center 501 as a starting point. The same applies to the distance image acquisition unit 103b in that it is sufficient to store parameters used for calculating the direction vector.

物体情報315は、1つ以上の物体に関する、立体形状情報315a、付加情報315b、及び、表示用立体情報315c、の組で構成される。   The object information 315 includes a set of three-dimensional shape information 315a, additional information 315b, and display three-dimensional information 315c related to one or more objects.

立体形状情報315aは、物体の立体形状を定めるための情報であり、例えば、頂点と辺と面の情報を有するポリゴンモデルである。頂点の情報としては、モデルに含まれる頂点の数の情報と、各頂点の3次元座標を備えるように構成し、辺の情報としては、モデルに含まれる辺の数の情報と、各辺の両端の頂点を特定する情報を備えるように構成し、面の情報としては、モデルに含まれる面の数の情報と、各面を構成する頂点を特定する情報と、各面を構成する辺を特定する情報と、各面に貼るテクスチャの情報と、を備えるように構成する。尚、各面を構成する頂点を特定する情報に関しては、各面の外向き法線方向に基づき、反時計回りに順序良く格納するようにする。各頂点の3次元座標は、物体の局所座標系を基準とした値であり、立体表示部101で立体像として表示されるに好適な大きさの値を設定しておく。   The three-dimensional shape information 315a is information for determining the three-dimensional shape of the object, and is, for example, a polygon model having vertex, side, and surface information. Vertex information is configured to include information on the number of vertices included in the model and the three-dimensional coordinates of each vertex, and information on the sides includes information on the number of sides included in the model, It is configured to include information for identifying the vertices at both ends, and as surface information, information on the number of surfaces included in the model, information for identifying the vertices constituting each surface, and sides constituting each surface It comprises so that the information to identify and the information of the texture stuck on each surface may be provided. The information specifying the vertices constituting each surface is stored in order counterclockwise based on the outward normal direction of each surface. The three-dimensional coordinates of each vertex are values based on the local coordinate system of the object, and a value that is suitable for being displayed as a stereoscopic image on the stereoscopic display unit 101 is set.

付加情報315bは、当該物体の名称やサムネイル画像、部位ごとの特徴に関する注釈や寸法などの情報であり、図面情報と文字情報とが混在し得る情報である。   The additional information 315b is information such as the name and thumbnail image of the object, annotations and dimensions related to the characteristics of each part, and is information that can be mixed with drawing information and character information.

表示用立体情報315cは、物体形状情報315aに対して基準面選択情報306と立体像回転情報312とを反映させた情報であり、立体形状情報315aに対して各頂点の3次元座標のみが異なる情報である。各頂点の3次元座標は、立体表示部101の局所座標系を基準として表す。   The display stereoscopic information 315c is information in which the reference plane selection information 306 and the stereoscopic image rotation information 312 are reflected on the object shape information 315a, and only the three-dimensional coordinates of each vertex are different from the stereoscopic shape information 315a. Information. The three-dimensional coordinates of each vertex are expressed using the local coordinate system of the stereoscopic display unit 101 as a reference.

図6は本実施例の映像表示処理のフロー図である。本実施例の映像表示処理は、映像表示装置100の電源が投入されたことを契機に開始され、映像表示装置100の電源が切断されるまで、演算処理部201によって実行され続ける処理である。   FIG. 6 is a flowchart of the video display process of this embodiment. The video display process according to the present embodiment is a process that is started when the power of the video display device 100 is turned on and continues to be executed by the arithmetic processing unit 201 until the power of the video display device 100 is turned off.

映像表示処理が開始されると、まず、ステップS601において物体選択処理を行う。ステップS601の物体選択処理は、記憶部202に格納されている物体情報315の中から、立体表示部101及び2次元表示部102aで表示する物体を選択し、該物体の識別情報を、選択物体情報301として記憶部202に格納する処理である。具体的には、例えば、物体情報315の中に含まれている物体の名称やサムネイル画像の一覧を2次元表示部102aで表示することで、選択できる物体の一覧をユーザに提示し、コマンド入力部102bから入力されたユーザの選択結果を、選択物体情報301として格納すればよい。   When the video display process is started, first, an object selection process is performed in step S601. In the object selection processing in step S601, the object displayed on the stereoscopic display unit 101 and the two-dimensional display unit 102a is selected from the object information 315 stored in the storage unit 202, and the identification information of the object is selected as the selected object. This is a process of storing the information 301 in the storage unit 202. Specifically, for example, a list of selectable objects is presented to the user by displaying a list of object names and thumbnail images included in the object information 315 on the two-dimensional display unit 102a, and a command input The selection result of the user input from the unit 102b may be stored as the selected object information 301.

次に、ステップS602で表示更新処理を行う。ステップS602の表示更新処理は、立体表示部101に表示する映像、及び、2次元表示部102aに表示する映像を、記憶部202に格納されているデータに基づいて更新する処理である。ステップS602の表示更新処理の詳細は、後述(図10)する。   Next, display update processing is performed in step S602. The display update process in step S602 is a process of updating the video displayed on the stereoscopic display unit 101 and the video displayed on the two-dimensional display unit 102a based on data stored in the storage unit 202. Details of the display update processing in step S602 will be described later (FIG. 10).

次に、ステップS603でコマンド入力の有無を判定する。ステップS603の処理で新規のコマンド入力「あり」と判定された場合には、ステップS604の処理へと進む。一方、新規のコマンド入力「なし」と判定された場合には、ステップS602の表示更新処理に戻って処理を続ける。   Next, in step S603, it is determined whether a command has been input. If it is determined in step S603 that the new command input is “present”, the process proceeds to step S604. On the other hand, if it is determined that the new command input is “none”, the process returns to the display update process in step S602 and continues.

ステップS604の処理は、入力されたコマンドが設定変更コマンドであったか否かを判定する処理である。入力されたコマンドが設定変更コマンドであった場合は、ステップS605へと進み、後述(図7)の設定変更処理を行った後、ステップS602の表示更新処理に戻って処理を続ける。一方、入力されたコマンドが設定変更コマンドでなかった場合にはステップS606の処理へと進む。尚、設定変更コマンドとは、より詳細には、立体像回転コマンド、表示種別変更コマンド、表示倍率変更コマンド、追従モード変更コマンド、あるいは、基準面変更コマンドである。   The processing in step S604 is processing for determining whether or not the input command is a setting change command. If the input command is a setting change command, the process proceeds to step S605, and after performing a setting change process described later (FIG. 7), the process returns to the display update process in step S602 and continues the process. On the other hand, if the input command is not a setting change command, the process proceeds to step S606. The setting change command is more specifically a stereoscopic image rotation command, a display type change command, a display magnification change command, a tracking mode change command, or a reference plane change command.

ステップS606の処理は、入力されたコマンドが形状変更コマンドであったか否かを判定する処理である。入力されたコマンドが形状変更コマンドであった場合は、ステップS607へと進み、後述(図8)の形状変更処理を行った後、ステップS602の表示更新処理に戻って処理を続ける。一方、入力されたコマンドが形状変更コマンドでなかった場合にはステップS608の処理へと進む。   The processing in step S606 is processing for determining whether or not the input command is a shape change command. If the input command is a shape change command, the process advances to step S607 to perform a shape change process described later (FIG. 8), and then returns to the display update process in step S602 to continue the process. On the other hand, if the input command is not a shape change command, the process proceeds to step S608.

ステップS608の処理は、入力されたコマンドが物体選択コマンドであったか否かを判定する処理である。入力されたコマンドが物体選択コマンドであった場合は、ステップS601の物体選択処理に戻って処理を続け、入力されたコマンドが物体選択コマンドでなかった場合にはステップS602の表示更新処理に戻って処理を続ける。   The process in step S608 is a process for determining whether or not the input command is an object selection command. If the input command is an object selection command, the process returns to the object selection process in step S601 to continue the process. If the input command is not an object selection command, the process returns to the display update process in step S602. Continue processing.

図7は本実施例の設定変更処理のフロー図である。   FIG. 7 is a flowchart of the setting change process of this embodiment.

設定変更処理が開始されると、まず、ステップS701において、入力された設定変更コマンドが、より詳細には立体像回転コマンドであったか否かを判定する。入力された設定変更コマンドが立体像回転コマンドであった場合は、ステップS706の立体像回転処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが立体像回転コマンドでなかった場合には、ステップS702の処理へと進む。   When the setting change process is started, first, in step S701, it is determined whether or not the input setting change command is a stereoscopic image rotation command in more detail. When the input setting change command is a stereoscopic image rotation command, the stereoscopic image rotation process in step S706 is performed, and then the setting change process is terminated. On the other hand, if the input setting change command is not a stereoscopic image rotation command, the process proceeds to step S702.

ステップS702の処理は、入力された設定変更コマンドが、より詳細には表示種別変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが表示種別変更コマンドであった場合には、ステップS707の表示種別変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが表示種別変更コマンドでなかった場合には、ステップS703の処理へと進む。   The process of step S702 is a process of determining whether or not the input setting change command is a display type change command in more detail. If the input setting change command is a display type change command, the display type change process in step S707 is performed, and then the setting change process ends. On the other hand, if the input setting change command is not a display type change command, the process proceeds to step S703.

ステップS703の処理は、入力された設定変更コマンドが、より詳細には表示倍率変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが表示倍率変更コマンドであった場合は、ステップS708の表示倍率変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが表示倍率変更コマンドでなかった場合には、ステップS704の処理へと進む。   The processing in step S703 is processing for determining whether or not the input setting change command is a display magnification change command in more detail. If the input setting change command is a display magnification change command, after performing the display magnification changing process in step S708, the setting changing process is terminated. On the other hand, if the input setting change command is not a display magnification change command, the process proceeds to step S704.

ステップS704の処理は、入力された設定変更コマンドが、より詳細には追従モード変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが追従モード変更コマンドであった場合には、ステップS709の追従モード変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが追従モード変更コマンドでなかった場合には、ステップS705の処理へと進む。   The process of step S704 is a process of determining whether or not the input setting change command is a follow-up mode change command in more detail. If the input setting change command is a follow-up mode change command, after performing the follow-up mode change process in step S709, the setting change process ends. On the other hand, if the input setting change command is not a follow-up mode change command, the process proceeds to step S705.

ステップS705の処理は、入力された設定変更コマンドが、より詳細には基準面変更コマンドであったか否かを判定する処理である。入力された設定変更コマンドが基準面変更コマンドであった場合は、ステップS710の基準面変更処理を行った後、設定変更処理を終了する。一方、入力された設定変更コマンドが基準面変更コマンドでなかった場合には、そのまま設定変更処理を終了する。   The process of step S705 is a process of determining whether or not the input setting change command is a reference plane change command in more detail. If the input setting change command is a reference plane change command, the reference plane change process in step S710 is performed, and then the setting change process is terminated. On the other hand, if the input setting change command is not a reference plane change command, the setting change process is terminated as it is.

ステップS706の立体像回転処理は、コマンド入力部102bから入力された情報に基づき、記憶部202に格納されている立体像回転情報312を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うようにスライドバーをポップアップ表示し、該スライドバー上のスライダーの位置をコマンド入力部102bから変更することで、回転量を入力する。回転量はスライドバーの中央を原点とし、スライダーがスライドバーの中央にある場合に「0度の回転」を表し、スライダーがスライドバーの中央から右に動くに従って反時計回りの回転量が線形に増加し、スライダーがスライドバーの右端に到達した段階で「反時計回りに360度の回転」を表すようにする。尚、スライダーがスライドバーの中央から左に動く場合は、回転の向きが時計回りとなることを表す以外は、スライダーが右に動く場合と同様である。立体像回転情報312の更新は、現在立体像回転情報312として格納されている値を参照し、反時計回りの場合には前記参照した値に入力された値(絶対値)を加え、時計回りの場合には前記参照した値から入力された値(絶対値)を減じて、立体像回転情報312として記憶部202に格納することで行う。尚、演算結果は標準化した後に記憶部202に格納するように構成する。演算結果を記憶部202に格納後、立体像回転処理を終了する。尚、回転量の入力後、ポップアップ表示は消去する。   The stereoscopic image rotation process in step S706 is a process of updating the stereoscopic image rotation information 312 stored in the storage unit 202 based on information input from the command input unit 102b. Specifically, a slide bar pops up along the lower side in the video display area of the two-dimensional display unit 102a, and the amount of rotation is changed by changing the position of the slider on the slide bar from the command input unit 102b. input. The amount of rotation represents the center of the slide bar as the origin. When the slider is in the center of the slide bar, it represents “0 degree rotation”. As the slider moves from the center of the slide bar to the right, the amount of counterclockwise rotation is linear. When the slider reaches the right end of the slide bar, it represents “360 ° counterclockwise rotation”. Note that when the slider moves to the left from the center of the slide bar, it is the same as when the slider moves to the right, except that the direction of rotation is clockwise. The update of the stereoscopic image rotation information 312 refers to the value currently stored as the stereoscopic image rotation information 312. In the case of counterclockwise rotation, the input value (absolute value) is added to the referenced value, and the clockwise rotation is performed. In this case, the input value (absolute value) is subtracted from the referenced value and stored in the storage unit 202 as the stereoscopic image rotation information 312. The calculation result is stored in the storage unit 202 after being standardized. After the calculation result is stored in the storage unit 202, the stereoscopic image rotation process is terminated. Note that the pop-up display disappears after the rotation amount is input.

ステップS707の表示種別変更処理は、コマンド入力部102bから入力された情報に基づき、表示種別情報302を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように「付加情報」「正面図」「平面図」「側面図」「透視投影図」の五者択一の選択ボタンをポップアップ表示し、該選択ボタンのうちの一つを、コマンド入力部102bから選択することで、選択したい表示種別を入力する。選択したい表示種別の入力後、該入力された表示種別に従って表示種別情報302を更新し、表示種別変更処理を終了する。尚、表示種別の選択後、ポップアップ表示は消去する。   The display type change process in step S707 is a process of updating the display type information 302 based on information input from the command input unit 102b. Specifically, a selection button of five choices of “additional information”, “front view”, “plan view”, “side view”, and “perspective projection view” along the lower side in the video display area of the two-dimensional display unit 102a. Is displayed in a pop-up, and one of the selection buttons is selected from the command input unit 102b, thereby inputting a display type to be selected. After inputting the display type to be selected, the display type information 302 is updated according to the input display type, and the display type changing process is terminated. Note that the pop-up display is deleted after the display type is selected.

ステップS708の表示倍率変更処理は、コマンド入力部102bから入力された情報に基づき、表示倍率情報303または座標反転情報311を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように、スライドバーと、「右利き用」「左利き用」の二者択一の選択ボタンをポップアップ表示し、前記スライドバー上のスライダーの位置をコマンド入力部102bから変更することで表示倍率を入力し、または、前記選択ボタンのうちの一つをコマンド入力部102bから選択することで座標反転の有無を入力する。表示倍率に関しては、スライドバーの左端を原点とし、スライダーがスライドバーの左端にある場合に「0倍」を表し、スライダーがスライドバーの左端から右に動くに従って倍率が線形に高くなり、スライダーがスライドバーの右端に到達した段階で所定の最大倍率を表すように構成する。また、座標反転の有無に関しては、「右利き用」が選択された場合には「座標反転無し」、「左利き用」が選択された場合には「座標反転有り」がそれぞれ入力されたものとする。表示倍率が入力された場合には、表示倍率情報303の値を前記入力された表示倍率に設定し、表示倍率変更処理を終了する。また、座標反転の有無が入力された場合には、前記入力された座標反転の有無に従って座標反転情報311の値を更新し、表示倍率変更処理を終了する。尚、表示倍率の入力後、または、上下反転の有無の入力後、ポップアップ表示は消去する。   The display magnification change process in step S708 is a process of updating the display magnification information 303 or the coordinate inversion information 311 based on the information input from the command input unit 102b. Specifically, a slide bar and selection buttons for “right-handed” and “left-handed” are pop-up displayed along the lower side in the video display area of the two-dimensional display unit 102a, and the slide The display magnification is input by changing the position of the slider on the bar from the command input unit 102b, or the presence / absence of coordinate inversion is input by selecting one of the selection buttons from the command input unit 102b. As for the display magnification, when the left end of the slide bar is the origin and the slider is at the left end of the slide bar, “0x” is displayed. As the slider moves from the left end of the slide bar to the right, the magnification increases linearly. It is configured to represent a predetermined maximum magnification when it reaches the right end of the slide bar. In addition, regarding the presence or absence of coordinate reversal, if “for right-handed” is selected, “no coordinate reversal” is entered, and if “for left-handed” is selected, “coordinate reversal” is entered. To do. When the display magnification is inputted, the value of the display magnification information 303 is set to the inputted display magnification, and the display magnification changing process is ended. When the presence / absence of coordinate inversion is input, the value of the coordinate inversion information 311 is updated according to the input presence / absence of coordinate inversion, and the display magnification changing process is terminated. Note that the pop-up display is erased after the display magnification is input or after the up / down inversion is input.

ステップS709の追従モード変更処理は、コマンド入力部102bから入力された情報に基づき、視点追従モード情報305を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように「常時追従」「スポット追従」「視点固定」の三者択一の選択ボタンをポップアップ表示し、該選択ボタンのうちの一つを、コマンド入力部102bから選択することで、選択したい視点追従モードを入力する。選択したい視点追従モードの入力後、該入力された視点追従モードに従って視点追従モード情報305を更新し、その後、表示用視点情報307を更新して、視点追従モード変更処理を終了する。表示用視点情報307の更新は、選択された視点追従モードが「常時追従」または「スポット追従」の場合には、後述(図11)の視点位置推定処理を実施することで行い、選択された視点追従モードが「視点固定」の場合には、標準視点情報308を表示用視点情報307に複製することで行う。尚、視点追従モードの選択後、ポップアップ表示は消去する。   The tracking mode change process in step S709 is a process of updating the viewpoint tracking mode information 305 based on information input from the command input unit 102b. Specifically, a selection button of three choices of “always follow”, “spot follow”, and “fixed viewpoint” is pop-up displayed along the lower side in the image display area of the two-dimensional display unit 102a, and the selection button By selecting one of them from the command input unit 102b, the viewpoint follow-up mode to be selected is input. After inputting the viewpoint tracking mode to be selected, the viewpoint tracking mode information 305 is updated according to the input viewpoint tracking mode, then the display viewpoint information 307 is updated, and the viewpoint tracking mode changing process is terminated. The display viewpoint information 307 is updated by performing the viewpoint position estimation process described later (FIG. 11) when the selected viewpoint tracking mode is “always following” or “spot following”. When the viewpoint follow-up mode is “fixed viewpoint”, the standard viewpoint information 308 is copied to the display viewpoint information 307. Note that the pop-up display disappears after the viewpoint tracking mode is selected.

ステップS710の基準面変更処理は、コマンド入力部102bから入力された情報に基づき、基準面選択情報306を更新する処理である。具体的には、2次元表示部102aの映像表示領域内に下辺に沿うように「立体表示面」「水平面」の二者択一の選択ボタンをポップアップ表示し、該選択ボタンのうちの一つをコマンド入力部102bから選択することで、選択したい基準面を入力する。選択したい基準面の入力後、該入力された基準面に従って基準面選択情報306を更新し、基準面変更処理を終了する。尚、基準面の選択後、ポップアップ表示は消去する。   The reference plane change process in step S710 is a process for updating the reference plane selection information 306 based on the information input from the command input unit 102b. Specifically, an alternative selection button of “stereoscopic display surface” and “horizontal plane” is pop-up displayed along the lower side in the video display area of the two-dimensional display unit 102a, and one of the selection buttons is displayed. Is selected from the command input unit 102b, thereby inputting a reference plane to be selected. After inputting the reference plane to be selected, the reference plane selection information 306 is updated according to the input reference plane, and the reference plane changing process is terminated. Note that the pop-up display is deleted after the reference plane is selected.

尚、以上で説明したステップS706乃至S710におけるポップアップ表示、及び、コマンド入力部102bを用いた情報入力に関しては、記憶部202に格納されている座標反転情報311を参照し、2次元表示入力部102の局所座標系と反転座標系のうち適切な方を基準の座標系として、表示及び入力の処理を行うように構成する。   Note that the pop-up display in steps S706 to S710 described above and information input using the command input unit 102b are referred to the coordinate inversion information 311 stored in the storage unit 202, and the two-dimensional display input unit 102 An appropriate one of the local coordinate system and the inverted coordinate system is used as a reference coordinate system to perform display and input processing.

図8は本実施例の形状変更処理のフロー図である。本実施例の形状変更処理は、2次元表示部102aで表示されている画像上で、移動させたい頂点をコマンド入力部102bで選択し、続いて、該頂点をどの位置に動かすかを、同じく2次元表示部102aで表示されている画像上で、コマンド入力部102bを用いて指定して、立体形状情報315aを変更する処理である。尚、立体像上の1点だけを移動する場合について説明するが、本発明の実施形態はこれに限るものではない。   FIG. 8 is a flowchart of the shape change process of this embodiment. In the shape change process of the present embodiment, on the image displayed on the two-dimensional display unit 102a, a vertex to be moved is selected by the command input unit 102b, and subsequently, the position to which the vertex is moved is similarly determined. This is a process of changing the three-dimensional shape information 315a by designating using the command input unit 102b on the image displayed on the two-dimensional display unit 102a. In addition, although the case where only one point on the stereoscopic image is moved will be described, the embodiment of the present invention is not limited to this.

形状変更処理が開始されると、まず、ステップS801において、現在記憶部202に格納されている表示種別情報302の値が「付加情報」であるか否かを判定する。表示種別情報302の値が「付加情報」であった場合、形状変更処理を終了する。一方、表示種別情報302の値が「付加情報」でなかった場合、ステップS802の処理へと進む。   When the shape change process is started, first, in step S801, it is determined whether or not the value of the display type information 302 currently stored in the storage unit 202 is “additional information”. If the value of the display type information 302 is “additional information”, the shape change process is terminated. On the other hand, if the value of the display type information 302 is not “additional information”, the process proceeds to step S802.

ステップS802の処理は、現在記憶部202に格納されている表示種別情報302の値が「透視投影図」であるか否かを判定する処理である。表示種別情報302の値が「透視投影図」であった場合には、ステップS803の透視投影用着目点選択処理へと進み、表示種別情報302の値が「透視投影図」でなかった場合には、ステップS805の正射影用着目点選択処理へと進む。   The process of step S802 is a process of determining whether or not the value of the display type information 302 currently stored in the storage unit 202 is “perspective projection view”. If the value of the display type information 302 is “perspective projection”, the process proceeds to the perspective projection target point selection process in step S803, and the value of the display type information 302 is not “perspective projection”. Advances to the orthogonal projection target point selection processing in step S805.

ステップS803の透視投影用着目点選択処理は、コマンド入力部102bから為された、2次元表示部102aの映像表示領域上の位置(以下「選択位置」と呼ぶ)の入力に基づいて、移動させたい頂点を選択する処理である。このとき、「前記選択位置が、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点の、いずれかの位置に一致しているとは限らない」という前提の下、尤もらしい頂点の一つを選択するようにする。具体的には、表示用視点情報307と画像生成用パラメタ309と視点位置基準基底ベクトル情報313とを参照することにより、前記選択位置に対応する半直線が算出できるため、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点のすべてに対して前記半直線との距離を算出し、距離が最小の頂点を選択する。   The perspective projection point of interest selection processing in step S803 is moved based on the input of the position on the video display area of the two-dimensional display unit 102a (hereinafter referred to as “selected position”) made from the command input unit 102b. This is the process of selecting the desired vertex. At this time, “the selected position does not necessarily coincide with one of the vertices currently drawn on the two-dimensional display unit 102a among the vertices stored as the display stereoscopic information 315c. Under the premise that “”, one of the most likely vertices is selected. Specifically, since the half line corresponding to the selected position can be calculated by referring to the display viewpoint information 307, the image generation parameter 309, and the viewpoint position reference basis vector information 313, the display solid information 315c is obtained. Of the stored vertices, the distance to the half line is calculated for all the vertices currently drawn on the two-dimensional display unit 102a, and the vertex having the smallest distance is selected.

例えば、図9の場合であれば、まず、表示用の視点位置901と画像生成用パラメタ309及び視点位置基準基底ベクトル情報313とで定まる投影面902及び投影面902上で前記選択位置に対応する位置903から、前記選択位置に対応する半直線904を算出し、続いて現在2次元表示部102aで表示している物体(該物体の投影面902上における像を、像905に示す)の表示用立体情報(該表示用立体情報で表現される立体を、立体906に示す)を参照して、半直線904との距離が最小となる頂点907を選択すればよい。   For example, in the case of FIG. 9, first, the projection position 902 defined by the display viewpoint position 901, the image generation parameter 309, and the viewpoint position reference basis vector information 313 corresponds to the selected position on the projection plane 902. A half-line 904 corresponding to the selected position is calculated from the position 903, and then the object currently displayed on the two-dimensional display unit 102a (an image of the object on the projection plane 902 is displayed in the image 905) is displayed. The vertex 907 having the minimum distance from the half line 904 may be selected with reference to the stereoscopic information (the solid represented by the stereoscopic information for display is indicated by the solid 906).

尚、距離の算出は、表示用視点情報307を参照して得られた視点位置をv、半直線の方向ベクトルをd、距離を算出したい頂点の位置をpとした場合、pの位置から前記半直線に下ろした垂線のベクトルが   The distance is calculated by assuming that the viewpoint position obtained by referring to the display viewpoint information 307 is v, the direction vector of the half line is d, and the position of the vertex for which the distance is to be calculated is p, the position of p A vector of perpendiculars down to a half line

Figure 2009278456
Figure 2009278456

のように表されるため、この長さを求めればよい。このとき、内積の符号が負となる場合は、前記垂線の足が前記半直線上に乗っていないことを意味するため、選択対象から除外する。尚、vとdとpは3次元のベクトルであり、dは長さ1に正規化しておく。一方、各頂点が現在2次元表示部102a上に描画されているか否かの判定は、例えば、表示用視点情報307を参照して得られた視点位置に関するデプスバッファを生成し、該デプスバッファ上のデプス値と各頂点のデプス値とを比較することで実施すればよい。頂点を選択した後、ステップS804に進む。 Therefore, this length can be obtained. At this time, when the sign of the inner product is negative, it means that the perpendicular foot is not on the half line, and is excluded from the selection target. Note that v, d, and p are three-dimensional vectors, and d is normalized to a length of 1. On the other hand, whether or not each vertex is currently drawn on the two-dimensional display unit 102a is determined by, for example, generating a depth buffer related to the viewpoint position obtained by referring to the display viewpoint information 307, and This may be done by comparing the depth value of and the depth value of each vertex. After selecting a vertex, the process proceeds to step S804.

ステップS804の透視投影用変更先算出処理は、コマンド入力部102bから為された、2次元表示部102aの映像表示領域上の位置(以下「指定位置」と呼ぶ)の入力に基づいて、ステップS803で選択した頂点を移動させる位置を算出する処理である。具体的には、表示用視点情報307と画像生成用パラメタ309とを参照することにより、前記指定位置に対応する半直線が算出できるため、該半直線上で、ステップS803で選択した頂点の3次元位置に最も近い3次元位置を、移動先の3次元位置として算出する。より詳細には、表示用視点情報307を参照して得られた視点位置をv、半直線の方向ベクトルをd、ステップS803で選択した頂点の位置をpとした場合、   The perspective projection change destination calculation process in step S804 is based on the input of the position on the video display area of the two-dimensional display unit 102a (hereinafter referred to as “designated position”) made by the command input unit 102b. This is a process for calculating the position to move the vertex selected in step (b). Specifically, since a half line corresponding to the specified position can be calculated by referring to the display viewpoint information 307 and the image generation parameter 309, 3 of the vertices selected in step S803 on the half line. The three-dimensional position closest to the three-dimensional position is calculated as the destination three-dimensional position. More specifically, when the viewpoint position obtained by referring to the display viewpoint information 307 is v, the direction vector of the half line is d, and the position of the vertex selected in step S803 is p,

Figure 2009278456
Figure 2009278456

で表される位置を変更先の位置とする。尚、vとdとpは3次元のベクトルであり、dは長さ1に正規化しておく。変更先の位置を算出後、ステップS807の局所形状変更処理に進む。 The position represented by is the change destination position. Note that v, d, and p are three-dimensional vectors, and d is normalized to a length of 1. After calculating the change destination position, the process proceeds to the local shape changing process in step S807.

ステップS805の正射影用着目点選択処理は、投影方法が透視投影ではなく正射影である点を除いては、ステップS803の処理と同様である。「前記選択位置が、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点の、いずれかの位置に一致しているとは限らない」という前提の下で、尤もらしい頂点の一つを選択するために、表示用立体情報315cとして記憶されている頂点のうち現在2次元表示部102a上に描画されている頂点のすべてに対して、2次元表示入力部102の局所座標系上で、前記選択位置との距離を算出し、距離が最小の頂点を選択する。各頂点が現在2次元表示部102a上に描画されているか否かの判定は、例えば、射影方向に関するデプスバッファを生成し、該デプスバッファ上のデプス値と各頂点のデプス値とを比較することで実施すればよい。頂点の選択後、ステップS806に進む。   The orthographic point-of-interest selection processing in step S805 is the same as the processing in step S803 except that the projection method is not orthogonal projection but orthographic projection. The premise that “the selected position does not necessarily coincide with any one of the vertices currently drawn on the two-dimensional display unit 102a among the vertices stored as the display stereoscopic information 315c”. In order to select one of the most likely vertices, two-dimensional for all the vertices currently drawn on the two-dimensional display unit 102a among the vertices stored as the display stereoscopic information 315c. The distance to the selected position is calculated on the local coordinate system of the display input unit 102, and the vertex having the smallest distance is selected. Whether or not each vertex is currently drawn on the two-dimensional display unit 102a is determined by, for example, generating a depth buffer for the projection direction and comparing the depth value on the depth buffer with the depth value of each vertex. It can be done with. After selecting the vertex, the process proceeds to step S806.

ステップS806の正射影用変更先算出処理は、投影方法が透視投影ではなく正射影である点を除いては、ステップS804の処理と同様である。投影方法が正射影の場合、選択された頂点を含み、射影方向に垂直な平面上に、指定された3次元位置を射影し、変更先の3次元位置とする。例えば、ステップS805で選択した頂点の位置をp、射影方向の方向ベクトルをd、コマンド入力部102bから入力された指定位置に対応する立体空間位置をvとした場合、   The orthographic change destination calculation process in step S806 is the same as the process in step S804 except that the projection method is not orthogonal projection but orthographic projection. When the projection method is orthographic projection, the designated three-dimensional position is projected onto a plane that includes the selected vertex and is perpendicular to the projection direction, and sets the changed three-dimensional position. For example, when the position of the vertex selected in step S805 is p, the direction vector of the projection direction is d, and the three-dimensional space position corresponding to the designated position input from the command input unit 102b is v,

Figure 2009278456
Figure 2009278456

で表される位置を変更先の位置とする。尚、vとdとpは3次元のベクトルであり、dは長さ1に正規化しておく。変更先の位置を算出後、ステップS807の局所形状変更処理に進む。 The position represented by is the change destination position. Note that v, d, and p are three-dimensional vectors, and d is normalized to a length of 1. After calculating the change destination position, the process proceeds to the local shape changing process in step S807.

ステップS807の局所形状変更処理は、ステップS803またはステップS805で選択された頂点と、ステップS804またはステップS806で算出された変更先の位置に基づいて、選択物体情報301で規定される物体に関する立体形状情報315aを変更する処理である。具体的には、表示用立体情報315cの選択した頂点に関する座標値を算出された変更先の位置に更新した後、立体形状情報315aから表示用立体情報315cを生成する変換(後述)の逆写像にあたる座標変換を用いて、表示用立体情報315cから立体形状情報315aを生成すればよい。より詳細には、基準面選択情報306の値が「立体表示面」である場合、変換前の座標値(X,Y,Z)から変換後の座標値(x,y,z)を   The local shape changing process of step S807 is a three-dimensional shape related to the object specified by the selected object information 301 based on the vertex selected in step S803 or step S805 and the change destination position calculated in step S804 or step S806. This is a process for changing the information 315a. Specifically, after updating the coordinate value relating to the selected vertex of the display stereoscopic information 315c to the calculated change destination position, reverse mapping of conversion (described later) that generates the display stereoscopic information 315c from the solid shape information 315a The three-dimensional shape information 315a may be generated from the three-dimensional information for display 315c using coordinate conversion corresponding to the above. More specifically, when the value of the reference plane selection information 306 is “stereoscopic display surface”, the coordinate value (x, y, z) after conversion from the coordinate value (X, Y, Z) before conversion is changed.

Figure 2009278456
Figure 2009278456

によって算出する。ただし、[数11]は立体像回転情報312の値がθである場合の例である。一方、基準面選択情報306の値が「水平面」である場合には、変換前の座標値(X,Y,Z)から変換後の座標値(x,y,z)を Calculated by However, [Equation 11] is an example when the value of the stereoscopic image rotation information 312 is θ. On the other hand, when the value of the reference plane selection information 306 is “horizontal plane”, the coordinate value (x, y, z) after conversion is converted from the coordinate value (X, Y, Z) before conversion.

Figure 2009278456
Figure 2009278456

によって算出する。ただし[数12]は立体像回転情報312の値がθであり、傾き情報310の値が(α,β,γ)である場合の例である。表示用立体情報315cのすべての頂点の座標値に関して変換後の座標値を算出した後、変換結果を立体形状情報315aとして格納し、ステップS807の局所形状変更処理を終了する。 Calculated by However, [Equation 12] is an example when the value of the stereoscopic image rotation information 312 is θ and the value of the inclination information 310 is (α, β, γ). After calculating the coordinate values after conversion with respect to the coordinate values of all the vertices of the display stereoscopic information 315c, the conversion result is stored as the solid shape information 315a, and the local shape changing process in step S807 is ended.

ステップS807の局所形状変更処理の終了後、形状変更処理を終了する。   After the local shape change process in step S807 ends, the shape change process ends.

図10は本実施例の表示更新処理のフロー図である。
表示更新処理が開始されると、まず、ステップS1001において、表示用立体情報生成処理を行う。ステップS1001の表示用立体情報生成処理は、選択物体情報301で規定される物体に関する立体形状情報315aから、基準面選択情報306、傾き情報310、及び、立体像回転情報312に基づいて、立体表示部101で実際に表示する立体像の情報である表示用立体情報315cを生成する処理である。具体的には、選択物体情報301で規定される物体に関する立体形状情報315aに含まれる各頂点の3次元座標に対して、回転行列による座標変換を行う。
FIG. 10 is a flowchart of the display update process of this embodiment.
When the display update process is started, first, display three-dimensional information generation processing is performed in step S1001. The display stereoscopic information generation processing in step S1001 is performed based on the reference plane selection information 306, the tilt information 310, and the stereoscopic image rotation information 312 from the stereoscopic shape information 315a related to the object specified by the selected object information 301. This is processing for generating stereoscopic information for display 315c, which is information of a stereoscopic image actually displayed by the unit 101. Specifically, coordinate conversion by a rotation matrix is performed on the three-dimensional coordinates of each vertex included in the solid shape information 315a related to the object specified by the selected object information 301.

まず、基準面選択情報306の値が「立体表示面」である場合には、立体像回転情報312を反映させる処理を行う。具体的には、立体像回転情報312の値がθである場合、変換前の座標値(x,y,z)から変換後の座標値(X,Y,Z)を   First, when the value of the reference plane selection information 306 is “stereoscopic display plane”, processing for reflecting the stereoscopic image rotation information 312 is performed. Specifically, when the value of the stereoscopic image rotation information 312 is θ, the coordinate value (X, Y, Z) after conversion is converted from the coordinate value (x, y, z) before conversion.

Figure 2009278456
Figure 2009278456

によって算出する。算出後、変換結果を表示用立体情報315cとして格納し、表示用立体情報生成処理を終了する。 Calculated by After the calculation, the conversion result is stored as display stereoscopic information 315c, and the display stereoscopic information generation process is terminated.

一方、基準面選択情報306の値が「水平面」である場合には、さらに、表示された立体像のz軸方向を鉛直方向に一致させるための座標変換を行う必要がある。例えば、立体表示部101の右手側が高くなるように傾いている場合であれば、そのまま表示すると物体の局所座標系のz軸が左手側に傾いてしまうため、立体表示部101の局所座標系において、選択された物体を右に傾けたものを表示用立体とする必要がある。従って、傾き情報310の値が(α,β,γ)である場合に、変換前の座標値(x,y,z)から変換後の座標値(X,Y,Z)を   On the other hand, when the value of the reference plane selection information 306 is “horizontal plane”, it is necessary to further perform coordinate conversion for matching the z-axis direction of the displayed stereoscopic image with the vertical direction. For example, if the right-hand side of the stereoscopic display unit 101 is tilted so as to be higher, the z-axis of the local coordinate system of the object is tilted to the left-hand side when displayed as it is, so that in the local coordinate system of the stereoscopic display unit 101 It is necessary to make the selected object tilted to the right a display solid. Therefore, when the value of the inclination information 310 is (α, β, γ), the coordinate value (X, Y, Z) after conversion is converted from the coordinate value (x, y, z) before conversion.

Figure 2009278456
Figure 2009278456

によって算出する。算出後、変換結果を表示用立体情報315cとして格納し、表示用立体情報生成処理を終了する。 Calculated by After the calculation, the conversion result is stored as display stereoscopic information 315c, and the display stereoscopic information generation process is terminated.

ステップS1002の立体映像生成表示処理は、立体表示部101で所望の立体像が観賞されるような画素値を決定する処理である。表示用立体情報315cと画像生成用パラメタ309とに基づいて、公知の技術を用いて実施すればよい。   The stereoscopic image generation / display process in step S1002 is a process of determining a pixel value such that a desired stereoscopic image can be viewed on the stereoscopic display unit 101. Based on the display stereoscopic information 315c and the image generation parameter 309, a known technique may be used.

ステップS1003の処理は、現在記憶部202に格納されている表示種別情報302の値が「付加情報」であるか否かを判定する処理である。表示種別情報302の値が「付加情報」であった場合は、ステップS1004の付加情報表示処理を行った後、表示更新処理を終了する。一方、表示種別情報302の値が「付加情報」でなかった場合は、ステップS1005の処理へと進む。   The process of step S1003 is a process of determining whether or not the value of the display type information 302 currently stored in the storage unit 202 is “additional information”. If the value of the display type information 302 is “additional information”, the display update processing is terminated after performing the additional information display processing in step S1004. On the other hand, if the value of the display type information 302 is not “additional information”, the process proceeds to step S1005.

ステップS1004の付加情報表示処理は、記憶部202に格納されている座標反転情報311を参照して基準とする座標系を決定し、該基準とする座標系に基づいて、付加情報315bのうち現在選択されている物体に対応する情報を、2次元表示部102aに表示する処理であり、容易に実施可能である。   In the additional information display process in step S1004, the coordinate system to be used as a reference is determined with reference to the coordinate inversion information 311 stored in the storage unit 202, and the current information in the additional information 315b is determined based on the reference coordinate system. This is a process of displaying information corresponding to the selected object on the two-dimensional display unit 102a, and can be easily implemented.

ステップS1005の処理は、記憶部202に格納されている視点追従モード情報305の値が「常時追従」であるか否かを判定する処理である。視点追従モード情報305の値が「常時追従」であった場合には、ステップS1006の視点位置推定処理を行った後、ステップS1007の2次元画像生成処理へと進む。一方、視点追従モード情報305の値が「常時追従」でなかった場合には、そのままステップS1007の2次元画像生成処理へと進む。   The process of step S1005 is a process of determining whether or not the value of the viewpoint tracking mode information 305 stored in the storage unit 202 is “always following”. When the value of the viewpoint tracking mode information 305 is “always following”, the viewpoint position estimation process in step S1006 is performed, and then the process proceeds to the two-dimensional image generation process in step S1007. On the other hand, if the value of the viewpoint follow-up mode information 305 is not “always follow”, the process proceeds to the two-dimensional image generation process in step S1007.

ステップS1006の視点位置推定処理は、立体表示部101の局所座標系を基準とした現在のユーザの視点位置を推定し、表示用視点情報307を更新する処理である。ステップS1006の視点位置推定処理の詳細は、後述(図11)する。   The viewpoint position estimation process in step S <b> 1006 is a process for estimating the current user viewpoint position with reference to the local coordinate system of the stereoscopic display unit 101 and updating the display viewpoint information 307. Details of the viewpoint position estimation processing in step S1006 will be described later (FIG. 11).

ステップS1007の2次元画像生成処理は、2次元表示部102aで所望の映像が得られるように各画素の画素値を決定する処理である。選択物体情報301で規定される物体に関して、表示種別情報302、表示倍率情報303、表示用視点情報307、画像生成用パラメタ309、及び、表示用立体情報315cに基づいて、公知の技術を用いて実施すればよい。正射影の場合、即ち表示種別情報302の値が「正面図」「平面図」「側面図」のいずれかである場合、投影される面に垂直な軸(それぞれ、z軸、y軸、x軸)の負の側から正の側へ向く方向に射影するものとするが、コマンド入力部102bを用いて該方向をどちらにするか選択するような構成としてもよい。   The two-dimensional image generation process in step S1007 is a process for determining the pixel value of each pixel so that a desired image can be obtained by the two-dimensional display unit 102a. With respect to the object specified by the selected object information 301, a known technique is used based on the display type information 302, the display magnification information 303, the display viewpoint information 307, the image generation parameter 309, and the display stereoscopic information 315c. Just do it. In the case of orthographic projection, that is, when the value of the display type information 302 is any one of “front view”, “plan view”, and “side view”, the axes perpendicular to the projected plane (the z axis, y axis, and x axis, respectively) Projection is performed in a direction from the negative side of the axis) toward the positive side, but the direction may be selected using the command input unit 102b.

ステップS1008の2次元画像表示処理は、ステップS1007で生成された2次元画像を、記憶部202に格納されている座標反転情報311を参照して基準とする座標系を決定し、該基準とする座標系に基づいて、2次元表示部102aで表示する処理である。   In the two-dimensional image display processing in step S1008, a coordinate system is determined by referring to the coordinate inversion information 311 stored in the storage unit 202 for the two-dimensional image generated in step S1007, and used as the reference. This is a process of displaying on the two-dimensional display unit 102a based on the coordinate system.

ステップS1008の2次元画像表示処理の終了後、表示更新処理を終了する。
図11は、本実施例の視点位置推定処理のフロー図である。視点位置推定処理は、視点情報取得部103から取得した情報に基づき、ユーザの視点位置、または、ユーザの視点位置の近似値を推定する処理である。
After the two-dimensional image display process in step S1008, the display update process ends.
FIG. 11 is a flowchart of the viewpoint position estimation process of the present embodiment. The viewpoint position estimation process is a process of estimating the user's viewpoint position or an approximate value of the user's viewpoint position based on the information acquired from the viewpoint information acquisition unit 103.

視点位置推定処理が開始されると、まず、ステップS1101において、視点情報取得処理を行う。ステップS1101の視点情報取得処理は、妥当性チェック処理を行った後、撮影部103aで撮影画像データを取得し、かつ、距離画像取得部103bで距離画像データを取得する処理である。妥当性チェック処理は、センサ接続情報304と座標反転情報311とを参照し、「座標反転無し」の場合には撮影部103aと距離画像取得部103bの対が第一のセンサ接続部104aに接続されていることを、「座標反転有り」の場合には撮影部103aと距離画像取得部103bの対が第二のセンサ接続部104bに接続されていることを、それぞれ確認する処理である。「座標反転無し」の場合で撮影部103aと距離画像取得部103bの対が第一のセンサ接続部104aに接続されていない場合や、「座標反転有り」の場合で撮影部103aと距離画像取得部103bの対が第二のセンサ接続部104bに接続されていない場合には、撮影部103aと距離画像取得部103bの対を正しいセンサ接続部に接続する旨を2次元表示部102aに表示し、撮影部103aと距離画像取得部103bの対が正しいセンサ接続部に接続されたことがセンサ接続情報304から確認されるまで、センサ接続情報304の値を定期的に確認しながら待機する。   When the viewpoint position estimation processing is started, first, viewpoint information acquisition processing is performed in step S1101. The viewpoint information acquisition process of step S1101 is a process of acquiring the captured image data by the imaging unit 103a and acquiring the distance image data by the distance image acquiring unit 103b after performing the validity check process. The validity check process refers to the sensor connection information 304 and the coordinate inversion information 311. In the case of “no coordinate inversion”, the pair of the imaging unit 103a and the distance image acquisition unit 103b is connected to the first sensor connection unit 104a. In the case of “with coordinate reversal”, this is a process of confirming that the pair of the imaging unit 103a and the distance image acquisition unit 103b is connected to the second sensor connection unit 104b. In the case of “no coordinate reversal”, the pair of the imaging unit 103a and the distance image acquisition unit 103b is not connected to the first sensor connection unit 104a, or in the case of “coordinate reversal”, the imaging unit 103a and the distance image acquisition. When the pair of the unit 103b is not connected to the second sensor connection unit 104b, the two-dimensional display unit 102a displays that the pair of the photographing unit 103a and the distance image acquisition unit 103b is connected to the correct sensor connection unit. Until the camera connection information 304 confirms that the pair of the imaging unit 103a and the distance image acquisition unit 103b is connected to the correct sensor connection unit, the apparatus waits while periodically checking the value of the sensor connection information 304.

次に、ステップS1102で、顔検出処理を行う。ステップS1102の顔検出処理は、ステップS1101で取得した撮影画像データ上において、公知の技術を用いて顔領域を検出する処理である。複数の領域が顔領域として検出された場合には、最も近くに存在する顔を検出したと予想される領域、即ち、最も画素数の多い領域1つのみを、所望の顔領域として検出する。   In step S1102, face detection processing is performed. The face detection process in step S1102 is a process for detecting a face area using a known technique on the captured image data acquired in step S1101. When a plurality of areas are detected as face areas, only the area where the nearest face is expected to be detected, that is, only one area having the largest number of pixels is detected as a desired face area.

次に、ステップS1103で、存在方向算出処理を行う。ステップS1103の存在方向算出処理は、ユーザの視点位置の近似値としてのユーザの顔の中心位置が存在し得る半直線を算出する処理である。具体的には、ステップS1102で検出された顔領域から重心位置を算出し、記憶部202に格納されている視点情報取得部の設計情報314を参照して対応する半直線を求めればよい。   Next, in step S1103, an existence direction calculation process is performed. The existence direction calculation process in step S1103 is a process of calculating a half line in which the center position of the user's face can exist as an approximate value of the user's viewpoint position. Specifically, the barycentric position may be calculated from the face area detected in step S1102, and the corresponding half line may be obtained by referring to the design information 314 of the viewpoint information acquisition unit stored in the storage unit 202.

次に、ステップS1104で交点算出処理を行う。ステップS1104の交点算出処理は、ステップS1101で取得した距離画像データで定義される曲面と、ステップS1103で算出した半直線との交点の3次元座標を算出する処理である。具体的には、次のような処理を行えばよい。距離画像データ上の各単位格子を対角線で二分割して生成される三角形メッシュに対して、各々の三角形ポリゴンの頂点を、該頂点に対応する距離データに基づいて、該頂点の位置に対応する半直線上で適切な位置に動かし、複数の三角形ポリゴンの集合として成る曲面を生成する。その後に、該生成された曲面を構成する各々の三角形ポリゴンとステップS1103で算出した半直線との交点を計算することで、目的の交点座標を算出する。前記半直線との交点を有する三角形ポリゴンが複数存在する場合には、撮影部103aの投影中心の位置から最も近い位置の交点の座標値を採用し、前記半直線との交点を有する三角形ポリゴンが存在しない場合には、標準視点情報308で規定される座標値を採用する。   Next, intersection calculation processing is performed in step S1104. The intersection calculation process of step S1104 is a process of calculating the three-dimensional coordinates of the intersection of the curved surface defined by the distance image data acquired in step S1101 and the half line calculated in step S1103. Specifically, the following processing may be performed. For a triangular mesh generated by dividing each unit cell on the distance image data into two diagonal lines, the vertices of each triangular polygon correspond to the positions of the vertices based on the distance data corresponding to the vertices. Move to an appropriate position on the half line to generate a curved surface as a set of multiple triangular polygons. After that, by calculating the intersection point between each triangular polygon constituting the generated curved surface and the half line calculated in step S1103, the target intersection coordinate is calculated. When there are a plurality of triangular polygons having an intersection with the half line, the coordinate value of the intersection closest to the projection center position of the photographing unit 103a is adopted, and the triangular polygon having the intersection with the half line is obtained. If not, the coordinate value defined by the standard viewpoint information 308 is adopted.

算出した交点の座標値を表示用視点情報307として記憶部202に格納し、該表示用視点情報307を用いて視点位置基準基底ベクトル情報313を更新した後、ステップS1104の交点算出処理を終了する。   The calculated coordinate value of the intersection is stored in the storage unit 202 as display viewpoint information 307, and the viewpoint position reference basis vector information 313 is updated using the display viewpoint information 307, and then the intersection calculation processing in step S1104 is terminated. .

ステップS1103及びステップS1104の処理を直感的に説明すると、図12のようになる。即ち、まずステップS1103において、撮影部103aの投影中心の位置1201を始点とし、撮影画像データ上において検出された顔領域の重心位置に対応する、撮影部103aの投影面1202上の位置1203を通るような半直線1204を算出する。次に、ステップS1104において、位置1205を投影中心とする距離画像取得部103bによって取得された距離画像データに基づいて生成された、三角形ポリゴンの集合として成る曲面1206と、前記半直線1204との交点1207の座標値を算出して、表示用視点情報307として記憶部202に格納する。   The processing in steps S1103 and S1104 is intuitively described as shown in FIG. That is, first, in step S1103, the position 1201 of the projection center of the photographing unit 103a is set as a starting point, and the position 1203 on the projection surface 1202 of the photographing unit 103a corresponding to the center of gravity of the face area detected on the photographed image data is passed. Such a half line 1204 is calculated. Next, in step S1104, the intersection of the curved line 1206, which is a set of triangular polygons, generated based on the distance image data acquired by the distance image acquisition unit 103b with the position 1205 as the projection center, and the half line 1204. The coordinate value 1207 is calculated and stored in the storage unit 202 as display viewpoint information 307.

尚、距離画像データから三角形ポリゴンの集合として成る曲面を生成する方法は、公知の技術を用いればよく、一方向のみの対角線を採用する方法や、面と面の成す角度を考慮して採用する対角線を決定する方法のほか、例えば、細分割(subdivision)と呼ばれる技術によって、より滑らかな曲面を生成するようにしてもよい。   Note that a known technique may be used as a method of generating a curved surface as a set of triangular polygons from distance image data, and a method of adopting a diagonal line in only one direction or an angle between surfaces is adopted. In addition to the method of determining the diagonal line, for example, a smoother curved surface may be generated by a technique called subdivision.

ステップS1104の交点算出処理の終了後、視点位置推定処理を終了する。
以上、本実施例によれば、立体表示部で表示している立体像に関する平面図や透視投影図等の画像情報、または、部位ごとの注釈や寸法等の付加情報を、適宜、2次元表示部で表示するように構成したため、ユーザが直感的に物体形状を把握することを支援することができる。さらに、前記画像情報に関しては、想定されるユーザの視点位置、または、計測に基づいて推定されたユーザの視点位置、を考慮した情報としたために、ユーザが直感的に物体形状を把握することを、より容易にしている。
After the intersection calculation process in step S1104 ends, the viewpoint position estimation process ends.
As described above, according to the present embodiment, image information such as a plan view and a perspective projection diagram regarding a stereoscopic image displayed on the stereoscopic display unit, or additional information such as annotations and dimensions for each part is appropriately displayed in two dimensions. Since it is configured to display on the screen, it is possible to assist the user to intuitively grasp the object shape. Furthermore, with respect to the image information, since the information is considered in consideration of an assumed user viewpoint position or a user viewpoint position estimated based on measurement, the user must intuitively grasp the object shape. Making it easier.

また、前記視点位置の推定を、撮影部で生成した撮影画像に基づく処理としたことで、ユーザの視点位置の存在し得る範囲が広範にわたる場合であってもユーザの視点位置を容易に推定できる。   In addition, since the viewpoint position is estimated based on the captured image generated by the photographing unit, the user's viewpoint position can be easily estimated even when the range of the user's viewpoint position can be wide. .

また、本実施例では、立体表示部で表示している立体像の形状に関する変更を、2次元表示部で表示している情報を変更することで実施しているため、例えばフォースフィードバック機能を備えたペン型インタフェースを用いて立体像に直接変更を加えるような装置に比べ、より容易に、よりユーザの変更意図に近い変更を立体像に施すことができる。   Further, in this embodiment, since the change related to the shape of the stereoscopic image displayed on the stereoscopic display unit is performed by changing the information displayed on the two-dimensional display unit, for example, a force feedback function is provided. Compared to an apparatus that directly changes a stereoscopic image using a pen-type interface, a change closer to the user's change intention can be made to the stereoscopic image more easily.

また、本実施例では、2次元表示部とコマンド入力部とを合わせてタッチパネルディスプレイとして構成したため、立体表示部で表示している立体像を所定の方法で写像した2次元画像との比較を視覚的に行いながら、コマンド入力部からコマンドを入力することができる。従って、例えば、物体形状の変更を伴わずに2次元入力表示部において画像を描画できるようなコマンドを備えた構成とすれば、立体表示部で表示した立体像をユーザが2次元表示部で直感的に模写することができ、本発明の映像表示装置をユーザの立体感覚の醸成に役立つ装置として提供することもできる。   In this embodiment, since the two-dimensional display unit and the command input unit are combined to form a touch panel display, a comparison with a two-dimensional image obtained by mapping a stereoscopic image displayed on the stereoscopic display unit by a predetermined method is visually recognized. The command can be input from the command input unit while performing the operation. Therefore, for example, if the configuration is provided with a command that can draw an image on the two-dimensional input display unit without changing the object shape, the user can intuitively view the three-dimensional image displayed on the three-dimensional display unit on the two-dimensional display unit. The video display device of the present invention can also be provided as a device useful for fostering a user's stereoscopic sense.

また、本実施例では、2次元映像を180度回転させて表示するか否かを設定できるように構成したため、ユーザが右利きの場合にも左利きの場合にも、立体像を遮ることなく2次元表示入力部でのコマンド入力操作ができる。即ち、本実施例の映像表示装置は、反転表示の有無を設定する反転表示設定部を備えており、反転表示有りと設定された場合に2次元表示部102aで表示される映像は、反転表示無しと設定された場合に2次元表示部102aで表示される映像を、所定の点(例えば2次元表示入力部102の局所座標系402の原点)に関して180度回転させたものであるように成されている。   Further, in this embodiment, since it is configured to be able to set whether or not the 2D image is rotated 180 degrees and displayed, the stereoscopic image is not obstructed even when the user is right-handed or left-handed. Command input operation can be performed in the dimension display input section. In other words, the video display device of the present embodiment includes a reverse display setting unit that sets whether or not to perform reverse display. When the reverse display is set, the video displayed on the two-dimensional display unit 102a is displayed in reverse. The image displayed on the two-dimensional display unit 102a when it is set to none is formed so as to be rotated 180 degrees with respect to a predetermined point (for example, the origin of the local coordinate system 402 of the two-dimensional display input unit 102). Has been.

また、本実施例では、2次元表示部102aで透視投影図を表示する際、その生成に関して、所謂「焦点距離」に相当する値を、表示用視点情報307に基づいて変更されるような構成とした。これにより、ユーザの視点位置が立体表示部101に近い場合も立体表示部101から離れている場合も、2次元表示部102aで表示される立体像の透視投影図の大きさは概ね同じ大きさとなり、形状理解のための補助情報としては、より適した情報として、ユーザに提示することができる。これは即ち、ユーザの視点位置が立体表示部101に近い場合に透視投影によって2次元画像を生成する際の画角を、ユーザの視点位置が立体表示部101から離れている場合に透視投影によって2次元画像を生成する際の画角に比べ、広くしたことに相当する。尚、本発明の実施形態はこれに限るものではなく、焦点距離を固定値として、立体像までの遠近感をも含めた補助情報としてユーザに提示してもよいことは言うまでもない。そのような変更は、容易である。   Further, in the present embodiment, when the perspective projection diagram is displayed on the two-dimensional display unit 102 a, a value corresponding to the so-called “focal length” is changed based on the display viewpoint information 307 regarding the generation. It was. As a result, the size of the perspective projection of the stereoscopic image displayed on the two-dimensional display unit 102a is approximately the same regardless of whether the viewpoint position of the user is close to the stereoscopic display unit 101 or away from the stereoscopic display unit 101. Thus, auxiliary information for understanding the shape can be presented to the user as more suitable information. That is, the angle of view when generating a two-dimensional image by perspective projection when the user's viewpoint position is close to the stereoscopic display unit 101, and the perspective projection when the user's viewpoint position is far from the stereoscopic display unit 101. This is equivalent to making it wider than the angle of view when generating a two-dimensional image. In addition, embodiment of this invention is not restricted to this, It cannot be overemphasized that it may show to a user as auxiliary information also including the perspective to a stereo image by making a focal distance into a fixed value. Such a change is easy.

また、本実施例では、基準面を水平面とする場合、傾き検出部が検出した映像表示装置の傾きに基づき、立体表示部で表示される立体像を、前記立体表示部の傾きに依らず上下方向が一定となるように表示したため、例えば、本発明を携帯電子機器に対して適用した際、歩行しながらの使用で映像表示装置が揺れる場合や、電車の中などで映像表示装置を傾けて使用せざるを得ない場合においても、ユーザに立体像を安定して提示することができるため、ユーザが直感的に物体形状を把握することを支援することができる。   Further, in this embodiment, when the reference plane is a horizontal plane, the stereoscopic image displayed on the stereoscopic display unit is moved up and down regardless of the inclination of the stereoscopic display unit based on the inclination of the video display device detected by the inclination detection unit. For example, when the present invention is applied to a portable electronic device, the video display device shakes when used while walking, or the video display device is tilted while on a train. Even when it must be used, since a stereoscopic image can be stably presented to the user, it is possible to assist the user to intuitively grasp the object shape.

尚、本実施例では、2次元表示部102aとコマンド入力部102bとを一体化させ、タッチパネルディスプレイとして構成したが、本発明の実施形態は、これに限るものではない。コマンド入力部102bは、2次元表示部102aの映像表示領域上でのコマンド入力が可能であるように構成されていればよく、2次元表示部102aとコマンド入力部102bとを一体化させてタッチパネルディスプレイとして構成する代わりに、例えば、光センサ内蔵システム液晶ディスプレイとして構成してもよいし、例えば、2次元表示部102aとコマンド入力部102bとを分離した構成とし、コマンド入力部102bとして、キーボードとマウスを使用するようにしてもよい。コマンド入力部102bとしてキーボードを使用した場合には、例えば、ステップS601の物体選択処理を文字入力によって実施する、すなわち、コマンド入力部102bから文字列として入力された名称に等しい名称の物体を選択して選択物体情報301として格納するような構成とすることもできるし、また、例えば、ステップS706の立体像回転処理における回転量を、コマンド入力部102bからの数値入力に基づいて設定するような構成とすることもできる。同様に、例えば、ステップS708の表示倍率変更処理における表示倍率を、コマンド入力部102bからの数値入力に基づいて設定するような構成とすることも可能である。また、コマンド入力部102bとして、別途ボタンやダイヤル等の情報入力機構を備えるようにしてもよい。例えば、「視点追従モードを『スポット追従』に設定し視点位置推定処理を実施する」ためのボタンを別途備えた構成としてもよいし、表示倍率を変更できるようなダイヤルを別途備えた構成としてもよい。   In the present embodiment, the two-dimensional display unit 102a and the command input unit 102b are integrated and configured as a touch panel display, but the embodiment of the present invention is not limited to this. The command input unit 102b only needs to be configured to allow command input on the video display area of the two-dimensional display unit 102a, and the two-dimensional display unit 102a and the command input unit 102b are integrated to form a touch panel. Instead of configuring as a display, for example, it may be configured as an optical sensor built-in system liquid crystal display, or, for example, a configuration in which the two-dimensional display unit 102a and the command input unit 102b are separated, and the command input unit 102b includes a keyboard and A mouse may be used. When a keyboard is used as the command input unit 102b, for example, the object selection process in step S601 is performed by character input, that is, an object having a name equal to the name input as a character string from the command input unit 102b is selected. For example, the rotation amount in the stereoscopic image rotation process in step S706 is set based on the numerical value input from the command input unit 102b. It can also be. Similarly, for example, the display magnification in the display magnification change process in step S708 can be set based on numerical input from the command input unit 102b. Further, as the command input unit 102b, an information input mechanism such as a button or a dial may be provided separately. For example, it may be configured to have a separate button for “set the viewpoint tracking mode to“ spot tracking ”and perform viewpoint position estimation processing” or a dial that can change the display magnification. Good.

また、本実施例では、2次元表示部102aで表示される画像情報としてはテクスチャ付きのものを扱ったが、本発明の実施形態はこれに限るものではなく、例えば、「ワイヤフレーム表示」と「テクスチャ表示」の2種類の表示方法をコマンド入力部102bからの入力に従って切り替えられるような構成としてもよい。   Further, in this embodiment, the image information displayed on the two-dimensional display unit 102a is handled with texture, but the embodiment of the present invention is not limited to this, and for example, “wire frame display” Two types of display methods of “texture display” may be switched according to an input from the command input unit 102b.

また、本実施例では、視点情報取得部103を撮影部103aと距離画像取得部103bとで構成し、視点位置推定処理において視点情報取得部103で取得した視点情報に基づいて視点位置を推定したが、本発明の実施形態はこれに限るものではない。例えば、円形魚眼レンズを備えた2つの撮影部を互いに異なる位置に設置し、それらを視点情報取得部として、顔認識とステレオ視の原理から視点位置を推定するような構成としてもよい。円形魚眼レンズを備えた撮影部を用いる場合には、該撮影部を立体表示部101の局所座標系におけるz座標が正の領域全体が撮影できるように設置することで、立体表示部101で表示した映像を観賞するユーザの視点位置の存在可能な範囲のほぼ全域に関して、画像情報を取得することができる。さらに、傾き検出部203が視点情報取得部103を兼ねるような構成としてもよい。例えば、傾き検出部203が検出した傾き(α,β,γ)が(0,0,0)の場合にユーザの視点位置が標準視点情報308で規定された空間位置に一致するとし、立体表示部101の局所座標系の原点の位置とユーザの視点位置との間の関係は変わらないとして、立体表示部101の局所座標系におけるユーザの視点位置の表現を、傾き検出部203が検出した立体表示部101の傾きの影響を考慮して計算すればよい。この計算は3次元の回転行列による座標変換であり、容易である。   In this embodiment, the viewpoint information acquisition unit 103 includes a photographing unit 103a and a distance image acquisition unit 103b, and the viewpoint position is estimated based on the viewpoint information acquired by the viewpoint information acquisition unit 103 in the viewpoint position estimation process. However, the embodiment of the present invention is not limited to this. For example, it may be configured such that two photographing units provided with circular fisheye lenses are installed at different positions and the viewpoint position is estimated from the principles of face recognition and stereo vision using them as viewpoint information acquisition units. In the case of using an imaging unit equipped with a circular fisheye lens, the imaging unit is displayed on the stereoscopic display unit 101 by installing the imaging unit so that the entire region having a positive z coordinate in the local coordinate system of the stereoscopic display unit 101 can be imaged. Image information can be acquired for almost the entire range where the viewpoint position of the user viewing the video can exist. Further, the tilt detection unit 203 may be configured to also serve as the viewpoint information acquisition unit 103. For example, when the inclination (α, β, γ) detected by the inclination detection unit 203 is (0, 0, 0), the user's viewpoint position coincides with the spatial position defined by the standard viewpoint information 308, and the stereoscopic display Assuming that the relationship between the position of the origin of the local coordinate system of the unit 101 and the viewpoint position of the user does not change, the stereoscopic detection unit 203 detects the representation of the user's viewpoint position in the local coordinate system of the stereoscopic display unit 101. The calculation may be performed in consideration of the influence of the tilt of the display unit 101. This calculation is coordinate conversion by a three-dimensional rotation matrix and is easy.

また、視点情報取得部103として空間的に十分な範囲の情報が取得できるデバイスを使用する場合には、視点情報取得部103を、ユーザの視界を妨げないように、映像表示装置100の中央付近に設置するようにしてもよい。このような構成とすることにより、センサ接続部を複数備える必要がなくなり、装置構成を単純化することができる上、2次元表示部における映像の反転表示の有無に拘らず、視点情報取得部103の設置位置を移動する必要がなくなるという効果を奏する。   When a device capable of acquiring a spatially sufficient range of information is used as the viewpoint information acquisition unit 103, the viewpoint information acquisition unit 103 is located near the center of the video display device 100 so as not to disturb the user's view. You may make it install in. With such a configuration, it is not necessary to provide a plurality of sensor connection units, the apparatus configuration can be simplified, and the viewpoint information acquisition unit 103 can be used regardless of the presence or absence of video inversion display on the two-dimensional display unit. There is an effect that it is not necessary to move the installation position.

また、本実施例では、ユーザの視点位置の推定を、撮影部103aで撮影した画像から顔認識技術を用いて実施するような構成としたが、本発明の実施形態はこれに限るものではなく、種々の視点位置推定技術を使用することができる。例えば、ユーザに装着させる装着具として高再帰性光学反射マーカーを備えた装着具を備え、該装着具を装着したユーザの視点位置を、前記マーカー位置を取得することで推定するようにしてもよい。尚、高再帰性光学反射マーカーの位置を取得する技術は、例えばモーションキャプチャシステムで使用されている、公知の技術である。   In this embodiment, the user's viewpoint position is estimated using the face recognition technology from the image captured by the image capturing unit 103a. However, the embodiment of the present invention is not limited to this. Various viewpoint position estimation techniques can be used. For example, a wearing tool provided with a highly retroreflective optical reflection marker may be provided as a wearing tool to be worn by the user, and the viewpoint position of the user wearing the wearing tool may be estimated by acquiring the marker position. . The technique for acquiring the position of the highly retroreflective optical reflection marker is a known technique used in, for example, a motion capture system.

また、本実施例では、物体情報315を記憶部202に格納しておく構成としたが、本発明の実施形態はこれに限るものではない。例えば、映像表示装置100の電源投入の度に外部のデータベースに接続するような構成としてもよいし、ネットワークインタフェースを備え、物体の名称をキーワードとしてインターネット上の情報を検索して取得するような構成としてもよい。また、コンパクトフラッシュカードやCD−ROM等の着脱可能な外部媒体との間で情報の授受が行えるようなインタフェースを映像表示装置100が備える構成とし、物体情報315を該着脱可能な媒体を用いて供給するようにしてもよい。いずれの場合も、表示用立体情報315cの書き込みが不可である場合には、表示用立体情報315cを記憶部202に格納するように構成すればよい。   In this embodiment, the object information 315 is stored in the storage unit 202. However, the embodiment of the present invention is not limited to this. For example, the video display device 100 may be configured to connect to an external database each time the power is turned on, or may have a network interface and search and acquire information on the Internet using the name of the object as a keyword. It is good. In addition, the video display device 100 includes an interface that can exchange information with a removable external medium such as a compact flash card or a CD-ROM, and the object information 315 is stored using the removable medium. You may make it supply. In any case, if the display stereoscopic information 315c cannot be written, the display stereoscopic information 315c may be stored in the storage unit 202.

また、本実施例では、立体像の回転は、物体の局所座標系のz軸の周りの回転のみに限定し、また、回転量を直接入力するような構成としたが、本発明の実施形態はこれに限るものではない。例えば、物体の回転量を回転行列として記憶部202に格納し、回転方向と回転量とを入力して該回転行列を更新するような構成とすることで、物体を自由に回転して立体像として表示することができる。また、例えば、「右回転」と「左回転」のボタンを各々備えるような構成とし、単位回転量を設計値として与えておいて、前記ボタンの押下により各々のボタンに対応する方向に前記単位回転量の分だけ立体像を回転させるように、立体像回転情報312を更新する構成としてもよい。   In this embodiment, the rotation of the stereoscopic image is limited to the rotation around the z-axis of the local coordinate system of the object, and the rotation amount is directly input. Is not limited to this. For example, the rotation amount of the object is stored in the storage unit 202 as a rotation matrix, and the rotation matrix and the rotation amount are input and the rotation matrix is updated. Can be displayed as In addition, for example, a “rotate right” button and a “rotate left” button are provided, and a unit rotation amount is given as a design value. When the button is pressed, the unit is moved in a direction corresponding to each button. The stereoscopic image rotation information 312 may be updated so that the stereoscopic image is rotated by the amount of rotation.

また、本実施例では、立体表示部101に対する2次元表示部102aでの反転表示は図10の表示更新処理において実施したが、本発明の実施形態はこれに限るものではない。例えば、立体表示部101と2次元表示入力部102とを物理的に分離可能な構成とし、立体表示部101の右辺の側、2次元表示入力部102の左辺の側及び右辺の側に、それぞれ信号の授受ができる接続部を備えたような構成としてもよい。そのような構成とした場合、立体表示部101の右辺の側と2次元表示入力部102の左辺の側の接続部同士を接続した場合には反転表示無しの状態となり、立体表示部101の右辺の側と2次元表示入力部102の右辺の側の接続部同士を接続した場合には、2次元表示入力部102自体が相対的に180度回転しているため、表示更新処理における場合分けの必要なしに反転表示有りの状態とすることができる。   In the present embodiment, the reverse display on the two-dimensional display unit 102a with respect to the stereoscopic display unit 101 is performed in the display update process of FIG. 10, but the embodiment of the present invention is not limited to this. For example, the stereoscopic display unit 101 and the two-dimensional display input unit 102 can be physically separated from each other on the right side of the stereoscopic display unit 101, the left side, and the right side of the two-dimensional display input unit 102, respectively. It is good also as a structure provided with the connection part which can send / receive a signal. In such a configuration, when the connection portions on the right side of the stereoscopic display unit 101 and the left side of the two-dimensional display input unit 102 are connected to each other, there is no inversion display, and the right side of the stereoscopic display unit 101 2 and the right side of the two-dimensional display input unit 102 are connected to each other, the two-dimensional display input unit 102 itself is relatively rotated 180 degrees. It is possible to make a state with reverse display without necessity.

また、本実施例では、側面図や平面図の描画において、選択されている物体のみを描画していたが、これに加えて、表示用視点情報307として記憶部202に格納されている視点位置を描画するようにしてもよい。このようにすることにより、ユーザがより直感的に状況を把握することができる。   In the present embodiment, only the selected object is drawn in the drawing of the side view and the plan view. In addition, the viewpoint position stored in the storage unit 202 as the display viewpoint information 307 is added. May be drawn. By doing in this way, a user can grasp a situation more intuitively.

また、本実施例では、立体形状情報315aはポリゴンモデルであるとし、形状変更処理は選択された頂点1点だけの座標値を変更する場合について説明したが、本発明の実施形態はこれに限るものではない。例えば、物体の形状をNURBS曲面を用いてモデル化しておき、その制御点の位置を変更することで形状変更処理を行うようにしてもよい。また、例えば、各頂点の形状変更前後の変位に基づくエネルギー(変位が大きいほどエネルギーが高い)と隣接する頂点間の形状変形前後の距離の変化に基づくエネルギー(距離の変化が大きいほどエネルギーが高い)とに基づくエネルギー関数を定義しておき、該エネルギー関数の値を小さくするように複数の頂点の座標値を変更する構成としてもよい。   Further, in this embodiment, the three-dimensional shape information 315a is assumed to be a polygon model, and the shape changing process has been described for changing the coordinate value of only one selected vertex, but the embodiment of the present invention is limited to this. It is not a thing. For example, the shape of the object may be modeled using a NURBS curved surface, and the shape changing process may be performed by changing the position of the control point. In addition, for example, energy based on the displacement before and after the shape change of each vertex (the higher the displacement, the higher the energy) and energy based on the change in the distance between adjacent vertices before and after the shape deformation (the higher the distance, the higher the energy ) And the coordinate function of a plurality of vertices may be changed so as to reduce the value of the energy function.

また、本実施例では、2次元表示入力部102を用いて物体情報315に施す変更内容として、形状変形処理を行う例について説明したが、本発明の実施形態はこれに限るものではない。例えば、2次元表示入力部102を用いてテクスチャを描き直し、該テクスチャを用いて立体形状情報315aに含まれるテクスチャの内容を更新するような構成とすることで、立体表示部101で表示している立体像の「塗り絵」を実現することができる。このとき、テクスチャの内容の更新は、表示用視点情報307で規定される視点位置から「見えている」領域のみを対象とするが、この可視判定は、例えば、図8で説明したのと同様に、表示種別情報302の値に対応したデプスバッファを生成し、各面を成すポリゴンに対して、視点位置と該ポリゴンで規定される視体積に含まれる領域に対応するデプス値の最大値と、前記ポリゴンの頂点のデプス値の最小値とを比較して、前記最小値の方が小さくなるような面を候補として残し、その後に、候補として残っている複数の面同士の交差判定を行って、実際に見えている領域を算出すればよい。   In the present embodiment, the example in which the shape deformation process is performed as the content to be changed on the object information 315 using the two-dimensional display input unit 102 has been described. However, the embodiment of the present invention is not limited thereto. For example, the 3D display unit 101 displays the texture by redrawing the texture using the 2D display input unit 102 and using the texture to update the content of the texture included in the 3D shape information 315a. A “coloring picture” of a stereoscopic image can be realized. At this time, the content of the texture is updated only for the region that is “visible” from the viewpoint position specified by the display viewpoint information 307, but this visibility determination is the same as described in FIG. 8, for example. In addition, a depth buffer corresponding to the value of the display type information 302 is generated, and for the polygons forming each surface, the viewpoint position and the maximum depth value corresponding to the region included in the visual volume defined by the polygons The minimum value of the depth value of the vertex of the polygon is compared, and a surface where the minimum value is smaller is left as a candidate, and thereafter, intersection determination of a plurality of remaining surfaces as candidates is performed. Thus, the area actually visible can be calculated.

以下、図13を用いて、本発明の第二の実施例について説明する。本実施例は、立体像の全体形状を把握するために、立体像の多くの部分を同時に観賞したい場合に好適な例である。尚、実施例1と同様な部分に関しては、同じ符号を付け、説明は省略した。   Hereinafter, a second embodiment of the present invention will be described with reference to FIG. This embodiment is a suitable example when it is desired to view many parts of a stereoscopic image at the same time in order to grasp the overall shape of the stereoscopic image. In addition, the same code | symbol was attached | subjected about the part similar to Example 1, and description was abbreviate | omitted.

図13は、本実施例の映像表示装置1300の外観図である。本実施例の映像表示装置1300は、実施例1の映像表示装置100に第二の立体表示部1301を加え、立体表示部1301に表示する立体像を、立体表示部101に表示する立体像に対して、反時計回りに90度、回転させるように構成したものである。具体的には、立体表示部1301に表示させる立体像の向きを、立体表示部101に表示する立体像を該立体像の表示用座標系のz軸の周りに反時計回りに90度回転させた向きに等しくなるように、表示する。   FIG. 13 is an external view of a video display device 1300 according to the present embodiment. The video display apparatus 1300 according to the present embodiment adds a second stereoscopic display unit 1301 to the video display apparatus 100 according to the first embodiment, and converts the stereoscopic image displayed on the stereoscopic display unit 1301 into a stereoscopic image displayed on the stereoscopic display unit 101. On the other hand, it is configured to rotate 90 degrees counterclockwise. Specifically, the orientation of the stereoscopic image displayed on the stereoscopic display unit 1301 is rotated 90 degrees counterclockwise around the z axis of the coordinate system for displaying the stereoscopic image. Display to be equal to the orientation.

このような構成とすることで、例えば、立体表示部101において立体像の前面と左側面がユーザに観賞されている場合には、立体表示部1301において立体像の左側面と背面とがユーザに観賞されることになるため、形状を把握するためのより多くの手掛かりをユーザに同時に提示することができ、ユーザが立体像の形状をより直感的に把握することを支援できる。   With such a configuration, for example, when the front and left side of the stereoscopic image are viewed by the user in the stereoscopic display unit 101, the left side and the back side of the stereoscopic image are displayed to the user in the stereoscopic display unit 1301. Since it will be viewed, more clues for grasping the shape can be presented to the user at the same time, and the user can be more intuitively grasped the shape of the stereoscopic image.

尚、例えば、処理の対象とする立体像を選択するための領域を、2次元表示部102aの映像表示領域の左下部分と右下部分に備え、実施例1の図8及び図10で説明した処理における2次元表示入力部102に関する処理に関して、前記左下部分の領域がコマンド入力部102bとしてのペン型インタフェースによってポイントされた場合には、立体表示部101に表示されている立体像に対して処理を行い、一方、前記右下部分の領域がペン型インタフェースによってポイントされた場合には、立体表示部1301に表示されている立体像に対して処理を行うような構成としてもよい。いずれの処理も、簡単な座標変換によって、実施例1の場合と同様に実施することができる。   Note that, for example, areas for selecting a stereoscopic image to be processed are provided in the lower left part and the lower right part of the video display area of the two-dimensional display unit 102a, and have been described with reference to FIGS. Regarding processing related to the two-dimensional display input unit 102 in processing, when the lower left area is pointed by a pen-type interface as the command input unit 102b, processing is performed on a stereoscopic image displayed on the stereoscopic display unit 101. On the other hand, when the area in the lower right part is pointed by the pen-type interface, the stereoscopic image displayed on the stereoscopic display unit 1301 may be processed. Any processing can be performed in the same manner as in the first embodiment by simple coordinate transformation.

結局、本実施例は、同一の物体に関する立体映像を表示する立体表示部を複数備え、立体表示部1301には、所定の視点位置において立体表示部101で表示している立体像とは異なった向きの立体像が鑑賞されるように成されている映像表示装置であり、それぞれの立体表示部に、他の立体表示部で表示している立体像とは異なる向きの立体像が表示される映像表示装置である。   In the end, the present embodiment includes a plurality of stereoscopic display units that display stereoscopic images related to the same object, and the stereoscopic display unit 1301 is different from the stereoscopic image displayed on the stereoscopic display unit 101 at a predetermined viewpoint position. This is a video display device configured to allow viewing of a stereoscopic image in a direction, and a stereoscopic image in a direction different from the stereoscopic image displayed in another stereoscopic display unit is displayed on each stereoscopic display unit. It is a video display device.

以下、図14を用いて本発明の第三の実施例について説明する。本実施例は、例えば、テーブル型映像表示装置を用いて複数のユーザが共同作業を行なうような場合に好適な例である。尚、実施例1乃至2と同様な部分に関しては、同じ符号を付け、説明は省略した。   Hereinafter, a third embodiment of the present invention will be described with reference to FIG. This embodiment is an example suitable for a case where a plurality of users collaborate using a table type video display device, for example. In addition, the same code | symbol was attached | subjected about the part similar to Example 1-2, and description was abbreviate | omitted.

図14は本実施例の映像表示装置1400の平面図である。本実施例の映像表示装置1400は、テーブル型の映像表示装置であり、4人のユーザ1441乃至1444が互いに同一の物体を観賞するために使用することを想定したものである。   FIG. 14 is a plan view of the video display device 1400 of the present embodiment. The video display device 1400 of the present embodiment is a table-type video display device, and is assumed to be used by four users 1441 to 1444 for viewing the same object.

映像表示装置1400は、立体表示部1401乃至1404と、2次元表示入力部1411乃至1414と、視点位置取得部1421乃至1424と、回転角入力リング1431乃至1434と、を備えるように構成する。   The video display apparatus 1400 is configured to include stereoscopic display units 1401 to 1404, two-dimensional display input units 1411 to 1414, viewpoint position acquisition units 1421 to 1424, and rotation angle input rings 1431 to 1434.

立体表示部1401乃至1404の映像表示領域の形状は円形とし、その各々の周囲にユーザの視界を妨げないように回転角入力リング1431乃至1434を配置する。各々の回転角入力リング1431乃至1434は、時計回りと反時計回りの両方に回転させることが可能であり、該回転方向と回転量とを検出し、立体像回転コマンドに対応する情報としてコマンド入力ができるように構成する。   The shapes of the video display areas of the stereoscopic display units 1401 to 1404 are circular, and rotation angle input rings 1431 to 1434 are arranged around each of the stereoscopic display units 1401 to 1404 so as not to disturb the user's field of view. Each rotation angle input ring 1431 to 1434 can be rotated both in the clockwise direction and in the counterclockwise direction, detects the rotation direction and the rotation amount, and inputs a command as information corresponding to the stereoscopic image rotation command. Configure to be able to.

立体表示部1401乃至1404は、その映像表示面を同一水平面上に配し、立体表示部1401乃至1404の各々の局所座標系のz座標の方向を、前記水平面の法線方向、即ち鉛直方向上向きに一致するように定める。即ち、本実施例では、立体表示部101で表示する立体像を生成するための基準面は「立体表示面」でも「水平面」でも同一の面のことであり、実施例1で説明した基準面に関する処理は、省略する。   The stereoscopic display units 1401 to 1404 have their image display surfaces arranged on the same horizontal plane, and the direction of the z coordinate of each local coordinate system of the stereoscopic display units 1401 to 1404 is set to the normal direction of the horizontal plane, that is, vertically upward. To match. That is, in this embodiment, the reference plane for generating a stereoscopic image to be displayed on the stereoscopic display unit 101 is the same plane for both “stereoscopic display plane” and “horizontal plane”. The reference plane described in the first embodiment is used. The process regarding is omitted.

立体表示部1402で表示される立体像の向きは、立体表示部1401で表示される立体像を立体表示部1401の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、立体表示部1403で表示される立体像の向きは、立体表示部1402で表示される立体像を立体表示部1402の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、立体表示部1404で表示される立体像の向きは、立体表示部1403で表示される立体像を立体表示部1403の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、立体表示部1401で表示される立体像の向きは、立体表示部1404で表示される立体像を立体表示部1404の局所座標系のz軸の周りに反時計回りに90度回転した向きとなるように、各々、表示する。   The direction of the stereoscopic image displayed on the stereoscopic display unit 1402 is an orientation obtained by rotating the stereoscopic image displayed on the stereoscopic display unit 1401 by 90 degrees counterclockwise around the z axis of the local coordinate system of the stereoscopic display unit 1401. As described above, the orientation of the stereoscopic image displayed on the stereoscopic display unit 1403 is obtained by rotating the stereoscopic image displayed on the stereoscopic display unit 1402 by 90 degrees counterclockwise around the z axis of the local coordinate system of the stereoscopic display unit 1402. The orientation of the stereoscopic image displayed on the stereoscopic display unit 1404 is set so that the stereoscopic image displayed on the stereoscopic display unit 1403 is 90 counterclockwise around the z axis of the local coordinate system of the stereoscopic display unit 1403. The direction of the stereoscopic image displayed on the stereoscopic display unit 1401 is counterclockwise around the z-axis of the local coordinate system of the stereoscopic display unit 1404 so that the orientation of the stereoscopic image displayed on the stereoscopic display unit 1401 Rotate around 90 degrees As the orientation, respectively, are displayed.

2次元表示入力部1411に表示される情報は、立体表示部1401に表示されている立体像または立体表示部1402に表示されている立体像と、視点位置取得部1421が取得したユーザ1441の視点位置とに基づいて生成されたものであり、2次元表示入力部1412に表示される情報は、立体表示部1402に表示されている立体像または立体表示部1403に表示されている立体像と、視点位置取得部1422が取得したユーザ1442の視点位置とに基づいて生成されたものであり、2次元表示入力部1413に表示される情報は、立体表示部1403に表示されている立体像または立体表示部1404に表示されている立体像と、視点位置取得部1423が取得したユーザ1443の視点位置とに基づいて生成されたものであり、2次元表示入力部1414に表示される情報は、立体表示部1404に表示されている立体像または立体表示部1401に表示されている立体像と、視点位置取得部1424が取得したユーザ1444の視点位置とに基づいて生成されたものである。   The information displayed on the two-dimensional display input unit 1411 includes the stereoscopic image displayed on the stereoscopic display unit 1401 or the stereoscopic image displayed on the stereoscopic display unit 1402 and the viewpoint of the user 1441 acquired by the viewpoint position acquisition unit 1421. Information generated on the basis of the position and displayed on the two-dimensional display input unit 1412 includes a stereoscopic image displayed on the stereoscopic display unit 1402 or a stereoscopic image displayed on the stereoscopic display unit 1403; Information generated on the basis of the viewpoint position of the user 1442 acquired by the viewpoint position acquisition unit 1422 and displayed on the two-dimensional display input unit 1413 is a stereoscopic image or a stereoscopic image displayed on the stereoscopic display unit 1403. It is generated based on the stereoscopic image displayed on the display unit 1404 and the viewpoint position of the user 1443 acquired by the viewpoint position acquisition unit 1423. Thus, the information displayed on the two-dimensional display input unit 1414 includes the stereoscopic image displayed on the stereoscopic display unit 1404 or the stereoscopic image displayed on the stereoscopic display unit 1401 and the user 1444 acquired by the viewpoint position acquisition unit 1424. Is generated based on the viewpoint position.

立体表示部1401乃至1404で表示する立体像については、複数のユーザが同時に観賞するものであるから、実施例1で説明した処理のうち、該立体像に関する処理については、排他制御を行うようにする。具体的な排他制御の方法としては、2次元表示入力部1411乃至1414及び回転角入力リング1431乃至1434からのコマンド入力のうち、同時に1つからのコマンド入力だけを受理して処理を行うようにする。より詳細には、物体選択処理S601、形状変更処理S607、及び、立体像回転処理S706について、コマンド入力の排他制御を行うようにする。   Since the stereoscopic images displayed on the stereoscopic display units 1401 to 1404 are to be viewed by a plurality of users at the same time, among the processes described in the first embodiment, exclusive control is performed for the processes related to the stereoscopic image. To do. As a specific exclusive control method, among the command inputs from the two-dimensional display input units 1411 to 1414 and the rotation angle input rings 1431 to 1434, only one command input is accepted at the same time for processing. To do. More specifically, exclusive control of command input is performed for the object selection process S601, the shape change process S607, and the stereoscopic image rotation process S706.

以上、本実施例によれば、1つの立体表示部を複数のユーザで共有することができるため、同一の立体像の形状把握のための手掛かりを、実施例2の場合に比べて効率よく複数のユーザに提示することができる。   As described above, according to the present embodiment, since one stereoscopic display unit can be shared by a plurality of users, a plurality of clues for grasping the shape of the same stereoscopic image can be efficiently obtained compared to the case of the second embodiment. Can be presented to other users.

また、テーブル型の映像表示装置において、立体表示部を複数備える構成とし、各々のユーザが自分の近くにある立体表示部を用いて立体像を観賞するようにしたため、立体表示部をテーブル中央付近に一つだけ備える構成とし、全てのユーザが該中央付近の立体表示部を用いて立体像を観賞するようにした場合に比べ、各々の立体表示部が担当する空間領域を狭く設計することができ、それに伴い、再生する光線の空間密度をより高くすることができるため、より形状把握のし易い立体像をユーザに提供することができる。   In addition, since the table-type video display device includes a plurality of stereoscopic display units, and each user views a stereoscopic image using a stereoscopic display unit near him, the stereoscopic display unit is located near the center of the table. Compared to the case where all users use a stereoscopic display unit near the center to view a stereoscopic image, the spatial area that each stereoscopic display unit is responsible for can be designed to be narrow. As a result, the spatial density of the light rays to be reproduced can be increased, so that a stereoscopic image that is easier to grasp the shape can be provided to the user.

また、立体表示部の映像表示領域の形状を円形とし、立体像の回転に関するコマンド入力を回転入力リングからも実施可能であるような構成としたため、ユーザがより直感的で簡便な方法により立体像を回転させることができ、ユーザが立体像の形状を把握することに集中することを支援できる。   In addition, since the shape of the video display area of the stereoscopic display unit is circular, and the command input regarding the rotation of the stereoscopic image can be performed from the rotation input ring, the stereoscopic image can be obtained by a user's intuitive and simple method. Can be rotated, and it can support that a user concentrates on grasping the shape of a solid image.

尚、本実施例では、四角形の形状をしたテーブルに対して、各頂点に当たる部分に立体表示部を、各辺に当たる部分に2次元表示入力部を配した構成としたが、本発明の実施の形態はこれに限るものではなく、例えば、一般に、多角形の形状をしたテーブルに対して同様の配置を行って実施することができる。例えば、形状が正N角形の場合には、各々の立体表示部で表示する立体像の向きを、該各々の立体表示部の各々左隣の立体表示部で表示される立体像を該左隣の立体表示部の局所座標系のz軸の周りに反時計回りに(360/N)度回転した向きとなるように、各々、表示すればよい。   In this embodiment, the table having a square shape has a configuration in which a three-dimensional display unit is provided at a portion corresponding to each vertex and a two-dimensional display input unit is provided at a portion corresponding to each side. A form is not restricted to this, For example, generally, the same arrangement | positioning can be performed and implemented with respect to the table of a polygonal shape. For example, when the shape is a regular N-gon, the direction of the stereoscopic image displayed on each stereoscopic display unit is changed to the direction of the stereoscopic image displayed on the left adjacent stereoscopic display unit of each stereoscopic display unit. Each of the three-dimensional display units may be displayed so as to be rotated in a counterclockwise (360 / N) degree around the z axis of the local coordinate system.

結局、本実施例は、同一の物体に関する立体映像を表示する複数個の立体表示部を備え、第一の立体表示部で表示した映像と第二の立体表示部で表示した映像とを観賞できる第一の視点位置から第一の立体表示部を見た場合に観賞される映像が、第二の視点位置から第二の立体表示部を見た場合に観賞される映像と等しくされるように成されている映像表示装置であり、各立体表示部では対応する各視点位置から見た場合に同じ映像が観賞されるように表示される映像表示装置である。   After all, the present embodiment includes a plurality of stereoscopic display units that display stereoscopic images related to the same object, so that the video displayed on the first stereoscopic display unit and the video displayed on the second stereoscopic display unit can be viewed. The video viewed when viewing the first stereoscopic display unit from the first viewpoint position is made equal to the video viewed when viewing the second stereoscopic display unit from the second viewpoint position. Each of the three-dimensional display units is a video display device that is displayed so that the same video can be viewed when viewed from each corresponding viewpoint position.

また、例えば、壁際に設置する場合などで、ユーザが映像を見る位置が限定される場合には、図15に平面図を示した映像表示装置1500のように、複数のユーザに共有される一つ以上の立体表示部と、単独のユーザによって観賞されることを想定した一つ以上の立体表示部と、の両方を備えるような構成としてもよい(以下、「変形例)と呼ぶ)。尚、図15において、図14と同じ符号は図14と同じものを表す。   Further, for example, when the position where the user views the video is limited due to the installation on the wall or the like, the video display device 1500 whose plan view is shown in FIG. 15 is shared by a plurality of users. It may be configured to include both one or more three-dimensional display units and one or more three-dimensional display units that are assumed to be viewed by a single user (hereinafter referred to as a “variation example”). 15, the same reference numerals as those in FIG. 14 denote the same elements as those in FIG. 14.

本変形例の映像表示装置1500は、同一の物体に関する立体映像を表示する3つの立体表示部1401乃至1403と、2次元映像を表示する2つの2次元表示入力部1411乃至1412を備え、2次元表示入力部1411には、立体表示部1401で表示している立体像のユーザ1441の視点位置に関する画像情報と、立体表示部1402で表示している立体像のユーザ1441の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されており、2次元表示入力部1412には、立体表示部1402で表示している立体像のユーザ1442の視点位置に関する画像情報と、立体表示部1403で表示している立体像のユーザ1442の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されている映像表示装置である。   A video display device 1500 according to the present modification includes three stereoscopic display units 1401 to 1403 that display stereoscopic video related to the same object, and two two-dimensional display input units 1411 to 1412 that display two-dimensional video. The display input unit 1411 includes image information related to the viewpoint position of the user 1441 of the stereoscopic image displayed on the stereoscopic display unit 1401 and image information related to the viewpoint position of the user 1441 of the stereoscopic image displayed on the stereoscopic display unit 1402. Any one or both of them are displayed, and the two-dimensional display input unit 1412 displays image information related to the viewpoint position of the user 1442 of the stereoscopic image displayed on the stereoscopic display unit 1402, and the stereoscopic display. One or both of the image information related to the viewpoint position of the user 1442 of the stereoscopic image displayed in the unit 1403 is displayed. A video display device have been made to.

また、本実施例では円形の映像表示領域の周囲に配置した回転角入力リングを回転させることによって回転方向と回転量とを検出するような構成としたが、本発明の実施形態はこれに限るものではない。例えば、回転角入力リング自体は動かさずに、回転角入力リングに触れている指の動きを、静電容量方式等、公知の方法で検出することで回転方向と回転量とを検出するような構成としてもよいし、映像表示領域とは別の位置に配置した円盤状のダイヤルを回転させることで回転方向と回転量とを検出するような構成としてもよい。いずれの場合にも、円弧状の動きによって回転を表現できるため、ユーザがより直感的で簡便な方法により立体像を回転させることができる。   In this embodiment, the rotation direction input amount is detected by rotating the rotation angle input ring arranged around the circular video display area. However, the embodiment of the present invention is not limited to this. It is not a thing. For example, the rotation direction and the rotation amount are detected by detecting the movement of the finger touching the rotation angle input ring by a known method such as a capacitance method without moving the rotation angle input ring itself. Alternatively, the rotation direction and the rotation amount may be detected by rotating a disk-shaped dial disposed at a position different from the video display area. In any case, since the rotation can be expressed by an arcuate movement, the user can rotate the stereoscopic image by a more intuitive and simple method.

尚、実施例1、2においても、実施例3と同様に、立体表示部を円形としたり、円形の映像表示領域の周囲に配置した回転角入力リング等により回転方向と回転量を検出するようにしてもよい。   In the first and second embodiments, similarly to the third embodiment, the rotation direction and the rotation amount are detected by a three-dimensional display unit having a circular shape or a rotation angle input ring arranged around a circular image display region. It may be.

以上で説明したように、本発明の本質は、物体形状の把握に役立つより多くの情報を分かり易くユーザに提示することで、ユーザが直感的に物体形状を把握できるようにした点にあり、前記各々の実施例に記載の特徴を、用途に合わせて適宜組み合わせて使用してもよいことは言うまでもなく、前記各々の実施例に記載の構成は、発明の趣旨に反しない範囲内で種々変更し得ることも言うまでもない。例えば、表示用立体情報315cは立体表示部で表示する立体像に関する変更があった場合にのみ生成すればよく、必ずしも表示更新処理の度に生成する必要はない。また、立体形状情報315aに含まれる座標値については、立体表示部101の仕様に依らず所定の基準に基づいた大きさの値を設定しておき、立体形状情報315aから表示用立体情報315cを生成する処理と、表示用立体情報315cから立体形状情報315aを更新する処理とにおいて、物体の局所座標系と立体表示部101の局所座標系との間のスケール変換を行うような構成としてもよい。その場合、仕様の異なる複数の映像表示装置に対して、同一の物体情報を使用することができる。   As described above, the essence of the present invention is that the user can intuitively grasp the object shape by easily presenting more information useful for grasping the object shape to the user. It goes without saying that the features described in each of the embodiments may be used in appropriate combination according to the application, and the configuration described in each of the embodiments may be variously modified within the scope not departing from the spirit of the invention. It goes without saying that it can be done. For example, the display stereoscopic information 315c may be generated only when there is a change related to the stereoscopic image displayed on the stereoscopic display unit, and is not necessarily generated every time the display update process is performed. As for the coordinate values included in the three-dimensional shape information 315a, a value of a size based on a predetermined reference is set regardless of the specifications of the three-dimensional display unit 101, and the display three-dimensional information 315c is changed from the three-dimensional shape information 315a. In the process of generating and the process of updating the 3D shape information 315a from the display 3D information 315c, the scale conversion between the local coordinate system of the object and the local coordinate system of the 3D display unit 101 may be performed. . In that case, the same object information can be used for a plurality of video display devices having different specifications.

実施例1の映像表示装置の外観図。1 is an external view of a video display device according to Embodiment 1. FIG. 実施例1の映像表示装置の構成図。1 is a configuration diagram of a video display device according to Embodiment 1. FIG. 実施例1の記憶部に格納するプログラム及びデータを表す図。FIG. 3 is a diagram illustrating a program and data stored in a storage unit according to the first embodiment. 実施例1の局所座標系の取り方を表す図。FIG. 3 is a diagram illustrating how to take a local coordinate system according to the first embodiment. 実施例1の視点情報取得部の設計情報314の説明図。Explanatory drawing of the design information 314 of the viewpoint information acquisition part of Example 1. FIG. 実施例1の映像表示処理のフロー図。FIG. 3 is a flowchart of video display processing according to the first embodiment. 実施例1の設定変更処理のフロー図。FIG. 3 is a flowchart of setting change processing according to the first embodiment. 実施例1の形状変更処理のフロー図。FIG. 3 is a flowchart of shape change processing according to the first embodiment. 実施例1の透視投影用着目点選択処理の説明図。FIG. 6 is an explanatory diagram of perspective projection focus point selection processing according to the first embodiment. 実施例1の表示更新処理のフロー図。FIG. 3 is a flowchart of display update processing according to the first embodiment. 実施例1の視点位置推定処理のフロー図。FIG. 3 is a flowchart of viewpoint position estimation processing according to the first embodiment. 実施例1の視点位置推定処理の説明図。Explanatory drawing of the viewpoint position estimation process of Example 1. FIG. 実施例2の映像表示装置の外観図。FIG. 6 is an external view of a video display device according to a second embodiment. 実施例3の映像表示装置の平面図。FIG. 6 is a plan view of a video display device according to a third embodiment. 実施例3の映像表示装置の第2の利用形態を示す平面図。FIG. 9 is a plan view showing a second usage pattern of the video display device according to the third embodiment.

符号の説明Explanation of symbols

100・・・映像表示装置、
101・・・立体表示部、
102・・・2次元表示入力部、
103a・・・撮影部、
103b・・・距離画像取得部、
104b・・・センサ接続部、
401・・・立体表示部の局所座標系、
402・・・2次元表示入力部の局所座標系、
501・・・撮影部の投影中心、
502・・・撮影部の投影面、
503・・・撮影画像データ上の位置に対応する投影面上の位置、
504・・・撮影画像データ上の位置に対応する半直線、
901・・・表示用の視点位置、
902・・・投影面、
903・・・選択位置に対応する投影面上の位置、
904・・・選択位置に対応する半直線、
905・・・表示用立体情報で表現される立体の投影面上における像、
906・・・表示用立体情報で表現される立体、
907・・・立体の頂点のうち半直線との距離が最小となる頂点、
1201・・・撮影部の投影中心、
1202・・・撮影部の投影面、
1203・・・投影面上における顔領域の重心位置、
1204・・・投影中心を始点とし顔領域の重心位置を通る半直線、
1205・・・距離画像取得部の投影中心、
1206・・・距離画像データに基づいて生成される曲面、
1207・・・半直線と曲面との交点、
1300・・・映像表示装置、
1301・・・立体表示部、
1400・・・映像表示装置、
1401、1402、1403、1404・・・立体表示部、
1411、1412、1413、1414・・・2次元表示入力部、
1421、1422、1423、1424・・・視点位置取得部、
1431、1432、1433、1434・・・回転角入力リング、
1441、1442、1443、1444・・・ユーザ、
1500・・・映像表示装置。
100 ... Video display device,
101 ... 3D display unit,
102 ... 2D display input unit,
103a ... photographing part,
103b ... Distance image acquisition unit,
104b ... sensor connection part,
401 ... Local coordinate system of the stereoscopic display unit,
402 ... A local coordinate system of the two-dimensional display input unit,
501... The projection center of the imaging unit,
502... The projection surface of the imaging unit,
503: a position on the projection surface corresponding to a position on the captured image data,
504 ... a half line corresponding to the position on the captured image data,
901 ... Viewpoint position for display,
902 ... Projection plane,
903 ... a position on the projection surface corresponding to the selected position,
904... A straight line corresponding to the selected position,
905 ... an image on the projection surface of the solid represented by the stereoscopic information for display,
906: a solid represented by display stereoscopic information;
907... Vertex having the minimum distance from the half line among the vertices of the solid,
1201... The projection center of the imaging unit,
1202 ... Projection plane of the photographing unit,
1203 ... Position of the center of gravity of the face area on the projection plane,
1204... A half line passing through the center of gravity of the face area starting from the projection center,
1205 ... The projection center of the distance image acquisition unit,
1206 ... a curved surface generated based on the distance image data,
1207: intersection of half line and curved surface,
1300 ... Video display device,
1301 ... 3D display unit,
1400... Video display device,
1401, 1402, 1403, 1404... 3D display unit,
1411, 1412, 1413, 1414... 2D display input unit,
1421, 1422, 1423, 1424 ... viewpoint position acquisition unit,
1431, 1432, 1433, 1434 ... rotation angle input ring,
1441, 1442, 1443, 1444 ... user,
1500: Image display device.

Claims (18)

立体映像を表示する立体表示部と2次元映像を表示する2次元表示部を備え、
前記2次元表示部には前記立体表示部で表示している立体像に関する情報が表示されるように成されていること、
を特徴とする映像表示装置。
A 3D display unit for displaying a 3D image and a 2D display unit for displaying a 2D image;
The two-dimensional display unit is configured to display information regarding a stereoscopic image displayed on the stereoscopic display unit.
A video display device characterized by the above.
前記立体像に関する情報は画像情報であること、を特徴とする、請求項1記載の映像表示装置。   The video display apparatus according to claim 1, wherein the information about the stereoscopic image is image information. 前記画像情報は、所定の視点位置に関する前記立体像の正面図、平面図、側面図、透視投影図のうち少なくとも1つを含むこと、
を特徴とする、請求項2記載の映像表示装置。
The image information includes at least one of a front view, a plan view, a side view, and a perspective view of the stereoscopic image related to a predetermined viewpoint position;
The video display device according to claim 2, wherein:
ユーザの視点位置を推定する視点推定部を備え、
前記画像情報は、前記視点推定部が推定した視点位置に基づいて生成されること、
を特徴とする、請求項2記載の映像表示装置。
A viewpoint estimation unit for estimating the viewpoint position of the user;
The image information is generated based on the viewpoint position estimated by the viewpoint estimation unit;
The video display device according to claim 2, wherein:
前記画像情報は前記視点推定部が推定した視点位置に関する前記立体像の透視投影図であり、
前記立体像の透視投影図は、前記視点推定部が推定した視点位置に基づく画角に基づいて生成されること、
を特徴とする、請求項4記載の映像表示装置。
The image information is a perspective projection view of the stereoscopic image related to the viewpoint position estimated by the viewpoint estimation unit,
The perspective view of the stereoscopic image is generated based on an angle of view based on a viewpoint position estimated by the viewpoint estimation unit;
The video display device according to claim 4, wherein:
前記画像情報には、前記視点推定部が推定した視点位置が描画されていること、
を特徴とする、請求項4記載の映像表示装置。
In the image information, the viewpoint position estimated by the viewpoint estimation unit is drawn,
The video display device according to claim 4, wherein:
前記視点推定部は、撮影部を備え、該撮影部が撮影した画像データに基づいてユーザの視点位置を推定すること、
を特徴とする、請求項4記載の映像表示装置。
The viewpoint estimation unit includes a photographing unit, and estimates a user's viewpoint position based on image data captured by the photographing unit;
The video display device according to claim 4, wherein:
前記撮影部は、魚眼レンズを備えたこと、
を特徴とする、請求項7記載の映像表示装置。
The photographing unit includes a fisheye lens;
The video display device according to claim 7, wherein:
前記2次元表示部で表示されている画像情報に関して変更コマンドを入力するコマンド入力部と、
前記変更コマンドに基づいて、前記立体表示部で表示している立体像の情報を更新するデータ更新部と、
を備えたことを特徴とする、請求項2記載の映像表示装置。
A command input unit for inputting a change command with respect to the image information displayed on the two-dimensional display unit;
Based on the change command, a data update unit that updates information of the stereoscopic image displayed on the stereoscopic display unit;
The video display device according to claim 2, further comprising:
前記コマンド入力部は、前記2次元表示部の映像表示領域上で変更コマンドを入力できるように成されていること、
を特徴とする、請求項9記載の映像表示装置。
The command input unit is configured to input a change command on the video display area of the two-dimensional display unit;
The video display device according to claim 9, wherein:
反転表示の有無を設定する反転表示設定部を備え、
反転表示有りと設定された場合に前記2次元表示部で表示される映像は、反転表示無しと設定された場合に前記2次元表示部で表示される映像を、所定の点に関して180度回転させたものとされていること、
を特徴とする、請求項9記載の映像表示装置。
It has a reverse display setting part that sets the presence or absence of reverse display,
The image displayed on the two-dimensional display unit when the reverse display is set is rotated 180 degrees with respect to a predetermined point from the image displayed on the two-dimensional display unit when the reverse display is set. What is supposed to be
The video display device according to claim 9, wherein:
前記立体表示部と前記2次元表示部は、2つの結合形態で一体と成すことができるような分離可能な構成とされており、
第一の結合形態で結合した場合の前記立体表示部と前記2次元表示部との関係は、第二の結合形態で結合した場合の前記立体表示部と前記2次元表示部との関係に対して、前記2次元表示部を所定の点に関して180度回転させた関係と成されていること、
を特徴とする、請求項9記載の映像表示装置。
The three-dimensional display unit and the two-dimensional display unit are configured to be separable so as to be integrated with each other in two combined forms.
The relationship between the stereoscopic display unit and the two-dimensional display unit when combined in the first combined form is the relationship between the stereoscopic display unit and the two-dimensional display unit when combined in the second combined form. The two-dimensional display unit is rotated 180 degrees with respect to a predetermined point.
The video display device according to claim 9, wherein:
同一の物体に関する立体映像を表示する立体表示部を複数備え、
第二の立体表示部には、所定の視点位置において第一の立体表示部で表示している立体像とは異なる向きの立体像が観賞されるように成されていること、
を特徴とする映像表示装置。
A plurality of 3D display units for displaying 3D images related to the same object,
The second stereoscopic display unit is configured so that a stereoscopic image in a direction different from the stereoscopic image displayed on the first stereoscopic display unit at a predetermined viewpoint position can be viewed,
A video display device characterized by the above.
テーブル型の映像表示装置であって、
同一の物体に関する立体映像を表示する立体表示部を複数備え、
第一の視点位置から第一の立体表示部を見た場合に観賞される映像は、第二の視点位置から第二の立体表示部を見た場合に観賞される映像と等しくされていること、
を特徴とする映像表示装置。
A table-type image display device,
A plurality of 3D display units for displaying 3D images related to the same object,
The video that is viewed when the first stereoscopic display unit is viewed from the first viewpoint position is equal to the video that is viewed when the second stereoscopic display unit is viewed from the second viewpoint position. ,
A video display device characterized by the above.
同一の物体に関する立体映像を表示する3つの立体表示部と、2次元映像を表示する2つの2次元表示部を備え、
第一の2次元表示部には、第一の立体表示部で表示している立体像の第一の視点位置に関する画像情報と、第二の立体表示部で表示している立体像の前記第一の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されており、
第二の2次元表示部には、前記第二の立体表示部で表示している立体像の第二の視点位置に関する画像情報と、第三の立体表示部で表示している立体像の前記第二の視点位置に関する画像情報の、いずれか一方または両方が表示されるように成されていること、
を特徴とする映像表示装置。
Three stereoscopic display units for displaying a stereoscopic image related to the same object, and two two-dimensional display units for displaying a two-dimensional image,
The first two-dimensional display unit includes image information relating to a first viewpoint position of the stereoscopic image displayed on the first stereoscopic display unit, and the first information of the stereoscopic image displayed on the second stereoscopic display unit. One or both of the image information related to one viewpoint position is displayed,
The second two-dimensional display unit includes image information relating to the second viewpoint position of the stereoscopic image displayed on the second stereoscopic display unit, and the stereoscopic image displayed on the third stereoscopic display unit. One or both of the image information related to the second viewpoint position is displayed,
A video display device characterized by the above.
立体映像を表示する立体表示部と、前記立体表示部の3次元の傾きを検出する傾き検出部を備え、
前記立体表示部で表示される立体像は、前記傾き検出部の検出した傾きに基づいて、前記立体表示部の傾きに依らず上下方向が一定となるように成されていること、
を特徴とする映像表示装置。
A stereoscopic display unit that displays a stereoscopic image; and an inclination detection unit that detects a three-dimensional inclination of the stereoscopic display unit;
The stereoscopic image displayed on the stereoscopic display unit is configured such that the vertical direction is constant regardless of the inclination of the stereoscopic display unit, based on the inclination detected by the inclination detection unit,
A video display device characterized by the above.
立体映像を表示する映像表示領域の形状が円形である立体表示部と、
該映像表示領域の周囲に配されたリング状の回転角入力部を備え、
前記回転角入力部から入力された回転角に基づき、前記立体表示部で表示する立体像の向きを変更すること、
を特徴とする映像表示装置。
A stereoscopic display unit in which the shape of the video display area for displaying the stereoscopic video is circular;
A ring-shaped rotation angle input unit arranged around the video display area;
Changing the direction of the stereoscopic image displayed on the stereoscopic display unit based on the rotation angle input from the rotation angle input unit;
A video display device characterized by the above.
前記立体表示部は、光線再生方式の裸眼立体視ディスプレイであること、
を特徴とする請求項1記載の映像表示装置。
The stereoscopic display unit is a light-reproducing autostereoscopic display;
The video display device according to claim 1.
JP2008128578A 2008-05-15 2008-05-15 Video display device Pending JP2009278456A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008128578A JP2009278456A (en) 2008-05-15 2008-05-15 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008128578A JP2009278456A (en) 2008-05-15 2008-05-15 Video display device

Publications (1)

Publication Number Publication Date
JP2009278456A true JP2009278456A (en) 2009-11-26

Family

ID=41443450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008128578A Pending JP2009278456A (en) 2008-05-15 2008-05-15 Video display device

Country Status (1)

Country Link
JP (1) JP2009278456A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211685A (en) * 2010-01-14 2011-10-20 Nintendo Co Ltd Portable information processing apparatus, and portable game device
JP2012079211A (en) * 2010-10-05 2012-04-19 Hitachi Ltd Display system and display method of stereoscopic image
JP2012130499A (en) * 2010-12-21 2012-07-12 Nintendo Co Ltd Game device, game program, game system, and game method
JP2012139318A (en) * 2010-03-12 2012-07-26 Nintendo Co Ltd Display control program, display control apparatu, display control system, and display control method
JP2014215313A (en) * 2013-04-22 2014-11-17 日本放送協会 Stereoscopic video display device
JP2015008394A (en) * 2013-06-25 2015-01-15 Kddi株式会社 Information terminal device
US8952956B2 (en) 2010-12-16 2015-02-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2015222892A (en) * 2014-05-23 2015-12-10 日本放送協会 Display image generation device and program therefor
JP2016014741A (en) * 2014-07-01 2016-01-28 国立研究開発法人情報通信研究機構 Stereoscopic display
JP7447474B2 (en) 2019-12-19 2024-03-12 富士フイルムビジネスイノベーション株式会社 Information processing device and program
WO2024053253A1 (en) * 2022-09-05 2024-03-14 Toppanホールディングス株式会社 Aerial display device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
JP2011211685A (en) * 2010-01-14 2011-10-20 Nintendo Co Ltd Portable information processing apparatus, and portable game device
JP2016167811A (en) * 2010-01-14 2016-09-15 任天堂株式会社 Portable information processing apparatus and portable game apparatus
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2012139318A (en) * 2010-03-12 2012-07-26 Nintendo Co Ltd Display control program, display control apparatu, display control system, and display control method
US10764565B2 (en) 2010-03-12 2020-09-01 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2012079211A (en) * 2010-10-05 2012-04-19 Hitachi Ltd Display system and display method of stereoscopic image
US8952956B2 (en) 2010-12-16 2015-02-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2012130499A (en) * 2010-12-21 2012-07-12 Nintendo Co Ltd Game device, game program, game system, and game method
JP2014215313A (en) * 2013-04-22 2014-11-17 日本放送協会 Stereoscopic video display device
JP2015008394A (en) * 2013-06-25 2015-01-15 Kddi株式会社 Information terminal device
JP2015222892A (en) * 2014-05-23 2015-12-10 日本放送協会 Display image generation device and program therefor
JP2016014741A (en) * 2014-07-01 2016-01-28 国立研究開発法人情報通信研究機構 Stereoscopic display
JP7447474B2 (en) 2019-12-19 2024-03-12 富士フイルムビジネスイノベーション株式会社 Information processing device and program
WO2024053253A1 (en) * 2022-09-05 2024-03-14 Toppanホールディングス株式会社 Aerial display device

Similar Documents

Publication Publication Date Title
JP2009278456A (en) Video display device
CN108369742B (en) Optimized object scanning using sensor fusion
US11651563B1 (en) Dockable billboards for labeling objects in a display having a three dimensional perspective of a virtual or real environment
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US8254667B2 (en) Method, medium, and system implementing 3D model generation based on 2D photographic images
US20130135295A1 (en) Method and system for a augmented reality
KR101196291B1 (en) Terminal providing 3d interface by recognizing motion of fingers and method thereof
US20120054690A1 (en) Apparatus and method for displaying three-dimensional (3d) object
JP7073850B2 (en) Input device and input method of input device
US11776142B2 (en) Structuring visual data
US20210225038A1 (en) Visual object history
US20230154134A1 (en) Method and apparatus with pose estimation
US10311647B2 (en) Three dimensional image generation
JP2021136017A (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
JP2018112894A (en) System and control method
JP2004272515A (en) Interface method, device, and program
CN113129362A (en) Method and device for acquiring three-dimensional coordinate data
JP6818968B2 (en) Authoring device, authoring method, and authoring program
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
KR20210023663A (en) Image processing method and image processing apparatus for generating 3d content using 2d images
JP2017068468A (en) Information processing device, information processing method, and program
JP5533311B2 (en) Exhibit information presentation device and presentation method
JPH0916653A (en) Graphic processor and its method
Marton et al. FOX: The Focus Sliding Surface metaphor for natural exploration of massive models on large-scale light field displays
Gupta The Universal Media Book