JP2000182058A - Three-dimensional motion input method and three- dimensional motion input system - Google Patents

Three-dimensional motion input method and three- dimensional motion input system

Info

Publication number
JP2000182058A
JP2000182058A JP10361667A JP36166798A JP2000182058A JP 2000182058 A JP2000182058 A JP 2000182058A JP 10361667 A JP10361667 A JP 10361667A JP 36166798 A JP36166798 A JP 36166798A JP 2000182058 A JP2000182058 A JP 2000182058A
Authority
JP
Japan
Prior art keywords
image
point
pair
dimensional
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10361667A
Other languages
Japanese (ja)
Inventor
Tomoyuki Isonuma
伴幸 磯沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10361667A priority Critical patent/JP2000182058A/en
Publication of JP2000182058A publication Critical patent/JP2000182058A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently input motion information by spatially and timewise automating a work to specify a corresponding point of a motion extracting point when three-dimensional motion information is inputted by using a stereo photographing system. SOLUTION: A three-dimensional motion input method is constituted by providing a photographing process to photograph a pair of moving images with parallax, display processes (S8002, S8014) to perform stereo display of the photographed pair of moving images to be streoscopically viewed, a line of sight detecting process (8010) to detect the direction of the line of sight of an observer to observe the image to which the stereo display is performed, a corresponding point detecting process (S8011) to detect the corresponding point of the pair of moving images based on the detected direction of the line of sight, a calculating process (S8011) to calculate a three-dimensional coordinate of a point on the moving image corresponding to the detected corresponding point and a storage process (S8012) to store the three-dimensional coordinate by making it correspond to time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は三次元運動入力方法
及び三次元運動入力システムに関し、更に詳しくは、ス
テレオ撮影方式により実在する物体の三次元運動を入力
する場合の、三次元運動入力方法及び三次元運動入力シ
ステムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional motion input method and a three-dimensional motion input system, and more particularly, to a three-dimensional motion input method and a three-dimensional motion input method for inputting a three-dimensional motion of an actual object by a stereo photography method. The present invention relates to a three-dimensional motion input system.

【0002】[0002]

【従来の技術】近年、映画等の特撮シーンの制作に、コ
ンピュータグラフィックス(以降CGと略す)を利用し
たデジタル映像合成技術が多用されるようになってきて
いる。これは、現実の撮影方法では撮影不可能、または
撮影困難とされるシーン作成に利用され、実写シーン中
の特定の物体をCGによって作成された人工的な映像で
置き換えたり、新たなCG映像を追加したりする方法で
ある。この場合、実写映像とCG映像のより正確な合成
を行うためには、実写映像中の置換対象となる物体位置
や、CG映像追加位置の三次元座標情報とその時間変
化、すなわち三次元運動情報を、何らかの方法で知る必
要がある。
2. Description of the Related Art In recent years, digital video synthesizing techniques using computer graphics (hereinafter abbreviated as CG) have been frequently used for producing special effects scenes such as movies. This is used to create a scene that is impossible or difficult to shoot with a real shooting method, and replaces a specific object in a real shooting scene with an artificial image created by CG, or replaces a new CG image with a new CG image. It is a method of adding. In this case, in order to more accurately combine the real image and the CG image, three-dimensional coordinate information of the position of the object to be replaced in the real image and the CG image additional position and its time change, that is, three-dimensional motion information Need to be known in some way.

【0003】一方、上記デジタル映像合成技術は実在物
体による映像をCGによる人工的な映像で補完するもの
と考えられるが、これとは逆に、全てCGによって作ら
れた映像に、実在物体の運動特性を与える技術の必要性
も大きい。すなわち、実在物体の三次元運動情報を何ら
かの方法で数値として抽出し、この運動情報をCGによ
る映像生成過程に反映させる技術である。この用途で行
われる運動特性の抽出処理はモーションキャプチャリン
グと呼ばれている。モーションキャプチャリングの使用
例は、コンピュータグラフィックスによって作られたキ
ャラクタが実在のダンサーのように踊る映像等に見られ
る。また、最近のコンピュータゲーム等ではキャラクタ
の動きに現実性を持たせるために一般的に用いられてい
る。
On the other hand, the above-mentioned digital image synthesizing technique is considered to complement an image of a real object with an artificial image of a CG. There is also a great need for technology to provide characteristics. In other words, this is a technique in which three-dimensional motion information of a real object is extracted as a numerical value by some method, and this motion information is reflected in an image generation process by CG. The motion characteristic extraction processing performed in this application is called motion capturing. An example of the use of motion capturing is in a video or the like in which a character created by computer graphics dances like a real dancer. Also, in recent computer games and the like, it is generally used to make the movement of a character realistic.

【0004】このような背景のもと、実在の運動物体か
ら、撮影や計測によって三次元運動情報を抽出する技
術、すなわち、三次元運動入力の技術が近年、ますます
必要とされている。
Against this background, in recent years, a technique of extracting three-dimensional motion information from a real moving object by photographing or measuring, that is, a technique of three-dimensional motion input, has been increasingly required in recent years.

【0005】三次元運動入力は、運動物体の特定の点に
着目し、この点の三次元情報を時系列順に抽出すること
によって行われる。この三次元運動入力を実現するため
の現在利用可能な方法には、磁気センサ方式、光学方
式、およびステレオ撮影方式等が上げられる。以下、こ
れら方式の原理を簡単に説明する。
[0005] Three-dimensional motion input is performed by focusing on a specific point of a moving object, and extracting three-dimensional information of this point in chronological order. Currently available methods for realizing this three-dimensional motion input include a magnetic sensor system, an optical system, and a stereo shooting system. Hereinafter, the principles of these methods will be briefly described.

【0006】1.磁気センサ方式 磁気センサ方式は現在、精度の良い三次元運動入力の有
力な手段として多く利用されている。これは計測対象に
磁気センサを装着し、トランスミッターとよばれる信号
源からの信号を磁気センサにより検知することによって
磁気センサの空間位置や方向を取得するものである。こ
の磁気センサ方式は三次元座標を直接、高速に得ること
ができるため、実時間での三次元座標入力が可能であ
る。また、一センサあたり、位置と方向の両方の情報が
得られるので高精度の三次元運動入力が可能である。こ
のため、磁気センサ方式は現在、モーションキャプチャ
リングに多く利用されている。ただし、磁気センサ方式
ではセンサの装着が必須であり、これは計測対象の運動
にある程度の負担をかけ、同時に可動領域にも制限をつ
ける。更に、計測は計測装置を配備した撮影スタジオ内
に限られる、という制限が付く。
[0006] 1. Magnetic sensor system The magnetic sensor system is currently widely used as a powerful means for inputting accurate three-dimensional motion. In this method, a magnetic sensor is mounted on a measurement target, and a signal from a signal source called a transmitter is detected by the magnetic sensor to acquire a spatial position and a direction of the magnetic sensor. Since this magnetic sensor system can directly obtain three-dimensional coordinates at high speed, it is possible to input three-dimensional coordinates in real time. In addition, since information on both the position and the direction can be obtained for each sensor, highly accurate three-dimensional motion input is possible. For this reason, the magnetic sensor system is currently widely used for motion capturing. However, in the magnetic sensor method, it is necessary to mount a sensor, which imposes a certain load on the movement of the measurement target and at the same time limits the movable area. Further, there is a restriction that the measurement is limited to a photographing studio in which the measurement device is provided.

【0007】2.光学方式 光学方式は、計測対象に光学的なマーカーを装着し、予
め位置と方向のわかっている複数のカメラの撮影によっ
て三次元運動を抽出する方法である。この場合、撮影時
に赤外線等の特定波長で計測対象を照射し、マーカーに
はこの特定波長を強く反射する素材を用いる。これによ
りマーカーの像のみからなる映像を撮影することがで
き、マーカーの撮影画像と各カメラの座標情報からマー
カーの座標情報を算出することができる。この方法は計
測対象の運動に磁気センサ方式ほどの負荷はかけないも
のの、計測は磁気センサ方式同様、計測装置を配置した
特殊な撮影スタジオ内に限られる。
[0007] 2. Optical method The optical method is a method in which an optical marker is attached to a measurement target and three-dimensional motion is extracted by photographing a plurality of cameras whose positions and directions are known in advance. In this case, a target to be measured is irradiated with a specific wavelength such as infrared light at the time of photographing, and a material that strongly reflects the specific wavelength is used as a marker. This makes it possible to shoot a video image consisting of only the marker image, and to calculate the coordinate information of the marker from the captured image of the marker and the coordinate information of each camera. Although this method does not apply as much load to the movement of the measurement target as the magnetic sensor method, the measurement is limited to a special photographing studio in which a measuring device is arranged, similarly to the magnetic sensor method.

【0008】3.ステレオ撮影方式 複数の静止画像から物体の三次元情報を抽出する方法と
して、ステレオカメラ撮影による方法が知られている。
これは、図1に示すように、二台のカメラ101,10
2、あるいは二回の撮影により、二視点から撮影された
視差のある二画像を情報源に用いる。この視差を持つ左
右二画像103,104を用い、着目点の左右二画像中
での対応点をそれぞれ指定することによって、三角測量
の原理により、着目点の三次元座標が得られる。以降、
このステレオカメラ撮影と対応点指定による三次元座標
の抽出方法をステレオ撮影方式と呼ぶことにする。この
ステレオ撮影方式を一連の時系列画像に適用すれば、原
理的には三次元運動入力が可能となる。
[0008] 3. Stereo Photography Method As a method for extracting three-dimensional information of an object from a plurality of still images, a method using stereo camera photography is known.
This is because, as shown in FIG.
Two images with parallax taken from two viewpoints by two or two shootings are used as information sources. By using the left and right two images 103 and 104 having the parallax and designating corresponding points in the left and right two images of the point of interest, three-dimensional coordinates of the point of interest can be obtained based on the principle of triangulation. Or later,
This method of extracting three-dimensional coordinates by stereo camera imaging and corresponding point designation will be referred to as a stereo imaging method. If this stereo shooting method is applied to a series of time-series images, a three-dimensional motion input is possible in principle.

【0009】前述したように、三次元運動入力の目的と
して、モーションキャプチャリングのように三次元運動
情報源の運動情報のみを必要とし、映像情報は必要で無
い場合がある。この場合は、磁気センサ方式や光学方式
が有効であり、実際よく使用されている。しかし、撮影
対象が限定されるという欠点がある。一方、三次元運動
入力と撮像の撮影を同一事象の情報源から行う必要性も
存在する。それは、実写撮影によって得られた映像か
ら、特定の撮影物の三次元運動情報を得たい場合などで
ある。この場合、磁気センサ方式や光学方式では、セン
サやマーカーの画像が撮影画像に混入するため、撮影画
像自体はほとんど使用できない。また、特殊な撮影スタ
ジオでの撮影に限定される点も大きな障害となる。よっ
て、三次元運動入力と撮像の撮影を同一事象の情報源か
ら行うためにはステレオ撮影方式が最も適した選択とな
る。
As described above, for the purpose of three-dimensional motion input, only motion information of a three-dimensional motion information source is required, such as motion capturing, and video information may not be necessary. In this case, a magnetic sensor system or an optical system is effective and is often used in practice. However, there is a disadvantage that the photographing target is limited. On the other hand, there is also a need to perform three-dimensional motion input and imaging from the same event information source. That is, for example, when it is desired to obtain three-dimensional motion information of a specific photographed object from an image obtained by actual photographing. In this case, in the magnetic sensor system or the optical system, the image of the sensor or the marker is mixed in the captured image, so that the captured image itself can hardly be used. Another limitation is that it is limited to shooting in a special shooting studio. Therefore, in order to perform three-dimensional motion input and imaging in the same event information source, the stereo imaging method is the most suitable choice.

【0010】前記従来技術で説明したように、従来の磁
気センサ方式や光学方式が適用不可能な状況下での三次
元運動入力の必要性が多く存在する。そして、その要求
を満たすために、現状では、ステレオ撮影方式が最も有
効な方法と考えられる。
[0010] As described in the prior art, there is a great need for three-dimensional motion input in a situation where the conventional magnetic sensor system or optical system cannot be applied. At present, the stereo photography method is considered to be the most effective method to satisfy the demand.

【0011】更に、ステレオ撮影方式は磁気センサ方式
や光学方式に比べ安価に実現可能である。また、通常の
映像取得を目的とした撮影にもう一台のカメラを追加す
るだけの装置構成で済み、映像取得を目的とした撮影と
の新和性が高い。よって、磁気センサ方式や光学方式の
代用として使用する利点は大きい。ところが、このステ
レオ撮影方式による三次元運動入力には以下の欠点が存
在した。
Further, the stereo photographing method can be realized at a lower cost than the magnetic sensor method and the optical method. In addition, a device configuration in which only one camera is added to the normal shooting for image acquisition is sufficient, and the novelty for shooting for image acquisition is high. Therefore, there is a great advantage in using the magnetic sensor system or the optical system instead. However, the following disadvantages existed in the three-dimensional motion input by the stereo photography method.

【0012】まず第一に、左右画像からの三次元座標情
報導出に左右二画像中の対応点指定を行わなければなら
なかった。これは特定の着目点に対し、左右二つの画像
上の各対応点をマウス等により、手動で指定する作業を
必要とした。この作業は、図1に示すように、左(或い
は右)画像103に着目し、マウスで適当な代表点10
5を選び、次に右(或いは左)画像104に着目し、先
に選んだ代表点に対応する点106をマウスで選ぶ、と
いう単純な作業である。しかし、三次元運動入力を行う
場合は、この作業を全ての時刻について行う必要があ
り、操作者に大きな負担をかけるだけでなく、時間もか
かっていた。
First, in deriving three-dimensional coordinate information from the left and right images, corresponding points in the two left and right images have to be specified. This requires an operation of manually specifying each corresponding point on the two left and right images with respect to a specific point of interest using a mouse or the like. This operation focuses on the left (or right) image 103 as shown in FIG.
This is a simple operation of selecting No. 5, then paying attention to the right (or left) image 104, and selecting a point 106 corresponding to the previously selected representative point with the mouse. However, when performing a three-dimensional motion input, it is necessary to perform this operation at all times, which not only places a heavy burden on the operator but also takes time.

【0013】このような対応点の指定作業を軽減させる
方法として、左右画像の相関計算を行い、自動的に対応
点を算出する方法が知られている。これは左右画像の二
点に対し、相関度を定義し、左(または右)画像上に与
えられた一点に対し、相関度が最大になる、右(または
左)画像上の点を対応点とするものである。相関度の計
算は、左右画像の二点に対し、それらの点を囲む大きさ
の等しい矩形領域を、左右画像上でそれぞれ定義し、こ
の矩形領域内において、左画素値データL(x,y)と
左画素値データR(x,y)の二次元相関をとることに
よって行われる。しかしながら、この相関計算による自
動的な対応点検出にも、多くの計算時間を要する点、左
右画像、少なくともどちらか一方の画像において運動抽
出点を指定する必要がある点等、幾つかの問題があり、
今のところ対応点検出処理の大きな改善は得られていな
い。よって、従来のステレオ撮影方式を使用する場合は
多大な時間をかけて三次元運動入力が行われていた。
As a method for reducing the task of designating corresponding points, there is known a method of calculating correlation between left and right images and automatically calculating corresponding points. This defines the degree of correlation for two points in the left and right images, and for a point given on the left (or right) image, the point on the right (or left) image that maximizes the degree of correlation is the corresponding point It is assumed that. The calculation of the degree of correlation is performed by defining, on the left and right images, rectangular areas of equal size surrounding the two points of the left and right images, respectively, and within this rectangular area, left pixel value data L (x, y ) And the left pixel value data R (x, y). However, the automatic detection of the corresponding points by the correlation calculation also has several problems, such as a point that a lot of calculation time is required, a point that it is necessary to specify a motion extraction point in at least one of the left and right images, and the like. Yes,
At present, no significant improvement in the corresponding point detection processing has been obtained. Therefore, when using the conventional stereo photography method, three-dimensional motion input is performed for a long time.

【0014】上記、左右画像の対応点指定作業は、左右
二つの視点を基準にした二つの座標系間の対応付けであ
り、空間的な対応点の指定であると言える。一方、ステ
レオ撮影方式を時系列画像に適用する場合、この空間的
な対応点指定に加え、時間的な対応点の指定作業が必要
になる。すなわち、ある時刻の画像上の一点で指定され
る三次元空間中の物体の一点が、次時刻の画像上のどの
点に対応しているのかを指定する必要がある。この時間
的な対応点指定に関し、次に述べる問題が発生する。
The operation of specifying the corresponding points of the left and right images is a correspondence between two coordinate systems based on the two left and right viewpoints, and can be said to be a specification of a spatial corresponding point. On the other hand, when the stereo shooting method is applied to a time-series image, it is necessary to specify temporally corresponding points in addition to the spatially corresponding points. That is, it is necessary to specify which point on the image at the next time corresponds to one point of the object in the three-dimensional space specified by one point on the image at a certain time. The following problem arises with regard to the designation of the corresponding points in time.

【0015】ここで、単に、右画像、または左画像どち
らかの時系列画像を同一画面上に連続表示した場合を考
えてみる。この場合、撮影物体の特定の点に着目し、そ
の点を時間経過とともに追跡する事は容易である。なぜ
なら、画面上で連続的に一を変える抽出点に着目し、認
識し続けることは人間の動画認識能力上、容易だからで
ある。しかし、右左の時系列画面上異なる位置に時間順
に表示し、順次、対応点指定作業を行う場合は、一時刻
ごとに左右画像の対応点指定作業が必要となる。図12
はこの状況を表している。よって、当然、画像の時間的
連続性は途切れ、更に操作者の視線は異なる位置にある
左右画像間で行き来する(11001,11003)。
これらの理由から従来のステレオ撮影方式を時系列ステ
レオ画像に順次適用する、という方法では着目点のフレ
ーム間に渡る追跡を失い易い、つまり、運動の抽出点と
してどの点に着目していたかを見失い易く、場合によっ
ては時間的に前後のフレーム間での画像比較が必要にな
る(11002)。
Here, let us consider a case where a time series image of either the right image or the left image is continuously displayed on the same screen. In this case, it is easy to focus on a specific point of the photographed object and track that point over time. This is because it is easy for humans to recognize moving images easily by paying attention to the extraction points that change continuously on the screen. However, when the corresponding points are displayed sequentially at different positions on the right and left time-series screens and the corresponding points are sequentially specified, the corresponding points of the left and right images must be specified for each time. FIG.
Represents this situation. Therefore, naturally, the temporal continuity of the image is interrupted, and the line of sight of the operator moves back and forth between the left and right images located at different positions (11001, 11003).
For these reasons, in the method of sequentially applying the conventional stereo shooting method to the time-series stereo image, it is easy to lose the tracking between the frames of the point of interest, that is, to lose track of which point was focused as the motion extraction point It is easy, and in some cases, it is necessary to compare images between temporally preceding and succeeding frames (11002).

【0016】[0016]

【発明が解決しようとする課題】以上説明したとおり、
従来のステレオ撮影方式による三次元運動入力には、一
点の三次元座標抽出時の左右画像対応点指定作業に時間
がかかる点、および運動の抽出点の時間軸上での追尾、
すなわち時間的な対応点指定作業が難しいという点に問
題があった。
As described above,
In the three-dimensional motion input by the conventional stereo shooting method, the point where it takes time to specify the left and right image corresponding points at the time of extracting the three-dimensional coordinates of one point, and the tracking of the motion extraction point on the time axis,
That is, there is a problem in that it is difficult to specify a corresponding point in time.

【0017】本発明は上記問題点を鑑みてなされたもの
であり、ステレオ撮影方式を用いて三次元運動情報を入
力する場合に、運動抽出点の対応点指定作業を空間的に
も時間的にも自動化し、効率的に運動情報の入力を行う
ことのできる三次元運動入力方法及び三次元運動入力シ
ステムを提供することを目的とする。
The present invention has been made in view of the above problems, and when three-dimensional motion information is input using a stereo shooting method, the operation of designating a corresponding point of a motion extraction point is performed spatially and temporally. It is also an object of the present invention to provide a three-dimensional motion input method and a three-dimensional motion input system that can automate motion information and efficiently input motion information.

【0018】[0018]

【課題を解決するための手段】上記目的を達成するため
に、本発明の三次元運動入力方法は、視差のある一対の
動画像を撮影する撮影工程と、前記撮影工程において撮
影された前記一対の動画像を、立体視されるようにステ
レオ表示する表示工程と、前記表示工程でステレオ表示
された画像を観察する観察者の視線方向を検知する視線
検知工程と、前記視線検知工程で検知された視線方向に
基づいて、前記一対の動画像の対応点を検出する対応点
検出工程と、前記対応点検出工程により検出された対応
点に対応する動画像上の点の三次元座標を算出する算出
工程と、前記算出工程により得られた三次元座標を時間
に対応付けて記憶する記憶工程とを有する。
In order to achieve the above object, a three-dimensional motion input method according to the present invention comprises: a photographing step of photographing a pair of moving images having parallax; The moving image is displayed in a stereoscopic manner so as to be stereoscopically viewed, a line-of-sight detection step of detecting a line-of-sight direction of an observer who observes the image stereo-displayed in the display step, and is detected in the line-of-sight detection step. A corresponding point detecting step of detecting a corresponding point of the pair of moving images based on the line of sight direction, and calculating three-dimensional coordinates of a point on the moving image corresponding to the corresponding point detected by the corresponding point detecting step. A calculating step; and a storing step of storing the three-dimensional coordinates obtained in the calculating step in association with time.

【0019】または、視差のある一対の動画像を記録媒
体から読み出す読み出し工程と、前記読み出し工程で前
記記録媒体から読み出された前記一対の動画像を、立体
視されるようにステレオ表示する表示工程と、前記表示
工程でステレオ表示された画像を観察する観察者の視線
方向を検知する視線検知工程と、前記視線検知工程で検
知された視線方向に基づいて、前記一対の動画像の対応
点を検出する対応点検出工程と、前記対応点検出工程に
より検出された対応点に対応する動画像上の点の三次元
座標を算出する算出工程と、前記算出工程により得られ
た三次元座標を時間に対応付けて記憶する記憶工程とを
有する。
Alternatively, a reading step of reading a pair of moving images having parallax from a recording medium, and a display for stereoscopically displaying the pair of moving images read from the recording medium in the reading step so as to be stereoscopically viewed. Step, a line-of-sight detection step of detecting a line-of-sight direction of an observer who observes the image stereo-displayed in the display step, and a corresponding point of the pair of moving images based on the line-of-sight direction detected in the line-of-sight detection step. A corresponding point detection step of detecting the three-dimensional coordinates of a point on a moving image corresponding to the corresponding point detected in the corresponding point detection step, and the three-dimensional coordinates obtained in the calculation step And storing the information in association with time.

【0020】また、本発明の三次元運動入力システム
は、視差のある一対の動画像を撮影する撮影手段と、前
記撮影手段により撮影された前記一対の動画像を、立体
視されるようにステレオ表示する表示手段と、前記表示
手段でステレオ表示された画像を観察する観察者の視線
方向を検知する視線検知手段と、前記視線検知手段で検
知された視線方向に基づいて、前記一対の動画像の対応
点を検出する対応点検出手段と、前記対応点検出手段に
より検出された対応点に対応する動画像上の点の三次元
座標を算出する算出手段と、前記算出手段により得られ
た三次元座標を時間に対応付けて記憶する記憶手段とを
有する。
Further, the three-dimensional motion input system according to the present invention includes a photographing means for photographing a pair of moving images having parallax, and a stereoscopic image for stereoscopically viewing the pair of moving images photographed by the photographing means. Display means for displaying, gaze detection means for detecting a gaze direction of an observer observing an image stereo-displayed on the display means, and the pair of moving images based on the gaze direction detected by the gaze detection means Corresponding point detecting means for detecting a corresponding point of, a calculating means for calculating three-dimensional coordinates of a point on a moving image corresponding to the corresponding point detected by the corresponding point detecting means, and a tertiary coordinate obtained by the calculating means. Storage means for storing the original coordinates in association with the time.

【0021】または、視差のある一対の動画像を記録媒
体から読み出す読み出し手段と、前記読み出し手段によ
り前記記録媒体から読み出された前記一対の動画像を、
立体視されるようにステレオ表示する表示手段と、前記
表示手段でステレオ表示された画像を観察する観察者の
視線方向を検知する視線検知手段と、前記視線検知手段
で検知された視線方向に基づいて、前記一対の動画像の
対応点を検出する対応点検出手段と、前記対応点検出手
段により検出された対応点に対応する動画像上の点の三
次元座標を算出する算出手段と、前記算出手段により得
られた三次元座標を時間に対応付けて記憶する記憶手段
とを有する。
Alternatively, reading means for reading a pair of moving images having parallax from a recording medium, and reading the pair of moving images read from the recording medium by the reading means,
Display means for performing stereo display so as to be stereoscopically viewed, gaze detection means for detecting a gaze direction of an observer observing an image stereo-displayed on the display means, and a gaze direction detected by the gaze detection means Corresponding point detecting means for detecting corresponding points of the pair of moving images, calculating means for calculating three-dimensional coordinates of points on the moving image corresponding to the corresponding points detected by the corresponding point detecting means, Storage means for storing the three-dimensional coordinates obtained by the calculation means in association with time.

【0022】上記構成によれば、実写映像からステレオ
撮影方式により三次元運動情報を抽出する場合に、三次
元座標の時系列抽出にかかる作業量および作業時間を大
幅に削減することができるため、センサ不要のメリット
を持つステレオ撮影方式を、三次元運動入力方法として
使用することが容易となり、三次元運動入力の撮影対象
をより広範なものにすることができる。
According to the above configuration, when extracting three-dimensional motion information from a real image by a stereo shooting method, the amount of work and the time required for extracting a time series of three-dimensional coordinates can be greatly reduced. It is easy to use a stereo imaging method having a merit of eliminating the need for a sensor as a three-dimensional motion input method, and it is possible to broaden an imaging target of the three-dimensional motion input.

【0023】本発明の好適な一態様によれば、前記撮影
工程では、前記撮影手段は、撮影位置および方向を固定
した状態で動画像を撮影する。
According to a preferred aspect of the present invention, in the photographing step, the photographing means photographs a moving image with the photographing position and direction fixed.

【0024】または、本発明の好適な別の一態様によれ
ば、前記撮影工程では、予め決められた軌道上で前記撮
影手段による撮影位置を移動しながら動画像を撮影す
る。
According to another preferred aspect of the present invention, in the photographing step, a moving image is photographed while moving the photographing position of the photographing means on a predetermined trajectory.

【0025】上記構成により、本発明を静止物体の形状
入力に利用することが可能となり、容易に形状表示の精
度を向上することができる。
With the above configuration, the present invention can be used for inputting the shape of a stationary object, and the accuracy of shape display can be easily improved.

【0026】更に、本発明の好適な一態様によれば、前
記対応点検出工程では、前記対応点検出手段により前記
動画像における静止物体上の点と、前記動画像における
運動物体の点の、それぞれの対応点を検出し、前記算出
工程では、前記静止物体上の点を基準とした動物体上の
点の三次元座標を算出する。これにより、撮影位置が任
意に変化した場合でも、撮影された画像内の静止物体を
基準とした三次元座標を得ることができるため、撮影時
の自由度が向上する。
Further, according to a preferred aspect of the present invention, in the corresponding point detecting step, the corresponding point detecting means detects a point on a stationary object in the moving image and a point on a moving object in the moving image. Each corresponding point is detected, and in the calculating step, three-dimensional coordinates of a point on the moving object with reference to the point on the stationary object are calculated. Thus, even when the photographing position changes arbitrarily, three-dimensional coordinates based on a stationary object in the photographed image can be obtained, so that the degree of freedom in photographing is improved.

【0027】更に、本発明の好適な一態様によれば、前
記表示工程では、前記表示手段上に所定時間毎に、前記
一対の動画像の一時刻における一対の画像を、それぞれ
次の時刻の画像に更新して表示し、前記算出工程では、
前記算出手段により前記所定時間間隔で動画像上の点の
三次元座標を算出する。
Further, according to a preferred aspect of the present invention, in the displaying step, a pair of images at one time of the pair of moving images is displayed on the display means at predetermined time intervals, respectively. The image is updated and displayed, and in the calculation step,
The calculating means calculates three-dimensional coordinates of a point on a moving image at the predetermined time interval.

【0028】また、本発明の好適な別の一態様によれ
ば、前記表示工程では、前記表示手段上に外部からの指
示に基づいて、前記一対の動画像の一時刻における一対
の画像を、それぞれ次の時刻の画像に更新して表示し、
前記算出工程では、前記算出手段により前記画像更新工
程で更新された一対の画像上の点の三次元座標を算出す
る。これにより、観察者が自由に運動入力のタイミング
を指示することができるため、観察者にかかる負担を軽
減することができる。
According to another preferred aspect of the present invention, in the display step, a pair of images at one time of the pair of moving images is displayed on the display means based on an external instruction. Update and display the image at the next time,
In the calculating step, three-dimensional coordinates of a point on the pair of images updated by the calculating unit in the image updating step are calculated. This allows the observer to freely instruct the timing of the motion input, thereby reducing the burden on the observer.

【0029】また、本発明の好適な一態様によれば、前
記算出工程では、前記算出手段により前記一対の動画像
中、前記対応点検出工程で得られた対応点付近の二次元
領域について二次元相関演算を行い、得られた相関値に
基づいて前記一対の動画像上の新たな対応点を求め、新
たに求められた対応点に基づいて動画像上の点の三次元
座標を算出する。
According to a preferred aspect of the present invention, in the calculating step, a two-dimensional area near the corresponding point obtained in the corresponding point detecting step in the pair of moving images by the calculating means is used. A dimensional correlation operation is performed, a new corresponding point on the pair of moving images is obtained based on the obtained correlation value, and three-dimensional coordinates of a point on the moving image are calculated based on the newly obtained corresponding point. .

【0030】また、本発明の好適な一態様によれば、前
記視線検知工程では、前記視線検知手段内の非可視光光
源により非可視光を観察者の眼球に照射し、前記視線検
知手段は観察者の眼球瞳孔中心位置と角膜反射面からの
非可視光の虚像位置の相対関係から、観察者の眼球の回
転角度を求め、視線方向を検知する。
According to a preferred aspect of the present invention, in the line-of-sight detecting step, the non-visible light source in the line-of-sight detecting means irradiates the observer's eye with invisible light, and the line-of-sight detecting means The rotation angle of the observer's eyeball is obtained from the relative relationship between the observer's eyeball pupil center position and the virtual image position of the invisible light from the corneal reflection surface, and the gaze direction is detected.

【0031】また、本発明の好適な一態様によれば、前
記視線検知手段は、非可視光を観察者の眼球に照射する
光源を有し、観察者の眼球瞳孔中心位置と角膜反射面か
らの非可視光の虚像位置の相対関係から、観察者の眼球
の回転角度を求め、視線方向を検知する。
According to a preferred aspect of the present invention, the line-of-sight detecting means has a light source for irradiating the observer's eye with invisible light. The rotation angle of the observer's eyeball is obtained from the relative relationship between the virtual image positions of the invisible light and the gaze direction is detected.

【0032】また、好ましくは、前記表示手段は、観察
者の頭部と表示面の相対的な位置関係を固定することの
可能な頭部装着型立体画像表示装置である。
Preferably, the display means is a head mounted stereoscopic image display device capable of fixing a relative positional relationship between a viewer's head and a display surface.

【0033】また、更に好ましくは、前記頭部装着型画
像表示装置は、前記視線検知手段を有する。
Further, more preferably, the head mounted image display device has the line of sight detecting means.

【0034】また、本発明の好適な一態様によれば、前
記表示手段は、前記表示手段に対する観測者頭部の相対
的な位置を検知する機構を有する立体画像表示装置であ
り、前記立体画像表示装置に対する観測者頭部の相対的
位置変化を検知し、検知した相対的位置変化に基づい
て、前記視線検知手段における視線方向を補正する。
According to a preferred aspect of the present invention, the display means is a three-dimensional image display device having a mechanism for detecting a position of an observer's head relative to the display means. A relative position change of the observer's head with respect to the display device is detected, and a line-of-sight direction in the line-of-sight detecting means is corrected based on the detected relative position change.

【0035】[0035]

【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0036】<第1の実施形態>本実施の形態における
三次元運動入力システムはステレオ画像撮影装置、頭部
装着型立体画像表示装置、視線検出装置、およびコンピ
ュータから構成される。
<First Embodiment> A three-dimensional motion input system according to the present embodiment is composed of a stereo image photographing device, a head mounted stereoscopic image display device, a visual line detection device, and a computer.

【0037】図2は本実施の形態における三次元運動入
力システムの全体構成の概念図を示している。ステレオ
画像撮影装置201および202は、運動物体を時系列
ステレオ画像として撮影する。運動物体は時刻1に20
3a、時刻2に203bにあるものとする。撮影された
時系列ステレオ画像はコンピュータ204に入力され、
頭部装着型の視線検出装置付きの立体画像表示装置20
5に表示される。この時、時刻1の運動物体203aの
画像、次いで時刻2の運動物体203bの画像という順
に表示される。運動入力の作業中、観測者200は立体
画像表示装置205に時系列順に表示される仮想物体2
06a,206bの一点を注視し続ける。この時、観測
者200の視線を視線検出装置205により検出する。
視線情報はコンピュータに入力され、コンピュータは視
線情報を時系列順に解析し、三次元運動情報207を導
出する。
FIG. 2 is a conceptual diagram of the overall configuration of the three-dimensional motion input system according to the present embodiment. The stereo image capturing devices 201 and 202 capture a moving object as a time-series stereo image. The moving object is 20 at time 1
3a, at time 2 at 203b. The photographed time-series stereo images are input to the computer 204,
Stereoscopic image display device 20 with head mounted gaze detection device
5 is displayed. At this time, the image of the moving object 203a at time 1 and then the image of the moving object 203b at time 2 are displayed in this order. During the work of the motion input, the observer 200 displays the virtual object 2 displayed on the stereoscopic image display device 205 in chronological order.
The user continues to gaze at one of the points 06a and 206b. At this time, the gaze of the observer 200 is detected by the gaze detection device 205.
The gaze information is input to a computer, and the computer analyzes the gaze information in chronological order to derive three-dimensional motion information 207.

【0038】(ステレオ撮影)図2の201、および2
02は本発明の実施の形態に使われるステレオ画像の撮
影装置(以下、それぞれ「左眼用カメラ]および「右眼
用カメラ」と呼ぶ。)である。本実施の形態では二台の
デジタルビデオカメラを使用する。左目用カメラ201
と右目用カメラ202は一定距離離し、それぞれの光軸
が平行になるように配置される。本実施例では時系列画
像を得るためにデジタルビデオカメラを使用するが、ア
ナログビデオカメラを使用してもよい。
(Stereo shooting) 201 and 2 in FIG.
Reference numeral 02 denotes a stereo image capturing device (hereinafter, referred to as a “left-eye camera” and a “right-eye camera”, respectively) used in the embodiment of the present invention. In this embodiment, two digital video cameras are used. Left eye camera 201
The right-eye camera 202 and the right-eye camera 202 are separated from each other by a predetermined distance, and are arranged so that their optical axes are parallel to each other. In this embodiment, a digital video camera is used to obtain a time-series image, but an analog video camera may be used.

【0039】(撮影時のタイムコード記録)上記左右二
台のビデオカメラ201,202によって撮影された映
像はそれぞれ別々の記録テープなどの記録媒体に記録さ
れる。記録テープの再生時、すなわちステレオ立体画像
生成時には、左右画像の時刻同期をとる必要がある。つ
まり、右眼用カメラ202で撮影された映像から、着目
時刻「時刻T」の画像を選んだならば、左眼用カメラ2
01の映像からは「時刻T」と同時刻の画像を選び、一
組のステレオ画像を作らなければならない。もちろん、
撮影開始時に記録テープを完全に巻き戻し、左右二台の
カメラの撮影を同時に開始し、記録テープの再生時にテ
ープを完全に巻き戻した状態から開始すれば、テープ走
行量から時刻同期は得られる。しかし、実際はこのよう
な方法は不便であるため、ビデオカメラは記録テープへ
のタイムコード記録機能を持つことが好ましい。タイム
コード記録機能はほとんどのビデオカメラに装備されて
いるが、仮にタイムコード記録機能が装備されていない
カメラであっても撮影対象となる現象の直前に、後に左
右画像の時刻特定が可能な現象を意図的に入れタイムコ
ードの代用にしてもよい。
(Recording of Time Code at the Time of Shooting) The images shot by the two left and right video cameras 201 and 202 are respectively recorded on separate recording media such as recording tapes. When reproducing the recording tape, that is, when generating a stereoscopic image, it is necessary to synchronize the time of the left and right images. That is, if the image at the time of interest “time T” is selected from the video captured by the right-eye camera 202, the left-eye camera 2
An image at the same time as “time T” must be selected from the image 01 and a set of stereo images must be created. of course,
If the recording tape is completely rewound at the start of shooting, the two left and right cameras start shooting simultaneously, and the tape is completely rewound during playback of the recording tape, the time synchronization can be obtained from the tape travel distance. . However, since such a method is actually inconvenient, the video camera preferably has a time code recording function on a recording tape. Although most video cameras have a time code recording function, even if the camera does not have a time code recording function, the time of the left and right images can be specified immediately before and after the phenomenon to be captured. May be intentionally inserted to substitute for the time code.

【0040】本実施の形態では二台のビデオカメラを使
用するが、二台のビデオカメラを用いなくとも1台のビ
デオカメラの光学系を工夫し、光学像検出装置、例えば
CCDの結像面上に左右二視点からの像が半分ずつ写る
ようにしてもよい。このようにすれば一台のビデオカメ
ラのみ使用する構成にすることができる。
Although two video cameras are used in the present embodiment, the optical system of one video camera is devised without using two video cameras, and an optical image detecting device, for example, an image forming surface of a CCD is used. The images from the left and right two viewpoints may be displayed on the top half each. In this way, it is possible to use only one video camera.

【0041】また、使用する撮影装置は通常の動画撮影
用に使われるアナログビデオカメラやデジタルビデオカ
メラでなくとも、時間変化する現象を十分短い時間間隔
で任意の記録媒体に撮影し記録することのできる任意の
撮影装置を本発明に適用可能であることは明らかであ
る。
Further, the photographing device used is not limited to an analog video camera or a digital video camera used for ordinary moving image photographing, and it is possible to photograph and record time-varying phenomena on an arbitrary recording medium at sufficiently short time intervals. Obviously, any possible photographing device is applicable to the present invention.

【0042】図3は本発明の実施に使われるコンピュー
タ204の構成を示したものである。コンピュータ20
4の主記憶装置3003には、視線情報から三次元運動
情報を導出するためのプログラムが格納され、このプロ
グラムはコンピュータのCPU3004によって実行さ
れる。記録媒体3011に記録されている時系列ステレ
オ画像は、記録媒体再生装置3012と映像信号入力回
路3002を介して入力され、二次記憶装置3015に
デジタル情報の時系列ステレオ画像として保持される。
三次元座標抽出の処理対象となるステレオ画像は画像メ
モリ3005に置かれ、立体画像表示装置3013に、
映像信号出力回路3006を通じて出力される。視線検
出装置3014から送出される視線データは、視線デー
タ入力回路3007により受信され、コンピュータ20
4内に取り込まれる。操作者とコンピュータの対話に
は、マウス3008、キーボード3009等の入力装置
を用いる。
FIG. 3 shows the configuration of the computer 204 used for implementing the present invention. Computer 20
The main storage device 3003 stores a program for deriving three-dimensional motion information from the line-of-sight information, and this program is executed by the CPU 3004 of the computer. The time-series stereo image recorded on the recording medium 3011 is input via the recording medium reproducing device 3012 and the video signal input circuit 3002, and is stored in the secondary storage device 3015 as a time-series stereo image of digital information.
The stereo image to be subjected to the three-dimensional coordinate extraction processing is stored in the image memory 3005, and is displayed on the three-dimensional image display device 3013.
It is output through the video signal output circuit 3006. The gaze data sent from the gaze detection device 3014 is received by the gaze data input circuit 3007,
4 is taken in. Input devices such as a mouse 3008 and a keyboard 3009 are used for the interaction between the operator and the computer.

【0043】立体画像表示装置3013と視線検出装置
3014の説明を行う前に、まず、立体視の原理と、視
線情報から、注目点の三次元座標情報、更には三次元運
動情報を導出する原理について簡単に説明する。
Before describing the three-dimensional image display device 3013 and the visual line detection device 3014, first, the principle of stereoscopic vision and the principle of deriving three-dimensional coordinate information of a point of interest and further three-dimensional motion information from visual line information. Will be described briefly.

【0044】(融像動作)一組のステレオ静止画像を利
用した立体画像表示装置によって、人間が立体感を得ら
れる原理についてはよく知られているが、ここで、この
原理について簡単に触れておく。
(Fusing operation) The principle that a human can obtain a stereoscopic effect by a stereoscopic image display device using a set of stereo still images is well known. Here, this principle will be briefly described. deep.

【0045】図4の401は物体403と、物体403
を観測する観測者の眼球の様子を上から見た図であり、
図4(b)は観測者の眼球の様子と立体画像表示装置3
013を上から見た図である。人間は三次元空間中にあ
る物体403の注目点402を注視した場合、図4
(a)に示すように、眼球の左右の光軸が注目点402
で交差するよう調節する。この動作は左右眼球の網膜上
での左右画像の位置、すなわち注目点402の位置を一
致させる事に相当し、「融像」と呼ばれている。ステレ
オ立体視を利用した立体画像表示装置は、この融像動作
を、観測者に人工的に誘起させる事によって立体感を与
えている。すなわち、図4(b)に示すように、視差の
ある左右画像405と406を、何らかの方法で、左右
の目に分離入力されるように工夫する。この時、表示装
置を注視する観測者は、視差のある注目点の左右画像を
融像すべく、眼球の光軸を図4(b)に示すように制御
する。この結果、光軸の交差する点、すなわち図4の点
407に、物体の注目点が存在するように錯覚される。
4 is an object 403 and an object 403.
It is a view of the state of the eyeball of the observer who observes from above,
FIG. 4B shows the state of the observer's eyeball and the stereoscopic image display device 3.
FIG. 13 is a view of the image No. 013 viewed from above. When the human gazes at the point of interest 402 of the object 403 in the three-dimensional space, FIG.
As shown in (a), the left and right optical axes of the eyeball are the point of interest 402.
Adjust to cross. This operation corresponds to matching the positions of the left and right images on the retina of the left and right eyeballs, that is, the positions of the points of interest 402, and is called “fusion”. A stereoscopic image display device using stereoscopic vision provides a stereoscopic effect by artificially inducing this fusion operation to an observer. That is, as shown in FIG. 4B, the left and right images 405 and 406 having a parallax are devised by some method so as to be separately input to the left and right eyes. At this time, the observer watching the display device controls the optical axis of the eyeball as shown in FIG. 4B in order to fuse the left and right images of the point of interest with parallax. As a result, it is illusioned that a point of interest of the object exists at a point where the optical axes intersect, that is, at a point 407 in FIG.

【0046】なお、図4(b)では、左右画像405と
406は、説明の都合上、前後ずらした位置に表示され
ているが、実際には同じ位置に表示される。本実施の形
態では、図5に示すように、二つのLCD501、50
2に表示された別々の左右画像を、左右異なる光学系5
03、504を通して観察する。このため、同じ表示位
置505に表示される、異なるLCD画像の虚像が、左
右眼球に分離入力されるように工夫されている。
In FIG. 4B, the left and right images 405 and 406 are displayed at positions shifted forward and backward for convenience of explanation, but are actually displayed at the same position. In the present embodiment, as shown in FIG.
The left and right images displayed on the left and right are displayed on different optical systems 5.
Observe through 03,504. For this reason, it is devised that virtual images of different LCD images displayed at the same display position 505 are separately input to the left and right eyes.

【0047】以上説明した融像動作は、人間の脳で行わ
れる左右画像の自然なパターンマッチングにより、全く
無意識に行われると考えられる。本発明では、人間が持
つ、この自然な融像動作を利用して、左右画像の対応点
を導き出す。すなわち、注目点を融像している観測者の
視線は、左右画像上での注目点の対応点をそれぞれ指し
ている。よって、観測者の視線を検出することにより、
左右画像上での注目点の対応点座標を知ることができ
る。左右画像上での注目点の座標が求まれば、あとは三
角測量の原理によって、注目点の三次元座標が導き出さ
れる。以上が、視線情報から、注目点の三次元座標情報
を導出する原理である。
The fusion operation described above is considered to be performed completely unconsciously by natural pattern matching of the left and right images performed by the human brain. In the present invention, the corresponding points of the left and right images are derived using the natural fusion operation of a human. That is, the line of sight of the observer who has fused the point of interest points to the corresponding point of the point of interest on the left and right images. Therefore, by detecting the line of sight of the observer,
It is possible to know the corresponding point coordinates of the point of interest on the left and right images. Once the coordinates of the point of interest on the left and right images are obtained, the three-dimensional coordinates of the point of interest are derived by the principle of triangulation. The above is the principle of deriving the three-dimensional coordinate information of the point of interest from the line-of-sight information.

【0048】(着目点時間追尾動作)上記の三次元座標
導出方法において、ステレオ画像の表示方法として、時
系列ステレオ画像を時系列順に表示し、ステレオ画像を
動画として表示する。この時、ステレオ画像を観測する
観測者は運動物体の抽出点を意識的に追尾することが可
能である。以上に説明したように、ステレオ撮影された
動画を立体画像表示装置に表示し、物体を立体視させな
がら注目点を追尾させ、この時の観測者の視線を時間経
過とともに検出すれば、注目点の三次元運動情報が得ら
れる。
(Point-of-interest time tracking operation) In the above three-dimensional coordinate derivation method, as a stereo image display method, a time-series stereo image is displayed in a time-series order, and the stereo image is displayed as a moving image. At this time, the observer who observes the stereo image can consciously track the extraction point of the moving object. As described above, a moving image captured in stereo is displayed on a stereoscopic image display device, and a point of interest is tracked while the object is viewed stereoscopically. Is obtained.

【0049】(立体画像表示装置と視線検出装置の詳
細)次に立体画像表示装置3013と視線検出装置30
14の詳細を説明する。
(Details of the stereoscopic image display device and the visual line detection device) Next, the stereoscopic image display device 3013 and the visual line detection device 30
14 will be described in detail.

【0050】図6は本発明の実施に使われる立体画像表
示装置3013と視線検出装置3014の構成を示した
ものである。
FIG. 6 shows a configuration of a stereoscopic image display device 3013 and a visual line detection device 3014 used in the embodiment of the present invention.

【0051】205は、立体画像表示装置3013と視
線検出装置3014を内包する視線検出装置付き立体画
像表示装置であり、頭部に装着される筐体に、表示装置
を組み込んだものである。通常、Head Mount
ed Display(HMD)と呼ばれている。
Reference numeral 205 denotes a stereoscopic image display device with a visual axis detection device including the stereoscopic image display device 3013 and the visual axis detection device 3014. The display device is incorporated in a housing mounted on the head. Normally, Head Mount
It is called ed Display (HMD).

【0052】まず、表示系について説明する。First, the display system will be described.

【0053】映像入力回路6003は、コンピュータ2
04からの映像信号を入力する。LCD表示回路600
2は、ステレオ画像を左右二つのLCD(液晶表示素
子)501,502にそれぞれ表示する。先に図5を参
照して説明したように、LCD501,502の画像は
プリズム型接眼レンズ503,504により、観測者全
面の適度な位置と虚像として導かれる。
The video input circuit 6003 is connected to the computer 2
The video signal from the terminal 04 is input. LCD display circuit 600
2 displays a stereo image on two left and right LCDs (liquid crystal display elements) 501 and 502, respectively. As described above with reference to FIG. 5, the images on the LCDs 501 and 502 are guided by the prism type eyepieces 503 and 504 as appropriate positions and virtual images on the entire observer.

【0054】次に視線検出系について説明する。Next, the gaze detection system will be described.

【0055】6010は眼球照明用赤外線発光ダイオー
ド(IRED),6007,6008は眼球撮像用光学
系、6006は眼球撮像素子、6005は視線検出回路
である。
Reference numeral 6010 denotes an infrared light emitting diode (IRED) for illuminating an eyeball; 6007 and 6008, an optical system for imaging an eyeball;

【0056】本実施例が採用する視線検出装置3014
は既に実施されており、原理はよく知られているため、
ここでは図6と図7を参照して視線検出の原理について
簡単に説明する。観測者の眼球は、それぞれの眼球に対
し左右対称に配置された二つの赤外線発光ダイオード
(図6のIRED6010)によって照明され、光学系
6007,6008を介して撮像素子6006によって
撮影される。図7(b)と(d)は観測者が正面を注視
している状態と、左方を注視している状態の眼球撮影画
像の模式図である。図7(b),(d)中、黒い領域は
瞳孔像であり、瞳孔内の明るい二点は、角膜によって反
射された、二つのIREDの虚像である。
A line-of-sight detection device 3014 employed in this embodiment.
Has already been implemented and the principles are well known,
Here, the principle of gaze detection will be briefly described with reference to FIGS. The observer's eyeball is illuminated by two infrared light emitting diodes (IRED6010 in FIG. 6) arranged symmetrically with respect to each eyeball, and photographed by the image sensor 6006 via the optical systems 6007 and 6008. FIGS. 7B and 7D are schematic diagrams of an eyeball photographed image when the observer is gazing at the front and gazing at the left. In FIGS. 7B and 7D, black areas are pupil images, and two bright points in the pupil are virtual images of two IREDs reflected by the cornea.

【0057】図7(a),(c)に示すように、眼球光
軸の水平方向に対する傾き角aは、瞳孔中心位置Cと角
膜曲率中心位置Oの垂直方向の差D、及び瞳孔中心と角
膜曲率中心間の距離COによって決定できる。
As shown in FIGS. 7A and 7C, the inclination angle a of the optical axis of the eyeball with respect to the horizontal direction is the difference D between the pupil center position C and the corneal curvature center position O in the vertical direction, and the pupil center. It can be determined by the distance CO between the corneal curvature centers.

【0058】瞳孔中心の位置Cは、眼球撮影の画像解析
により、瞳孔の画像領域の中心点を求めることによって
決定できる。また、角膜の曲率中心の位置Oは、IRE
Dの角膜反射による虚像の位置から決定できる。よっ
て、眼球撮影画像の解析から瞳孔中心位置と角膜曲率中
心位置の差Dが求められる。
The position C of the pupil center can be determined by obtaining the center point of the pupil image area by analyzing the image of the eyeball. Further, the position O of the center of curvature of the cornea is represented by IRE
D can be determined from the position of the virtual image due to the corneal reflection. Therefore, the difference D between the center position of the pupil and the center position of the corneal curvature is obtained from the analysis of the captured eyeball image.

【0059】一方、瞳孔中心と角膜曲率中心間の距離C
Oは、個人に依存する因子である。また、中央注視時の
眼球の光軸は、通常、眼球中心と前方正面中央点を結ぶ
軸(直視軸)とは一致せず、直視軸に対しある程度の角
度を持っている。この角度も、個人に依存する因子であ
る。これら個人依存の因子は、眼球撮影像から視線角度
を算出する上での二つ補正因子として扱われる。結局、
片眼の水平方向の視線角度aは瞳孔中心と角膜曲率中心
間の水平方向距離dx、および補正項C1,C2の関数
として式(1)のように表せる。
On the other hand, the distance C between the pupil center and the corneal curvature center
O is an individual dependent factor. In addition, the optical axis of the eyeball at the time of center gaze usually does not coincide with the axis connecting the center of the eyeball and the front center point in front (direct viewing axis), and has a certain angle with respect to the direct viewing axis. This angle is also a factor that depends on the individual. These individual factors are treated as two correction factors in calculating the line-of-sight angle from the eyeball photographed image. After all,
The horizontal line-of-sight angle a of one eye can be expressed as a function of the horizontal distance dx between the center of the pupil and the center of the corneal curvature, and the correction terms C1 and C2 as shown in Expression (1).

【0060】 a=arcsin(dx×C1)−C2 (1) 同様に、片眼の垂直方向の視線角度bは瞳孔中心と角膜
曲率中心間の垂直方向距離dy、および補正項C3,C
4の関数として式(2)のように表せる。
A = arcsin (dx × C1) −C2 (1) Similarly, the vertical line-of-sight angle b of one eye is the vertical distance dy between the pupil center and the corneal curvature center, and the correction terms C3 and C
Equation (2) can be expressed as a function of Eq.

【0061】 b=arcsin(dy×C3)−C4 (2) C1,C2,C3,C4の補正項は、各個人の視線検出
行為に一度行われる補正処理によって決定される。補正
処理は、特定の補正点を画面に表示し、その点を観測者
に注視させ、その時の眼球撮影像を分析することによっ
て行われる。一度、補正項が決定されれば眼球撮影像の
情報から視線角度が随時算出できる。以上の処理を左右
の眼球について行うことにより、左右眼球の視線方向を
求めることができる。
B = arcsin (dy × C3) −C4 (2) The correction terms of C1, C2, C3, and C4 are determined by a correction process performed once for each individual gaze detection action. The correction process is performed by displaying a specific correction point on a screen, causing the observer to gaze at the point, and analyzing the captured eyeball image at that time. Once the correction term is determined, the line-of-sight angle can be calculated at any time from the information of the eyeball photographed image. By performing the above processing on the left and right eyeballs, the line of sight of the left and right eyeballs can be obtained.

【0062】本実施例では、視線検出回路6005でd
x,dyの算出のみを行う。dx,dyは視線データ送
信回路6004により、コンピュータ204に送られ、
コンピュータ側のプログラムで式(1)、式(2)の計
算が行われる。しかし、コンピュータ側で式(1)、式
(2)の計算を行わずに、視線検出回路側で式(1)、
式(2)の計算まで行ってもよいことは言うまでもな
い。
In this embodiment, the line-of-sight detection circuit 6005
Only x and dy are calculated. dx and dy are sent to the computer 204 by the line-of-sight data transmission circuit 6004,
Equations (1) and (2) are calculated by a computer program. However, without calculating the formulas (1) and (2) on the computer side, the formula (1),
It goes without saying that the calculation up to the expression (2) may be performed.

【0063】なお、本実施の形態では以降、視線検出装
置3014から出力されるデータを視線データと呼ぶ。
すなわち、左眼球についての瞳孔中心と角膜曲率中心間
の水平方向距離、及び垂直方向距離(dx_l,dy_
l)、そして右眼球についての瞳孔中心と角膜曲率中心
間の水平方向距離、及び垂直方向距離(dx_r、dy
_r)を視線データと呼ぶことにする。
In the present embodiment, the data output from the visual line detection device 3014 is hereinafter referred to as visual line data.
That is, for the left eyeball, the horizontal distance between the pupil center and the corneal curvature center and the vertical distance (dx_l, dy_
l), and the horizontal distance and the vertical distance (dx_r, dy) between the pupil center and the corneal curvature center for the right eyeball.
_R) will be referred to as line-of-sight data.

【0064】本実施の形態では、立体画像表示装置30
13と視線検出装置3014が一体化された頭部装着型
の立体画像表示装置(HMD)205を用いるが、これ
は立体画像表示装置と観測者頭部位置の相対位置が固定
され、精度よく着目点座標の検出が行えるからである。
しかし、本発明はこれに限るものではなく、観測者頭部
位置が立体画像表示装置に対し変動しない場合や、たと
え変動したとしても、この変化量を検出する機構と、変
化量に基づく着目点座標の補正手段を装備すれば、立体
画像表示装置と視線検出装置を分離してもよい。例え
ば、立体画像表示装置として通常よく利用される卓上型
のインターレース表示ディスプレイと液晶シャッター眼
鏡、あるいは眼鏡なしレンチキュラ型立体ディスプレイ
などを使用してもよく、視線検出装置は単に眼鏡に装着
するという構成によっても本発明は容易に実現できる。
In the present embodiment, the three-dimensional image display device 30
A head-mounted stereoscopic image display (HMD) 205 in which the camera 13 and the eye-gaze detecting device 3014 are integrated is used. In this case, the relative position between the stereoscopic image display and the observer's head position is fixed, and attention is paid with high accuracy. This is because point coordinates can be detected.
However, the present invention is not limited to this. When the observer's head position does not fluctuate with respect to the stereoscopic image display device, or even if it fluctuates, a mechanism for detecting this change amount and a point of interest based on the change amount If a coordinate correcting means is provided, the stereoscopic image display device and the visual line detection device may be separated. For example, a desktop interlaced display and a liquid crystal shutter glasses commonly used as a stereoscopic image display device may be used, or a lenticular type stereoscopic display without glasses may be used, and the gaze detection device is simply attached to the glasses. However, the present invention can be easily realized.

【0065】次に、上記構成を有する装置により、三次
元運動入力を行う手順を図8をフローチャートを用いて
説明する。
Next, a procedure for performing a three-dimensional motion input by the apparatus having the above configuration will be described with reference to a flowchart of FIG.

【0066】前記視線検出の原理で説明したように、視
線検出には個人依存の補正項を決定する必要がある。よ
って、三次元運動入力作業に先だち、まず、視線検出に
関わる補正処理をステップS8002で行う。
As described in the principle of the line of sight detection, it is necessary to determine an individual dependent correction term for the line of sight detection. Therefore, prior to the three-dimensional motion input operation, first, correction processing relating to gaze detection is performed in step S8002.

【0067】コンピュータは補正用の標識を立体画像表
示装置3013に表示し、観測者にその標識を注視させ
る。この時、視線検出装置3014から送出された視線
データdx,dyを取得する。
The computer displays the marker for correction on the three-dimensional image display device 3013, and makes the observer gaze at the marker. At this time, the line-of-sight data dx and dy transmitted from the line-of-sight detection device 3014 are acquired.

【0068】標識の表示位置、すなわち、観測者がそれ
を注視した場合の視線角度a,bは正確に知られてお
り、この視線角度a,bと対応する視線データdx,d
yを式(1)、式(2)に代入することによって補正項
が決まる。補正項は片眼に付き2点の測定で決定できる
が、二点以上の測定を行い、最小二乗法で決めてもよ
い。
The display position of the sign, that is, the line-of-sight angles a and b when the observer gazes at the sign is accurately known, and the line-of-sight data dx and d corresponding to the line-of-sight angles a and b.
The correction term is determined by substituting y into equations (1) and (2). The correction term can be determined by measuring two points per eye, but it is also possible to determine two or more points and determine by the least square method.

【0069】次にステップS8003では、撮影された
時系列ステレオ画像を、コンピュータ204で処理でき
るようにコンピュータ204の二次記憶装置3015に
デジタル画像データとして蓄積する。以下、この工程を
説明する。
Next, in step S8003, the photographed time-series stereo images are stored as digital image data in the secondary storage device 3015 of the computer 204 so that the computer 204 can process them. Hereinafter, this step will be described.

【0070】ステレオ画像撮影装置3010によって撮
影された時系列ステレオ画像は、ビデオテープ等の記録
媒体3011に記録されている。
A time-series stereo image photographed by the stereo image photographing device 3010 is recorded on a recording medium 3011 such as a video tape.

【0071】まず、左眼用または右眼用カメラ101、
102(ステレオ画像撮影装置3010)のどちらか一
方で撮影された記録媒体から時系列画像を取り込む方法
を説明する。記録媒体3011は記録媒体再生装置30
12によって再生され映像信号が出力される。使用する
ステレオ画像撮影装置3010がアナログビデオカメラ
である場合は、再生される映像信号はアナログ信号であ
り、記録映像は映像信号入力装置3012のアナログ/
デジタル変換機構により時系列順にデジタル画像データ
に変換される。このような映像信号入力装置は現在普通
に入手できる。使用するステレオ画像撮影装置3010
がデジタルビデオカメラである場合は、記録媒体再生装
置3012として専用のデジタル信号を出力するものが
提供される場合が多く、この時は映像信号入力装置とし
て専用のデジタル信号を時系列順にデジタル画像データ
に変換する機構があればよい。このような記録媒体再生
装置は通常デジタルビデオカメラ本体に組み込まれてい
る。またデジタル信号用の映像信号入力装置はコンピュ
ータの周辺機器として容易に入手可能である。
First, a left or right eye camera 101,
A method of capturing a time-series image from a recording medium captured by one of the image capturing apparatuses 102 (stereo image capturing apparatus 3010) will be described. The recording medium 3011 is a recording medium reproducing device 30.
12 reproduces a video signal. When the stereo image capturing device 3010 to be used is an analog video camera, the reproduced video signal is an analog signal, and the recorded video is an analog / video signal of the video signal input device 3012.
The data is converted into digital image data in chronological order by a digital conversion mechanism. Such video signal input devices are now commonly available. Stereo image capturing device 3010 to be used
Is a digital video camera, a device that outputs a dedicated digital signal is often provided as the recording medium reproducing device 3012. In this case, the dedicated digital signal is converted into a digital image data as a video signal input device in chronological order. It is sufficient if there is a mechanism for converting to. Such a recording medium reproducing apparatus is usually incorporated in a digital video camera body. A video signal input device for digital signals can be easily obtained as a peripheral device of a computer.

【0072】次に時系列ステレオ画像を構成する方法を
説明する。ここで、記録媒体3011の内、右眼用カメ
ラ202の記録媒体を記録媒体1、左眼用カメラ201
の記録媒体を記録媒体2とする。記録媒体1からある時
刻の画像をデジタル画像データとしてコンピュータ20
4に取り込む。前述したように記録媒体にはタイムコー
ドが記録されているので、記録媒体1からタイムコード
を読み出し、このタイムコードに一致するタイムコード
を持つ画像を記録媒体2から読み出し、デジタル画像デ
ータとしてコンピュータ204の二次記憶装置3015
に取り込む。特定のタイムコードを持つ画像を取り込む
には記録媒体再生装置3012を制御する必要がある
が、これは再生制御回路3016によって行われる。
Next, a method of forming a time-series stereo image will be described. Here, of the recording media 3011, the recording medium of the right-eye camera 202 is the recording medium 1, and the left-eye camera 201 is
Is a recording medium 2. A computer 20 converts an image at a certain time from the recording medium 1 into digital image data.
Take in 4. As described above, since the time code is recorded on the recording medium, the time code is read from the recording medium 1, the image having the time code corresponding to this time code is read from the recording medium 2, and the computer 204 is read as digital image data. Secondary storage device 3015
Take in. To capture an image having a specific time code, it is necessary to control the recording medium reproducing device 3012, which is performed by a reproduction control circuit 3016.

【0073】通常、放送業務用のビデオテープの再生装
置はシリアルデータによる外部からの命令を受け付け、
特定のタイムコードの画像再生等の制御が可能である。
この場合、再生制御回路3016とはコンピュータのシ
リアル通信制御回路に相当する。記録媒体再生装置30
12に外部制御機能がない場合は操作者が手動で行えば
よい。記録媒体1の再生装置と記録媒体2の再生装置が
同じタイムコード画像を再生するよう制御されれば、以
降は単純なコマ送り再生により、ステレオ画像の取り込
みができる。
Normally, a video tape reproducing apparatus for a broadcast business accepts an external command by serial data,
It is possible to control image reproduction of a specific time code and the like.
In this case, the reproduction control circuit 3016 corresponds to a serial communication control circuit of a computer. Recording medium reproducing device 30
In the case where there is no external control function in 12, the operator may perform the operation manually. If the reproducing device of the recording medium 1 and the reproducing device of the recording medium 2 are controlled to reproduce the same time code image, then a stereo image can be captured by simple frame-by-frame reproduction.

【0074】このようにして取り込まれた同一タイムコ
ードを持つ二つのデジタル画像データは以後、同一時刻
のステレオ画像の一組として認識、管理される。この管
理は、コンピュータの基本ソフトでオペレーティングシ
ステムとよばれるものが通常備える二次記憶装置上のデ
ータ管理機能を利用する。すなわち、時系列データ群を
区別する文字、時刻に対応した整数番号、及び右眼用画
像か左眼用画像かを区別する文字を組み合わせ名前を生
成し、この名前をファイル名としてファイルに画像デー
タを保存する。例えば、「test」と名付けられた映
像から採集された時刻1の右眼用画像、時刻1の左眼用
画像、時刻2の右眼用画像、時刻2の左眼用画像はそれ
ぞれ「test−0001−r」,「test−000
1−1」,「test−0002−r」,「test−
0002−1」といった名前でファイルに保存される。
保存ファイルはJPEG等の画像データ圧縮を行っても
よい。
The two digital image data having the same time code captured in this way are thereafter recognized and managed as a set of stereo images at the same time. This management uses a data management function on a secondary storage device that is generally provided in a basic software of a computer called an operating system. That is, a name is generated by combining a character for distinguishing the time-series data group, an integer number corresponding to the time, and a character for distinguishing between an image for the right eye and an image for the left eye. Save. For example, the image for the right eye at time 1, the image for the left eye at time 1, the image for the right eye at time 2, and the image for the left eye at time 2 collected from the video named “test” are “test- 0001-r "," test-000
1-1 ”,“ test-0002-r ”,“ test-
0002-1 "in a file.
The storage file may be subjected to image data compression such as JPEG.

【0075】なお、上記説明では、右眼用カメラ202
の記録媒体を記録媒体1としているが、当然、左眼用カ
メラ201の記録媒体を記録媒体1としてもよく、記録
媒体2についても同様である。
In the above description, the camera 202 for the right eye
Is the recording medium 1, but the recording medium of the left-eye camera 201 may be the recording medium 1, and the same applies to the recording medium 2.

【0076】また、上記説明はコンピュータの二次記憶
装置3015に十分な容量があり、必要な時系列ステレ
オ画像を全て蓄積できることを仮定している。しかし、
二次記憶装置に十分な容量がない場合であっても記録媒
体から特定時刻のステレオ画像を十分な速度で画像メモ
リ上に読み込むことが可能であれば二次記憶装置301
5への時系列ステレオ画像の蓄積は不要である。この場
合、処理対象のステレオ画像が必要になった時に初め
て、記録媒体からのステレオ画像データの読み込みを行
えばよい。
The above description assumes that the secondary storage device 3015 of the computer has a sufficient capacity and can store all necessary time-series stereo images. But,
Even if the secondary storage device does not have a sufficient capacity, the secondary storage device 301 can read a stereo image at a specific time from the recording medium onto the image memory at a sufficient speed.
It is not necessary to accumulate the time-series stereo images in 5. In this case, the stereo image data may be read from the recording medium only when the stereo image to be processed is needed.

【0077】ステップS8003における時系列ステレ
オ画像の読み込みと蓄積が終わると、次に、撮影された
映像のうち、どの部分から運動入力を行うかを決めるサ
ブルーチンに入る。以下、図9を用いこのサブルーチン
の説明を行う。
After the reading and accumulation of the time-series stereo image in step S8003, a subroutine for deciding from which portion of the captured video a motion input is to be performed is entered. Hereinafter, this subroutine will be described with reference to FIG.

【0078】まず、時刻を管理する時刻番号Nを値
「1」に初期化する(S9002)。この初期値は読み
込まれた時系列ステレオ画像の時刻範囲内であれば任意
の値でよい。
First, a time number N for managing time is initialized to a value “1” (S9002). This initial value may be any value as long as it is within the time range of the read time-series stereo image.

【0079】次に、時刻番号Nに対応するステレオ画像
が読み出され、立体画像表示装置に表示される(S90
03)。以下、この動作を説明する。
Next, the stereo image corresponding to the time number N is read out and displayed on the stereoscopic image display device (S90).
03). Hereinafter, this operation will be described.

【0080】時刻番号Nの右眼用画像と左眼用画像のフ
ァイルをコンピュータ204の二次記憶装置3015か
ら読み出す。前記ステップS8003の「時系列ステレ
オ画像の読み込み」で説明したように、保存ファイル名
から時刻番号Nの右眼用画像と左眼用画像に対応するフ
ァイルを特定できる。特定されたファイルのデータをコ
ンピュータ204の二次記憶装置3015から読み出
す。読み出された二画像は画像メモリ3005に置かれ
る。画像メモリ3005上に置かれた左右二枚の画像デ
ータは、映像信号出力回路3006により、映像信号に
変換され、立体画像表示装置3013に出力される。こ
の映像信号は左右画像をインターレース合成し、NTS
Cインターレース信号としてHMD205に出力する。
HMD205では,このインターレース映像信号を受信
し、左右画像を分離し、左目用LCD501、右目用L
CD502にそれぞれ右目用画像、左目用画像を表示す
る。NTSCインターレース信号を使わなくとも、本装
置専用の映像信号を用い、左右画像用にそれぞれ独立し
た信号線を使用してそれぞれの画像を表示するようにし
てもよい。
The file of the right-eye image and the left-eye image of the time number N is read from the secondary storage device 3015 of the computer 204. As described in “Reading a time-series stereo image” in step S8003, a file corresponding to the right-eye image and the left-eye image of the time number N can be specified from the saved file name. The data of the specified file is read from the secondary storage device 3015 of the computer 204. The read two images are stored in the image memory 3005. The left and right image data placed on the image memory 3005 are converted into video signals by the video signal output circuit 3006 and output to the stereoscopic image display device 3013. This video signal is obtained by interlacing the left and right images, NTS
The signal is output to the HMD 205 as a C interlace signal.
The HMD 205 receives this interlaced video signal, separates the left and right images, and outputs a left-eye LCD 501 and a right-eye L
A right-eye image and a left-eye image are displayed on the CD 502, respectively. Instead of using the NTSC interlace signal, a video signal dedicated to the present apparatus may be used, and each image may be displayed using independent signal lines for the left and right images.

【0081】以上により、立体画像表示装置3013に
立体画像が表示され、表示装置を注視する観測者は、前
述の融像動作が可能な状態、すなわち立体可視可能な状
態となる。
As described above, the stereoscopic image is displayed on the stereoscopic image display device 3013, and the observer watching the display device is in a state where the above-described fusion operation is possible, that is, a state where the stereoscopic view is possible.

【0082】次にステップS9004に進み、操作者か
らの入力を調べる。ステップS9005において、入力
が「三次元運動入力の開始要求」であると判断した場合
は、開始点決定サブルーチンを終了し、図8のメインフ
ローのステップS8005に復帰し、そうでなければス
テップS9007に進む。
Next, the flow advances to step S9004 to check an input from the operator. If it is determined in step S9005 that the input is a "start request for three-dimensional motion input", the start point determination subroutine is terminated, and the process returns to step S8005 of the main flow in FIG. move on.

【0083】ステップS9007では更に操作者からの
入力を調べ、入力が「時刻番号を1増加させる要求」で
あった場合は、ステップS9008で時刻番号Nを
「1」増加させ、次時刻のステレオ画像を表示すべくス
テップS9003に戻る。入力が「時刻1をステップ増
加させる要求」でなければ(ステップS9007でN
o)、ステップS9009で更に入力を調べ、入力が
「時刻番号を第Mへ遷移させる要求」であった場合はス
テップS9010で時刻番号NにMを代入し、時刻番号
Mのステレオ画像を表示すべくステップS9003に戻
る。ここでMとは操作者が入力する数値である。入力が
「時刻番号を第Mへ遷移させる要求」でなかった場合に
は(ステップS9009でNo)、操作者の入力を待つ
べくステップS9004に戻る。
In step S9007, the input from the operator is further examined. If the input is "a request to increase the time number by 1", the time number N is increased by "1" in step S9008, and the stereo image of the next time is increased. To return to step S9003. If the input is not “a request to increase the time 1 by a step” (N in step S9007)
o) In step S9009, the input is further examined. If the input is "a request to change the time number to the Mth", M is substituted for the time number N in step S9010, and a stereo image of the time number M is displayed. The process returns to step S9003. Here, M is a numerical value input by the operator. If the input is not the “request to change the time number to the M-th” (No in step S9009), the process returns to step S9004 to wait for an input by the operator.

【0084】以上の繰り返し処理により、操作者は希望
する運動入力開始点を選択することができる。また、運
動抽出点を選ぶ機会もここで与えられる。すなわち、操
作者は「三次元運動入力の開始要求」をコンピュータに
与えるまでは表示物体を観察することができる。よって
この間、物体の外観を観察し、運動抽出に適した場所を
探すことができる。運動抽出点が決まったら、操作者は
運動抽出点を注視した状態で「三次元運動入力の開始要
求」の入力をコンピュータ204に与え、三次元運動入
力処理に入る。
By the above-described repetitive processing, the operator can select a desired exercise input start point. You will also be given the opportunity to choose a motion extraction point here. That is, the operator can observe the display object until the “request for starting three-dimensional motion input” is given to the computer. Therefore, during this time, the appearance of the object can be observed and a place suitable for motion extraction can be searched. When the motion extraction point is determined, the operator gives an input of “request for starting three-dimensional motion input” to the computer 204 while gazing at the motion extraction point, and enters a three-dimensional motion input process.

【0085】ステップS8004で開始点が決定する
と、ステップS8005に進む。ステップS8005で
はステレオ画像を更新した時刻を記憶するための変数T
_lastに、現在時刻の値を代入する。以降、コンピ
ュータの制御プログラムは以下の処理ルーチンを終了条
件を満たすまで繰り返す。
When the start point is determined in step S8004, the flow advances to step S8005. In step S8005, a variable T for storing the time at which the stereo image was updated is stored.
The value of the current time is substituted for _last. Thereafter, the control program of the computer repeats the following processing routine until the termination condition is satisfied.

【0086】まず、コンピュータ204の入力装置によ
る操作者からの指示を調べる。入力装置からの入力を調
べ(S8006)、入力があれば、入力データを取り出
し(S8007)、ステップS8008に進む。
First, an instruction from the operator through the input device of the computer 204 is checked. The input from the input device is checked (S8006). If there is an input, the input data is extracted (S8007), and the process proceeds to step S8008.

【0087】ステップS8008において、もし、入力
が「運動入力の終了要求」の場合、プログラムを終了す
る。この時、後述の三次元運動データをコンピュータ2
04の二次記憶装置3015に保存して終了する。も
し、入力が「運動入力の終了要求」でない場合は、ステ
ップS8009に進む。
In step S8008, if the input is "exercise input termination request", the program is terminated. At this time, three-dimensional motion data described below is
04 in the secondary storage device 3015, and the processing ends. If the input is not “exercise input termination request”, the process proceeds to step S8009.

【0088】ステップS8009では、現在時刻と「T
_last+dT」の値を比較する。ここでdTは時系
列ステレオ画像を動画として再生する場合の再生速度調
整パラメータである。dTは希望する再生速度、すなわ
ちフレームレートをNフレーム/秒とするとdT=1/
Nとして決まる。ステップS8009の比較で現在時刻
が「T_last+dT」より大きくなっていた場合、
座標抽出とステレオ画像の更新を行う時刻が到来したと
判断し、ステップS8010に進む。ステップS800
9の比較で現在時刻が「T_last+dT」より小さ
い場合は再生速度調整用の待機期間であると判断し、操
作者からの入力を検査すべく再びステップS8006に
戻る。ここで、再生速度調整用の待機期間中に必要であ
れば何か別の処理を行ってもよい。
In step S8009, the current time and "T
_Last + dT ”. Here, dT is a reproduction speed adjustment parameter for reproducing a time-series stereo image as a moving image. Assuming that the desired reproduction speed, that is, the frame rate is N frames / second, dT = 1/1 /
Determined as N. If the current time is greater than “T_last + dT” in the comparison in step S8009,
It is determined that the time to perform the coordinate extraction and the update of the stereo image has arrived, and the process advances to step S8010. Step S800
If the current time is smaller than "T_last + dT" in the comparison of No. 9, it is determined that the standby period is for the reproduction speed adjustment, and the process returns to step S8006 again to check the input from the operator. Here, any other processing may be performed if necessary during the standby period for adjusting the reproduction speed.

【0089】ステップS8010では、視線データの取
得を行う。視線検出装置3014からは視線データが定
期的に送信され、コンピュータ204の視線データ入力
回路3007によって受信されている。よって、視線デ
ータを取得するには、視線データ入力回路3007に受
信された最新の視線データを読み出せばよい。視線デー
タが準備されると左右それぞれにつき、式(1)、式
(2)に従い視線角度が算出される。ここで、式
(1)、式(2)の補正項はステップS8002におい
て決定されている。座標抽出点に対応する左右視線角度
が用意されると、次のステップS8011に進む。
In step S8010, line-of-sight data is obtained. The line-of-sight data is periodically transmitted from the line-of-sight detection device 3014 and received by the line-of-sight data input circuit 3007 of the computer 204. Therefore, in order to acquire the line-of-sight data, the latest line-of-sight data received by the line-of-sight data input circuit 3007 may be read. When the line-of-sight data is prepared, the line-of-sight angle is calculated for each of the left and right sides according to Equations (1) and (2). Here, the correction terms of Expressions (1) and (2) have been determined in Step S8002. When the left and right viewing line angles corresponding to the coordinate extraction points are prepared, the flow advances to the next step S8011.

【0090】ステップS8011では三次元座標の算出
処理が行われる。ステップS8010において得られた
左右の視線角度は、次式(3)により、抽出点の左右画
像上での二次元座標にそれぞれ変換される。
In step S8011, a process of calculating three-dimensional coordinates is performed. The left and right gaze angles obtained in step S8010 are respectively converted into two-dimensional coordinates of the extraction point on the left and right images by the following equation (3).

【0091】 Xl=L×tan(al) Yl=L×tan(bl) Xr=L×tan(ar) Xr=L×tan(br) (3) ここで、al,bl,ar,br,Xl,Yl,Xr,
Yr,Lの意味は以下の通りである。
Xl = L × tan (al) Yl = L × tan (bl) Xr = L × tan (ar) Xr = L × tan (br) (3) where, al, bl, ar, br, Xl , Yl, Xr,
The meanings of Yr and L are as follows.

【0092】al:左眼球光軸のY軸を回転軸とした場
合の回転角度 bl:左眼球光軸のX軸を回転軸とした場合の回転角度 ar:右眼球光軸のY軸を回転軸とした場合の回転角度 br:右眼球光軸のX軸を回転軸とした場合の回転角度 Xl:左目用画像上での抽出点のX座標 Yl:左目用画像上での抽出点のY座標 Xr:右目用画像上での抽出点のX座標 Yr:右目用画像上での抽出点のY座標 L:眼球から表示面までの距離 なお、X軸は、図7(a)に示すように中央を見ている
場合において、紙面に平行で、かつ光軸Fに対して垂直
な方向(紙上では上下方向)を示し、Y軸は、X軸およ
び光軸Fに対して直交する方向(紙面に垂直な方向)を
示すものである。
Al: The rotation angle when the Y-axis of the left eyeball optical axis is used as the rotation axis bl: The rotation angle when the X-axis of the left eyeball optical axis is used as the rotation axis ar: The Y-axis of the right eyeball optical axis is rotated Rotation angle when the axis is the axis br: Rotation angle when the X axis of the right eyeball optical axis is the axis of rotation Xl: X coordinate of the extraction point on the image for the left eye Yl: Y of the extraction point on the image for the left eye Coordinates Xr: X coordinate of extraction point on right-eye image Yr: Y coordinate of extraction point on right-eye image L: distance from eyeball to display surface X-axis is as shown in FIG. , The direction parallel to the plane of the paper and perpendicular to the optical axis F (vertical direction on the paper), and the Y axis is a direction orthogonal to the X axis and the optical axis F ( (A direction perpendicular to the paper surface).

【0093】上記式(3)に基づいて得られた左右画像
上の二次元座標の組(Xl,Yl)、(Xr、Yr)か
ら、三次元空間中での抽出点の三次元座標(Xc,Y
c,Zc)を、次式(4)に基づいて計算する。
From the set of two-dimensional coordinates (Xl, Yl) and (Xr, Yr) on the left and right images obtained based on the above equation (3), the three-dimensional coordinates (Xc , Y
c, Zc) is calculated based on the following equation (4).

【0094】 Xc=Xl×t Yc=Yl×t Zc=L×t (4) ここで、tはt=D/(Xl−Xr)と定義され、Dは
左右眼間距離を表す。
Xc = X1 × t Yc = Y1 × t Zc = L × t (4) Here, t is defined as t = D / (X1−Xr), and D represents the distance between the left and right eyes.

【0095】ステップS8011で式(4)により抽出
点の三次元座標が得られると、ステップS8012に進
む。
When the three-dimensional coordinates of the extraction point are obtained by the equation (4) in step S8011, the flow advances to step S8012.

【0096】ステップS8012ではステップS801
1で得られた抽出点の三次元座標(Xc,Yc,Zc)
を、運動抽出点の特定時刻における三次元座標として三
次元運動データへ追加する。
In step S8012, step S801 is executed.
Three-dimensional coordinates (Xc, Yc, Zc) of the extraction point obtained in 1
Is added to the three-dimensional motion data as three-dimensional coordinates at a specific time of the motion extraction point.

【0097】三次元運動データは、図11の(a)に示
すように、ある時刻の三次元座標を格納する構造を要素
とし、この要素を時刻の総番号数分用意した配列構造と
なっている。この配列構造はコンピュータ24のメモリ
3020上に構成される。以降、この配列構造を運動配
列データとよぶことにする。
As shown in FIG. 11A, the three-dimensional motion data has an array structure in which three-dimensional coordinates at a certain time are stored as elements, and the elements are prepared for the total number of times. I have. This array structure is configured on the memory 3020 of the computer 24. Hereinafter, this array structure is referred to as motion array data.

【0098】第N時刻の三次元座標が導出されると、運
動配列データの第N番目の要素が満たされ、保持され
る。複数の運動抽出点の運動を抽出する場合は、一運動
抽出点あたり一つの運動配列データを用意し、複数の運
動配列データを持てはよい。均等な時間間隔で運動抽出
を行う場合は運動配列中の要素の位置から時刻番号が一
意に決まるため、一要素あたりの時刻情報は不要であ
る。しかし、不均等な時間間隔での運動抽出も想定し、
一要素中に時刻番号の情報を付加してもよい(図11の
(b))。
When the three-dimensional coordinates at the N-th time are derived, the N-th element of the motion sequence data is filled and held. When extracting motions at a plurality of motion extraction points, one motion array data may be prepared for each motion extraction point, and a plurality of motion array data may be provided. When the motion is extracted at equal time intervals, the time number is uniquely determined from the position of the element in the motion array, so that time information per element is unnecessary. However, assuming motion extraction at uneven time intervals,
Time number information may be added to one element ((b) of FIG. 11).

【0099】運動入力の終了時、三次元運動データを保
存する場合は、コンピュータ24のメモリ3020上に
構成された運動配列データの内容をハードディスク等の
記憶装置に保存する。
At the end of the motion input, when the three-dimensional motion data is to be stored, the contents of the motion sequence data configured on the memory 3020 of the computer 24 are stored in a storage device such as a hard disk.

【0100】以上のようにして、ステップS8012に
おいて、抽出された三次元座標が三次元運動データへ追
加される。この後、次時刻のステレオ画像を処理すべ
く、ステップS8013において時刻番号Nを「1」増
加させる。次にステップS8014において、時刻番号
Nに対応するステレオ画像が読み出され、立体画像表示
装置に表示される。このステップS8014における処
理は、ステップS8004における前記運動入力開始点
決定サブルーチンの「時刻番号Nのステレオ画像の読み
込みと表示」(図9のステップS9003)で説明した
処理と全く同じ内容であるため、ここでは説明を省略す
る。ステップS8014においてステレオ画像の更新が
終わると、運動入力を繰り返すべくステップS8005
に戻る。
As described above, in step S8012, the extracted three-dimensional coordinates are added to the three-dimensional motion data. Thereafter, in order to process the stereo image at the next time, the time number N is incremented by "1" in step S8013. Next, in step S8014, the stereo image corresponding to the time number N is read and displayed on the stereoscopic image display device. The processing in step S8014 is exactly the same as the processing described in “Reading and Displaying Stereo Image of Time Number N” (Step S9003 in FIG. 9) in the exercise input start point determination subroutine in step S8004. Then, the description is omitted. When the update of the stereo image is completed in step S8014, step S8005 is performed to repeat the exercise input.
Return to

【0101】上記説明した処理を行うことによって三次
元運動情報が得られる。得られた三次元運動情報には実
際の物体の三次元運動情報以外に視線検出の誤差等、種
々のノイズが混入している可能性がある。このノイズは
次の方法によってある程度除去できる。
By performing the above-described processing, three-dimensional motion information can be obtained. The obtained three-dimensional motion information may contain various kinds of noise such as a gaze detection error in addition to the actual three-dimensional motion information of the object. This noise can be removed to some extent by the following method.

【0102】運動の特性は物理法則等から予測がつく場
合があり、この時は予測される運動曲線の方程式に有限
のパラメータを持たせ、三次元運動情報データ群に対し
最小二乗法等でマッチングを行う。これにより決定され
たパラメータから得られる運動曲線を目的の三次元運動
情報として採用すればよい。また、運動の特性を予測で
きない場合であっても、運動の予測曲線として多くパラ
メータを含む適当な高次曲線等を使用すればよい。
In some cases, the characteristics of the motion can be predicted from the laws of physics or the like. In this case, the equations of the predicted motion curve have finite parameters, and matching is performed with the three-dimensional motion information data group by the least squares method or the like. I do. The motion curve obtained from the parameters determined in this way may be adopted as the target three-dimensional motion information. Even when the characteristics of the exercise cannot be predicted, an appropriate higher-order curve including many parameters may be used as the exercise prediction curve.

【0103】上記の通り、本発明の第1の実施形態によ
れば、運動抽出点の三次元座標が自動的に時系列順に抽
出され、効率的な三次元運動入力が可能となる。
As described above, according to the first embodiment of the present invention, the three-dimensional coordinates of the motion extraction points are automatically extracted in chronological order, enabling efficient three-dimensional motion input.

【0104】<第2の実施形態>上記第1の実施形態で
は、ある時刻のステレオ画像の処理から次時刻のステレ
オ画像の処理への遷移がコンピュータによって自動的に
行われている。この方法は効率的ではあるが、操作者が
運動入力開始から終了まで、一時も運動抽出点から眼が
離せないという問題がある。よって本第2の実施形態で
は時刻遷移を操作者の操作によって行うようにする。以
下、第2の実施形態に於ける動作手順を図10のフロー
チャートを参照して説明する。
<Second Embodiment> In the first embodiment, the transition from the processing of the stereo image at a certain time to the processing of the stereo image at the next time is automatically performed by a computer. Although this method is efficient, there is a problem that the operator cannot keep his / her eyes away from the movement extraction point at all times from the start to the end of the movement input. Therefore, in the second embodiment, the time transition is performed by the operation of the operator. Hereinafter, the operation procedure in the second embodiment will be described with reference to the flowchart of FIG.

【0105】図10のフローチャートにおいて、図8の
同様の処理には同じステップ番号を付し、その詳細説明
を省略する。
In the flowchart of FIG. 10, the same processes as those in FIG. 8 are denoted by the same step numbers, and detailed description thereof will be omitted.

【0106】ステップS8002からステップS800
4までの処理により運動入力の準備が行われ、その後、
ステップS10005とステップS10006において
操作者からの入力を待ち、入力があれば入力内容を検査
する。次のステップS8008において、入力が「運動
入力の終了要求」の場合、プログラムを終了し、入力が
「運動入力の終了要求」でない場合には、ステップS1
0007に進む。ステップS10007において更に入
力を調べ、もし、入力が「座標抽出要求」であればステ
ップS8010以降に進んで座標抽出とステレオ画像の
更新を行う。もし、入力が「座標抽出要求」でなければ
入力を監視すべくステップS10005に戻る。
Steps S8002 to S800
Preparation for exercise input is performed by the processing up to 4, and then
In steps S10005 and S10006, input from the operator is waited, and if there is an input, the input content is inspected. In the next step S8008, if the input is “exercise input termination request”, the program is terminated. If the input is not “exercise input termination request”, step S1 is executed.
Proceed to 0007. In step S10007, the input is further examined. If the input is "coordinate extraction request", the process proceeds to step S8010 and the subsequent steps to perform coordinate extraction and update the stereo image. If the input is not “coordinate extraction request”, the process returns to step S10005 to monitor the input.

【0107】以上述べた方法により、運動抽出点の三次
元座標が操作者の視線の動きに基づき半自動的に時系列
順に抽出され、効率的な三次元運動入力が可能となる。
According to the method described above, the three-dimensional coordinates of the motion extraction points are semi-automatically extracted in chronological order based on the movement of the operator's line of sight, and efficient three-dimensional motion input becomes possible.

【0108】<変形例1>前記第1、または第2の実施
形態では物体の三次元運動を、撮影カメラの位置と向き
を基準にした座標系、すなわちCG分野において視界空
間またはカメラ空間とよばれるものに対して求めてい
る。しかし、現実の撮影では撮影対象とカメラの両方が
運動し、かつ、撮影対象の運動を大地等の静止座標系に
対して求めたいという要求も発生する。このような場合
は、前記第1、または第2の実施形態における三次元運
動抽出を、撮影対象と静止座標系の抽出点、例えば大地
に対して静止している樹木や建築物の両方に対して行え
ばよい。そして、撮影対象の三次元座標から静止座標系
の抽出点の三次元座標を引き算することにより撮影対象
の三次元運動を静止座標系に対して求めることができ
る。
<Modification 1> In the first or second embodiment, the three-dimensional motion of an object is referred to as a coordinate system based on the position and orientation of a photographing camera, that is, in the CG field, a view space or a camera space. I am looking for something that can be broken. However, in actual photographing, both the photographing target and the camera move, and there is also a request that the movement of the photographing target is desired to be obtained with respect to a stationary coordinate system such as the ground. In such a case, the three-dimensional motion extraction in the first or second embodiment is performed on both the shooting target and the extraction points of the stationary coordinate system, for example, both trees and buildings that are stationary with respect to the ground. Just do it. Then, by subtracting the three-dimensional coordinates of the extraction point in the stationary coordinate system from the three-dimensional coordinates of the imaging target, the three-dimensional motion of the imaging target can be obtained with respect to the stationary coordinate system.

【0109】<変形例2>前記変形例1は、目的物体の
運動からカメラ運動の影響を除去するという考え方であ
るが、このカメラ運動の影響を逆に利用し、カメラに意
図的な運動を与え、静止物体の三次元座標入力、すなわ
ち静止物体の三次元形状入力の精度向上に利用してもよ
い。以下、この方法を説明する。
<Modification 2> The modification 1 is based on the idea of removing the influence of camera movement from the movement of the target object. It may be used to improve the accuracy of inputting three-dimensional coordinates of a stationary object, that is, inputting the three-dimensional shape of a stationary object. Hereinafter, this method will be described.

【0110】ステレオ撮影時、カメラを既知の規則で運
動させ物体をステレオ撮影する。例えば対象物体付近の
既知の一点を中心にし、既知の回転速度で回転撮影す
る。これにより、等角速度で回転運動する物体の映像が
得られる。後は前記第1、または第2の実施形態と同じ
方法を使い抽出点の三次元運動を抽出する。抽出点の三
次元運動は一時刻の抽出点位置を唯一の未知数とし、三
次元座標を時間の関数として正確に表現できる、すなわ
ち予測できる。よって、前記第1、または第2の実施形
態によって得られた三次元運動情報データ群に最小二乗
法等を適用し、未知数であった一時刻の抽出点位置を求
める。これにより、単にある時刻の、すなわち一組のス
テレオ画像により得られる情報より高い精度の三次元座
標情報が得られる。また、カメラに与える運動は既知で
なくともよい。その場合は物体の運動曲線として多くの
パラメータを含む適当な高次曲線等を使用し、三次元運
動情報データ群に最小二乗法等を適用し、運動曲線を決
定する。決定された運動曲線から得られるある時刻の抽
出点三次元座標は、既知の運動を与えた場合と同様に、
単に一組のステレオ画像によって得られる情報よりも高
い精度の三次元座標情報を持つ。
At the time of stereo shooting, a camera is moved according to a known rule to shoot an object in stereo. For example, rotation photography is performed at a known rotation speed around a known point near the target object. As a result, an image of an object rotating at a constant angular velocity can be obtained. Thereafter, the three-dimensional motion of the extraction point is extracted using the same method as in the first or second embodiment. The three-dimensional movement of the extraction point can be accurately represented, ie, predicted, as a function of time, with the extraction point position at one time being the only unknown, and the three-dimensional coordinates as a function of time. Therefore, the least squares method or the like is applied to the three-dimensional motion information data group obtained by the first or second embodiment, and an unknown point position at one time is obtained. As a result, three-dimensional coordinate information obtained at a certain time, that is, with higher accuracy than information obtained from a set of stereo images is obtained. Also, the motion given to the camera need not be known. In that case, an appropriate higher-order curve or the like including many parameters is used as the motion curve of the object, and the least-squares method or the like is applied to the three-dimensional motion information data group to determine the motion curve. Extraction point three-dimensional coordinates at a certain time obtained from the determined motion curve, as in the case of giving a known motion,
It has three-dimensional coordinate information with higher accuracy than information obtained simply from a set of stereo images.

【0111】このような同一点の複数撮影による抽出座
標の精度向上は、ステレオ静止画像を使用する従来の三
次元形状入力方法において、複数方向から撮影されたス
テレオ静止画像を使用することと計算上は等価である。
The improvement of the accuracy of the extracted coordinates by a plurality of photographing of the same point can be achieved by using a stereo still image photographed from a plurality of directions in a conventional three-dimensional shape input method using a stereo still image. Are equivalent.

【0112】しかし、本実施の形態の特徴は形状抽出の
ための情報を三次元運動として取得する点にあり、この
点に大きな利点がある。それは、異なるステレオ画像間
を連続する画像でつなぐことで抽出点の視線による連続
的な追尾が可能となり、異なるステレオ画像間における
抽出点の対応関係を自動的に与えることができる。すな
わち、連続する時系列画像ではなく、従来のように不連
続なステレオ画像を静止画として複数使用した場合は、
左右一組のステレオ画像内での左右画像の対応点指示に
加え、異なるステレオ画像間での対応点指示が必要であ
る。これに対し本実施の形態を用いれば、左右一組のス
テレオ画像内での左右画像の対応点指示は前記人間の融
像動作によって自動化され、かつ、異なるステレオ画像
間での対応点指示も前記人間の着目点時間追尾動作によ
って自動化される。
However, the feature of the present embodiment is that information for shape extraction is obtained as a three-dimensional motion, which is a great advantage. That is, by connecting different stereo images with continuous images, continuous tracking based on the line of sight of the extraction points becomes possible, and the correspondence of the extraction points between the different stereo images can be automatically given. That is, when a plurality of discontinuous stereo images are used as still images instead of continuous time-series images as in the related art,
In addition to indicating corresponding points of the left and right images in a set of left and right stereo images, corresponding points must be indicated between different stereo images. On the other hand, according to the present embodiment, the corresponding point indication of the left and right images in a set of left and right stereo images is automated by the fusion operation of the human, and the corresponding point indication between different stereo images is also described above. It is automated by a human target point time tracking operation.

【0113】なお、カメラと物体は空間的に相対的な関
係にあるので、上記カメラの意図的運動は物体に対して
与えてもよい。これによって同様の効果が得られるのは
明白である。
Since the camera and the object are spatially relative to each other, the intentional movement of the camera may be given to the object. Obviously, this has the same effect.

【0114】<第3の実施形態>本発明の対応点検出の
方法は、現在の技術では人間の画像認識による自然なパ
ターンマッチング、すなわち融像動作がコンピュータの
相関計算によるパターンマッチングより優れているとい
う点に基づいている。この比較基準は精度、処理時間、
操作性等、多岐にわたっており、また今後のコンピュー
タの性能向上等にも左右される。このため、ステレオ画
像の対応点検出に人間の融像動作による方法よりもコン
ピュータによる相関計算の使用が優位と判断される状況
も存在し得る。
<Third Embodiment> In the present technology, the method for detecting corresponding points according to the present invention has a natural pattern matching based on human image recognition, that is, a fusion operation is superior to a pattern matching based on correlation calculation by a computer. It is based on the point. The comparison criteria are accuracy, processing time,
It is versatile in terms of operability, etc., and will also be affected by future improvements in computer performance. For this reason, there may be situations where the use of correlation calculation by a computer is determined to be superior to the method based on human fusion operation for detecting corresponding points in a stereo image.

【0115】しかしながら、このような状況においても
本発明は有効であり、コンピュータの相関計算と本発明
を併用することが可能である。すなわち、コンピュータ
による相関計算の前処理として、本発明を使用する。
However, the present invention is effective even in such a situation, and the present invention can be used together with the correlation calculation of a computer. That is, the present invention is used as pre-processing of correlation calculation by a computer.

【0116】具体的には図8または図10のステップS
8011における処理に、相関計算を適用する。ステッ
プS8010で得られた対応点の組に基づき、相関計算
を行う領域を絞り込み、この小さな領域に対しコンピュ
ータによる相関計算を行う。このようにすれば、単に相
関計算を行うよりも計算時間を短縮することができる。
また、相関計算を行う場合にも、時間軸上の一時刻の左
右どちらかの画像上で抽出点を手動で指定する必要があ
るが、この操作を視線入力によって指定できるので効率
的である。
Specifically, step S in FIG. 8 or FIG.
The correlation calculation is applied to the processing in 8011. Based on the set of corresponding points obtained in step S8010, the area for performing the correlation calculation is narrowed down, and the computer calculates the correlation for this small area. In this way, the calculation time can be reduced as compared with simply performing the correlation calculation.
Also, when performing a correlation calculation, it is necessary to manually specify an extraction point on one of the left and right images at one time on the time axis. However, since this operation can be specified by eye-gaze input, it is efficient.

【0117】[0117]

【発明の効果】本発明によれば、実写映像からステレオ
撮影方式により三次元運動情報を抽出する場合に、三次
元座標の時系列抽出にかかる作業量および作業時間を大
幅に削減することができるため、センサ不要のメリット
を持つステレオ撮影方式を、三次元運動入力方法として
使用することが容易となり、三次元運動入力の撮影対象
をより広範なものにすることができる。
According to the present invention, when extracting three-dimensional motion information from a real image by a stereo shooting method, the amount of work and the time required for extracting a time series of three-dimensional coordinates can be greatly reduced. Therefore, it is easy to use the stereo imaging method having the merit of eliminating the need for a sensor as the three-dimensional motion input method, and it is possible to broaden the imaging target of the three-dimensional motion input.

【0118】更に、本発明を静止物体の形状入力に利用
することにより、容易に形状表示の精度を向上すること
が可能となる。また、撮影された画像内の静止物体を基
準として三次元座標を得ることにより、撮影時の自由度
が向上する。また、観察者が自由に運動入力のタイミン
グを指示することにより、観察者にかかる負担を軽減す
ることができる。
Further, by using the present invention for inputting the shape of a stationary object, it is possible to easily improve the accuracy of shape display. Further, by obtaining three-dimensional coordinates with reference to a stationary object in a captured image, the degree of freedom at the time of capturing is improved. Moreover, the burden on the observer can be reduced by the observer freely instructing the timing of the motion input.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ステレオ画像撮影を利用した三次元座標抽出を
説明する図である。
FIG. 1 is a diagram illustrating three-dimensional coordinate extraction using stereo image capturing.

【図2】本発明の実施の形態における運動入力システム
の装置構成を説明する概念図である。
FIG. 2 is a conceptual diagram illustrating a device configuration of an exercise input system according to an embodiment of the present invention.

【図3】本発明の実施の形態で使われるコンピュータと
その周辺機器の構成図である。
FIG. 3 is a configuration diagram of a computer and peripheral devices used in the embodiment of the present invention.

【図4】ステレオ立体視の原理を説明する図である。FIG. 4 is a diagram illustrating the principle of stereoscopic viewing.

【図5】左右画像の分離入力の方法を説明する図であ
る。
FIG. 5 is a diagram for explaining a method of separating and inputting left and right images.

【図6】視線検出装置付き頭部装着型立体画像表示装置
の構成を示すブロック酢である。
FIG. 6 is a block diagram illustrating the configuration of a head-mounted stereoscopic image display device with a visual axis detection device.

【図7】視線検出の原理を説明する図である。FIG. 7 is a diagram illustrating the principle of gaze detection.

【図8】本発明の第1の実施形態における三次元運動入
力の処理手順を説明するフローチャートである。
FIG. 8 is a flowchart illustrating a processing procedure of a three-dimensional motion input according to the first embodiment of the present invention.

【図9】第1の実施形態における運動入力開始点決定サ
ブルーチンを説明するフローチャートである。
FIG. 9 is a flowchart illustrating a subroutine for determining an exercise input start point according to the first embodiment.

【図10】本発明の第2の実施形態における三次元運動
入力の処理手順を説明するフローチャートである。
FIG. 10 is a flowchart illustrating a processing procedure of a three-dimensional motion input according to the second embodiment of the present invention.

【図11】三次元運動データの構造を説明する図であ
る。
FIG. 11 is a diagram illustrating a structure of three-dimensional motion data.

【図12】従来技術におけるステレオ撮影方式の空間的
時間的対応点指定作業を説明する図である。
FIG. 12 is a diagram illustrating a spatial-temporal corresponding point designating operation of a stereo imaging method in the related art.

【符号の説明】 101 左眼用カメラ 102 右眼用カメラ 103 左画像 104 右画像 105 左画像における代表点 106 右画像における代表点 201 左眼用カメラ 202 右眼用カメラ 203a 時刻1の運動物体 203b 時刻2の運動物体 204 コンピュータ 205 視線検出装置付き立体画像表示装置 206a 時刻1の運動物体のステレオ立体視画像 206b 時刻2の運動物体のステレオ立体視画像 207 三次元運動情報 3002 映像信号入力回路 3003 主記憶装置 3004 CPU 3005 画像メモリ 3006 映像信号出力回路 3007 視線データ入力回路 3008 マウス 3009 キーボード 3010 ステレオ画像撮影装置 3011 記録媒体 3012 記録媒体再生装置 3013 立体画像表示装置 3014 視線検出装置 3015 二次記憶装置 3020 メモリ 402 注目点 403 実在物体 405 右目用表示画像 406 左目用表示画像 407 仮想物体上の注目点 501、502 LCD 503、504 プリズム型接眼レンズ 505 LCD表示面虚像位置 6002 LCD表示回路 6003 映像入力回路 6004 視線データ送信回路 6005 視線検出回路 6006 眼球撮像素子 6007 眼球撮像用レンズ 6008 眼球撮像用レンズ 6010 赤外線発光ダイオードIRED[Description of Signs] 101 Left-eye camera 102 Right-eye camera 103 Left image 104 Right image 105 Representative point in left image 106 Representative point in right image 201 Left-eye camera 202 Right-eye camera 203a Moving object 203b at time 1 Moving object at time 2 204 Computer 205 Stereoscopic image display device with visual line detection device 206a Stereoscopic 3D image of moving object at time 1 206b Stereoscopic 3D image of moving object at time 2 207 3D motion information 3002 Video signal input circuit 3003 Main Storage device 3004 CPU 3005 Image memory 3006 Video signal output circuit 3007 Eye-gaze data input circuit 3008 Mouse 3009 Keyboard 3010 Stereo image photographing device 3011 Recording medium 3012 Recording medium reproducing device 3013 Stereoscopic image display device 3014 Eye-gaze detection device 3015 Secondary storage device 3020 Memory 402 Point of interest 403 Real object 405 Display image for right eye 406 Display image for left eye 407 Point of interest on virtual object 501, 502 LCD 503, 504 Prism eyepiece 505 LCD display surface virtual image position 6002 LCD display circuit 6003 Video input circuit 6004 Eye-gaze data transmission circuit 6005 Eye-gaze detection circuit 6006 Eyeball image sensor 6007 Eyeball lens 6008 Eyeball lens 6010 Infrared light emitting diode IRED

フロントページの続き Fターム(参考) 2F065 AA04 AA09 AA39 CC16 DD06 FF05 FF41 GG07 GG21 JJ03 JJ05 JJ26 QQ24 QQ41 SS13 5B057 CA08 CA13 CA16 CB08 CB13 CB16 CD14 CH08 DA07 DA20 DB03 DB09 DC34 5B087 AA07 AE00 BC12 BC13 BC16 BC32 DJ01 DJ03 Continued on front page F-term (reference) 2F065 AA04 AA09 AA39 CC16 DD06 FF05 FF41 GG07 GG21 JJ03 JJ05 JJ26 QQ24 QQ41 SS13 5B057 CA08 CA13 CA16 CB08 CB13 CB16 CD14 CH08 DA07 DA20 DB03 DB09 DC34 5B087 BC13 DJ13 BC13

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 視差のある一対の動画像を撮影する撮影
工程と、 前記撮影工程において撮影された前記一対の動画像を、
立体視されるようにステレオ表示する表示工程と、 前記表示工程でステレオ表示された画像を観察する観察
者の視線方向を検知する視線検知工程と、 前記視線検知工程で検知された視線方向に基づいて、前
記一対の動画像の対応点を検出する対応点検出工程と、 前記対応点検出工程により検出された対応点に対応する
動画像上の点の三次元座標を算出する算出工程と、 前記算出工程により得られた三次元座標を時間に対応付
けて記憶する記憶工程とを有することを特徴とする三次
元運動入力方法。
An imaging step of capturing a pair of moving images having parallax; and a pair of the moving images captured in the imaging step.
A display step of performing stereo display so as to be stereoscopically viewed, a gaze detection step of detecting a gaze direction of an observer observing an image stereo-displayed in the display step, and a gaze direction detected in the gaze detection step. A corresponding point detecting step of detecting a corresponding point of the pair of moving images; a calculating step of calculating three-dimensional coordinates of a point on the moving image corresponding to the corresponding point detected by the corresponding point detecting step; Storing the three-dimensional coordinates obtained in the calculation step in association with time.
【請求項2】 視差のある一対の動画像を記録媒体から
読み出す読み出し工程と、 前記読み出し工程で前記記録媒体から読み出された前記
一対の動画像を、立体視されるようにステレオ表示する
表示工程と、 前記表示工程でステレオ表示された画像を観察する観察
者の視線方向を検知する視線検知工程と、 前記視線検知工程で検知された視線方向に基づいて、前
記一対の動画像の対応点を検出する対応点検出工程と、 前記対応点検出工程により検出された対応点に対応する
動画像上の点の三次元座標を算出する算出工程と、 前記算出工程により得られた三次元座標を時間に対応付
けて記憶する記憶工程とを有することを特徴とする三次
元運動入力方法。
2. A reading step of reading a pair of moving images having parallax from a recording medium, and a display for stereoscopically displaying the pair of moving images read from the recording medium in the reading step so as to be stereoscopically viewed. A step, a line-of-sight detection step of detecting a line-of-sight direction of an observer who observes the image stereo-displayed in the display step, and a corresponding point of the pair of moving images based on the line-of-sight direction detected in the line-of-sight detection step. A corresponding point detecting step of detecting, a calculating step of calculating three-dimensional coordinates of a point on a moving image corresponding to the corresponding point detected in the corresponding point detecting step, and a three-dimensional coordinate obtained by the calculating step. A storage step of storing in association with time.
【請求項3】 前記撮影工程では、撮影位置および方向
を固定した状態で動画像を撮影することを特徴とする請
求項1に記載の三次元運動入力方法。
3. The three-dimensional motion input method according to claim 1, wherein in the photographing step, a moving image is photographed with the photographing position and direction fixed.
【請求項4】 前記撮影工程では、予め決められた軌道
上で撮影位置を移動しながら動画像を撮影することを特
徴とする請求項1に記載の三次元運動入力方法。
4. The three-dimensional motion input method according to claim 1, wherein in the photographing step, a moving image is photographed while moving a photographing position on a predetermined trajectory.
【請求項5】 前記対応点検出工程では、前記動画像に
おける静止物体上の点と、前記動画像における運動物体
の点の、それぞれの対応点を検出し、前記算出工程で
は、前記静止物体上の点を基準とした動物体上の点の三
次元座標を算出することを特徴とする請求項1または2
に記載の三次元運動入力方法。
5. In the corresponding point detecting step, respective corresponding points of a point on the stationary object in the moving image and a point of the moving object in the moving image are detected. 3. The three-dimensional coordinates of a point on the moving object based on the point (3) are calculated.
3. The three-dimensional motion input method according to 1.
【請求項6】 前記表示工程では、所定時間毎に、前記
一対の動画像の一時刻における一対の画像を、それぞれ
次の時刻の画像に更新して表示し、前記算出工程では、
前記所定時間間隔で動画像上の点の三次元座標を算出す
ることを特徴とする請求項1乃至5のいずれかに記載の
三次元運動入力方法。
6. The display step, wherein at each predetermined time, a pair of images at one time of the pair of moving images is updated to an image at the next time and displayed, and in the calculating step,
The three-dimensional motion input method according to claim 1, wherein three-dimensional coordinates of a point on a moving image are calculated at the predetermined time interval.
【請求項7】 前記表示工程では、外部からの指示に基
づいて、前記一対の動画像の一時刻における一対の画像
を、それぞれ次の時刻の画像に更新して表示し、前記算
出工程では、前記表示工程で更新された一対の画像上の
点の三次元座標を算出することを特徴とする請求項1乃
至5のいずれかに記載の三次元運動入力方法。
7. The display step, wherein a pair of images at one time of the pair of moving images is updated to an image at the next time based on an external instruction, and the calculation step includes: The three-dimensional motion input method according to claim 1, wherein three-dimensional coordinates of a point on the pair of images updated in the display step are calculated.
【請求項8】 前記算出工程では、前記一対の動画像
中、前記対応点検出工程で得られた対応点付近の二次元
領域について二次元相関演算を行い、得られた相関値に
基づいて前記一対の動画像上の新たな対応点を求め、新
たに求められた対応点に基づいて動画像上の点の三次元
座標を算出することを特徴とする請求項1乃至7のいず
れかに記載の三次元運動入力方法。
8. In the calculating step, a two-dimensional correlation operation is performed on a two-dimensional area near the corresponding point obtained in the corresponding point detecting step in the pair of moving images, and based on the obtained correlation value, 8. The method according to claim 1, wherein a new corresponding point on the pair of moving images is obtained, and three-dimensional coordinates of the point on the moving image are calculated based on the newly obtained corresponding points. 3D motion input method.
【請求項9】前記視線検知工程では、非可視光を観察者
の眼球に照射し、観察者の眼球瞳孔中心位置と角膜反射
面からの非可視光の虚像位置の相対関係から、観察者の
眼球の回転角度を求め、視線方向を検知することを特徴
とする請求項1乃至8のいずれかに記載の三次元運動入
力方法。
9. The eye-gaze detecting step includes irradiating the observer's eyeball with invisible light, and determining the observer's eyeball from the relative relationship between the observer's eyeball pupil center position and the virtual image position of the invisible light from the corneal reflecting surface. The three-dimensional motion input method according to any one of claims 1 to 8, wherein a rotation angle of the eyeball is obtained, and a gaze direction is detected.
【請求項10】 視差のある一対の動画像を撮影する撮
影手段と、 前記撮影手段により撮影された前記一対の動画像を、立
体視されるようにステレオ表示する表示手段と、 前記表示手段でステレオ表示された画像を観察する観察
者の視線方向を検知する視線検知手段と、 前記視線検知手段で検知された視線方向に基づいて、前
記一対の動画像の対応点を検出する対応点検出手段と、 前記対応点検出手段により検出された対応点に対応する
動画像上の点の三次元座標を算出する算出手段と、 前記算出手段により得られた三次元座標を時間に対応付
けて記憶する記憶手段とを有することを特徴とする三次
元運動入力システム。
10. A photographing means for photographing a pair of moving images having parallax, a display means for stereoscopically displaying the pair of moving images photographed by the photographing means so as to be viewed stereoscopically, and the display means. Gaze detection means for detecting a gaze direction of an observer observing an image displayed in stereo; and corresponding point detection means for detecting a corresponding point of the pair of moving images based on the gaze direction detected by the gaze detection means Calculating means for calculating three-dimensional coordinates of a point on a moving image corresponding to the corresponding point detected by the corresponding point detecting means; and storing the three-dimensional coordinates obtained by the calculating means in association with time. A three-dimensional motion input system, comprising: a storage unit.
【請求項11】 視差のある一対の動画像を記録媒体か
ら読み出す読み出し手段と、 前記読み出し手段により前記記録媒体から読み出された
前記一対の動画像を、立体視されるようにステレオ表示
する表示手段と、 前記表示手段でステレオ表示された画像を観察する観察
者の視線方向を検知する視線検知手段と、 前記視線検知手段で検知された視線方向に基づいて、前
記一対の動画像の対応点を検出する対応点検出手段と、 前記対応点検出手段により検出された対応点に対応する
動画像上の点の三次元座標を算出する算出手段と、 前記算出手段により得られた三次元座標を時間に対応付
けて記憶する記憶手段とを有することを特徴とする三次
元運動入力システム。
11. A reading means for reading a pair of moving images having parallax from a recording medium, and a display for stereoscopically displaying the pair of moving images read from the recording medium by the reading means so as to be stereoscopically viewed. Means, a gaze detecting means for detecting a gaze direction of an observer observing an image stereo-displayed on the display means, and a corresponding point of the pair of moving images based on the gaze direction detected by the gaze detection means. Corresponding point detecting means for detecting the three-dimensional coordinates of a point on a moving image corresponding to the corresponding point detected by the corresponding point detecting means, and the three-dimensional coordinates obtained by the calculating means Storage means for storing in association with time.
【請求項12】 前記撮影手段は、撮影位置および方向
を固定した状態で動画像を撮影することを特徴とする請
求項10に記載の三次元運動入力システム。
12. The three-dimensional motion input system according to claim 10, wherein said photographing means photographs a moving image with the photographing position and direction fixed.
【請求項13】 前記撮影手段は、予め決められた軌道
上を移動しながら動画像を撮影することを特徴とする請
求項10に記載の三次元運動入力システム。
13. The three-dimensional motion input system according to claim 10, wherein said photographing means photographs a moving image while moving on a predetermined trajectory.
【請求項14】 前記対応点検出手段は、前記動画像に
おける静止物体上の点と、前記動画像における運動物体
の点の、それぞれの対応点を検出し、前記算出手段は、
前記静止物体上の点を基準とした動物体上の点の三次元
座標を算出することを特徴とする請求項10または11
に記載の三次元運動入力システム。
14. The corresponding point detecting means detects respective corresponding points of a point on a still object in the moving image and a point of a moving object in the moving image, and the calculating means
The three-dimensional coordinates of a point on a moving object with reference to the point on the stationary object are calculated.
3. The three-dimensional motion input system according to item 1.
【請求項15】 前記表示手段は、所定時間毎に、前記
一対の動画像の一時刻における一対の画像を、それぞれ
次の時刻の画像に更新して表示し、前記算出手段は、前
記所定時間間隔で動画像上の点の三次元座標を算出する
ことを特徴とする請求項10乃至14のいずれかに記載
の三次元運動入力システム。
15. The display means updates a pair of images at one time of the pair of moving images to an image at the next time at predetermined time intervals, and displays the pair of images at a predetermined time. The three-dimensional motion input system according to any one of claims 10 to 14, wherein three-dimensional coordinates of points on the moving image are calculated at intervals.
【請求項16】 前記表示手段は、外部からの指示に基
づいて、前記一対の動画像の一時刻における一対の画像
を、それぞれ次の時刻の画像に更新して表示し、前記算
出手段は、前記表示手段で更新された一対の画像上の点
の三次元座標を算出することを特徴とする請求項10乃
至14のいずれかに記載の三次元運動入力システム。
16. The display means updates a pair of images at one time of the pair of moving images to an image at the next time based on an external instruction and displays the pair of images, respectively, 15. The three-dimensional motion input system according to claim 10, wherein three-dimensional coordinates of a point on the pair of images updated by the display unit are calculated.
【請求項17】 前記算出手段は、前記一対の動画像
中、前記対応点検出手段により得られた対応点付近の二
次元領域について二次元相関演算を行い、得られた相関
値に基づいて前記一対の動画像上の新たな対応点を求
め、新たに求められた対応点に基づいて動画像上の点の
三次元座標を算出することを特徴とする請求項10乃至
16のいずれかに記載の三次元運動入力システム。
17. The calculation unit performs a two-dimensional correlation operation on a two-dimensional area near a corresponding point obtained by the corresponding point detection unit in the pair of moving images, and performs the two-dimensional correlation operation based on the obtained correlation value. 17. The method according to claim 10, wherein a new corresponding point on the pair of moving images is obtained, and three-dimensional coordinates of the point on the moving image are calculated based on the newly obtained corresponding points. 3D motion input system.
【請求項18】 前記視線検知手段は、非可視光を観察
者の眼球に照射する光源を有し、観察者の眼球瞳孔中心
位置と角膜反射面からの非可視光の虚像位置の相対関係
から、観察者の眼球の回転角度を求め、視線方向を検知
することを特徴とする請求項10乃至17のいずれかに
記載の三次元運動入力システム。
18. The eye-gaze detecting means has a light source for irradiating an invisible light to an observer's eyeball. The three-dimensional motion input system according to any one of claims 10 to 17, wherein a rotation angle of an observer's eyeball is obtained, and a gaze direction is detected.
【請求項19】 前記表示手段は、観察者の頭部と表示
面の相対的な位置関係を固定することの可能な頭部装着
型立体画像表示装置であることを特徴とする請求項10
乃至18のいずれかに記載の三次元運動入力システム。
19. The stereoscopic image display device according to claim 10, wherein said display means is a head-mounted stereoscopic image display device capable of fixing a relative positional relationship between a viewer's head and a display surface.
19. The three-dimensional motion input system according to any one of claims 18 to 18.
【請求項20】 前記頭部装着型画像表示装置は、前記
視線検知手段を有することを特徴とする請求項19に記
載の三次元運動入力システム。
20. The three-dimensional motion input system according to claim 19, wherein said head-mounted image display device has said line-of-sight detecting means.
【請求項21】 前記表示手段は、前記表示手段に対す
る観測者頭部の相対的な位置を検知する機構を有する立
体画像表示装置であり、前記立体画像表示装置に対する
観測者頭部の相対的位置変化を検知し、検知した相対的
位置変化に基づいて、前記視線検知手段における視線方
向を補正することを特徴とする請求項10乃至20のい
ずれかに記載の三次元運動入力システム。
21. A stereoscopic image display device having a mechanism for detecting a relative position of an observer's head with respect to the display device, wherein the relative position of the observer's head with respect to the stereoscopic image display device is provided. 21. The three-dimensional motion input system according to claim 10, wherein a change is detected, and a line-of-sight direction in said line-of-sight detecting means is corrected based on the detected relative position change.
JP10361667A 1998-12-18 1998-12-18 Three-dimensional motion input method and three- dimensional motion input system Withdrawn JP2000182058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10361667A JP2000182058A (en) 1998-12-18 1998-12-18 Three-dimensional motion input method and three- dimensional motion input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10361667A JP2000182058A (en) 1998-12-18 1998-12-18 Three-dimensional motion input method and three- dimensional motion input system

Publications (1)

Publication Number Publication Date
JP2000182058A true JP2000182058A (en) 2000-06-30

Family

ID=18474476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10361667A Withdrawn JP2000182058A (en) 1998-12-18 1998-12-18 Three-dimensional motion input method and three- dimensional motion input system

Country Status (1)

Country Link
JP (1) JP2000182058A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170993A (en) * 2004-12-10 2006-06-29 Microsoft Corp Matching of asynchronous image parts
JP2008500624A (en) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
CN100363880C (en) * 2004-05-06 2008-01-23 阿尔派株式会社 Operation input device and method of operation input
WO2009090200A2 (en) 2008-01-16 2009-07-23 Syddansk Universitet Integrated unit for monitoring motion in space
JP2016110444A (en) * 2014-12-08 2016-06-20 国立大学法人静岡大学 Eyeball identification apparatus and eyeball identification method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100363880C (en) * 2004-05-06 2008-01-23 阿尔派株式会社 Operation input device and method of operation input
JP2008500624A (en) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
US8094120B2 (en) 2004-05-24 2012-01-10 3D For All Szamitastechnikai Fejlezto KFT System and method for operating in virtual 3D space and system for selecting an operation via a visualizing system
JP2006170993A (en) * 2004-12-10 2006-06-29 Microsoft Corp Matching of asynchronous image parts
WO2009090200A2 (en) 2008-01-16 2009-07-23 Syddansk Universitet Integrated unit for monitoring motion in space
JP2016110444A (en) * 2014-12-08 2016-06-20 国立大学法人静岡大学 Eyeball identification apparatus and eyeball identification method

Similar Documents

Publication Publication Date Title
CA2488925C (en) Method for producing stereoscopic images from monoscopic images
US5644324A (en) Apparatus and method for presenting successive images
US8355627B2 (en) 3D camera with foreground object distance sensing
US8456518B2 (en) Stereoscopic camera with automatic obstruction removal
JP4378118B2 (en) 3D image presentation device
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
US8090251B2 (en) Frame linked 2D/3D camera system
US6611283B1 (en) Method and apparatus for inputting three-dimensional shape information
US11109916B2 (en) Personalized hand-eye coordinated digital stereo microscopic systems and methods
US20060028543A1 (en) Method and apparatus for controlling convergence distance for observation of 3D image
JP2000354257A (en) Image processor, image processing method and program provision medium
CN103513421A (en) Image processing device, image processing method, and image processing system
JP2002232913A (en) Double eye camera and stereoscopic vision image viewing system
US20230239457A1 (en) System and method for corrected video-see-through for head mounted displays
CN109799899B (en) Interaction control method and device, storage medium and computer equipment
JP2007501950A (en) 3D image display device
CN113438464A (en) Switching control method, medium and system for naked eye 3D display mode
JPH06339155A (en) Three-dimensional image pickup system
CN113382224B (en) Interactive handle display method and device based on holographic sand table
JP2849313B2 (en) Image recording and playback device
JP2000182058A (en) Three-dimensional motion input method and three- dimensional motion input system
CN115268650A (en) Picture screen capturing method and device, head-mounted virtual reality equipment and storage medium
JP2557406B2 (en) 3D image display device
JP2001218231A (en) Device and method for displaying stereoscopic image
US11652976B1 (en) Optical focus adjustment with switching

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307