JP2002077941A - Apparatus and method for generating depth image as well as computer readable recording medium recording program to execute the method in computer - Google Patents

Apparatus and method for generating depth image as well as computer readable recording medium recording program to execute the method in computer

Info

Publication number
JP2002077941A
JP2002077941A JP2000254024A JP2000254024A JP2002077941A JP 2002077941 A JP2002077941 A JP 2002077941A JP 2000254024 A JP2000254024 A JP 2000254024A JP 2000254024 A JP2000254024 A JP 2000254024A JP 2002077941 A JP2002077941 A JP 2002077941A
Authority
JP
Japan
Prior art keywords
image
depth
depth image
still image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000254024A
Other languages
Japanese (ja)
Other versions
JP4578653B2 (en
Inventor
Hideaki Maehara
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000254024A priority Critical patent/JP4578653B2/en
Publication of JP2002077941A publication Critical patent/JP2002077941A/en
Application granted granted Critical
Publication of JP4578653B2 publication Critical patent/JP4578653B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain an apparatus and a method for generating a depth mage for generating the depth image corresponding to a two-dimensional still picture fetched from a video image not specifying photographing conditions. SOLUTION: The method for generating the depth image comprises the steps of storing a dynamic image in a dynamic image memory 12, fetching one two-dimensional still picture for constituting the dynamic image from the memory 12 by a still picture acquiring unit 14, fetching, for example, two-dimensional still picture before and after the two-dimensional still picture in timing from the memory 12 by a still, picture selector 16, and relating the distance between an area on an object and a camera to each pixel of the two-dimensional still picture by a depth image calculator 18 to thereby generate a depth image. Thus, a three-dimensional shape information of the subject and the depth image are obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、カメラで撮影し
た画像から被写体の三次元形状を自動的に復元する三次
元復元技術に関するものであり、特に、画像中の各ピク
セルが示している被写体上の領域とカメラとの距離を記
録する奥行き情報として、三次元形状を出力する技術に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional restoration technique for automatically restoring a three-dimensional shape of a subject from an image captured by a camera, and more particularly to a technique for restoring the three-dimensional shape of a subject indicated by each pixel in the image. The present invention relates to a technique for outputting a three-dimensional shape as depth information for recording a distance between a region and a camera.

【0002】[0002]

【従来の技術】カメラで撮影した画像から被写体の三次
元形状を自動的に復元する三次元復元技術に関する研究
は1970年代に始まり、画像からどのように三次元形
状を復元するかについての基礎的な理論は1980年代
に既に確立されている。最もよく知られた方法は、ステ
レオカメラを使って撮影した2枚組みの静止画を使う方
法である。現在では、安定した三次元復元をおこなうた
めにはどのように被写体を撮影すべきか、または三次元
復元技術をどのように応用すべきかが、新しい研究課題
となっている。
2. Description of the Related Art Research on a three-dimensional reconstruction technique for automatically restoring a three-dimensional shape of a subject from an image captured by a camera began in the 1970's. Theories have already been established in the 1980s. The best known method is to use a pair of still images taken with a stereo camera. At present, a new research topic is how to photograph a subject or how to apply three-dimensional reconstruction technology in order to perform stable three-dimensional reconstruction.

【0003】これら三次元復元技術の代表的なものとし
て、例えば特開平5−149727号公報に開示の「三
次元形状認識装置」、特開平5−314243号公報に
開示の「3次元形状復元方法」、特開平6−10202
7号公報に開示の「3次元形状復元方法」、特開平10
−93954号公報に開示の「物体検知方法及びシステ
ム」および特開平10−239054号公報に開示の
「視点・物点位置計測方法及び装置」が知られている。
[0003] Representative examples of these three-dimensional reconstruction techniques include, for example, a "three-dimensional shape recognizing apparatus" disclosed in Japanese Patent Application Laid-Open No. 5-149727 and a "3-dimensional shape reconstructing method" disclosed in Japanese Patent Application Laid-Open No. 5-314243. And JP-A-6-10202.
7, "3D shape restoration method"
An "object detection method and system" disclosed in JP-A-93954 and a "viewpoint / object point position measurement method and apparatus" disclosed in JP-A-10-239054 are known.

【0004】特開平5−149727号公報に開示の
「三次元形状認識装置」は、物体にスリット光を照射
し、その反射パターンから三次元形状を復元する装置に
おいて、物体の形状に起因して反射パターンが正しく捉
えられない場合、カメラを移動させることによって、従
来よりも確実に三次元形状を得ようとするものである。
A "three-dimensional shape recognition apparatus" disclosed in Japanese Patent Application Laid-Open No. 5-149727 is a device for irradiating an object with slit light and restoring a three-dimensional shape from its reflection pattern. When the reflection pattern cannot be properly captured, the camera is moved to obtain a three-dimensional shape more reliably than before.

【0005】また、特開平5−314243号公報に開
示の「3次元形状復元方法」は、三次元復元処理をおこ
なう2枚の画像を得るために、まずカメラを物体に向け
た状態で1枚目の画像を撮影し、つぎにカメラを移動し
てカメラの向きを物体の方に向け直して2枚目の画像を
撮影する方法である。特に、この方法は、カメラの移動
距離と回転角の数値を三次元復元処理で利用すること
で、カメラの移動のみで回転をともなわない従来の撮影
方法よりも、正確な三次元復元を実現するものである。
[0005] In addition, a "three-dimensional shape restoration method" disclosed in Japanese Patent Laid-Open No. 5-314243 discloses a method for obtaining two images on which a three-dimensional restoration process is performed. This is a method in which an image of an eye is taken, and then the camera is moved, and the direction of the camera is redirected toward the object to take a second image. In particular, this method realizes more accurate three-dimensional reconstruction than the conventional imaging method that uses only the movement of the camera and does not rotate by using the numerical values of the movement distance and the rotation angle of the camera in the three-dimensional reconstruction processing. Things.

【0006】また、特開平6−102027号公報に開
示の「3次元形状復元方法」は、上記した特開平5−1
49727号公報および特開平5−314243号公報
に開示された方法のように、三次元復元に使用する画像
を取得するためにカメラを移動する際に、そのカメラの
移動により画像の輝度情報等の特徴量の変化が最も大き
くなる方向を検出し、その方向にカメラを移動すること
で、従来よりも正確に三次元形状を求めるものである。
The "three-dimensional shape restoration method" disclosed in Japanese Patent Application Laid-Open No. 6-102027 is disclosed in
When a camera is moved to obtain an image to be used for three-dimensional reconstruction as in the method disclosed in Japanese Patent No. 49727 and Japanese Patent Laid-Open No. 5-314243, luminance information of the image is obtained by moving the camera. By detecting the direction in which the change in the feature amount is greatest and moving the camera in that direction, the three-dimensional shape is obtained more accurately than in the past.

【0007】また、特開平10−93954号公報に開
示の「物体検知方法及びシステム」は、レール上を移動
するカメラによって異なる時刻に撮影された2枚の画像
を取得し、取得した2枚の画像を用いてカメラから画像
中の物体までの距離を計測して(三次元形状の推定に類
似)、常設物体以外の物体を検知するものである。
[0007] Further, the "object detection method and system" disclosed in Japanese Patent Application Laid-open No. Hei 10-93954 acquires two images taken at different times by a camera moving on a rail, and acquires the two acquired images. It measures the distance from the camera to the object in the image using the image (similar to estimation of a three-dimensional shape), and detects objects other than the permanent object.

【0008】また、特開平10−239054号公報に
開示の「視点・物点位置計測方法及び装置」は、被写体
についての1組のステレオ画像(相対位置が既知である
2つのカメラから撮影した2枚の画像)と複数の画像を
用いて、被写体の三次元形状を計測するものである。
[0008] Further, a "viewpoint / object point position measuring method and apparatus" disclosed in Japanese Patent Application Laid-Open No. 10-239054 discloses a set of stereo images of a subject (a pair of stereo images taken from two cameras whose relative positions are known). The three-dimensional shape of the subject is measured by using a plurality of images).

【0009】また、上述した特許公報に開示の技術以外
にも、ビデオカメラによって撮影した映像を入力して、
被写体の三次元形状を出力することのできるソフトウェ
アが各種提供されている。例えば、オージス総研(株)
提供の製品「VirtualGAIA」は、家庭用ビデ
オカメラで撮影した画像やデジタルカメラ等でコマ撮り
した画像から、三次元形状を復元することができる。特
に、この「Virtual GAIA」は、被写体の周
囲を旋回するようにビデオカメラを移動しながら被写体
を撮影したビデオ映像をデジタル入力し、三次元形状の
データをVRML(Virtual Reality
Modeling Language)形式で出力する
ことができる。
[0009] In addition to the technology disclosed in the above-mentioned patent publication, a video taken by a video camera is input,
Various software capable of outputting a three-dimensional shape of a subject are provided. For example, OGIS-RI
The provided product "VirtualGAIA" can restore a three-dimensional shape from images taken with a home video camera or frames taken with a digital camera or the like. In particular, this “Virtual GAIA” digitally inputs a video image of a subject while moving a video camera so as to turn around the subject, and converts three-dimensional data into VRML (Virtual Reality).
(Modeling Language) format.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上述し
た特許公報に開示の従来技術では、カメラの位置や移動
速度などが既知であるような特定の条件下での撮影を対
象としており、撮影状況が不定である普通のビデオ映像
を利用することができないという問題があった。特に近
年、家庭でも利用できるような安価で操作の容易なビデ
オカメラが販売されており、ビデオ映像、すなわち連続
的に撮影された複数の実写静止画像が誰でも容易に得ら
れるようになった背景を考えると、被写体の三次元形状
の計測を上述した従来技術で充足することは困難であ
る。
However, the prior art disclosed in the above-mentioned patent publication is intended for shooting under specific conditions where the position and moving speed of the camera are known, and the shooting situation is There has been a problem that it is not possible to use an indefinite ordinary video image. In particular, in recent years, inexpensive and easy-to-operate video cameras that can be used even at home have been sold, and video images, that is, a plurality of continuously photographed still images that have been continuously shot can be easily obtained by anyone. In consideration of the above, it is difficult to satisfy the measurement of the three-dimensional shape of the subject with the above-described conventional technology.

【0011】また、上記したソフトウェア製品「Vir
tual GAIA」は、家庭で撮影したビデオ映像を
利用することができるが、撮影時のカメラ移動が滑らか
におこなわれているという条件を要求しており、ビデオ
映像中に、カメラが静止したり、パンまたはチルトだけ
がおこなわれたり、カメラが大きく移動されているよう
な部分があってはならないという制限があった。
Further, the above-mentioned software product “Vir
Tual GAIA "can use video images shot at home, but requires that the camera be moved smoothly during shooting. There was a restriction that only panning or tilting should not be performed, and there should be no part where the camera is moved greatly.

【0012】本発明は上記問題点を解決するためになさ
れたもので、カメラが静止したり、パンまたはチルトだ
けがおこなわれたり、カメラが大きく移動されているよ
うな部分のあるビデオ映像に対しても、被写体の三次元
形状の算出を可能にするとともに、その三次元形状を用
いて、ビデオ映像から取り出した二次元静止画に対応す
る奥行き画像を生成することが可能な奥行き画像生成装
置および奥行き画像生成方法を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and is intended for video images having portions where the camera is stationary, only panning or tilting is performed, or the camera is largely moved. Also, a depth image generating apparatus capable of calculating a three-dimensional shape of a subject and using the three-dimensional shape to generate a depth image corresponding to a two-dimensional still image extracted from a video image, and An object is to obtain a depth image generation method.

【0013】[0013]

【課題を解決するための手段】上述した課題を解決し、
目的を達成するため、この発明にかかる奥行き画像生成
装置にあっては、カメラによって撮影された動画像を記
憶する動画像記憶手段と、前記動画像記憶手段に記憶さ
れた動画像から第1の二次元静止画を取り出す静止画取
得手段と、前記静止画取得手段によって取り出された二
次元静止画に基づいて、前記動画像記憶手段に記憶され
た動画像から前記第1の二次元静止画とは異なる第2の
二次元静止画を選択して取り出す静止画選択手段と、前
記第1および第2の二次元静止画に基づいて、被写体を
形成するピクセルに当該被写体とカメラとの距離を対応
付けて構成した奥行き画像を演算する奥行き画像演算手
段と、を備えたことを特徴とする。
Means for Solving the Problems The above-mentioned problems are solved,
In order to achieve the object, in the depth image generation device according to the present invention, a moving image storage means for storing a moving image photographed by a camera, and a first moving image stored in the moving image storage means. A still image acquisition unit for extracting a two-dimensional still image; and a first two-dimensional still image from a moving image stored in the moving image storage unit based on the two-dimensional still image extracted by the still image acquisition unit. Corresponds to a still image selecting means for selecting and extracting a different second two-dimensional still image, and, based on the first and second two-dimensional still images, corresponding to a distance between the subject and the camera to a pixel forming the subject And a depth image calculation means for calculating a depth image.

【0014】この発明によれば、動画像を動画像記憶手
段に記憶し、静止画取得手段が動画像記憶手段から動画
像を構成する第1の二次元静止画を取り出し、静止画選
択手段がその第1の二次元静止画に対して、例えば時間
的に前後する第2の二次元静止画を動画像記憶手段から
取り出して、奥行き画像演算手段がこれら第1および第
2の二次元静止画の各ピクセルに対して被写体上の領域
とカメラとの距離を関連付けることにより奥行き画像を
生成するので、被写体の三次元形状情報および奥行き画
像を得ることができる。
According to the present invention, the moving image is stored in the moving image storing means, the still image obtaining means takes out the first two-dimensional still image constituting the moving image from the moving image storing means, and the still image selecting means stores the first two-dimensional still image. For example, a second two-dimensional still image that is temporally before or after the first two-dimensional still image is extracted from the moving image storage unit, and the depth image calculation unit outputs the first and second two-dimensional still images. Since the depth image is generated by associating the distance between the area on the subject and the camera with each pixel of the above, three-dimensional shape information and the depth image of the subject can be obtained.

【0015】つぎの発明にかかる奥行き画像生成装置に
あっては、上記発明において、前記静止画選択手段が、
前記第2の二次元静止画として、前記第1の二次元静止
画との視差が所定の大きさとなる二次元静止画を選択す
ることを特徴とする。
[0015] In the depth image generating apparatus according to the next invention, in the above-mentioned invention, the still image selection means may include:
As the second two-dimensional still image, a two-dimensional still image having a predetermined parallax with the first two-dimensional still image is selected.

【0016】この発明によれば、静止画選択手段が、奥
行き画像演算手段において十分に正確な奥行き画像が演
算されるための視差を考慮して、第2の二次元静止画を
選択するので、奥行き画像演算手段は、正確な奥行き画
像を生成することができる。
According to the present invention, the still image selecting means selects the second two-dimensional still image in consideration of the parallax for the depth image calculating means to calculate a sufficiently accurate depth image. The depth image calculation means can generate an accurate depth image.

【0017】つぎの発明にかかる奥行き画像生成装置に
あっては、上記発明において、前記奥行き画像演算手段
が、前記第1および第2の二次元静止画のそれぞれが撮
影されたときのカメラの位置または向きを算出し、前記
静止画選択手段が、前記奥行き画像演算手段において算
出されたカメラの位置または向きに基づいて、前記第2
の二次元静止画を再選択することを特徴とする。
In the depth image generating apparatus according to the next invention, in the above-mentioned invention, the depth image calculation means may include a position of the camera when each of the first and second two-dimensional still images is photographed. Alternatively, the orientation is calculated, and the still image selection unit performs the second image processing based on the position or orientation of the camera calculated by the depth image calculation unit.
Is re-selected.

【0018】この発明によれば、静止画選択手段が、仮
選択された第2の二次元静止画に対して奥行き画像演算
手段により得られたカメラの位置または向きに基づい
て、第2の二次元静止画を再選択するので、奥行き画像
演算手段は、この再選択された第2の二次元静止画に基
づいて奥行き画像を生成することができる。
According to the present invention, the still image selecting means sets the second two-dimensional still image based on the position or orientation of the camera obtained by the depth image calculating means with respect to the temporarily selected second two-dimensional still image. Since the two-dimensional still image is reselected, the depth image calculation unit can generate a depth image based on the reselected second two-dimensional still image.

【0019】つぎの発明にかかる奥行き画像生成装置に
あっては、上記発明において、前記奥行き画像演算手段
が、前記第1および第2の二次元静止画のそれぞれが撮
影されたときのカメラの位置および向きを算出し、前記
静止画選択手段が、前記奥行き画像演算手段において算
出されたカメラの位置および向きに基づいて、前記第2
の二次元静止画を再選択することを特徴とする。
In the depth image generating apparatus according to the next invention, in the above-mentioned invention, the depth image calculation means may include a camera position when each of the first and second two-dimensional still images is photographed. And the orientation, and the still image selection unit calculates the second image based on the camera position and orientation calculated by the depth image calculation unit.
Is re-selected.

【0020】この発明によれば、静止画選択手段が、仮
選択された第2の二次元静止画に対して奥行き画像演算
手段により得られたカメラの位置および向きに基づい
て、第2の二次元静止画を再選択するので、奥行き画像
演算手段は、この再選択された第2の二次元静止画に基
づいて奥行き画像を生成することができる。
According to the present invention, the still image selecting means sets the second two-dimensional still image based on the position and orientation of the camera obtained by the depth image calculating means with respect to the temporarily selected second two-dimensional still image. Since the two-dimensional still image is reselected, the depth image calculation unit can generate a depth image based on the reselected second two-dimensional still image.

【0021】つぎの発明にかかる奥行き画像生成装置に
あっては、上記発明において、前記奥行き画像演算手段
によって生成された奥行き画像を記憶する奥行き画像記
憶手段と、前記奥行き画像記憶手段に記憶された奥行き
画像をつなぎ合わせて奥行き動画像を生成する奥行き動
画像生成手段と、を備えたことを特徴とする。
In the depth image generating apparatus according to the next invention, in the above invention, the depth image storage means for storing the depth image generated by the depth image calculation means and the depth image storage means. Depth moving image generating means for generating a depth moving image by connecting the depth images.

【0022】この発明によれば、さらに、奥行き画像演
算手段によって生成された奥行き画像を記憶する奥行き
画像記憶手段と、奥行き画像記憶手段に記憶された奥行
き画像をつなげて動画像を生成する奥行き動画像生成手
段と、を備えているので、奥行き動画像データを得るこ
とが可能になる。
According to the invention, furthermore, a depth image storage means for storing the depth image generated by the depth image calculation means, and a depth moving image for generating a moving image by connecting the depth images stored in the depth image storage means. Image generating means, it is possible to obtain depth moving image data.

【0023】つぎの発明にかかる奥行き画像生成方法に
あっては、カメラによって撮影された動画像を記憶する
動画像記憶工程と、前記動画像記憶工程によって記憶さ
れた動画像から第1の二次元静止画を取り出す静止画取
得工程と、前記静止画取得工程によって取り出された二
次元静止画に基づいて、前記動画像記憶工程によって記
憶された動画像から前記第1の二次元静止画とは異なる
第2の二次元静止画を選択して取り出す静止画選択工程
と、前記第1および第2の二次元静止画に基づいて、被
写体を形成するピクセルに当該被写体とカメラとの距離
を対応付けて構成した奥行き画像を演算する奥行き画像
演算工程と、を含んだことを特徴とする。
In the depth image generating method according to the next invention, a moving image storing step of storing a moving image photographed by a camera, and a first two-dimensional image based on the moving image stored in the moving image storing step. The first two-dimensional still image is different from the moving image stored in the moving image storing step based on the still image obtaining step of extracting a still image and the two-dimensional still image extracted in the still image obtaining step A still image selecting step of selecting and extracting a second two-dimensional still image, and associating a pixel forming the subject with a distance between the subject and the camera based on the first and second two-dimensional still images. And a depth image calculation step of calculating the configured depth image.

【0024】この発明によれば、動画像を記憶し、記憶
された動画像を構成する第1の二次元静止画を取り出
し、その第1の二次元静止画に対して、例えば時間的に
前後する第2の二次元静止画を上記動画像から取り出し
て、これら第1および第2の二次元静止画の各ピクセル
に対して被写体上の領域とカメラとの距離を関連付ける
ことにより奥行き画像を生成するので、被写体の三次元
形状情報および奥行き画像を得ることができる。
According to the present invention, a moving image is stored, the first two-dimensional still image constituting the stored moving image is taken out, and the first two-dimensional still image is, for example, temporally back and forth. A second two-dimensional still image to be extracted is extracted from the moving image, and a depth image is generated by associating each pixel of the first and second two-dimensional still images with the distance between the region on the subject and the camera. Therefore, three-dimensional shape information and a depth image of the subject can be obtained.

【0025】つぎの発明にかかる奥行き画像生成方法に
あっては、上記発明において、前記静止画選択工程が、
前記第2の二次元静止画として、前記第1の二次元静止
画との視差が所定の大きさとなる二次元静止画を選択す
ることを特徴とする。
In a depth image generating method according to the next invention, in the above-mentioned invention, the still image selecting step includes:
As the second two-dimensional still image, a two-dimensional still image having a predetermined parallax with the first two-dimensional still image is selected.

【0026】この発明によれば、十分に正確な奥行き画
像が演算されるための視差を考慮して、第2の二次元静
止画を選択するので、奥行き画像演算工程において、正
確な奥行き画像を生成することができる。
According to the present invention, the second two-dimensional still image is selected in consideration of the parallax for calculating a sufficiently accurate depth image. Therefore, in the depth image calculation step, an accurate depth image is calculated. Can be generated.

【0027】つぎの発明にかかる奥行き画像生成方法に
あっては、上記発明において、前記奥行き画像演算工程
が、さらに前記第1および第2の二次元静止画のそれぞ
れが撮影されたときのカメラの位置または向きを算出
し、前記静止画選択工程が、前記奥行き画像演算工程に
よって算出されたカメラの位置または向きに基づいて、
前記第2の二次元静止画を再選択することを特徴とす
る。
[0027] In the depth image generating method according to the next invention, in the above invention, the depth image calculation step further includes the step of calculating a depth of the camera when each of the first and second two-dimensional still images is photographed. Calculate the position or orientation, the still image selection step, based on the position or orientation of the camera calculated by the depth image calculation step,
The second two-dimensional still image is reselected.

【0028】この発明によれば、仮選択された第2の二
次元静止画に対して奥行き画像工程により得られたカメ
ラの位置または向きに基づいて、第2の二次元静止画を
再選択するので、この再選択された第2の二次元静止画
に基づいて奥行き画像を生成することができる。
According to the present invention, the second two-dimensional still image is reselected based on the position or orientation of the camera obtained in the depth image process for the temporarily selected second two-dimensional still image. Therefore, a depth image can be generated based on the reselected second two-dimensional still image.

【0029】つぎの発明にかかる奥行き画像生成方法に
あっては、上記発明において、前記奥行き画像演算工程
が、さらに前記第1および第2の二次元静止画のそれぞ
れが撮影されたときのカメラの位置および向きを算出
し、前記静止画選択工程が、前記奥行き画像演算工程に
よって算出されたカメラの位置および向きに基づいて、
前記第2の二次元静止画を再選択することを特徴とす
る。
[0029] In the depth image generating method according to the next invention, in the above invention, the depth image calculation step further includes the step of calculating a depth of the camera when each of the first and second two-dimensional still images is photographed. Calculate the position and orientation, the still image selection step, based on the position and orientation of the camera calculated by the depth image calculation step,
The second two-dimensional still image is reselected.

【0030】この発明によれば、仮選択された第2の二
次元静止画に対して奥行き画像工程により得られたカメ
ラの位置および向きに基づいて、第2の二次元静止画を
再選択するので、この再選択された第2の二次元静止画
に基づいて奥行き画像を生成することができる。
According to the present invention, the second two-dimensional still image is reselected based on the position and orientation of the camera obtained by the depth image process for the temporarily selected second two-dimensional still image. Therefore, a depth image can be generated based on the reselected second two-dimensional still image.

【0031】つぎの発明にかかる奥行き画像生成方法に
あっては、上記発明において、前記奥行き画像演算工程
によって生成された奥行き画像を記憶する奥行き画像記
憶工程と、前記奥行き画像記憶工程によって記憶された
奥行き画像をつなぎ合わせて奥行き動画像を生成する奥
行き動画像生成工程と、を含んだことを特徴とする。
In the depth image generating method according to the next invention, in the above invention, a depth image storing step of storing the depth image generated by the depth image calculating step and a depth image storing step of storing the depth image are stored by the depth image storing step. A depth moving image generating step of generating a depth moving image by connecting the depth images.

【0032】この発明によれば、さらに、奥行き画像演
算工程によって生成された奥行き画像を記憶し、記憶さ
れた奥行き画像をつなげて動画像を生成するので、奥行
き動画像データを得ることが可能になる。
According to the present invention, since the depth image generated in the depth image calculation step is stored and the stored depth images are connected to generate a moving image, it is possible to obtain depth moving image data. Become.

【0033】つぎの発明にかかるコンピュータ読み取り
可能な記録媒体にあっては、上記奥行き画像生成方法を
コンピュータに実行させるプログラムを記録したこと
で、そのプログラムをコンピュータ読み取り可能とな
り、これによって、上記奥行き画像生成方法の動作をコ
ンピュータによって実現することが可能である。
In a computer-readable recording medium according to the next invention, a program for causing a computer to execute the above-described depth image generating method is recorded, so that the program becomes computer-readable. The operation of the generation method can be realized by a computer.

【0034】[0034]

【発明の実施の形態】以下に、この発明にかかる奥行き
画像生成装置および奥行き画像生成方法の実施の形態を
図面に基づいて詳細に説明する。なお、この実施の形態
によりこの発明が限定されるものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a depth image generating apparatus and a depth image generating method according to the present invention will be described below in detail with reference to the drawings. The present invention is not limited by the embodiment.

【0035】実施の形態1.まず、実施の形態1にかか
る奥行き画像生成装置および奥行き画像生成方法につい
て説明する。図1は、実施の形態1にかかる奥行き画像
生成装置の概略構成を示すブロック図である。図1にお
いて、奥行き画像生成装置10は、ビデオカメラ撮影に
よって生成された動画像データを入力して記憶する動画
像記憶部12と、動画像記憶部12に記憶された動画像
データのうちその動画像データを構成する一つのコマ
(画像フレーム)に着目してそれを静止画として取得す
る静止画取得部14と、静止画取得部14において取得
されたコマに基づいて他のコマを動画像記憶部12から
選択して静止画として取得する静止画選択部16と、静
止画取得部14および静止画選択部16においてそれぞ
れ取得された静止画から奥行き画像を演算して生成する
奥行き画像演算部18と、を備えて構成される。
Embodiment 1 First, a depth image generation device and a depth image generation method according to the first embodiment will be described. FIG. 1 is a block diagram illustrating a schematic configuration of the depth image generation device according to the first embodiment. In FIG. 1, a depth image generating apparatus 10 includes a moving image storage unit 12 that inputs and stores moving image data generated by video camera shooting, and a moving image data of the moving image data stored in the moving image storage unit 12. A still image acquisition unit 14 that focuses on one frame (image frame) constituting image data and acquires it as a still image, and stores another frame based on the frame acquired by the still image acquisition unit 14 as a moving image A still image selecting unit 16 that selects from the unit 12 and obtains a still image, and a depth image calculating unit 18 that calculates and generates a depth image from the still images obtained by the still image obtaining unit 14 and the still image selecting unit 16, respectively. And is provided.

【0036】なお、この奥行き画像生成装置10は、コ
ンピュータによって代替することもできる。すなわち、
上記した動画像記憶部12をコンピュータ上のRAM
(Rondom Access Memory)や磁気
ディスク記憶装置によって実現し、静止画取得部14、
静止画選択部16および奥行き画像演算部18によって
実行される処理をそれぞれコンピュータプログラムで実
現することもできる。
The depth image generating device 10 can be replaced by a computer. That is,
The moving image storage unit 12 described above is stored in a RAM on a computer.
(Random Access Memory) or a magnetic disk storage device.
The processes executed by the still image selection unit 16 and the depth image calculation unit 18 can also be realized by computer programs.

【0037】つぎに、実施の形態1にかかる奥行き画像
生成装置の動作について説明する。図2は、直方体形状
の被写体201をビデオカメラ202で撮影する場合の
撮影状態を表した説明図である。図2に示すように、ビ
デオカメラ202は、被写体201の正面に対して、ほ
ぼ垂直方向にカメラを向けた状態で撮影しつつ、点線に
示すように移動するものとする。
Next, the operation of the depth image generating apparatus according to the first embodiment will be described. FIG. 2 is an explanatory diagram illustrating a shooting state when the video camera 202 shoots an object 201 having a rectangular parallelepiped shape. As illustrated in FIG. 2, the video camera 202 moves as indicated by a dotted line while capturing an image with the camera directed substantially vertically to the front of the subject 201.

【0038】また、図3は、図2に示した撮影状態を上
方からみた場合の説明図である。図3に示すように、ビ
デオカメラ202は、地点p1〜p12上に示した矢印
方向にカメラを向け、かつ地点p1〜p12で結ばれる
点線上を移動するものとする。特にここでは、ビデオカ
メラ202が各地点p1〜p12を撮影位置として撮影
がおこなわれたものとする。すなわち、全部で12枚の
コマが撮影されることになる。また、図3においては、
地点p1、p2、p4、p6およびp12において撮影
されたコマの内容が、それぞれコマ301、302、3
03、304および305として示されている。以下の
説明においては、便宜上、地点piで撮影されたコマの
ことを、コマpiと呼ぶ。
FIG. 3 is an explanatory diagram when the photographing state shown in FIG. 2 is viewed from above. As shown in FIG. 3, it is assumed that the video camera 202 points the camera in the direction of the arrow shown on the points p1 to p12 and moves on a dotted line connecting the points p1 to p12. In particular, here, it is assumed that the video camera 202 has taken a picture with each of the points p1 to p12 as a photographing position. That is, a total of 12 frames are photographed. In FIG. 3,
The contents of the frames shot at the points p1, p2, p4, p6 and p12 are the frames 301, 302 and 3 respectively.
03, 304 and 305. In the following description, for convenience, a frame shot at the point pi is referred to as a frame pi.

【0039】このように撮影されたコマp1〜p12に
より構成される動画像は、動画像記憶部12に記憶され
る。そして、静止画取得部14は、この動画像記憶部1
2から、例えばコマp4を取得してこのコマに対応する
静止画を出力し、また静止画選択部16は、動画像記憶
部12からコマp4の前後2コマ目、すなわちコマp2
およびコマp6を選択してこれらのコマに対応する静止
画を出力する。
The moving image composed of the frames p1 to p12 thus photographed is stored in the moving image storage unit 12. Then, the still image acquisition unit 14 transmits the moving image storage unit 1
For example, frame p4 is obtained from frame 2 and a still image corresponding to the frame is output, and still image selection unit 16 sends second frame before and after frame p4 from moving image storage unit 12, ie, frame p2.
And a frame p6 are selected to output still images corresponding to these frames.

【0040】静止画取得部14および静止画選択部16
から出力されたコマp4、p2およびp6に相当する3
枚の静止画303、302および304は、奥行き画像
演算部18に入力される。奥行き画像演算部18は、3
枚の静止画303、302および304に基づいて奥行
き画像を生成し、奥行き画像データとして出力する。図
4は、奥行き画像演算部18において生成された奥行き
画像の例を示す図である。図4に奥行き画像は、画像の
1ピクセル毎に、撮影時におけるビデオカメラとの距離
が大きいほど白に、近いほど黒になるような多段階の値
で構成されている。すなわち、図4の例では、被写体2
01のビデオカメラに向き合う面については距離が小さ
く、それ以外の面は徐々に距離が大きくなっていること
が示されている。
Still picture acquisition section 14 and still picture selection section 16
Corresponding to the frames p4, p2 and p6 output from
The still images 303, 302, and 304 are input to the depth image calculation unit 18. The depth image calculation unit 18
A depth image is generated based on the still images 303, 302, and 304 and output as depth image data. FIG. 4 is a diagram illustrating an example of a depth image generated by the depth image calculation unit 18. In FIG. 4, the depth image is composed of multi-level values for each pixel of the image such that the distance from the video camera at the time of shooting is whiter and the closer the distance to the video camera is black. That is, in the example of FIG.
It is shown that the distance is small for the surface facing the video camera No. 01, and the distance is gradually increased for the other surfaces.

【0041】つぎに、奥行き画像演算部18における処
理について説明する。特にここでは、3枚の静止画を入
力して奥行き画像データを出力するまでの処理について
説明する。図5は、奥行き画像演算部18における処理
を示すフローチャートである。まず、奥行き画像演算部
18では、上記した撮影位置の異なる3枚の静止画のそ
れぞれに対して、特徴点と呼ばれる200〜300程度
のピクセルを抽出する(ステップS101)。特徴点の
抽出とは、静止画を構成するピクセルの色情報に着目
し、周囲のピクセルに比較して大きく異なった色情報を
持つピクセルを自動的に抽出する処理をいう。なお、各
ピクセルは被写体の表面上の1点に相当する。
Next, the processing in the depth image calculation unit 18 will be described. In particular, here, a process from inputting three still images to outputting depth image data will be described. FIG. 5 is a flowchart showing the processing in the depth image calculation unit 18. First, the depth image calculation unit 18 extracts about 200 to 300 pixels called feature points for each of the three still images at different photographing positions (step S101). The feature point extraction refers to a process of paying attention to color information of pixels constituting a still image and automatically extracting pixels having color information greatly different from surrounding pixels. Each pixel corresponds to one point on the surface of the subject.

【0042】図6は、特徴点の抽出を説明するための説
明図である。特徴点は、例えば図6に示すように、コマ
302、303および304内の被写体201、すなわ
ち直方体において、その頂角に位置するピクセルとして
抽出される。
FIG. 6 is an explanatory diagram for explaining extraction of a feature point. As shown in FIG. 6, for example, the feature points are extracted as pixels located at the apex angles of the subject 201 in the frames 302, 303, and 304, that is, the rectangular parallelepiped.

【0043】つぎに、奥行き画像演算部18は、3枚の
静止画ごとに抽出された特徴点同士の対応付けをおこな
う特徴点マッチングと呼ばれる処理をおこなう(ステッ
プS102)。この対応付けは、被写体の表面上の同じ
1点を示している特徴点同士の間でおこなわれる。図7
(a)は、特徴点マッチングを説明するための説明図で
ある。特徴点マッチングでは、図7(a)に示すよう
に、例えば、コマ302、303および304内の被写
体201、すなわち直方体間において、特徴点同士、す
なわち同位置となる頂角のピクセル同士が対応付けられ
る。
Next, the depth image calculation unit 18 performs a process called feature point matching for associating feature points extracted for each of the three still images (step S102). This association is performed between feature points indicating the same one point on the surface of the subject. FIG.
(A) is an explanatory view for explaining feature point matching. In the feature point matching, as shown in FIG. 7A, for example, between the object 201 in the frames 302, 303, and 304, that is, between the rectangular parallelepipeds, the feature points, that is, the pixels at the apex angles at the same position are associated with each other. Can be

【0044】また、この特徴点マッチングにおいては、
同時に、静止画が撮影された際のカメラの位置と向きが
算出される(ステップS102)。図7(b)は、カメ
ラの位置と向きの算出を説明するための説明図である。
カメラの位置は、図7(b)に示すように、例えば、図
3に示した上方からみた撮影位置をXY座標軸上に展開
して特定され、カメラの向きはその座標軸を用いて表わ
されるベクトルとして特定される。
In this feature point matching,
At the same time, the position and orientation of the camera when the still image was captured are calculated (step S102). FIG. 7B is an explanatory diagram for explaining calculation of the position and orientation of the camera.
As shown in FIG. 7B, the position of the camera is specified by, for example, expanding the shooting position viewed from above shown in FIG. 3 on the XY coordinate axes, and the direction of the camera is a vector represented using the coordinate axes. Specified as

【0045】つづいて、奥行き画像演算部18は、ステ
ップS102において求められたカメラの位置と向きと
から三角測量の原理で、カメラから各特徴点までの距離
を算出する(ステップS103)。図8は、カメラから
各特徴点までの距離の算出を説明するための説明図であ
る。カメラの距離は、図8に示すように、図6に示した
特徴点の情報と図7(b)に示したXY座標軸上のカメ
ラ位置の情報とを用いて特定される。
Subsequently, the depth image calculation unit 18 calculates the distance from the camera to each feature point from the camera position and orientation obtained in step S102 based on the principle of triangulation (step S103). FIG. 8 is an explanatory diagram for explaining calculation of the distance from the camera to each feature point. As shown in FIG. 8, the camera distance is specified using the information on the feature points shown in FIG. 6 and the information on the camera position on the XY coordinate axes shown in FIG. 7B.

【0046】そして、奥行き画像演算部18は、特徴点
同士を適当につなぎ合わせて面を構成することで被写体
201の三次元構造を復元し、静止画についての奥行き
情報を得る(ステップS104)。図9は、奥行き画像
の生成を説明するための説明図である。奥行き画像の生
成は、例えば図9に示すように、コマ303に相当する
静止画に対して、特徴点同士のつなぎ合わせにより面を
構成し、被写体の三次元形状を取得するとともに、上記
した特徴点とカメラとの距離から、最終的に図4に説明
したような奥行き画像を演算する。
Then, the depth image calculation unit 18 restores the three-dimensional structure of the subject 201 by appropriately connecting the feature points to form a surface, and obtains depth information about a still image (step S104). FIG. 9 is an explanatory diagram for explaining generation of a depth image. For example, as shown in FIG. 9, a depth image is generated by forming a surface by connecting feature points to a still image corresponding to a frame 303 to obtain a three-dimensional shape of a subject and to obtain the above-described feature. Finally, a depth image as described in FIG. 4 is calculated from the distance between the point and the camera.

【0047】なお、奥行き画像演算部18による奥行き
画像の生成は、本発明における構成手段の一つに過ぎ
ず、同様の処理方法は広く知られているので、処理の詳
細については省略する。奥行き画像の生成を述べた公知
文献として、例えば「P. A. Beardsley, A. Zisserman,
D. W. Murray: "Sequential Updating of Projective
and Affine Structure from Motion", International J
ournal of Computer Vision, 23(3), pp235-259, 199
7」がある。
The generation of the depth image by the depth image calculation unit 18 is only one of the constituent means in the present invention, and the same processing method is widely known, so that the details of the processing will be omitted. Known literature describing the generation of depth images, for example, "PA Beardsley, A. Zisserman,
DW Murray: "Sequential Updating of Projective
and Affine Structure from Motion ", International J
ournal of Computer Vision, 23 (3), pp235-259, 199
There is 7 ".

【0048】この奥行き画像の生成において要求される
ことは、互いに適当な視差のある3枚の静止画が入力さ
れることである。なお、視差とは、三次元構造物体をカ
メラ撮影する際に、カメラの撮影位置が異なることによ
って生じる、画像間の差異のことである。例えば、図3
に示した例では、カメラの位置はすべてのコマにおいて
異なっているので、地点p1〜p12のすべてのコマの
間には視差が生じている。
What is required in the generation of the depth image is that three still images having an appropriate parallax are input. The parallax refers to a difference between images caused by different photographing positions of a camera when photographing a three-dimensional structural object with a camera. For example, FIG.
In the example shown in (1), since the position of the camera is different in every frame, parallax occurs between all the frames at the points p1 to p12.

【0049】しかしながら、上記した公知の奥行き画像
の生成処理において正確な奥行き画像を得るには、視差
は、大きすぎても小さすぎても良くない。これは、視差
が大きすぎる場合は、画像間の差異が大きくなるために
抽出される特徴点の相違も大きくなり、特徴点の対応付
けが成功しない場合が多く発生するようになるからであ
る。一方、視差が小さすぎる場合は、カメラから、対応
付けされた特徴点と対応する被写体上の1点までの距離
を三角測量の原理によって計算する際の計算誤差が大き
くなってしまうからである。
However, in order to obtain an accurate depth image in the above-described known depth image generation processing, the parallax may not be too large or too small. This is because, if the parallax is too large, the difference between the images becomes large, so that the difference between the extracted feature points also becomes large, and the association of the feature points is often unsuccessful. On the other hand, if the parallax is too small, the calculation error when calculating the distance from the camera to one point on the subject corresponding to the associated feature point by the principle of triangulation increases.

【0050】このため、実施の形態1にかかる奥行き画
像生成装置および奥行き画像生成方法では、図3におい
て、例えば地点p4のコマについて奥行き画像を演算す
るために選択すべきコマは、視差の小さすぎる地点p3
またはp5ではなく、また視差の大きすぎる地点p1、
p7〜p12ではなく、地点p2およびp6としてい
る。
For this reason, in the depth image generating apparatus and the depth image generating method according to the first embodiment, in FIG. 3, for example, the frame to be selected for calculating the depth image for the frame at the point p4 has too small parallax. Point p3
Or not p5, and the point p1, where the parallax is too large,
Instead of p7 to p12, points p2 and p6 are set.

【0051】以上に説明したとおり、実施の形態1にか
かる奥行き画像生成装置および奥行き画像生成方法によ
れば、動画像データを動画像記憶部12に記憶し、静止
画取得部14が動画像記憶部12から動画像データを構
成する一つの静止画(コマ)を取り出し、静止画選択部
16がその静止画に対して時間的に前後する静止画を動
画像記憶部12からさらに取り出して、奥行き画像演算
部18がこれら二次元の静止画の各ピクセルに対して被
写体上の領域とカメラとの距離を関連付けることにより
奥行き画像を生成するので、ソースとなる動画像データ
に対してカメラの移動速度や移動形態等の撮影条件を要
求することなく、被写体の三次元形状情報および奥行き
画像を正確に得ることができる。
As described above, according to the depth image generating apparatus and the depth image generating method according to the first embodiment, the moving image data is stored in the moving image storage unit 12, and the still image acquisition unit 14 stores the moving image data. One still image (frame) constituting the moving image data is extracted from the unit 12, and the still image selecting unit 16 further extracts a still image temporally before or after the still image from the moving image storage unit 12, and Since the image calculation unit 18 generates a depth image by associating each pixel of the two-dimensional still image with the distance between the region on the subject and the camera, the moving speed of the camera with respect to the source moving image data It is possible to accurately obtain three-dimensional shape information and a depth image of a subject without requiring shooting conditions such as a moving mode and a moving mode.

【0052】また、静止画選択部16が、奥行き画像演
算部18において十分に正確な奥行き画像が演算される
ための視差を考慮して、動画像記憶部12から静止画を
取り出すので、最終的に得られた奥行き画像の精確性を
向上させることができる。
Further, the still image selecting unit 16 extracts the still image from the moving image storage unit 12 in consideration of the parallax for the depth image calculating unit 18 to calculate a sufficiently accurate depth image. The accuracy of the obtained depth image can be improved.

【0053】なお、以上に説明した実施の形態1におい
ては、奥行き画像演算部18に入力する静止画の枚数を
3枚としたが、2枚とした場合でも上記同様の作用およ
び効果を享受することができる。
In the first embodiment described above, the number of still images input to the depth image calculation unit 18 is three. However, even when the number of still images is two, the same operation and effect as described above can be enjoyed. be able to.

【0054】実施の形態2.つぎに、実施の形態2にか
かる奥行き画像生成装置および奥行き画像生成方法につ
いて説明する。実施の形態2にかかる奥行き画像生成装
置および奥行き画像生成方法は、静止画選択部16が奥
行き画像演算部18による演算結果に基づいて静止画を
再選択することを特徴としている。他の構成および動作
は実施の形態1と同様である。
Embodiment 2 Next, a depth image generation device and a depth image generation method according to the second embodiment will be described. The depth image generation device and the depth image generation method according to the second embodiment are characterized in that the still image selection unit 16 reselects a still image based on the calculation result by the depth image calculation unit 18. Other configurations and operations are the same as those of the first embodiment.

【0055】図10は、実施の形態2にかかる奥行き画
像生成装置の概略構成を示すブロック図である。なお、
図10において、図1と共通する部分には同一の符号を
付してその説明を省略する。図10に示す奥行き画像生
成装置20において、図1と異なる点は、静止画選択部
16と奥行き画像演算部18との間でデータの送受信を
おこなう点である。
FIG. 10 is a block diagram showing a schematic configuration of the depth image generating apparatus according to the second embodiment. In addition,
In FIG. 10, portions common to FIG. 1 are denoted by the same reference numerals and description thereof is omitted. The depth image generation device 20 shown in FIG. 10 differs from FIG. 1 in that data is transmitted and received between the still image selection unit 16 and the depth image calculation unit 18.

【0056】図11は、直方体形状の被写体201を撮
影したときのビデオカメラ202の撮影状態を説明する
ための説明図である。図3に示した例では、ビデオカメ
ラ202は、向きを固定にしてほぼ等距離で向かって左
から右へ移動していたが、図11に示す例では、ビデオ
カメラ202の移動の速度/移動方向/向きが一定では
ない例が示されている。一般に、ユーザがビデオカメラ
を使って被写体を撮影するときの撮影状態は、図11に
示すような状態であると考えられる。
FIG. 11 is an explanatory diagram for explaining a photographing state of the video camera 202 when photographing an object 201 having a rectangular parallelepiped shape. In the example shown in FIG. 3, the video camera 202 moves from left to right at substantially the same distance with the orientation fixed, but in the example shown in FIG. An example where the direction / orientation is not constant is shown. In general, a shooting state when a user shoots a subject using a video camera is considered to be a state as shown in FIG.

【0057】実施の形態2にかかる奥行き画像生成装置
20では、まず、実施の形態1でおこなったように、静
止画選択部16が、静止画取得部14において取得され
た動画像のコマ、すなわち静止画から前後2コマ目を、
動画像記憶部12から取得して静止画として出力する。
例えば、図11において、コマp3を静止画取得部14
が取得したとすると、静止画選択部16は、コマp1お
よびコマp5を選択して静止画として出力する。
In the depth image generation device 20 according to the second embodiment, first, as in the first embodiment, the still image selection unit 16 determines the frame of the moving image acquired by the still image acquisition unit 14, The second frame before and after the still image,
It is obtained from the moving image storage unit 12 and output as a still image.
For example, in FIG.
Is obtained, the still image selection unit 16 selects the frames p1 and p5 and outputs them as a still image.

【0058】同様に、静止画取得部14がコマp4また
はコマp5を選択した場合にも、静止画選択部16は、
奥行き画像演算部18の処理に適した適当な視差のある
静止画を出力することができる。
Similarly, even when the still image obtaining unit 14 selects the frame p4 or the frame p5, the still image selecting unit 16
A still image having an appropriate parallax suitable for the processing of the depth image calculation unit 18 can be output.

【0059】しかしながら、図11においてコマp7の
2コマ前のコマp5と2コマ後のコマp9とでは、撮影
時間間隔が異なるため、このコマp7が静止画取得部1
4によって取得された場合、静止画選択部16が実施の
形態1に説明した方法でコマを選択したとしても、適当
な視差を持つ静止画を出力することができなくなる。
However, in FIG. 11, the photographing time interval is different between the frame p5 two frames before the frame p7 and the frame p9 two frames after the frame p7.
4, even if the still image selection unit 16 selects a frame by the method described in the first embodiment, a still image having an appropriate parallax cannot be output.

【0060】すなわち、実施の形態1に基づく静止画選
択部16における静止画の選択方法によれば、コマp7
に対してはコマp5およびコマp9が選択されるが、こ
のときp7〜p11の区間におけるビデオカメラ202
の移動速度が小さいので、コマp7に対してコマp9は
視差が小さすぎて適当でない。図11に示す例では、コ
マp7に対しては、コマp9の代わりにコマp11を選
択することがより適している。
That is, according to the still image selecting method in the still image selecting section 16 based on the first embodiment, the frame p7
Are selected, the frames p5 and p9 are selected. At this time, the video camera 202 in the section from p7 to p11
Since the moving speed of the frame p is low, the frame p9 is not suitable because the parallax is too small with respect to the frame p7. In the example shown in FIG. 11, for the frame p7, it is more appropriate to select the frame p11 instead of the frame p9.

【0061】また、静止画取得部14によってコマp1
5が取得された場合は、コマp13とコマp17は視差
が大きすぎるので適当でなく、代わりにコマp12およ
びコマp16が選択される必要がある。同様に、コマp
21が取得された場合はコマp18およびp25、コマ
p22が取得された場合はコマp19およびp26が、
それぞれ静止画選択部16によって選択される必要があ
る。
Further, the frame p1 is obtained by the still image acquisition unit 14.
When 5 is acquired, the frames p13 and p17 are not appropriate because the parallax is too large, and the frames p12 and p16 must be selected instead. Similarly, p
When frame 21 is obtained, frames p18 and p25 are obtained. When frame p22 is obtained, frames p19 and p26 are obtained.
Each must be selected by the still image selection unit 16.

【0062】そこで、実施の形態2においては、適当な
視差のある静止画を得るための第1の条件として、静止
画取得部14によって取得された静止画が撮影されたと
きのビデオカメラ202の位置と、静止画選択部16に
よって選択された静止画が撮影されたときのビデオカメ
ラ202の位置との間の距離を考える。図12は、実施
の形態2にかかる奥行き画像生成装置において、上記第
1の条件、すなわちカメラ位置に基づいて静止画を選択
する処理を示したフローチャートである。
Therefore, in the second embodiment, as a first condition for obtaining a still image having an appropriate parallax, as a first condition, the video camera 202 at the time when the still image acquired by the still image acquiring section 14 is photographed is taken. Consider the distance between the position and the position of the video camera 202 when the still image selected by the still image selection unit 16 is captured. FIG. 12 is a flowchart illustrating a process of selecting a still image based on the first condition, that is, a camera position, in the depth image generation device according to the second embodiment.

【0063】まず、静止画選択部16は、変数iの初期
値を1として(ステップS201)、静止画選択部16
が取得した静止画(コマ)のi個前のコマ、すなわち初
期状態においては1個前の静止画(コマ)を仮選択する
(ステップS202)。なお、この仮選択は、実施の形
態1の静止画選択部16による静止画選択処理に相当す
る。
First, the still image selection unit 16 sets the initial value of the variable i to 1 (step S201), and
Tentatively selects the i-th previous frame of the acquired still image (frame), that is, the immediately preceding still image (frame) in the initial state (step S202). Note that this provisional selection corresponds to a still image selection process by the still image selection unit 16 of the first embodiment.

【0064】そして、この仮選択したコマと、静止画取
得部14が取得した静止画(コマ)は、奥行き画像演算
部18に入力される。これにより、奥行き画像演算部1
8において奥行き画像の演算がおこなわれる際に、それ
ぞれの静止画が撮影されたときのビデオカメラ202の
位置(カメラ間距離)が算出される(ステップS20
3)。静止画選択部16は、奥行き画像演算部18から
上記したカメラ間距離を受け取り、その距離が最小距離
α以上、最大距離β以下であるかどうかを調べる(ステ
ップS204)。なお、この距離は小さすぎても大きす
ぎても良くないので、最小距離αおよび最大距離βは経
験的な値として定めるものとする。
The temporarily selected frame and the still image (frame) acquired by the still image acquiring unit 14 are input to the depth image calculating unit 18. Thereby, the depth image calculation unit 1
8, when the depth image is calculated, the position (inter-camera distance) of the video camera 202 when each still image is captured is calculated (step S20).
3). The still image selection unit 16 receives the inter-camera distance from the depth image calculation unit 18 and checks whether the distance is equal to or greater than the minimum distance α and equal to or less than the maximum distance β (step S204). Since this distance may not be too small or too large, the minimum distance α and the maximum distance β are determined as empirical values.

【0065】ステップS204において、カメラ間距離
が最小距離α以上かつ最大距離β以下である場合は、静
止画取得部14が取得した静止画(コマ)からi個前の
コマ、すなわちステップS202において仮選択された
静止画(コマ)を、あらためて奥行き画像演算部18に
入力する(ステップS205)。ステップS204にお
いて、カメラ間距離が最小距離α以上かつ最大距離β以
下でない場合は、静止画選択部16は、i個前のコマが
動画像の最初のコマであるか否かを調べる(ステップS
206)。
If the inter-camera distance is equal to or greater than the minimum distance α and equal to or less than the maximum distance β in step S204, the i-th previous frame from the still image (frame) acquired by the still image acquiring unit 14, that is, the temporary frame in step S202. The selected still image (frame) is input to the depth image calculation unit 18 again (step S205). If the inter-camera distance is not equal to or greater than the minimum distance α and equal to or less than the maximum distance β in step S204, the still image selecting unit 16 checks whether the i-th previous frame is the first frame of the moving image (step S204).
206).

【0066】ステップS206において、i個前のコマ
が動画像の最初のコマでなければ、iを1だけインクリ
メントしてステップS202からの処理を繰り返す(ス
テップS207)。一方、i個前のコマが動画像の最初
のコマである場合は、コマの選択に失敗したものとして
終了する。なお、αとβの値を固定値とせずに、条件を
満足するコマが見つからない場合は、αを減少、βを増
加してステップS202からの処理をやり直すようにし
てもよい。
In step S206, if the i-th previous frame is not the first frame of the moving image, i is incremented by 1 and the processing from step S202 is repeated (step S207). On the other hand, if the i-th previous frame is the first frame of the moving image, it is determined that the selection of the frame has failed and the processing ends. If the values of α and β are not fixed values and a frame satisfying the condition is not found, α may be decreased and β may be increased, and the processing from step S202 may be repeated.

【0067】静止画取得部14が取得したコマの後方に
あるコマについても、上記同様の方法によって選択し、
奥行き画像演算部18に入力する。このように、静止画
選択部16が、カメラ位置間を考慮した第1の条件を満
たすように静止画を選択して奥行き画像演算部18に入
力するので、例えば図11に示したコマp3〜p21に
対して、正しいコマを選択することができるようにな
る。
The frame behind the frame obtained by the still image obtaining unit 14 is also selected by the same method as described above.
It is input to the depth image calculator 18. As described above, the still image selection unit 16 selects a still image so as to satisfy the first condition in consideration of the camera positions and inputs the still image to the depth image calculation unit 18, so that, for example, the frames p3 to p3 illustrated in FIG. A correct frame can be selected for p21.

【0068】つぎに、適当な視差のある静止画を得るた
めの第2の条件として、静止画取得部14によって取得
された静止画が撮影されたときのビデオカメラ202の
向きと、静止画選択部16によって選択された静止画が
撮影されたときのビデオカメラ202の向きとの相違を
考える。これは、静止画を撮影したビデオカメラのそれ
ぞれの向きが異なると、静止画中における被写体の写っ
ている位置や、被写体の写っている範囲が大きく異な
り、マッチング処理のおこえない特徴点が多く発生して
しまうという事態を回避するためのものである。ここで
は、二つのビデオカメラの向きを原点から伸ばした2本
のベクトルとみなし、それのなす有効な最大角度γを定
めるものとする。
Next, as a second condition for obtaining a still image having an appropriate parallax, the orientation of the video camera 202 at the time when the still image acquired by the still image acquiring section 14 is photographed, and the selection of the still image Consider a difference from the orientation of the video camera 202 when the still image selected by the unit 16 is captured. This is because if the orientation of the video camera that shot the still image is different, the position of the subject in the still image and the range of the subject in the still image differ greatly, and there are many feature points where matching processing cannot be performed. This is for avoiding the situation that occurs. Here, it is assumed that the directions of the two video cameras are regarded as two vectors extended from the origin, and an effective maximum angle γ formed by the two vectors is determined.

【0069】図13は、実施の形態2にかかる奥行き画
像生成装置において、上記第2の条件、すなわちカメラ
の向きに基づいて静止画を選択する処理を示したフロー
チャートである。まず、静止画選択部16は、変数iの
初期値を1として(ステップS301)、静止画選択部
16が取得した静止画(コマ)のi個前のコマ、すなわ
ち初期状態においては1個前の静止画(コマ)を仮選択
する(ステップS302)。なお、この仮選択は、実施
の形態1の静止画選択部16による静止画選択処理に相
当する。
FIG. 13 is a flowchart showing a process of selecting a still image based on the second condition, that is, the direction of the camera, in the depth image generating apparatus according to the second embodiment. First, the still image selection unit 16 sets the initial value of the variable i to 1 (step S301), and i-th frame before the still image (frame) acquired by the still image selection unit 16, that is, one frame before in the initial state. Is temporarily selected (step S302). Note that this provisional selection corresponds to a still image selection process by the still image selection unit 16 of the first embodiment.

【0070】そして、この仮選択したコマと、静止画取
得部14が取得した静止画(コマ)は、奥行き画像演算
部18に入力される。これにより、奥行き画像演算部1
8において奥行き画像の演算がおこなわれる際に、それ
ぞれの静止画が撮影されたときのビデオカメラ202の
向きが算出される(ステップS303)。静止画選択部
16は、奥行き画像演算部18から上記したカメラの向
きについての情報を受け取り、二つのビデオカメラ20
2の向きを原点から伸ばした2本のベクトルとみなし
て、それのなす角度が最大角度γ以下であるかどうかを
調べる(ステップS304)。
The temporarily selected frame and the still image (frame) obtained by the still image obtaining unit 14 are input to the depth image calculating unit 18. Thereby, the depth image calculation unit 1
When the calculation of the depth image is performed in step 8, the orientation of the video camera 202 when each still image is captured is calculated (step S303). The still image selection unit 16 receives the information about the above-mentioned camera orientation from the depth image calculation unit 18 and
The direction of 2 is regarded as two vectors extended from the origin, and it is checked whether the angle formed by the two is less than or equal to the maximum angle γ (step S304).

【0071】ステップS304において、カメラの向き
が最大角度γ以下である場合は、静止画取得部14が取
得した静止画(コマ)からi個前のコマ、すなわちステ
ップS302において仮選択された静止画(コマ)を、
あらためて奥行き画像演算部18に入力する(ステップ
S305)。一方、ステップS204において、カメラ
の向きが最大角度γより大きい場合は、静止画選択部1
6は、i個前のコマが動画像の最初のコマであるか否か
を調べる(ステップS306)。
If the camera orientation is equal to or smaller than the maximum angle γ in step S 304, the i-th previous frame from the still image (frame) obtained by the still image obtaining unit 14, that is, the still image temporarily selected in step S 302 (Frame),
The data is input to the depth image calculation unit 18 again (step S305). On the other hand, if the camera orientation is larger than the maximum angle γ in step S204, the still image selection unit 1
6 checks whether the i-th previous frame is the first frame of the moving image (step S306).

【0072】ステップS306において、i個前のコマ
が動画像の最初のコマでなければ、iを1だけインクリ
メントしてステップS302からの処理を繰り返す(ス
テップS307)。一方、i個前のコマが動画像の最初
のコマである場合は、コマの選択に失敗したものとして
終了する。なお、γの値を固定値とせずに、条件を満足
するコマが見つからない場合は、γを増加してステップ
S302からの処理をやり直すようにしてもよい。
If the i-th previous frame is not the first frame of the moving image in step S306, i is incremented by 1 and the processing from step S302 is repeated (step S307). On the other hand, if the i-th previous frame is the first frame of the moving image, it is determined that the selection of the frame has failed and the processing ends. If the value of γ is not fixed and a frame satisfying the condition is not found, γ may be increased and the processing from step S302 may be repeated.

【0073】静止画取得部14が取得したコマの後方に
あるコマについても、上記同様の方法によって選択し、
奥行き画像演算部18に入力する。このように、静止画
選択部16が、カメラの向きを考慮した第2の条件を満
たすように静止画を選択して奥行き画像演算部18に入
力するので、例えば図11に示したコマp17〜p22
に対して、正しいコマを選択することができるようにな
る。
The frame behind the frame obtained by the still image obtaining unit 14 is also selected by the same method as described above.
It is input to the depth image calculator 18. As described above, the still image selection unit 16 selects a still image so as to satisfy the second condition in consideration of the direction of the camera and inputs the still image to the depth image calculation unit 18, so that, for example, the frames p17 to p17 shown in FIG. p22
, The correct frame can be selected.

【0074】なお、静止画選択部16は、上記した第1
の条件および第2の条件の一方のみを満たすように静止
画の選択をおこなってもよいし、第1の条件および第2
の条件をともに満たすように静止画の選択をおこなって
もよい。
Note that the still image selection section 16 performs the first
The still image may be selected so as to satisfy only one of the first condition and the second condition, or the first condition and the second condition may be selected.
May be selected so as to satisfy both of the conditions.

【0075】以上に説明したとおり、実施の形態2にか
かる奥行き画像生成装置および奥行き画像生成方法によ
れば、動画像データを動画像記憶部12に記憶し、静止
画取得部14が動画像記憶部12から動画像データを構
成する一つの静止画(コマ)を取り出し、静止画選択部
16が、その静止画に基づいて動画像記憶部12から静
止画を取り出し、取り出した静止画を奥行き画像演算部
18に入力して得られるカメラの位置や向きに応じてよ
り最適な静止画を選択して、奥行き画像演算部18がこ
れら二次元の静止画の各ピクセルに対して被写体上の領
域とカメラとの距離を関連付けることにより奥行き画像
を生成するので、ソースとなる動画像データに対してカ
メラの移動速度や移動形態等の撮影条件を要求すること
なく、被写体の三次元形状情報および奥行き画像をより
正確に得ることができる。
As described above, according to the depth image generating apparatus and the depth image generating method according to the second embodiment, the moving image data is stored in the moving image storage unit 12, and the still image obtaining unit 14 stores the moving image. A still image (frame) constituting moving image data is extracted from the unit 12, a still image selecting unit 16 extracts a still image from the moving image storage unit 12 based on the still image, and converts the extracted still image into a depth image. A more optimal still image is selected according to the position and orientation of the camera obtained by inputting to the arithmetic unit 18, and the depth image arithmetic unit 18 assigns an area on the subject to each pixel of these two-dimensional still images. Since the depth image is generated by associating the distance with the camera, the three-dimensional image of the subject can be obtained without requesting the shooting conditions such as the moving speed and moving form of the camera for the source moving image data. Original shape information and the depth image can be obtained more accurately.

【0076】また、静止画選択部16が、正確な奥行き
画像が演算されるための視差を考慮して、奥行き画像演
算部18によって得られるカメラの位置や向きに応じて
静止画を再選択するので、最終的に得られた奥行き画像
の精確性を向上させることができる。
The still image selection unit 16 reselects a still image in accordance with the position and orientation of the camera obtained by the depth image calculation unit 18 in consideration of the parallax for calculating an accurate depth image. Therefore, the accuracy of the finally obtained depth image can be improved.

【0077】なお、以上に説明した実施の形態2におい
ては、奥行き画像演算部18に入力する静止画の枚数を
3枚としたが、2枚とした場合でも上記同様の作用およ
び効果を享受することができる。
In the second embodiment described above, the number of still images input to the depth image calculation unit 18 is three. However, even when the number of still images is two, the same operation and effect as described above can be enjoyed. be able to.

【0078】また、実施の形態2において、適当な視差
のある静止画を得るために、取得された静止画が撮影さ
れたときのビデオカメラ202と、選択された静止画が
撮影されたときのビデオカメラ202の位置を利用する
方法として、ビデオカメラ間の距離を評価していたが、
他の方法で利用してもよい。例えば、二つのビデオカメ
ラから被写体の特定の位置(重心など)へ伸ばした線分
の夾角について、最大値と最小値を定義してもよい。
Also, in the second embodiment, in order to obtain a still image having an appropriate parallax, the video camera 202 when the obtained still image is shot and the video camera 202 when the selected still image is shot As a method of using the position of the video camera 202, the distance between the video cameras was evaluated.
Other methods may be used. For example, a maximum value and a minimum value may be defined for an included angle of a line segment extending from two video cameras to a specific position (such as the center of gravity) of a subject.

【0079】さらに、実施の形態2において、条件を満
足するコマが見つかるまで処理を繰り返すという方法で
コマの選択を行っていたが、この代わりに例えば前後の
10コマのすべてについてビデオカメラの位置と向きを
計算し、最も理想的な位置と向きに近い条件で撮影され
たコマを選択するようにすることもできる。
Further, in the second embodiment, the frame is selected by repeating the process until a frame satisfying the condition is found. Instead, for example, the position of the video camera and the position of the video camera are determined for all 10 frames before and after. It is also possible to calculate the orientation and select a frame shot under conditions close to the most ideal position and orientation.

【0080】実施の形態3.つぎに、実施の形態3にか
かる奥行き画像生成装置および奥行き画像生成方法につ
いて説明する。実施の形態3にかかる奥行き画像生成装
置および奥行き画像生成方法は、奥行き画像演算部にお
いて生成された奥行き画像データを記憶し、記憶した奥
行き画像データに基づいて奥行き動画像データを生成す
ることを特徴としている。他の構成および動作は実施の
形態2と同様である。
Embodiment 3 Next, a depth image generation device and a depth image generation method according to the third embodiment will be described. The depth image generation device and the depth image generation method according to the third embodiment are characterized in that depth image data generated by a depth image calculation unit is stored, and depth moving image data is generated based on the stored depth image data. And Other configurations and operations are the same as those of the second embodiment.

【0081】図14は、実施の形態3にかかる奥行き画
像生成装置の概略構成を示すブロック図である。なお、
図14において、図10と共通する部分には同一の符号
を付してその説明を省略する。図14に示す奥行き画像
生成装置30において、図10と異なる点は、奥行き画
像演算部18によって生成された奥行き画像データを記
憶する奥行き画像記憶部32と、奥行き画像記憶部32
に記憶された奥行き画像データに基づいて奥行き動画像
データを生成する奥行き動画像生成部34とを備えた点
である。
FIG. 14 is a block diagram showing a schematic configuration of the depth image generating apparatus according to the third embodiment. In addition,
In FIG. 14, portions common to FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted. 14 is different from FIG. 10 in that a depth image storage unit 32 storing depth image data generated by the depth image calculation unit 18 and a depth image storage unit 32
And a depth moving image generation unit 34 that generates depth moving image data based on the depth image data stored in the storage unit.

【0082】つぎに、実施の形態3にかかる奥行き画像
生成装置の動作について説明する。ここでは、図11に
示したビデオカメラの移動経路に従って動画像の撮影が
おこなわれたものとする。なお、奥行き画像演算部18
において奥行き画像データが生成されるまでの動作につ
いては、実施の形態2に示したとおりであるのでここで
はその説明を省略する。
Next, the operation of the depth image generation device according to the third embodiment will be described. Here, it is assumed that the moving image has been captured according to the moving path of the video camera shown in FIG. The depth image calculation unit 18
The operation up to the generation of the depth image data is as described in the second embodiment, and a description thereof will be omitted here.

【0083】図15は、実施の形態3にかかる奥行き画
像生成装置において、奥行き動画像を生成する処理を示
したフローチャートである。まず、奥行き画像生成装置
30は、変数iの初期値を1に設定する(ステップS4
01)。そして、静止画取得部14が、動画像記憶部1
2からiコマ目のコマpiを静止画として取得し(ステ
ップS402)、静止画選択部16が、コマpiに対し
て実施の形態2に示したように二つのコマを静止画とし
て選択する(ステップS403)。そして、奥行き画像
演算部18が、これら三枚の静止画に基づいて上述した
ような奥行き画像を演算する(ステップS404)。
FIG. 15 is a flowchart showing a process of generating a depth moving image in the depth image generation device according to the third embodiment. First, the depth image generation device 30 sets the initial value of the variable i to 1 (step S4).
01). Then, the still image acquisition unit 14 stores the moving image storage unit 1
The frame pi of the i-th frame from the second frame is acquired as a still image (step S402), and the still image selection unit 16 selects two frames for the frame pi as still images as described in the second embodiment (step S402). Step S403). Then, the depth image calculation unit 18 calculates the above-described depth image based on the three still images (step S404).

【0084】奥行き画像演算部18において生成された
奥行き画像データは、外部に出力されるとともに、奥行
き画像記憶部32に記憶されていく(ステップS40
5)。つづいて、奥行き動画像生成部34が、コマpi
が動画像の最後のコマであるか否かを調べる(ステップ
S406)。
The depth image data generated by the depth image calculation unit 18 is output to the outside and stored in the depth image storage unit 32 (step S40).
5). Subsequently, the depth moving image generation unit 34
Is determined as the last frame of the moving image (step S406).

【0085】ステップS406において、コマpiが動
画像の最後のコマでなければ、iを1だけインクリメン
トしてステップS402からの処理を繰り返す(ステッ
プS408)。一方、コマpiが動画像の最後のコマで
ある場合は、奥行き動画像生成部34が、奥行き画像記
憶部32に記憶されている奥行き画像をつなぎ合わせて
奥行き動画像を生成する(ステップS407)。
In step S406, if the frame pi is not the last frame of the moving image, i is incremented by 1 and the processing from step S402 is repeated (step S408). On the other hand, if the frame pi is the last frame of the moving image, the depth moving image generating unit 34 connects the depth images stored in the depth image storage unit 32 to generate a depth moving image (step S407). .

【0086】ところで、静止画取得部14がコマp1を
選択したとき、静止画選択部16が図11に示したフロ
ーチャートに従うと、コマの選択に失敗して終了する。
従って、コマp1については、奥行き画像の計算がおこ
なわれず、奥行き画像記憶部32にはコマp1に相当す
る奥行き画像が記憶されない。同様に、コマp2、コマ
p24〜p26についても、相当する奥行き画像は記憶
されない。
By the way, when the still image acquisition unit 14 selects the frame p1, the still image selection unit 16 fails to select a frame and ends according to the flowchart shown in FIG.
Therefore, the depth image is not calculated for the frame p1, and the depth image corresponding to the frame p1 is not stored in the depth image storage unit 32. Similarly, no corresponding depth image is stored for the frame p2 and the frames p24 to p26.

【0087】そこで、奥行き動画像生成部34には、つ
ぎのような例外処理がおこなわれるものとする。あるコ
マpjについて、静止画選択部16がコマの選択に失敗
し奥行き画像の生成がおこなわれない場合は、奥行き画
像の生成に成功したコマのうち、コマpjが撮影された
ときのカメラ位置に最も近い位置から撮影されたコマに
対応する奥行き画像を代用する。以上のようにして、動
画像記憶部12に記憶された動画像の各コマに対応して
作成された奥行き画像をつなぎ合わせて生成した奥行き
動画像を得ることができる。
Therefore, it is assumed that the following exceptional processing is performed in the depth moving image generation unit 34. When the still image selection unit 16 fails to select a frame and does not generate a depth image for a certain frame pj, among the frames for which the depth image was successfully generated, the camera position at the time of shooting the frame pj is selected. The depth image corresponding to the frame shot from the closest position is substituted. As described above, it is possible to obtain a depth moving image generated by connecting the depth images created corresponding to each frame of the moving image stored in the moving image storage unit 12.

【0088】以上に説明したとおり、実施の形態3にか
かる奥行き画像生成装置および奥行き画像生成方法によ
れば、実施の形態2に示した構成に加えて、奥行き画像
演算部18によって生成された奥行き画像を記憶する奥
行き画像記憶部32と、奥行き画像記憶部32に記憶さ
れた奥行き画像をつなげて動画像を生成する奥行き動画
像生成部34と、を備えているので、奥行き動画像デー
タを得ることが可能になる。
As described above, according to the depth image generating apparatus and the depth image generating method according to the third embodiment, in addition to the configuration shown in the second embodiment, the depth generated by the depth image calculating section 18 Since a depth image storage unit 32 for storing images and a depth moving image generation unit 34 for generating a moving image by connecting depth images stored in the depth image storage unit 32 are provided, depth moving image data is obtained. It becomes possible.

【0089】なお、実施の形態3において、あるコマp
jについて、静止画選択部16がコマの選択に失敗し奥
行き画像の生成がおこなわれない場合は、奥行き画像の
生成に成功したコマのうち、コマpjが撮影されたとき
のカメラ位置に最も近い位置から撮影されたコマに対応
する奥行き画像を代用するとしたが、別の方法で選択し
た奥行き画像を代用してもよい。例えば、前後のコマに
ついての奥行き画像を近い順に見つけていき、最初に見
つかった奥行き画像を代用することもできる。
In the third embodiment, a certain frame p
For j, when the still image selection unit 16 fails to select a frame and a depth image is not generated, among the frames for which the depth image was successfully generated, the camera position closest to the camera position when the frame pj was photographed. Although the depth image corresponding to the frame shot from the position is substituted, a depth image selected by another method may be substituted. For example, it is also possible to find the depth images for the preceding and succeeding frames in the order from the closest, and substitute the depth image found first.

【0090】また、以上に説明した実施の形態1〜3に
かかる奥行き画像生成方法は、ハードディスクやCD−
ROM等の記憶媒体にコンピュータプログラムとして記
録することにより提供することが可能であり、その場合
は、そのコンピュータプログラムが、実施の形態1〜3
に説明した処理を実現する。
Further, the depth image generating method according to the first to third embodiments described above uses a hard disk or a CD-ROM.
The program can be provided by being recorded as a computer program on a storage medium such as a ROM. In this case, the computer program is stored in the first to third embodiments.
Is realized.

【0091】[0091]

【発明の効果】以上、説明したとおり、この発明によれ
ば、動画像を動画像記憶手段に記憶し、静止画取得手段
が動画像記憶手段から動画像を構成する第1の二次元静
止画を取り出し、静止画選択手段がその第1の二次元静
止画に対して、例えば時間的に前後する第2の二次元静
止画を動画像記憶手段から取り出して、奥行き画像演算
手段がこれら第1および第2の二次元静止画の各ピクセ
ルに対して被写体上の領域とカメラとの距離を関連付け
ることにより奥行き画像を生成するので、ソースとなる
動画像データに対してカメラの移動速度や移動形態等の
撮影条件を要求することなく、被写体の三次元形状情報
および奥行き画像を正確に得ることができるという効果
を奏する。
As described above, according to the present invention, according to the present invention, a moving image is stored in the moving image storage means, and the still image obtaining means forms the first two-dimensional still image forming the moving image from the moving image storage means. From the moving image storage unit, and the depth image calculation unit extracts the second two-dimensional still image that is temporally before or after the first two-dimensional still image, for example. And a depth image is generated by associating the distance between the area on the subject and the camera with each pixel of the second two-dimensional still image. Thus, it is possible to obtain the three-dimensional shape information and the depth image of the subject accurately without requesting the photographing conditions such as.

【0092】つぎの発明によれば、静止画選択手段が、
奥行き画像演算手段において十分に正確な奥行き画像が
演算されるための視差を考慮して、第2の二次元静止画
を選択するので、奥行き画像演算手段において正確な奥
行き画像を生成することができるという効果を奏する。
According to the next invention, the still picture selecting means is
Since the second two-dimensional still image is selected in consideration of the parallax for calculating a sufficiently accurate depth image in the depth image calculation means, an accurate depth image can be generated in the depth image calculation means. This has the effect.

【0093】つぎの発明によれば、静止画選択手段が、
仮選択された第2の二次元静止画に対して奥行き画像演
算手段により得られたカメラの位置または向きに基づい
て、第2の二次元静止画を再選択するので、奥行き画像
演算手段は、この再選択された第2の二次元静止画に基
づいて奥行き画像を生成することができ、最終的に得ら
れた奥行き画像の精確性を向上させることができるとい
う効果を奏する。
According to the next invention, the still picture selecting means is
Since the second two-dimensional still image is reselected based on the position or orientation of the camera obtained by the depth image calculating means for the temporarily selected second two-dimensional still image, the depth image calculating means: It is possible to generate a depth image based on the reselected second two-dimensional still image, and it is possible to improve the accuracy of the finally obtained depth image.

【0094】つぎの発明によれば、静止画選択手段が、
仮選択された第2の二次元静止画に対して奥行き画像演
算手段により得られたカメラの位置および向きに基づい
て、第2の二次元静止画を再選択するので、奥行き画像
演算手段は、この再選択された第2の二次元静止画に基
づいて奥行き画像を生成することができ、最終的に得ら
れた奥行き画像の精確性を向上させることができるとい
う効果を奏する。
[0094] According to the next invention, the still image selecting means includes:
Since the second two-dimensional still image is reselected based on the position and orientation of the camera obtained by the depth image calculating means for the temporarily selected second two-dimensional still image, the depth image calculating means: It is possible to generate a depth image based on the reselected second two-dimensional still image, and it is possible to improve the accuracy of the finally obtained depth image.

【0095】つぎの発明によれば、さらに、奥行き画像
演算手段によって生成された奥行き画像を記憶する奥行
き画像記憶手段と、奥行き画像記憶手段に記憶された奥
行き画像をつなげて動画像を生成する奥行き動画像生成
手段と、を備えているので、奥行き動画像データを得る
ことが可能になるという効果を奏する。
According to the next invention, furthermore, a depth image storage means for storing the depth image generated by the depth image calculation means, and a depth image for generating a moving image by connecting the depth images stored in the depth image storage means. And moving image generating means, so that it is possible to obtain depth moving image data.

【0096】つぎの発明によれば、動画像を記憶し、記
憶された動画像を構成する第1の二次元静止画を取り出
し、その第1の二次元静止画に対して、例えば時間的に
前後する第2の二次元静止画を上記動画像から取り出し
て、これら第1および第2の二次元静止画の各ピクセル
に対して被写体上の領域とカメラとの距離を関連付ける
ことにより奥行き画像を生成するので、ソースとなる動
画像データに対してカメラの移動速度や移動形態等の撮
影条件を要求することなく、被写体の三次元形状情報お
よび奥行き画像を正確に得ることができるという効果を
奏する。
According to the next invention, a moving image is stored, a first two-dimensional still image constituting the stored moving image is taken out, and the first two-dimensional still image is temporally A depth image is extracted by extracting a preceding and following second two-dimensional still image from the moving image, and associating each pixel of the first and second two-dimensional still images with the distance between the region on the subject and the camera. Since the image data is generated, the three-dimensional shape information and the depth image of the subject can be accurately obtained without requiring shooting conditions such as a moving speed and a moving form of the camera for the source moving image data. .

【0097】つぎの発明によれば、十分に正確な奥行き
画像が演算されるための視差を考慮して、第2の二次元
静止画を選択するので、奥行き画像演算工程において、
正確な奥行き画像を生成することができるという効果を
奏する。
According to the next invention, the second two-dimensional still image is selected in consideration of the parallax for calculating a sufficiently accurate depth image.
This produces an effect that an accurate depth image can be generated.

【0098】つぎの発明によれば、仮選択された第2の
二次元静止画に対して奥行き画像工程により得られたカ
メラの位置または向きに基づいて、第2の二次元静止画
を再選択するので、この再選択された第2の二次元静止
画に基づいて奥行き画像を生成することができ、最終的
に得られた奥行き画像の精確性を向上させることができ
るという効果を奏する。
According to the next invention, the second two-dimensional still image is reselected based on the position or orientation of the camera obtained in the depth image process for the temporarily selected second two-dimensional still image. Therefore, it is possible to generate a depth image based on the reselected second two-dimensional still image, and it is possible to improve the accuracy of the finally obtained depth image.

【0099】つぎの発明によれば、仮選択された第2の
二次元静止画に対して奥行き画像工程により得られたカ
メラの位置および向きに基づいて、第2の二次元静止画
を再選択するので、この再選択された第2の二次元静止
画に基づいて奥行き画像を生成することができ、最終的
に得られた奥行き画像の精確性を向上させることができ
るという効果を奏する。
According to the next invention, the second two-dimensional still image is reselected based on the position and orientation of the camera obtained by the depth image process for the temporarily selected second two-dimensional still image. Therefore, it is possible to generate a depth image based on the reselected second two-dimensional still image, and it is possible to improve the accuracy of the finally obtained depth image.

【0100】つぎの発明によれば、さらに、奥行き画像
演算工程によって生成された奥行き画像を記憶し、記憶
された奥行き画像をつなげて動画像を生成するので、奥
行き動画像データを得ることが可能になるという効果を
奏する。
According to the next invention, the depth image generated in the depth image calculation step is stored, and the stored depth images are connected to generate a moving image, so that it is possible to obtain depth moving image data. This has the effect of becoming

【0101】つぎの発明によれば、上記した方法をコン
ピュータに実行させるプログラムを記録したことで、そ
のプログラムをコンピュータ読み取り可能となり、これ
によって、上記方法をコンピュータによって実現するこ
とが可能となる記録媒体が得られるという効果を奏す
る。
According to the next invention, by recording a program for causing a computer to execute the above-described method, the program can be read by a computer, and thereby, the recording medium that can realize the method by a computer Is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施の形態1にかかる奥行き画像生成装置の
概略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a depth image generation device according to a first embodiment;

【図2】 実施の形態1にかかる奥行き画像生成装置に
おいて、直方体形状の被写体をビデオカメラで撮影する
場合の撮影状態を表した説明図である。
FIG. 2 is an explanatory diagram illustrating a shooting state when a rectangular parallelepiped subject is shot by a video camera in the depth image generation device according to the first embodiment;

【図3】 実施の形態1にかかる奥行き画像生成装置に
おいて、直方体形状の被写体をビデオカメラで撮影する
場合の撮影状態を上方からみた場合の説明図である。
FIG. 3 is an explanatory diagram of a shooting state when a rectangular parallelepiped subject is shot by a video camera in the depth image generating apparatus according to the first embodiment when viewed from above;

【図4】 実施の形態1にかかる奥行き画像生成装置の
奥行き画像演算部において生成された奥行き画像の例を
示す図である。
FIG. 4 is a diagram illustrating an example of a depth image generated by a depth image calculation unit of the depth image generation device according to the first embodiment;

【図5】 実施の形態1にかかる奥行き画像生成装置の
奥行き画像演算部における処理を示すフローチャートで
ある。
FIG. 5 is a flowchart illustrating a process in a depth image calculation unit of the depth image generation device according to the first exemplary embodiment;

【図6】 実施の形態1にかかる奥行き画像生成装置に
おいて、特徴点の抽出を説明するための説明図である。
FIG. 6 is an explanatory diagram for explaining extraction of a feature point in the depth image generation device according to the first embodiment;

【図7】 実施の形態1にかかる奥行き画像生成装置に
おいて、特徴点マッチングおよびカメラの位置と向きの
算出を説明するための説明図である。
FIG. 7 is an explanatory diagram for explaining feature point matching and calculation of the position and orientation of the camera in the depth image generation device according to the first embodiment;

【図8】 実施の形態1にかかる奥行き画像生成装置に
おいて、カメラから各特徴点までの距離の算出を説明す
るための説明図である。
FIG. 8 is an explanatory diagram for explaining calculation of a distance from a camera to each feature point in the depth image generation device according to the first embodiment;

【図9】 実施の形態1にかかる奥行き画像生成装置に
おいて、奥行き画像の生成を説明するための説明図であ
る。
FIG. 9 is an explanatory diagram for explaining generation of a depth image in the depth image generation device according to the first embodiment;

【図10】 実施の形態2にかかる奥行き画像生成装置
の概略構成を示すブロック図である。
FIG. 10 is a block diagram illustrating a schematic configuration of a depth image generation device according to a second embodiment;

【図11】 実施の形態2にかかる奥行き画像生成装置
において、直方体形状の被写体を撮影したときのビデオ
カメラ202の撮影状態を説明するための説明図であ
る。
FIG. 11 is an explanatory diagram for explaining a shooting state of the video camera 202 when shooting a rectangular parallelepiped subject in the depth image generation device according to the second embodiment.

【図12】 実施の形態2にかかる奥行き画像生成装置
において、カメラ位置に基づいて静止画を選択する処理
を示したフローチャートである。
FIG. 12 is a flowchart illustrating a process of selecting a still image based on a camera position in the depth image generation device according to the second exemplary embodiment;

【図13】 実施の形態2にかかる奥行き画像生成装置
において、カメラの向きに基づいて静止画を選択する処
理を示したフローチャートである。
FIG. 13 is a flowchart illustrating a process of selecting a still image based on a direction of a camera in the depth image generation device according to the second exemplary embodiment.

【図14】 実施の形態3にかかる奥行き画像生成装置
の概略構成を示すブロック図である。
FIG. 14 is a block diagram illustrating a schematic configuration of a depth image generation device according to a third embodiment;

【図15】 実施の形態3にかかる奥行き画像生成装置
において、奥行き動画像を生成する処理を示したフロー
チャートである。
FIG. 15 is a flowchart illustrating a process of generating a depth moving image in the depth image generation device according to the third exemplary embodiment;

【符号の説明】[Explanation of symbols]

10,20,30 画像生成装置、12 動画像記憶
部、14 静止画取得部 16 静止画選択部、18 奥行き画像演算部、32
奥行き画像記憶部、34奥行き動画像生成部、201
被写体、202 ビデオカメラ。
10, 20, 30 image generation device, 12 moving image storage unit, 14 still image acquisition unit 16 still image selection unit, 18 depth image calculation unit, 32
Depth image storage unit, 34 depth moving image generation unit, 201
Subject, 202 video camera.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 カメラによって撮影された動画像を記憶
する動画像記憶手段と、 前記動画像記憶手段に記憶された動画像から第1の二次
元静止画を取り出す静止画取得手段と、 前記静止画取得手段によって取り出された二次元静止画
に基づいて、前記動画像記憶手段に記憶された動画像か
ら前記第1の二次元静止画とは異なる第2の二次元静止
画を選択して取り出す静止画選択手段と、 前記第1および第2の二次元静止画に基づいて、被写体
を形成するピクセルに当該被写体とカメラとの距離を対
応付けて構成した奥行き画像を演算する奥行き画像演算
手段と、 を備えたことを特徴とする奥行き画像生成装置。
A moving image storage unit that stores a moving image captured by a camera; a still image obtaining unit that extracts a first two-dimensional still image from a moving image stored in the moving image storage unit; A second two-dimensional still image different from the first two-dimensional still image is selected and extracted from the moving image stored in the moving image storage unit based on the two-dimensional still image extracted by the image obtaining unit. A still image selecting unit; and a depth image calculating unit configured to calculate a depth image formed by associating pixels forming a subject with a distance between the subject and a camera based on the first and second two-dimensional still images. A depth image generation device, comprising:
【請求項2】 前記静止画選択手段は、前記第2の二次
元静止画として、前記第1の二次元静止画との視差が所
定の大きさとなる二次元静止画を選択することを特徴と
する請求項1に記載の奥行き画像生成装置。
2. The method according to claim 1, wherein the still image selection unit selects a two-dimensional still image having a predetermined parallax from the first two-dimensional still image as the second two-dimensional still image. The depth image generation device according to claim 1.
【請求項3】 前記奥行き画像演算手段は、 前記第1および第2の二次元静止画のそれぞれが撮影さ
れたときのカメラの位置または向きを算出し、 前記静止画選択手段は、前記奥行き画像演算手段におい
て算出されたカメラの位置または向きに基づいて、前記
第2の二次元静止画を再選択することを特徴とする請求
項1または2に記載の奥行き画像生成装置。
3. The depth image calculating means calculates a position or an orientation of a camera when each of the first and second two-dimensional still images is photographed, and the still image selecting means calculates the depth image The depth image generation device according to claim 1, wherein the second two-dimensional still image is reselected based on the position or orientation of the camera calculated by the calculation unit.
【請求項4】 前記奥行き画像演算手段は、 前記第1および第2の二次元静止画のそれぞれが撮影さ
れたときのカメラの位置および向きを算出し、 前記静止画選択手段は、前記奥行き画像演算手段におい
て算出されたカメラの位置および向きに基づいて、前記
第2の二次元静止画を再選択することを特徴とする請求
項1または2に記載の奥行き画像生成装置。
4. The depth image calculation means calculates a position and an orientation of a camera when each of the first and second two-dimensional still images is photographed, and the still image selection means calculates the depth image The depth image generation device according to claim 1, wherein the second two-dimensional still image is reselected based on the position and orientation of the camera calculated by the calculation unit.
【請求項5】 前記奥行き画像演算手段によって生成さ
れた奥行き画像を記憶する奥行き画像記憶手段と、 前記奥行き画像記憶手段に記憶された奥行き画像をつな
ぎ合わせて奥行き動画像を生成する奥行き動画像生成手
段と、 を備えたことを特徴とする請求項1〜4のいずれか一つ
に記載の奥行き画像生成装置。
5. A depth moving image generating means for storing a depth image generated by the depth image calculating means, and a depth moving image generating a depth moving image by connecting the depth images stored in the depth image storing means. The depth image generation device according to any one of claims 1 to 4, further comprising: means.
【請求項6】 カメラによって撮影された動画像を記憶
する動画像記憶工程と、 前記動画像記憶工程によって記憶された動画像から第1
の二次元静止画を取り出す静止画取得工程と、 前記静止画取得工程によって取り出された二次元静止画
に基づいて、前記動画像記憶工程によって記憶された動
画像から前記第1の二次元静止画とは異なる第2の二次
元静止画を選択して取り出す静止画選択工程と、 前記第1および第2の二次元静止画に基づいて、被写体
を形成するピクセルに当該被写体とカメラとの距離を対
応付けて構成した奥行き画像を演算する奥行き画像演算
工程と、 を含んだことを特徴とする奥行き画像生成方法。
6. A moving image storing step of storing a moving image photographed by a camera, and a first moving image stored in the moving image storing step.
A first two-dimensional still image from the moving image stored in the moving image storage step based on the two-dimensional still image extracted in the still image obtaining step. A still image selecting step of selecting and extracting a second two-dimensional still image that is different from the first and second two-dimensional still images; and, based on the first and second two-dimensional still images, A depth image calculation step of calculating a depth image configured in association with the depth image generation method.
【請求項7】 前記静止画選択工程は、前記第2の二次
元静止画として、前記第1の二次元静止画との視差が所
定の大きさとなる二次元静止画を選択することを特徴と
する請求項6に記載の奥行き画像生成方法。
7. The still image selecting step, wherein a two-dimensional still image having a predetermined parallax with the first two-dimensional still image is selected as the second two-dimensional still image. The depth image generation method according to claim 6.
【請求項8】 前記奥行き画像演算工程は、さらに前記
第1および第2の二次元静止画のそれぞれが撮影された
ときのカメラの位置または向きを算出し、 前記静止画選択工程は、前記奥行き画像演算工程によっ
て算出されたカメラの位置または向きに基づいて、前記
第2の二次元静止画を再選択することを特徴とする請求
項6または7に記載の奥行き画像生成方法。
8. The depth image calculating step further calculates a position or an orientation of a camera when each of the first and second two-dimensional still images is photographed, and the still image selecting step includes: The depth image generation method according to claim 6, wherein the second two-dimensional still image is reselected based on the position or orientation of the camera calculated in the image calculation step.
【請求項9】 前記奥行き画像演算工程は、さらに前記
第1および第2の二次元静止画のそれぞれが撮影された
ときのカメラの位置および向きを算出し、 前記静止画選択工程は、前記奥行き画像演算工程によっ
て算出されたカメラの位置および向きに基づいて、前記
第2の二次元静止画を再選択することを特徴とする請求
項6または7に記載の奥行き画像生成方法。
9. The depth image calculation step further calculates a position and an orientation of a camera when each of the first and second two-dimensional still images is photographed, and the still image selection step includes: The method according to claim 6, wherein the second two-dimensional still image is reselected based on the position and orientation of the camera calculated in the image calculation step.
【請求項10】 前記奥行き画像演算工程によって生成
された奥行き画像を記憶する奥行き画像記憶工程と、 前記奥行き画像記憶工程によって記憶された奥行き画像
をつなぎ合わせて奥行き動画像を生成する奥行き動画像
生成工程と、 を含んだことを特徴とする請求項6〜9のいずれか一つ
に記載の奥行き画像生成方法。
10. A depth moving image generating step of storing a depth image generated by the depth image calculating step, and a depth moving image generating a depth moving image by connecting the depth images stored by the depth image storing step. The method according to any one of claims 6 to 9, further comprising the steps of:
【請求項11】 前記請求項6〜10のいずれか一つに
記載された方法をコンピュータに実行させるプログラム
を記録したことを特徴とするコンピュータ読み取り可能
な記録媒体。
11. A computer-readable recording medium on which a program for causing a computer to execute the method according to claim 6 is recorded.
JP2000254024A 2000-08-24 2000-08-24 Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method Expired - Lifetime JP4578653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000254024A JP4578653B2 (en) 2000-08-24 2000-08-24 Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000254024A JP4578653B2 (en) 2000-08-24 2000-08-24 Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method

Publications (2)

Publication Number Publication Date
JP2002077941A true JP2002077941A (en) 2002-03-15
JP4578653B2 JP4578653B2 (en) 2010-11-10

Family

ID=18743041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000254024A Expired - Lifetime JP4578653B2 (en) 2000-08-24 2000-08-24 Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method

Country Status (1)

Country Link
JP (1) JP4578653B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113807A (en) * 2004-10-14 2006-04-27 Canon Inc Image processor and image processing program for multi-eye-point image
JP2009212728A (en) * 2008-03-03 2009-09-17 Ntt Docomo Inc Stereoscopic video processor and stereoscopic video processing method
JP2011523323A (en) * 2008-06-12 2011-08-04 スォング,ヨンソック Video conversion method and apparatus
WO2017038680A1 (en) * 2015-08-31 2017-03-09 日本ユニシス株式会社 System, method and program for generating three-dimensional image data of a target object
US9843789B2 (en) 2014-09-08 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Still-image extracting method and image processing device for implementing the same
JP2019078626A (en) * 2017-10-24 2019-05-23 キヤノン株式会社 Distance detection device, imaging apparatus, distance detection method, and program
WO2022185780A1 (en) * 2021-03-03 2022-09-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113807A (en) * 2004-10-14 2006-04-27 Canon Inc Image processor and image processing program for multi-eye-point image
US7873207B2 (en) 2004-10-14 2011-01-18 Canon Kabushiki Kaisha Image processing apparatus and image processing program for multi-viewpoint image
JP2009212728A (en) * 2008-03-03 2009-09-17 Ntt Docomo Inc Stereoscopic video processor and stereoscopic video processing method
JP2011523323A (en) * 2008-06-12 2011-08-04 スォング,ヨンソック Video conversion method and apparatus
US9843789B2 (en) 2014-09-08 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Still-image extracting method and image processing device for implementing the same
WO2017038680A1 (en) * 2015-08-31 2017-03-09 日本ユニシス株式会社 System, method and program for generating three-dimensional image data of a target object
JP2019078626A (en) * 2017-10-24 2019-05-23 キヤノン株式会社 Distance detection device, imaging apparatus, distance detection method, and program
WO2022185780A1 (en) * 2021-03-03 2022-09-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4578653B2 (en) 2010-11-10

Similar Documents

Publication Publication Date Title
EP3786890B1 (en) Method and apparatus for determining pose of image capture device, and storage medium therefor
US10789765B2 (en) Three-dimensional reconstruction method
JP3745117B2 (en) Image processing apparatus and image processing method
JP4198054B2 (en) 3D video conferencing system
JP4297197B2 (en) Calibration processing apparatus, calibration processing method, and computer program
KR102563750B1 (en) Method and Device of Image Deblurring
JP5327339B2 (en) Image processing system, image processing method, and program
KR101804205B1 (en) Apparatus and method for image processing
WO2018235163A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
JP2000215311A (en) Method and device for generating virtual viewpoint image
CN111080776B (en) Human body action three-dimensional data acquisition and reproduction processing method and system
JP2008140271A (en) Interactive device and method thereof
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
JP5068732B2 (en) 3D shape generator
US11652978B2 (en) Depth map generation device
CN113538587A (en) Camera coordinate transformation method, terminal and storage medium
CN109902675B (en) Object pose acquisition method and scene reconstruction method and device
JP2018207252A (en) Image processing system, control method for image processing system, and program
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
JP2008217593A (en) Subject area extraction device and subject area extraction program
CN113763544A (en) Image determination method, image determination device, electronic equipment and computer-readable storage medium
JP4578653B2 (en) Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP2007025863A (en) Photographing system, photographing method, and image processing program
CN113286084A (en) Terminal image acquisition method and device, storage medium and terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100730

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100825

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4578653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term