JP2011211739A - Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method - Google Patents

Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method Download PDF

Info

Publication number
JP2011211739A
JP2011211739A JP2011123477A JP2011123477A JP2011211739A JP 2011211739 A JP2011211739 A JP 2011211739A JP 2011123477 A JP2011123477 A JP 2011123477A JP 2011123477 A JP2011123477 A JP 2011123477A JP 2011211739 A JP2011211739 A JP 2011211739A
Authority
JP
Japan
Prior art keywords
image
depth
image generation
shooting
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2011123477A
Other languages
Japanese (ja)
Inventor
Satoshi Nakamura
敏 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011123477A priority Critical patent/JP2011211739A/en
Publication of JP2011211739A publication Critical patent/JP2011211739A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide stereoscopic vision images suited to the intention of a photographer by generating a depth image reflecting the intention of the photographer during photographing.SOLUTION: The stereoscopic vision image preparation device includes: a first camera unit 16 for acquiring the two-dimensional image 62 of an object; a distance information acquisition means 78 for acquiring distance information to the object; a depth image generation means 80 for generating a depth image 88 for outputting the stereoscopic vision image of the object on the basis of at least the acquired distance information; a photographing related information acquisition means 82 for acquiring one or more pieces of photographing related information when the object is imaged; and a depth image generation method determination means 84 for determining one of a plurality of depth image generation methods for generating the depth image 88 on the basis of the acquired photographing related information. The depth image generation means 80 generates the depth image 88 on the basis of the acquired distance information and the depth image generation method determined in the depth image generation method determination means 84.

Description

本発明は、被写体の立体視画像を生成するための立体視画像作成装置と、生成された立体視画像を出力(例えば表示)するための立体視画像出力装置と、被写体の立体視画像を生成するための立体視画像作成方法に関する。   The present invention relates to a stereoscopic image creation device for generating a stereoscopic image of a subject, a stereoscopic image output device for outputting (for example, displaying) the generated stereoscopic image, and a stereoscopic image of the subject. The present invention relates to a method for creating a stereoscopic image.

一般に、被写体の二次元画像と、撮影装置から被写体までの距離情報が二次元的に配列された奥行き情報とを合成することによって、被写体の立体視画像を生成することができる。   In general, a stereoscopic image of a subject can be generated by combining a two-dimensional image of the subject and depth information in which distance information from the photographing device to the subject is two-dimensionally arranged.

表示のための奥行き情報は、例えば仮想的な画面において個々の画素が画面に対して垂直な方向のどの位置に見えるかを表したものであり、奥行き画像やデプスマップと称されている。   Depth information for display represents, for example, a position in the direction perpendicular to the screen of individual pixels on a virtual screen, and is referred to as a depth image or a depth map.

奥行き情報を生成する方法としては、撮像装置から被写体までの実距離を測定し、その距離を表示用の仮想的な奥行き値にマッピングする方法がある。マッピングする際には、被写体までの実距離を奥行き値に線形的にマッピングすることもできるし、任意の距離範囲を限ってその範囲内をより詳細な分解能でマッピングすることもできる。   As a method of generating depth information, there is a method of measuring an actual distance from an imaging device to a subject and mapping the distance to a virtual depth value for display. When mapping, the actual distance to the subject can be linearly mapped to the depth value, or an arbitrary distance range can be limited and the range can be mapped with more detailed resolution.

そこで、従来では、立体視用映像データを提供する方法で、二次元画像データに、奥行き情報と、奥行き情報の値の間隔を非均等に変形させることを目的とした定義情報を提供する方法が開示されている(例えば特許文献1参照)。   Therefore, conventionally, there is a method of providing definition information for the purpose of non-uniformly changing the interval between the depth information and the depth information value in the two-dimensional image data by a method of providing stereoscopic video data. It is disclosed (for example, see Patent Document 1).

この特許文献1は、さらに、立体視用映像データを提供する方法で、二次元画像データに、画面領域によって異なるビット数で表した奥行き情報を提供する方法が開示されている。   This Patent Document 1 further discloses a method for providing stereoscopic video data and a method for providing depth information represented by a different number of bits depending on a screen area to two-dimensional image data.

また、この特許文献1には、二次元画像データと付属情報から立体視映像を生成する表示装置で、奥行き情報の値の間隔を非均等に変形させるための複数のテーブルを持ち、奥行き情報とテーブルから視差量を生成し、求めた視差量を利用して立体映像を生成する表示装置が開示されている。   Further, this Patent Document 1 is a display device that generates a stereoscopic video from two-dimensional image data and attached information, and has a plurality of tables for non-uniformly changing the interval of values of depth information. A display device that generates a parallax amount from a table and generates a stereoscopic image using the calculated parallax amount is disclosed.

国際公開第2004/071102号パンフレットInternational Publication No. 2004/071102 Pamphlet

上述したように、従来例では、奥行き情報の値の間隔を非均等に変形させることによって、奥行き上の任意の位置に所望の分解能を設定することが可能であったが、撮影者が撮影時の意図として奥行き上のどの位置の分解能を重視したいのかを簡便にデータに反映させることが困難であった。   As described above, in the conventional example, it was possible to set a desired resolution at an arbitrary position on the depth by non-uniformly changing the interval of the depth information value. It was difficult to easily reflect in the data which position on the depth to focus on as the intention of the data.

さらに、奥行き情報を変換した際に、画面中に分解能が高い領域と低い領域が混在することがあるが、データに対して後から編集を行う際に、画面中の分解能が高い領域と低い領域を区別することが困難であったり、画面領域によって奥行き情報のビット数が異なっている領域を区別するために、より多くの演算を必要とするという問題があった。   In addition, when depth information is converted, there may be a mixture of high and low resolution areas on the screen, but when editing data later, areas with high and low resolution areas on the screen will be displayed. There is a problem that it is difficult to discriminate between images, and that more computations are required to distinguish regions where the number of bits of depth information differs depending on the screen region.

本発明はこのような課題を考慮してなされたものであり、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法を提供することを目的とする。   The present invention has been made in consideration of such problems, and it is possible to easily generate a depth image that reflects the intention of the photographer at the time of photographing (intention, such as which part of the photographer wants to capture clearly). An object of the present invention is to provide a stereoscopic image creation device, a stereoscopic image output device, and a stereoscopic image creation method capable of obtaining a stereoscopic image having a high stereoscopic effect suitable for a photographer's intention.

また、本発明の他の目的は、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法を提供することを目的とする。   Another object of the present invention is to easily generate a depth image and a depth accuracy image reflecting a photographer's intention at the time of photographing (which part of the photographer wants to take a clear picture or wants to record in detail). Stereoscopic image creation apparatus and stereoscopic image that can obtain a stereoscopic image with a high stereoscopic effect that suits the photographer's intention and can simplify the calculation of a region with low depth accuracy An object is to provide an output device and a stereoscopic image creation method.

第1の本発明に係る立体視画像作成装置は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、前記被写体を撮像した際の1以上の撮影関連情報を取得する撮影関連情報取得手段と、前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段とを有し、前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする。   The stereoscopic image creation device according to the first aspect of the present invention includes a two-dimensional image acquisition unit that acquires a two-dimensional image of a subject, a distance information acquisition unit that acquires distance information to the subject, and at least the distance information acquisition unit. A depth image generating means for generating a depth image for outputting a stereoscopic image of the subject based on the distance information acquired in step (b), and shooting related information for acquiring one or more shooting-related information when the subject is captured. Depth image for determining one depth image generation method among information acquisition means and a plurality of depth image generation methods for generating the depth image based on the shooting related information acquired by the shooting related information acquisition means A generation method determination unit, wherein the depth image generation unit includes the distance information acquired by the distance information acquisition unit and the depth image generation method determination unit. And generating a depth image based on the constant has been the depth image generating method.

これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる。   This makes it possible to easily generate a depth image that reflects the photographer's intention at the time of photographing (intention, such as which part he wants to capture clearly), and has a high stereoscopic effect that matches the photographer's intention. A stereoscopic image can be obtained.

次に、第2の本発明に係る立体視画像作成装置は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、前記被写体を撮像した際の複数の撮影関連情報を取得する撮影関連情報取得手段と、生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段と、前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段と、前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き精度画像生成方法決定手段とを有し、前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成し、前記奥行き精度画像生成手段は、前記奥行き精度画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする。   Next, a stereoscopic image creation apparatus according to a second aspect of the present invention includes a two-dimensional image acquisition unit that acquires a two-dimensional image of a subject, a distance information acquisition unit that acquires distance information to the subject, and at least the distance A depth image generating unit that generates a depth image for outputting a stereoscopic image of the subject based on the distance information acquired by the information acquiring unit, and a plurality of shooting-related information when the subject is captured Photography related information acquisition means, depth accuracy image generation means for generating depth accuracy images in which accuracy information for setting depth accuracy in the generated depth images is arranged, and a plurality of depth images for generating the depth images Depth image generation method in which one depth image image generation is determined based on shooting related information acquired by the shooting related information acquisition means Of the plurality of depth accuracy image generation methods for generating the depth accuracy image, one depth accuracy image image generation is determined based on the imaging related information acquired by the imaging related information acquisition unit. A depth accuracy image generation method determination unit, wherein the depth image generation unit includes the distance information acquired by the distance information acquisition unit and the depth image generation method determined by the depth image generation method determination unit. A depth image is generated based on the depth image generation method determined by the depth accuracy image generation method determination unit, and the depth accuracy image generation unit generates the depth image based on the depth image generation method determined by the depth accuracy image generation method determination unit.

これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる。   As a result, it is possible to easily generate a depth image and a depth accuracy image reflecting the intention of the photographer at the time of photographing (which part of the photographer wants to take a clear picture, an intention to record in detail, etc.). As a result, it is possible to obtain a stereoscopic image with a high stereoscopic effect that suits the intention of the user, and to simplify the calculation of a region with low depth accuracy.

そして、第2の本発明において、前記奥行き精度画像生成手段にて生成される前記奥行き精度画像は、精度の高低を示す2値画像であってもよい。この場合、奥行き精度の低い領域の演算を簡単化することができる。   In the second aspect of the present invention, the depth accuracy image generated by the depth accuracy image generation means may be a binary image indicating the level of accuracy. In this case, it is possible to simplify the calculation of the region with low depth accuracy.

また、上述の第1及び第2の本発明において、さらに、前記複数の奥行き画像生成方法を記憶する記憶手段を有し、前記奥行き画像生成方法決定手段は、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法を前記記憶手段から読み出して、前記奥行き画像生成手段に供給するようにしてもよい。あるいは、前記奥行き画像生成方法決定手段は、前記複数の奥行き画像生成方法のうち、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法をネットワークを通じて受け取り、前記奥行き画像生成手段に供給するようにしてもよい。   In the first and second aspects of the present invention described above, the image processing apparatus further includes storage means for storing the plurality of depth image generation methods, and the depth image generation method determination means is acquired by the imaging related information acquisition means. The depth image generation method corresponding to the shooting-related information may be read from the storage unit and supplied to the depth image generation unit. Alternatively, the depth image generation method determination unit receives a depth image generation method corresponding to the shooting related information acquired by the shooting related information acquisition unit among the plurality of depth image generation methods via a network, and generates the depth image You may make it supply to a means.

また、第1及び第2の本発明において、前記撮影関連情報取得手段にて取得される前記撮影関連情報としては、入力される撮影モードや、前記二次元画像生成手段にて生成された前記二次元画像の輝度情報や、撮影時のレンズの絞り値や、撮影時の合焦距離情報等がある。合焦距離情報としては、オートフォーカスの距離情報やマニュアルフォーカスの距離情報が挙げられる。   In the first and second aspects of the present invention, the shooting-related information acquired by the shooting-related information acquisition unit includes an input shooting mode and the two-dimensional image generated by the two-dimensional image generation unit. There are luminance information of a three-dimensional image, lens aperture value at the time of shooting, focus distance information at the time of shooting, and the like. Examples of the focus distance information include auto focus distance information and manual focus distance information.

また、前記撮影関連情報取得手段にて取得される前記撮影関連情報としては、前記二次元画像生成手段にて生成された前記二次元画像のうち、前記被写体の画像が記録されている領域情報であってもよい。この場合、前記被写体の顔の画像が記録されている領域情報であってもよい。   Further, the shooting related information acquired by the shooting related information acquiring unit is region information in which the image of the subject is recorded in the two-dimensional image generated by the two-dimensional image generating unit. There may be. In this case, it may be area information in which an image of the face of the subject is recorded.

次に、第3の本発明に係る立体視画像出力装置は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段とを有し、さらに前記二次元画像生成手段にて生成された前記二次元画像と、前記奥行き画像生成手段にて生成された前記奥行き画像と、前記奥行き精度画像生成手段にて生成された前記奥行き精度画像から立体視画像を生成する立体視画像生成手段を有することを特徴とする。   Next, a stereoscopic image output apparatus according to a third aspect of the present invention includes a two-dimensional image acquisition unit that acquires a two-dimensional image of a subject, a distance information acquisition unit that acquires distance information to the subject, and at least the distance Depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on the distance information acquired by the information acquisition means, and depth accuracy in the generated depth image A depth accuracy image generation unit that generates a depth accuracy image in which accuracy information is arranged, and further, the two-dimensional image generated by the two-dimensional image generation unit and the depth image generation unit It has a stereoscopic image generation means for generating a stereoscopic image from the depth image and the depth accuracy image generated by the depth accuracy image generation means.

これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を出力(例えば三次元モニタへの表示)することができると共に、奥行き精度の低い領域の演算を簡単化することができる。   As a result, it is possible to easily generate a depth image and a depth accuracy image reflecting the intention of the photographer at the time of photographing (which part of the photographer wants to take a clear picture, an intention to record in detail, etc.). Can output a stereoscopic image with a high stereoscopic effect that matches the intention (for example, display on a three-dimensional monitor), and can simplify the calculation of a region with low depth accuracy.

次に、第4の本発明に係る立体視画像作成方法は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、前記被写体を撮像した際の1以上の撮影関連情報を取得し、前記被写体の立体視画像を出力するための奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記取得した撮影関連情報に基づいて決定し、前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする。   Next, a stereoscopic image creation method according to a fourth aspect of the present invention includes a two-dimensional image acquisition unit that acquires a two-dimensional image of a subject, a distance information acquisition unit that acquires distance information to the subject, and at least the distance Stereoscopic image creation used in a stereoscopic image creation device having depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on the distance information acquired by the information acquisition means In the method, one depth among a plurality of depth image generation methods for acquiring one or more shooting-related information at the time of imaging the subject and generating a depth image for outputting a stereoscopic image of the subject. An image generation method is determined based on the acquired shooting-related information, and a depth image is generated based on the acquired distance information and the determined depth image generation method And wherein the Rukoto.

これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる。   This makes it possible to easily generate a depth image that reflects the photographer's intention at the time of photographing (intention, such as which part he wants to capture clearly), and has a high stereoscopic effect that matches the photographer's intention. A stereoscopic image can be obtained.

次に、第5の本発明に係る立体視画像作成方法は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、前記被写体を撮像した際の複数の撮影関連情報を取得し、生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成し、前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定し、前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記取得した撮影関連情報に基づいて決定し、前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成し、前記決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする。   Next, a stereoscopic image creation method according to a fifth aspect of the present invention includes a two-dimensional image acquisition unit that acquires a two-dimensional image of a subject, a distance information acquisition unit that acquires distance information to the subject, and at least the distance Stereoscopic image creation used in a stereoscopic image creation device having depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on the distance information acquired by the information acquisition means In the method, a plurality of shooting-related information when the subject is imaged is acquired, a depth accuracy image in which accuracy information for setting depth accuracy in the generated depth image is arranged, and the depth image One depth image image generation among a plurality of depth image generation methods for generating the image is determined based on the shooting related information acquired by the shooting related information acquisition means, Of the plurality of depth accuracy image generation methods for generating the depth accuracy image, one depth accuracy image image generation is determined based on the acquired shooting-related information, and the acquired distance information and the determination A depth image is generated based on the determined depth image generation method, and a depth accuracy image is generated based on the determined depth image generation method.

これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる。   As a result, it is possible to easily generate a depth image and a depth accuracy image reflecting the intention of the photographer at the time of photographing (which part of the photographer wants to take a clear picture, an intention to record in detail, etc.). As a result, it is possible to obtain a stereoscopic image with a high stereoscopic effect that suits the intention of the user, and to simplify the calculation of a region with low depth accuracy.

以上説明したように、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法によれば、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる。   As described above, according to the stereoscopic image creation device, the stereoscopic image output device, and the stereoscopic image creation method according to the present invention, the intention at the time of photographing by the photographer (intention such as which part he wants to capture clearly) ) Can be easily generated, and a stereoscopic image having a high stereoscopic effect suitable for the photographer's intention can be obtained.

また、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法によれば、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる。   In addition, according to the stereoscopic image creation device, stereoscopic image output device, and stereoscopic image creation method according to the present invention, the intention of the photographer at the time of photographing (which part is desired to be clearly photographed, detailed recording, etc.) The depth image and the depth accuracy image reflecting the intention) can be easily generated, a stereoscopic image having a high stereoscopic effect suitable for the photographer's intention can be obtained, and an area with low depth accuracy can be obtained. Calculation can be simplified.

第1立体視画像作成装置を示す構成図である。It is a lineblock diagram showing the 1st stereoscopic vision image creation device. 第1立体視画像作成装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a 1st stereoscopic vision image production apparatus. 撮影モードが風景モード、夜景モードの場合のマッピングテーブルの例を示すグラフである。It is a graph which shows the example of the mapping table in case imaging | photography modes are landscape mode and night view mode. 撮影モードがポートレートモードの場合のマッピングテーブルの例を示すグラフである。It is a graph which shows the example of the mapping table in case imaging | photography mode is portrait mode. 撮影モードがマクロモードの場合のマッピングテーブルの例を示すグラフである。It is a graph which shows the example of the mapping table in case imaging | photography mode is macro mode. AFの合焦距離に応じた4種類のマッピングテーブルの例を示すグラフである。It is a graph which shows the example of four types of mapping tables according to the focus distance of AF. 第1処理例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 1st process example. 第2処理例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd process example. 第2立体視画像作成装置を示す構成図である。It is a block diagram which shows a 2nd stereoscopic vision image production apparatus. 第3処理例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 3rd process example. 背景が明るい場合に適した撮影モードである場合において、奥行き精度の高低を決定する基準を示す説明図である。It is explanatory drawing which shows the reference | standard which determines the level of depth precision, when it is a imaging | photography mode suitable for the case where a background is bright. 背景が暗い場合に適した撮影モードである場合において、奥行き精度の高低を決定する基準を示す説明図である。It is explanatory drawing which shows the reference | standard which determines the level of depth precision, when it is a photography mode suitable for the case where a background is dark. 第4処理例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 4th process example. 被写界深度に基づいて奥行き精度の高低を決定する基準を示す説明図である。It is explanatory drawing which shows the reference | standard which determines the level of depth precision based on a depth of field. 第5処理例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 5th process example. 図16Aは建物の画像を特定した状態を示す説明図であり、図16Bは建物の画像を構成する画素の奥行き精度を「高」に設定し、それ以外の画素の奥行き精度を「低」に設定した例を示す説明図である。FIG. 16A is an explanatory diagram showing a state in which an image of a building is specified, and FIG. 16B sets the depth accuracy of the pixels constituting the building image to “high” and the depth accuracy of other pixels to “low”. It is explanatory drawing which shows the set example. 第6処理例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 6th process example. 顔の画像を特定した状態を示す説明図である。It is explanatory drawing which shows the state which specified the image of the face. 第3立体視画像作成装置を示す構成図である。It is a block diagram which shows a 3rd stereoscopic vision image production apparatus. 第2立体視画像作成装置の他の使用例を示す説明図である。It is explanatory drawing which shows the other usage example of a 2nd stereoscopic vision image production apparatus. 立体視画像出力装置を示す構成図である。It is a block diagram which shows a stereoscopic vision image output apparatus. 立体視画像出力装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a stereoscopic vision image output device. 立体視画像出力装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of a stereoscopic vision image output device. 図24Aは第1補正テーブルの例を示すグラフであり、図24Bは第2補正テーブルの例を示すグラフである。FIG. 24A is a graph showing an example of the first correction table, and FIG. 24B is a graph showing an example of the second correction table. 立体視画像出力装置の他の使用例を示す説明図である。It is explanatory drawing which shows the other usage example of a stereoscopic vision image output device.

以下、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法の実施の形態例を図1〜図25を参照しながら説明する。   Embodiments of a stereoscopic image creation device, a stereoscopic image output device, and a stereoscopic image creation method according to the present invention will be described below with reference to FIGS.

先ず、第1の実施の形態に係る立体視画像作成装置(以下、第1立体視画像作成装置10Aと記す)は、少なくとも被写体の二次元画像と二次元画像に対応した奥行き画像を生成して、外部記憶装置12に記憶するようになっている。   First, the stereoscopic image creation device according to the first embodiment (hereinafter referred to as the first stereoscopic image creation device 10A) generates at least a two-dimensional image of a subject and a depth image corresponding to the two-dimensional image. The data is stored in the external storage device 12.

この第1立体視画像作成装置10Aは、図1に示すように、第1CCD撮像素子14を有する第1カメラ部16と、第2CCD撮像素子18を有する第2カメラ部20と、デジタル信号処理を行うためのメインメモリ22と、システムの起動等を行うためのシステム情報が記録されたシステムメモリ24と、各種プログラムを起動して動作させるCPU26とを有する。   As shown in FIG. 1, the first stereoscopic image creating apparatus 10A includes a first camera unit 16 having a first CCD image sensor 14, a second camera unit 20 having a second CCD image sensor 18, and digital signal processing. The main memory 22 for performing, the system memory 24 in which system information for performing system activation and the like is recorded, and the CPU 26 for activating and operating various programs.

これら第1カメラ部16、第2カメラ部20、メインメモリ22、システムメモリ24、CPU26等は制御バスやデータバス(以下、単にバス28と記す)を通じて接続されている。このバス28には、上述の部材のほか、不揮発性メモリ30、USBドライバ32、I/Oインターフェース34、カレンダ時計36、タイマ38等が接続されている。USBドライバ32には外部コネクタ40が接続され、該外部コネクタ40を介して外部記憶装置12が接続されている。また、I/Oインターフェース34には、操作パネル42上のスイッチやLED等が接続されている。なお、これら各部材は、コネクタ44に接続された外部電源(図示せず)が電源制御回路46及びDC−DCコンバータ48を介して供給されるようになっている。   The first camera unit 16, the second camera unit 20, the main memory 22, the system memory 24, the CPU 26, and the like are connected through a control bus and a data bus (hereinafter simply referred to as a bus 28). In addition to the above-described members, the non-volatile memory 30, USB driver 32, I / O interface 34, calendar clock 36, timer 38, and the like are connected to the bus 28. An external connector 40 is connected to the USB driver 32, and the external storage device 12 is connected via the external connector 40. The I / O interface 34 is connected to switches on the operation panel 42 and LEDs. Each of these members is supplied with an external power source (not shown) connected to the connector 44 via a power control circuit 46 and a DC-DC converter 48.

第1カメラ部16は、上述した第1CCD撮像素子14のほか、レンズやモータを有し、且つ、被写体の映像を第1CCD撮像素子14に結像させるための第1光学系50と、第1CCD撮像素子14からの撮像信号をアナログの映像信号に信号処理する第1アナログ信号処理回路52と、映像信号をデジタル変換して映像データにする第1A/D変換器54と、第1A/D変換器54からの出力に基づいてオートアイリスやオートフォーカスのための制御信号を生成する第1積算回路と、第1積算回路56からの制御信号に基づいてレンズの絞りやフォーカシング、ズーム等を制御する第1駆動制御部58と、第1CCD撮像素子14や第1アナログ信号処理回路52等にタイミング信号を出力する第1タイミング発生回路60とを有する。そして、第1A/D変換器54から出力される映像データが水平同期信号に合わせてメインメモリ22に二次元的に記録されることで、第1二次元画像62(図2参照)が生成されることになる。従って、この第1カメラ部16は二次元画像取得手段として機能する。   The first camera unit 16 includes a lens and a motor in addition to the first CCD image pickup device 14 described above, and includes a first optical system 50 for forming an image of a subject on the first CCD image pickup device 14, and a first CCD. A first analog signal processing circuit 52 that processes an imaging signal from the imaging device 14 into an analog video signal, a first A / D converter 54 that digitally converts the video signal into video data, and a first A / D conversion A first integrating circuit that generates a control signal for auto iris and autofocus based on the output from the detector 54, and a first integrating circuit that controls the aperture, focusing, zoom, etc. of the lens based on the control signal from the first integrating circuit 56. 1 drive control unit 58, and a first timing generation circuit 60 that outputs a timing signal to the first CCD image pickup device 14, the first analog signal processing circuit 52, and the like.Then, the video data output from the first A / D converter 54 is two-dimensionally recorded in the main memory 22 in accordance with the horizontal synchronizing signal, thereby generating a first two-dimensional image 62 (see FIG. 2). Will be. Accordingly, the first camera unit 16 functions as a two-dimensional image acquisition unit.

第2カメラ部20は、上述した第1カメラ部16と同様の構成を有し、第2CCD撮像素子18に加えて以下の部材を有する。すなわち、レンズやモータを有し、且つ、被写体の映像を第2CCD撮像素子18に結像させるための第2光学系64と、第2CCD撮像素子18からの撮像信号をアナログの映像信号に信号処理する第2アナログ信号処理回路66と、映像信号をデジタル変換して映像データにする第2A/D変換器68と、第2A/D変換器68からの出力に基づいてオートアイリスやオートフォーカスのための制御信号を生成する第2積算回路70と、第2積算回路70からの制御信号に基づいてレンズの絞りやフォーカシング、ズーム等を制御する第2駆動制御部72と、第2CCD撮像素子18や第2アナログ信号処理回路66等にタイミング信号を出力する第2タイミング発生回路74とを有する。そして、第2A/D変換器68から出力される映像データが水平同期信号に合わせてメインメモリ22に二次元的に記録されることで、第2二次元画像76(図2参照)が生成されることになる。   The second camera unit 20 has the same configuration as that of the first camera unit 16 described above, and includes the following members in addition to the second CCD image sensor 18. That is, it has a lens and a motor, and the second optical system 64 for forming an image of a subject on the second CCD image sensor 18 and the image signal from the second CCD image sensor 18 are processed into an analog video signal. A second analog signal processing circuit 66 for converting the video signal into digital data by converting the video signal into video data, and for auto iris and autofocus based on the output from the second A / D converter 68. A second integration circuit 70 that generates a control signal, a second drive control unit 72 that controls the aperture, focusing, zoom, and the like of the lens based on the control signal from the second integration circuit 70, the second CCD image sensor 18, And a second timing generation circuit 74 that outputs a timing signal to the analog signal processing circuit 66 and the like. Then, the video data output from the second A / D converter 68 is two-dimensionally recorded in the main memory 22 in accordance with the horizontal synchronization signal, thereby generating a second two-dimensional image 76 (see FIG. 2). Will be.

一方、CPU26で起動、動作するソフトウエアは、図2に示すように、距離情報取得手段78と、奥行き画像生成手段80と、撮影関連情報取得手段82と、奥行き画像生成方法決定手段84とを有する。   On the other hand, as shown in FIG. 2, the software activated and operated by the CPU 26 includes a distance information acquisition unit 78, a depth image generation unit 80, a photographing related information acquisition unit 82, and a depth image generation method determination unit 84. Have.

距離情報取得手段78は、例えば第1カメラ部16から被写体までの距離情報を取得する。この場合、第1カメラ部16からの第1二次元画像62と第2カメラ部20からの第2二次元画像76とを画像処理して、第1二次元画像62における画素ごとの距離情報をそれぞれ演算して取得し、距離情報ファイル86としてメインメモリ22に記憶する。2つの二次元画像から距離情報を取得する方法としては、例えば特開2006−191357号公報に記載された手法を使用することができる。   The distance information acquisition unit 78 acquires distance information from the first camera unit 16 to the subject, for example. In this case, the first 2D image 62 from the first camera unit 16 and the second 2D image 76 from the second camera unit 20 are subjected to image processing, and distance information for each pixel in the first 2D image 62 is obtained. Each is calculated and acquired, and stored in the main memory 22 as a distance information file 86. As a method of acquiring distance information from two two-dimensional images, for example, a method described in Japanese Patent Application Laid-Open No. 2006-191357 can be used.

なお、上述の例では、第1二次元画像62に対する距離情報を取得する方法を述べたが、第2二次元画像76に対する距離情報を取得するようにしてもよい。この場合、第2カメラ部20が二次元画像取得手段として機能することになる。   In the above-described example, the method for acquiring the distance information with respect to the first two-dimensional image 62 has been described. However, the distance information with respect to the second two-dimensional image 76 may be acquired. In this case, the second camera unit 20 functions as a two-dimensional image acquisition unit.

奥行き画像生成手段80は、少なくとも距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル86)に基づいて、被写体の立体視画像を出力するための奥行き画像88を生成する。   The depth image generation means 80 generates a depth image 88 for outputting a stereoscopic image of the subject based on at least the distance information (distance information file 86) for each pixel acquired by the distance information acquisition means 78.

撮影関連情報取得手段82は、撮影者が撮影の際に操作入力した情報や、撮影時の被写体の状況を撮影関連情報として電気的に取得する手段である。撮影関連情報としては、以下のようなものが挙げられる。   The shooting related information acquisition unit 82 is a unit that electrically acquires information input by the photographer during shooting and the state of the subject at the time of shooting as shooting related information. Examples of the shooting-related information include the following.

(1)操作パネル42に配列されたスイッチを撮影者が操作することによって入力される撮影モード。 (1) A shooting mode that is input when the photographer operates the switches arranged on the operation panel 42.

(2)第1カメラ部16によって取得された第1二次元画像62の輝度情報。 (2) Luminance information of the first two-dimensional image 62 acquired by the first camera unit 16.

(3)第1積算回路56から出力されるレンズの絞り値。 (3) A lens aperture value output from the first integration circuit 56.

(4)第1積算回路56から出力されるオートフォーカスの合焦距離。 (4) The focus distance of autofocus output from the first integration circuit 56.

(5)第1二次元画像62に含まれる被写体の画像の記録範囲。 (5) A recording range of the image of the subject included in the first two-dimensional image 62.

(6)被写体が人間や動物の顔である場合に、第1二次元画像62に含まれる顔の画像の記録範囲。 (6) A face image recording range included in the first two-dimensional image 62 when the subject is a human or animal face.

奥行き画像生成方法決定手段84は、奥行き画像88を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、撮影関連情報取得手段82にて取得した撮影関連情報に基づいて決定する。奥行き画像生成方法としては、例えば図3〜図6に示すように、距離に対する奥行き値のマッピングテーブル90a〜90gが挙げられる。これらマッピングテーブル90a〜90gは、横軸に距離の対数目盛り、縦軸に奥行き値の数直線目盛りをとったグラフをテーブル化したものである。記憶容量の関係から、100m以上の距離を無限大とし、奥行き値の範囲を8ビットで収まるようにしてある。複数のマッピングテーブル90a〜90gは、予め例えば不揮発性メモリ30に記憶される。   The depth image generation method determination unit 84 selects one depth image generation method among a plurality of depth image generation methods for generating the depth image 88 based on the imaging related information acquired by the imaging related information acquisition unit 82. decide. Examples of the depth image generation method include mapping tables 90a to 90g of depth values with respect to distances as shown in FIGS. These mapping tables 90a to 90g are tabulated graphs having a logarithmic scale of distance on the horizontal axis and a number linear scale of depth values on the vertical axis. From the relationship of storage capacity, the distance of 100 m or more is set to infinity, and the range of depth values is set to 8 bits. The plurality of mapping tables 90a to 90g are stored in advance in the nonvolatile memory 30, for example.

そして、複数のマッピングテーブル90a〜90g(奥行き画像生成方法)としては、図3〜図6に示すような例が挙げれられる。   Examples of the plurality of mapping tables 90a to 90g (depth image generation method) include the examples shown in FIGS.

図3は、撮影モードが「風景モード、夜景モード」の場合のマッピングテーブル90aの例であり、図4は、撮影モードが「ポートレートモード」の場合のマッピングテーブル90bの例であり、図5は、撮影モードが「マクロモード」の場合のマッピングテーブル90cの例であり、図6は、オートフォーカスの合焦距離別の4種のマッピングテーブル90d〜90gの例である。図6において、AF=0.1mの場合にマッピングテーブル90dを用い、AF=1mの場合にマッピングテーブル90eを用い、AF=5mの場合にマッピングテーブル90fを用い、AF=無限大の場合にマッピングテーブル90gを用いる。   3 is an example of the mapping table 90a when the shooting mode is “landscape mode, night view mode”, and FIG. 4 is an example of the mapping table 90b when the shooting mode is “portrait mode”. Fig. 6 is an example of a mapping table 90c when the photographing mode is "macro mode", and Fig. 6 is an example of four types of mapping tables 90d to 90g for each autofocus focus distance. In FIG. 6, the mapping table 90d is used when AF = 0.1 m, the mapping table 90e is used when AF = 1m, the mapping table 90f is used when AF = 5m, and the mapping is performed when AF = infinity. A table 90g is used.

図3〜図6に示すマッピングテーブル90a〜90gの特性を、第1二次元画像に含まれる被写体の画像の記録範囲の大小や、第1二次元画像に含まれる顔の画像の記録範囲の大小によって変化させるようにしてもよい。   The characteristics of the mapping tables 90a to 90g shown in FIGS. 3 to 6 are based on the size of the recording range of the subject image included in the first 2D image and the size of the recording range of the face image included in the first 2D image. You may make it change by.

また、図3〜図6では、距離を基準にした奥行き値のマッピングテーブル90a〜90gの例を示したが、その他、輝度を基準にした奥行き値のマッピングテーブルも同様に用意すればよい。この場合、撮影関連情報のうち、第1カメラ部16によって取得された第1二次元画像62の輝度情報や第1積算回路56から出力されるレンズの絞り値に応じた奥行き値を得ることができる。もちろん、この輝度を基準にしたマッピングテーブルにおいても、その特性を、第1二次元画像62に含まれる被写体の画像の記録範囲の大小や、第1二次元画像62に含まれる顔の画像の記録範囲の大小によって変化させるようにしてもよい。   3 to 6 show examples of the depth value mapping tables 90a to 90g based on the distance, but other depth value mapping tables based on the luminance may be prepared in the same manner. In this case, the depth value corresponding to the luminance information of the first two-dimensional image 62 acquired by the first camera unit 16 and the lens aperture value output from the first integration circuit 56 among the imaging related information can be obtained. it can. Of course, in the mapping table based on this luminance, the characteristics of the mapping table include the size of the recording range of the subject image included in the first 2D image 62 and the recording of the face image included in the first 2D image 62. You may make it change with the magnitude of a range.

そして、上述した奥行き画像生成手段80は、距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル86)と、奥行き画像生成方法決定手段84にて決定された1つの奥行き画像生成方法(マッピングテーブル)に基づいて奥行き画像を生成する。   The depth image generation means 80 described above generates distance information (distance information file 86) for each pixel acquired by the distance information acquisition means 78 and one depth image generation determined by the depth image generation method determination means 84. A depth image is generated based on a method (mapping table).

ここで、第1立体視画像作成装置10Aの処理動作の2つの例(第1処理例及び第2処理例)について図7を参照しながら説明する。   Here, two examples (first processing example and second processing example) of the processing operation of the first stereoscopic image creating apparatus 10A will be described with reference to FIG.

第1処理例は、不揮発性メモリ30に、撮影モードに対応した例えば図3〜図5に示す3つのマッピングテーブル90a〜90cが記憶されている場合を想定したものである。   In the first processing example, it is assumed that the non-volatile memory 30 stores, for example, three mapping tables 90a to 90c shown in FIGS.

先ず、図7のステップS1において、撮影関連情報取得手段82は撮影モードを取得する。撮影者は、被写体の撮影の際に、現在の撮影において最適だと意図した撮影モードを操作パネル42のスイッチを操作することによって入力する。従って、撮影関連情報取得手段82は、スイッチの入力割込みに基づいて、入力される撮影モードを取得し、メインメモリ22の所定アドレスに格納する。   First, in step S1 of FIG. 7, the shooting related information acquisition unit 82 acquires the shooting mode. When photographing a subject, the photographer inputs a photographing mode intended to be optimal for the current photographing by operating a switch on the operation panel 42. Therefore, the photographing related information acquisition unit 82 acquires the input photographing mode based on the switch input interrupt, and stores it in a predetermined address of the main memory 22.

その後、図7のステップS2において、奥行き画像生成方法決定手段84は、今回の撮影モードに対応した奥行き画像生成方法を取得する。具体的には、不揮発性メモリ30に記憶されている3つのマッピングテーブル90a〜90cのうち、取得された撮影モードに対応したマッピングテーブルを選択し、その情報、例えば選択したマッピングテーブルの先頭アドレスやテーブル番号等をメインメモリ22の所定アドレスに格納する。   Thereafter, in step S <b> 2 of FIG. 7, the depth image generation method determination unit 84 acquires a depth image generation method corresponding to the current shooting mode. Specifically, the mapping table corresponding to the acquired shooting mode is selected from the three mapping tables 90a to 90c stored in the nonvolatile memory 30, and the information, for example, the top address of the selected mapping table, The table number and the like are stored at a predetermined address in the main memory 22.

その後、図7のステップS3において、第1カメラ部16は、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像62)を取得してメインメモリ22に記録する。このとき、第2カメラ部20にて撮像した第2二次元画像76もメインメモリ22に記録される。   Thereafter, in step S3 of FIG. 7, the first camera unit 16 acquires the two-dimensional image 62 (first two-dimensional image 62) of the subject based on the input of the photographing button by the photographer and records it in the main memory 22. To do. At this time, the second two-dimensional image 76 captured by the second camera unit 20 is also recorded in the main memory 22.

その後、図7のステップS4において、距離情報取得手段78は、メインメモリ22に記録されている第1二次元画像62と第2二次元画像76とを画像処理して、第1二次元画像62における画素ごとの距離情報をそれぞれ演算して取得し、距離情報ファイル86としてメインメモリ22に記録する。   Thereafter, in step S4 of FIG. 7, the distance information acquisition unit 78 performs image processing on the first two-dimensional image 62 and the second two-dimensional image 76 recorded in the main memory 22, and performs the first two-dimensional image 62. The distance information for each pixel is calculated and acquired, and is recorded in the main memory 22 as a distance information file 86.

その後、図7のステップS5において、奥行き画像生成手段80は、ステップS2においてメインメモリ22の所定アドレスに記憶されたマッピングテーブルの情報に対応する1つの奥行き画像生成方法(マッピングテーブル)を読み出し、このマッピングテーブルと、距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル86)とに基づいて、画素ごとに奥行き値をそれぞれ設定していき、奥行き画像88を生成し、生成した奥行き画像88をメインメモリ22に記録する。この段階で、第1処理例が終了する。   Thereafter, in step S5 of FIG. 7, the depth image generation means 80 reads one depth image generation method (mapping table) corresponding to the information of the mapping table stored in the predetermined address of the main memory 22 in step S2. Based on the mapping table and the distance information (distance information file 86) for each pixel acquired by the distance information acquisition means 78, the depth value is set for each pixel, and the depth image 88 is generated and generated. The depth image 88 is recorded in the main memory 22. At this stage, the first processing example ends.

次に、第2処理例について図8を参照しながら説明する。第2処理例は、不揮発性メモリ30に、オートフォーカスの合焦距離撮に対応した例えば図6に示す4つのマッピングテーブル90d〜90gが記憶されている場合を想定したものである。   Next, a second processing example will be described with reference to FIG. In the second processing example, it is assumed that the non-volatile memory 30 stores four mapping tables 90d to 90g shown in FIG.

先ず、図8のステップS101において、撮影関連情報取得手段82は、オートフォーカス(AF)の合焦距離を取得する。撮影者は、被写体の撮影の際に、例えば被写体との距離が最適だと意図したところに移動する。このとき、第1積算回路56からAFの合焦距離が出力され、第1駆動制御部58によって第1光学系50が駆動制御され、合焦距離に応じたオートフォーカシング制御が行われる。なお、第2カメラ部20でも同様の処理が行われる。従って、撮影関連情報取得手段82は、第1積算回路56から出力されるAFの合焦距離を取得し、メインメモリ22の所定アドレスに格納する。   First, in step S101 of FIG. 8, the imaging related information acquisition unit 82 acquires the focus distance of autofocus (AF). The photographer moves to a place where he / she intends that the distance to the subject is optimum, for example, when photographing the subject. At this time, the AF focusing distance is output from the first integrating circuit 56, the first optical system 50 is driven and controlled by the first drive control unit 58, and autofocusing control according to the focusing distance is performed. The second camera unit 20 performs the same process. Therefore, the imaging related information acquisition unit 82 acquires the AF focusing distance output from the first integration circuit 56 and stores it in a predetermined address of the main memory 22.

その後、図8のステップS102において、奥行き画像生成方法決定手段84は、今回のAFの合焦距離に対応した奥行き画像生成方法を取得する。具体的には、不揮発性メモリ30に記憶されている4つのマッピングテーブル90d〜90gのうち、取得されたAFの合焦距離に対応したマッピングテーブルを選択し、その情報、例えば選択したマッピングテーブルの先頭アドレスやテーブル番号等をメインメモリ22の所定アドレスに格納する。   Thereafter, in step S102 of FIG. 8, the depth image generation method determination means 84 acquires a depth image generation method corresponding to the focus distance of the current AF. Specifically, a mapping table corresponding to the obtained AF focusing distance is selected from the four mapping tables 90d to 90g stored in the nonvolatile memory 30, and the information, for example, the selected mapping table A head address, a table number, and the like are stored at predetermined addresses in the main memory 22.

その後、図8のステップS103において、第1カメラ部16は、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得してメインメモリ22に記録する。このとき、第2カメラ部20にて撮像した第2二次元画像76もメインメモリ22に記録される。   Thereafter, in step S103 of FIG. 8, the first camera unit 16 acquires a two-dimensional image 62 (first two-dimensional image) of the subject based on the input of the photographing button by the photographer and records it in the main memory 22. . At this time, the second two-dimensional image 76 captured by the second camera unit 20 is also recorded in the main memory 22.

その後、図8のステップS104において、距離情報取得手段78は、メインメモリ22に記録されている第1二次元画像62と第2二次元画像76とを画像処理して、第1二次元画像62における画素ごとの距離情報をそれぞれ演算して取得し、距離情報ファイル86としてメインメモリ22に記録する。   Thereafter, in step S104 of FIG. 8, the distance information acquisition unit 78 performs image processing on the first two-dimensional image 62 and the second two-dimensional image 76 recorded in the main memory 22 to obtain the first two-dimensional image 62. The distance information for each pixel is calculated and acquired, and is recorded in the main memory 22 as a distance information file 86.

その後、図8のステップS105において、奥行き画像生成手段80は、ステップS102においてメインメモリ22の所定アドレスに記憶されたマッピングテーブルの情報に対応する1つの奥行き画像生成方法(マッピングテーブル)を読み出し、このマッピングテーブルと、距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル78)とに基づいて、画素ごとに奥行き値をそれぞれ設定していき、奥行き画像88を生成し、生成した奥行き画像88をメインメモリ22に記録する。この段階で、第2処理例が終了する。   Thereafter, in step S105 of FIG. 8, the depth image generation means 80 reads one depth image generation method (mapping table) corresponding to the information of the mapping table stored in the predetermined address of the main memory 22 in step S102. Based on the mapping table and the distance information (distance information file 78) for each pixel acquired by the distance information acquisition means 78, the depth value is set for each pixel, and the depth image 88 is generated and generated. The depth image 88 is recorded in the main memory 22. At this stage, the second processing example ends.

上述の第1処理例及び第2処理例は、距離を基準にした奥行き値のマッピングテーブル90a〜90gを主体にして説明したが、その他、輝度を基準にしたマッピングテーブルを用いた処理や、これらマッピングテーブルを組み合わせた処理も同様に行うことができる。   In the first processing example and the second processing example described above, the depth value mapping tables 90a to 90g based on the distance have been mainly described, but other processes using the mapping table based on the brightness, Processing combining the mapping tables can be performed in the same manner.

このように、第1立体視画像作成装置10Aにおいては、撮影者が撮影時の意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を生成することができ、撮影者の意図に合った立体視画像を得ることができる。例えば、第1処理例によれば、撮影者が入力した撮影モードによって得られた被写体に適した立体視画像を作成することができる。第2処理例によれば、撮影時のAFの合焦距離によって得られた被写体に適した立体視画像を作成することができる。同様に、二次元画像の輝度に適した立体視画像を作成することができ、また、撮影時のレンズの絞り値によって得られた被写体に適した立体視画像を作成することができる。   Thus, in the first stereoscopic image creation device 10A, the photographer can generate a depth image that reflects the intention at the time of photographing (intention, such as which part he wants to capture clearly). Can be obtained. For example, according to the first processing example, it is possible to create a stereoscopic image suitable for the subject obtained by the photographing mode input by the photographer. According to the second processing example, it is possible to create a stereoscopic image suitable for the subject obtained by the AF focusing distance at the time of shooting. Similarly, a stereoscopic image suitable for the luminance of the two-dimensional image can be created, and a stereoscopic image suitable for the subject obtained by the lens aperture value at the time of shooting can be created.

次に、さらに好ましい態様を有する第2の実施の形態に係る立体視画像作成装置(以下、第2立体視画像作成装置10Bを記す)について図9〜図18を参照しながら説明する。   Next, a stereoscopic image creation device (hereinafter, referred to as a second stereoscopic image creation device 10B) according to a second embodiment having a more preferable aspect will be described with reference to FIGS.

この第2立体視画像作成装置10Bは、図9に示すように、上述した第1立体視画像作成装置10Aとほぼ同様の構成を有するが、距離情報取得手段78と、奥行き画像生成手段80と、撮影関連情報取得手段82と、奥行き画像生成方法決定手段84とに加えて、奥行き精度画像生成手段92を有する。   As shown in FIG. 9, the second stereoscopic image creation apparatus 10B has substantially the same configuration as the first stereoscopic image creation apparatus 10A described above, but has a distance information acquisition unit 78, a depth image generation unit 80, and the like. In addition to the photographing related information acquisition unit 82 and the depth image generation method determination unit 84, a depth accuracy image generation unit 92 is provided.

被写体の距離や輝度によっては、被写体の一部を鮮明に、あるいは凹凸を詳細に撮って、その他の部分を簡略化して撮りたい場合がある。すなわち、1つの二次元画像について、被写体の一部の奥行き精度を高くし、他の部分の奥行き精度を低く設定したいという意図が働く場合がある。   Depending on the distance and brightness of the subject, there may be a case where it is desired to take a part of the subject clearly or in detail, and to simplify the other parts. That is, for one two-dimensional image, there is a case where the intention of increasing the depth accuracy of a part of the subject and setting the depth accuracy of other parts to be low may work.

奥行き精度の高低は、被写体の輝度や、距離、二次元画像上での記録範囲、被写体の内容等によって変わる。   The depth accuracy varies depending on the brightness of the subject, the distance, the recording range on the two-dimensional image, the content of the subject, and the like.

そこで、奥行き精度画像生成手段92は、上述した生成された奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像94を生成する。すなわち、取得した二次元画像62と同じ画素配列を有する別の二次元画像(奥行き精度画像94)を用意し、取得した二次元画像62のうち、奥行き精度を高くしたい画素について奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、奥行き精度が低くてもよい画素について奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。そして、この奥行き精度画像94を用いて、奥行き画像88に記録されている奥行き値から視差量を演算することで、撮影者が鮮明に撮りたいという意図のもとで撮影した被写体の画像が、特に鮮明に表示(出力)されることなる。   Therefore, the depth accuracy image generation unit 92 generates a depth accuracy image 94 in which accuracy information for setting the depth accuracy in the generated depth image is arranged. That is, another two-dimensional image (depth accuracy image 94) having the same pixel arrangement as that of the acquired two-dimensional image 62 is prepared, and the depth accuracy = “high” for the pixel in the acquired two-dimensional image 62 for which the depth accuracy is to be increased. Information (for example, logical value “1”) is allocated, and information indicating depth accuracy = “low” (for example, logical value “0”) is allocated to pixels that may have low depth accuracy. Then, by using this depth accuracy image 94 to calculate the amount of parallax from the depth value recorded in the depth image 88, the image of the subject photographed with the intention that the photographer wants to take a clear image is obtained. In particular, it is displayed (output) clearly.

次に、この奥行き精度を考慮した4つの処理例(第3処理例〜第6処理例)について図10〜図18を参照しながら説明する。なお、上述した奥行き画像生成方法決定手段84による処理はいずれも撮影モードに対応した1つのマッピングテーブルを決定する場合を想定している。   Next, four processing examples (third processing example to sixth processing example) in consideration of the depth accuracy will be described with reference to FIGS. Note that the processing by the depth image generation method determination unit 84 described above assumes a case where one mapping table corresponding to the shooting mode is determined.

そして、第3処理例は、二次元画像62の輝度情報に基づいて奥行き精度画像94を生成する処理を含む。   The third processing example includes processing for generating the depth accuracy image 94 based on the luminance information of the two-dimensional image 62.

先ず、図7のステップS1〜ステップS5と同様に、図10のステップS201において、撮影関連情報取得手段82が撮影モードを取得し、ステップS202において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図10のステップS203において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS204において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS205において、奥行き画像生成手段80は、ステップS202において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。   First, similarly to step S1 to step S5 in FIG. 7, in step S201 in FIG. 10, the shooting related information acquisition unit 82 acquires the shooting mode, and in step S202, the depth image generation method determination unit 84 sets the current shooting mode. A depth image generation method corresponding to is acquired. Thereafter, in step S203 of FIG. 10, the first camera unit 16 acquires a two-dimensional image 62 (first two-dimensional image) of the subject based on the input of the photographing button by the photographer. In step S204, the distance information The acquisition unit 78 acquires distance information for each pixel in the first two-dimensional image, that is, the distance information file 86. Thereafter, in step S205, the depth image generation unit 80 generates a depth image 88 based on the one depth image generation method (mapping table) determined in step S202 and the distance information file 86 acquired by the distance information acquisition unit 78. Generate.

そして、ステップS206において、奥行き精度画像生成手段92は、二次元画像62の画素ごとの輝度値から、撮影モードと予め設定された輝度に関する閾値に基づいて画素ごとの奥行き精度を設定し、奥行き精度画像94を生成する。   In step S206, the depth accuracy image generation unit 92 sets the depth accuracy for each pixel based on the luminance value for each pixel of the two-dimensional image 62 on the basis of the shooting mode and a preset threshold relating to the luminance. An image 94 is generated.

例えば、撮影モードがスキー場等のように背景が明るい場合に適した撮影モードである場合、輝度の高い被写体については光量が多すぎてほとんど形状等の見分けがつかないことがあり、このような場合、奥行き精度を高くしても立体視画像とする効果はほとんどなく、むしろ奥行き精度を低くして平面的な画像にすることが好ましい。そこで、図11に示すように、輝度の高い画素(輝度値が第1閾値Vt1よりも高い画素)については、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当て、輝度が低い画素(輝度値が第1閾値以下の画素)については、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当てる。   For example, when the shooting mode is a shooting mode suitable for a bright background such as a ski resort, there is a case where a high-luminance subject has too much light and is almost indistinguishable from its shape. In this case, even if the depth accuracy is increased, there is almost no effect of making a stereoscopic image. Rather, it is preferable to reduce the depth accuracy to obtain a planar image. Therefore, as shown in FIG. 11, information indicating depth accuracy = “low” (for example, logical value “0”) is assigned to a pixel having high luminance (a pixel having a luminance value higher than the first threshold value Vt1), and luminance For a pixel with a low value (a pixel whose luminance value is equal to or less than the first threshold value), information indicating depth accuracy = “high” (for example, a logical value “1”) is assigned.

反対に、撮影モードが夜景等のように背景が暗い場合に適した撮影モードである場合、輝度の低い被写体については光量が少なすぎてほとんど形状等の見分けがつかないことがあり、このような場合、奥行き精度を高くしても立体視画像とする効果はほとんどなく、むしろ奥行き精度を低くして平面的な画像にすることが好ましい。そこで、図12に示すように、輝度の低い画素(輝度値が第2閾値Vt2(<第1閾値Vt1)よりも低い画素)については、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当て、輝度が高い画素(輝度値が第2閾値以上の画素)については、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当てる。   On the other hand, if the shooting mode is suitable for a dark background such as a night view, the light intensity is too low for a subject with low brightness, and the shape may not be distinguished. In this case, even if the depth accuracy is increased, there is almost no effect of making a stereoscopic image. Rather, it is preferable to reduce the depth accuracy to obtain a planar image. Therefore, as shown in FIG. 12, for low-luminance pixels (pixels whose luminance value is lower than the second threshold value Vt2 (<first threshold value Vt1)), information indicating depth accuracy = “low” (for example, the logical value “ 0 ”) and information indicating depth accuracy =“ high ”(for example, logical value“ 1 ”) is assigned to pixels with high luminance (pixels having a luminance value equal to or higher than the second threshold).

奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第3処理例が終了する。   The depth accuracy image generation unit 92 generates the depth accuracy image 94 as described above, and records the generated depth accuracy image 94 in the main memory 22. At this stage, the third processing example ends.

次に、第4処理例について図13及び図14を参照しながら説明する。この第4処理例は、二次元画像の距離情報と被写界深度に基づいて奥行き精度画像を生成する処理を含む。   Next, a fourth processing example will be described with reference to FIGS. This fourth processing example includes processing for generating a depth accuracy image based on the distance information of the two-dimensional image and the depth of field.

先ず、図7のステップS1〜ステップS5と同様に、図13のステップS301において、撮影関連情報取得手段82が撮影モードを取得し、ステップS302において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図13のステップS303において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS304において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS305において、奥行き画像生成手段80は、ステップS302において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。   First, similarly to steps S1 to S5 in FIG. 7, in step S301 in FIG. 13, the shooting related information acquisition unit 82 acquires the shooting mode, and in step S302, the depth image generation method determination unit 84 determines the current shooting mode. A depth image generation method corresponding to is acquired. Thereafter, in step S303 in FIG. 13, the first camera unit 16 acquires a two-dimensional image 62 (first two-dimensional image) of the subject based on the input of the photographing button by the photographer. In step S304, the distance information The acquisition unit 78 acquires distance information for each pixel in the first two-dimensional image, that is, the distance information file 86. Thereafter, in step S305, the depth image generation unit 80 generates a depth image 88 based on the one depth image generation method (mapping table) determined in step S302 and the distance information file 86 acquired by the distance information acquisition unit 78. Generate.

そして、ステップS306において、撮影関連情報取得手段82は、レンズ情報(例えば開口数等)を取得し、メインメモリ22の所定アドレスに格納する。   In step S <b> 306, the photographing related information acquisition unit 82 acquires lens information (for example, numerical aperture) and stores it in a predetermined address of the main memory 22.

その後、ステップS307において、撮影関連情報取得手段82は、第1積算回路56から出力されるレンズの絞り値を取得し、メインメモリ22の所定アドレスに格納する。   Thereafter, in step S <b> 307, the imaging related information acquisition unit 82 acquires the lens aperture value output from the first integration circuit 56 and stores it in a predetermined address of the main memory 22.

その後、ステップS308において、撮影関連情報取得手段82は、第1積算回路56から出力されるAFの合焦距離を取得し、メインメモリ22の所定アドレスに格納する。   Thereafter, in step S <b> 308, the imaging related information acquisition unit 82 acquires the AF focusing distance output from the first integration circuit 56 and stores it in a predetermined address of the main memory 22.

その後、ステップS309において、奥行き精度画像生成手段92は、撮影関連情報取得手段82によって取得されたレンズ情報、絞り値、AFの合焦距離に基づいて被写界深度を算出する。   Thereafter, in step S309, the depth accuracy image generation unit 92 calculates the depth of field based on the lens information acquired by the imaging related information acquisition unit 82, the aperture value, and the AF focusing distance.

その後、ステップS310において、奥行き精度画像生成手段92は、二次元画像62の画素ごとの距離情報(距離情報ファイル86)と被写界深度に基づいて画素ごとの奥行き精度を設定し、奥行き精度画像94を生成する。   Thereafter, in step S310, the depth accuracy image generation means 92 sets the depth accuracy for each pixel based on the distance information (distance information file 86) for each pixel of the two-dimensional image 62 and the depth of field, and the depth accuracy image. 94 is generated.

例えば、二次元画像62に配列されている画素のうち、被写界深度内に入っている画素については、撮影者が特に鮮明に撮りたいという意図のもとで撮影した被写体の画像を構成する画素であるから、奥行き精度を高くして立体視画像を鮮明にすることが好ましい。逆に被写界深度から外れている画素については、撮影者が特に鮮明に撮りたいという対象から外れているため、奥行き精度を高くしても立体視画像とする効果はほとんどなく、むしろ奥行き精度を低くして平面的な画像にすることが好ましい。   For example, among the pixels arranged in the two-dimensional image 62, for the pixels that are within the depth of field, an image of a subject photographed with the intention of the photographer to take a particularly clear image is formed. Since it is a pixel, it is preferable to increase the depth accuracy to make the stereoscopic image clear. On the other hand, pixels that are out of the depth of field are out of the subject that the photographer wants to take a particularly clear image, so even if the depth accuracy is increased, there is almost no effect on the stereoscopic image, but rather the depth accuracy. It is preferable to lower the value to obtain a flat image.

そこで、図14に示すように、取得した二次元画像62の画素ごとの距離情報を確認して、距離が被写界深度Dd内にある画素については、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、距離が被写界深度を外れている画素については、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。   Therefore, as shown in FIG. 14, the distance information for each pixel of the acquired two-dimensional image 62 is confirmed, and for the pixels whose distance is within the depth of field Dd, information indicating depth accuracy = “high” ( For example, a logical value “1”) is assigned, and information indicating depth accuracy = “low” (eg, logical value “0”) is assigned to a pixel whose distance is out of the depth of field.

奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第4処理例が終了する。   The depth accuracy image generation unit 92 generates the depth accuracy image 94 as described above, and records the generated depth accuracy image 94 in the main memory 22. At this stage, the fourth processing example ends.

次に、第5処理例について図15を参照しながら説明する。この第5処理例は、取得した二次元画像62のうち、中央部分に記録されている画像に基づいて奥行き精度画像94を生成する処理を含む。これは、取得した二次元画像62のうち、中央部分に記録されている画像は、撮影者が特に鮮明に撮りたいという意図のもとで記録されたものであり、中央部分に記録された画像の奥行き精度を高くする。   Next, a fifth processing example will be described with reference to FIG. The fifth processing example includes a process of generating the depth accuracy image 94 based on the image recorded in the central portion of the acquired two-dimensional image 62. This is because the image recorded in the central portion of the acquired two-dimensional image 62 is recorded with the intention that the photographer wants to take a particularly clear image, and the image recorded in the central portion. Increase depth accuracy.

先ず、図7のステップS1〜ステップS5と同様に、図15のステップS401において、撮影関連情報取得手段82が撮影モードを取得し、ステップS402において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図15のステップS403において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS404において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS405において、奥行き画像生成手段80は、ステップS402において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。   First, similarly to steps S1 to S5 in FIG. 7, in step S401 in FIG. 15, the shooting related information acquisition unit 82 acquires the shooting mode, and in step S402, the depth image generation method determination unit 84 sets the current shooting mode. A depth image generation method corresponding to is acquired. Thereafter, in step S403 of FIG. 15, the first camera unit 16 acquires a two-dimensional image 62 (first two-dimensional image) of the subject based on the input of the photographing button by the photographer. In step S404, the distance information The acquisition unit 78 acquires distance information for each pixel in the first two-dimensional image, that is, the distance information file 86. Thereafter, in step S405, the depth image generation unit 80 generates a depth image 88 based on the one depth image generation method (mapping table) determined in step S402 and the distance information file 86 acquired by the distance information acquisition unit 78. Generate.

そして、ステップS406において、奥行き精度画像生成手段92は、二次元画像62のうち、予め設定された範囲(中央部分の範囲)に記録されている被写体の画像を特定する。図16の例では、被写体の画像として建物の画像96を特定した例を示す。   In step S <b> 406, the depth accuracy image generation unit 92 specifies the image of the subject recorded in the preset range (the range of the central portion) in the two-dimensional image 62. The example of FIG. 16 shows an example in which a building image 96 is specified as a subject image.

その後、ステップS407において、奥行き精度画像生成手段92は、図16Bに示すように、上述のように特定した建物の画像96に含まれる画素について、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、建物の画像96に含まれていない画素について、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。   Thereafter, in step S407, the depth accuracy image generation unit 92, as shown in FIG. 16B, information indicating depth accuracy = “high” (for example, logical value) for the pixels included in the building image 96 specified as described above. “1”) is assigned, and information indicating depth accuracy = “low” (for example, logical value “0”) is assigned to pixels not included in the building image 96.

奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第5処理例が終了する。   The depth accuracy image generation unit 92 generates the depth accuracy image 94 as described above, and records the generated depth accuracy image 94 in the main memory 22. At this stage, the fifth processing example ends.

次に、第6処理例について図17を参照しながら説明する。この第6処理例は、上述した第5処理例とほぼ同じであるが、取得した二次元画像のうち、記録されている画像に人間の顔や動物の顔の画像が含まれているかどうかに基づいて奥行き精度画像を生成する処理を含む。これは、取得した二次元画像のうち、被写体が人間の顔や動物の顔等である場合、撮影者が特に鮮明に撮りたいという意図のもとで記録されたものであり、人間の顔や動物の顔の画像の奥行き精度を高くする。   Next, a sixth processing example will be described with reference to FIG. This sixth processing example is almost the same as the fifth processing example described above, but whether or not the recorded image includes a human face or animal face image among the acquired two-dimensional images. Processing for generating a depth-accuracy image based thereon. This is recorded with the intention that the photographer wants to take a particularly clear picture when the subject is a human face or an animal face in the acquired two-dimensional image. Increase the depth accuracy of animal face images.

先ず、図7のステップS1〜ステップS5と同様に、図17のステップS501において、撮影関連情報取得手段82が撮影モードを取得し、ステップS502において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図17のステップS503において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS504において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS505において、奥行き画像生成手段80は、ステップS502において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。   First, similarly to steps S1 to S5 in FIG. 7, in step S501 in FIG. 17, the shooting related information acquisition unit 82 acquires the shooting mode, and in step S502, the depth image generation method determination unit 84 sets the current shooting mode. A depth image generation method corresponding to is acquired. Thereafter, in step S503 in FIG. 17, the first camera unit 16 acquires a two-dimensional image 62 (first two-dimensional image) of the subject based on the input of the photographing button by the photographer. In step S504, the distance information The acquisition unit 78 acquires distance information for each pixel in the first two-dimensional image, that is, the distance information file 86. Thereafter, in step S505, the depth image generation unit 80 generates a depth image 88 based on the one depth image generation method (mapping table) determined in step S502 and the distance information file 86 acquired by the distance information acquisition unit 78. Generate.

そして、ステップS506において、奥行き精度画像生成手段92は、二次元画像62のうち、人間の顔や動物の顔の画像が記録されているかどうかを探索し、その記録範囲を特定する。例えば、予め人間の代表的な顔の参照画像や動物の代表的な顔の参照画像を用意しておき、取得した二次元画像に参照画像と類似する画像が記録されているかどうかを例えばパターンマッチング法等を使用して探索する。探索の結果、参照画像に類似した画像が存在する場合は、その記録範囲の情報をメインメモリ22の所定アドレスに格納する。図18の例では、人間の顔の画像98の記録範囲を特定した例を示す。   In step S506, the depth accuracy image generation unit 92 searches the two-dimensional image 62 for whether a human face image or an animal face image is recorded, and specifies the recording range. For example, a reference image of a representative face of a human or a reference image of a representative face of an animal is prepared in advance, and pattern matching is performed to determine whether an image similar to the reference image is recorded in the acquired two-dimensional image. Search using law etc. If there is an image similar to the reference image as a result of the search, information on the recording range is stored at a predetermined address in the main memory 22. The example of FIG. 18 shows an example in which the recording range of the human face image 98 is specified.

その後、ステップS507において、奥行き精度画像生成手段92は、図18に示すように、特定した記録範囲に含まれる画素について、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、前記記録範囲以外の範囲の画素について、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。   Thereafter, in step S507, as shown in FIG. 18, the depth accuracy image generation unit 92 assigns information indicating depth accuracy = “high” (for example, logical value “1”) to the pixels included in the specified recording range. Information indicating depth accuracy = “low” (for example, logical value “0”) is assigned to pixels in a range other than the recording range.

奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第6処理例が終了する。   The depth accuracy image generation unit 92 generates the depth accuracy image 94 as described above, and records the generated depth accuracy image 94 in the main memory 22. At this stage, the sixth processing example ends.

このように、第2立体視画像作成装置10Bにおいては、撮影者が撮影時の意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像88及び奥行き精度画像94を生成することができ、撮影者の意図に合った立体視画像を得ることができる。例えば、第3処理例によれば、撮影者が入力した撮影モードに応じて立体視効果がほとんど期待できない部分について奥行き精度を低く設定でき、立体視効果が期待できる部分(撮影者が鮮明に撮りたい部分)について奥行き精度を高く設定することができる。第4処理例によれば、撮影者が鮮明に撮りたい部分、すなわち、被写界深度内に収まる画像について奥行き精度を高く設定でき、被写界深度から外れた画像について奥行き精度を低く設定することができる。第5処理例によれば、撮影者が注目した部分、すなわち、中央部分に記録された画像について奥行き精度を高く設定でき、被写界深度から外れた画像について奥行き精度を低く設定することができる。第6処理例によれば、撮影者が鮮明に撮りたい部分、すなわち、人間の顔や動物の顔の画像について奥行き精度を高く設定でき、それ以外の画像について奥行き精度を低く設定することができる。   As described above, in the second stereoscopic image creation device 10B, the depth image 88 and the depth reflecting the intention of the photographer at the time of photographing (intentions such as which part the photographer wants to capture clearly or want to record in detail) are reflected. The accuracy image 94 can be generated, and a stereoscopic image suitable for the photographer's intention can be obtained. For example, according to the third processing example, the depth accuracy can be set low for a portion where the stereoscopic effect is hardly expected according to the shooting mode input by the photographer, and a portion where the stereoscopic effect can be expected (the photographer can The depth accuracy can be set high for the desired portion. According to the fourth processing example, the depth accuracy can be set high for a portion that the photographer wants to take clearly, that is, an image that falls within the depth of field, and the depth accuracy is set low for an image that is out of the depth of field. be able to. According to the fifth processing example, the depth accuracy can be set high for an image recorded in the portion focused by the photographer, that is, the central portion, and the depth accuracy can be set low for an image that is out of the depth of field. . According to the sixth processing example, the depth accuracy can be set high for a portion that the photographer wants to take clearly, that is, an image of a human face or animal face, and the depth accuracy can be set low for other images. .

上述の例では、第1カメラ部16と第2カメラ部20を設けることで、距離情報を得るようにしたが、その他、図19の第3の実施の形態に係る立体視画像作成装置(以下、第3立体視画像作成装置10Cと記す)のように、第2カメラ部20に代えて、レーザ光による距離測定装置100を設置するようにしてもよい。   In the above-described example, the distance information is obtained by providing the first camera unit 16 and the second camera unit 20, but in addition, a stereoscopic image creation device (hereinafter referred to as the third embodiment) shown in FIG. The distance measuring device 100 using laser light may be installed in place of the second camera unit 20 as described in the third stereoscopic image creating device 10C).

この距離測定装置100は、レーザ光の出射指示に基づいてレーザ光源(図示せず)からレーザ光を出射するように制御するレーザ光制御部102と、被写体から反射したレーザ光を受光するレーザ光受光部104と、レーザ光の出射指示から受光までにかかった時間に基づいて被写体までの距離を測定する信号処理回路106とを有し、距離情報取得手段78として機能する。距離測定装置100は、第1カメラ部16での撮像範囲をカバーするようにレーザ光を走査しながら、第1カメラ部16で取得される二次元画像62の画素ごとの距離情報(距離情報ファイル86)を取得する。   The distance measuring apparatus 100 includes a laser light control unit 102 that controls to emit laser light from a laser light source (not shown) based on an instruction to emit laser light, and laser light that receives laser light reflected from a subject. The light receiving unit 104 and the signal processing circuit 106 that measures the distance to the subject based on the time from the laser beam emission instruction to the light reception, and functions as the distance information acquisition unit 78. The distance measuring device 100 scans the laser beam so as to cover the imaging range of the first camera unit 16, and the distance information (distance information file) for each pixel of the two-dimensional image 62 acquired by the first camera unit 16. 86).

この第3立体視画像作成装置10Cでは、第2カメラ部20を設置する必要がなく、また、メインメモリ22に第2二次元画像76を記録する必要がないため、装置自体の小型化、メインメモリ22の記憶容量の低減化を図ることができる。   In the third stereoscopic image creation apparatus 10C, it is not necessary to install the second camera unit 20, and it is not necessary to record the second two-dimensional image 76 in the main memory 22. The storage capacity of the memory 22 can be reduced.

上述の例では、撮影関連情報取得手段82にて取得する撮影時の合焦距離情報として、AFの距離情報を用いたが、その他、撮影時のマニュアルフォーカスの距離情報を用いるようにしてもよい。   In the above-described example, the AF distance information is used as the focus distance information at the time of shooting acquired by the shooting related information acquisition unit 82. Alternatively, manual focus distance information at the time of shooting may be used. .

また、上述の例では、USBドライバ32の外部コネクタ40に外部記憶装置12を接続した例を示したが、その他、図20に示すように、例えば第2立体視画像作成装置10Bをパーソナルコンピュータ108にUSBドライバ32の外部コネクタ40を介して接続し、パーソナルコンピュータ108のハードディスクに二次元画像62、奥行き画像88、奥行き精度画像94を記録するようにしてもよい。また、複数のマッピングテーブル90a〜90gを不揮発性メモリ30から入手するのではなく、ネットワーク110及びパーソナルコンピュータ108を経由してWebサイト112からダウンロードするようにしてもよい。この場合、様々な撮影関連情報に合わせた多種多様のマッピングテーブルを適宜入手することができ、しかも、機種変更にも容易に対応させることができ、撮影者の撮影時における意図を忠実に反映させた奥行き画像を生成することができる。もちろん、パーソナルコンピュータ108のハードディスクに記録された二次元画像62、奥行き画像88、奥行き精度画像94をWebサイト112にアップロードしたり、他のユーザのパーソナルコンピュータに転送するようにしてもよい。   In the above example, the external storage device 12 is connected to the external connector 40 of the USB driver 32. However, as shown in FIG. 20, for example, the second stereoscopic image creation device 10B is connected to the personal computer 108. The two-dimensional image 62, the depth image 88, and the depth accuracy image 94 may be recorded on the hard disk of the personal computer 108. Further, the plurality of mapping tables 90 a to 90 g may be downloaded from the website 112 via the network 110 and the personal computer 108 instead of being obtained from the nonvolatile memory 30. In this case, a wide variety of mapping tables suitable for various shooting-related information can be obtained as appropriate, and it is also possible to easily cope with model changes and accurately reflect the photographer's intention at the time of shooting. Depth images can be generated. Of course, the two-dimensional image 62, the depth image 88, and the depth accuracy image 94 recorded on the hard disk of the personal computer 108 may be uploaded to the Web site 112 or transferred to another user's personal computer.

次に、本実施の形態に係る立体視画像出力装置200について図21〜図25を参照しながら説明する。   Next, a stereoscopic image output apparatus 200 according to the present embodiment will be described with reference to FIGS.

この立体視画像出力装置200は、図21に示すように、各種プログラムを起動して動作させるCPU202と、デジタル処理を行うためのメインメモリ204と、メインメモリ204で加工されたデータを外部に接続された三次元モニタ206に出力するI/Oインターフェース208とを有する。これらCPU202、メインメモリ204、I/Oインターフェース208は制御バスやデータバス(以下、単にバス210と記す)を通じて接続されている。このバス210には、上述の部材のほか、USBドライバ212が接続されている。USBドライバ212には外部コネクタ214が接続され、該外部コネクタ214を介して外部記憶装置12が接続されている。   As shown in FIG. 21, the stereoscopic image output apparatus 200 connects a CPU 202 for starting and operating various programs, a main memory 204 for performing digital processing, and data processed by the main memory 204 to the outside. And an I / O interface 208 for outputting to the three-dimensional monitor 206. The CPU 202, the main memory 204, and the I / O interface 208 are connected through a control bus and a data bus (hereinafter simply referred to as a bus 210). In addition to the above members, a USB driver 212 is connected to the bus 210. An external connector 214 is connected to the USB driver 212, and the external storage device 12 is connected via the external connector 214.

CPU202で起動、動作するソフトウエアは、図22に示すように、外部記憶装置12に記憶された二次元画像62、奥行き画像88及び奥行き精度画像94をメインメモリ204に読み出す画像読出し手段216と、奥行き画像に記録された奥行き値と奥行き精度画像94に記録された精度情報に基づいて二次元画像の画素ごとの視差量を演算して視差量画像217を作成する視差量演算手段218と、視差量画像217の画素ごとの視差量に基づいて二次元画像62の画素ずらしを行って立体視画像220を生成する立体視画像生成手段222と、生成された立体視画像220をモニタ、パーソナルコンピュータ、プリンタ等に出力する立体視画像出力手段224とを有する。本実施の形態における立体視画像出力手段224は、生成された立体視画像220を三次元モニタ206に出力して立体視画像220を表示する場合を示している。   As shown in FIG. 22, software that is activated and operated by the CPU 202 includes an image reading unit 216 that reads the two-dimensional image 62, the depth image 88, and the depth accuracy image 94 stored in the external storage device 12 into the main memory 204, and Parallax amount calculation means 218 for calculating a parallax amount for each pixel of the two-dimensional image based on the depth value recorded in the depth image and the accuracy information recorded in the depth accuracy image 94, and a parallax A stereoscopic image generation unit 222 that generates a stereoscopic image 220 by shifting the pixels of the two-dimensional image 62 based on the amount of parallax for each pixel of the amount image 217; a monitor that generates the stereoscopic image 220; a personal computer; Stereoscopic image output means 224 for outputting to a printer or the like. The stereoscopic image output means 224 in the present embodiment shows a case where the generated stereoscopic image 220 is output to the three-dimensional monitor 206 and the stereoscopic image 220 is displayed.

ここで、立体視画像出力装置200の処理動作について図23を参照しながら説明する。   Here, the processing operation of the stereoscopic image output apparatus 200 will be described with reference to FIG.

先ず、ステップS601において、画像読出し手段216は、外部記憶装置12に記憶されている二次元画像62、奥行き画像88及び奥行き精度画像94を読み出して、メインメモリ204に記録する。   First, in step S <b> 601, the image reading unit 216 reads the two-dimensional image 62, the depth image 88, and the depth accuracy image 94 stored in the external storage device 12 and records them in the main memory 204.

その後、ステップS602において、視差量演算手段218は、処理対象の画素の更新を示すカウンタの値nを初期値「1」にする(n=1)。   Thereafter, in step S602, the parallax amount calculation unit 218 sets the value n of the counter indicating the update of the pixel to be processed to an initial value “1” (n = 1).

次いで、ステップS603において、視差量演算手段218は、奥行き画像88のうち、カウンタの値nに対応する画素(n番目の画素)の奥行き値を読み出す。   Next, in step S <b> 603, the parallax amount calculation unit 218 reads the depth value of the pixel (n-th pixel) corresponding to the counter value n in the depth image 88.

その後、ステップS604において、視差量演算手段218は、奥行き精度画像94のうち、カウンタの値nに対応する画素(n番目の画素)の精度情報(精度の高/低=1/0)を読み出す。   Thereafter, in step S604, the parallax amount calculation unit 218 reads out accuracy information (high / low accuracy = 1/0) of the pixel (n-th pixel) corresponding to the counter value n in the depth accuracy image 94. .

その後、ステップS605において、精度情報が「0」(精度=「低」)であるか、「1」(精度=「高」)であるかが判別される。   Thereafter, in step S605, it is determined whether the accuracy information is “0” (accuracy = “low”) or “1” (accuracy = “high”).

精度情報が「0」(精度=「低」)である場合は、ステップS606に進み、図24Aに示す低い精度用の第1補正テーブル226に基づいてn番目の画素の視差量を求める。   When the accuracy information is “0” (accuracy = “low”), the process proceeds to step S606, and the parallax amount of the nth pixel is obtained based on the first correction table 226 for low accuracy shown in FIG. 24A.

第1補正テーブル226は、横軸に奥行き値、縦軸に視差量をとったグラフをテーブル化したものである。この第1補正テーブルでは、奥行き値が増加するに従って視差量が階段状に増加する特性となっている。従って、奥行き値が例えばD0〜D9の間にある場合は、視差量は一律T1、奥行き値が例えばD10〜D19の間にある場合は、視差量は一律T2というように、奥行き値がある範囲まで変化しないと画素ずらしがなされず、ほとんど立体視効果が現れないようになっている。従って、その分、立体視表示のためにかかる演算処理が簡略化され、CPU202での演算負担が低減されることになる。   The first correction table 226 is a table in which the horizontal axis represents the depth value and the vertical axis represents the parallax amount. The first correction table has a characteristic that the amount of parallax increases stepwise as the depth value increases. Accordingly, when the depth value is between D0 and D9, for example, the parallax amount is uniformly T1, and when the depth value is between D10 and D19, for example, the parallax amount is uniformly T2, and the range in which the depth value exists. If there is no change, the pixel shift is not performed, and the stereoscopic effect hardly appears. Accordingly, the calculation processing for stereoscopic display is simplified correspondingly, and the calculation burden on the CPU 202 is reduced.

一方、精度情報が「1」(精度=「高」)である場合は、ステップS607に進み、図24Bに示す高い精度用の第2補正テーブル228に基づいてn番目の画素の視差量を求める。   On the other hand, if the accuracy information is “1” (accuracy = “high”), the process proceeds to step S607, and the parallax amount of the nth pixel is obtained based on the second accuracy correction table 228 shown in FIG. 24B. .

第2補正テーブル228は、第1補正テーブル226と同様に、横軸に奥行き値、縦軸に視差量をとったグラフをテーブル化したものである。特に、この第2補正テーブル228では、奥行き値が増加するに従って視差量も線形に増加する特性となっている。従って、奥行き値の変化がそのまま線形変化として視差量に反映されることから、細かい凹凸まで忠実に表示することができる。   Similar to the first correction table 226, the second correction table 228 is a table in which a horizontal axis represents a depth value and a vertical axis represents a parallax amount. In particular, the second correction table 228 has a characteristic that the amount of parallax increases linearly as the depth value increases. Accordingly, since the change in the depth value is directly reflected in the parallax amount as a linear change, it is possible to faithfully display fine irregularities.

前記ステップS606あるいはステップS607での処理が終了した段階で次のステップS608に進み、カウンタの値を+1更新して、前記ステップS609に進み、全ての画素について処理が終了したか否かが判別される。全ての画素についての処理が終了していなければ、前記ステップS603以降の処理を繰り返す。   When the process in step S606 or step S607 is completed, the process proceeds to the next step S608, the counter value is updated by +1, and the process proceeds to step S609, where it is determined whether or not the process has been completed for all pixels. The If the processing for all the pixels has not been completed, the processing after step S603 is repeated.

そして、ステップS609において、全ての画素について処理が終了したと判別された場合、すなわち、二次元画像62に対応する視差量画像217が完了した場合は、次のステップS610に進み、立体視画像生成手段222は、視差量画像217の画素ごとの視差量に基づいて二次元画像62の画素ずらしを行って立体視画像220を生成する。   If it is determined in step S609 that the processing has been completed for all pixels, that is, if the parallax amount image 217 corresponding to the two-dimensional image 62 is completed, the process proceeds to the next step S610 to generate a stereoscopic image. The means 222 shifts the pixels of the two-dimensional image 62 based on the parallax amount for each pixel of the parallax amount image 217 to generate the stereoscopic image 220.

その後、ステップS611において、立体視画像出力手段224は、生成された立体視画像220を三次元モニタ206に出力する。これによって、三次元モニタ306から今回の立体視画像220が表示されることになる。この段階で、本実施の形態に係る立体視画像出力装置200での処理が終了する。   Thereafter, in step S <b> 611, the stereoscopic image output unit 224 outputs the generated stereoscopic image 220 to the three-dimensional monitor 206. As a result, the current stereoscopic image 220 is displayed from the three-dimensional monitor 306. At this stage, the processing in the stereoscopic image output apparatus 200 according to the present embodiment ends.

上述の例では、第1補正テーブル226の特性として、階段状の特性を示したが、その他、奥行き値に対する視差量を「0」にするようにしてもよい。この場合、精度=「低」とされた画素で構成された画像は平面的な画像として表示されることになる。   In the above-described example, a step-like characteristic is shown as the characteristic of the first correction table 226, but the parallax amount with respect to the depth value may be set to “0”. In this case, an image composed of pixels with accuracy = “low” is displayed as a planar image.

また、上述の例では、外部記憶装置12に記録された二次元画像62、奥行き画像88、奥行き精度画像94に基づいて立体視画像220を表示するようにしたが、その他、図25に示すように、本実施の形態に係る立体視画像出力装置200をパーソナルコンピュータ108に接続し、パーソナルコンピュータ108のハードディスクに記録されている二次元画像62、奥行き画像88、奥行き精度画像94や、ネットワーク110を経由してWebサイト112からダウンロードした二次元画像62、奥行き画像88、奥行き精度画像94や、他のユーザから転送された二次元画像62、奥行き画像88、奥行き精度画像94に基づいて立体視画像220を作成し、出力(表示等)するようにしてもよい。   In the above-described example, the stereoscopic image 220 is displayed based on the two-dimensional image 62, the depth image 88, and the depth accuracy image 94 recorded in the external storage device 12. However, as shown in FIG. In addition, the stereoscopic image output apparatus 200 according to the present embodiment is connected to the personal computer 108, and the two-dimensional image 62, the depth image 88, the depth accuracy image 94, and the network 110 recorded on the hard disk of the personal computer 108 are connected. Stereoscopic images based on the two-dimensional image 62, the depth image 88, the depth accuracy image 94 downloaded from the website 112 via the web site 112, and the two-dimensional image 62, the depth image 88, and the depth accuracy image 94 transferred from other users. 220 may be created and output (displayed, etc.).

なお、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法は、上述の実施の形態に限らず、本発明の要旨を逸脱することなく、種々の構成を採り得ることはもちろんである。   Note that the stereoscopic image creation device, the stereoscopic image output device, and the stereoscopic image creation method according to the present invention are not limited to the above-described embodiments, and various configurations can be adopted without departing from the gist of the present invention. Of course.

10A…第1立体視画像作成装置 10B…第2立体視画像作成装置
10C…第3立体視画像作成装置 12…外部記憶装置
16…第1カメラ部 20…第2カメラ部
62…第1二次元画像(二次元画像) 76…第2二次元画像
78…距離情報取得手段 80…奥行き画像生成手段
82…撮影関連情報取得手段 84…奥行き画像生成方法決定手段
86…距離情報ファイル 88…奥行き画像
90a〜90g…マッピングテーブル 92…奥行き精度画像生成手段
94…奥行き精度画像 96…建物の画像
98…顔の画像 100…距離測定装置
108…パーソナルコンピュータ 110…ネットワーク
112…Webサイト 200…立体視画像出力装置
206…三次元モニタ 216…画像読出し手段
217…視差量画像 218…視差量演算手段
220…立体視画像 222…立体視画像生成手段
224…立体視画像出力手段
DESCRIPTION OF SYMBOLS 10A ... 1st stereoscopic vision image creation apparatus 10B ... 2nd stereoscopic vision image creation apparatus 10C ... 3rd stereoscopic vision image creation apparatus 12 ... External storage device 16 ... 1st camera part 20 ... 2nd camera part 62 ... 1st two-dimensional Image (2D image) 76 ... 2D image 78 ... Distance information acquisition means 80 ... Depth image generation means 82 ... Shooting related information acquisition means 84 ... Depth image generation method determination means 86 ... Distance information file 88 ... Depth image 90a ~ 90g ... Mapping table 92 ... Depth accuracy image generation means 94 ... Depth accuracy image 96 ... Building image 98 ... Face image 100 ... Distance measuring device 108 ... Personal computer 110 ... Network 112 ... Web site 200 ... Stereoscopic image output device 206 ... 3D monitor 216 ... Image reading means 217 ... Parallax amount image 218 ... Parallax amount calculation means 220 Stereoscopic image 222 ... stereoscopic image generation means 224 ... stereoscopic image output unit

Claims (14)

被写体の二次元画像を取得する二次元画像取得手段と、
前記被写体までの距離情報を取得する距離情報取得手段と、
少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、
前記被写体を撮像した際の1以上の撮影関連情報を取得する撮影関連情報取得手段と、
前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段とを有し、
前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする立体視画像作成装置。
2D image acquisition means for acquiring a 2D image of a subject;
Distance information acquisition means for acquiring distance information to the subject;
Depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on at least the distance information acquired by the distance information acquisition means;
Shooting related information acquisition means for acquiring one or more shooting related information when the subject is imaged;
A depth image generation method determination unit that determines one depth image generation method among a plurality of depth image generation methods for generating the depth image based on the shooting-related information acquired by the shooting-related information acquisition unit; Have
The depth image generation unit generates a depth image based on the distance information acquired by the distance information acquisition unit and the depth image generation method determined by the depth image generation method determination unit. Stereoscopic image creation device.
被写体の二次元画像を取得する二次元画像取得手段と、
前記被写体までの距離情報を取得する距離情報取得手段と、
少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、
前記被写体を撮像した際の複数の撮影関連情報を取得する撮影関連情報取得手段と、
生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段と、
前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段と、
前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き精度画像生成方法決定手段とを有し、
前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成し、
前記奥行き精度画像生成手段は、前記奥行き精度画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする立体視画像作成装置。
2D image acquisition means for acquiring a 2D image of a subject;
Distance information acquisition means for acquiring distance information to the subject;
Depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on at least the distance information acquired by the distance information acquisition means;
Shooting-related information acquisition means for acquiring a plurality of shooting-related information when the subject is imaged;
Depth accuracy image generation means for generating a depth accuracy image in which accuracy information for setting depth accuracy in the generated depth image is arranged;
A depth image generation method determination unit that determines one depth image image generation among a plurality of depth image generation methods for generating the depth image based on the shooting related information acquired by the shooting related information acquisition unit; ,
Depth accuracy image generation in which one depth accuracy image image generation among a plurality of depth accuracy image generation methods for generating the depth accuracy image is determined based on imaging related information acquired by the imaging related information acquisition means A method determining means,
The depth image generation means generates a depth image based on the distance information acquired by the distance information acquisition means and the depth image generation method determined by the depth image generation method determination means,
The stereoscopic image creation apparatus, wherein the depth accuracy image generation unit generates a depth accuracy image based on the depth image generation method determined by the depth accuracy image generation method determination unit.
請求項2記載の立体視画像作成装置において、
前記奥行き精度画像生成手段にて生成される前記奥行き精度画像は、精度の高低を示す2値画像であることを特徴とする立体視画像作成装置。
The stereoscopic image creation device according to claim 2,
The stereoscopic image creation apparatus, wherein the depth accuracy image generated by the depth accuracy image generation means is a binary image indicating the level of accuracy.
請求項1〜3のいずれか1項に記載の立体視画像作成装置において、
さらに、前記複数の奥行き画像生成方法を記憶する記憶手段を有し、
前記奥行き画像生成方法決定手段は、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法を前記記憶手段から読み出して、前記奥行き画像生成手段に供給することを特徴とする立体視画像作成装置。
The stereoscopic image creation device according to any one of claims 1 to 3,
Furthermore, it has a memory | storage means to memorize | store the said several depth image generation method,
The depth image generation method determination unit reads out a depth image generation method corresponding to the shooting-related information acquired by the shooting-related information acquisition unit from the storage unit, and supplies the depth image generation method to the depth image generation unit. Stereoscopic image creation device.
請求項1〜3のいずれか1項に記載の立体視画像作成装置において、
前記奥行き画像生成方法決定手段は、前記複数の奥行き画像生成方法のうち、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法をネットワークを通じて受け取り、前記奥行き画像生成手段に供給することを特徴とする立体視画像作成装置。
The stereoscopic image creation device according to any one of claims 1 to 3,
The depth image generation method determination means receives a depth image generation method corresponding to the shooting related information acquired by the shooting related information acquisition means from the plurality of depth image generation methods via a network, and sends the depth image generation means to the depth image generation means. A stereoscopic image creation device characterized by being supplied.
請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
前記撮影関連情報取得手段にて取得される前記撮影関連情報は、入力される撮影モードであることを特徴とする立体視画像作成装置。
In the stereoscopic image creation device according to any one of claims 1 to 5,
The stereoscopic image creating apparatus, wherein the shooting related information acquired by the shooting related information acquisition means is an input shooting mode.
請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
前記撮影関連情報取得手段にて取得される前記撮影関連情報は、前記二次元画像生成手段にて生成された前記二次元画像の輝度情報であることを特徴とする立体視画像作成装置。
In the stereoscopic image creation device according to any one of claims 1 to 5,
The stereoscopic image creating apparatus, wherein the shooting related information acquired by the shooting related information acquiring unit is luminance information of the two-dimensional image generated by the two-dimensional image generating unit.
請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
前記撮影関連情報取得手段にて取得される前記撮影関連情報は、撮影時のレンズの絞り値であることを特徴とする立体視画像作成装置。
In the stereoscopic image creation device according to any one of claims 1 to 5,
The stereoscopic image creating apparatus, wherein the shooting related information acquired by the shooting related information acquisition means is a lens aperture value at the time of shooting.
請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
前記撮影関連情報取得手段にて取得される前記撮影関連情報は、撮影時の合焦距離情報であることを特徴とする立体視画像作成装置。
In the stereoscopic image creation device according to any one of claims 1 to 5,
The stereoscopic image creating apparatus, wherein the shooting related information acquired by the shooting related information acquisition means is focusing distance information at the time of shooting.
請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
前記撮影関連情報取得手段にて取得される前記撮影関連情報は、前記二次元画像生成手段にて生成された前記二次元画像のうち、前記被写体の画像が記録されている領域情報であることを特徴とする立体視画像作成装置。
In the stereoscopic image creation device according to any one of claims 1 to 5,
The shooting-related information acquired by the shooting-related information acquisition unit is region information in which the image of the subject is recorded in the two-dimensional image generated by the two-dimensional image generation unit. A featured stereoscopic image creation device.
請求項10記載の立体視画像作成装置において、
前記被写体の画像が記録されている領域情報は、前記被写体の顔の画像が記録されている領域情報であることを特徴とする立体視画像作成装置。
The stereoscopic image creation apparatus according to claim 10,
The stereoscopic image creating apparatus, wherein the area information in which the subject image is recorded is area information in which the face image of the subject is recorded.
被写体の二次元画像を取得する二次元画像取得手段と、
前記被写体までの距離情報を取得する距離情報取得手段と、
少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、
生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段と、
前記二次元画像生成手段にて生成された前記二次元画像と、前記奥行き画像生成手段にて生成された前記奥行き画像と、前記奥行き精度画像生成手段にて生成された前記奥行き精度画像から立体視画像を生成する立体視画像生成手段とを有することを特徴とする立体視画像出力装置。
2D image acquisition means for acquiring a 2D image of a subject;
Distance information acquisition means for acquiring distance information to the subject;
Depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on at least the distance information acquired by the distance information acquisition means;
Depth accuracy image generation means for generating a depth accuracy image in which accuracy information for setting depth accuracy in the generated depth image is arranged;
Stereoscopic viewing from the two-dimensional image generated by the two-dimensional image generation unit, the depth image generated by the depth image generation unit, and the depth accuracy image generated by the depth accuracy image generation unit. A stereoscopic image output device comprising: a stereoscopic image generation means for generating an image.
被写体の二次元画像を取得する二次元画像取得手段と、
前記被写体までの距離情報を取得する距離情報取得手段と、
少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、
前記被写体を撮像した際の1以上の撮影関連情報を取得し、
前記被写体の立体視画像を出力するための奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記取得した撮影関連情報に基づいて決定し、
前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする立体視画像作成方法。
2D image acquisition means for acquiring a 2D image of a subject;
Distance information acquisition means for acquiring distance information to the subject;
A stereoscopic image used in a stereoscopic image creation apparatus having depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on at least the distance information acquired by the distance information acquisition means. In the visual image creation method,
Acquiring one or more shooting-related information when the subject is imaged;
One depth image generation method is determined based on the acquired shooting-related information among a plurality of depth image generation methods for generating a depth image for outputting a stereoscopic image of the subject,
A stereoscopic image creation method, characterized in that a depth image is generated based on the acquired distance information and the determined depth image generation method.
被写体の二次元画像を取得する二次元画像取得手段と、
前記被写体までの距離情報を取得する距離情報取得手段と、
少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、
前記被写体を撮像した際の複数の撮影関連情報を取得し、
生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成し、
前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定し、
前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記取得した撮影関連情報に基づいて決定し、
前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成し、
前記決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする立体視画像作成方法。
2D image acquisition means for acquiring a 2D image of a subject;
Distance information acquisition means for acquiring distance information to the subject;
A stereoscopic image used in a stereoscopic image creation apparatus having depth image generation means for generating a depth image for outputting a stereoscopic image of the subject based on at least the distance information acquired by the distance information acquisition means. In the visual image creation method,
Acquire a plurality of shooting-related information when imaging the subject,
Generating a depth accuracy image in which accuracy information for setting the depth accuracy in the generated depth image is arranged;
Of the plurality of depth image generation methods for generating the depth image, one depth image image generation is determined based on the shooting related information acquired by the shooting related information acquisition means,
Of the plurality of depth accuracy image generation methods for generating the depth accuracy image, one depth accuracy image image generation is determined based on the acquired shooting-related information,
Generate a depth image based on the acquired distance information and the determined depth image generation method,
A stereoscopic image creation method, wherein a depth accuracy image is generated based on the determined depth image generation method.
JP2011123477A 2011-06-01 2011-06-01 Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method Abandoned JP2011211739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011123477A JP2011211739A (en) 2011-06-01 2011-06-01 Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011123477A JP2011211739A (en) 2011-06-01 2011-06-01 Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006328430A Division JP2008141666A (en) 2006-12-05 2006-12-05 Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method

Publications (1)

Publication Number Publication Date
JP2011211739A true JP2011211739A (en) 2011-10-20

Family

ID=44942244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011123477A Abandoned JP2011211739A (en) 2011-06-01 2011-06-01 Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method

Country Status (1)

Country Link
JP (1) JP2011211739A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175899A1 (en) * 2012-05-24 2013-11-28 オリンパス株式会社 Stereoscopic endoscope device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281754A (en) * 2000-03-31 2001-10-10 Minolta Co Ltd Camera, picture converting device, picture converting display device, stereoscopic picture display system and readable recording medium with picture conversion program recorded thereon
JP2002152776A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for encoding and decoding distance image
JP2003209858A (en) * 2002-01-17 2003-07-25 Canon Inc Stereoscopic image generating method and recording medium
JP2003241067A (en) * 2002-02-18 2003-08-27 Minolta Co Ltd Image pickup unit
WO2004071102A1 (en) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. Three-dimensional video providing method and three-dimensional video display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281754A (en) * 2000-03-31 2001-10-10 Minolta Co Ltd Camera, picture converting device, picture converting display device, stereoscopic picture display system and readable recording medium with picture conversion program recorded thereon
JP2002152776A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for encoding and decoding distance image
JP2003209858A (en) * 2002-01-17 2003-07-25 Canon Inc Stereoscopic image generating method and recording medium
JP2003241067A (en) * 2002-02-18 2003-08-27 Minolta Co Ltd Image pickup unit
WO2004071102A1 (en) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. Three-dimensional video providing method and three-dimensional video display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175899A1 (en) * 2012-05-24 2013-11-28 オリンパス株式会社 Stereoscopic endoscope device
JP2013244104A (en) * 2012-05-24 2013-12-09 Olympus Corp Stereoscopic endoscope device
CN104321005A (en) * 2012-05-24 2015-01-28 奥林巴斯株式会社 Stereoscopic endoscope device
EP2856922A4 (en) * 2012-05-24 2016-01-27 Olympus Corp Stereoscopic endoscope device

Similar Documents

Publication Publication Date Title
JP2008141666A (en) Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method
US9253398B2 (en) Imaging apparatus for generating composite image using directional indicator image, and method and recording medium with program recorded therein for the same
JP6204660B2 (en) Imaging apparatus and control method thereof
JP2013537728A (en) Video camera providing video with perceived depth
JP5434361B2 (en) Image processing apparatus and image processing method
JP2017055310A (en) Imaging apparatus and control method
JP2013529864A (en) Formation of video with perceived depth
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5513024B2 (en) Imaging apparatus, zoom correction information creation method, and program
JP2006033241A (en) Image pickup device and image acquiring means
JP2012222495A (en) Image processor, image processing method, and program
JP2018101951A (en) Imaging device, imaging method, and program for computer
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
CN101938603A (en) Digital image signal processing apparatus, method of controlling the apparatus
JP2018074361A (en) Imaging apparatus, imaging method, and program
CN103139472A (en) Digital photographing apparatus and control method thereof
JP2016028468A (en) Imaging apparatus and control method thereof and program
JP2007060520A (en) Imaging apparatus
JP2011211739A (en) Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method
JP2016040902A (en) Imaging display device and control method therefor
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
JP2016032180A (en) Imaging apparatus, control method and program
JP6087617B2 (en) Imaging apparatus and control method thereof
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130204