JP2008278425A - Image recording apparatus, method and program - Google Patents

Image recording apparatus, method and program Download PDF

Info

Publication number
JP2008278425A
JP2008278425A JP2007122642A JP2007122642A JP2008278425A JP 2008278425 A JP2008278425 A JP 2008278425A JP 2007122642 A JP2007122642 A JP 2007122642A JP 2007122642 A JP2007122642 A JP 2007122642A JP 2008278425 A JP2008278425 A JP 2008278425A
Authority
JP
Japan
Prior art keywords
image
viewpoint
reduced
unit
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007122642A
Other languages
Japanese (ja)
Other versions
JP4632060B2 (en
JP2008278425A5 (en
Inventor
Izumi Miyake
泉 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007122642A priority Critical patent/JP4632060B2/en
Priority to US12/109,196 priority patent/US8072487B2/en
Priority to CN200810095922XA priority patent/CN101296386B/en
Publication of JP2008278425A publication Critical patent/JP2008278425A/en
Publication of JP2008278425A5 publication Critical patent/JP2008278425A5/ja
Application granted granted Critical
Publication of JP4632060B2 publication Critical patent/JP4632060B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve image recording, with simple configuration, in which a user can easily and intuitively identify a reduced image of a multi-viewpoint image from among reduced images of a photographed image. <P>SOLUTION: A three-dimensional thumbnail image is created by applying three-dimensional (3D) CG processing to a multi-viewpoint image thumbnail image, and a thumbnail image is created from a normal image and recorded correspondingly to a main image. Since 3D CG graphic processing is applied and a 3D effect is applied to a 3D thumbnail image X, a difference from a 2D ordinary thumbnail Y is made clear at a glance and even without using any special device for achieving realistic techniques, an observer is enabled to easily recognize the reduced image of the multi-viewpoint image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は多視点画像および単視点画像の縮小画像の記録に関する。   The present invention relates to recording reduced images of multi-view images and single-view images.

一般的な立体画像表示システムでは、右眼に対しては右眼を視点として描かれた画像が、左眼に対しては左眼を視点として描かれた画像が個別に提示される。通常、このような右眼および左眼を視点とした2つの画像(以下、多視点画像と表記する)において、視点から遠い位置にあるオブジェクトは、両眼からの視線がほぼ平行であって見え方がほぼ同じであるので、ほぼ同じ位置に描画される。一方、視点から近い位置にあるオブジェクトは、両眼からの視線が非平行であって見え方が異なるので、互いにずれた位置に描画される。このような視差のある画像(以下、視差画像と表記する)を右眼および左眼それぞれで見るとき、観測者はオブジェクトに対して遠近感を知覚する。   In a general stereoscopic image display system, an image drawn with the right eye as a viewpoint is individually displayed for the right eye, and an image drawn with the left eye as a viewpoint is individually presented for the left eye. Usually, in such two images with the right eye and the left eye as viewpoints (hereinafter referred to as multi-viewpoint images), an object located far from the viewpoint looks almost parallel to both eyes. Since they are almost the same, they are drawn at almost the same position. On the other hand, objects close to the viewpoint are drawn at positions shifted from each other because the lines of sight from both eyes are non-parallel and look different. When an image with such parallax (hereinafter referred to as a parallax image) is viewed with the right eye and the left eye, the observer perceives a sense of perspective with respect to the object.

視差画像の生成に関しては、左右2台のカメラを用いて被写体を撮影し、得られた視差画像を、眼の錯覚を利用して3次元的に見せる写実的手法と、コンピュータグラフィックス技術を用いて左右両眼を視点とするモデルデータの視野変換によって視差画像を生成する3次元コンピュータグラフィックス(3次元CG)表示がある。3次元コンピュータグラフィックス表示は、俗に仮想的3次元表示や擬似的3次元表示とも言われる。   With regard to the generation of parallax images, a photorealistic method of photographing a subject using two left and right cameras and viewing the obtained parallax images three-dimensionally using an optical illusion and computer graphics technology are used. In addition, there is a three-dimensional computer graphics (three-dimensional CG) display that generates a parallax image by visual field conversion of model data with the left and right eyes as viewpoints. The three-dimensional computer graphics display is commonly called a virtual three-dimensional display or a pseudo three-dimensional display.

写実的手法では、パララックスバリア式、あるいはレンチキュラーレンズ式の3Dモニタを用いて視差画像の立体表示を行う。パララックスバリア式では、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで視差画像の立体視を可能にする。   In the photorealistic method, a parallax image is stereoscopically displayed using a parallax barrier type or lenticular lens type 3D monitor. In the parallax barrier type, a parallax barrier having a pattern in which light transmitting portions and light shielding portions are alternately arranged at a predetermined pitch is generated on the parallax barrier display layer, and left and right images are displayed on the lower image display surface. The strip-shaped image fragments indicating “” are alternately arranged and displayed to enable stereoscopic viewing of the parallax image.

あるいは、写実的手法では、レンチキュラーレンズシートを用いるレンチキュラー方式、マイクロレンズアレイシートを用いるインテグラルフォトグラフィ方式、干渉現象を用いるホログラフィー方式などが採用される。   Alternatively, the realistic method employs a lenticular method using a lenticular lens sheet, an integral photography method using a microlens array sheet, a holography method using an interference phenomenon, and the like.

一般的なコンピュータグラフィックスでは、3次元空間内に定義されたオブジェクトを複数のポリゴン(多角形)の集合によって表現する。ポリゴンとしては通常、最も簡単な三角形が用いられることが多い。オブジェクトを構成している各ポリゴンは、ベクトルや行列などの数学的手法を用いて、それ自身が持つオブジェクト座標から、観測者の視点の位置を基準とした3次元座標、すなわち視野座標へと座標変換が行われる。さらにディスプレイ装置へ表示するために、視野座標で表現されたポリゴンを2次元平面へ透視投影するための座標変換(透視変換)が行われる。これら一連の座標変換が行われた後の最終的なポリゴンの位置データは、ディスプレイに対して垂直な方向(Z軸)への視点からの距離を表すZ値と、ディスプレイ面内での位置座標を表すX値およびY値となる。   In general computer graphics, an object defined in a three-dimensional space is represented by a set of a plurality of polygons. Usually, the simplest triangle is often used as the polygon. Each polygon that composes an object is coordinated from its own object coordinates to three-dimensional coordinates based on the position of the observer's viewpoint, that is, visual field coordinates, using mathematical methods such as vectors and matrices. Conversion is performed. Further, for display on the display device, coordinate transformation (perspective transformation) for perspectively projecting a polygon represented by visual field coordinates onto a two-dimensional plane is performed. The final polygon position data after these series of coordinate transformations is performed, the Z value indicating the distance from the viewpoint in the direction perpendicular to the display (Z axis), and the position coordinates in the display surface X value and Y value representing

各ポリゴンを構成する画素の色値の決定方法に関しては、視野座標において仮想的な光源が配置され、この光源からポリゴンを構成する各頂点に照射される光の強度を物理的に計算し、さらにそれらの値からポリゴン内のラスタライズ過程において各画素位置における光の強度を線形補間によって求める方法がある。   Regarding the method for determining the color values of the pixels constituting each polygon, a virtual light source is arranged at the visual field coordinates, and the intensity of light emitted from this light source to each vertex constituting the polygon is physically calculated. There is a method of obtaining the light intensity at each pixel position by linear interpolation from the values in the rasterizing process in the polygon.

あるいは、特許文献1に示すように、ポリゴン表面にテクスチャと呼ばれる、物体表面の質感や特殊な模様などを表す画像を貼り付ける方法がある。この場合には、座標変換前のオブジェクト座標の段階で、オブジェクトを構成するポリゴンの各頂点に対して位置座標の他にテクスチャ座標が与えられる。そして前述の光強度の場合と同様に、ポリゴンのラスタライズ過程において各画素位置ごとにテクスチャ座標が線形補間され、求められたテクスチャ座標に応じて画素の色値が決定される。   Alternatively, as disclosed in Patent Document 1, there is a method of pasting an image representing a texture or special pattern of an object surface called a texture on a polygon surface. In this case, texture coordinates in addition to position coordinates are given to each vertex of the polygon constituting the object at the stage of object coordinates before coordinate conversion. As in the case of the light intensity described above, the texture coordinates are linearly interpolated for each pixel position in the polygon rasterization process, and the pixel color value is determined according to the obtained texture coordinates.

以上のような手続きによって、特定の視点から見たグラフィックス画像を生成することができるが、前述のような立体視のための視差画像を生成するためには、視点の位置を右眼および左眼のそれぞれの位置に置き換え、同一のオブジェクトを2回描画することによって、多視点画像を生成する。高価なシステムでは、上記のような写実的手法を実現可能な表示装置を備え、多視点画像を生成する。   A graphics image viewed from a specific viewpoint can be generated by the above procedure, but in order to generate a parallax image for stereoscopic viewing as described above, the viewpoint position is set to the right eye and the left eye. A multi-viewpoint image is generated by drawing the same object twice, replacing each position of the eye. An expensive system includes a display device capable of realizing the above-described realistic technique, and generates a multi-viewpoint image.

一方、従来、多視点画像と、視差のない通常の画像とが混在して記憶装置に格納されている場合、これらの縮小画像を区別可能に表示する技術がある。特許文献2の電子機器は、写実的手法を実現可能な表示装置を備えており、サムネイル画像の平面的な一覧表示の際、3次元画像に対応するサムネイル画像については「3D」の記号を加え、また、円形または楕円形で表記し、2次元画像に対応するサムネイル画像については「2D」の記号を加え、三角形で表記し、2次元画像から作成したサムネイルと3次元画像から作成したサムネイルとを区別可能にしている。   On the other hand, conventionally, when a multi-viewpoint image and a normal image without parallax are mixed and stored in a storage device, there is a technique for displaying these reduced images in a distinguishable manner. The electronic device disclosed in Patent Document 2 includes a display device that can realize a photorealistic technique. When displaying a list of thumbnail images in a planar manner, a symbol “3D” is added to a thumbnail image corresponding to a three-dimensional image. In addition, the thumbnail image corresponding to the two-dimensional image is represented by a circle or an ellipse, and the symbol “2D” is added, and the thumbnail image is represented by a triangle, the thumbnail created from the two-dimensional image and the thumbnail created from the three-dimensional image Can be distinguished.

また、従来、遠距離に被写体が存在する場合であっても、立体視効果を上げるような撮像方法が提案されている。例えば特許文献3によると、開いた筐体の両端にカメラ部を設け、遠距離でも立体画像の効果を上げている。
特開2002−24850号公報 特開2004−120165号公報 特開2003−51872号公報
Conventionally, an imaging method has been proposed that increases the stereoscopic effect even when a subject is present at a long distance. For example, according to Patent Document 3, a camera unit is provided at both ends of an open housing, and the effect of a stereoscopic image is enhanced even at a long distance.
JP 2002-24850 A JP 2004-120165 A JP 2003-51872 A

特許文献2では、「3D」や「2D」という記号や、円形、楕円形、三角形という図形で2次元画像と3次元画像のサムネイルを表記しているが、これでは、両者が直感的に区別しにくい。   In Patent Document 2, 2D images and 3D image thumbnails are represented by symbols such as “3D” and “2D”, and shapes such as a circle, an ellipse, and a triangle. Hard to do.

また、特許文献2では、写実的手法による3次元画像の表示を実現可能な表示装置の配備が必須であり、かつ、2次元画像と3次元画像の表示切替が必須であるため、システム全体のコストが高くなってしまうという欠点がある。   Further, in Patent Document 2, it is essential to arrange a display device that can display a three-dimensional image by a realistic method, and display switching between a two-dimensional image and a three-dimensional image is essential. There is a disadvantage that the cost becomes high.

特に、デジタルカメラのような携帯型機器において、そのような特殊な表示装置の配置を強いることは、携帯性の確保や生産コスト抑制の点で非常に問題がある。   In particular, in a portable device such as a digital camera, forcing the arrangement of such a special display device is very problematic in terms of securing portability and reducing production costs.

また、特許文献3では、無限遠の被写体に対しては立体視効果を付与できないという問題がある。   Further, Patent Document 3 has a problem that a stereoscopic effect cannot be imparted to a subject at infinity.

そこで本発明は、ユーザが撮影画像の縮小画像の中から多視点画像の縮小画像を容易かつ直感的に識別できる画像記録を簡易な構成で実現する。また本発明は、立体効果が生じないような無意味な多視点画像の記録を防止する。   Therefore, the present invention realizes image recording with a simple configuration that allows a user to easily and intuitively identify a reduced image of a multi-viewpoint image from reduced images of a captured image. The present invention also prevents the recording of meaningless multi-viewpoint images that do not produce a stereoscopic effect.

本発明に係る画像記録装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、本画像を縮小した第1の縮小画像を作成した上、画像識別部が多視点画像であると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、画像識別部による多視点画像または単視点画像の識別に応じ、画像処理部の作成した第1の縮小画像または第2の縮小画像を記憶する縮小画像記憶部と、縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、を備える。   An image recording apparatus according to the present invention includes a photographing unit capable of photographing a multi-view image photographed from two or more viewpoints and an image including a single viewpoint image photographed from a single viewpoint, and the multi-viewpoint photographed by the photographing unit. A main image storage unit that stores a main image that is an image or a single-viewpoint image, an image identification unit that identifies whether the main image stored in the main-image storage unit is a multi-viewpoint image or a single-viewpoint image, By creating a first reduced image obtained by reducing the image and performing a three-dimensional computer graphic process on the first reduced image created from the main image identified by the image identification unit as a multi-viewpoint image, An image processing unit that creates a second reduced image, and a reduction that stores the first reduced image or the second reduced image created by the image processing unit in accordance with the identification of the multi-viewpoint image or single-viewpoint image by the image identification unit Image storage and reduced image storage And a recording unit for recording in association with the main image stored in the first reduced image or the second reduced image and the image storage unit stored in the part.

この発明によると、多視点画像の縮小画像として3次元コンピュータグラフィック処理の施された縮小画像が、単視点画像の縮小画像として単なる縮小画像が、それぞれ本画像と対応づけて記録される。多視点画像の縮小画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像との違いが一目瞭然で分かる。また、多視点画像の縮小画像の表示のために特殊な写実的手法を使う必要がなく、装置構成が安価で済む。   According to this invention, a reduced image subjected to three-dimensional computer graphic processing is recorded as a reduced image of a multi-viewpoint image, and a simple reduced image is recorded as a reduced image of a single-viewpoint image in association with the main image. Since the reduced image of the multi-viewpoint image has been subjected to three-dimensional computer graphic processing, the difference from the simple reduced image can be seen at a glance. Further, it is not necessary to use a special realistic method for displaying a reduced image of a multi-viewpoint image, and the apparatus configuration can be inexpensive.

画像識別部が多視点画像であると識別した本画像から、被写体顔領域の有無を検出する顔検出部をさらに備え、画像処理部は、第1の縮小画像に対し、顔検出部が検出した被写体顔領域に対応する領域を設定した上、設定された領域に3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成してもよい。   The image recognition unit further includes a face detection unit that detects the presence or absence of the subject face area from the main image identified as a multi-viewpoint image, and the image processing unit detects the first reduced image from the face detection unit. A second reduced image may be created by setting an area corresponding to the subject face area and performing three-dimensional computer graphic processing on the set area.

ここでは、顔という重要部分に限って3次元コンピュータグラフィック処理を施しており、少ない処理で実質的な擬似立体縮小画像を記録できる。   Here, three-dimensional computer graphic processing is performed only on the important part of the face, and a substantial pseudo three-dimensional reduced image can be recorded with a small amount of processing.

本発明に係る画像記録装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するフラッシュ発光識別部と、画像識別部が単視点画像であると識別したかまたはフラッシュ発光識別部が撮影時のフラッシュ発光がなかったと識別した本画像を縮小した第1の縮小画像を作成する画像処理部と、画像識別部が多視点画像と識別しかつフラッシュ発光識別部がフラッシュ発光があったと識別した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するサンプル縮小画像取得部と、画像識別部による多視点画像または単視点画像の識別とフラッシュ発光識別部による撮影時のフラッシュ発光の有無の識別とに応じ、画像処理部の作成した第1の縮小画像またはサンプル縮小画像取得部の取得した第2の縮小画像を記憶する縮小画像記憶部と、縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、を備える。   An image recording apparatus according to the present invention includes a photographing unit capable of photographing a multi-view image photographed from two or more viewpoints and an image including a single viewpoint image photographed from a single viewpoint, and the multi-viewpoint photographed by the photographing unit. A main image storage unit that stores a main image that is an image or a single-viewpoint image, an image identification unit that identifies whether the main image stored in the main image storage unit is a multi-viewpoint image or a single-viewpoint image, and an image For an image identified by the identification unit as a multi-viewpoint image, a flash emission identification unit that identifies the presence or absence of flash emission at the time of shooting, and an image identification unit identified as a single-viewpoint image or a flash emission identification unit An image processing unit for creating a first reduced image obtained by reducing the main image identified as having no flash emission at the time, an image identification unit identifying a multi-viewpoint image, and a flash emission identification unit having flash emission A sample reduced image acquisition unit that acquires a predetermined sample reduced image subjected to three-dimensional computer graphics as a second reduced image corresponding to the separate main image, and identification of a multi-viewpoint image or a single-viewpoint image by the image identification unit; A reduced image storage unit that stores the first reduced image created by the image processing unit or the second reduced image acquired by the sample reduced image acquisition unit according to the identification of the presence or absence of flash emission during shooting by the flash emission identification unit And a recording unit that records the first reduced image or the second reduced image stored in the reduced image storage unit and the main image stored in the main image storage unit in association with each other.

この発明によると、撮影時にフラッシュ発光があった多視点画像の縮小画像として3次元コンピュータグラフィック処理の施された所定のサンプル縮小画像が、単視点画像あるいは撮影時にフラッシュ発光がなかった多視点画像の縮小画像としては単なる通常の縮小画像が、本画像と対応づけて記録される。   According to the present invention, a predetermined sample reduced image that has been subjected to three-dimensional computer graphic processing as a reduced image of a multi-viewpoint image that was flashed at the time of shooting is a single-viewpoint image or a multi-viewpoint image that was not flashed at the time of shooting. As the reduced image, a simple normal reduced image is recorded in association with the main image.

撮影時にフラッシュ発光があった多視点画像のサンプル縮小画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像あるいは撮影時にフラッシュ発光がなかった多視点画像の縮小画像との違いが一目瞭然で分かる。また、多視点画像の縮小画像の表示のために特殊な写実的手法を使う必要も、撮影ごとに3次元コンピュータグラフィック処理を行う必要もなく、装置構成が安価で済む。   Since the sample reduced image of the multi-viewpoint image that has flash emission at the time of shooting is subjected to three-dimensional computer graphic processing, the difference between the simple reduced image or the reduced image of the multi-viewpoint image without flash emission at the time of shooting can be seen at a glance. In addition, it is not necessary to use a special photorealistic method for displaying a reduced image of a multi-viewpoint image, and it is not necessary to perform a three-dimensional computer graphic process for each photographing.

本発明に係る画像記録装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像について、被写体顔領域の有無を検出する顔検出部と、画像識別部が単視点画像であると識別したかまたは顔検出部が被写体顔領域を検出しなかった本画像を縮小した第1の縮小画像を作成する画像処理部と、画像識別部が多視点画像と識別しかつ顔検出部が被写体顔領域を検出した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するサンプル縮小画像取得部と、画像識別部による多視点画像または単視点画像の識別と顔検出部による被写体顔領域の検出の有無とに応じ、画像処理部の作成した第1の縮小画像またはサンプル縮小画像取得部の取得した第2の縮小画像を記憶する縮小画像記憶部と、縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、を備える。   An image recording apparatus according to the present invention includes a photographing unit capable of photographing a multi-view image photographed from two or more viewpoints and an image including a single viewpoint image photographed from a single viewpoint, and the multi-viewpoint photographed by the photographing unit. A main image storage unit that stores a main image that is an image or a single-viewpoint image, an image identification unit that identifies whether the main image stored in the main image storage unit is a multi-viewpoint image or a single-viewpoint image, and an image For an image identified by the identification unit as a multi-viewpoint image, a face detection unit that detects the presence or absence of the subject face region, and whether the image identification unit identified as a single-viewpoint image or the face detection unit detected the subject face region An image processing unit that creates a first reduced image obtained by reducing the main image that has not been performed, and a second image corresponding to the main image that the image identification unit identifies as a multi-viewpoint image and the face detection unit detects the subject face area. 3D computer graphics as reduced image A sample reduced image acquisition unit that acquires a predetermined sample reduced image subjected to a mark, an image according to whether a multi-viewpoint image or a single-viewpoint image is identified by an image identification unit, and whether a subject face area is detected by a face detection unit A reduced image storage unit that stores the first reduced image created by the processing unit or the second reduced image acquired by the sample reduced image acquisition unit, and the first reduced image or the second reduced image stored in the reduced image storage unit And a recording unit that records the reduced image and the main image stored in the main image storage unit in association with each other.

この発明によると、被写体顔領域があった多視点画像の縮小画像として3次元コンピュータグラフィック処理の施された所定のサンプル縮小画像が、単視点画像あるいは被写体顔領域がなかった多視点画像の縮小画像としては単なる通常の縮小画像が、本画像と対応づけて記録される。   According to the present invention, a predetermined sample reduced image subjected to three-dimensional computer graphic processing as a reduced image of a multi-view image having a subject face area is a single-view image or a reduced image of a multi-view image having no subject face area. For example, a simple reduced image is recorded in association with the main image.

被写体顔領域があった多視点画像のサンプル縮小画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像あるいは撮影時にフラッシュ発光がなかった多視点画像の縮小画像との違いが一目瞭然で分かる。また、多視点画像の縮小画像の表示のために特殊な写実的手法を使う必要も、撮影ごとに3次元コンピュータグラフィック処理を行う必要もなく、装置構成が安価で済む。   Since the sample reduced image of the multi-viewpoint image having the subject face area has been subjected to three-dimensional computer graphic processing, the difference between the simple reduced image or the reduced image of the multi-viewpoint image that did not emit flash at the time of shooting can be seen at a glance. In addition, it is not necessary to use a special photorealistic method for displaying a reduced image of a multi-viewpoint image, and it is not necessary to perform a three-dimensional computer graphic process for each photographing.

本発明に係る画像記録装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別する距離識別部と、本画像を縮小した第1の縮小画像を作成した上、画像識別部が多視点画像であると識別しかつ距離識別部が被写体が近距離にあると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、画像識別部による多視点画像または単視点画像の識別と距離識別部による被写体の距離の識別とに応じ、画像処理部の作成した第1の縮小画像または第2の縮小画像を記憶する縮小画像記憶部と、縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、を備える。   An image recording apparatus according to the present invention includes a photographing unit capable of photographing a multi-view image photographed from two or more viewpoints and an image including a single viewpoint image photographed from a single viewpoint, and the multi-viewpoint photographed by the photographing unit. A main image storage unit that stores a main image that is an image or a single-viewpoint image, an image identification unit that identifies whether the main image stored in the main image storage unit is a multi-viewpoint image or a single-viewpoint image, and an image A distance identifying unit that identifies whether the subject in the image identified by the identifying unit as a multi-viewpoint image is at a long distance or a short distance, and a first reduced image obtained by reducing the main image, and a plurality of image identifying units A second reduced image is obtained by performing three-dimensional computer graphic processing on the first reduced image created from the main image that has been identified as the viewpoint image and the distance identifying unit has identified that the subject is at a short distance. Image processing unit that creates A reduced image storage unit that stores the first reduced image or the second reduced image created by the image processing unit according to the identification of the multi-viewpoint image or single-viewpoint image by the unit and the identification of the distance of the subject by the distance identification unit; A recording unit that records the first reduced image or the second reduced image stored in the reduced image storage unit and the main image stored in the main image storage unit in association with each other.

この発明によると、近距離に被写体がある多視点画像に対してのみ3次元コンピュータグラフィック処理を施すから、被写体が遠距離にあり当該処理を施しても無意味な画像には当該処理を行わなくて済む。   According to the present invention, since the three-dimensional computer graphic processing is performed only on the multi-viewpoint image having the subject at a short distance, the processing is not performed on the meaningless image even when the subject is at a long distance. I'll do it.

記録部は、画像識別部が多視点画像であると識別した本画像については、距離識別部が被写体が近距離にあると識別した本画像についてのみ記録するとよい。   The recording unit may record only the main image that the distance identifying unit has identified as being close to the main image that the image identifying unit has identified as a multi-viewpoint image.

こうすると、被写体が所定距離以上の遠距離にあり、立体効果が生じにくい多視点画像、あるいは立体効果が全く生じない多視点画像を記録しなくて済み、無意味な画像記録を防止できる。   In this way, it is not necessary to record a multi-viewpoint image in which the subject is at a long distance of a predetermined distance or more and a stereoscopic effect is hardly generated, or a multi-viewpoint image in which a stereoscopic effect is not generated at all, and meaningless image recording can be prevented.

画像識別部が多視点画像であると識別しかつ距離識別部が被写体が遠距離にあると識別した本画像は記録しない旨の警告を通知する通知部をさらに備えてもよい。   You may further provide the notification part which notifies the warning that the image identification part identifies that it is a multi-viewpoint image, and the distance identification part identifies that a to-be-photographed object is a long distance not to record.

こうすると、被写体が遠距離にあり立体効果が生じにくい多視点画像が記録されないことをユーザが認識できる。   In this way, the user can recognize that the subject is at a long distance and a multi-viewpoint image that does not easily generate a stereoscopic effect is not recorded.

本発明に係る画像記録方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するステップと、撮影した多視点画像または単視点画像である本画像を記憶するステップと、記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、本画像を縮小した第1の縮小画像を作成した上、多視点画像であると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、多視点画像または単視点画像の識別に応じ、作成した第1の縮小画像または第2の縮小画像を記憶するステップと、記憶された第1の縮小画像または第2の縮小画像と記憶された本画像とを対応づけて記録するステップと、を含む。   An image recording method according to the present invention includes a step of capturing an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and the captured multi-viewpoint image or single-viewpoint image. And a step of identifying whether the stored main image is a multi-viewpoint image or a single-viewpoint image, creating a first reduced image obtained by reducing the main image, Performing a three-dimensional computer graphic process on the first reduced image created from the main image identified as the viewpoint image to create a second reduced image; Depending on the identification, the step of storing the created first reduced image or second reduced image and the stored first reduced image or second reduced image and the stored main image are recorded in association with each other. The Tsu including and up, the.

この画像記録方法は、多視点画像であると識別した本画像から、被写体顔領域の有無を検出するステップと、第1の縮小画像に対し、検出した被写体顔領域に対応する領域を設定した上、設定された領域に3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、をさらに含んでもよい。   In this image recording method, a step of detecting the presence / absence of a subject face region from a main image identified as a multi-viewpoint image, and a region corresponding to the detected subject face region are set for the first reduced image. And a step of creating a second reduced image by performing a three-dimensional computer graphic process on the set area.

本発明に係る画像記録方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するなステップと、撮影した多視点画像または単視点画像である本画像を記憶するステップと、記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するステップと、単視点画像であると識別したかまたは撮影時のフラッシュ発光がなかったと識別した本画像を縮小した第1の縮小画像を作成するステップと、多視点画像と識別しかつフラッシュ発光があったと識別した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するステップと、多視点画像または単視点画像の識別と撮影時のフラッシュ発光の有無の識別とに応じ、第1の縮小画像または第2の縮小画像を記憶するステップと、記憶された第1の縮小画像または第2の縮小画像と記憶された本画像とを対応づけて記録するステップと、を含む。   The image recording method according to the present invention includes a step of not capturing an image including a multi-view image captured from two or more viewpoints and a single-view image captured from a single viewpoint, and the captured multi-view image or single viewpoint. A step of storing a main image that is an image, a step of identifying whether the stored main image is a multi-viewpoint image or a single-viewpoint image, and a flash at the time of shooting for an image identified as a multi-viewpoint image A step of identifying the presence or absence of light emission, a step of creating a first reduced image obtained by reducing the main image that has been identified as a single-viewpoint image or identified as having no flash emission at the time of photographing, and a multi-viewpoint image In addition, a step of acquiring a predetermined sample reduced image subjected to three-dimensional computer graphics as a second reduced image corresponding to the main image identified as having flash emission. And storing the first reduced image or the second reduced image according to the identification of the multi-viewpoint image or single-viewpoint image and the presence / absence of flash emission at the time of shooting, and the stored first reduction Recording the image or the second reduced image and the stored main image in association with each other.

本発明に係る画像記録方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するステップと、撮影した多視点画像または単視点画像である本画像を記憶するステップと、記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像について、被写体顔領域の有無を検出するステップと、単視点画像であると識別したかまたは被写体顔領域を検出しなかった本画像を縮小した第1の縮小画像を作成するステップと、多視点画像と識別しかつ被写体顔領域を検出した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するステップと、多視点画像または単視点画像の識別と被写体顔領域の検出の有無とに応じ、第1の縮小画像または第2の縮小画像を記憶するステップと、記憶された第1の縮小画像または第2の縮小画像と記憶された本画像とを対応づけて記録するステップと、を含む。   An image recording method according to the present invention includes a step of capturing an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and the captured multi-viewpoint image or single-viewpoint image. A main image that is stored, a step of identifying whether the stored main image is a multi-view image or a single-view image, and whether or not there is a subject face area for the image identified as a multi-view image A first reduced image obtained by reducing a main image that has been identified as a single-viewpoint image or has not detected a subject face area, and identified as a multi-viewpoint image and subject face area Obtaining a predetermined sample reduced image subjected to three-dimensional computer graphics as a second reduced image corresponding to the main image in which the image is detected; and a multi-viewpoint image or a single-viewpoint image Storing the first reduced image or the second reduced image according to whether the subject face area is detected or not, and the stored first reduced image or the second reduced image and the main image stored And associating and recording.

本発明に係る画像記録方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するステップと、撮影した多視点画像または単視点画像である本画像を記憶するステップと、記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別するステップと、本画像を縮小した第1の縮小画像を作成した上、多視点画像であると識別しかつ被写体が近距離にあると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、多視点画像または単視点画像の識別と被写体の距離の識別とに応じ、第1の縮小画像または第2の縮小画像を記憶するステップと、記憶された第1の縮小画像または第2の縮小画像と記憶された本画像とを対応づけて記録するステップと、を含む。   An image recording method according to the present invention includes a step of capturing an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and the captured multi-viewpoint image or single-viewpoint image. Storing the main image, identifying whether the stored main image is a multi-view image or a single-view image, and the subject in the image identified as the multi-view image is a long distance or a short distance A first reduced image obtained by reducing the main image, a first reduced image that is identified as a multi-viewpoint image, and that the subject is identified as being at a short distance is created. The first reduction is performed in accordance with the step of creating a second reduced image by performing three-dimensional computer graphic processing on the reduced image, identification of the multi-viewpoint image or single-viewpoint image, and identification of the distance of the subject. Picture Or comprising a step of storing the second reduced image, a step of association records the first reduced image or the second reduced image with the stored present image stored, the.

この画像記録方法は、多視点画像であると識別した本画像については、被写体が近距離にあると識別した本画像についてのみ記録することが好ましい。   In this image recording method, it is preferable to record only the main image that is identified as being close to the main image that is identified as a multi-viewpoint image.

また、多視点画像であると識別しかつ被写体が遠距離にあると識別した本画像は記録しない旨の警告を表示するステップをさらに含むことが好ましい。   Further, it is preferable that the method further includes a step of displaying a warning that the main image identified as a multi-viewpoint image and the subject identified as being at a long distance is not recorded.

上記の画像記録方法をコンピュータに実行させるプログラムも本発明に含まれる。   A program for causing a computer to execute the above image recording method is also included in the present invention.

本発明によると、多視点画像の縮小画像として、3次元コンピュータグラフィック処理の施された縮小画像、より好適には被写体顔領域に3次元コンピュータグラフィック処理の施された縮小画像が、本画像と対応づけて記録される。一方、単視点画像、顔の検出されない多視点画像、あるいは被写体が遠距離にある多視点画像の縮小画像として、単なる縮小画像が、本画像と対応づけて記録される。多視点画像の縮小画像は3次元コンピュータグラフィック処理されているから、多視点画像の縮小画像と単視点画像の縮小画像との違いが一目瞭然で分かる。また、多視点画像の縮小画像の表示のために特殊な写実的手法を使う必要がなく、装置構成が安価で済む。   According to the present invention, as a reduced image of a multi-viewpoint image, a reduced image that has been subjected to three-dimensional computer graphic processing, and more preferably, a reduced image that has been subjected to three-dimensional computer graphic processing on the subject face area corresponds to the main image. Is recorded. On the other hand, a simple reduced image is recorded in association with the main image as a reduced image of a single viewpoint image, a multi-view image in which no face is detected, or a multi-view image in which the subject is at a long distance. Since the reduced image of the multi-viewpoint image is subjected to three-dimensional computer graphic processing, the difference between the reduced image of the multi-viewpoint image and the reduced image of the single-viewpoint image can be seen at a glance. Further, it is not necessary to use a special realistic method for displaying a reduced image of a multi-viewpoint image, and the apparatus configuration can be inexpensive.

<第1実施形態>
図1は、複眼カメラ1の電気的構成を示す。第1および第2撮像部2a、2bのレンズ光軸L1、L2は、平行となるように、あるいは所定角度をなすように並設されている。
<First Embodiment>
FIG. 1 shows an electrical configuration of the compound eye camera 1. The lens optical axes L1 and L2 of the first and second imaging units 2a and 2b are arranged in parallel so as to be parallel or at a predetermined angle.

第1撮像部2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11a、第1絞り12a、第1フォーカスレンズ13a、および第1イメージセンサ14aによって構成されている。第1絞り12aには絞り制御部16aが接続されており、また、第1イメージセンサ14aにはタイミングジェネレータ(TG)18aが接続されている。第1絞り12a、第1フォーカスレンズ13aの動作は測光測距CPU19aによって制御される。TG18aの動作はメインCPU62によって制御される。   The first imaging unit 2a includes a first zoom lens 11a, a first diaphragm 12a, a first focus lens 13a, and a first image sensor 14a arranged along the lens optical axis L1. A diaphragm control unit 16a is connected to the first diaphragm 12a, and a timing generator (TG) 18a is connected to the first image sensor 14a. The operations of the first aperture 12a and the first focus lens 13a are controlled by the photometric distance measuring CPU 19a. The operation of the TG 18a is controlled by the main CPU 62.

カメラ1にはユーザがこのカメラ1を使用するときに種々の操作を行うための操作部70が設けられている。この操作部70には、カメラ1を作動させるための電源投入用の電源スイッチ、立体(3D)撮影、平面(2D)撮影、オート撮影やマニュアル撮影等を選択するためのモードダイヤル、各種のメニューの設定や選択あるいはズームを行うための十字キー、閃光発光用スイッチ、および十字キーで選択されたメニューの実行やキャンセル等を行うための情報位置指定キーが備えられている。操作部70への適宜操作により、電源のオン/オフ、各種モード(撮影モード、再生モード等)の切り替え、ズーミングなどが行われる。   The camera 1 is provided with an operation unit 70 for performing various operations when the user uses the camera 1. The operation unit 70 includes a power switch for turning on the power for operating the camera 1, a mode dial for selecting stereoscopic (3D) shooting, plane (2D) shooting, auto shooting, manual shooting, and various menus. A cross key for setting, selecting or zooming, a flash emission switch, and an information position specifying key for executing or canceling a menu selected by the cross key. By appropriately operating the operation unit 70, turning on / off the power, switching between various modes (shooting mode, reproduction mode, etc.), zooming, and the like are performed.

また、カメラ1には、メインCPU62と、EEPROM146と、YC/RGB変換部147と、表示用のドライバ148とが備えられている。メインCPU62は、このカメラ1全体の制御を行う。EEPROM146には、このカメラ1固有の固体データやプログラム等が格納されている。   Further, the camera 1 includes a main CPU 62, an EEPROM 146, a YC / RGB conversion unit 147, and a display driver 148. The main CPU 62 controls the entire camera 1. The EEPROM 146 stores solid data and programs unique to the camera 1.

YC/RGB変換部147は、YC処理部35a・35bで生成されたカラー映像信号YCを3色のRGB信号に変換して表示用のドライバ148を経由して画像表示LCD10に出力する。   The YC / RGB conversion unit 147 converts the color video signal YC generated by the YC processing units 35a and 35b into RGB signals of three colors and outputs them to the image display LCD 10 via the display driver 148.

入力操作部9からのズーム操作に応じて、第1ズームレンズ11aは、レンズ光軸L1に沿ってNEAR側(繰り出し側)、あるいはINF側(繰り込み側)に移動し、ズーム倍率を変化させる。この移動は図示しないモータで駆動される。絞り12aは、AE(Auto Exposure)動作時に開口値(絞り値)を変化させて光束を制限し、露出調整を行う。フォーカスレンズ13aは、AF(Auto Focus)動作時にレンズ光軸L1に沿ってNEAR側、あるいはINF側に移動されて合焦位置を変え、ピント調整を行う。この移動は図示しないモータで駆動される。   In response to a zoom operation from the input operation unit 9, the first zoom lens 11a moves along the lens optical axis L1 to the NEAR side (feeding side) or the INF side (retraction side) to change the zoom magnification. This movement is driven by a motor (not shown). The aperture 12a performs exposure adjustment by changing the aperture value (aperture value) during AE (Auto Exposure) operation to limit the light flux. The focus lens 13a is moved to the NEAR side or the INF side along the lens optical axis L1 during AF (Auto Focus) operation to change the focus position and perform focus adjustment. This movement is driven by a motor (not shown).

静止画用レリーズスイッチ5aの半押し状態が検出されたとき、メインCPU62は距離用撮像素子51a・51bからそれぞれ測距データを得る。メインCPU62は得られた測距データに基づいて、ピント、絞りなどの調整を行う。   When the half-pressed state of the still image release switch 5a is detected, the main CPU 62 obtains distance measurement data from the distance image sensors 51a and 51b. The main CPU 62 adjusts focus, aperture, etc. based on the obtained distance measurement data.

第1イメージセンサ14aは、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aによって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14aの光電荷蓄積・転送動作は、TG18aによって制御され、TG18aから入力されるタイミング信号(クロックパルス)により、電子シャッタ速度(光電荷蓄積時間)が決定される。第1イメージセンサ14aは、撮影モード時には、1画面分の画像信号を所定周期ごとに取得する。   The first image sensor 14a receives subject light imaged by the first zoom lens 11a, the first diaphragm 12a, and the first focus lens 13a, and accumulates photocharges corresponding to the amount of received light in the light receiving element. The photoelectric charge accumulation / transfer operation of the first image sensor 14a is controlled by the TG 18a, and the electronic shutter speed (photo charge accumulation time) is determined by the timing signal (clock pulse) input from the TG 18a. The first image sensor 14a acquires an image signal for one screen every predetermined period in the photographing mode.

第2撮像部2bは、第1撮像部2aと同一の構成であり、第2ズームレンズ11b、第2絞り12b、第2フォーカスレンズ13b、およびタイミングジェネレータ(TG)14bが接続された第2イメージセンサ14bによって構成されている。これらの動作はメインCPU62によって制御される。第1撮像部2aと第2撮像部2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。なお、第1および第2イメージセンサ14a・14bとして、CCD型やCMOS型のイメージセンサが用いられる。   The second image pickup unit 2b has the same configuration as the first image pickup unit 2a, and is a second image in which the second zoom lens 11b, the second diaphragm 12b, the second focus lens 13b, and the timing generator (TG) 14b are connected. It is configured by the sensor 14b. These operations are controlled by the main CPU 62. The first imaging unit 2a and the second imaging unit 2b basically operate in conjunction with each other, but can also be operated individually. A CCD type or CMOS type image sensor is used as the first and second image sensors 14a and 14b.

第1および第2イメージセンサ14a・14bから出力された撮像信号は、それぞれA/D変換器30a・30bに入力される。A/D変換器30a・30bは、入力された画像データをアナログからデジタルに変換する。A/D変換器30a・30bを通して、第1イメージセンサ14aの撮像信号は第1画像データ(右眼用画像データ)として、第2イメージセンサ14bの撮像信号は第2画像データ(左眼用画像データ)として出力される。   The imaging signals output from the first and second image sensors 14a and 14b are input to the A / D converters 30a and 30b, respectively. The A / D converters 30a and 30b convert the input image data from analog to digital. Through the A / D converters 30a and 30b, the imaging signal of the first image sensor 14a is first image data (right-eye image data), and the imaging signal of the second image sensor 14b is second image data (left-eye image). Data).

画像信号処理回路31a・31bは、それぞれ、階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理をA/D変換器30a・31bから入力された第1および第2画像データに施す。バッファメモリ32a・32bは、画像信号処理回路31a・31bで各種画像処理が施された第1および第2画像データを一時的に格納する。   The image signal processing circuits 31a and 31b respectively perform various image processing such as gradation conversion, white balance correction, and γ correction processing on the first and second image data input from the A / D converters 30a and 31b. The buffer memories 32a and 32b temporarily store the first and second image data subjected to various image processing by the image signal processing circuits 31a and 31b.

測光・測距CPU19a・19bは、それぞれ、バッファメモリ32a・32bに格納された第1および第2画像データの各々からAF評価値およびAE評価値を算出する。AF評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。また、AE評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値およびAE評価値は、後述する撮影準備処理時に実行されるAF動作およびAE動作においてそれぞれ使用される。   The photometry / ranging CPUs 19a and 19b calculate AF evaluation values and AE evaluation values from the first and second image data stored in the buffer memories 32a and 32b, respectively. The AF evaluation value is calculated by integrating high-frequency components of the luminance value for the entire area or predetermined area (for example, the central portion) of each image data, and represents the sharpness of the image. The high-frequency component of the luminance value is a sum of luminance differences (contrast) between adjacent pixels in a predetermined area. In addition, the AE evaluation value is calculated by integrating the luminance values over the entire area or a predetermined area (for example, the central portion) of each image data, and represents the brightness of the image. The AF evaluation value and the AE evaluation value are respectively used in an AF operation and an AE operation that are executed during an imaging preparation process described later.

バッファメモリ32a・32bに記憶された画像データは、それぞれYC処理部35a・35bにより輝度信号(Y信号)及び色差信号(Cr,Cb 信号)に変換されるとともに、ガンマ補正等の所定の処理が施される。処理されたYC信号はそれぞれワークメモリ128a・128bに格納される。   The image data stored in the buffer memories 32a and 32b is converted into luminance signals (Y signals) and color difference signals (Cr and Cb signals) by YC processing units 35a and 35b, respectively, and predetermined processing such as gamma correction is performed. Applied. The processed YC signals are stored in the work memories 128a and 128b, respectively.

ワークメモリ128a・128bに記憶された第1および第2画像データのYC信号は、それぞれコントローラ34によってYC/RGB変換部147に読み出される。YC/RGB変換部147は、第1および第2画像データのYC信号を所定方式の映像信号(例えば、NTSC方式のカラー複合映像信号)に変換した上で、画像表示LCD10での立体表示を行うための立体画像データに合成する。撮影モード時にLCD10が電子ビューファインダとして使用される際には、YC/RGB変換部147によって合成された立体画像データが、LCDドライバ148を介してLCD10にスルー画として表示される。   The YC signals of the first and second image data stored in the work memories 128a and 128b are read by the controller 34 to the YC / RGB conversion unit 147, respectively. The YC / RGB converter 147 converts the YC signal of the first and second image data into a predetermined format video signal (for example, an NTSC color composite video signal), and then performs stereoscopic display on the image display LCD 10. To the stereoscopic image data. When the LCD 10 is used as an electronic viewfinder in the shooting mode, the stereoscopic image data synthesized by the YC / RGB conversion unit 147 is displayed on the LCD 10 as a through image via the LCD driver 148.

圧縮伸張処理回路36a・36bは、それぞれワークメモリ128a・128bに記憶された第1および第2画像データに対して、静止画ではJPEG、動画ではMPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理を施す。メディアコントローラ37は、圧縮伸張処理回路36a・36によって圧縮処理された各画像データを、I/F39経由で接続されたメモリカード38その他の記録メディアに記録させる。   The compression / decompression processing circuits 36a and 36b respectively apply JPEG for still images, MPEG2, MPEG4, H.264 for moving images to the first and second image data stored in the work memories 128a and 128b, respectively. Compression processing is performed according to a predetermined compression format such as H.264. The media controller 37 records each image data compressed by the compression / decompression processing circuits 36 a and 36 on a memory card 38 or other recording media connected via the I / F 39.

このようにしてメモリカード38に記録された第1および第2画像データをLCD10に再生表示する場合、メモリカード38の各画像データは、メディアコントローラ37によって読み出され、圧縮伸張処理回路36a・36によって伸張処理が行われ、YC/RGB変換部147によって立体画像データに変換された後、LCDドライバ148を介してLCD10に再生画像として表示される。   When the first and second image data recorded in the memory card 38 in this way are reproduced and displayed on the LCD 10, each image data in the memory card 38 is read by the media controller 37, and the compression / decompression processing circuits 36a and 36 are used. The YC / RGB conversion unit 147 converts the image data into stereoscopic image data, and then displays the reproduced image on the LCD 10 via the LCD driver 148.

LCD10は、写実的手法を採用していない通常の平面モニタであり、画像撮影時には電子ビューファインダとして使用され、画像再生時には撮影によって得られた画像データの表示を行う。   The LCD 10 is a normal flat monitor that does not employ a photorealistic technique. The LCD 10 is used as an electronic viewfinder at the time of image shooting, and displays image data obtained by shooting at the time of image reproduction.

メインCPU62は、複眼カメラ1の全体の動作を統括的に制御する。メインCPU62には、レリーズスイッチ5a・5b、操作部70のほか、不揮発性メモリであるEEPROM146が接続されている。EEPROM146は、各種制御用のプログラムや設定情報などを格納している。メインCPU62は、このプログラムや設定情報に基づいて各種処理を実行する。   The main CPU 62 comprehensively controls the overall operation of the compound eye camera 1. In addition to the release switches 5a and 5b and the operation unit 70, the main CPU 62 is connected to an EEPROM 146 which is a nonvolatile memory. The EEPROM 146 stores various control programs and setting information. The main CPU 62 executes various processes based on this program and setting information.

また、メインCPU62には、光学系制御指示部127が接続されており、光学系制御指示部127へのズーム操作に応じて第1撮像部2a・第2撮像部2bの撮影倍率が変更される。   In addition, an optical system control instruction unit 127 is connected to the main CPU 62, and the imaging magnifications of the first imaging unit 2a and the second imaging unit 2b are changed according to a zoom operation to the optical system control instruction unit 127. .

レリーズスイッチ5a・5bは2段押しのスイッチ構造となっている。撮影モード中に、レリーズスイッチ5a・5bが軽く押圧(半押し)されると、AF動作およびAE動作が行われ撮影準備処理がなされる。この状態でさらにレリーズスイッチ5a・5bが強く押圧(全押し)されると、撮影処理が行われ、1画面分の第1および第2画像データがフレームメモリ32からメモリカード38に転送されて記録される。   The release switches 5a and 5b have a two-push switch structure. When the release switches 5a and 5b are lightly pressed (half-pressed) during the shooting mode, an AF operation and an AE operation are performed, and shooting preparation processing is performed. In this state, when the release switches 5a and 5b are further pressed (fully pressed), shooting processing is performed, and the first and second image data for one screen are transferred from the frame memory 32 to the memory card 38 and recorded. Is done.

AF動作は、メインCPU62が第1および第2フォーカスレンズ13a・13bを制御してそれぞれ所定方向に移動させながら、順次に得られる第1および第2画像データの各々から算出されたAF評価値の最大値を求めることによりなされる。AE動作は、AF動作が完了した後、算出されたAE評価値に基づいて、第1および第2絞り12a・12bの開口値、および第1および第2イメージセンサ14a・14bの電子シャッタ速度を設定することによりなされる。   In the AF operation, the main CPU 62 controls the first and second focus lenses 13a and 13b and moves them in predetermined directions, respectively, and the AF evaluation value calculated from each of the first and second image data obtained sequentially. This is done by finding the maximum value. In the AE operation, after the AF operation is completed, the aperture values of the first and second apertures 12a and 12b and the electronic shutter speeds of the first and second image sensors 14a and 14b are calculated based on the calculated AE evaluation values. This is done by setting.

また、カメラ1には、操作の手助けを行うための操作LCD表示103が備えられている。   In addition, the camera 1 is provided with an operation LCD display 103 for assisting the operation.

また、カメラ1は、電源電池68が着脱可能な構成となっている。電源電池68は充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池68は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池68は図示しない電池収納室に装填することにより、カメラ1の各回路と電気的に接続される。   Further, the camera 1 has a configuration in which the power supply battery 68 is detachable. The power battery 68 is composed of a rechargeable secondary battery such as a nickel-cadmium battery, a nickel metal hydride battery, or a lithium ion battery. The power supply battery 68 may be a single-use primary battery such as a lithium battery or an alkaline battery. The power supply battery 68 is electrically connected to each circuit of the camera 1 by being loaded into a battery storage chamber (not shown).

第1撮像部2a、第2撮像部2bには、それぞれ、第1撮像部2aと第2撮像部2bのなす間隔/輻輳角を検出する間隔/輻輳角検出回路4a・4bと、間隔/輻輳角検出回路4a・4bの検出した輻輳角を記憶するレンズ間隔/輻輳角記憶回路6、基線長の伸縮と光軸を駆動モータなどで回転させ輻輳を変化させる間隔/輻輳角駆動回路3a・3bとが備えられている。   The first imaging unit 2a and the second imaging unit 2b are respectively provided with an interval / convergence angle detection circuit 4a, 4b for detecting an interval / convergence angle between the first imaging unit 2a and the second imaging unit 2b, and an interval / congestion. Lens interval / convergence angle storage circuit 6 for storing the angle of convergence detected by the angle detection circuits 4a and 4b, and interval / convergence angle drive circuits 3a and 3b for changing the convergence by rotating the optical axis with a drive motor or the like by changing the baseline length. And are provided.

また、カメラ1には、間隔/輻輳角検出回路4a・4bの検出した間隔/輻輳角に基づいて間隔/輻輳角駆動回路3a・3bの輻輳角の変化を制御する間隔/輻輳角制御回路5が備えられている。   Further, the camera 1 includes an interval / convergence angle control circuit 5 that controls changes in the convergence angle of the interval / convergence angle driving circuits 3a and 3b based on the intervals / convergence angles detected by the interval / convergence angle detection circuits 4a and 4b. Is provided.

充電・発光制御部138a・138bは、それぞれストロボ44a・44bを発光させるために電源電池68からの電力の供給を受けて図示しない閃光発光用のコンデンサを充電したり、ストロボ44a・44bの発光を制御する。   The charge / light emission control units 138a and 138b are supplied with electric power from the power supply battery 68 in order to cause the strobes 44a and 44b to emit light, respectively, and charge a flash light emitting capacitor (not shown) or emit light from the strobes 44a and 44b. Control.

充電・発光制御部138a・138bは、レリーズスイッチ5a・5bの半押し・全押し操作信号等の各種の信号や、発光量、発光タイミングを示す信号をメインCPU62や測光・測距CPU19a・19bから取り込んだことに応じ、ストロボ44a・44bへの電流供給制御を行い、所望の発光量が所望のタイミングで得られるように制御する。   The charge / light emission control units 138a and 138b receive various signals such as half-press and full-press operation signals of the release switches 5a and 5b, and signals indicating the light emission amount and the light emission timing from the main CPU 62 and the photometry / ranging CPUs 19a and 19b. In response to the capture, current supply control to the strobes 44a and 44b is performed so that a desired light emission amount can be obtained at a desired timing.

縦撮り/横撮り切替ボタン40は、縦撮りまたは横撮りのいずれで撮影を行うかを指示するためのボタンである。縦撮り/横撮り検出回路166は、このボタンの状態により、縦撮りまたは横撮りのいずれで撮影を行うかを検出する。   The vertical / horizontal shooting switching button 40 is a button for instructing whether to perform vertical shooting or horizontal shooting. The vertical / horizontal shooting detection circuit 166 detects whether shooting is performed in vertical shooting or horizontal shooting depending on the state of this button.

2D/3Dモード切替フラグ168には、3D撮影モード/2D撮影モードの設定操作に応じて、2Dモードであることまたは3Dモードであることを表すフラグが設定される。   The 2D / 3D mode switching flag 168 is set with a flag indicating the 2D mode or the 3D mode according to the setting operation of the 3D shooting mode / 2D shooting mode.

距離用発光素子52a、52bは、それぞれ、第1撮像部2aおよび第2撮像部2bの捉えた同一被写体へ投光スポットを照射するための発光ダイオード(LED)からなる。   The distance light-emitting elements 52a and 52b are each composed of a light-emitting diode (LED) for irradiating a projection spot to the same subject captured by the first imaging unit 2a and the second imaging unit 2b.

距離用撮像素子51a、51bは、それぞれ、距離用発光素子52a、52bにより投光スポットの照射された被写体像を取得する測距専用の撮像素子である。   The distance image pickup devices 51a and 51b are image pickup devices dedicated to distance measurement that acquire subject images irradiated with the light projection spots by the distance light emitting devices 52a and 52b, respectively.

距離用駆動/制御回路54は、距離用発光素子52a、52bの発光タイミングと距離用撮像素子53a、53bとを同期させる制御を行う。   The distance driving / control circuit 54 performs control to synchronize the light emission timings of the distance light emitting elements 52a and 52b with the distance imaging elements 53a and 53b.

距離用撮像素子53a、53bの撮像動作で得られたアナログ画像信号はそれぞれ測距用A/D変換部55a、55bでデジタル画像データに変換され、距離情報処理回路57に出力される。   Analog image signals obtained by the imaging operations of the distance imaging elements 53a and 53b are converted into digital image data by the distance measurement A / D conversion units 55a and 55b, respectively, and are output to the distance information processing circuit 57.

距離情報処理回路57は、入力されたデジタル画像データから、第1撮像部2aおよび第2撮像部2bの捉えた被写体までの距離を算出する。これはいわゆる三角測距の原理に基づく。距離情報処理回路57が算出した距離情報は距離情報記憶回路58に記憶される。   The distance information processing circuit 57 calculates the distance from the input digital image data to the subject captured by the first imaging unit 2a and the second imaging unit 2b. This is based on the principle of so-called triangulation. The distance information calculated by the distance information processing circuit 57 is stored in the distance information storage circuit 58.

顔検出部150は、バッファメモリ32aあるいはバッファメモリ32bに格納された画像データや、バッファメモリ42に格納された画像データから被写体となった人物の顔部分を含む領域である顔領域を検出する。   The face detection unit 150 detects a face area that is an area including the face portion of the person who is the subject from the image data stored in the buffer memory 32 a or the buffer memory 32 b or the image data stored in the buffer memory 42.

顔領域の検出方法は特に限定されず、各種のものを採用できるが、例えば本出願人による特開平9−101579号公報において開示された技術を適用することができる。この技術は、撮影した画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。そして、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が人物の顔に相当する領域かを判定し、この判定結果に基づき顔領域として検出するものである。また、この他に、特開2003−209683号公報や特開2002−199221号公報に記載される方法で顔領域を検出することもできる。   The method for detecting the face area is not particularly limited, and various methods can be adopted. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 9-101579 by the present applicant can be applied. This technology determines whether or not the hue of each pixel of the captured image is included in the skin color range and divides it into a skin color region and a non-skin color region, and detects edges in the image to detect each pixel in the image. The location is classified as an edge portion or a non-edge portion. Then, an area surrounded by pixels that are located in the skin color area and classified as a non-edge part and surrounded by pixels that are determined to be edge parts is extracted as a face candidate area, and the extracted face candidate area becomes a human face. It is determined whether the region is a corresponding region, and is detected as a face region based on the determination result. In addition to this, a face region can also be detected by a method described in Japanese Patent Application Laid-Open Nos. 2003-209683 and 2002-199221.

なお、多視点画像は、上述のような複眼カメラ1で取得する必然性はなく、単眼カメラを用いたモーションステレオ法による連続撮影で取得してもよい。   The multi-viewpoint image is not necessarily acquired by the compound eye camera 1 as described above, and may be acquired by continuous shooting using a motion stereo method using a monocular camera.

以下、図2のフローチャートを参照し、カメラ1で実行される画像記録処理の流れを説明する。この処理を規定するプログラムはEEPROM146に格納されており、メインCPU62がこのプログラムを実行する。操作部70からの「サムネイル画像一覧表示」の指示に応じ、メモリカード38に格納されている全ての多視点画像に対して一括して行われる。   Hereinafter, the flow of image recording processing executed by the camera 1 will be described with reference to the flowchart of FIG. A program that defines this processing is stored in the EEPROM 146, and the main CPU 62 executes this program. In response to an instruction of “display thumbnail image list” from the operation unit 70, all the multi-viewpoint images stored in the memory card 38 are collectively performed.

S1では、静止画用レリーズスイッチ5aが全押しされたか否かを判断する。静止画用レリーズスイッチ5aが全押しされた場合はS2に進む。   In S1, it is determined whether or not the still image release switch 5a has been fully pressed. If the still image release switch 5a is fully pressed, the process proceeds to S2.

S2では、記録用静止画データの取り込みを開始する。取り込まれた画像データ(本画像)はバッファメモリ42に確保された本画像バッファに一旦格納される。   In S2, capturing of still image data for recording is started. The captured image data (main image) is temporarily stored in a main image buffer secured in the buffer memory 42.

S3では、2D/3Dモード切替フラグ168のフラグを判断する。3Dモードのフラグが立っている場合はS4に進む。2Dモードのフラグが立っている場合はS7に進む。   In S3, the flag of the 2D / 3D mode switching flag 168 is determined. If the 3D mode flag is set, the process proceeds to S4. If the 2D mode flag is set, the process proceeds to S7.

S4では、本画像バッファに格納されている多視点画像から、サムネイル画像を作成する。その具体的手法は特許文献2の段落0040と同様、左目用画像のみ、右目用画像のみ、あるいはその両方を間引いて作成すればよい。   In S4, a thumbnail image is created from the multi-viewpoint image stored in the main image buffer. The specific method may be created by thinning out only the left-eye image, only the right-eye image, or both, as in paragraph 0040 of Patent Document 2.

S5では、作成されたサムネイル画像に3次元CG処理を施すことで3次元サムネイル画像を作成する。例えば図3に示すように、画像中に存在する主要被写体その他の各種の物体(図3はマグカップを示しているが、人物などでもよい)に対応した3次元形状モデルのポリゴンPGに、サムネイル画像thの対応領域を貼り付けるテクスチャマッピングを行い、3次元CGサムネイル画像Xを得る。この具体的手法は特許文献1と同様である。あるいは、元の多視点画像について3次元CG処理を施し、それを間引くことで3次元CGサムネイル画像を作成してもよいが、処理の負荷の点では、先にサムネイルを作成する方が優れている。   In S5, a 3D thumbnail image is created by performing 3D CG processing on the created thumbnail image. For example, as shown in FIG. 3, a thumbnail image is displayed on a polygon PG of a three-dimensional shape model corresponding to a main subject and other various objects (FIG. 3 shows a mug but may be a person) existing in the image. Texture mapping for pasting the corresponding region of th is performed to obtain a three-dimensional CG thumbnail image X. This specific method is the same as that of Patent Document 1. Alternatively, a 3D CG process may be performed on the original multi-viewpoint image, and a 3D CG thumbnail image may be created by thinning out the 3D CG process. However, in terms of processing load, it is better to create a thumbnail first. Yes.

なお、その他の3Dコンピュータグラフィック手法をサムネイル画像に適用し3次元CGサムネイル画像を作成してもよい。   Note that other 3D computer graphic techniques may be applied to the thumbnail image to create a 3D CG thumbnail image.

S6では、作成した3次元CGサムネイル画像を、バッファメモリ41に確保されたサムネイルバッファに格納する。   In S 6, the created 3D CG thumbnail image is stored in a thumbnail buffer secured in the buffer memory 41.

S7では、画像ファイルに格納されている単視点の通常画像から、サムネイル画像を作成する。その具体的手法は通常のサムネイル画像と同様、単視点画像を間引いて作成すればよい。このサムネイルを通常サムネイル画像と呼ぶ。   In S7, a thumbnail image is created from a single viewpoint normal image stored in the image file. The specific method may be created by thinning out a single viewpoint image in the same manner as a normal thumbnail image. This thumbnail is called a normal thumbnail image.

S8では、作成した通常サムネイル画像を、バッファメモリ42に確保されたサムネイルバッファに格納する。   In S8, the created normal thumbnail image is stored in a thumbnail buffer secured in the buffer memory 42.

S9では、バッファメモリ42のサムネイルバッファに格納されたサムネイル画像と、本画像バッファに格納された本画像とを関連付けてメモリカード38に記録する。両画像の関連付けは、例えば、両者を同一のExif(Exchangeable image file format)ファイルに格納し、メモリカード38に記録することで行うことができる。   In S9, the thumbnail image stored in the thumbnail buffer of the buffer memory 42 and the main image stored in the main image buffer are associated with each other and recorded in the memory card 38. The association between both images can be performed, for example, by storing the images in the same Exif (Exchangeable image file format) file and recording them in the memory card 38.

なお、S3〜S9の処理は、記録用静止画が新たに取得されるごとに行ってもよいし、静止画を一定数撮り溜めてから行ってもよい。要するに、本画像と縮小画像とを関連付けて記録できれば、3次元CGサムネイル画像の作成のタイミングはいつでもよい。   Note that the processing from S3 to S9 may be performed every time a still image for recording is newly acquired, or may be performed after a certain number of still images are collected. In short, as long as the main image and the reduced image can be recorded in association with each other, the timing of creating the three-dimensional CG thumbnail image may be any time.

図4は、上記処理によりメモリカード38に記録された画像ファイルから取り込まれLCD10その他の表示装置に一覧表示された3次元CGサムネイル画像Xおよび通常サムネイル画像Yの一例を示す。3次元CGサムネイル画像Xは、上記ステップS4〜6で作成されたものであり、3次元CGグラフィック処理が施され立体的効果が付与さているから、上記ステップS7〜8で作成された通常サムネイルYとの違いが一見して明らかであり、写実的手法を実現する特殊な表示装置を用いなくとも、多視点画像の縮小画像であることを観者に容易に認識させることができる。   FIG. 4 shows an example of the three-dimensional CG thumbnail image X and the normal thumbnail image Y which are taken from the image file recorded on the memory card 38 by the above processing and displayed as a list on the LCD 10 or other display device. The three-dimensional CG thumbnail image X is created in the above steps S4 to S6, and the three-dimensional CG graphic process is applied to give a stereoscopic effect. Therefore, the normal thumbnail Y created in the above steps S7 to S8 is used. At first glance, the difference can be easily recognized and the viewer can easily recognize that the image is a reduced image of a multi-viewpoint image without using a special display device that realizes a realistic method.

<第2実施形態>
図5は、画像記録処理の他の例を示す。ここでは、顔の写っている多視点画像のサムネイル画像を、当該多視点画像の顔領域についてのみ3次元CG処理を施したサムネイル画像に置き換える。
Second Embodiment
FIG. 5 shows another example of the image recording process. Here, the thumbnail image of the multi-viewpoint image showing the face is replaced with a thumbnail image that has been subjected to the three-dimensional CG process only for the face area of the multi-viewpoint image.

S11〜S13は、S1〜S3と同様である。   S11 to S13 are the same as S1 to S3.

S14では、顔検出部150に対し、多視点画像の一方または双方から顔を抽出するよう指令する。顔検出部150はメインCPU62からの指令に応じ、画像ファイルに格納された左目用画像あるいは右目用画像から、顔領域の検出を試みる。   In S14, the face detection unit 150 is instructed to extract a face from one or both of the multi-viewpoint images. In response to a command from the main CPU 62, the face detection unit 150 attempts to detect a face area from the left-eye image or the right-eye image stored in the image file.

S15では、顔検出部150が顔領域を検出できたか否かを判断する。顔領域を検出できた場合はS16、検出できなかった場合はS18に進む。   In S15, it is determined whether or not the face detection unit 150 has detected a face area. If the face area can be detected, the process proceeds to S16. If the face area cannot be detected, the process proceeds to S18.

S16では、顔が写っている多視点画像から、顔領域を抽出し、その顔領域に3次元CG処理を施す。これは例えば、顔が写っている多視点画像から顔領域を抽出するとともに、当該多視点画像を所定の間引き率で間引く。間引き後の縮小画像に、元多視点画像から抽出された顔領域に相当する領域を設定する。両視点画像から顔検出を試みた場合、検出精度の高い方の視点画像に顔領域を設定するとさらによい。そして、その設定領域中の顔に特有のポリゴンを作成し、当該ポリゴンに間引き後顔領域を貼り付けるテクスチャマッピングを行い、顔領域のみに3次元CG処理の施されたサムネイル画像を得る。この方式は、間引き画像の作成後に3次元CG処理を行う。   In S16, a face area is extracted from the multi-viewpoint image showing the face, and the three-dimensional CG process is performed on the face area. For example, a face area is extracted from a multi-viewpoint image showing a face, and the multi-viewpoint image is thinned out at a predetermined thinning rate. An area corresponding to the face area extracted from the original multi-viewpoint image is set in the reduced image after thinning. When face detection is attempted from both viewpoint images, it is better to set a face area in the viewpoint image with higher detection accuracy. Then, a polygon peculiar to the face in the set area is created, and texture mapping is performed by pasting the face area after thinning on the polygon to obtain a thumbnail image on which only the face area has been subjected to 3D CG processing. In this method, three-dimensional CG processing is performed after creation of a thinned image.

あるいは、その検出した顔自体から、その人物の顔に特有のポリゴンを作成し、当該ポリゴンに顔領域を貼り付けるテクスチャマッピングを行い、多視点画像に顔領域のみに3次元CG処理を施した仮のCG画像を作る。そして、この仮のCG画像を所定の間引き率で間引き、顔領域のみに3次元CG処理の施されたサムネイル画像を得る。この方式は、3次元CG処理の後に間引き画像を作成する。   Alternatively, a polygon unique to the person's face is created from the detected face itself, texture mapping is performed to attach the face area to the polygon, and a three-dimensional CG process is performed on only the face area on the multi-viewpoint image. Make a CG image. Then, the provisional CG image is thinned out at a predetermined thinning rate to obtain a thumbnail image in which only the face area is subjected to the three-dimensional CG process. This method creates a thinned image after the three-dimensional CG processing.

上記のテクスチャマッピング方式はポリゴンの作成から始める必要があり、精密なポリゴンを作成すると処理負荷が大きい。ポリゴンの簡易な作成方法としては、次のようなものが挙げられる。まず、検出された顔領域から、顔の輪郭、目、鼻、口などの顔の構成部分を検出し、検出された顔の構成部分の位置に応じてポリゴン分割線を決める。例えば、両目の中央部分(眉間)から出発し鼻筋に沿って鼻先端に達する線と、両目を周回する線と、口を周回する線と、顔の輪郭とをポリゴン分割線とする。このポリゴンにテクスチャマッピングすると、口と鼻の部分が隆起し、目の周囲が窪んだような簡易な3次元CGサムネイル画像が得られる。   The above texture mapping method needs to start with creation of a polygon. If a precise polygon is created, the processing load is large. The following is a simple polygon creation method. First, face components such as a face outline, eyes, nose, and mouth are detected from the detected face region, and polygon dividing lines are determined according to the positions of the detected face components. For example, a line that starts from the central part (between eyebrows) and reaches the tip of the nose along the nasal muscles, a line that circulates both eyes, a line that circulates the mouth, and a contour of the face are polygon dividing lines. When texture mapping is performed on this polygon, a simple three-dimensional CG thumbnail image in which the mouth and nose are raised and the periphery of the eye is depressed is obtained.

S17では、作成した3次元CGサムネイル画像をサムネイルバッファに格納する。   In S17, the created three-dimensional CG thumbnail image is stored in the thumbnail buffer.

S18では、本画像バッファに格納されている多視点画像から、サムネイル画像を作成する。その具体的手法は特許文献2の段落0040と同様、左目用画像のみ、右目用画像のみ、あるいはその両方を間引いて作成すればよい。   In S18, a thumbnail image is created from the multi-viewpoint image stored in the main image buffer. The specific method may be created by thinning out only the left-eye image, only the right-eye image, or both, as in paragraph 0040 of Patent Document 2.

S20〜S22は、上述のS7〜S9と同様である。   S20 to S22 are the same as S7 to S9 described above.

図6は、LCD10に一覧表示された、顔の検出された多視点画像に対応する3次元サムネイル画像S、通常サムネイル画像Y、顔の検出されなかった多視点画像に対応するサムネイル画像Zの一例を示す。   FIG. 6 shows an example of a three-dimensional thumbnail image S corresponding to a multi-view image with a face detected, a normal thumbnail image Y, and a thumbnail image Z corresponding to a multi-view image with no face detected displayed on the LCD 10 as a list. Indicates.

サンプルサムネイル画像Uは、ステップS4〜S6で作成されたものであり、顔領域についてのみ3次元CGグラフィック処理が施されているから、ステップS20〜S21で作成された通常サムネイルYや、ステップS18〜S19で作成された単なる視点画像の縮小画像Zとの違いが一見して明らかであり、写実的手法を実現する特殊な装置を用いなくとも、顔を被写体とする立体画像の識別が容易である。しかも、元画像を用いて顔領域に3次元CGグラフィック処理が施されているから、元画像の顔の概要も立体的に分かる。   The sample thumbnail image U is created in steps S4 to S6, and the three-dimensional CG graphic process is performed only on the face area. Therefore, the normal thumbnail Y created in steps S20 to S21 and the steps S18 to S18 are performed. The difference between the simple viewpoint image created in S19 and the reduced image Z is obvious at a glance, and it is easy to identify a stereoscopic image having a face as a subject without using a special device that implements a realistic method. . In addition, since the three-dimensional CG graphic processing is performed on the face area using the original image, the outline of the face of the original image can be understood three-dimensionally.

<第3実施形態>
図7は、メインCPU62で実行される画像記録処理の他の例を示す。ここでは、フラッシュ撮影された多視点画像のサムネイル画像を、特別なサンプルに置き換える。
<Third Embodiment>
FIG. 7 shows another example of the image recording process executed by the main CPU 62. Here, the thumbnail image of the multi-viewpoint image captured by flash is replaced with a special sample.

S31〜S33は、S1〜S3と同様である。   S31 to S33 are the same as S1 to S3.

S34では、測光測距CPU19a・19bからフラッシュ発光情報を取得し、画像記録時のストロボ44a・44bのオンまたはオフの状況を識別する。なお、フラッシュ発光情報は、例えば、Exifファイルの「Flash」タグに格納される。   In S34, the flash emission information is acquired from the photometry and ranging CPUs 19a and 19b, and the on / off status of the strobes 44a and 44b at the time of image recording is identified. Note that the flash emission information is stored, for example, in the “Flash” tag of the Exif file.

S35では、フラッシュ発光情報に基づき、撮影時におけるストロボ44a・44bのオンまたはオフを判断する。撮影時にストロボ44a・44bがオンであった場合はS36、オフであった場合はS38に進む。   In S35, on / off of the strobes 44a and 44b at the time of shooting is determined based on the flash emission information. If the strobes 44a and 44b are on at the time of shooting, the process proceeds to S36, and if it is off, the process proceeds to S38.

S36では、多視点画像であることを表象するサンプルの3次元サムネイル画像をEEPROM146から取り出す。このサンプルは第2実施形態と同様3次元CG処理により立体効果が付与されており、EEPROM146に予め格納されている。なおこのサンプルは実際の被写体である必要はない。   In S 36, a sample three-dimensional thumbnail image representing the multi-viewpoint image is taken out from the EEPROM 146. Similar to the second embodiment, this sample is given a three-dimensional effect by three-dimensional CG processing, and is stored in the EEPROM 146 in advance. Note that this sample does not have to be an actual subject.

S37では、取り出したサンプルの3次元サムネイル画像をサムネイルバッファに格納する。サンプルの3次元サムネイル画像は、実際の被写体と同一である必要はなく、ただ、多視点画像であることを3Dグラフィックで示すためのサムネイル画像である。   In S37, the extracted three-dimensional thumbnail image of the sample is stored in the thumbnail buffer. The sample three-dimensional thumbnail image does not have to be the same as the actual subject, but is merely a thumbnail image for indicating that the image is a multi-viewpoint image by 3D graphics.

S38〜S42は、上述のS18〜S22と同様である。   S38 to S42 are the same as S18 to S22 described above.

図8は、LCD10に一覧表示されたサンプルの3次元サムネイル画像W、通常サムネイル画像Y、立体画像の縮小画像Zの一例を示す。   FIG. 8 shows an example of a sample 3D thumbnail image W, normal thumbnail image Y, and stereoscopic image reduced image Z displayed as a list on the LCD 10.

ステップS37でEEPROM146から取り出されたサンプルサムネイル画像Wは、3次元CG処理が施されているから、通常サムネイルYや単なる立体画像の縮小画像Zとの違いが一見して明らかであり、写実的手法を実現する特殊な装置を用いなくとも、顔を被写体とする立体画像の識別が容易である。   Since the sample thumbnail image W extracted from the EEPROM 146 in step S37 has been subjected to the three-dimensional CG processing, the difference from the normal thumbnail Y or the simple reduced image Z of the three-dimensional image is obvious at first glance. Even without using a special device that realizes the above, it is easy to identify a stereoscopic image having a face as a subject.

しかも、多視点画像としての有効利用が困難な、フラッシュ非発光条件下での暗い多視点画像にまで一律にサンプルを対応づけて記録しなくて済み、処理が効率化する。   In addition, it is not necessary to record the samples uniformly in correspondence with the dark multi-viewpoint images that are difficult to effectively use as a multi-viewpoint image, and the flash does not emit light, and the processing becomes efficient.

<第4実施形態>
図9は、画像記録処理の他の例を示す。ここでは、顔の写っている多視点画像のサムネイル画像を、特別なサンプルに置き換える。
<Fourth embodiment>
FIG. 9 shows another example of the image recording process. Here, the thumbnail image of the multi-viewpoint image showing the face is replaced with a special sample.

S51〜S53は、S1〜S3と同様である。   S51 to S53 are the same as S1 to S3.

S54〜S55は、S14〜S15と同様である。ただし、S55では、顔があると判断した場合はS56、顔がないと判断した場合はS58に進む。   S54 to S55 are the same as S14 to S15. However, in S55, if it is determined that there is a face, the process proceeds to S56, and if it is determined that there is no face, the process proceeds to S58.

S56では、顔が写っている多視点画像であることを表象するサンプルの3次元サムネイル画像をEEPROM146から取り出す。   In S <b> 56, a sample three-dimensional thumbnail image representing that the face is a multi-viewpoint image is extracted from the EEPROM 146.

S57では、取り出したサンプルをサムネイルバッファに格納する。サンプルの3次元サムネイル画像は、実際の被写体の顔と同一である必要はなく、サンプルの人物の顔であればよく、かつその顔や身体などには、3Dグラフィックによる立体効果が予め付与されている。   In S57, the extracted sample is stored in the thumbnail buffer. The sample 3D thumbnail image does not have to be the same as the face of the actual subject, and may be a sample person's face, and the face or body is preliminarily provided with a 3D graphic stereoscopic effect. Yes.

S58〜S62は、上述のS18〜S22と同様である。   S58 to S62 are the same as S18 to S22 described above.

図10は、LCD10に一覧表示されたサンプルの3次元サムネイル画像U、通常サムネイル画像Y、立体画像の縮小画像Zの一例を示す。   FIG. 10 shows an example of a sample three-dimensional thumbnail image U, a normal thumbnail image Y, and a reduced image Z of a stereoscopic image displayed as a list on the LCD 10.

サンプルサムネイル画像Uは、3次元CGグラフィック処理が施されているから、通常サムネイルYや立体画像縮小画像Zとの違いが一見して明らかであり、写実的手法を実現する特殊な装置を用いなくとも、顔を被写体とする立体画像の識別が容易である。   Since the sample thumbnail image U has been subjected to 3D CG graphic processing, the difference from the normal thumbnail Y and the stereoscopic image reduced image Z is apparent at first glance, without using a special device that realizes a realistic method. In both cases, it is easy to identify a stereoscopic image whose face is a subject.

<第5実施形態>
図11は、画像記録処理の他の例を示す。ここでは、近距離の被写体を撮影した多視点画像のサムネイル画像のみを、3次元CG処理する。
<Fifth Embodiment>
FIG. 11 shows another example of the image recording process. Here, only a thumbnail image of a multi-viewpoint image obtained by photographing a subject at a short distance is subjected to three-dimensional CG processing.

S71〜S73は、S1〜S3と同様である。   S71 to S73 are the same as S1 to S3.

S74では、距離情報記憶回路58から距離情報を取得し、撮影時のカメラ1から被写体までの距離を識別する。なお、距離情報は、例えば、Exifファイルの「SubjectDistance」タグに格納される。距離情報記憶回路58の距離情報は、距離用撮像素子51aから得られたものあるいは距離用撮像素子51bから得られたものの2種類が存在するが、どちらを用いてもよく、例えば、距離の短い方の距離情報を用いる。   In S74, distance information is acquired from the distance information storage circuit 58, and the distance from the camera 1 to the subject at the time of shooting is identified. The distance information is stored in a “SubjectDistance” tag of the Exif file, for example. There are two types of distance information stored in the distance information storage circuit 58, one obtained from the distance image sensor 51a and one obtained from the distance image sensor 51b, either of which may be used, for example, a short distance. The distance information of the direction is used.

S75では、距離情報Dに基づき、被写体が所定の距離よりも遠い位置(例えばD>10m)にあったか否かを判断する。被写体が遠距離でない場合すなわち近距離にいる場合はS76に進み、被写体が遠距離であった場合はS78に進む。   In S75, based on the distance information D, it is determined whether or not the subject is at a position farther than a predetermined distance (for example, D> 10 m). If the subject is not a long distance, that is, if it is a short distance, the process proceeds to S76, and if the subject is a long distance, the process proceeds to S78.

S76では、S5と同様、3次元CGサムネイル画像を作成する。   In S76, as in S5, a three-dimensional CG thumbnail image is created.

S77では、作成した3次元CGサムネイル画像を、バッファメモリ42に確保されたサムネイルバッファに格納する。   In S 77, the created three-dimensional CG thumbnail image is stored in a thumbnail buffer secured in the buffer memory 42.

S78〜S82は、上述のS18〜S22と同様である。   S78 to S82 are the same as S18 to S22 described above.

図12は、LCD10に一覧表示された3次元サムネイル画像T、通常サムネイル画像Y、3次元CG処理の施されなかった被写体が遠いサムネイル画像Vの一例を示す。   FIG. 12 shows an example of a thumbnail image V displayed as a list on the LCD 10, a normal thumbnail image Y, a subject that has not been subjected to the 3D CG process, and is far away.

被写体が近距離にあるサンプルサムネイル画像Tは、3次元CG処理が施されているから、写実的手法を実現する特殊な装置を用いなくとも、通常サムネイルYや被写体が遠い画像のサムネイル画像Vとの違いが一見して明らかである。   Since the sample thumbnail image T in which the subject is at a short distance is subjected to three-dimensional CG processing, the thumbnail image V and the thumbnail image V of the image in which the subject is far away can be obtained without using a special device that implements a realistic method. The difference is obvious at first glance.

しかも、撮影時に被写体が近距離にいた多視点画像についてのみ3次元CG処理を施すから、当該処理を施しても無意味な、被写体が遠い画像にまで一律に3次元CG処理をしなくて済み、処理が効率化する。   In addition, since the 3D CG process is performed only on the multi-viewpoint image in which the subject is at a short distance at the time of shooting, it is not necessary to perform the 3D CG process uniformly even to the far object image even if the process is performed. , Process becomes more efficient.

<第6実施形態>
図13は、画像記録処理の他の例を示す。ここでは、多視点画像として遠距離の被写体を撮影した場合、警告を発し、多視点画像の記録そのものを行わない。一方、近距離で撮影された多視点画像のサムネイル画像のみを、3次元CG処理し、本画像と対応づけて記録する。
<Sixth Embodiment>
FIG. 13 shows another example of the image recording process. Here, when a long-distance subject is photographed as a multi-viewpoint image, a warning is issued and the multi-viewpoint image itself is not recorded. On the other hand, only thumbnail images of multi-viewpoint images taken at a short distance are subjected to three-dimensional CG processing and recorded in association with the main image.

S91〜S95は、S71〜S75と同様である。ただし、S95では、被写体が遠距離と判断した場合はS96、被写体が近距離と判断した場合はS97に進む。   S91 to S95 are the same as S71 to S75. However, in S95, if it is determined that the subject is a long distance, the process proceeds to S96, and if it is determined that the subject is a short distance, the process proceeds to S97.

S96では、被写体が遠距離であり多視点画像を記録しない旨の警告をLCD10に表示する。そしてS101の画像記録には進まず、処理を終える。   In S96, a warning is displayed on the LCD 10 that the subject is at a long distance and a multi-viewpoint image is not recorded. Then, the process ends without proceeding to the image recording in S101.

S97〜S98は、S76〜S77と同様である。また、S99〜S101は、S80〜S82と同様である。   S97 to S98 are the same as S76 to S77. S99 to S101 are the same as S80 to S82.

この処理では、撮影時に被写体が近距離にいた多視点画像についてのみ3次元CG処理を施し、本画像と対応づけて記録するから、当該処理を施しても無意味な、被写体が遠い画像にまで一律に3次元CG処理をしなくて済み、処理が効率化する。   In this process, the 3D CG process is performed only on the multi-viewpoint image in which the subject is at a short distance at the time of shooting and is recorded in association with the main image. It is not necessary to perform the 3D CG processing uniformly, and the processing becomes efficient.

また、この処理では、撮影時に被写体が遠距離にいた多視点画像については、警告表示を行い、本画像の記録は行わない。つまり、被写体が遠く、立体視効果の生じない多視点画像を記録しなくて済み、処理が効率化する。   Further, in this process, a warning is displayed for the multi-viewpoint image in which the subject is at a long distance at the time of shooting, and the actual image is not recorded. That is, it is not necessary to record a multi-viewpoint image that is far from the subject and does not cause a stereoscopic effect, and the processing becomes efficient.

<その他の実施形態>
上記第1〜6実施形態の一部または全部の組み合わせも可能である。例えば、顔が検出され、かつ撮影時のフラッシュ発光がオンである場合に限り、3次元CG処理を施した縮小画像を本画像と関連づけて記録することもできる。あるいは、顔が検出され、かつ撮影時のフラッシュ発光がオンである場合に限り、3次元CG処理を施したサンプル縮小画像を本画像と関連づけて記録することもできる。
<Other embodiments>
A combination of part or all of the first to sixth embodiments is also possible. For example, a reduced image subjected to three-dimensional CG processing can be recorded in association with the main image only when a face is detected and flash emission at the time of shooting is on. Alternatively, only when a face is detected and flash emission at the time of shooting is on, a reduced sample image subjected to three-dimensional CG processing can be recorded in association with the main image.

あるいは、被写体距離が近距離であり、かつ撮影時のフラッシュ発光がオンである場合に限り、3次元CG処理を施した縮小画像を本画像と関連づけて記録することもできる。あるいは、被写体距離が近距離であり、かつ撮影時のフラッシュ発光がオンである場合に限り、3次元CG処理を施したサンプル縮小画像を本画像と関連づけて記録することもできる。   Alternatively, the reduced image subjected to the three-dimensional CG process can be recorded in association with the main image only when the subject distance is short and the flash emission at the time of shooting is on. Alternatively, the sample reduced image subjected to the three-dimensional CG processing can be recorded in association with the main image only when the subject distance is short and the flash emission at the time of photographing is on.

なお、顔検出があった場合は、被写体距離は近距離と想定されるため、顔検出があった場合、被写体距離が近距離または遠距離にある判定を省略してもよい。   When face detection is performed, the subject distance is assumed to be a short distance. Therefore, when face detection is performed, determination that the subject distance is short or far may be omitted.

カメラのブロック図Camera block diagram 第1実施形態に係る画像記録処理のフローチャートFlowchart of image recording processing according to the first embodiment テクスチャマッピングの一例を示す図Diagram showing an example of texture mapping 第1実施形態に係る画像記録処理により記録されたサムネイルの一例を示す図The figure which shows an example of the thumbnail recorded by the image recording process which concerns on 1st Embodiment. 第2実施形態に係る画像記録処理のフローチャートFlowchart of image recording process according to second embodiment 第2実施形態に係る画像記録処理により記録されたサムネイルの一例を示す図The figure which shows an example of the thumbnail recorded by the image recording process which concerns on 2nd Embodiment. 第3実施形態に係る画像記録処理のフローチャートFlowchart of image recording process according to third embodiment 第3実施形態に係る画像記録処理により記録されたサムネイルの一例を示す図The figure which shows an example of the thumbnail recorded by the image recording process which concerns on 3rd Embodiment. 第4実施形態に係る画像記録処理のフローチャートFlowchart of image recording processing according to the fourth embodiment 第4実施形態に係る画像記録処理により記録されたサムネイルの一例を示す図The figure which shows an example of the thumbnail recorded by the image recording process which concerns on 4th Embodiment 第5実施形態に係る画像記録処理のフローチャートFlowchart of image recording process according to fifth embodiment 第5実施形態に係る画像記録処理により記録されたサムネイルの一例を示す図The figure which shows an example of the thumbnail recorded by the image recording process which concerns on 5th Embodiment 第6実施形態に係る画像記録処理のフローチャートFlowchart of image recording process according to sixth embodiment

符号の説明Explanation of symbols

1:カメラ、2a:第1撮像部、2b:第2撮像部、10:LCD、62:メインCPU、38:メモリカード 1: camera, 2a: first imaging unit, 2b: second imaging unit, 10: LCD, 62: main CPU, 38: memory card

Claims (15)

2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、
前記撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、
前記本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、
前記本画像を縮小した第1の縮小画像を作成した上、前記画像識別部が多視点画像であると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、
前記画像識別部による前記多視点画像または前記単視点画像の識別に応じ、前記画像処理部の作成した第1の縮小画像または第2の縮小画像を記憶する縮小画像記憶部と、
前記縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と前記本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、
を備える画像記録装置。
An imaging unit capable of imaging an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
A main image storage unit that stores a main image that is a multi-viewpoint image or a single-viewpoint image captured by the shooting unit;
An image identification unit for identifying whether the main image stored in the main image storage unit is a multi-view image or a single-view image;
A first reduced image obtained by reducing the main image is created, and a three-dimensional computer graphic process is performed on the first reduced image created from the main image identified by the image identification unit as a multi-viewpoint image. An image processing unit that creates a second reduced image,
A reduced image storage unit that stores the first reduced image or the second reduced image created by the image processing unit according to the identification of the multi-viewpoint image or the single-viewpoint image by the image identification unit;
A recording unit that records the first reduced image or the second reduced image stored in the reduced image storage unit and the main image stored in the main image storage unit in association with each other;
An image recording apparatus comprising:
前記画像識別部が多視点画像であると識別した本画像から、被写体顔領域の有無を検出する顔検出部をさらに備え、
前記画像処理部は、前記第1の縮小画像に対し、前記顔検出部が検出した被写体顔領域に対応する領域を設定した上、前記設定された領域に3次元コンピュータグラフィック処理を施すことで、前記第2の縮小画像を作成する請求項1に記載の画像記録装置。
A face detection unit for detecting the presence or absence of a subject face region from the main image identified by the image identification unit as a multi-viewpoint image;
The image processing unit sets a region corresponding to the subject face region detected by the face detection unit for the first reduced image, and performs three-dimensional computer graphic processing on the set region, The image recording apparatus according to claim 1, wherein the second reduced image is created.
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、
前記撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、
前記本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、
前記画像識別部が多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するフラッシュ発光識別部と、
前記画像識別部が単視点画像であると識別したかまたは前記フラッシュ発光識別部が撮影時のフラッシュ発光がなかったと識別した本画像を縮小した第1の縮小画像を作成する画像処理部と、
前記画像識別部が多視点画像と識別しかつ前記フラッシュ発光識別部がフラッシュ発光があったと識別した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するサンプル縮小画像取得部と、
前記画像識別部による前記多視点画像または前記単視点画像の識別と前記フラッシュ発光識別部による前記撮影時のフラッシュ発光の有無の識別とに応じ、前記画像処理部の作成した第1の縮小画像または前記サンプル縮小画像取得部の取得した第2の縮小画像を記憶する縮小画像記憶部と、
前記縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と前記本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、
を備える画像記録装置。
An imaging unit capable of imaging an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
A main image storage unit that stores a main image that is a multi-viewpoint image or a single-viewpoint image captured by the shooting unit;
An image identification unit for identifying whether the main image stored in the main image storage unit is a multi-view image or a single-view image;
For the image identified by the image identification unit as a multi-viewpoint image, a flash emission identification unit for identifying presence or absence of flash emission at the time of shooting;
An image processing unit that creates a first reduced image obtained by reducing the main image that the image identification unit has identified as a single-viewpoint image or the flash emission identification unit has identified that there was no flash emission at the time of shooting;
As a second reduced image corresponding to the main image identified by the image identification unit as a multi-viewpoint image and identified by the flash emission identification unit as having flash emission, a predetermined sample reduced image subjected to three-dimensional computer graphics is used. A sample reduced image acquisition unit to acquire;
The first reduced image created by the image processing unit according to the identification of the multi-viewpoint image or the single-viewpoint image by the image identification unit and the identification of the presence or absence of flash emission at the time of shooting by the flash emission identification unit A reduced image storage unit that stores the second reduced image acquired by the sample reduced image acquisition unit;
A recording unit that records the first reduced image or the second reduced image stored in the reduced image storage unit and the main image stored in the main image storage unit in association with each other;
An image recording apparatus comprising:
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、
前記撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、
前記本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、
前記画像識別部が多視点画像であると識別した画像について、被写体顔領域の有無を検出する顔検出部と、
前記画像識別部が単視点画像であると識別したかまたは前記顔検出部が被写体顔領域を検出しなかった本画像を縮小した第1の縮小画像を作成する画像処理部と、
前記画像識別部が多視点画像と識別しかつ前記顔検出部が被写体顔領域を検出した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するサンプル縮小画像取得部と、
前記画像識別部による前記多視点画像または前記単視点画像の識別と前記顔検出部による前記被写体顔領域の検出の有無とに応じ、前記画像処理部の作成した第1の縮小画像または前記サンプル縮小画像取得部の取得した第2の縮小画像を記憶する縮小画像記憶部と、
前記縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と前記本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、
を備える画像記録装置。
An imaging unit capable of imaging an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
A main image storage unit that stores a main image that is a multi-viewpoint image or a single-viewpoint image captured by the shooting unit;
An image identification unit for identifying whether the main image stored in the main image storage unit is a multi-view image or a single-view image;
A face detection unit that detects the presence or absence of a subject face region for the image identified by the image identification unit as a multi-viewpoint image;
An image processing unit that creates a first reduced image obtained by reducing the main image in which the image identifying unit has identified that it is a single-viewpoint image or the face detection unit has not detected a subject face area;
A predetermined sample reduced image subjected to three-dimensional computer graphics is acquired as a second reduced image corresponding to the main image that the image identification unit has identified as a multi-viewpoint image and the face detection unit has detected the subject face area. A sample reduced image acquisition unit;
The first reduced image or the sample reduced created by the image processing unit according to the identification of the multi-viewpoint image or the single-viewpoint image by the image identification unit and the presence / absence of the detection of the subject face area by the face detection unit. A reduced image storage unit for storing the second reduced image acquired by the image acquisition unit;
A recording unit that records the first reduced image or the second reduced image stored in the reduced image storage unit and the main image stored in the main image storage unit in association with each other;
An image recording apparatus comprising:
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影可能な撮影部と、
前記撮影部の撮影した多視点画像または単視点画像である本画像を記憶する本画像記憶部と、
前記本画像記憶部に記憶された本画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、
前記画像識別部が多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別する距離識別部と、
前記本画像を縮小した第1の縮小画像を作成した上、前記画像識別部が多視点画像であると識別しかつ前記距離識別部が被写体が近距離にあると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、
前記画像識別部による前記多視点画像または前記単視点画像の識別と前記距離識別部による前記被写体の距離の識別とに応じ、前記画像処理部の作成した第1の縮小画像または第2の縮小画像を記憶する縮小画像記憶部と、
前記縮小画像記憶部に記憶された第1の縮小画像または第2の縮小画像と前記本画像記憶部に記憶された本画像とを対応づけて記録する記録部と、
を備える画像記録装置。
An imaging unit capable of imaging an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
A main image storage unit that stores a main image that is a multi-viewpoint image or a single-viewpoint image captured by the shooting unit;
An image identification unit for identifying whether the main image stored in the main image storage unit is a multi-view image or a single-view image;
A distance identifying unit for identifying whether a subject in the image identified by the image identifying unit as a multi-viewpoint image is at a long distance or a short distance;
A first reduced image obtained by reducing the main image is created, and the image identification unit identifies the image as a multi-viewpoint image, and the distance identification unit creates the main image from which the subject is identified at a short distance. An image processing unit that creates a second reduced image by performing three-dimensional computer graphic processing on the first reduced image;
The first reduced image or the second reduced image created by the image processing unit according to the identification of the multi-viewpoint image or the single-viewpoint image by the image identification unit and the identification of the distance of the subject by the distance identification unit. A reduced image storage unit for storing
A recording unit that records the first reduced image or the second reduced image stored in the reduced image storage unit and the main image stored in the main image storage unit in association with each other;
An image recording apparatus comprising:
前記記録部は、前記画像識別部が多視点画像であると識別した本画像については、前記距離識別部が被写体が近距離にあると識別した本画像についてのみ記録する請求項5に記載の画像記録装置。   6. The image according to claim 5, wherein the recording unit records only the main image that the distance identifying unit has identified as being close to the main image that the image identifying unit has identified as a multi-viewpoint image. Recording device. 前記画像識別部が多視点画像であると識別しかつ前記距離識別部が被写体が遠距離にあると識別した本画像は記録しない旨の警告を通知する通知部をさらに備える請求項6に記載の画像記録装置。   7. The notification unit according to claim 6, further comprising a notification unit that notifies the warning that the image identification unit identifies that the image is a multi-viewpoint image and the distance identification unit identifies that the subject is located at a long distance, and the main image is not recorded. Image recording device. 2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するステップと、
撮影した多視点画像または単視点画像である本画像を記憶するステップと、
記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、
前記本画像を縮小した第1の縮小画像を作成した上、前記多視点画像であると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、
前記多視点画像または前記単視点画像の識別に応じ、作成した第1の縮小画像または第2の縮小画像を記憶するステップと、
前記記憶された第1の縮小画像または第2の縮小画像と前記記憶された本画像とを対応づけて記録するステップと、
を含む画像記録方法。
Capturing an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
Storing a captured multi-view image or a main image that is a single-view image;
Identifying whether the stored main image is a multi-view image or a single-view image;
A first reduced image obtained by reducing the main image is created, and a first reduced image created from the main image identified as the multi-viewpoint image is subjected to three-dimensional computer graphic processing, thereby Creating a reduced image of 2;
Storing the created first reduced image or second reduced image according to the identification of the multi-viewpoint image or the single-viewpoint image;
Recording the stored first reduced image or second reduced image and the stored main image in association with each other;
An image recording method comprising:
前記多視点画像であると識別した本画像から、被写体顔領域の有無を検出するステップと、
前記第1の縮小画像に対し、前記検出した被写体顔領域に対応する領域を設定した上、前記設定された領域に3次元コンピュータグラフィック処理を施すことで、前記第2の縮小画像を作成するステップと、
をさらに含む請求項8に記載の画像記録方法。
Detecting the presence or absence of a subject face region from the main image identified as the multi-viewpoint image;
A step of creating a second reduced image by setting a region corresponding to the detected subject face region for the first reduced image and performing a three-dimensional computer graphic process on the set region. When,
The image recording method according to claim 8, further comprising:
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するなステップと、
撮影した多視点画像または単視点画像である本画像を記憶するステップと、
記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、
多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するステップと、
前記単視点画像であると識別したかまたは前記撮影時のフラッシュ発光がなかったと識別した本画像を縮小した第1の縮小画像を作成するステップと、
前記多視点画像と識別しかつ前記フラッシュ発光があったと識別した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するステップと、
前記多視点画像または前記単視点画像の識別と前記撮影時のフラッシュ発光の有無の識別とに応じ、前記第1の縮小画像または前記第2の縮小画像を記憶するステップと、
前記記憶された第1の縮小画像または第2の縮小画像と前記記憶された本画像とを対応づけて記録するステップと、
を含む画像記録方法。
Taking an image including a multi-viewpoint image taken from two or more viewpoints and a single-viewpoint image taken from a single viewpoint;
Storing a captured multi-view image or a main image that is a single-view image;
Identifying whether the stored main image is a multi-view image or a single-view image;
Identifying the presence or absence of flash emission at the time of shooting for an image identified as a multi-viewpoint image;
Creating a first reduced image that is a reduced version of the main image that has been identified as the single-viewpoint image or identified as having no flash emission at the time of shooting;
Obtaining a predetermined sample reduced image subjected to three-dimensional computer graphics as a second reduced image corresponding to the main image identified as the multi-viewpoint image and identified as having the flash emission;
Storing the first reduced image or the second reduced image according to the identification of the multi-viewpoint image or the single-viewpoint image and the identification of the presence or absence of flash emission at the time of shooting;
Recording the stored first reduced image or second reduced image and the stored main image in association with each other;
An image recording method comprising:
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するステップと、
撮影した多視点画像または単視点画像である本画像を記憶するステップと、
記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、
前記多視点画像であると識別した画像について、被写体顔領域の有無を検出するステップと、
前記単視点画像であると識別したかまたは前記被写体顔領域を検出しなかった本画像を縮小した第1の縮小画像を作成するステップと、
前記多視点画像と識別しかつ前記被写体顔領域を検出した本画像に対応する第2の縮小画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を取得するステップと、
前記多視点画像または前記単視点画像の識別と前記被写体顔領域の検出の有無とに応じ、前記第1の縮小画像または前記第2の縮小画像を記憶するステップと、
前記記憶された第1の縮小画像または第2の縮小画像と前記記憶された本画像とを対応づけて記録するステップと、
を含む画像記録方法。
Capturing an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
Storing a captured multi-view image or a main image that is a single-view image;
Identifying whether the stored main image is a multi-view image or a single-view image;
Detecting the presence or absence of a subject face area for the image identified as the multi-viewpoint image;
Creating a first reduced image obtained by reducing the main image that has been identified as the single-viewpoint image or has not detected the subject face area;
Obtaining a predetermined sample reduced image subjected to three-dimensional computer graphics as a second reduced image corresponding to the main image that has been identified from the multi-viewpoint image and has detected the subject face area;
Storing the first reduced image or the second reduced image according to the identification of the multi-viewpoint image or the single-viewpoint image and the presence or absence of detection of the subject face area;
Recording the stored first reduced image or second reduced image and the stored main image in association with each other;
An image recording method comprising:
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を撮影するステップと、
撮影した多視点画像または単視点画像である本画像を記憶するステップと、
記憶された本画像が多視点画像であるか単視点画像であるかを識別するステップと、
前記多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別するステップと、
前記本画像を縮小した第1の縮小画像を作成した上、前記多視点画像であると識別しかつ前記被写体が近距離にあると識別した本画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、
前記多視点画像または前記単視点画像の識別と前記被写体の距離の識別とに応じ、前記第1の縮小画像または第2の縮小画像を記憶するステップと、
前記記憶された第1の縮小画像または第2の縮小画像と前記記憶された本画像とを対応づけて記録するステップと、
を含む画像記録方法。
Capturing an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
Storing a captured multi-view image or a main image that is a single-view image;
Identifying whether the stored main image is a multi-view image or a single-view image;
Identifying whether the subject in the image identified as the multi-viewpoint image is at a long distance or a short distance;
A first reduced image created by reducing the main image and then identifying the multi-viewpoint image and identifying the subject at a short distance with respect to the first reduced image created from the main image, Applying a three-dimensional computer graphic process to create a second reduced image;
Storing the first reduced image or the second reduced image according to the identification of the multi-view image or the single-view image and the identification of the distance of the subject;
Recording the stored first reduced image or second reduced image and the stored main image in association with each other;
An image recording method comprising:
前記多視点画像であると識別した本画像については、前記被写体が近距離にあると識別した本画像についてのみ記録する請求項12に記載の画像記録方法。   The image recording method according to claim 12, wherein the main image identified as the multi-viewpoint image is recorded only for the main image identified as the subject at a short distance. 前記多視点画像であると識別しかつ前記被写体が遠距離にあると識別した本画像は記録しない旨の警告を通知するステップをさらに含む請求項13に記載の画像記録方法。   The image recording method according to claim 13, further comprising a step of notifying a warning that the main image identified as the multi-viewpoint image and the subject identified as being at a long distance is not recorded. 請求項8〜14のいずれかに記載の画像記録方法をコンピュータに実行させるプログラム。   A program for causing a computer to execute the image recording method according to claim 8.
JP2007122642A 2007-04-25 2007-05-07 Image recording apparatus, method and program Expired - Fee Related JP4632060B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007122642A JP4632060B2 (en) 2007-05-07 2007-05-07 Image recording apparatus, method and program
US12/109,196 US8072487B2 (en) 2007-04-25 2008-04-24 Picture processing apparatus, picture recording apparatus, method and program thereof
CN200810095922XA CN101296386B (en) 2007-04-25 2008-04-25 Picture processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007122642A JP4632060B2 (en) 2007-05-07 2007-05-07 Image recording apparatus, method and program

Publications (3)

Publication Number Publication Date
JP2008278425A true JP2008278425A (en) 2008-11-13
JP2008278425A5 JP2008278425A5 (en) 2010-10-21
JP4632060B2 JP4632060B2 (en) 2011-02-16

Family

ID=40055802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122642A Expired - Fee Related JP4632060B2 (en) 2007-04-25 2007-05-07 Image recording apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4632060B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012029001A (en) * 2010-07-22 2012-02-09 Sharp Corp Three-dimensional display device, display method, program, and recording medium
US8964005B2 (en) 2010-07-08 2015-02-24 Kabushiki Kaisha Toshiba Apparatus and method for displaying obliquely positioned thumbnails on a 3D image display apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2004120146A (en) * 2002-09-25 2004-04-15 Sharp Corp Image compositing apparatus and image compositing method
JP2004120165A (en) * 2002-09-25 2004-04-15 Sharp Corp Electronic apparatus
JP2004163998A (en) * 2002-09-25 2004-06-10 Sharp Corp Device and method for displaying picture image
JP2004193795A (en) * 2002-12-09 2004-07-08 I-O Data Device Inc Stereoscopic image edit apparatus and stereoscopic image edit program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2004120146A (en) * 2002-09-25 2004-04-15 Sharp Corp Image compositing apparatus and image compositing method
JP2004120165A (en) * 2002-09-25 2004-04-15 Sharp Corp Electronic apparatus
JP2004163998A (en) * 2002-09-25 2004-06-10 Sharp Corp Device and method for displaying picture image
JP2004193795A (en) * 2002-12-09 2004-07-08 I-O Data Device Inc Stereoscopic image edit apparatus and stereoscopic image edit program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8964005B2 (en) 2010-07-08 2015-02-24 Kabushiki Kaisha Toshiba Apparatus and method for displaying obliquely positioned thumbnails on a 3D image display apparatus
JP2012029001A (en) * 2010-07-22 2012-02-09 Sharp Corp Three-dimensional display device, display method, program, and recording medium

Also Published As

Publication number Publication date
JP4632060B2 (en) 2011-02-16

Similar Documents

Publication Publication Date Title
JP4661824B2 (en) Image processing apparatus, method, and program
KR101141091B1 (en) Three-dimensional image output device and three-dimensional image output method
JP5456020B2 (en) Information processing apparatus and method
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
JP5096048B2 (en) Imaging apparatus, stereoscopic image reproduction apparatus, and stereoscopic image reproduction program
JP4914278B2 (en) Image processing apparatus, method, and program
JP5101101B2 (en) Image recording apparatus and image recording method
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
US9113074B2 (en) Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
JP4815470B2 (en) Image display device and image display method
JP2008294530A (en) Imaging apparatus, image reproducing device, imaging method, image reproducing method, and program
JP4748398B2 (en) Imaging apparatus, imaging method, and program
JP4632060B2 (en) Image recording apparatus, method and program
JP2012070103A (en) Imaging device and image communication system
JP5001960B2 (en) 3D image display apparatus and method
JP2011211717A (en) Three-dimensional image output device and method
JP4995966B2 (en) Image processing apparatus, method, and program
JP5638941B2 (en) Imaging apparatus and imaging program
JP2012209872A (en) 3d image generating method, 3d image generating program and 3d image generating apparatus
JP2012134873A (en) Imaging apparatus and imaging program
JP2011102993A (en) Stereoscopic image display device and method, and program
CN101729916A (en) Image processing device, and image recording device, method and program
JP2005037517A (en) Stereoscopic camera
JP2017092912A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20100903

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101102

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees