JP4995966B2 - Image processing apparatus, method, and program - Google Patents

Image processing apparatus, method, and program Download PDF

Info

Publication number
JP4995966B2
JP4995966B2 JP2010286373A JP2010286373A JP4995966B2 JP 4995966 B2 JP4995966 B2 JP 4995966B2 JP 2010286373 A JP2010286373 A JP 2010286373A JP 2010286373 A JP2010286373 A JP 2010286373A JP 4995966 B2 JP4995966 B2 JP 4995966B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
images
reduced
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010286373A
Other languages
Japanese (ja)
Other versions
JP2011108253A (en
Inventor
泉 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010286373A priority Critical patent/JP4995966B2/en
Publication of JP2011108253A publication Critical patent/JP2011108253A/en
Application granted granted Critical
Publication of JP4995966B2 publication Critical patent/JP4995966B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は多視点画像および単視点画像の縮小画像の一覧表示に関する。   The present invention relates to a list display of reduced images of multi-view images and single-view images.

一般的な立体画像表示システムでは、右眼に対しては右眼を視点として描かれた画像が、左眼に対しては左眼を視点として描かれた画像が個別に提示される。通常、このような右眼および左眼を視点とした2つの画像(以下、多視点画像と表記する)において、視点から遠い位置にあるオブジェクトは、両眼からの視線がほぼ平行であって見え方がほぼ同じであるので、ほぼ同じ位置に描画される。一方、視点から近い位置にあるオブジェクトは、両眼からの視線が非平行であって見え方が異なるので、互いにずれた位置に描画される。このような視差のある画像(以下、視差画像と表記する)を右眼および左眼それぞれで見るとき、観測者はオブジェクトに対して遠近感を知覚する。   In a general stereoscopic image display system, an image drawn with the right eye as a viewpoint is individually displayed for the right eye, and an image drawn with the left eye as a viewpoint is individually presented for the left eye. Usually, in such two images with the right eye and the left eye as viewpoints (hereinafter referred to as multi-viewpoint images), an object located far from the viewpoint looks almost parallel to both eyes. Since they are almost the same, they are drawn at almost the same position. On the other hand, objects close to the viewpoint are drawn at positions shifted from each other because the lines of sight from both eyes are non-parallel and look different. When an image with such parallax (hereinafter referred to as a parallax image) is viewed with the right eye and the left eye, the observer perceives a sense of perspective with respect to the object.

視差画像の生成に関しては、左右2台のカメラを用いて被写体を撮影し、得られた視差画像を、眼の錯覚を利用して3次元的に見せる写実的手法と、コンピュータグラフィックス技術を用いて左右両眼を視点とするモデルデータの視野変換によって視差画像を生成する3次元コンピュータグラフィックス(3次元CG)表示がある。3次元コンピュータグラフィックス表示は、俗に仮想的3次元表示や擬似的3次元表示とも言われる。   With regard to the generation of parallax images, a photorealistic method of photographing a subject using two left and right cameras and viewing the obtained parallax images three-dimensionally using an optical illusion and computer graphics technology are used. In addition, there is a three-dimensional computer graphics (three-dimensional CG) display that generates a parallax image by visual field conversion of model data with the left and right eyes as viewpoints. The three-dimensional computer graphics display is commonly called a virtual three-dimensional display or a pseudo three-dimensional display.

写実的手法では、パララックスバリア式、あるいはレンチキュラーレンズ式の3Dモニタを用いて視差画像の立体表示を行う。パララックスバリア式では、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで視差画像の立体視を可能にする。   In the photorealistic method, a parallax image is stereoscopically displayed using a parallax barrier type or lenticular lens type 3D monitor. In the parallax barrier type, a parallax barrier having a pattern in which light transmitting portions and light shielding portions are alternately arranged at a predetermined pitch is generated on the parallax barrier display layer, and left and right images are displayed on the lower image display surface. The strip-shaped image fragments indicating “” are alternately arranged and displayed to enable stereoscopic viewing of the parallax image.

あるいは、写実的手法では、レンチキュラーレンズシートを用いるレンチキュラー方式、マイクロレンズアレイシートを用いるインテグラルフォトグラフィ方式、干渉現象を用いるホログラフィー方式などが採用される。   Alternatively, the realistic method employs a lenticular method using a lenticular lens sheet, an integral photography method using a microlens array sheet, a holography method using an interference phenomenon, and the like.

一般的なコンピュータグラフィックスでは、3次元空間内に定義されたオブジェクトを複数のポリゴン(多角形)の集合によって表現する。ポリゴンとしては通常、最も簡単な三角形が用いられることが多い。オブジェクトを構成している各ポリゴンは、ベクトルや行列などの数学的手法を用いて、それ自身が持つオブジェクト座標から、観測者の視点の位置を基準とした3次元座標、すなわち視野座標へと座標変換が行われる。さらにディスプレイ装置へ表示するために、視野座標で表現されたポリゴンを2次元平面へ透視投影するための座標変換(透視変換)が行われる。これら一連の座標変換が行われた後の最終的なポリゴンの位置データは、ディスプレイに対して垂直な方向(Z軸)への視点からの距離を表すZ値と、ディスプレイ面内での位置座標を表すX値およびY値となる。   In general computer graphics, an object defined in a three-dimensional space is represented by a set of a plurality of polygons. Usually, the simplest triangle is often used as the polygon. Each polygon that composes an object is coordinated from its own object coordinates to three-dimensional coordinates based on the position of the observer's viewpoint, that is, visual field coordinates, using mathematical methods such as vectors and matrices. Conversion is performed. Further, for display on the display device, coordinate transformation (perspective transformation) for perspectively projecting a polygon represented by visual field coordinates onto a two-dimensional plane is performed. The final polygon position data after these series of coordinate transformations is performed, the Z value indicating the distance from the viewpoint in the direction perpendicular to the display (Z axis), and the position coordinates in the display surface X value and Y value representing

各ポリゴンを構成する画素の色値の決定方法に関しては、視野座標において仮想的な光源が配置され、この光源からポリゴンを構成する各頂点に照射される光の強度を物理的に計算し、さらにそれらの値からポリゴン内のラスタライズ過程において各画素位置における光の強度を線形補間によって求める方法がある。   Regarding the method for determining the color values of the pixels constituting each polygon, a virtual light source is arranged at the visual field coordinates, and the intensity of light emitted from this light source to each vertex constituting the polygon is physically calculated. There is a method of obtaining the light intensity at each pixel position by linear interpolation from the values in the rasterizing process in the polygon.

あるいは、特許文献1に示すように、ポリゴン表面にテクスチャと呼ばれる、物体表面の質感や特殊な模様などを表す画像を貼り付ける方法がある。この場合には、座標変換前のオブジェクト座標の段階で、オブジェクトを構成するポリゴンの各頂点に対して位置座
標の他にテクスチャ座標が与えられる。そして前述の光強度の場合と同様に、ポリゴンのラスタライズ過程において各画素位置ごとにテクスチャ座標が線形補間され、求められたテクスチャ座標に応じて画素の色値が決定される。
Alternatively, as disclosed in Patent Document 1, there is a method of pasting an image representing a texture or special pattern of an object surface called a texture on a polygon surface. In this case, texture coordinates in addition to position coordinates are given to each vertex of the polygon constituting the object at the stage of object coordinates before coordinate conversion. As in the case of the light intensity described above, the texture coordinates are linearly interpolated for each pixel position in the polygon rasterization process, and the pixel color value is determined according to the obtained texture coordinates.

以上のような手続きによって、特定の視点から見たグラフィックス画像を生成することができるが、前述のような立体視のための視差画像を生成するためには、視点の位置を右眼および左眼のそれぞれの位置に置き換え、同一のオブジェクトを2回描画することによって、多視点画像を生成する。高価なシステムでは、上記のような写実的手法を実現可能な表示装置を備え、多視点画像を生成する。   A graphics image viewed from a specific viewpoint can be generated by the above procedure, but in order to generate a parallax image for stereoscopic viewing as described above, the viewpoint position is set to the right eye and the left eye. A multi-viewpoint image is generated by drawing the same object twice, replacing each position of the eye. An expensive system includes a display device capable of realizing the above-described realistic technique, and generates a multi-viewpoint image.

一方、従来、多視点画像と、視差のない通常の画像とが混在して記憶装置に格納されている場合、これらの縮小画像を区別可能に表示する技術がある。特許文献2の電子機器は、写実的手法を実現可能な表示装置を備えており、サムネイル画像の平面的な一覧表示の際、3次元画像に対応するサムネイル画像については「3D」の記号を加え、また、円形または楕円形で表記し、2次元画像に対応するサムネイル画像については「2D」の記号を加え、三角形で表記し、2次元画像から作成したサムネイルと3次元画像から作成したサムネイルとを区別可能にしている。   On the other hand, conventionally, when a multi-viewpoint image and a normal image without parallax are mixed and stored in a storage device, there is a technique for displaying these reduced images in a distinguishable manner. The electronic device disclosed in Patent Document 2 includes a display device that can realize a photorealistic technique. When displaying a list of thumbnail images in a planar manner, a symbol “3D” is added to a thumbnail image corresponding to a three-dimensional image. In addition, the thumbnail image corresponding to the two-dimensional image is represented by a circle or an ellipse, and the symbol “2D” is added, and the thumbnail image is represented by a triangle, the thumbnail created from the two-dimensional image and the thumbnail created from the three-dimensional image Can be distinguished.

特開2002−24850号公報JP 2002-24850 A 特開2004−120165号公報JP 2004-120165 A

特許文献2では、「3D」や「2D」という記号や、円形、楕円形、三角形という図形で2次元画像と3次元画像のサムネイルを表記しているが、これでは、両者が直感的に区別しにくい。   In Patent Document 2, 2D images and 3D image thumbnails are represented by symbols such as “3D” and “2D”, and shapes such as a circle, an ellipse, and a triangle. Hard to do.

また、特許文献2では、写実的手法による3次元画像の表示を実現可能な表示装置の配備が必須であり、かつ、2次元画像と3次元画像の表示切替が必須であるため、システム全体のコストが高くなってしまうという欠点がある。   Further, in Patent Document 2, it is essential to arrange a display device that can display a three-dimensional image by a realistic method, and display switching between a two-dimensional image and a three-dimensional image is essential. There is a disadvantage that the cost becomes high.

そこで本発明は、ユーザが撮影画像の代表画像の中から多視点画像の代表画像を容易かつ直感的に識別できる装置を簡易な構成で実現する。   Therefore, the present invention realizes an apparatus that allows a user to easily and intuitively identify a representative image of a multi-viewpoint image from representative images of a captured image with a simple configuration.

本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した第1の縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像に対応する第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の代表画像として縮小画像作成部の作成した第1の縮小画像を一覧表示するとともに、画像識別部が多視点画像と識別した画像の代表画像として画像処理部の作成した第2の縮小画像を一覧表示する表示部と、を備える。   An image processing apparatus according to the present invention inputs an image input unit that inputs a multi-viewpoint image captured from two or more viewpoints and an image including a single-viewpoint image captured from a single viewpoint, and is input to the image input unit. A storage unit that stores an image, a reduced image generation unit that generates a first reduced image obtained by reducing the image stored in the storage unit, and an image stored in the storage unit is a multi-viewpoint image or a single-viewpoint image An image identification unit for identifying the image and a first reduced image corresponding to the image identified by the image identification unit as a multi-viewpoint image are subjected to three-dimensional computer graphic processing to create a second reduced image And a first reduction created by the reduced image creation unit as a representative image of the image identified by the image identification unit as a single-viewpoint image in response to an instruction to display a list of images stored in the storage unit. List images and Includes a display unit for image identification section lists the second reduced image created by the image processing unit as a representative image of images identified as multi-viewpoint image.

この発明によると、多視点画像の代表画像として3次元コンピュータグラフィック処理の施された縮小画像が、単視点画像の代表画像として単なる縮小画像が一覧表示される。多視点画像の代表画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像との違いが一目瞭然で分かる。また、多視点画像の代表画像の表示のために特殊な写実的手法を使う必要がなく、安価で済む。   According to the present invention, reduced images subjected to three-dimensional computer graphic processing are displayed as a list of representative images of multi-view images, and simple reduced images are displayed as a list of representative images of single-view images. Since the representative image of the multi-viewpoint image is subjected to three-dimensional computer graphic processing, the difference from a simple reduced image can be seen at a glance. Further, it is not necessary to use a special photorealistic method for displaying a representative image of a multi-viewpoint image, and the cost can be reduced.

本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像について、被写体顔領域の有無を検出する顔検出部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の縮小画像および画像識別部が多視点画像と識別しかつ顔検出部が被写体顔領域を検出しなかった画像の代表画像として縮小画像を一覧表示するとともに、画像識別部が多視点画像と識別しかつ顔検出部が被写体顔領域を検出した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示する表示部と、を備える。   An image processing apparatus according to the present invention inputs an image input unit that inputs a multi-viewpoint image captured from two or more viewpoints and an image including a single-viewpoint image captured from a single viewpoint, and is input to the image input unit. A storage unit that stores images, a reduced image creation unit that creates a reduced image obtained by reducing the image stored in the storage unit, and whether the image stored in the storage unit is a multi-viewpoint image or a single-viewpoint image An image identification unit that performs image recognition, an image identified by the image identification unit as a multi-viewpoint image, a face detection unit that detects the presence or absence of a subject face area, and a list display of images stored in the storage unit In response, a reduced image of the image identified by the image identifying unit as a single-viewpoint image and a list of reduced images as representative images of the image identified by the image identifying unit as a multi-viewpoint image and the face detection unit did not detect the subject face area And image identification But provided with a display unit identify and face detection unit and the multi-view image is to list the predetermined sample reduced image subjected to the three-dimensional computer graphics as a representative image of the image detected subject face area.

この発明によると、顔の検出された多視点画像の代表画像として3次元コンピュータグラフィック処理の施された所定のサンプル画像が、単視点画像あるいは顔の検出されない多視点画像の代表画像として単なる縮小画像が一覧表示される。多視点画像の代表画像となる所定のサンプルは3次元コンピュータグラフィック処理されているから、顔のある多視点画像の代表画像と単なる縮小画像との違いが一目瞭然で分かる。また、所定のサンプルを使用するから、多視点画像の代表画像の表示のために、個々の多視点画像に3次元コンピュータグラフィック処理をしなくて済む。   According to the present invention, a predetermined sample image subjected to three-dimensional computer graphic processing as a representative image of a multi-view image with a face detected is simply a reduced image as a representative image of a single-view image or a multi-view image with no face detected. Will be listed. Since a predetermined sample that is a representative image of the multi-viewpoint image is subjected to three-dimensional computer graphic processing, the difference between the representative image of the multi-viewpoint image with a face and a simple reduced image can be seen at a glance. In addition, since a predetermined sample is used, it is not necessary to perform three-dimensional computer graphic processing on each multi-viewpoint image in order to display a representative image of the multi-viewpoint image.

本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するフラッシュ発光識別部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の代表画像として縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつフラッシュ発光識別部がフラッシュ発光がなかったと識別した画像の代表画像として縮小画像作成部の作成した縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつフラッシュ発光識別部がフラッシュ発光があったと識別した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示する表示部と、を備える。   An image processing apparatus according to the present invention inputs an image input unit that inputs a multi-viewpoint image captured from two or more viewpoints and an image including a single-viewpoint image captured from a single viewpoint, and is input to the image input unit. A storage unit that stores images, a reduced image creation unit that creates a reduced image obtained by reducing the image stored in the storage unit, and whether the image stored in the storage unit is a multi-viewpoint image or a single-viewpoint image An image identification unit that performs identification, a flash emission identification unit that identifies the presence or absence of flash emission at the time of shooting, and a list display of images stored in the storage unit. In response, the image identification unit displays a list of reduced images as representative images identified as single-view images, the image identification unit identifies multi-view images, and the flash emission identification unit identifies that there was no flash emission. A three-dimensional computer is used as a representative image of an image that is displayed as a list of reduced images created by the reduced image creating unit as a representative image of the image, the image identifying unit identifies as a multi-viewpoint image, and the flash emission identifying unit identifies flash emission. And a display unit for displaying a list of predetermined reduced sample images with graphics.

この発明によると、撮影時にフラッシュ発光があった多視点画像の代表画像として3次元コンピュータグラフィック処理の施された縮小画像が、単視点画像あるいは撮影時にフラッシュ発光がなかった多視点画像の代表画像として単なる縮小画像が一覧表示される。撮影時にフラッシュ発光があった多視点画像の代表画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像あるいは撮影時にフラッシュ発光がなかった多視点画像の代表画像との違いが一目瞭然で分かる。また、多視点画像の代表画像の表示のために特殊な写実的手法を使う必要がなく、安価で済む。   According to the present invention, a reduced image subjected to three-dimensional computer graphic processing as a representative image of a multi-viewpoint image that was flashed at the time of shooting is used as a representative image of a single-viewpoint image or a multi-viewpoint image that was not flashed at the time of shooting. A list of simple reduced images is displayed. Since the representative image of the multi-viewpoint image having flash emission at the time of shooting is subjected to three-dimensional computer graphic processing, the difference from a simple reduced image or the representative image of the multi-viewpoint image having no flash emission at the time of shooting can be seen at a glance. Further, it is not necessary to use a special photorealistic method for displaying a representative image of a multi-viewpoint image, and the cost can be reduced.

画像識別部が多視点画像であると識別した画像から、被写体顔領域の有無を検出する顔検出部をさらに備え、画像処理部は、第1の縮小画像に対し、顔検出部が検出した被写体顔領域に対応する領域を設定した上、設定された領域に3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成し、表示部は、画像識別部が多視点画像と識別した画像のうち、顔検出部が被写体顔領域を検出しなかった画像の代表画像として第1の縮小画像を一覧表示するとともに、顔検出部が被写体顔領域を検出した画像の代表画像として第2の縮小画像を一覧表示してもよい。   The image recognition unit further includes a face detection unit that detects the presence or absence of a subject face area from the image identified as a multi-viewpoint image, and the image processing unit detects the subject detected by the face detection unit for the first reduced image An area corresponding to the face area is set, and a second reduced image is created by performing three-dimensional computer graphic processing on the set area, and the display unit is an image identified by the image identification unit as a multi-viewpoint image. Among them, the face detection unit displays a list of first reduced images as representative images of images in which the subject face area has not been detected, and the second reduction as a representative image of images in which the face detection unit has detected the subject face area. A list of images may be displayed.

顔という重要部分に限って画像処理を施しており、少ない処理で実質的な擬似立体画像を代表画像として表示できる。   Image processing is performed only on an important part called a face, and a substantial pseudo-stereoscopic image can be displayed as a representative image with less processing.

本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した第1の縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別する距離識別部と、画像識別部が多視点画像と識別しかつ距離識別部が被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の代表画像として縮小画像作成部の作成した第1の縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつ距離識別部が被写体が遠距離にあると識別した画像の代表画像として縮小画像作成部の作成した第1の縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつ距離識別部が被写体が近距離にあると識別した画像の代表画像として画像処理部の作成した第2の縮小画像を一覧表示する表示部と、を備える。   An image processing apparatus according to the present invention inputs an image input unit that inputs a multi-viewpoint image captured from two or more viewpoints and an image including a single-viewpoint image captured from a single viewpoint, and is input to the image input unit. A storage unit that stores an image, a reduced image generation unit that generates a first reduced image obtained by reducing the image stored in the storage unit, and an image stored in the storage unit is a multi-viewpoint image or a single-viewpoint image An image identifying unit for identifying the image, a distance identifying unit for identifying whether a subject in the image identified by the image identifying unit as a multi-view image is at a long distance or a short distance, and an image identifying unit for identifying the multi-view image. And an image processing unit that creates a second reduced image by performing a three-dimensional computer graphic process on the first reduced image created from the image identified by the distance identifying unit as being close to the subject; One of the images stored in the storage unit In response to the display instruction, the image identification unit displays a list of the first reduced images created by the reduced image creation unit as representative images of the images identified as single-view images, and the image identification unit identifies the images as multi-view images. And a list of the first reduced images created by the reduced image creation unit as a representative image of the images identified by the distance identification unit as being at a long distance, and the image identification unit identifies the multi-viewpoint image and identifies the distance A display unit that displays a list of second reduced images created by the image processing unit as a representative image of an image that the unit has identified as being close to the subject.

この発明によると、近距離に被写体がある多視点画像に対してのみ3次元コンピュータグラフィック処理を施すから、被写体が遠距離にあり当該処理を施しても無意味な画像には当該処理を行わなくて済む。   According to the present invention, since the three-dimensional computer graphic processing is performed only on the multi-viewpoint image having the subject at a short distance, the processing is not performed on the meaningless image even when the subject is at a long distance. I'll do it.

本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した第1の縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像に対応する第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の代表画像として第1の縮小画像を一覧表示するとともに、多視点画像と識別した画像の代表画像として第2の縮小画像を一覧表示するステップと、を含む。   An image processing method according to the present invention includes a step of inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and a step of storing the input image. A step of creating a first reduced image obtained by reducing the stored image, a step of identifying whether the stored image is a multi-view image or a single-view image, and an image identified as a multi-view image A single-viewpoint image is generated in response to an instruction to create a second reduced image by performing a three-dimensional computer graphic process on the first reduced image corresponding to, and to display a list of stored images. And displaying a list of first reduced images as representative images of the images identified as, and displaying a list of second reduced images as representative images of the images identified as multi-view images.

本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像について、被写体顔領域の有無を検出するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の縮小画像および多視点画像と識別しかつ被写体顔領域を検出しなかった画像の代表画像として縮小画像を一覧表示するとともに、多視点画像と識別しかつ被写体顔領域を検出した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示するステップと、を含む。   An image processing method according to the present invention includes a step of inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and a step of storing the input image. A step of creating a reduced image obtained by reducing the stored image, a step of identifying whether the stored image is a multi-view image or a single-view image, and an image identified as a multi-view image. A step of detecting the presence / absence of a face area and a reduction of a single-viewpoint image identified as a single-viewpoint image and a multi-viewpoint image in response to an instruction to display a list of stored images, and no subject face area are detected A list of reduced images is displayed as a representative image of the captured image, and a three-dimensional computer graphic is applied as a representative image of the image that is identified as a multi-viewpoint image and the subject face area is detected. Comprising the steps of displaying a list of predetermined sample reduced image, a.

本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の代表画像として縮小画像を一覧表示し、多視点画像と識別しかつフラッシュ発光がなかったと識別した画像
の代表画像として縮小画像を一覧表示し、多視点画像と識別しかつフラッシュ発光があったと識別した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示するステップと、を含む。
An image processing method according to the present invention includes a step of inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and a step of storing the input image. Shooting a reduced image obtained by reducing the stored image, a step of identifying whether the stored image is a multi-view image or a single-view image, and an image identified as a multi-view image. A step of identifying the presence or absence of flash emission at the time, and in response to an instruction to display a list of stored images, a list of reduced images is displayed as a representative image of the images identified as single-view images, and identified as multi-view images And a list of reduced images as representative images of the images identified as having no flash emission, the representative images of the images identified as being multi-viewpoint images and identified as having flash emission, and List the predetermined sample reduced image subjected to the three-dimensional computer graphics Te comprising the steps, a.

多視点画像であると識別した画像から、被写体顔領域の有無を検出するステップと、第1の縮小画像に対し、被写体顔領域に対応する領域を設定した上、設定された領域に3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、多視点画像と識別した画像のうち、被写体顔領域を検出しなかった画像の代表画像として第1の縮小画像を一覧表示するとともに、被写体顔領域を検出した画像の代表画像として第2の縮小画像を一覧表示するステップと、をさらに含んでもよい。   A step of detecting the presence / absence of a subject face region from an image identified as a multi-viewpoint image, and setting a region corresponding to the subject face region for the first reduced image, and a three-dimensional computer in the set region A step of creating a second reduced image by performing graphic processing, and among the images identified as multi-viewpoint images, a list of the first reduced images is displayed as representative images of images in which the subject face area has not been detected. And a step of displaying a list of second reduced images as representative images of the images in which the subject face area has been detected.

本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した第1の縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別するステップと、多視点画像と識別しかつ被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の代表画像として第1の縮小画像を一覧表示し、多視点画像と識別しかつ被写体が遠距離にあると識別した画像の代表画像として第1の縮小画像を一覧表示し、多視点画像と識別しかつ被写体が近距離にあると識別した画像の代表画像として第2の縮小画像を一覧表示するステップと、を含む。   An image processing method according to the present invention includes a step of inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint, and a step of storing the input image. Generating a first reduced image obtained by reducing the stored image; identifying whether the stored image is a multi-view image or a single-view image; and A step of identifying whether the subject is at a long distance or a short distance; and a three-dimensional computer graphic process for a first reduced image created from the image identified as a multi-viewpoint image and identified as the subject is at a short distance To generate a second reduced image, and in response to an instruction to display a list of stored images, the first reduced image is used as a representative image identified as a single-viewpoint image. List the first reduced image as a representative image of the images that are displayed as a list, identified as multi-view images and identified as a subject at a long distance, identified as multi-view images and identified as a short distance Displaying a list of the second reduced images as representative images of the obtained images.

この画像処理方法をコンピュータに実行させるプログラムも本発明に含まれる。   A program for causing a computer to execute this image processing method is also included in the present invention.

本発明によると、多視点画像の代表画像として3次元コンピュータグラフィック処理の施された画像が、単視点画像、顔の検出されない多視点画像、あるいは被写体が遠距離にある多視点画像の代表画像として単なる縮小画像が一覧表示される。多視点画像の代表画像となる所定のサンプルは3次元コンピュータグラフィック処理されているから、顔のある多視点画像の代表画像と単なる縮小画像との違いが一目瞭然で分かる。また、多視点画像の代表画像の表示のために特殊な写実的手法を使う必要がなく、安価で済む。   According to the present invention, an image subjected to three-dimensional computer graphic processing as a representative image of a multi-view image is a single-view image, a multi-view image with no face detected, or a representative image of a multi-view image in which a subject is at a long distance. A list of simple reduced images is displayed. Since a predetermined sample that is a representative image of the multi-viewpoint image is subjected to three-dimensional computer graphic processing, the difference between the representative image of the multi-viewpoint image with a face and a simple reduced image can be seen at a glance. Further, it is not necessary to use a special photorealistic method for displaying a representative image of a multi-viewpoint image, and the cost can be reduced.

カメラのブロック図Camera block diagram 第1実施形態に係る一覧画像表示処理のフローチャートFlowchart of list image display processing according to the first embodiment テクスチャマッピングの一例を示す図Diagram showing an example of texture mapping 第1実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図The figure which shows an example of the thumbnail displayed by the list image display process which concerns on 1st Embodiment. 第2実施形態に係る一覧画像表示処理のフローチャートFlowchart of list image display processing according to second embodiment 第2実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図The figure which shows an example of the thumbnail displayed by the list image display process which concerns on 2nd Embodiment. 第3実施形態に係る一覧画像表示処理のフローチャートFlowchart of list image display processing according to third embodiment 第3実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図The figure which shows an example of the thumbnail displayed by the list image display process which concerns on 3rd Embodiment. 第4実施形態に係る一覧画像表示処理のフローチャートFlowchart of list image display processing according to the fourth embodiment 第4実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図The figure which shows an example of the thumbnail displayed by the list image display process concerning 4th Embodiment 第5実施形態に係る一覧画像表示処理のフローチャートFlowchart of list image display processing according to fifth embodiment 第5実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図The figure which shows an example of the thumbnail displayed by the list image display process which concerns on 5th Embodiment パソコンのブロック図PC block diagram

<第1実施形態>
図1は、複眼カメラ1の電気的構成を示す。第1および第2撮像部2a、2bのレンズ光軸L1、L2は、平行となるように、あるいは所定角度をなすように並設されている。
<First Embodiment>
FIG. 1 shows an electrical configuration of the compound eye camera 1. The lens optical axes L1 and L2 of the first and second imaging units 2a and 2b are arranged in parallel so as to be parallel or at a predetermined angle.

第1撮像部2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11a、第1絞り12a、第1フォーカスレンズ13a、および第1イメージセンサ14aによって構成されている。第1絞り12aには絞り制御部16aが接続されており、また、第1イメージセンサ14aにはタイミングジェネレータ(TG)18aが接続されている。第1絞り12a、第1フォーカスレンズ13aの動作は測光測距CPU19aによって制御される。TG18aの動作はメインCPU62によって制御される。   The first imaging unit 2a includes a first zoom lens 11a, a first diaphragm 12a, a first focus lens 13a, and a first image sensor 14a arranged along the lens optical axis L1. A diaphragm control unit 16a is connected to the first diaphragm 12a, and a timing generator (TG) 18a is connected to the first image sensor 14a. The operations of the first aperture 12a and the first focus lens 13a are controlled by the photometric distance measuring CPU 19a. The operation of the TG 18a is controlled by the main CPU 62.

カメラ1にはユーザがこのカメラ1を使用するときに種々の操作を行うための操作部70が設けられている。この操作部70には、カメラ1を作動させるための電源投入用の電源スイッチ、オート撮影やマニュアル撮影等を選択するためのモードダイヤル、各種のメニューの設定や選択あるいはズームを行うための十字キー、閃光発光用スイッチ、および
十字キーで選択されたメニューの実行やキャンセル等を行うための情報位置指定キーが備えられている。操作部70への適宜操作により、電源のオン/オフ、各種モード(撮影モード、再生モード等)の切り替え、ズーミングなどが行われる。
The camera 1 is provided with an operation unit 70 for performing various operations when the user uses the camera 1. The operation unit 70 includes a power switch for turning on the power for operating the camera 1, a mode dial for selecting auto shooting and manual shooting, and a cross key for setting and selecting various menus or zooming. , A flash emission switch, and an information position designation key for executing or canceling the menu selected by the cross key. By appropriately operating the operation unit 70, turning on / off the power, switching between various modes (shooting mode, reproduction mode, etc.), zooming, and the like are performed.

また、カメラ1には、メインCPU62と、EEPROM146と、YC/RGB変換部147と、表示用のドライバ148とが備えられている。メインCPU62は、このカメラ1全体の制御を行う。EEPROM146には、このカメラ1固有の固体データやプログラム等が格納されている。   Further, the camera 1 includes a main CPU 62, an EEPROM 146, a YC / RGB conversion unit 147, and a display driver 148. The main CPU 62 controls the entire camera 1. The EEPROM 146 stores solid data and programs unique to the camera 1.

YC/RGB変換部147は、YC処理部35a・35bで生成されたカラー映像信号YCを3色のRGB信号に変換して表示用のドライバ148を経由して画像表示LCD10に出力する。   The YC / RGB conversion unit 147 converts the color video signal YC generated by the YC processing units 35a and 35b into RGB signals of three colors and outputs them to the image display LCD 10 via the display driver 148.

入力操作部9からのズーム操作に応じて、第1ズームレンズ11aは、レンズ光軸L1に沿ってNEAR側(繰り出し側)、あるいはINF側(繰り込み側)に移動し、ズーム倍率を変化させる。この移動は図示しないモータで駆動される。絞り12aは、AE(Auto Exposure)動作時に開口値(絞り値)を変化させて光束を制限し、露出調整を行う。
フォーカスレンズ13aは、AF(Auto Focus)動作時にレンズ光軸L1に沿ってNEAR側、あるいはINF側に移動されて合焦位置を変え、ピント調整を行う。この移動は図示しないモータで駆動される。
In response to a zoom operation from the input operation unit 9, the first zoom lens 11a moves along the lens optical axis L1 to the NEAR side (feed-out side) or the INF side (retract-side) to change the zoom magnification. This movement is driven by a motor (not shown). The aperture 12a performs exposure adjustment by changing the aperture value (aperture value) during AE (Auto Exposure) operation to limit the light flux.
The focus lens 13a is moved to the NEAR side or the INF side along the lens optical axis L1 during AF (Auto Focus) operation to change the focus position and perform focus adjustment. This movement is driven by a motor (not shown).

静止画用レリーズスイッチの半押し状態が検出されたとき、メインCPU62は距離用撮像素子51a・51bからそれぞれ測距データを得る。メインCPU62は得られた測距データに基づいて、ピント、絞りなどの調整を行う。   When the half-pressed state of the still image release switch is detected, the main CPU 62 obtains distance measurement data from the distance image sensors 51a and 51b, respectively. The main CPU 62 adjusts focus, aperture, etc. based on the obtained distance measurement data.

第1イメージセンサ14aは、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aによって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14aの光電荷蓄積・転送動作は、TG18aによって制御され、TG18aから入力されるタイミング信号(クロックパルス)により、電子シャッタ速度(光電荷蓄積時間)が決定される。第1イメージセンサ14aは、撮影モード時には、1画面分の画像信号を所定周期ごとに取得する。   The first image sensor 14a receives subject light imaged by the first zoom lens 11a, the first diaphragm 12a, and the first focus lens 13a, and accumulates photocharges corresponding to the amount of received light in the light receiving element. The photoelectric charge accumulation / transfer operation of the first image sensor 14a is controlled by the TG 18a, and the electronic shutter speed (photo charge accumulation time) is determined by the timing signal (clock pulse) input from the TG 18a. The first image sensor 14a acquires an image signal for one screen every predetermined period in the photographing mode.

第2撮像部2bは、第1撮像部2aと同一の構成であり、第2ズームレンズ11b、第2絞り12b、第2フォーカスレンズ13b、およびタイミングジェネレータ(TG)18bが接続された第2イメージセンサ14bによって構成されている。これらの動作はメインCPU62によって制御される。第1撮像部2aと第2撮像部2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。なお、第1および第2イメージセンサ14a・14bとして、CCD型やCMOS型のイメージセンサが用いられる。   The second image pickup unit 2b has the same configuration as the first image pickup unit 2a, and is a second image in which the second zoom lens 11b, the second diaphragm 12b, the second focus lens 13b, and the timing generator (TG) 18b are connected. It is configured by the sensor 14b. These operations are controlled by the main CPU 62. The first imaging unit 2a and the second imaging unit 2b basically operate in conjunction with each other, but can also be operated individually. A CCD type or CMOS type image sensor is used as the first and second image sensors 14a and 14b.

第1および第2イメージセンサ14a・14bから出力された撮像信号は、それぞれA/D変換器30a・30bに入力される。A/D変換器30a・30bは、入力された画像データをアナログからデジタルに変換する。A/D変換器30a・30bを通して、第1イメージセンサ14aの撮像信号は第1画像データ(右眼用画像データ)として、第2イメージセンサ14bの撮像信号は第2画像データ(左眼用画像データ)として出力される。   The imaging signals output from the first and second image sensors 14a and 14b are input to the A / D converters 30a and 30b, respectively. The A / D converters 30a and 30b convert the input image data from analog to digital. Through the A / D converters 30a and 30b, the imaging signal of the first image sensor 14a is first image data (right-eye image data), and the imaging signal of the second image sensor 14b is second image data (left-eye image). Data).

画像信号処理回路31a・31bは、それぞれ、階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理をA/D変換器30a・31bから入力された第1および第2画像データに施す。バッファメモリ32a・32bは、画像信号処理回路31a・31
bで各種画像処理が施された第1および第2画像データを一時的に格納する。
The image signal processing circuits 31a and 31b respectively perform various image processing such as gradation conversion, white balance correction, and γ correction processing on the first and second image data input from the A / D converters 30a and 31b. The buffer memories 32a and 32b include image signal processing circuits 31a and 31.
The first and second image data subjected to various image processes in b are temporarily stored.

測光・測距CPU19a・19bは、それぞれ、バッファメモリ32a・32bに格納された第1および第2画像データの各々からAF評価値およびAE評価値を算出する。AF評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。また、AE評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値およびAE評価値は、後述する撮影準備処理時に実行されるAF動作およびAE動作においてそれぞれ使用される。   The photometry / ranging CPUs 19a and 19b calculate AF evaluation values and AE evaluation values from the first and second image data stored in the buffer memories 32a and 32b, respectively. The AF evaluation value is calculated by integrating high-frequency components of the luminance value for the entire area or predetermined area (for example, the central portion) of each image data, and represents the sharpness of the image. The high-frequency component of the luminance value is a sum of luminance differences (contrast) between adjacent pixels in a predetermined area. In addition, the AE evaluation value is calculated by integrating the luminance values over the entire area or a predetermined area (for example, the central portion) of each image data, and represents the brightness of the image. The AF evaluation value and the AE evaluation value are respectively used in an AF operation and an AE operation that are executed during an imaging preparation process described later.

バッファメモリ32a・32bに記憶された画像データは、それぞれYC処理部35a・35bにより輝度信号(Y信号)及び色差信号(Cr,Cb 信号)に変換されるとともに、ガンマ補正等の所定の処理が施される。処理されたYC信号はそれぞれワークメモリ128a・128bに格納される。   The image data stored in the buffer memories 32a and 32b is converted into luminance signals (Y signals) and color difference signals (Cr and Cb signals) by YC processing units 35a and 35b, respectively, and predetermined processing such as gamma correction is performed. Applied. The processed YC signals are stored in the work memories 128a and 128b, respectively.

ワークメモリ128a・128bに記憶された第1および第2画像データのYC信号は、それぞれコントローラ34によってYC/RGB変換部147に読み出される。YC/RGB変換部147は、第1および第2画像データのYC信号を所定方式の映像信号(例えば、NTSC方式のカラー複合映像信号)に変換した上で、画像表示LCD10での立体表示を行うための立体画像データに合成する。撮影モード時にLCD10が電子ビューファインダとして使用される際には、YC/RGB変換部147によって合成された立体画像データが、LCDドライバ148を介してLCD10にスルー画として表示される。   The YC signals of the first and second image data stored in the work memories 128a and 128b are read by the controller 34 to the YC / RGB conversion unit 147, respectively. The YC / RGB converter 147 converts the YC signal of the first and second image data into a predetermined format video signal (for example, an NTSC color composite video signal), and then performs stereoscopic display on the image display LCD 10. To the stereoscopic image data. When the LCD 10 is used as an electronic viewfinder in the shooting mode, the stereoscopic image data synthesized by the YC / RGB conversion unit 147 is displayed on the LCD 10 as a through image via the LCD driver 148.

圧縮伸張処理回路36a・36bは、それぞれワークメモリ128a・128bに記憶された第1および第2画像データに対して、静止画ではJPEG、動画ではMPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理を施す。メディアコントローラ37は、圧縮伸張処理回路36a・36によって圧縮処理された各画像データを、I/F39経由で接続されたメモリカード38その他の記録メディアに記録させる。   The compression / decompression processing circuits 36a and 36b respectively apply JPEG for still images, MPEG2, MPEG4, H.264 for moving images to the first and second image data stored in the work memories 128a and 128b, respectively. Compression processing is performed according to a predetermined compression format such as H.264. The media controller 37 records each image data compressed by the compression / decompression processing circuits 36 a and 36 on a memory card 38 or other recording media connected via the I / F 39.

このようにしてメモリカード38に記録された第1および第2画像データをLCD10に再生表示する場合、メモリカード38の各画像データは、メディアコントローラ37によって読み出され、圧縮伸張処理回路36a・36によって伸張処理が行われ、YC/RGB変換部147によって立体画像データに変換された後、LCDドライバ148を介してLCD10に再生画像として表示される。   When the first and second image data recorded in the memory card 38 in this way are reproduced and displayed on the LCD 10, each image data in the memory card 38 is read by the media controller 37, and the compression / decompression processing circuits 36a and 36 are used. The YC / RGB conversion unit 147 converts the image data into stereoscopic image data, and then displays the reproduced image on the LCD 10 via the LCD driver 148.

LCD10は、写実的手法を採用していない通常のモニタであり、画像撮影時には電子ビューファインダとして使用され、画像再生時には撮影によって得られた画像データの表示を行う。   The LCD 10 is a normal monitor that does not employ a photorealistic technique, and is used as an electronic viewfinder at the time of image photographing, and displays image data obtained by photographing at the time of image reproduction.

メインCPU62は、複眼カメラ1の全体の動作を統括的に制御する。メインCPU62には、レリーズスイッチ5a・5b、操作部70のほか、不揮発性メモリであるEEPROM146が接続されている。EEPROM146は、各種制御用のプログラムや設定情報などを格納している。メインCPU62は、このプログラムや設定情報に基づいて各種処理を実行する。   The main CPU 62 comprehensively controls the overall operation of the compound eye camera 1. In addition to the release switches 5a and 5b and the operation unit 70, the main CPU 62 is connected to an EEPROM 146 which is a nonvolatile memory. The EEPROM 146 stores various control programs and setting information. The main CPU 62 executes various processes based on this program and setting information.

また、メインCPU62には、光学系制御指示部127が接続されており、光学系制御指示部127へのズーム操作に応じて第1撮像部2a・第2撮像部2bの撮影倍率が変更される。   In addition, an optical system control instruction unit 127 is connected to the main CPU 62, and the imaging magnifications of the first imaging unit 2a and the second imaging unit 2b are changed according to a zoom operation to the optical system control instruction unit 127. .

レリーズスイッチ5aは2段押しのスイッチ構造となっている。撮影モード中に、レリーズスイッチ5aが軽く押圧(半押し)されると、AF動作およびAE動作が行われ撮影準備処理がなされる。この状態でさらにレリーズスイッチ5aが強く押圧(全押し)されると、撮影処理が行われ、1画面分の第1および第2画像データがフレームメモリ32からメモリカード38に転送されて記録される。   The release switch 5a has a two-stage push switch structure. If the release switch 5a is lightly pressed (half-pressed) during the shooting mode, AF operation and AE operation are performed, and shooting preparation processing is performed. In this state, when the release switch 5a is further pressed (fully pressed), shooting processing is performed, and the first and second image data for one screen are transferred from the frame memory 32 to the memory card 38 and recorded. .

AF動作は、メインCPU62が第1および第2フォーカスレンズ13a・13bを制御してそれぞれ所定方向に移動させながら、順次に得られる第1および第2画像データの各々から算出されたAF評価値の最大値を求めることによりなされる。AE動作は、AF動作が完了した後、算出されたAE評価値に基づいて、第1および第2絞り12a・12bの開口値、および第1および第2イメージセンサ14a・14bの電子シャッタ速度を設定することによりなされる。   In the AF operation, the main CPU 62 controls the first and second focus lenses 13a and 13b and moves them in predetermined directions, respectively, and the AF evaluation value calculated from each of the first and second image data obtained sequentially. This is done by finding the maximum value. In the AE operation, after the AF operation is completed, the aperture values of the first and second apertures 12a and 12b and the electronic shutter speeds of the first and second image sensors 14a and 14b are calculated based on the calculated AE evaluation values. This is done by setting.

また、カメラ1には、操作の手助けを行うための操作LCD表示103が備えられている。   In addition, the camera 1 is provided with an operation LCD display 103 for assisting the operation.

また、カメラ1は、電源電池68が着脱可能な構成となっている。電源電池68は充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池68は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池68は図示しない電池収納室に装填することにより、カメラ1の各回路と電気的に接続される。   Further, the camera 1 has a configuration in which the power supply battery 68 is detachable. The power supply battery 68 is composed of a rechargeable secondary battery such as a nickel-cadmium battery, a nickel metal hydride battery, or a lithium ion battery. The power supply battery 68 may be a single-use primary battery such as a lithium battery or an alkaline battery. The power supply battery 68 is electrically connected to each circuit of the camera 1 by being loaded into a battery storage chamber (not shown).

第1撮像部2a、第2撮像部2bには、それぞれ、第1撮像部2aと第2撮像部2bのなす間隔/輻輳角を検出する間隔/輻輳角検出回路4a・4bと、間隔/輻輳角検出回路4a・4bの検出した輻輳角を記憶するレンズ間隔/輻輳角記憶回路6、基線長の伸縮と光軸を駆動モータなどで回転させ輻輳を変化させる間隔/輻輳角駆動回路3a・3bとが備えられている。   The first imaging unit 2a and the second imaging unit 2b are respectively provided with an interval / convergence angle detection circuit 4a, 4b for detecting an interval / convergence angle between the first imaging unit 2a and the second imaging unit 2b, and an interval / congestion. Lens interval / convergence angle storage circuit 6 for storing the angle of convergence detected by the angle detection circuits 4a and 4b, and interval / convergence angle drive circuits 3a and 3b for changing the convergence by rotating the optical axis with a drive motor or the like by changing the baseline length. And are provided.

また、カメラ1には、間隔/輻輳角検出回路4a・4bの検出した間隔/輻輳角に基づいて間隔/輻輳角駆動回路3a・3bの輻輳角の変化を制御する間隔/輻輳角制御回路5が備えられている。   Further, the camera 1 includes an interval / convergence angle control circuit 5 that controls changes in the convergence angle of the interval / convergence angle driving circuits 3a and 3b based on the intervals / convergence angles detected by the interval / convergence angle detection circuits 4a and 4b. Is provided.

充電・発光制御部138a・138bは、それぞれストロボ44a・44bを発光させるために電源電池68からの電力の供給を受けて図示しない閃光発光用のコンデンサを充電したり、ストロボ44a・44bの発光を制御する。   The charging / light emission control units 138a and 138b are supplied with electric power from the power supply battery 68 in order to cause the strobes 44a and 44b to emit light, respectively, and charge a flash light emitting capacitor (not shown) or emit light from the strobes 44a and 44b. Control.

充電・発光制御部138a・138bは、レリーズスイッチ5a・5bの半押し・全押し操作信号等の各種の信号や、発光量、発光タイミングを示す信号をメインCPU62や測光・測距CPU19a・19bから取り込んだことに応じ、ストロボ44a・44bへの電流供給制御を行い、所望の発光量が所望のタイミングで得られるように制御する。   The charge / light emission control units 138a and 138b receive various signals such as half-press and full-press operation signals of the release switches 5a and 5b, and signals indicating the light emission amount and the light emission timing from the main CPU 62 and the photometry / ranging CPUs 19a and 19b. In response to the capture, current supply control to the strobes 44a and 44b is performed so that a desired light emission amount can be obtained at a desired timing.

縦撮り/横撮り切替ボタン40は、縦撮りまたは横撮りのいずれで撮影を行うかを指示するためのボタンである。縦撮り/横撮り検出回路166は、このボタンの状態により、縦撮りまたは横撮りのいずれで撮影を行うかを検出する。   The vertical / horizontal shooting switching button 40 is a button for instructing whether to perform vertical shooting or horizontal shooting. The vertical / horizontal shooting detection circuit 166 detects whether shooting is performed in vertical shooting or horizontal shooting depending on the state of this button.

2D/3Dモード切替フラグ168には、2Dモードであることまたは3Dモードであることを表すフラグが設定される。   The 2D / 3D mode switching flag 168 is set with a flag indicating the 2D mode or the 3D mode.

距離用発光素子52a、52bは、それぞれ、第1撮像部2aおよび第2撮像部2bの
捉えた同一被写体へ投光スポットを照射するための発光ダイオード(LED)からなる。
The distance light-emitting elements 52a and 52b are each composed of a light-emitting diode (LED) for irradiating a projection spot to the same subject captured by the first imaging unit 2a and the second imaging unit 2b.

距離用撮像素子51a、51bは、それぞれ、距離用発光素子52a、52bにより投光スポットの照射された被写体像を取得する測距専用の撮像素子である。   The distance image pickup devices 51a and 51b are image pickup devices dedicated to distance measurement that acquire subject images irradiated with the light projection spots by the distance light emitting devices 52a and 52b, respectively.

距離用駆動/制御回路54は、距離用発光素子52a、52bの発光タイミングと距離用撮像素子53a、53bとを同期させる制御を行う。   The distance driving / control circuit 54 performs control to synchronize the light emission timings of the distance light emitting elements 52a and 52b with the distance imaging elements 53a and 53b.

距離用撮像素子53a、53bの撮像動作で得られたアナログ画像信号はそれぞれ測距用A/D変換部55a、55bでデジタル画像データに変換され、距離情報処理回路57に出力される。   Analog image signals obtained by the imaging operations of the distance imaging elements 53a and 53b are converted into digital image data by the distance measurement A / D conversion units 55a and 55b, respectively, and are output to the distance information processing circuit 57.

距離情報処理回路57は、入力されたデジタル画像データから、第1撮像部2aおよび第2撮像部2bの捉えた被写体までの距離を算出する。これはいわゆる三角測距の原理に基づく。距離情報処理回路57が算出した距離情報は距離情報記憶回路58に記憶される。   The distance information processing circuit 57 calculates the distance from the input digital image data to the subject captured by the first imaging unit 2a and the second imaging unit 2b. This is based on the principle of so-called triangulation. The distance information calculated by the distance information processing circuit 57 is stored in the distance information storage circuit 58.

顔検出部150は、バッファメモリ32aあるいはバッファメモリ32bに格納された画像データや、バッファメモリ42に格納された画像データから被写体となった人物の顔部分を含む領域である顔領域を検出する。   The face detection unit 150 detects a face area that is an area including the face portion of the person who is the subject from the image data stored in the buffer memory 32 a or the buffer memory 32 b or the image data stored in the buffer memory 42.

顔領域の検出方法は特に限定されず、各種のものを採用できるが、例えば本出願人による特開平9−101579号公報において開示された技術を適用することができる。この技術は、撮影した画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。そして、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が人物の顔に相当する領域かを判定し、この判定結果に基づき顔領域として検出するものである。また、この他に、特開2003−209683号公報や特開2002−199221号公報に記載される方法で顔領域を検出することもできる。   The method for detecting the face area is not particularly limited, and various methods can be adopted. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 9-101579 by the present applicant can be applied. This technology determines whether or not the hue of each pixel of the captured image is included in the skin color range and divides it into a skin color region and a non-skin color region, and detects edges in the image to detect each pixel in the image. The location is classified as an edge portion or a non-edge portion. Then, an area surrounded by pixels that are located in the skin color area and classified as a non-edge part and surrounded by pixels that are determined to be edge parts is extracted as a face candidate area, and the extracted face candidate area becomes a human face. It is determined whether the region is a corresponding region, and is detected as a face region based on the determination result. In addition to this, a face region can also be detected by a method described in Japanese Patent Application Laid-Open Nos. 2003-209683 and 2002-199221.

なお、多視点画像は、上述のような複眼カメラ1で取得する必然性はなく、単眼カメラを用いたモーションステレオ法による連続撮影で取得してもよい。   The multi-viewpoint image is not necessarily acquired by the compound eye camera 1 as described above, and may be acquired by continuous shooting using a motion stereo method using a monocular camera.

以下、図3のフローチャートを参照し、メインCPU62で実行される一覧画像表示処理の流れを説明する。この処理を規定するプログラムはEEPROM146に格納されている。操作部70からの「サムネイル画像一覧表示」の指示に応じ、メモリカード38に格納されている全ての多視点画像に対して一括して行われる。   Hereinafter, the flow of the list image display process executed by the main CPU 62 will be described with reference to the flowchart of FIG. A program for defining this processing is stored in the EEPROM 146. In response to an instruction of “display thumbnail image list” from the operation unit 70, all the multi-viewpoint images stored in the memory card 38 are collectively performed.

S1では、メモリカード38のディレクトリを読み込む。   In S1, the directory of the memory card 38 is read.

S2では、画像ファイルが当該ディレクトリに存在するか否かを判断する。画像ファイルが存在する場合はS3に進む。画像ファイルが存在しない場合は処理を終了する。   In S2, it is determined whether the image file exists in the directory. If an image file exists, the process proceeds to S3. If the image file does not exist, the process ends.

S3では、画像ファイルのヘッダ部分を読み出す。そして、画像ファイルが多視点画像を格納している旨の識別情報を検知したか否かを判断する。多視点画像を格納している場合はS5、通常の画像を格納している場合はS8に進む。   In S3, the header portion of the image file is read out. Then, it is determined whether or not identification information indicating that the image file stores a multi-viewpoint image is detected. If a multi-viewpoint image is stored, the process proceeds to S5. If a normal image is stored, the process proceeds to S8.

S5では、画像ファイルに格納されている多視点画像から、サムネイル画像を作成する。その具体的手法は特許文献2の段落0040と同様、左目用画像のみ、右目用画像のみ
、あるいはその両方を間引いて作成すればよい。
In S5, a thumbnail image is created from the multi-viewpoint image stored in the image file. The specific method may be created by thinning out only the left-eye image, only the right-eye image, or both, as in paragraph 0040 of Patent Document 2.

S6では、作成されたサムネイル画像に3次元CG処理を施すことで3次元サムネイル画像を作成する。例えば図3に示すように、画像中に存在する主要被写体その他の各種の物体(図3はマグカップを示していあるが、人物などでもよい)に対応した3次元形状モデルのポリゴンPGに、サムネイル画像thの対応領域を貼り付けるテクスチャマッピングを行い、3次元CGサムネイル画像Xを得る。この具体的手法は特許文献1と同様である。あるいは、元の多視点画像について3次元CG処理を施し、それを間引くことで3次元CGサムネイル画像を作成してもよいが、処理の負荷の点では、先にサムネイルを作成する方が優れている。   In S6, a 3D thumbnail image is created by performing 3D CG processing on the created thumbnail image. For example, as shown in FIG. 3, a thumbnail image is displayed on a polygon PG of a three-dimensional shape model corresponding to a main subject and other various objects (FIG. 3 shows a mug but may be a person) existing in the image. Texture mapping for pasting the corresponding region of th is performed to obtain a three-dimensional CG thumbnail image X. This specific method is the same as that of Patent Document 1. Alternatively, a 3D CG process may be performed on the original multi-viewpoint image, and a 3D CG thumbnail image may be created by thinning out the 3D CG process. However, in terms of processing load, it is better to create a thumbnail first. Yes.

なお、その他の3Dコンピュータグラフィック手法をサムネイル画像に適用し3次元CGサムネイル画像を作成してもよい。   Note that other 3D computer graphic techniques may be applied to the thumbnail image to create a 3D CG thumbnail image.

S7では、作成した3次元CGサムネイル画像を、バッファメモリ41に確保された一覧画像バッファに格納する。   In S 7, the created three-dimensional CG thumbnail image is stored in a list image buffer secured in the buffer memory 41.

S8では、画像ファイルに格納されている単視点の通常画像から、サムネイル画像を作成する。その具体的手法は通常のサムネイル画像と同様、単視点画像を間引いて作成すればよい。このサムネイルを通常サムネイル画像と呼ぶ。   In S8, a thumbnail image is created from a single viewpoint normal image stored in the image file. The specific method may be created by thinning out a single viewpoint image in the same manner as a normal thumbnail image. This thumbnail is called a normal thumbnail image.

S9では、作成した通常サムネイル画像を、バッファメモリ41に確保された一覧画像バッファに格納する。   In S9, the created normal thumbnail image is stored in the list image buffer secured in the buffer memory 41.

S10では、メモリカード38の全ての画像について3次元CGサムネイル画像もしくは通常サムネイル画像を作成したか否かを判断する。作成した場合はS11に進み、作成が終わっていない場合はS3に戻り、作成を続ける。   In S10, it is determined whether or not a three-dimensional CG thumbnail image or a normal thumbnail image has been created for all images on the memory card 38. If it has been created, the process proceeds to S11. If the creation has not been completed, the process returns to S3 to continue the creation.

S11では、バッファメモリ41の3次元CGサムネイル画像および通常サムネイル画像をLCD10に一覧表示する。その順番はサムネイル画像の作成元となった画像ファイルの名前順や記録日時順とすればよい。つまり、3次元CGサムネイル画像および通常サムネイル画像は区別されることなく、LCD10の一画面中に3次元CGサムネイル画像および通常サムネイル画像が混在して配列される。   In S11, the 3D CG thumbnail image and the normal thumbnail image in the buffer memory 41 are displayed in a list on the LCD 10. The order may be the order of the names and recording dates of the image files from which the thumbnail images are created. That is, the 3D CG thumbnail image and the normal thumbnail image are not distinguished from each other, and the 3D CG thumbnail image and the normal thumbnail image are mixedly arranged in one screen of the LCD 10.

なお、S3〜S9の処理は、画像が新たに記録されるごとに行ってもよい。   Note that the processing of S3 to S9 may be performed every time an image is newly recorded.

図4はLCD10に一覧表示された3次元CGサムネイル画像Xおよび通常サムネイル画像Yの一例を示す。3次元CGサムネイル画像Xは、3次元CGグラフィック処理が施され立体的効果が付与さているから、通常サムネイルYとの違いが一見して明らかであり、写実的手法を実現する特殊な装置を用いなくとも、多視点画像の縮小画像であることを観者に容易に認識させることができる。   FIG. 4 shows an example of the three-dimensional CG thumbnail image X and the normal thumbnail image Y displayed as a list on the LCD 10. Since the 3D CG thumbnail image X is subjected to 3D CG graphic processing and has a three-dimensional effect, the difference from the normal thumbnail Y is apparent at first glance, and a special device that realizes a realistic method is used. Even without this, the viewer can easily recognize that the image is a reduced image of a multi-viewpoint image.

<第2実施形態>
図5は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、顔の写っている多視点画像のサムネイル画像を、特別なサンプルに置き換える。
Second Embodiment
FIG. 5 shows another example of the list image display process executed by the main CPU 62. Here, the thumbnail image of the multi-viewpoint image showing the face is replaced with a special sample.

S21〜S24は、S1〜S4と同様である。   S21 to S24 are the same as S1 to S4.

S25では、顔検出部150に対し、多視点画像の一方または双方から顔を抽出するよう指令する。顔検出部150はメインCPU62からの指令に応じ、画像ファイルに格納
された左目用画像あるいは右目用画像から、顔領域の検出を試みる。
In S25, the face detection unit 150 is instructed to extract a face from one or both of the multi-viewpoint images. In response to a command from the main CPU 62, the face detection unit 150 attempts to detect a face area from the left-eye image or the right-eye image stored in the image file.

S26では、顔検出部150が顔領域を検出できたか否かを判断する。顔領域を検出できた場合はS27、検出できなかった場合はS29に進む。   In S26, it is determined whether or not the face detection unit 150 has detected the face area. If the face area can be detected, the process proceeds to S27. If the face area cannot be detected, the process proceeds to S29.

S27では、顔が写っている多視点画像であることを表象するサンプルの3次元サムネイル画像をEEPROM146から取り出す。   In S 27, a sample three-dimensional thumbnail image representing that the face is a multi-viewpoint image is taken out from the EEPROM 146.

S28では、取り出したサンプルを一覧画像バッファに格納する。サンプルの3次元サムネイル画像は、実際の被写体の顔と同一である必要はなく、サンプルの人物の顔であればよく、かつその顔や身体などには、3Dグラフィックによる立体効果が予め付与されている。   In S28, the extracted sample is stored in the list image buffer. The sample 3D thumbnail image does not have to be the same as the face of the actual subject, and may be a sample person's face, and the face or body is preliminarily provided with a 3D graphic stereoscopic effect. Yes.

S29は、上述のS5と同様である。S30は、S29で作成されたサムネイル画像を、一覧画像バッファに格納する。このサムネイル画像を立体画像縮小画像と呼び、通常サムネイル画像と区別する。   S29 is the same as S5 described above. In S30, the thumbnail images created in S29 are stored in the list image buffer. This thumbnail image is called a stereoscopic image reduced image, and is distinguished from a normal thumbnail image.

S31〜S34は、上述のS8〜S11と同様である。   S31 to S34 are the same as S8 to S11 described above.

図6は、S34が実行された結果、LCD10に一覧表示されたサンプルの3次元サムネイル画像S、通常サムネイル画像Yの一例を示す。   FIG. 6 shows an example of sample 3D thumbnail images S and normal thumbnail images Y displayed as a list on the LCD 10 as a result of the execution of S34.

サンプルサムネイル画像Sは、3次元CGグラフィック処理が施されているから、通常サムネイルYや立体画像縮小画像Zとの違いが一見して明らかであり、顔を被写体とする立体画像の識別が容易である。   Since the sample thumbnail image S has been subjected to three-dimensional CG graphic processing, the difference from the normal thumbnail Y and the stereoscopic image reduced image Z is obvious at a glance, and it is easy to identify the stereoscopic image with the face as the subject. is there.

<第3実施形態>
図7は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、フラッシュ撮影された多視点画像のサムネイル画像を、特別なサンプルに置き換える。
<Third Embodiment>
FIG. 7 shows another example of the list image display process executed by the main CPU 62. Here, the thumbnail image of the multi-viewpoint image captured by flash is replaced with a special sample.

S41〜S44は、S1〜S4と同様である。   S41 to S44 are the same as S1 to S4.

S45では、画像ファイルからフラッシュ発光情報を取得し、画像記録時のストロボ44a・44bのオンまたはオフの状況を識別する。フラッシュ発光情報とは、例えば、Exifファイルの「Flash」タグに格納された情報である。   In S45, flash emission information is acquired from the image file, and the on / off status of the strobes 44a and 44b at the time of image recording is identified. The flash emission information is, for example, information stored in the “Flash” tag of the Exif file.

S46では、フラッシュ発光情報に基づき、撮影時におけるストロボ44a・44bのオンまたはオフを判断する。撮影時にストロボ44a・44bがオンであった場合はS47、オフであった場合はS49に進む。   In S46, it is determined whether or not the strobes 44a and 44b are turned on and off based on the flash emission information. If the strobes 44a and 44b are on at the time of shooting, the process proceeds to S47, and if off, the process proceeds to S49.

S47では、多視点画像であることを表象するサンプルの3次元サムネイル画像をEEPROM146から取り出す。このサンプルは第2実施形態と同様3次元CG処理により立体効果が付与されている。なおこのサンプルの図柄は特定人物の顔である必要はない。   In S 47, a sample three-dimensional thumbnail image representing a multi-viewpoint image is taken out from the EEPROM 146. This sample is given a three-dimensional effect by three-dimensional CG processing as in the second embodiment. Note that the design of this sample need not be the face of a specific person.

S48では、取り出したサンプルの3次元サムネイル画像を一覧画像バッファに格納する。サンプルの3次元サムネイル画像は、実際の被写体の顔と同一である必要はなく、ただ、人物の顔が写っていることを3Dグラフィック表示するサムネイル画像である。   In S48, the extracted three-dimensional thumbnail image of the sample is stored in the list image buffer. The sample three-dimensional thumbnail image does not have to be the same as the face of the actual subject, but is a thumbnail image that displays in 3D graphics that a person's face is shown.

S49〜S54は、上述のS29〜S34と同様である。   S49 to S54 are the same as S29 to S34 described above.

図8は、S54が実行された結果、LCD10に一覧表示されたサンプルの3次元サムネイル画像W、通常サムネイル画像Yの一例を示す。   FIG. 8 shows an example of sample 3D thumbnail images W and normal thumbnail images Y displayed as a list on the LCD 10 as a result of the execution of S54.

サンプルサムネイル画像Wは、3次元CG処理が施されているから、通常サムネイルYや立体画像縮小画像Zとの違いが一見して明らかであり、顔を被写体とする立体画像の識別が容易である。   Since the sample thumbnail image W has been subjected to three-dimensional CG processing, the difference from the normal thumbnail Y and the stereoscopic image reduced image Z is obvious at a glance, and it is easy to identify the stereoscopic image with the face as the subject. .

しかも、多視点画像としての有効利用が困難な暗い画像にまで一律にサンプル表示をしなくて済み、処理が効率化する。   In addition, it is not necessary to uniformly display a sample even in a dark image that is difficult to effectively use as a multi-viewpoint image, and the processing becomes efficient.

<第4実施形態>
図9は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、顔の写っている多視点画像のサムネイル画像を、当該多視点画像の顔領域についてのみ3次元CG処理を施したサムネイル画像に置き換える。
<Fourth embodiment>
FIG. 9 shows another example of the list image display process executed by the main CPU 62. Here, the thumbnail image of the multi-viewpoint image showing the face is replaced with a thumbnail image that has been subjected to the three-dimensional CG process only for the face area of the multi-viewpoint image.

S61〜S66は、S21〜S26と同様である。ただし、S66では、顔があると判断した場合はS67、顔がないと判断した場合はS69に進む。   S61 to S66 are the same as S21 to S26. However, in S66, if it is determined that there is a face, the process proceeds to S67, and if it is determined that there is no face, the process proceeds to S69.

S67では、顔が写っている多視点画像から、顔領域を抽出し、その顔領域に3次元CG処理を施す。これは例えば、顔が写っている多視点画像から顔領域を抽出するとともに、当該多視点画像を所定の間引き率で間引く。間引き後の縮小画像に、元多視点画像から抽出された顔領域に相当する領域を設定する。そして、その設定領域中の顔に特有のポリゴンを作成し、当該ポリゴンに間引き後顔領域を貼り付けるテクスチャマッピングを行い、顔領域のみに3次元CG処理の施されたサムネイル画像を得る。この方式は、間引き画像の作成後に3次元CG処理を行う。   In S67, a face area is extracted from the multi-viewpoint image showing the face, and the three-dimensional CG process is performed on the face area. For example, a face area is extracted from a multi-viewpoint image showing a face, and the multi-viewpoint image is thinned out at a predetermined thinning rate. An area corresponding to the face area extracted from the original multi-viewpoint image is set in the reduced image after thinning. Then, a polygon peculiar to the face in the set area is created, and texture mapping is performed by pasting the face area after thinning on the polygon to obtain a thumbnail image on which only the face area has been subjected to 3D CG processing. In this method, three-dimensional CG processing is performed after creation of a thinned image.

あるいは、その検出した顔自体から、その人物の顔に特有のポリゴンを作成し、当該ポリゴンに顔領域を貼り付けるテクスチャマッピングを行い、多視点画像に顔領域のみに3次元CG処理を施した仮のCG画像を作る。そして、この仮のCG画像を所定の間引き率で間引き、顔領域のみに3次元CG処理の施されたサムネイル画像を得る。この方式は、3次元CG処理の後に間引き画像を作成する。   Alternatively, a polygon unique to the person's face is created from the detected face itself, texture mapping is performed to attach the face area to the polygon, and a three-dimensional CG process is performed on only the face area on the multi-viewpoint image. Make a CG image. Then, the provisional CG image is thinned out at a predetermined thinning rate to obtain a thumbnail image in which only the face area is subjected to the three-dimensional CG process. This method creates a thinned image after the three-dimensional CG processing.

上記のテクスチャマッピング方式はポリゴンの作成から始める必要があり、精密なポリゴンを作成すると処理負荷が大きい。ポリゴンの簡易な作成方法としては、次のようなものが挙げられる。まず、検出された顔領域から、顔の輪郭、目、鼻、口などの顔の構成部分を検出し、検出された顔の構成部分の位置に応じてポリゴン分割線を決める。例えば、両目の中央部分(眉間)から出発し鼻筋に沿って鼻先端に達する線と、両目を周回する線と、口を周回する線と、顔の輪郭とをポリゴン分割線とする。このポリゴンにテクスチャマッピングすると、口と鼻の部分が隆起し、目の周囲が窪んだような簡易な3次元CGサムネイル画像が得られる。   The above texture mapping method needs to start with creation of a polygon. If a precise polygon is created, the processing load is large. The following is a simple polygon creation method. First, face components such as a face outline, eyes, nose, and mouth are detected from the detected face region, and polygon dividing lines are determined according to the positions of the detected face components. For example, a line that starts from the central part (between eyebrows) and reaches the tip of the nose along the nasal muscles, a line that circulates both eyes, a line that circulates the mouth, and a contour of the face are polygon dividing lines. When texture mapping is performed on this polygon, a simple three-dimensional CG thumbnail image in which the mouth and nose are raised and the periphery of the eye is depressed is obtained.

S68では、作成した3次元CGサムネイル画像を一覧画像バッファに格納する。   In S68, the created three-dimensional CG thumbnail image is stored in the list image buffer.

S69〜S74は、上述のS29〜S34と同様である。   S69 to S74 are the same as S29 to S34 described above.

図10は、S74が実行された結果、LCD10に一覧表示された、顔の検出された多視点画像に対応する3次元サムネイル画像S、通常サムネイル画像Y、顔の検出されなかった多視点画像に対応するサムネイル画像Zの一例を示す。   FIG. 10 shows three-dimensional thumbnail images S, normal thumbnail images Y corresponding to face-detected multi-viewpoint images displayed as a list on the LCD 10 as a result of executing S74, and multi-viewpoint images with no face detected. An example of a corresponding thumbnail image Z is shown.

サンプルサムネイル画像Uは、顔領域についてのみ3次元CGグラフィック処理が施されているから、通常サムネイルYや単なる視点画像の縮小画像Zとの違いが一見して明らかであり、顔を被写体とする立体画像の識別が容易である。しかも、元画像を用いて顔領域に3次元CGグラフィック処理が施されているから、元画像の顔の概要も立体的に分かる。   Since the sample thumbnail image U is subjected to the 3D CG graphic processing only for the face area, the difference from the normal thumbnail Y or the reduced image Z of the simple viewpoint image is apparent at first glance, and the sample thumbnail image U is a three-dimensional image with the face as the subject. Image identification is easy. In addition, since the three-dimensional CG graphic processing is performed on the face area using the original image, the outline of the face of the original image can be understood three-dimensionally.

<第5実施形態>
図11は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、近距離の被写体を撮影した多視点画像のサムネイル画像のみを、3次元CG処理する。
<Fifth Embodiment>
FIG. 11 shows another example of the list image display process executed by the main CPU 62. Here, only a thumbnail image of a multi-viewpoint image obtained by photographing a subject at a short distance is subjected to three-dimensional CG processing.

S81〜S84は、S41〜S44と同様である。   S81 to S84 are the same as S41 to S44.

S85では、画像ファイルから距離情報を取得し、画像記録時のカメラ1から被写体までの距離を識別する。距離情報とは、例えば、Exifファイルの「SubjectDistance」タグに格納された情報であり、距離情報記憶回路58によって記憶される。   In S85, distance information is acquired from the image file, and the distance from the camera 1 to the subject at the time of image recording is identified. The distance information is, for example, information stored in the “SubjectDistance” tag of the Exif file, and is stored by the distance information storage circuit 58.

S86では、距離情報Dに基づき、被写体が所定の距離よりも遠い位置(例えばD>10m)にあったか否かを判断する。被写体が遠距離であった場合はS89、遠距離でない場合すなわち近距離にいる場合はS87に進む。   In S86, based on the distance information D, it is determined whether or not the subject is at a position farther than a predetermined distance (for example, D> 10 m). If the subject is a long distance, the process proceeds to S89. If the subject is not a long distance, that is, if the object is a short distance, the process proceeds to S87.

S87では、S6と同様、3次元CGサムネイル画像を作成する。   In S87, as in S6, a three-dimensional CG thumbnail image is created.

S88では、作成した3次元CGサムネイル画像を、バッファメモリ41に確保された一覧画像バッファに格納する。   In S88, the created three-dimensional CG thumbnail image is stored in the list image buffer secured in the buffer memory 41.

S89〜S94は、上述のS69〜S74と同様である。   S89 to S94 are the same as S69 to S74 described above.

図12は、S94が実行された結果、LCD10に一覧表示された3次元サムネイル画像T、通常サムネイル画像Y、3次元CG処理の施されなかった被写体が遠いサムネイル画像Vの一例を示す。   FIG. 12 shows an example of the thumbnail image V that is displayed as a list of the three-dimensional thumbnail image T, the normal thumbnail image Y, and the subject that has not been subjected to the three-dimensional CG processing on the LCD 10 as a result of the execution of S94.

サンプルサムネイル画像Tは、3次元CG処理が施されているから、通常サムネイルYや被写体が遠い画像のサムネイル画像Vとの違いが一見して明らかである。   Since the sample thumbnail image T has been subjected to three-dimensional CG processing, the difference from the normal thumbnail Y or the thumbnail image V of an image with a far subject is apparent at a glance.

しかも、撮影時に被写体が近距離にいた多視点画像についてのみ3次元CG処理を施すから、当該処理を施しても無意味な、被写体が遠い画像にまで一律に3次元CG処理をしなくて済み、処理が効率化する。   In addition, since the 3D CG process is performed only on the multi-viewpoint image in which the subject is at a short distance at the time of shooting, it is not necessary to perform the 3D CG process uniformly even to the far object image even if the process is performed. , Process becomes more efficient.

<第6実施形態>
図13はパソコン100のブロック図である。パソコン100は、主として各構成要素の動作を制御する中央処理装置(CPU)102と、装置の制御プログラムが格納されたり、プログラム実行時の作業領域となる主メモリ106と、パソコン100のオペレーティングシステム(OS)、パソコン100に接続された周辺機器のデバイスドライバに適合するよう視点画像を編集する画像編集処理のプログラムを含む各種のアプリケーションソフト、ユーザの画像等が格納されるハードディスク装置108と、CD−ROM装置110と、表示用データを一時記憶する表示メモリ116と、この表示メモリ116からの画像データ、文字データ等により画像や文字等を表示するCRTモニタや液晶モニタ等のモニタ装置118と、キーボード120と、位置入力装置としてのマウス122と、マウス122の状態を検出してモニタ装置118上のマウスポインタの位置やマウス122の状態等の信号をCPU102に出力するマウスコントローラ124と、インターネット等のネットワーク30と接続される通信インターフェース132と、メモリカード38が着脱されるカード挿入口を有するカードインターフェース112と、上記各構成要素を接続するバス104と、カメラ1とUSB接続するカメラ接続I/F134から構成されている。
<Sixth Embodiment>
FIG. 13 is a block diagram of the personal computer 100. The personal computer 100 mainly includes a central processing unit (CPU) 102 that controls the operation of each component, a main memory 106 that stores a control program for the device and a work area when the program is executed, and an operating system ( OS), a hard disk device 108 in which various application software including an image editing program for editing a viewpoint image so as to conform to a device driver of a peripheral device connected to the personal computer 100, a user image, and the like are stored, and a CD- ROM device 110, display memory 116 for temporarily storing display data, monitor device 118 such as a CRT monitor or a liquid crystal monitor for displaying images, characters, etc. from image data, character data, etc. from this display memory 116, keyboard 120 and a mouse 12 as a position input device A mouse controller 124 that detects the state of the mouse 122 and outputs signals such as the position of the mouse pointer on the monitor device 118 and the state of the mouse 122 to the CPU 102, and a communication interface 132 connected to the network 30 such as the Internet. A card interface 112 having a card insertion slot for inserting and removing the memory card 38, a bus 104 for connecting the above-described components, and a camera connection I / F 134 for USB connection with the camera 1.

ハードディスク装置108に格納されている、画像編集処理のアプリケーションソフトは、該アプリケーションソフトが記録されたCD−ROMをパソコン100のCD−ROM装置110にセットすることにより、パソコン100にインストールすることができる。   Application software for image editing processing stored in the hard disk device 108 can be installed in the personal computer 100 by setting a CD-ROM in which the application software is recorded in the CD-ROM device 110 of the personal computer 100. .

モニタ装置118は、LCD10と同様、画像を表示する。   The monitor device 118 displays an image similarly to the LCD 10.

ハードディスク装置108には、カメラ接続I/F134を介して複眼カメラ1から受信した多視点画像ないし通常画像、あるいはカードI/F112を介してメモリカード38から取り込んだ多視点画像ないし通常画像が格納される。   The hard disk device 108 stores a multi-viewpoint image or a normal image received from the compound eye camera 1 via the camera connection I / F 134 or a multi-viewpoint image or a normal image captured from the memory card 38 via the card I / F 112. The

CPU102は、上述の第1〜5実施形態の一覧画像表示処理を、ハードディスク装置108に記憶された多視点画像および通常画像について行う。この処理は、各画像がハードディスク装置108に格納されるごとに、画像ごとに個別実行されてもよいし、キーボード120やマウス122からの指示に応じ、ハードディスク装置108に格納されている全ての画像に対して一括して行われてもよい。   The CPU 102 performs the list image display processing of the first to fifth embodiments described above for the multi-viewpoint image and the normal image stored in the hard disk device 108. This process may be executed for each image individually as each image is stored in the hard disk device 108, or all images stored in the hard disk device 108 in accordance with instructions from the keyboard 120 and mouse 122. May be performed collectively.

つまり、一覧画像表示処理は、カメラ1で行う必然性はなく、その他の装置においても実現可能である。   That is, the list image display process is not necessarily performed by the camera 1 and can be realized by other apparatuses.

1:カメラ、2a:第1撮像部、2b:第2撮像部、10:LCD、62:メインCPU、38:メモリカード、100:パソコン、102:CPU、108:ハードディスク装置   1: camera, 2a: first imaging unit, 2b: second imaging unit, 10: LCD, 62: main CPU, 38: memory card, 100: personal computer, 102: CPU, 108: hard disk device

Claims (3)

2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、
前記画像入力部に入力された画像を記憶する記憶部と、
前記記憶部の記憶した画像を縮小した縮小画像を作成する縮小画像作成部と、
前記記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、
前記画像識別部が多視点画像であると識別した画像について、被写体顔領域の有無を検出する顔検出部と、
前記記憶部に記憶された画像の一覧表示が指示されたことに応じ、前記画像識別部が単視点画像と識別した画像の縮小画像および前記画像識別部が多視点画像と識別しかつ前記顔検出部が被写体顔領域を検出しなかった画像の代表画像として前記縮小画像を一覧表示するとともに、前記画像識別部が多視点画像と識別しかつ前記顔検出部が被写体顔領域を検出した画像の代表画像として前記被写体顔領域に3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示する表示部と、
を備える画像処理装置。
An image input unit for inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
A storage unit for storing an image input to the image input unit;
A reduced image creating unit that creates a reduced image obtained by reducing the image stored in the storage unit;
An image identification unit for identifying whether the image stored in the storage unit is a multi-viewpoint image or a single-viewpoint image;
A face detection unit that detects the presence or absence of a subject face region for the image identified by the image identification unit as a multi-viewpoint image;
In response to an instruction to display a list of images stored in the storage unit, a reduced image of the image identified by the image identifying unit as a single-viewpoint image, and the image identifying unit identifies it as a multi-viewpoint image and detects the face A list of the reduced images as representative images of images in which the subject face area has not been detected, and a representative of images in which the image identification unit has identified the multi-viewpoint image and the face detection unit has detected the subject face area A display unit for displaying a list of predetermined reduced sample images subjected to three-dimensional computer graphics in the subject face area as images;
An image processing apparatus comprising:
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、
入力された画像を記憶するステップと、
前記記憶した画像を縮小した縮小画像を作成するステップと、
前記記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、
前記多視点画像であると識別した画像について、被写体顔領域の有無を検出するステップと、
前記記憶された画像の一覧表示が指示されたことに応じ、前記単視点画像と識別した画像の縮小画像および前記多視点画像と識別しかつ前記被写体顔領域を検出しなかった画像の代表画像として前記縮小画像を一覧表示するとともに、前記多視点画像と識別しかつ前記被写体顔領域を検出した画像の代表画像として前記被写体顔領域に3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示するステップと、
を含む画像処理方法。
Inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
Storing the input image; and
Creating a reduced image obtained by reducing the stored image;
Identifying whether the stored image is a multi-viewpoint image or a single-viewpoint image;
Detecting the presence or absence of a subject face area for the image identified as the multi-viewpoint image;
In response to an instruction to display a list of the stored images, as a reduced image of an image identified as the single-viewpoint image and a representative image of an image identified from the multi-viewpoint image and the subject face area is not detected The reduced images are displayed in a list, and a predetermined sample reduced image in which a three-dimensional computer graphic is applied to the subject face area is displayed as a list as a representative image that is identified from the multi-viewpoint image and that detects the subject face area. And steps to
An image processing method including:
コンピュータが、
2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、
入力された画像を記憶するステップと、
前記記憶した画像を縮小した縮小画像を作成するステップと、
前記記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、
前記多視点画像であると識別した画像について、被写体顔領域の有無を検出するステップと、
前記記憶された画像の一覧表示が指示されたことに応じ、前記単視点画像と識別した画像の縮小画像および前記多視点画像と識別しかつ前記被写体顔領域を検出しなかった画像の代表画像として前記縮小画像を一覧表示するとともに、前記多視点画像と識別しかつ前記被写体顔領域を検出した画像の代表画像として前記被写体顔領域に3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示するステップと、
を実行する画像処理プログラム。
Computer
Inputting an image including a multi-viewpoint image captured from two or more viewpoints and a single-viewpoint image captured from a single viewpoint;
Storing the input image; and
Creating a reduced image obtained by reducing the stored image;
Identifying whether the stored image is a multi-viewpoint image or a single-viewpoint image;
Detecting the presence or absence of a subject face area for the image identified as the multi-viewpoint image;
In response to an instruction to display a list of the stored images, as a reduced image of an image identified as the single-viewpoint image and a representative image of an image identified from the multi-viewpoint image and the subject face area is not detected The reduced images are displayed in a list, and a predetermined sample reduced image in which a three-dimensional computer graphic is applied to the subject face area is displayed as a list as a representative image that is identified from the multi-viewpoint image and that detects the subject face area. And steps to
An image processing program for executing
JP2010286373A 2010-12-22 2010-12-22 Image processing apparatus, method, and program Expired - Fee Related JP4995966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010286373A JP4995966B2 (en) 2010-12-22 2010-12-22 Image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010286373A JP4995966B2 (en) 2010-12-22 2010-12-22 Image processing apparatus, method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007115824A Division JP4661824B2 (en) 2007-04-25 2007-04-25 Image processing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2011108253A JP2011108253A (en) 2011-06-02
JP4995966B2 true JP4995966B2 (en) 2012-08-08

Family

ID=44231576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010286373A Expired - Fee Related JP4995966B2 (en) 2010-12-22 2010-12-22 Image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP4995966B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4340806B2 (en) * 2004-03-22 2009-10-07 富士フイルム株式会社 Image processing apparatus, method, and program
JP2006013760A (en) * 2004-06-24 2006-01-12 Matsushita Electric Ind Co Ltd Electronic equipment for generating management file, electronic equipment for generating three dimensional image data, management file generating method, three dimensional image data generating method, and file structure of management file

Also Published As

Publication number Publication date
JP2011108253A (en) 2011-06-02

Similar Documents

Publication Publication Date Title
JP4661824B2 (en) Image processing apparatus, method, and program
KR101141091B1 (en) Three-dimensional image output device and three-dimensional image output method
JP5456020B2 (en) Information processing apparatus and method
JP4914278B2 (en) Image processing apparatus, method, and program
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
US9113074B2 (en) Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
JP2010086228A (en) Three-dimensional display apparatus, method and program
JP2009210840A (en) Stereoscopic image display device and method, and program
JP2013025649A (en) Image processing device, image processing method, and program
JP4748398B2 (en) Imaging apparatus, imaging method, and program
JP4632060B2 (en) Image recording apparatus, method and program
JP4852169B2 (en) Three-dimensional display device, method and program
JP5001960B2 (en) 3D image display apparatus and method
JP4995966B2 (en) Image processing apparatus, method, and program
JP2011211717A (en) Three-dimensional image output device and method
JP5638941B2 (en) Imaging apparatus and imaging program
JP2012209872A (en) 3d image generating method, 3d image generating program and 3d image generating apparatus
JP2012134873A (en) Imaging apparatus and imaging program
CN101729916A (en) Image processing device, and image recording device, method and program
JP2011102993A (en) Stereoscopic image display device and method, and program
WO2013136832A1 (en) Stereoscopic image display control device and stereoscopic image display control method
JP6616668B2 (en) Image processing apparatus and image processing method
JP5385354B2 (en) Three-dimensional display device, method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120423

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees