JP2011048295A - Compound eye photographing device and method for detecting posture of the same - Google Patents

Compound eye photographing device and method for detecting posture of the same Download PDF

Info

Publication number
JP2011048295A
JP2011048295A JP2009198781A JP2009198781A JP2011048295A JP 2011048295 A JP2011048295 A JP 2011048295A JP 2009198781 A JP2009198781 A JP 2009198781A JP 2009198781 A JP2009198781 A JP 2009198781A JP 2011048295 A JP2011048295 A JP 2011048295A
Authority
JP
Japan
Prior art keywords
posture
image
camera body
compound eye
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009198781A
Other languages
Japanese (ja)
Inventor
Maki Saito
斎藤  牧
Takashi Nakayama
孝志 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009198781A priority Critical patent/JP2011048295A/en
Publication of JP2011048295A publication Critical patent/JP2011048295A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To inexpensively and easily determine whether or not a photographed image has a failure in stereoscopic view. <P>SOLUTION: A feature point 74 and a corresponding point 77 are extracted from standard image data and reference image data obtained by stereo photography respectively. The position of the feature point 74 and the position of the corresponding point 77 are compared with each other to obtain the posture of a camera body 11. A deviation amount (posture deviation amount) between the obtained posture and the preset standard posture of the camera body 11 is obtained. An image not having a problem in stereoscopic view is sorted into an OK image group and an image having a failure in stereoscopic view is sorted into an NG image group, based on the posture deviation amount. The standard image data and reference image data of the OK image group are stored in the OK image storage part 20a of a memory card 20, and the standard image data and reference image data of the NG image group is stored in the NG image storage part 20b of the memory card 20 or is discarded. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ステレオ撮影等の複眼撮影を行う複眼撮影装置及びその姿勢検出方法に関するものである。   The present invention relates to a compound eye photographing apparatus that performs compound eye photographing such as stereo photographing and a posture detection method thereof.

左右対称に配置された1対の撮影部を備えており、視差のある左視点・右視点画像をステレオ撮影する複眼カメラが知られている(特許文献1参照)。ステレオ撮影により得られた左視点・右視点画像を、それぞれ観察者の左右の目に分離して見せることで立体画像の観察を行うことができる。   There is known a compound eye camera that includes a pair of imaging units arranged symmetrically and that stereo-shoots left and right viewpoint images with parallax (see Patent Document 1). A stereoscopic image can be observed by separately displaying the left viewpoint image and the right viewpoint image obtained by stereo shooting separately from the left and right eyes of the observer.

このような複眼カメラでステレオ撮影を行う際には、各撮像部の配列方向が水平線に対して略平行となるような基準姿勢に複眼カメラを保持して、ステレオ撮影を行う必要がある。この配列方向が水平線に対して傾き角度をもつような傾いた姿勢でステレオ撮影が行われた場合、左右視点画像内での被写体の上下方向のずれが大きくなり、立体画像の観察(立体視)に不具合が生じてしまう(図9参照)。   When performing stereo shooting with such a compound-eye camera, it is necessary to perform stereo shooting while holding the compound-eye camera in a reference posture such that the arrangement direction of each imaging unit is substantially parallel to the horizontal line. When stereo shooting is performed in such an orientation that the arrangement direction has an inclination angle with respect to the horizontal line, the vertical displacement of the subject in the left and right viewpoint images becomes large, and stereoscopic image observation (stereoscopic view) (See FIG. 9).

特許文献2には、スルー画像に含まれる人物の顔を検出する顔検出を行うことで、人物の姿勢が適切であるか否かを判断し、人物の姿勢が不適切と判断した場合にはその旨を報知する撮影システムが記載されている。特許文献1の撮影システムでは、カメラ本体を上述の傾いた姿勢で保持した場合、スルー画像内における人物の姿勢が傾くため、人物の姿勢が不適切である旨の報知が行われる。このため、カメラ本体を基準姿勢で保持するように撮影者を促すことができる。   In Patent Literature 2, it is determined whether or not a person's posture is appropriate by performing face detection for detecting a person's face included in the through image. An imaging system for informing that effect is described. In the imaging system of Patent Document 1, when the camera body is held in the above-described tilted posture, the posture of the person in the through image is tilted, so that a notification that the posture of the person is inappropriate is performed. For this reason, the photographer can be prompted to hold the camera body in the reference posture.

特許文献3には、撮影画像から人物の顔を検出した結果に基づき、ディスプレイの角度を、人物が視聴し易い方向に自動調整するディスプレイ角度調整装置が記載されている。   Patent Document 3 describes a display angle adjustment device that automatically adjusts the angle of a display in a direction in which a person can easily view based on the result of detecting a human face from a captured image.

特許文献4及び5には、カメラ本体にその姿勢を検知する姿勢検知センサを設け、この姿勢検出センサの検出結果に基づき、カメラ本体の姿勢が基準姿勢と一致したときに、自動的に撮影を実行するカメラが記載されている。   In Patent Documents 4 and 5, a posture detection sensor for detecting the posture is provided in the camera body, and when the posture of the camera body matches the reference posture based on the detection result of the posture detection sensor, photographing is automatically performed. The camera to be executed is described.

特開2005−157921号公報JP 2005-157721 A 特開2005−148245号公報JP 2005-148245 A 実用新案登録第3144172号Utility Model Registration No. 3144172 特開平10−133308号公報JP-A-10-133308 特開2002−271654号公報JP 2002-271654 A

ところで、上記特許文献2の撮影システムでは、被写体が人物以外の場合に対応できないという問題がある。さらに、この撮影システムでは、顔検出により人物の姿勢が適切であるか否かを判断しているが、適切な姿勢と不適切な姿勢の区別が難しく、例えば、運動中の人物やベッドに横になっている人物を撮影するような場合に、姿勢が不適切であると判断されるおそれがある。   By the way, in the imaging system of the above-mentioned patent document 2, there is a problem that it is impossible to deal with a case where the subject is other than a person. Furthermore, in this imaging system, it is determined whether or not the person's posture is appropriate by detecting the face. However, it is difficult to distinguish between an appropriate posture and an inappropriate posture. When taking a picture of a person who is, there is a risk that the posture is determined to be inappropriate.

また、複眼カメラで撮影を行う際に、この複眼カメラを保持するのは撮影者であるため、特許文献3に記載されているように、顔検出結果に基づきカメラ本体の姿勢を自動調整することはできない。   In addition, when taking a picture with a compound eye camera, the photographer holds the compound eye camera, and as described in Patent Document 3, the posture of the camera body is automatically adjusted based on the face detection result. I can't.

特許文献4及び5のカメラでは、カメラ本体の姿勢を検出することができるが、姿勢検知センサを別途設ける必要があるので、カメラの製造コストが増加するという問題が生じる。   In the cameras of Patent Documents 4 and 5, the posture of the camera body can be detected. However, since a posture detection sensor needs to be provided separately, there arises a problem that the manufacturing cost of the camera increases.

本発明は上記問題を解決するためになされたものであり、撮影時におけるカメラ本体の姿勢を低コストに検出することができる複眼撮影装置及びその姿勢検出方法を提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a compound eye photographing apparatus capable of detecting the posture of a camera body at the time of photographing at low cost and a posture detecting method thereof.

上記目的を達成するため、本発明の複眼撮影装置は、カメラ本体に一体に組み込まれ、被写体を撮影する複数の撮像手段と、前記複数の撮像手段により得られた各撮影画像から、当該各撮影画像にそれぞれ存在する共通の特徴的な点を示す対応点を抽出する対応点抽出手段と、前記各撮影画像のそれぞれにおける、互いに対応する前記対応点の位置を比較することにより、前記各撮影画像の撮影時におけるカメラ本体の姿勢を検出する姿勢検出手段と、を備えることを特徴とする。   In order to achieve the above object, a compound eye photographing apparatus of the present invention is integrated into a camera body, and includes a plurality of imaging means for photographing a subject, and each of the photographing images obtained from the plurality of imaging means. By comparing corresponding point extraction means for extracting corresponding points indicating common characteristic points existing in the images, and the positions of the corresponding points corresponding to each other in each of the captured images, the respective captured images Posture detecting means for detecting the posture of the camera body at the time of shooting.

前記姿勢検出手段の検出結果に基づき、予め定めたカメラ本体の基準姿勢と、前記撮影時のカメラ本体の姿勢とのずれ量を求め、前記ずれ量の大きさに応じて、前記各撮影画像を、前記ずれ量の大きさにより区分された複数の撮影画像グループのいずれかに振り分ける振分手段と、前記複数の撮影画像グループの中から、予め選択された撮影画像グループに振り分けられた前記各撮影画像を記憶する画像記憶手段とを備えることが好ましい。   Based on the detection result of the posture detection means, a deviation amount between a predetermined reference posture of the camera body and the posture of the camera body at the time of shooting is obtained, and each captured image is determined according to the magnitude of the deviation amount. , Distribution means for allocating to any of a plurality of photographed image groups divided according to the magnitude of the shift amount, and each of the photographic images allocated to a preselected photographed image group from among the plurality of photographed image groups It is preferable to include image storage means for storing an image.

前記基準姿勢は、前記複数の撮像手段の配列方向が水平線に略平行となるカメラ本体の姿勢であり、前記姿勢検出手段は、前記配列方向が水平線に対して傾き角度をもつようにカメラ本体が傾いたときの、当該カメラ本体の姿勢を検出することが好ましい。   The reference posture is a posture of the camera body in which the arrangement direction of the plurality of imaging units is substantially parallel to a horizontal line, and the posture detection unit is configured such that the camera body has an inclination angle with respect to the horizontal line. It is preferable to detect the posture of the camera body when tilted.

前記姿勢検出手段は、互いに対応する前記対応点の、それぞれの前記各撮影画像内での垂直方向位置を比較することにより、カメラ本体の姿勢を検出することが好ましい。   It is preferable that the posture detection unit detects the posture of the camera body by comparing the vertical positions of the corresponding points corresponding to each other in the captured images.

前記対応点抽出手段は、前記各撮影画像からそれぞれ前記対応点を複数抽出し、前記姿勢検出手段は、複数の互いに対応する前記対応点の位置を比較することにより、カメラ本体の姿勢を検出することが好ましい。   The corresponding point extraction unit extracts a plurality of the corresponding points from each of the captured images, and the posture detection unit detects the posture of the camera body by comparing the positions of the corresponding points corresponding to each other. It is preferable.

前記対応点抽出手段の抽出結果に基づき、複数の互いに対応する前記対応点間の視差を算出する視差算出手段を備え、前記姿勢検出手段は、複数の互いに対応する前記対応点の位置の比較結果に対して、それぞれ前記視差の大きさに応じた重み付けを行い、重み付け後の前記各比較結果に基づき、カメラ本体の姿勢を検出することが好ましい。   Based on the extraction result of the corresponding point extracting unit, the apparatus includes a parallax calculating unit that calculates parallax between the corresponding points corresponding to each other, and the posture detecting unit compares the positions of the corresponding points corresponding to each other. It is preferable that weighting is performed according to the magnitude of the parallax, and the posture of the camera body is detected based on the respective comparison results after weighting.

前記対応点抽出手段は、前記各撮影画像からそれぞれ前記対応点を複数抽出し、前記対応点抽出手段の抽出結果に基づき、複数の互いに対応する前記対応点間の視差を算出する視差算出手段を備え、前記姿勢検出手段は、複数の互いに対応する前記対応点の中で、最も視差が大きくなる前記対応点同士の位置を比較することにより、カメラ本体の姿勢を検出することが好ましい。   The corresponding point extracting unit extracts a plurality of the corresponding points from each of the captured images, and calculates a parallax between a plurality of corresponding points corresponding to each other based on an extraction result of the corresponding point extracting unit. Preferably, the posture detecting means detects the posture of the camera body by comparing the positions of the corresponding points having the largest parallax among the corresponding points corresponding to each other.

前記画像記憶手段は、前記ずれ量の大きさが予め定めた第1しきい値以下となるような、前記撮影画像グループに振り分けられた前記各撮影画像を記憶することが好ましい。   It is preferable that the image storage unit stores the captured images allocated to the captured image group such that the magnitude of the shift amount is equal to or less than a predetermined first threshold value.

前記複数の撮影画像グループには、前記ずれ量が、前記第1しきい値を上回り、かつ当該第1しきい値よりも大きな第2しきい値以下となる前記各撮影画像が振り分けられる第1撮影画像グループが含まれており、前記第1撮影画像グループに振り分けられた前記各撮影画像に対して、前記ずれ量が前記第1しきい値以下となるように画像処理を施す画像処理手段を備えることが好ましい。   Each of the plurality of captured image groups is assigned with each of the captured images in which the shift amount is greater than the first threshold and less than or equal to a second threshold greater than the first threshold. Image processing means that includes a captured image group, and that performs image processing on each captured image distributed to the first captured image group so that the shift amount is equal to or less than the first threshold value. It is preferable to provide.

前記画像処理手段は、前記各撮影画像から互いに重複して撮影されている画像範囲を切り出すトリミング処理を行うことが好ましい。   It is preferable that the image processing unit performs a trimming process for cutting out an image range that is captured from each captured image.

複数回の撮影を連続して行う連写撮影モードを有し、前記複数の撮影画像グループには、前記連写撮影モード時に得られた前記各撮影画像の中で、前記ずれ量が最小となる前記各撮影画像が振り分けられる第2撮影画像グループが含まれており、前記画像記憶手段は、前記第2撮影画像グループに振り分けられた前記各撮影画像を記憶することが好ましい。   A continuous shooting mode in which a plurality of times of shooting are continuously performed, and the plurality of captured image groups have the smallest deviation amount in each of the captured images obtained in the continuous shooting mode. It is preferable that a second photographed image group to which each photographed image is distributed is included, and the image storage unit stores each photographed image distributed to the second photographed image group.

前記対応点抽出手段は、前記被写体が人物の場合、前記各撮影画像からそれぞれ人物の顔を検出し、検出した各顔画像から前記対応点を抽出することが好ましい。   Preferably, when the subject is a person, the corresponding point extraction unit detects a person's face from each of the captured images, and extracts the corresponding point from each detected face image.

前記対応点抽出手段は、前記被写体が建物の場合、前記各撮影画像からそれぞれ建物を抽出し、検出した各建物画像から前記対応点を抽出することが好ましい。   When the subject is a building, the corresponding point extraction unit preferably extracts a building from each captured image, and extracts the corresponding point from each detected building image.

また、本発明の複眼撮影装置の姿勢検出方法は、カメラ本体に一体に組み込まれた複数の撮像部により、被写体を撮影する撮影ステップと、前記撮影ステップで得られた各撮影画像から、当該各撮影画像にそれぞれ存在する共通の特徴的な点を示す対応点を抽出する対応点抽出ステップと、前記各撮影画像のそれぞれにおける、互いに対応する前記対応点の位置を比較することにより、前記各撮影画像の撮影時におけるカメラ本体の姿勢を検出する姿勢検出ステップと、を有することを特徴とする。   Further, the posture detection method of the compound eye photographing device of the present invention includes a photographing step of photographing a subject by a plurality of imaging units integrated in the camera body, and each of the photographed images obtained in the photographing step. A corresponding point extracting step for extracting corresponding points indicating common characteristic points respectively present in the photographed images, and comparing the positions of the corresponding points in the respective photographed images with each other, And a posture detecting step for detecting the posture of the camera body at the time of taking an image.

本発明の複眼撮影装置及びその姿勢検出方法は、複数の撮像手段により得られた各撮影画像からそれぞれ対応点を抽出し、抽出した対応点の位置の比較した結果に基づき、カメラ本体の姿勢を検出するようにしたので、カメラ本体に姿勢検知センサ等を設けることなく、低コストにカメラ本体の姿勢を検出することができる。   The compound eye photographing apparatus and the posture detection method of the present invention extract the corresponding points from each captured image obtained by the plurality of imaging means, and based on the result of comparing the positions of the extracted corresponding points, the posture of the camera body is determined. Since the detection is made, the posture of the camera body can be detected at low cost without providing a posture detection sensor or the like in the camera body.

予め定めたカメラ本体の基準姿勢と、撮影時のカメラ本体の姿勢とのずれ量を求め、求めたずれ量の大きさに応じて各撮影画像を複数の撮影画像グループのいずれかに振り分けるようにしたので、記憶媒体に記憶された個々の各撮影画像ついて、カメラ本体が傾き姿勢にあるときに撮影された不具合のある画像であるか否かの判別を容易に行うことができる。   Determining the amount of deviation between the camera body's predetermined reference posture and the posture of the camera body at the time of shooting, and assigning each shot image to one of multiple shot image groups according to the magnitude of the obtained deviation amount Therefore, it is possible to easily determine whether or not each captured image stored in the storage medium is a defective image captured when the camera body is in the tilted posture.

各撮影画像からそれぞれ複数の対応点を抽出し、これら複数の互いに対応する対応点の位置を比較してカメラ本体の姿勢を検出することで、1組の対応点の位置の比較結果に基づいてずれ量を決定した場合と比較して、精度よくずれ量を求めることができる。   A plurality of corresponding points are extracted from each captured image, and the positions of the corresponding corresponding points are compared to detect the posture of the camera body. Compared with the case where the amount of deviation is determined, the amount of deviation can be obtained with higher accuracy.

複数の互いに対応する対応点の位置の比較結果に対して、視差の大きさに応じた重み付けを行うようにしたので、最至近の被写体から抽出された対応点の位置の比較結果、つまり、カメラ本体の姿勢をより正確に反映した対応点の位置の比較結果が重視されるため、より精度よくずれ量を求めることができる。   Since the comparison results of the positions of corresponding points corresponding to each other are weighted according to the magnitude of the parallax, the comparison results of the positions of corresponding points extracted from the closest subject, that is, the camera Since the comparison result of the position of the corresponding point that more accurately reflects the posture of the main body is emphasized, the deviation amount can be obtained more accurately.

複数の互いに対応する対応点の中で、最も視差が大きくなる対応点同士の位置の比較結果、つまり、カメラ本体の姿勢を最も正確に反映した対応点の位置の比較結果に基づき、カメラ本体の姿勢を検出することにより、簡単かつ精度よくずれ量を求めることができる。   Based on the comparison result of the positions of the corresponding points having the largest parallax among the corresponding points corresponding to each other, that is, the comparison result of the position of the corresponding point that most accurately reflects the posture of the camera body, By detecting the posture, the amount of deviation can be obtained easily and accurately.

ずれ量が、第1しきい値以上でかつ第2しきい値未満となる前記各撮影画像に対して、ずれ量が第1しきい値以下となるように画像処理を施すことにより、カメラ本体が傾き姿勢にあるときに撮影を行った場合でも不具合のない画像が得られる。   By performing image processing so that the deviation amount is equal to or less than the first threshold value for each photographed image whose deviation amount is equal to or greater than the first threshold value and less than the second threshold value, Even if a picture is taken when is in a tilted position, an image having no malfunction can be obtained.

連写撮影モード時に、ずれ量が最小となる各撮影画像を選択して記憶媒体に記憶させるようにしたので、記憶媒体に記憶される画像のデータ量を減らすことができる。   In the continuous shooting mode, each captured image with the smallest deviation is selected and stored in the storage medium, so that the data amount of the image stored in the storage medium can be reduced.

本発明の複眼カメラの正面斜視図である。It is a front perspective view of the compound eye camera of the present invention. 複眼カメラの背面斜視図である。It is a rear perspective view of a compound eye camera. 複眼カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electrical constitution of a compound eye camera. 図3の記憶制御部の機能ブロック図である。FIG. 4 is a functional block diagram of a storage control unit in FIG. 3. 顔画像からの特徴点及び対応点の抽出方法を説明するための説明図である。It is explanatory drawing for demonstrating the extraction method of the feature point and corresponding point from a face image. 振分部による振り分け処理の条件を説明するための説明図である。It is explanatory drawing for demonstrating the conditions of the distribution process by a distribution part. ステレオ撮影を行う際の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process at the time of performing stereo imaging | photography. 基準姿勢でステレオ撮影が行われた場合の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process when stereo imaging | photography is performed with the reference | standard attitude | position. 傾き姿勢でステレオ撮影が行われた場合の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process when stereo imaging | photography is performed by the inclination attitude | position. トリミング処理を説明するための説明図である。It is explanatory drawing for demonstrating a trimming process. 連写撮影モード時における処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process at the time of continuous shooting mode. 連写撮影モード時において、特殊振分処理を実行する際の処理の流れを説明するための説明図である。It is explanatory drawing for demonstrating the flow of a process at the time of performing a special distribution process in the continuous shooting imaging | photography mode. 建物画像からの特徴点及び対応点の抽出方法を説明するための説明図である。It is explanatory drawing for demonstrating the extraction method of the feature point and corresponding point from a building image. フレーミング用のガイド表示を説明するための説明図である。It is explanatory drawing for demonstrating the guide display for framing.

図1に示すように、複眼カメラ10のカメラ本体11の前面には、左右一対の第1及び第2撮像部12,13、ストロボ発光部14等が設けられている。両撮像部12,13は、カメラ本体11に一体に組み込まれており、互いの光軸が略平行またはハ字状となるように所定間隔を隔てて設けられている。なお、図中のカメラ本体11は、各撮像部12,13の配列方向が水平線に対して略平行となる基準姿勢にある。カメラ本体11の上面には、シャッタボタン15、電源スイッチ16が設けられている。   As shown in FIG. 1, a pair of left and right first and second imaging units 12 and 13, a strobe light emitting unit 14, and the like are provided on the front surface of the camera body 11 of the compound-eye camera 10. Both the imaging units 12 and 13 are integrally incorporated in the camera body 11 and are provided at a predetermined interval so that their optical axes are substantially parallel to each other or have a letter C shape. The camera body 11 in the figure is in a reference posture in which the arrangement direction of the imaging units 12 and 13 is substantially parallel to the horizontal line. A shutter button 15 and a power switch 16 are provided on the upper surface of the camera body 11.

図2に示すように、カメラ本体11の背面には、液晶ディスプレイ(以下、LCDという)18、操作部19が設けられている。また、カメラ本体11の底面には、図示は省略するが、メモリカード(撮影画像記憶手段、記憶媒体)20が着脱自在に装填されるカードスロットと、このカードスロットの開口を開閉する装填蓋とが設けられている。   As shown in FIG. 2, a liquid crystal display (hereinafter referred to as LCD) 18 and an operation unit 19 are provided on the back surface of the camera body 11. Although not shown, the bottom surface of the camera body 11 has a card slot into which a memory card (photographed image storage means, storage medium) 20 is detachably loaded, and a loading lid that opens and closes the opening of the card slot. Is provided.

LCD18は、撮影待機状態時には電子ビューファインダとして機能し、スルー画像(ライブビュー画像ともいう)を表示する。なお、スルー画像表示とは、各撮像部12,13がそれぞれ所定のフレームレートで撮像した画像を即時にLCD18に表示することである。また、画像再生時にはメモリカード20に記録されている画像データに基づき、LCD18に画像が再生表示される。   The LCD 18 functions as an electronic viewfinder in a shooting standby state, and displays a through image (also referred to as a live view image). The through image display means that an image captured by each of the imaging units 12 and 13 at a predetermined frame rate is immediately displayed on the LCD 18. Further, at the time of image reproduction, the image is reproduced and displayed on the LCD 18 based on the image data recorded on the memory card 20.

操作部19は、モード切替スイッチ22、メニューボタン23、十字キー24、実行キー25などから構成されている。モード切替スイッチ22は、複眼カメラ10の動作モードを切り替える際に操作される。動作モードには、静止画撮影を行う静止画撮影モード、動画撮影を行う動画撮影モード、及び撮影により得られた撮影画像をLCD18に再生表示する再生モードなどある。静止画撮影モードでは、例えば立体視用の左視点画像(以下、基準画像という)と右視点画像(以下、参照画像という)とを撮影する。なお、右視点画像が基準画像であって、左視点画像が参照画像であってもよい。   The operation unit 19 includes a mode switch 22, a menu button 23, a cross key 24, an execution key 25, and the like. The mode switch 22 is operated when switching the operation mode of the compound eye camera 10. The operation modes include a still image shooting mode in which still image shooting is performed, a moving image shooting mode in which moving image shooting is performed, and a playback mode in which a captured image obtained by shooting is played back and displayed on the LCD 18. In the still image shooting mode, for example, a left viewpoint image for stereoscopic viewing (hereinafter referred to as a reference image) and a right viewpoint image (hereinafter referred to as a reference image) are captured. Note that the right viewpoint image may be a reference image, and the left viewpoint image may be a reference image.

メニューボタン23は、LCD18にメニュー画面や設定画面を表示する際などに操作される。十字キー24は、メニュー画面や設定画面内に表示されるカーソルを移動する際などに操作される。実行キー25は、カメラの設定を確定する際などに操作される。   The menu button 23 is operated when a menu screen or a setting screen is displayed on the LCD 18. The cross key 24 is operated when moving a cursor displayed on the menu screen or the setting screen. The execution key 25 is operated when confirming the setting of the camera.

図3に示すように、CPU33は、シャッタボタン15及び操作部19からの入力信号に基づき、図示しないROMから読み出した各種プログラムやデータを逐次実行することで、複眼カメラ10の各部を統括的に制御する。   As shown in FIG. 3, the CPU 33 executes various programs and data read from a ROM (not shown) sequentially based on input signals from the shutter button 15 and the operation unit 19, thereby centralizing each unit of the compound eye camera 10. Control.

SDRAM34は、CPU33が処理を実行するためのワークメモリとして機能する。VRAM35は、連続した2フィールド画分を記憶するスルー画像用のメモリエリアを有し、表示用の画像データを一時的に記憶する。   The SDRAM 34 functions as a work memory for the CPU 33 to execute processing. The VRAM 35 has a through-image memory area for storing continuous two-field fractions, and temporarily stores image data for display.

第1撮像部12は、撮影レンズ37が組み込まれたレンズユニット38、CCDイメージセンサ(以下、CCDという)39、AFE(アナログフロントエンド)40などから構成される。なお、CCDの代わりにMOS型のイメージセンサを用いてもよい。   The first imaging unit 12 includes a lens unit 38 in which a photographing lens 37 is incorporated, a CCD image sensor (hereinafter referred to as CCD) 39, an AFE (analog front end) 40, and the like. A MOS type image sensor may be used instead of the CCD.

レンズユニット38には、図示しないズーム機構、フォーカス機構、絞り装置が組み込まれている。ズーム機構は、撮影レンズ37を移動してズーミングを行う。フォーカス機構は、撮影レンズ37に組み込まれたフォーカスレンズを移動してピント合せを行う。絞り装置は、図示しない絞りを調節することで、CCD39に入射する被写体光の強度を調節する。ズーム機構、フォーカス機構、絞り装置は、レンズドライバ41を介してCPU33によって動作制御される。   The lens unit 38 incorporates a zoom mechanism, a focus mechanism, and a diaphragm device (not shown). The zoom mechanism moves the photographing lens 37 to perform zooming. The focus mechanism moves the focus lens incorporated in the photographing lens 37 to perform focusing. The diaphragm device adjusts the intensity of subject light incident on the CCD 39 by adjusting a diaphragm (not shown). The zoom mechanism, the focus mechanism, and the aperture device are controlled by the CPU 33 via the lens driver 41.

撮影レンズ37の背後には、多数のフォトダイオードが受光面に並べられたCCD39が配置され、撮影レンズ37からの被写体光を電気的な撮像信号に変換して出力する。CCD39には、CPU33によって制御されるCCDドライバ42が接続されている。CCDドライバ42は、TG(Timing Generator)43からの同期パルスによって駆動され、CCD39の電荷蓄積時間と電荷読み出し転送タイミングを制御する。   Behind the photographic lens 37 is a CCD 39 in which a large number of photodiodes are arranged on the light receiving surface, and converts the subject light from the photographic lens 37 into an electrical imaging signal and outputs it. A CCD driver 42 controlled by the CPU 33 is connected to the CCD 39. The CCD driver 42 is driven by a synchronization pulse from a TG (Timing Generator) 43, and controls the charge accumulation time and charge read transfer timing of the CCD 39.

CCD39から出力された撮像信号は、AFE40に入力される。AFE40は、CDS(相関二重サンプリング)回路、AGC(自動ゲイン調整アンプ)、A/D変換器から構成され、TG43からの同期パルスが入力されることで、CCD39の電荷読み出し転送動作と同期して作動する。CDS回路は、相関二重サンプリングを行って撮像信号からノイズを除去する。AGC回路は、CPU33によって設定される撮影感度に応じたゲインで撮像信号を増幅する。A/D変換器は、AGC回路からのアナログの撮像信号をデジタルな基準画像信号に変換し、変換した基準画像信号を画像入力コントローラ45へ送る。   The imaging signal output from the CCD 39 is input to the AFE 40. The AFE 40 is composed of a CDS (correlated double sampling) circuit, an AGC (automatic gain adjustment amplifier), and an A / D converter. By receiving a synchronization pulse from the TG 43, the AFE 40 is synchronized with the charge readout transfer operation of the CCD 39. Works. The CDS circuit performs correlated double sampling to remove noise from the imaging signal. The AGC circuit amplifies the imaging signal with a gain corresponding to the imaging sensitivity set by the CPU 33. The A / D converter converts the analog imaging signal from the AGC circuit into a digital reference image signal, and sends the converted reference image signal to the image input controller 45.

第2撮像部13は、第1撮像部12と同じ構成であり、レンズユニット47、CCD48、AFE49、レンズドライバ50、CCDドライバ51、TG52などから構成され、参照画像信号を画像入力コントローラ45へ送る。   The second imaging unit 13 has the same configuration as the first imaging unit 12 and includes a lens unit 47, a CCD 48, an AFE 49, a lens driver 50, a CCD driver 51, a TG 52, and the like, and sends a reference image signal to the image input controller 45. .

CPU33には、バス54を介して、SDRAM34、VRAM35、画像入力コントローラ45、信号処理回路56、AF検出回路57、AE/AWB検出回路58、トリミング処理回路(画像処理手段)59、圧縮伸張処理回路60、メディアコントローラ61、表示回路62等が接続されている。   The CPU 33 is connected to the SDRAM 34, VRAM 35, image input controller 45, signal processing circuit 56, AF detection circuit 57, AE / AWB detection circuit 58, trimming processing circuit (image processing means) 59, compression / decompression processing circuit via the bus 54. 60, a media controller 61, a display circuit 62, and the like are connected.

画像入力コントローラ45は、所定容量のバッファを有しており、第1及び第2撮像部12,13からそれぞれ出力された基準,参照画像信号を蓄積し、それぞれ1フレーム分の基準,参照画像信号が蓄積されたときに、1フレーム分の画像に対応する基準,参照画像信号を信号処理回路56へ送る。   The image input controller 45 has a buffer of a predetermined capacity, accumulates the standard and reference image signals output from the first and second imaging units 12 and 13, respectively, and each of the standard and reference image signals for one frame. Is stored, a standard and reference image signal corresponding to an image for one frame is sent to the signal processing circuit 56.

信号処理回路56は、画像入力コントローラ45からの基準,参照画像信号に対して階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種処理を施すことで、それぞれ1フレームの画像に対応する基準,参照画像データを生成し、これらをVRAM35に格納する。   The signal processing circuit 56 performs various processing such as gradation conversion, white balance correction, γ correction processing, and YC conversion processing on the standard and reference image signals from the image input controller 45, thereby converting each of the images into one frame image. Corresponding standard and reference image data are generated and stored in the VRAM 35.

AF検出回路57は、画像入力コントローラ45からの基準,参照画像信号に基づき、基準,参照画像ごとにコントラストを評価したAF評価値を算出する。CPU33は、AF検出回路57からのAF評価値に基づき、レンズドライバ41,50を制御して、撮影レンズ37のピント調節を行う。   The AF detection circuit 57 calculates an AF evaluation value obtained by evaluating the contrast for each standard and reference image based on the standard and reference image signals from the image input controller 45. The CPU 33 controls the lens drivers 41 and 50 based on the AF evaluation value from the AF detection circuit 57 to adjust the focus of the photographing lens 37.

AE/AWB検出回路58は、基準,参照画像信号に基づき、被写体輝度の検出と、ホワイトバランス補正に用いられるWB評価値の算出とを行う。CPU33は、AE/AWB検出回路58からの被写体輝度情報に基づき、レンズドライバ41,50やCCDドライバ42,51を制御して、露出制御を行う。また、CPU33は、AE/AWB検出回路58からのWB評価値に基づき、被写体像のホワイトバランスが適正となるように、信号処理回路56を制御する。   The AE / AWB detection circuit 58 detects subject luminance and calculates a WB evaluation value used for white balance correction based on the standard and reference image signals. The CPU 33 controls the lens drivers 41 and 50 and the CCD drivers 42 and 51 based on the subject luminance information from the AE / AWB detection circuit 58 to perform exposure control. Further, the CPU 33 controls the signal processing circuit 56 so that the white balance of the subject image is appropriate based on the WB evaluation value from the AE / AWB detection circuit 58.

トリミング処理回路59は、CPU33の制御の下に、VRAM35から基準,参照画像データを読み出して、CPU33が指定した画像範囲(領域)を基準,参照画像データから切り出す。   The trimming processing circuit 59 reads the standard and reference image data from the VRAM 35 under the control of the CPU 33, and cuts out the image range (area) designated by the CPU 33 from the standard and reference image data.

圧縮伸張処理回路60は、シャッタボタン15が押下された時に、VRAM35に格納された非圧縮の基準,参照画像データに圧縮処理を行い、所定のファイル形式の基準,参照圧縮画像データを生成する。また、圧縮伸張処理回路60は、画像再生時にはメモリカード20に記録された基準,参照圧縮画像データに伸張処理を行い、非圧縮の基準,参照画像データを生成する。メディアコントローラ61は、メモリカード20に対する画像データの記録、及び読み出しなどを行う。   The compression / decompression processing circuit 60 performs compression processing on the non-compressed standard and reference image data stored in the VRAM 35 when the shutter button 15 is pressed, and generates standard and reference compressed image data of a predetermined file format. The compression / decompression processing circuit 60 performs decompression processing on the standard and reference compressed image data recorded in the memory card 20 during image reproduction, and generates uncompressed standard and reference image data. The media controller 61 performs recording and reading of image data with respect to the memory card 20.

表示回路62は、VRAM35から読み出した基準画像データ、または圧縮伸張処理回路60で伸張された非圧縮の基準,参照画像データに対し所定の信号処理を施して画像表示用の信号を生成し、これを一定のタイミングでLCD18へ出力する。これにより、各撮影モード時には、基準画像がスルー画像としてLCD18に表示される。また、通常再生モード時には、メモリカード20から読み出された画像データがLCD18に表示される。なお、基準,参照画像をそれぞれスルー画像としてLCD18に2画面表示してもよい。   The display circuit 62 performs predetermined signal processing on the standard image data read from the VRAM 35 or the uncompressed standard and reference image data expanded by the compression / decompression processing circuit 60 to generate a signal for image display. Is output to the LCD 18 at a fixed timing. Thus, the reference image is displayed on the LCD 18 as a through image in each shooting mode. In the normal playback mode, the image data read from the memory card 20 is displayed on the LCD 18. Note that the standard image and the reference image may be displayed on the LCD 18 as a through image on two screens.

CPU33は、ROMから読み出した各種プログラムを逐次実行することで、メモリカード20への撮影画像データの記憶を制御する記憶制御部64として機能する。記憶制御部64は、撮影指示がなされたときに、新たにメモリカード20に記憶される基準,参照画像データを解析して、ステレオ撮影時におけるカメラ本体11の姿勢を検出するとともに、この検出結果に応じて基準,参照画像データを別々に振り分けてメモリカード20に記憶させる。   The CPU 33 functions as a storage control unit 64 that controls storage of captured image data in the memory card 20 by sequentially executing various programs read from the ROM. The storage control unit 64 analyzes the reference and reference image data newly stored in the memory card 20 when a shooting instruction is given, detects the posture of the camera body 11 during stereo shooting, and the detection result Accordingly, the reference and reference image data are separately distributed and stored in the memory card 20.

図4に示すように、記憶制御部64は、特徴点抽出部66、対応点抽出部67、位置情報取得部68、姿勢算出部69、視差算出部70、姿勢ずれ量決定部71、及び振分部72からなる。   As shown in FIG. 4, the storage control unit 64 includes a feature point extraction unit 66, a corresponding point extraction unit 67, a position information acquisition unit 68, a posture calculation unit 69, a parallax calculation unit 70, a posture deviation amount determination unit 71, and a vibration It consists of a minute part 72.

特徴点抽出部66及び対応点抽出部67は、本発明の対応点抽出手段に相当するものである。特徴点抽出部66は、基準画像データを解析して、この基準画像データから特徴的な点を示す特徴点74(図5参照)を検出する。この特徴点抽出部66は、顔領域検出機能を有している。   The feature point extraction unit 66 and the corresponding point extraction unit 67 correspond to the corresponding point extraction unit of the present invention. The feature point extraction unit 66 analyzes the reference image data and detects a feature point 74 (see FIG. 5) indicating a characteristic point from the reference image data. The feature point extraction unit 66 has a face area detection function.

図5に示すように、特徴点抽出部66は、基準画像データ75Lから人物A,Bの顔を検出し、検出した顔の周辺領域を顔領域76とする。なお、顔検出方法としては、例えば、色相検出または肌色検出による顔領域検出法等の公知の各種方法を利用することができる。次いで、特徴点抽出部66は、顔領域76内から複数の特徴点74を抽出する。特徴点74は、顔領域76内における画素値の変化が特徴的な点(画素)であり、特に水平及び垂直方向で画素値変化がある角(コーナ)、端点などが好ましい。特徴点抽出法としては、例えば、Harrisの手法、Moravecの手法、Shi−Tomasiの手法などがあり、これらのいずれを用いてもよい。   As shown in FIG. 5, the feature point extraction unit 66 detects the faces of the persons A and B from the reference image data 75 </ b> L, and sets the peripheral area of the detected face as the face area 76. As the face detection method, for example, various known methods such as a face area detection method by hue detection or skin color detection can be used. Next, the feature point extraction unit 66 extracts a plurality of feature points 74 from the face region 76. The feature point 74 is a point (pixel) having a characteristic change in the pixel value in the face region 76, and is particularly preferably a corner (corner) or end point having a change in the pixel value in the horizontal and vertical directions. Examples of the feature point extraction method include a Harris method, a Moravec method, and a Shi-Tomasi method, and any of these may be used.

対応点抽出部67は、特徴点抽出部66による特徴点抽出結果に基づき、基準,参照画像データ75L,75Rを解析して、各特徴点74にそれぞれ対応する対応点77の位置を検出する。対応点検出方法としては、例えば、ブロックマッチング方式、KLT−Tracker方式などがあり、これらのいずれを用いてもよい。なお、特徴点74及び対応点77は、それぞれ本発明の対応点に相当するものである。   The corresponding point extraction unit 67 analyzes the reference and reference image data 75L and 75R based on the feature point extraction result by the feature point extraction unit 66, and detects the position of the corresponding point 77 corresponding to each feature point 74. As a corresponding point detection method, for example, there are a block matching method, a KLT-Tracker method, and the like, and any of these may be used. The feature points 74 and the corresponding points 77 correspond to the corresponding points of the present invention.

図4に戻って、位置情報取得部68は、特徴点抽出結果と対応点抽出結果とに基づき、基準画像内における各特徴点74の位置座標(x,y)と、参照画像内における各対応点77の位置座標(x,y)と、特徴点74及び対応点77の対応関係と、を示す対応座標リスト78を形成する。なお、x,y座標は、例えば基準,参照画像の左下隅の画素を原点としたときの座標である。   Returning to FIG. 4, the position information acquisition unit 68, based on the feature point extraction result and the corresponding point extraction result, the position coordinates (x, y) of each feature point 74 in the standard image and each correspondence in the reference image. A corresponding coordinate list 78 indicating the position coordinates (x, y) of the point 77 and the corresponding relationship between the feature point 74 and the corresponding point 77 is formed. Note that the x and y coordinates are coordinates when the origin is the pixel at the lower left corner of the standard or reference image, for example.

姿勢算出部69は、対応座標リスト78に基づき、個々の互いに対応する特徴点74及び対応点77(以下、単に「特徴・対応点74,77」という)のy座標の差分をそれぞれ求める。このy座標の差分値は、カメラ本体11の姿勢を表す値となる。例えば、両撮像部12,13の配列方向が水平線に対して傾き角度をもつようにカメラ本体11が傾いた姿勢(以下、単に傾き姿勢という)でステレオ撮影が行われた場合、この撮影により得られた基準,参照画像データ75L,75Rでは、特徴・対応点74,77のy座標値にずれが生じる。このy座標値のずれ(差分値)は、カメラ本体11の傾きが大きくなるのに従って大きくなる。   Based on the corresponding coordinate list 78, the posture calculation unit 69 obtains the difference between the y-coordinates of the feature points 74 and the corresponding points 77 (hereinafter simply referred to as “feature / corresponding points 74 and 77”) corresponding to each other. The difference value of the y coordinate is a value representing the posture of the camera body 11. For example, when stereo shooting is performed in a posture in which the camera body 11 is tilted (hereinafter simply referred to as a tilt posture) so that the arrangement direction of the imaging units 12 and 13 has an inclination angle with respect to the horizontal line, In the standard and reference image data 75L and 75R, the y-coordinate values of the feature / corresponding points 74 and 77 are shifted. The deviation (difference value) of the y coordinate value increases as the tilt of the camera body 11 increases.

視差算出部70は、対応座標リスト78に基づき、各特徴・対応点74,77の視差の大きさをそれぞれ求める。具体的には、各特徴・対応点74,77のx座標の差分を、視差の大きさ(視差量)として求める。   The parallax calculation unit 70 obtains the parallax magnitudes of the features / corresponding points 74 and 77 based on the corresponding coordinate list 78. Specifically, the difference between the x coordinates of the features / corresponding points 74 and 77 is obtained as the magnitude of parallax (parallax amount).

姿勢ずれ量決定部71は、各特徴・対応点74,77のy座標の差分値、及び視差量に基づき、ステレオ撮影時におけるカメラ本体11の姿勢と、上述の基準姿勢とのずれ量(以下、姿勢ずれ量という)を決定する。カメラ本体11の姿勢は、各特徴・対応点74,77のy座標の差分値で表されるが、各特徴・対応点74,77が抽出された被写体が複数存在する場合には、y座標の差分値にばらつきが生じる。   The posture deviation amount determination unit 71 determines the deviation amount between the posture of the camera body 11 during stereo shooting and the above-described reference posture based on the difference value of the y coordinate of each feature / corresponding point 74 and 77 and the amount of parallax (hereinafter referred to as the reference posture). , Referred to as the amount of posture deviation). The posture of the camera body 11 is represented by the difference value of the y-coordinate of each feature / corresponding point 74, 77. If there are a plurality of subjects from which each feature / corresponding point 74, 77 is extracted, the y-coordinate Variation occurs in the difference value.

具体的には、カメラ本体11の傾き角度が同じであっても、遠距離側の被写体から抽出された特徴・対応点74,77のy座標の差分値よりも、近距離側の被写体から抽出された特徴・対応点74,77のy座標の差分値の方が大きくなる。これは、後者の方がカメラ本体11の姿勢の傾きをより正確に反映した値となるためである。各特徴・対応点74,77のうち、いずれの点がより近距離側の被写体から抽出されたかについては、より近距離側の被写体から抽出された特徴・対応点74,77の方が視差量の値が大きくなるため、視差量の大きさを比較することで判別可能である。   Specifically, even if the tilt angle of the camera body 11 is the same, it is extracted from the subject on the near side rather than the y coordinate difference value of the feature / corresponding points 74 and 77 extracted from the subject on the far side. The difference value between the y coordinates of the feature / corresponding points 74 and 77 thus made becomes larger. This is because the latter is a value that more accurately reflects the inclination of the posture of the camera body 11. Regarding which of the features / corresponding points 74 and 77 is extracted from the subject on the closer distance side, the feature / corresponding points 74 and 77 extracted from the subject on the closer distance side are more parallax. Since the value of becomes larger, it can be determined by comparing the amount of parallax.

そこで、姿勢ずれ量決定部71は、個々の特徴・対応点74,77のy座標の差分値に対して、視差量の大きさに応じた重み付け処理を行う。具体的には、視差量の大きな特徴・対応点74,77のy座標の差分値をより重視するため、特徴・対応点74,77の視差量が大きくなるのに従い、より値の大きな重み付け係数でy座標の差分値を重み付けする。次いで、姿勢ずれ量決定部71は、重み付けされた各y座標の差分値に基づき、姿勢ずれ量を求める。   Therefore, the posture deviation amount determination unit 71 performs weighting processing according to the magnitude of the parallax amount on the difference value of the y-coordinates of the individual feature / corresponding points 74 and 77. Specifically, in order to give more importance to the y-coordinate difference value of the feature / corresponding points 74 and 77 having a large amount of parallax, the weighting coefficient having a larger value as the parallax amount of the feature / corresponding points 74 and 77 becomes larger. To weight the difference value of the y coordinate. Next, the posture deviation amount determination unit 71 obtains a posture deviation amount based on the weighted difference value of each y coordinate.

例えば、視差量を考慮しない場合には、特徴点iの基準画像の位置を(x1i,y1i)、参照画像の位置を(x2i,y2i)とし、重み付け係数をAiとしたときに、姿勢ずれ量Wは下記式(1)で表される。
式(1):姿勢ずれ量W={ΣAi×|y1i−y2i|}/ΣAi
この式(1)は、重み付けを行わない場合に、W=Σ|y1i−y2i|/nとなり、各y座標の差分値の単純平均となる。
For example, when the amount of parallax is not taken into account, when the position of the base image of the feature point i is (x1i, y1i), the position of the reference image is (x2i, y2i), and the weighting coefficient is Ai, the posture deviation amount W is represented by the following formula (1).
Expression (1): Posture displacement amount W = {ΣAi × | y1i−y2i |} / ΣAi
This formula (1) is W = Σ | y1i−y2i | / n when weighting is not performed, and is a simple average of the difference values of the respective y coordinates.

このように、視差量を考慮しない場合の姿勢ずれ量が式(1)のように表されるため、視差量を考慮した場合には、視差量∝|x1i−x2i|から、姿勢ずれ量Wは下記式(2)のように表される。ここで、式(2)中のBiは、視差量を考慮した場合の重み付け係数である。
式(2):姿勢ずれ量W={ΣBi×|x1i−x2i|×|y1i−y2i|}/{ΣBi×|x1i−x2i|}
Thus, since the amount of posture deviation when the amount of parallax is not taken into consideration is expressed as in equation (1), when the amount of parallax is taken into account, the amount of posture deviation W is calculated from the amount of parallax ∝ | x1i−x2i |. Is represented by the following formula (2). Here, Bi in Expression (2) is a weighting coefficient when the amount of parallax is considered.
Expression (2): Posture displacement amount W = {ΣBix × | x1i−x2i | × | y1i−y2i |} / {ΣBix × | x1i−x2i |}

振分部72は、基準,参照画像データ75L,75Rから求められた姿勢ずれ量に基づき、この基準,参照画像データ75L,75Rを、姿勢ずれ量の大きさに応じて区分された複数の撮影画像グループのいずれかに振り分ける。撮影画像グループは、OK画像グループと、トリミング処理グループ(第1撮影画像グループ)と、NG画像グループとからなる。振分部72には、振分処理を行うために、しきい値1と、しきい値1よりも値が大きいしきい値2とが予め登録されている。   The allocating unit 72, based on the posture deviation amounts obtained from the reference and reference image data 75L and 75R, divides the reference and reference image data 75L and 75R into a plurality of images that are divided according to the magnitude of the posture deviation amount. Assign to one of the image groups. The photographed image group includes an OK image group, a trimming process group (first photographed image group), and an NG image group. In the distribution unit 72, a threshold value 1 and a threshold value 2 that is larger than the threshold value 1 are registered in advance in order to perform the distribution process.

しきい値1は、立体視に問題のない基準,参照画像データ75L,75Rが得られる姿勢ずれ量の最大値である。また、しきい値2は、そのままでは立体視に不具合が生じるが、トリミング処理により立体視が可能になるような基準,参照画像データ75L,75Rが得られる姿勢ずれ量の最大値である。なお、姿勢ずれ量がしきい値2を上回った場合は、カメラ本体11の傾きが大きく、基準,参照画像データ75L,75Rにトリミング処理等の画像処理を行ったとしても、立体視に不具合が生じる。   The threshold value 1 is a maximum value of the amount of posture deviation from which the reference image data 75L and 75R with which there is no problem in stereoscopic vision is obtained. The threshold value 2 is the maximum value of the posture deviation amount from which the reference and reference image data 75L and 75R can be obtained by which the stereoscopic view can be obtained by the trimming process even though the stereoscopic view is not suitable as it is. When the amount of posture deviation exceeds the threshold value 2, the camera body 11 has a large inclination, and even if image processing such as trimming processing is performed on the reference and reference image data 75L and 75R, there is a problem with stereoscopic viewing. Arise.

図6に示すように、振分部72は、姿勢ずれ量がしきい値1以下の場合、基準,参照画像データ75L,75RをOK画像グループに振り分ける。また、振分部72は、姿勢ずれ量がしきい値1を上回るがしきい値2以下の場合、基準,参照画像データ75L,75Rをトリミング処理グループに振り分ける。さらに、振分部72は、姿勢ずれ量がしきい値2を上回る場合、基準,参照画像データ75L,75RをNG画像グループに振り分ける。   As shown in FIG. 6, the distribution unit 72 distributes the reference and reference image data 75 </ b> L and 75 </ b> R to the OK image group when the posture deviation amount is equal to or less than the threshold value 1. Further, the distribution unit 72 distributes the reference and reference image data 75L and 75R to the trimming process group when the amount of posture deviation exceeds the threshold value 1 but is equal to or less than the threshold value 2. Further, the distribution unit 72 distributes the standard and reference image data 75L and 75R to the NG image group when the posture deviation amount exceeds the threshold value 2.

図4に戻って、OK画像グループに振り分けられた基準,参照画像データ75L,75Rは、メモリカード20内のOK画像格納部20aに記憶される。トリミング処理グループに振り分けられた基準,参照画像データ75L,75Rは、トリミング処理回路59に送られる。また、NG画像グループに振り分けられた基準,参照画像データ75L,75R(以下、適宜「NG画像データ」という)は、メモリカード20内のNG画像格納部20bに記憶、あるいは破棄される。なお、NG画像データを破棄するか否かは、操作部19で設定される。   Returning to FIG. 4, the reference and reference image data 75 </ b> L and 75 </ b> R assigned to the OK image group are stored in the OK image storage unit 20 a in the memory card 20. The reference and reference image data 75L and 75R distributed to the trimming processing group are sent to the trimming processing circuit 59. Further, the standard and reference image data 75L and 75R (hereinafter referred to as “NG image data” as appropriate) distributed to the NG image group are stored or discarded in the NG image storage unit 20b in the memory card 20. Whether or not to discard the NG image data is set by the operation unit 19.

メモリカード20に記憶された基準,参照画像データ75L,75Rは、図示しない立体画像表示装置にて再生される。   The reference and reference image data 75L and 75R stored in the memory card 20 are reproduced by a stereoscopic image display device (not shown).

次に、図7に示すフローチャートを用いて、上記構成の複眼カメラ10でステレオ撮影を行う際の処理の流れについて説明する。複眼カメラ10の電源がONされると、CPU33がROMから制御プログラムをロードし、複眼カメラ10の動作制御を開始する。次いで、ステレオ撮影を行う場合には、モード切替スイッチ22を静止画撮影モードに設定する。   Next, the flow of processing when performing stereo shooting with the compound-eye camera 10 having the above-described configuration will be described using the flowchart shown in FIG. When the power of the compound eye camera 10 is turned on, the CPU 33 loads a control program from the ROM and starts operation control of the compound eye camera 10. Next, when performing stereo shooting, the mode switch 22 is set to the still image shooting mode.

静止画撮影モードが設定されると、各撮像部12,13の撮影レンズ37を介して入射された被写体光は、CCD39,48において光電変換され、さらにAFE40,49においてデジタル画像信号に変換される。各撮像部12,13から出力された基準,参照画像信号は、画像入力コントローラ45を介して信号処理回路56に送られて各種の画像処理が施される。こうして1フレーム分の基準,参照画像データが所定のフレームレートでVRAM35に逐次格納される。CPU33は、表示回路62に対してスルー画像表示指令を発する。   When the still image shooting mode is set, the subject light incident through the shooting lenses 37 of the imaging units 12 and 13 is photoelectrically converted by the CCDs 39 and 48, and further converted into digital image signals by the AFEs 40 and 49. . The reference and reference image signals output from the imaging units 12 and 13 are sent to the signal processing circuit 56 via the image input controller 45 and subjected to various image processing. Thus, the standard and reference image data for one frame are sequentially stored in the VRAM 35 at a predetermined frame rate. The CPU 33 issues a through image display command to the display circuit 62.

表示回路62は、スルー画像表示指令を受けて、VRAM35から基準画像データ75Lを読み出し、基準画像をスルー画像としてLCD18に表示させる。被写体のフレーミング後に、シャッタボタン15が半押しされると、AF検出回路57及びAE/AWB検出回路58が作動して焦点制御や露出制御などの撮影準備処理が行われ、撮影準備状態となる。   The display circuit 62 receives the through image display command, reads the reference image data 75L from the VRAM 35, and causes the LCD 18 to display the reference image as a through image. When the shutter button 15 is half-pressed after the framing of the subject, the AF detection circuit 57 and the AE / AWB detection circuit 58 are operated to perform shooting preparation processing such as focus control and exposure control, and the camera is ready for shooting.

撮影準備完了後、シャッタボタン15の全押し操作に応答してステレオ撮影が実行される。CCD39,48からそれぞれ1フレーム分の画像信号が読み出され、AFE40,49及び信号処理回路56にて所定の信号処理が施され、基準,参照画像データ75L,75RがVRAM35に格納される。   After the preparation for photographing is completed, stereo photographing is executed in response to the full pressing operation of the shutter button 15. Image signals for one frame are read out from the CCDs 39 and 48, respectively, are subjected to predetermined signal processing by the AFEs 40 and 49 and the signal processing circuit 56, and the reference and reference image data 75L and 75R are stored in the VRAM 35.

CPU33の記憶制御部64は、信号処理回路56により新たな基準,参照画像データ75L,75RがVRAM35に格納されるたびに、この基準,参照画像データ75L,75RをVRAM35から読み出す。特徴点抽出部66は、基準画像データ75Lを解析して、顔領域76を検出した後、この顔領域76から複数の特徴点74を抽出する。また、対応点抽出部67は、参照画像データ75Rから各特徴点74に対応する対応点77をそれぞれ抽出する。特徴点抽出部66及び対応点抽出部67は、抽出結果をそれぞれ位置情報取得部68へ送る。   The storage control unit 64 of the CPU 33 reads the standard and reference image data 75L and 75R from the VRAM 35 every time new standard and reference image data 75L and 75R are stored in the VRAM 35 by the signal processing circuit 56. The feature point extraction unit 66 analyzes the reference image data 75L to detect the face region 76, and then extracts a plurality of feature points 74 from the face region 76. Further, the corresponding point extraction unit 67 extracts corresponding points 77 corresponding to the feature points 74 from the reference image data 75R. The feature point extraction unit 66 and the corresponding point extraction unit 67 send the extraction results to the position information acquisition unit 68, respectively.

位置情報取得部68は、特徴点抽出部66及び対応点抽出部67からそれぞれ入力される抽出結果に基づき、基準,参照画像内における各特徴点74及び各対応点77の位置座標を求めて、対応座標リスト78を作成する。位置情報取得部68は、作成した対応座標リスト78を姿勢算出部69と視差算出部70とにそれぞれ送る。   The position information acquisition unit 68 obtains the position coordinates of each feature point 74 and each corresponding point 77 in the reference and reference images based on the extraction results input from the feature point extraction unit 66 and the corresponding point extraction unit 67, respectively. A corresponding coordinate list 78 is created. The position information acquisition unit 68 sends the created corresponding coordinate list 78 to the posture calculation unit 69 and the parallax calculation unit 70, respectively.

姿勢算出部69は、対応座標リスト78に基づき、基準,参照画像内における、各特徴・対応点74,77のy座標値の差分を求める。図8に示すように、カメラ本体11が基準姿勢にあるときに撮影された基準,参照画像データ75L,75Rでは、視差の影響により、各特徴・対応点74,77のx座標値(x1,x2)にずれが生じるのに対し、y座標値(y1,y2)はほぼ同じ値となる。   The posture calculation unit 69 obtains the difference between the y coordinate values of the features / corresponding points 74 and 77 in the standard and reference images based on the corresponding coordinate list 78. As shown in FIG. 8, in the reference and reference image data 75L and 75R taken when the camera body 11 is in the reference posture, the x coordinate values (x1, x2) of the features / corresponding points 74 and 77 due to the influence of parallax. While the deviation occurs in x2), the y coordinate values (y1, y2) are almost the same value.

これに対して、図9に示すように、カメラ本体11が傾き姿勢にあるときに撮影された基準,参照画像データ75L,75Rでは、特徴・対応点74,77のy座標値にもずれ(Δy)が生じる。従って、カメラ本体11に姿勢検知センサを設けることなく、y座標の差分値に基づき、カメラ本体の姿勢が基準姿勢または傾き姿勢のいずれであるかを判別することができる。さらに、後者の場合には、y座標の差分値に基づき傾きの大きさも判別することができる。姿勢検知センサが不要となり、部品数を減らすことができるので、複眼カメラ10の製造コストを下げることができる。姿勢算出部69は、各特徴・対応点74,77のy座標値の差分算出結果を姿勢ずれ量決定部71へ送る。   On the other hand, as shown in FIG. 9, in the reference and reference image data 75L and 75R taken when the camera body 11 is in the tilted posture, the y-coordinate values of the feature / corresponding points 74 and 77 are also shifted ( Δy) occurs. Therefore, it is possible to determine whether the posture of the camera body is the reference posture or the tilt posture based on the difference value of the y coordinate without providing the posture detection sensor in the camera body 11. Further, in the latter case, the magnitude of the inclination can also be determined based on the difference value of the y coordinate. Since the posture detection sensor becomes unnecessary and the number of parts can be reduced, the manufacturing cost of the compound eye camera 10 can be reduced. The posture calculation unit 69 sends the difference calculation result of the y coordinate values of the features / corresponding points 74 and 77 to the posture deviation amount determination unit 71.

図7に戻って、視差算出部70は、対応座標リスト78に基づき、基準,参照画像内における、各特徴・対応点74,77の視差量(x座標の差分値)を求め、求めた視差量算出結果を姿勢ずれ量決定部71へ送る。   Returning to FIG. 7, the parallax calculation unit 70 obtains the parallax amount (difference value of the x coordinate) of each feature / corresponding point 74 and 77 in the standard and reference images based on the corresponding coordinate list 78, and the obtained parallax The amount calculation result is sent to the posture deviation amount determination unit 71.

姿勢ずれ量決定部71は、最初に、視差算出部70からの視差算出結果に基づき、各特徴・対応点77の視差量を比較する。そして、視差量の大きい特徴・対応点74,77ほどより値の大きい重み付け係数が割り当てられるように、各特徴・対応点74,77にそれぞれ割り当てる重み付け係数を決定する。   The posture deviation amount determination unit 71 first compares the parallax amount of each feature / corresponding point 77 based on the parallax calculation result from the parallax calculation unit 70. Then, the weighting coefficient to be assigned to each feature / corresponding point 74, 77 is determined so that the weighting coefficient having a larger value is assigned to the feature / corresponding point 74, 77 having a larger amount of parallax.

次いで、姿勢ずれ量決定部71は、各特徴・対応点74,77のy座標の差分値に対して、それぞれ先に決定した重み付け係数で重み付けを行った後、重み付けされた各y座標の差分値に基づき姿勢ずれ量を求める。複数組の特徴・対応点74,77のy座標の差分値に基づき、姿勢ずれ量を決定することで、1組の特徴・対応点のy座標の差分値に基づき姿勢量を決定した場合と比較して、精度よく姿勢ずれ量を求めることができる。   Next, the posture deviation amount determination unit 71 weights the difference value of the y coordinate of each feature / corresponding point 74, 77 with the weighting coefficient determined in advance, and then the difference of each weighted y coordinate. The amount of posture deviation is obtained based on the value. When the posture amount is determined based on the difference value of the y coordinates of one set of features / corresponding points by determining the amount of posture deviation based on the difference value of the y coordinates of the plurality of sets of features / corresponding points 74 and 77; In comparison, the amount of posture deviation can be obtained with high accuracy.

さらに、視差量の大きさに応じて各y座標の差分値に重み付けを行うことにより、近距離側の被写体から抽出された特徴・対応点74,77のy座標の差分値、つまり、カメラ本体11の姿勢の傾きをより正確に反映したy座標の差分値が重視されるため、より精度よく姿勢ずれ量を求めることができる。姿勢ずれ量決定部71は、求めた姿勢ずれ量を振分部72へ送る。   Further, by weighting the difference value of each y coordinate according to the magnitude of the parallax amount, the difference value of the y coordinate of the feature / corresponding points 74 and 77 extracted from the subject on the short distance side, that is, the camera body Since the difference value of the y coordinate that more accurately reflects the inclination of 11 postures is emphasized, the amount of posture deviation can be obtained more accurately. The posture deviation amount determination unit 71 sends the obtained posture deviation amount to the distribution unit 72.

振分部72は、姿勢ずれ量決定部71から入力された姿勢ずれ量と、しきい値1及びしきい値2とを比較する。振分部72は、姿勢ずれ量がしきい値1以下となる場合、基準,参照画像データ75L,75RをOK画像グループに振り分ける。OK画像グループに振り分けられた基準,参照画像データ75L,75Rは、圧縮伸張処理回路60にて所定のファイル形式で圧縮処理された後、メディアコントローラ61によりOK画像格納部20aに格納される。   The allocating unit 72 compares the posture deviation amount input from the posture deviation amount determining unit 71 with the threshold value 1 and the threshold value 2. The allocating unit 72 allocates the reference and reference image data 75L and 75R to the OK image group when the posture deviation amount is equal to or less than the threshold value 1. The standard and reference image data 75L and 75R assigned to the OK image group are compressed in a predetermined file format by the compression / decompression processing circuit 60 and then stored in the OK image storage unit 20a by the media controller 61.

振分部72は、姿勢ずれ量がしきい値1を上回るがしきい値2以下となる場合、基準,参照画像データ75L,75Rをトリミング処理グループに振り分ける。トリミング処理グループに振り分けられた基準,参照画像データ75L,75Rは、トリミング処理回路59に送られる。   The distribution unit 72 distributes the reference and reference image data 75L and 75R to the trimming processing group when the amount of posture deviation exceeds the threshold value 1 but is equal to or less than the threshold value 2. The reference and reference image data 75L and 75R distributed to the trimming processing group are sent to the trimming processing circuit 59.

図10(A)に示すように、CPU33は、先に姿勢算出部69で算出された各特徴・対応点74,77のy座標の差分値に基づき、基準,参照画像の互いに重複して撮影されている範囲(斜線表示されていない範囲)を、トリミング範囲として決定する。次いで、CPU33は、決定したトリミング範囲情報をトリミング処理回路59へ送るとともに、トリミング処理回路59に対してトリミング指令を発する。   As shown in FIG. 10A, the CPU 33 shoots the reference and reference images overlapping each other based on the difference value of the y coordinate of each feature / corresponding point 74 and 77 previously calculated by the posture calculation unit 69. The displayed range (the range not shaded) is determined as the trimming range. Next, the CPU 33 sends the determined trimming range information to the trimming processing circuit 59 and issues a trimming command to the trimming processing circuit 59.

(B)に示すように、トリミング処理回路59は、トリミング指令を受けて、CPU33が指定したトリミング範囲をそれぞれ基準,参照画像データ75L,75Rから切り出して、基準,参照切出画像データ80L,80Rを生成する。基準,参照切出画像データ80L,80Rでは、トリミング処理前よりも、各特徴・対応点74,77のy座標の差分値が大幅に減少する。これにより、姿勢ずれ量がしきい値1以下になるように補正されたのと同じことになるので、立体視が可能となる。その結果、カメラ本体11が傾き姿勢にあるときにステレオ撮影を行った場合でも、立体視に問題のない画像が得られる。   As shown in (B), the trimming processing circuit 59 receives the trimming command and cuts out the trimming ranges designated by the CPU 33 from the reference and reference image data 75L and 75R, respectively, and the reference and reference cut-out image data 80L and 80R. Is generated. In the reference and reference cut-out image data 80L and 80R, the difference value between the y-coordinates of the feature / corresponding points 74 and 77 is greatly reduced as compared to before the trimming process. This is the same as that corrected so that the posture deviation amount is equal to or less than the threshold value 1, so that stereoscopic viewing is possible. As a result, even when stereo shooting is performed when the camera body 11 is in the tilted posture, an image having no problem in stereoscopic vision can be obtained.

図7に戻って、基準,参照切出画像データ80L,80Rは、圧縮伸張処理回路60にて圧縮処理された後、メディアコントローラ61によりOK画像格納部20aに格納される。   Returning to FIG. 7, the reference and reference cut-out image data 80 </ b> L and 80 </ b> R are compressed by the compression / decompression processing circuit 60 and then stored in the OK image storage unit 20 a by the media controller 61.

振分部72は、姿勢ずれ量がしきい値2を上回る場合、基準,参照画像データ75L,75RをNG画像グループに振り分ける。操作部19にてNG画像データを残す旨の設定がなされている場合、このNG画像データは、圧縮処理された後でNG画像格納部20bに格納される。また、操作部19にてNG画像データを破棄する旨の設定がなされている場合、このNG画像データは破棄される。   The distribution unit 72 distributes the reference and reference image data 75L and 75R to the NG image group when the posture deviation amount exceeds the threshold value 2. When setting is made to leave NG image data in the operation unit 19, the NG image data is stored in the NG image storage unit 20b after being subjected to compression processing. Further, when the operation unit 19 is set to discard the NG image data, the NG image data is discarded.

以下、静止画撮影モードが設定されている間、シャッタボタン15の全押し操作がなされる度に上述の一連の処理が繰り返し実行される。ステレオ撮影により得られた基準,参照画像データの中で立体視に不具合のないものはOK画像格納部20aに順次格納されるとともに、不具合があるものはNG画像格納部20bに格納あるいは破棄される。立体視に不具合ない画像と不具合がある画像とを振り分けて記憶させることができるので、メモリカード20に記憶された基準,参照画像データの中から、立体視に不具合のない基準,参照画像を容易に判別することができる。   Hereinafter, while the still image shooting mode is set, the above-described series of processing is repeatedly executed every time the shutter button 15 is fully pressed. Of the standard and reference image data obtained by stereo shooting, those that are not defective in stereoscopic vision are sequentially stored in the OK image storage unit 20a, and those that are defective are stored or discarded in the NG image storage unit 20b. . Since it is possible to sort and store images that are not defective in stereoscopic vision and images that are defective, it is easy to select standards and reference images that are not defective in stereoscopic vision from the standards and reference image data stored in the memory card 20. Can be determined.

なお、立体視に不具合のあるNG画像データも容易に判別することができるので、このNG画像データのタグにNG画像である旨の付帯情報を付しておき、別の立体画像表示装置等で立体表示する際にNG画像データである旨の警告を行えるようにしてもよい。   In addition, since NG image data having a defect in stereoscopic vision can be easily identified, additional information indicating that the image is an NG image is attached to the tag of the NG image data, and another stereoscopic image display device or the like is used. A warning indicating that the image data is NG image data may be made when performing stereoscopic display.

次に、本発明の第2実施形態の複眼カメラについて説明を行う。この第2実施形態の複眼カメラは、動作モードとして、複数回の撮影を連続して行う連写撮影モードを有している点を除けば、基本的に上記第1実施形態の複眼カメラ10と同じ構成であり、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。   Next, the compound eye camera of 2nd Embodiment of this invention is demonstrated. The compound eye camera of the second embodiment is basically the same as the compound eye camera 10 of the first embodiment except that the operation mode has a continuous shooting mode in which a plurality of times of shooting are continuously performed. Components having the same configuration and the same function and configuration as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

また、第2実施形態の複眼カメラでは、連写撮影モード時に、連写撮影により得られた個々の基準,参照画像データ75L,75Rをそれぞれ上述の各グループのいずれかに振り分ける通常振分処理と、最も姿勢ずれ量の小さい基準,参照画像データ75L,75RをOK画像グループ(第2撮影画像グループに相当)に振り分け、他はNG画像グループに振り分ける特殊振分処理とを選択的に実行することができる。なお、通常振分処理と特殊振分処理とのいずれを実行するかは、操作部19で設定される。   Further, in the compound eye camera of the second embodiment, in the continuous shooting mode, the normal distribution processing for distributing the individual standards and the reference image data 75L and 75R obtained by the continuous shooting to each of the above-described groups, respectively. A special distribution process for distributing the reference image data 75L and 75R with the smallest amount of posture deviation to the OK image group (corresponding to the second captured image group) and the other to the NG image group is performed selectively. Can do. Note that which of the normal distribution process and the special distribution process is performed is set by the operation unit 19.

図11に示すように、モード切替スイッチ22が連写撮影モードに設定された場合、シャッタボタン15が全押しされると、一定間隔で連続的に上述の撮影動作が行われ、得られた基準,参照画像データ75L,75Rは順次VRAM35に格納される。この際に、操作部19で通常振分処理が設定されている場合、記憶制御部64によりVRAM35に新たに格納された基準,参照画像データ75L,75Rが逐次読み出され、上述の第1実施形態で説明したように、姿勢ずれ量の決定処理(特徴点抽出処理等は図示を省略)、振分処理、トリミング処理、記憶または破棄処理が逐次実行される。   As shown in FIG. 11, when the mode switch 22 is set to the continuous shooting mode, when the shutter button 15 is fully pressed, the above-described shooting operation is continuously performed at regular intervals, and the obtained reference is obtained. The reference image data 75L and 75R are sequentially stored in the VRAM 35. At this time, when the normal distribution process is set in the operation unit 19, the reference and reference image data 75L and 75R newly stored in the VRAM 35 are sequentially read out by the storage control unit 64, and the first implementation described above. As described in the embodiment, determination processing for the amount of posture deviation (feature point extraction processing and the like are not shown), sorting processing, trimming processing, storage or discarding processing are sequentially executed.

また、図12に示すように、特殊振分処理が設定されている場合は、VRAM35に新たに格納された基準,参照画像データ75L,75Rが逐次読み出されて、姿勢ずれ量の決定処理が行われた後、この基準,参照画像データ75L,75Rのタグに姿勢ずれ量の値が付帯情報として付加される。この付加後の基準,参照画像データ75L,75Rは、SDRAM34(VRAM35でも可)等に一時的に格納される。以下、シャッタボタン15の全押しが継続している間、上述の処理が繰り返し実行され、SDRAM34に基準,参照画像データ75L,75Rが順次格納される。   Also, as shown in FIG. 12, when the special distribution processing is set, the reference and new reference image data 75L and 75R newly stored in the VRAM 35 are sequentially read out, and the posture deviation amount determination processing is performed. After being performed, the value of the posture deviation amount is added to the tags of the standard and reference image data 75L and 75R as supplementary information. The added standard and reference image data 75L and 75R are temporarily stored in the SDRAM 34 (or the VRAM 35). Thereafter, while the shutter button 15 is fully pressed, the above-described processing is repeatedly executed, and the standard and reference image data 75L and 75R are sequentially stored in the SDRAM 34.

シャッタボタン15の全押しが解除されると、振分部72は、SDRAM34に格納された各基準,参照画像データ75L,75Rのタグを参照して、最も姿勢ずれ量が小さくなる基準,参照画像データ75L,75Rを検索する。次いで、振分部72は、検索した基準,参照画像データ75L,75RをOK画像グループに振り分ける。この基準,参照画像データ75L,75Rは、圧縮処理された後でOK画像格納部20aに格納される。   When the shutter button 15 is fully pressed, the allocating unit 72 refers to the reference and reference image data 75L and 75R tags stored in the SDRAM 34, and the reference and reference image with the smallest amount of posture deviation. Data 75L and 75R are searched. Next, the distribution unit 72 distributes the retrieved standard and reference image data 75L and 75R into OK image groups. The standard and reference image data 75L and 75R are compressed and stored in the OK image storage unit 20a.

また、振分部72は、SDRAM34に格納されている残りの基準,参照画像データ75L,75RをNG画像グループに振り分ける。これら基準,参照画像データ75L,75Rは全て破棄される。これにより、最も姿勢ずれ量が小さい基準,参照画像データ75L,75R、つまり、最も立体視に適した基準,参照画像データ75L,75Rを選択して記憶することができる。その結果、メモリカード20に記憶される画像データのデータ量を減らすことができる。なお、NG画像グループに振り分けられた基準,参照画像データ75L,75Rを破棄する代わりに、第1実施形態と同様に、NG画像格納部20bに格納してもよい。   Further, the distribution unit 72 distributes the remaining reference and reference image data 75L and 75R stored in the SDRAM 34 to NG image groups. These standard and reference image data 75L and 75R are all discarded. As a result, the standard and reference image data 75L and 75R having the smallest posture deviation amount, that is, the standard and reference image data 75L and 75R that are most suitable for stereoscopic viewing can be selected and stored. As a result, the amount of image data stored in the memory card 20 can be reduced. In addition, instead of discarding the standard and reference image data 75L and 75R distributed to the NG image group, it may be stored in the NG image storage unit 20b as in the first embodiment.

上記実施形態では、被写体が人物の場合を例に挙げて説明を行ったが、例えば建物であってもよい。特に建物(建造物、人工物を含む)の画像には、水平及び垂直方向で画素値変化があるコーナや端点が多いため、特徴点74を抽出し易いという利点がある。この場合は、上述の特徴点抽出部66は、顔領域検出機能に加えて建物領域検出機能を有している。   In the above embodiment, the case where the subject is a person has been described as an example. However, for example, it may be a building. In particular, an image of a building (including a building or an artificial object) has an advantage that feature points 74 can be easily extracted because there are many corners and end points that have pixel value changes in the horizontal and vertical directions. In this case, the feature point extraction unit 66 described above has a building area detection function in addition to the face area detection function.

図13に示すように、特徴点抽出部66は、基準画像データ75Lから建物Cを検出し、検出した建物Cの周辺領域を建物領域83とする。特徴点抽出部66は、例えば、予め登録された各種の建物パターン(建物の各部のパターンを含む)のテンプレートデータを用いてパターンマッチング処理を行うことにより、建物Cを検出する。なお、パターンマッチング以外の公知の各種方法を用いてもよい。建物領域83内から特徴点74を抽出する方法は、上記第1実施形態で説明した各種の特徴点抽出法が用いられる。また、参照画像データ75Rから対応点77を抽出する方法も、上記第1実施形態と同じであるため説明は省略する。   As illustrated in FIG. 13, the feature point extraction unit 66 detects a building C from the reference image data 75 </ b> L, and sets a peripheral region of the detected building C as a building region 83. The feature point extraction unit 66 detects the building C, for example, by performing pattern matching processing using template data of various building patterns registered in advance (including patterns of each part of the building). Various known methods other than pattern matching may be used. As a method of extracting the feature points 74 from the building area 83, various feature point extraction methods described in the first embodiment are used. The method for extracting the corresponding points 77 from the reference image data 75R is also the same as that in the first embodiment, and the description thereof is omitted.

上記実施形態では、被写体として人物や建物を例に挙げて説明を行ったが、これら以外の各種物体が被写体となっている場合にも、本発明を適用することができる。   In the above embodiment, a person or a building has been described as an example of the subject. However, the present invention can also be applied to cases where various objects other than these are subjects.

上記実施形態では、LCD18に表示されるスルー画像を確認しながらフレーミングを行うが、この際に、スルー画像にフレーミング用のガイド表示を行ってもよい。例えば、図14に示すように、スルー画像に、水平基準線86及びこれに垂直な垂直基準線87を重畳表示する。複眼カメラ10が傾き姿勢にある場合には、LCD18の画面上で、被写体の水平エッジ及び垂直エッジに対してそれぞれ水平基準線86、垂直基準線87が傾き角をもつ。このため、撮影者に対して、カメラ本体11の姿勢調整を促すことができる。   In the above embodiment, framing is performed while confirming the through image displayed on the LCD 18, but at this time, a framing guide display may be performed on the through image. For example, as shown in FIG. 14, a horizontal reference line 86 and a vertical reference line 87 perpendicular to the horizontal reference line 86 are superimposed on the through image. When the compound eye camera 10 is in an inclined posture, the horizontal reference line 86 and the vertical reference line 87 have an inclination angle on the screen of the LCD 18 with respect to the horizontal edge and the vertical edge of the subject, respectively. For this reason, it is possible to prompt the photographer to adjust the posture of the camera body 11.

なお、フレーミング用のガイド表示の方法は特に限定されず、例えば格子線を表示してもよい。また、例えば、上述の姿勢ずれ量決定部71により求められた姿勢ずれ量の値をスルー画像に重畳表示してもよい。   In addition, the method of the guide display for framing is not specifically limited, For example, you may display a grid line. Further, for example, the value of the posture shift amount obtained by the posture shift amount determination unit 71 described above may be superimposed and displayed on the through image.

上記実施形態では、個々の特徴・対応点74,77のy座標の差分値に対して、視差量の大きさに応じた重み付け処理を行ってから姿勢ずれ量を求めているが、例えば、視差量の最も大きな特徴・対応点74,77、つまり、最至近の被写体から抽出された特徴・対応点74,77のy座標の差分値を、姿勢ずれ量としてもよい。この場合は、重み付け処理を行う場合よりも、姿勢ずれ量の決定処理を簡単(短時間)に行うことができる。   In the above embodiment, the posture deviation amount is obtained after performing the weighting process corresponding to the magnitude of the parallax amount with respect to the difference value of the y coordinate of each feature / corresponding point 74, 77. The feature / corresponding points 74 and 77 having the largest amount, that is, the difference value between the y coordinates of the feature / corresponding points 74 and 77 extracted from the closest subject may be used as the posture deviation amount. In this case, the determination process of the amount of posture deviation can be performed more easily (short time) than when the weighting process is performed.

上記実施形態では、基準,参照画像内の全人物または建物の特徴点74及び対応点77を抽出しているが、例えば、画像中央領域の人物や建物等を主要被写体として決定し、その周辺領域を主要被写体領域として、この主要被写体領域内から特徴点74及び対応点77の抽出を行ってもよい。   In the above embodiment, the feature points 74 and corresponding points 77 of all the persons or buildings in the reference image and the reference image are extracted. For example, the person or building in the center area of the image is determined as the main subject, and its peripheral area And the feature point 74 and the corresponding point 77 may be extracted from the main subject region.

上記実施形態の位置情報取得部68は、基準,参照画像内における各特徴点74、各対応点77の位置座標(x,y)を取得しているが、例えばCCD39、48における、特徴点74及び対応点77にそれぞれ対応する光を受光した受光画素の画素位置を位置座標(x,y)として取得してもよい。   The position information acquisition unit 68 of the above embodiment acquires the position coordinates (x, y) of each feature point 74 and each corresponding point 77 in the standard and reference images. For example, the feature point 74 in the CCDs 39 and 48 is obtained. In addition, the pixel position of the light receiving pixel that receives the light corresponding to each of the corresponding points 77 may be acquired as the position coordinates (x, y).

上記実施形態の姿勢算出部69は、カメラ本体11の姿勢を表す値として、特徴・対応点74,77のy座標の差分値を算出しているが、特徴・対応点74,77の位置座標に基づきカメラ本体11の姿勢を求めることが可能であれば、その方法は特に限定されない。   The posture calculation unit 69 of the above embodiment calculates the difference value of the y coordinates of the feature / corresponding points 74 and 77 as a value representing the posture of the camera body 11. The method is not particularly limited as long as the posture of the camera body 11 can be obtained based on the above.

上記実施形態では、姿勢ずれ量がしきい値1を上回るがしきい値2以下となる場合、基準,参照画像データ75L,75Rにトリミング処理を施しているが、トリミング処理以外の各種画像処理方法を用いて、姿勢ずれ量がしきい値1以下となる基準,参照画像データを生成してもよい。また、姿勢ずれ量がしきい値1を上回る場合は、基準,参照画像内における被写体の姿勢も傾く(図9参照)。このため、姿勢ずれ量に基づき、基準,参照画像(基準,参照画像内の被写体)に対して傾き補正処理(回転補正処理)を施してもよい。   In the above embodiment, when the posture deviation amount exceeds the threshold value 1 but is equal to or less than the threshold value 2, the reference and reference image data 75L and 75R are trimmed, but various image processing methods other than the trimming process are performed. May be used to generate the reference and reference image data in which the amount of posture deviation is equal to or less than the threshold value 1. Further, when the posture deviation amount exceeds the threshold value 1, the posture of the subject in the standard and reference images is also tilted (see FIG. 9). For this reason, an inclination correction process (rotation correction process) may be performed on the reference and reference images (the subject in the reference and reference images) based on the amount of posture deviation.

上記実施形態の複眼カメラは、立体画像表機能を有してないが、レンチキュラ方式、視差バリア方式、パララックスバリア方式、アナグリフ方式等の各種表示方式の立体画像表示装置を備えていてもよい。   The compound eye camera of the above embodiment does not have a stereoscopic image table function, but may include a stereoscopic image display device of various display methods such as a lenticular method, a parallax barrier method, a parallax barrier method, and an anaglyph method.

上記実施形態では、静止画撮影モードや連写撮影モードにおける処理の流れを説明したが、例えば動画撮影モード時のおける処理も、基本的には連写撮影モード時(通常振分処理)の処理と同様の流れとなる。   In the above embodiment, the processing flow in the still image shooting mode or the continuous shooting mode has been described. However, for example, the processing in the moving image shooting mode is basically the processing in the continuous shooting mode (normal distribution processing). The flow is the same.

上記実施形態では、一対の撮像部12,13を有する複眼カメラを例に挙げて説明を行ったが、撮像部を3つ以上有する複眼カメラついても本発明を適用することができる。   In the above embodiment, a compound eye camera having a pair of imaging units 12 and 13 has been described as an example. However, the present invention can also be applied to a compound eye camera having three or more imaging units.

上記実施形態では、ステレオ撮影を行う複眼カメラ10を例に挙げて説明を行ったが、広角のパノラマ画像を生成するパノラマ撮影モードを有する複眼カメラにも本発明を適用することができる。この場合には、複眼カメラに、各撮像部により得られた各撮影画像を合成してパノラマ画像を生成する画像合成回路を設けてもよい。さらに、この場合には、各撮像部の配列方向が水平線に対して略垂直となる姿勢を基準姿勢として定めてもよい。   In the above embodiment, the compound eye camera 10 that performs stereo shooting has been described as an example. However, the present invention can also be applied to a compound eye camera that has a panorama shooting mode that generates a wide-angle panorama image. In this case, the compound eye camera may be provided with an image synthesis circuit that synthesizes the captured images obtained by the imaging units to generate a panoramic image. Furthermore, in this case, a posture in which the arrangement direction of the imaging units is substantially perpendicular to the horizontal line may be defined as the reference posture.

なお、パノラマ撮影モード時において、上記実施形態のしきい値1は、基準,参照画像データ75L,75を合成したときに、つなぎ目がスムーズなパノラマ画像が得られるような姿勢ずれ量の最大値となる。また、しきい値2は、そのままではパノラマ画像に不具合が生じるが、トリミング処理によりつなぎ目がスムーズなパノラマ画像が得られるような姿勢ずれ量の最大値となる。   In the panoramic shooting mode, the threshold value 1 in the above embodiment is the maximum value of the posture deviation amount that can obtain a panoramic image with a smooth joint when the reference and reference image data 75L and 75 are combined. Become. Further, the threshold value 2 is a maximum value of the amount of posture deviation so that a panoramic image has a problem if it is left as it is, but a panoramic image having a smooth joint can be obtained by the trimming process.

10 複眼カメラ
11 カメラ本体
12,13 第1,第2撮像部
20 メモリカード
33 CPU
59 トリミング処理回路
64 記憶制御部
66 特徴点抽出部
67 対応点抽出部
68 位置情報抽出部
69 姿勢算出部
70 視差算出部
72 振分部
74 特徴点
77 対応点
DESCRIPTION OF SYMBOLS 10 Compound eye camera 11 Camera main body 12,13 1st, 2nd imaging part 20 Memory card 33 CPU
59 Trimming processing circuit 64 Storage control unit 66 Feature point extraction unit 67 Corresponding point extraction unit 68 Position information extraction unit 69 Posture calculation unit 70 Parallax calculation unit 72 Distribution unit 74 Feature point 77 Corresponding point

Claims (14)

カメラ本体に一体に組み込まれ、被写体を撮影する複数の撮像手段と、
前記複数の撮像手段により得られた各撮影画像から、当該各撮影画像にそれぞれ存在する共通の特徴的な点を示す対応点を抽出する対応点抽出手段と、
前記各撮影画像のそれぞれにおける、互いに対応する前記対応点の位置を比較することにより、前記各撮影画像の撮影時におけるカメラ本体の姿勢を検出する姿勢検出手段と、
を備えることを特徴とする複眼撮影装置。
A plurality of imaging means that are integrated into the camera body and shoot a subject;
Corresponding point extraction means for extracting corresponding points indicating common characteristic points existing in the respective photographed images from the photographed images obtained by the plurality of imaging means;
Posture detection means for detecting the posture of the camera body at the time of shooting each of the captured images by comparing the positions of the corresponding points corresponding to each other in each of the captured images;
A compound eye photographing apparatus comprising:
前記姿勢検出手段の検出結果に基づき、予め定めたカメラ本体の基準姿勢と、前記撮影時のカメラ本体の姿勢とのずれ量を求め、前記ずれ量の大きさに応じて、前記各撮影画像を、前記ずれ量の大きさにより区分された複数の撮影画像グループのいずれかに振り分ける振分手段と、
前記複数の撮影画像グループの中から、予め選択された撮影画像グループに振り分けられた前記各撮影画像を記憶する画像記憶手段とを備えること特徴とする請求項1記載の複眼撮影装置。
Based on the detection result of the posture detection means, a deviation amount between a predetermined reference posture of the camera body and the posture of the camera body at the time of shooting is obtained, and each captured image is determined according to the magnitude of the deviation amount. Allocating means for allocating to any of a plurality of photographed image groups divided according to the magnitude of the deviation amount;
2. The compound eye photographing apparatus according to claim 1, further comprising image storage means for storing each of the photographed images allocated to a pre-selected photographed image group from the plurality of photographed image groups.
前記基準姿勢は、前記複数の撮像手段の配列方向が水平線に略平行となるカメラ本体の姿勢であり、
前記姿勢検出手段は、前記配列方向が水平線に対して傾き角度をもつようにカメラ本体が傾いたときの、当該カメラ本体の姿勢を検出することを特徴とする請求項2記載の複眼撮影装置。
The reference posture is a posture of the camera body in which an arrangement direction of the plurality of imaging units is substantially parallel to a horizontal line,
The compound eye photographing apparatus according to claim 2, wherein the posture detecting means detects a posture of the camera body when the camera body is tilted so that the arrangement direction has an inclination angle with respect to a horizontal line.
前記姿勢検出手段は、互いに対応する前記対応点の、それぞれの前記各撮影画像内での垂直方向位置を比較することにより、カメラ本体の姿勢を検出することを特徴とする請求項3記載の複眼撮影装置。   The compound eye according to claim 3, wherein the posture detection unit detects the posture of the camera body by comparing the vertical positions of the corresponding points corresponding to each other in the captured images. Shooting device. 前記対応点抽出手段は、前記各撮影画像からそれぞれ前記対応点を複数抽出し、
前記姿勢検出手段は、複数の互いに対応する前記対応点の位置を比較することにより、カメラ本体の姿勢を検出することを特徴とする請求項1ないし4いずれか1項記載の複眼撮影装置。
The corresponding point extracting means extracts a plurality of the corresponding points from each captured image,
5. The compound eye photographing apparatus according to claim 1, wherein the posture detection unit detects the posture of the camera body by comparing positions of the corresponding points corresponding to each other. 6.
前記対応点抽出手段の抽出結果に基づき、複数の互いに対応する前記対応点間の視差を算出する視差算出手段を備え、
前記姿勢検出手段は、複数の互いに対応する前記対応点の位置の比較結果に対して、それぞれ前記視差の大きさに応じた重み付けを行い、重み付け後の前記各比較結果に基づき、カメラ本体の姿勢を検出することを特徴とする請求項5記載の複眼撮影装置。
Based on the extraction result of the corresponding point extracting means, comprising a parallax calculating means for calculating the parallax between the corresponding points corresponding to each other;
The posture detection unit weights the comparison results of the positions of the corresponding points corresponding to each other according to the magnitude of the parallax, and based on the respective comparison results after weighting, the posture of the camera body The compound eye photographing apparatus according to claim 5, wherein:
前記対応点抽出手段は、前記各撮影画像からそれぞれ前記対応点を複数抽出し、
前記対応点抽出手段の抽出結果に基づき、複数の互いに対応する前記対応点間の視差を算出する視差算出手段を備え、
前記姿勢検出手段は、複数の互いに対応する前記対応点の中で、最も視差が大きくなる前記対応点同士の位置を比較することにより、カメラ本体の姿勢を検出することを特徴とする請求項1ないし4いずれか1項記載の複眼撮影装置。
The corresponding point extracting means extracts a plurality of the corresponding points from each captured image,
Based on the extraction result of the corresponding point extracting means, comprising a parallax calculating means for calculating the parallax between the corresponding points corresponding to each other;
The posture detecting means detects the posture of the camera body by comparing the positions of the corresponding points having the largest parallax among the corresponding points corresponding to each other. 5. The compound eye photographing apparatus according to any one of claims 4 to 4.
前記画像記憶手段は、前記ずれ量の大きさが予め定めた第1しきい値以下となるような、前記撮影画像グループに振り分けられた前記各撮影画像を記憶することを特徴とする請求項1ないし7いずれか1項記載の複眼撮影装置。   2. The image storage unit stores each of the captured images allocated to the captured image group such that the magnitude of the shift amount is equal to or less than a predetermined first threshold value. The compound eye photographing device according to any one of Items 7 to 7. 前記複数の撮影画像グループには、前記ずれ量が、前記第1しきい値を上回り、かつ当該第1しきい値よりも大きな第2しきい値以下となる前記各撮影画像が振り分けられる第1撮影画像グループが含まれており、
前記第1撮影画像グループに振り分けられた前記各撮影画像に対して、前記ずれ量が前記第1しきい値以下となるように画像処理を施す画像処理手段を備えることを特徴とする請求項8記載の複眼撮影装置。
Each of the plurality of captured image groups is assigned with each of the captured images in which the shift amount is greater than the first threshold and less than or equal to a second threshold greater than the first threshold. Contains a group of captured images,
9. The image processing unit according to claim 8, further comprising an image processing unit configured to perform image processing on each of the captured images distributed to the first captured image group so that the shift amount is equal to or less than the first threshold value. The compound eye photographing apparatus described.
前記画像処理手段は、前記各撮影画像から互いに重複して撮影されている画像範囲を切り出すトリミング処理を行うことを特徴とする請求項9記載の複眼撮影装置。   10. The compound eye photographing apparatus according to claim 9, wherein the image processing means performs a trimming process for cutting out an image range that is photographed overlapping each other from the photographed images. 複数回の撮影を連続して行う連写撮影モードを有し、
前記複数の撮影画像グループには、前記連写撮影モード時に得られた前記各撮影画像の中で、前記ずれ量が最小となる前記各撮影画像が振り分けられる第2撮影画像グループが含まれており、
前記画像記憶手段は、前記第2撮影画像グループに振り分けられた前記各撮影画像を記憶することを特徴とする請求項1ないし7いずれか1項記載の複眼撮影装置。
It has a continuous shooting mode that performs multiple shots continuously,
The plurality of photographed image groups include a second photographed image group to which the photographed images having the smallest deviation amount are distributed among the photographed images obtained in the continuous photographing mode. ,
8. The compound eye photographing apparatus according to claim 1, wherein the image storage unit stores each of the photographed images allocated to the second photographed image group. 9.
前記対応点抽出手段は、前記被写体が人物の場合、前記各撮影画像からそれぞれ人物の顔を検出し、検出した各顔画像から前記対応点を抽出することを特徴とする請求項1ないし11いずれか1項記載の複眼撮影装置。   12. The corresponding point extraction unit, when the subject is a person, detects a person's face from each captured image, and extracts the corresponding point from each detected face image. A compound eye photographing apparatus according to claim 1. 前記対応点抽出手段は、前記被写体が建物の場合、前記各撮影画像からそれぞれ建物を抽出し、検出した各建物画像から前記対応点を抽出することを特徴とする請求項1ないし11いずれか1項記載の複眼撮影装置。   12. The corresponding point extracting unit, when the subject is a building, extracts a building from each captured image, and extracts the corresponding point from each detected building image. The compound eye photographing device described in the item. カメラ本体に一体に組み込まれた複数の撮像部により、被写体を撮影する撮影ステップと、
前記撮影ステップで得られた各撮影画像から、当該各撮影画像にそれぞれ存在する共通の特徴的な点を示す対応点を抽出する対応点抽出ステップと、
前記各撮影画像のそれぞれにおける、互いに対応する前記対応点の位置を比較することにより、前記各撮影画像の撮影時におけるカメラ本体の姿勢を検出する姿勢検出ステップと、
を有することを特徴とする複眼撮影装置の姿勢検出方法。
A shooting step of shooting a subject by a plurality of imaging units integrated into the camera body;
A corresponding point extracting step for extracting corresponding points indicating common characteristic points existing in the respective captured images from the captured images obtained in the capturing step;
A posture detection step of detecting the posture of the camera body at the time of shooting each of the captured images by comparing the positions of the corresponding points corresponding to each other in each of the captured images;
A posture detection method for a compound eye photographing apparatus, comprising:
JP2009198781A 2009-08-28 2009-08-28 Compound eye photographing device and method for detecting posture of the same Withdrawn JP2011048295A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198781A JP2011048295A (en) 2009-08-28 2009-08-28 Compound eye photographing device and method for detecting posture of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198781A JP2011048295A (en) 2009-08-28 2009-08-28 Compound eye photographing device and method for detecting posture of the same

Publications (1)

Publication Number Publication Date
JP2011048295A true JP2011048295A (en) 2011-03-10

Family

ID=43834653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198781A Withdrawn JP2011048295A (en) 2009-08-28 2009-08-28 Compound eye photographing device and method for detecting posture of the same

Country Status (1)

Country Link
JP (1) JP2011048295A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012132304A1 (en) * 2011-03-30 2012-10-04 富士フイルム株式会社 Stereoscopic image display control device and stereoscopic image display control method
JP2012244432A (en) * 2011-05-19 2012-12-10 Sharp Corp Image correction method and stereoscopic image photographing device
KR20170001448A (en) * 2015-06-26 2017-01-04 한국전자통신연구원 Apparatus for measuring position of camera using stereo camera and method using the same
JP2017215337A (en) * 2011-03-31 2017-12-07 ノバラム ディーエックス リミテッド Software application and processor
WO2018056589A1 (en) * 2016-09-22 2018-03-29 Samsung Electronics Co., Ltd. Method and electronic device for calibration of stereo camera
WO2020153264A1 (en) * 2019-01-24 2020-07-30 パナソニックIpマネジメント株式会社 Calibration method and calibration device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012132304A1 (en) * 2011-03-30 2012-10-04 富士フイルム株式会社 Stereoscopic image display control device and stereoscopic image display control method
JP2017215337A (en) * 2011-03-31 2017-12-07 ノバラム ディーエックス リミテッド Software application and processor
JP2012244432A (en) * 2011-05-19 2012-12-10 Sharp Corp Image correction method and stereoscopic image photographing device
KR20170001448A (en) * 2015-06-26 2017-01-04 한국전자통신연구원 Apparatus for measuring position of camera using stereo camera and method using the same
KR102410300B1 (en) * 2015-06-26 2022-06-20 한국전자통신연구원 Apparatus for measuring position of camera using stereo camera and method using the same
CN110140351A (en) * 2016-09-22 2019-08-16 三星电子株式会社 For calibrating the method and electronic device of stereoscopic camera
KR20180032291A (en) * 2016-09-22 2018-03-30 삼성전자주식회사 Method and electronic device for calivration of stereo camera
US10482627B2 (en) 2016-09-22 2019-11-19 Samsung Electronics Co., Ltd Method and electronic device for calibration of stereo camera
WO2018056589A1 (en) * 2016-09-22 2018-03-29 Samsung Electronics Co., Ltd. Method and electronic device for calibration of stereo camera
KR102529928B1 (en) * 2016-09-22 2023-05-09 삼성전자주식회사 Method and electronic device for calivration of stereo camera
WO2020153264A1 (en) * 2019-01-24 2020-07-30 パナソニックIpマネジメント株式会社 Calibration method and calibration device
JPWO2020153264A1 (en) * 2019-01-24 2021-11-25 パナソニックIpマネジメント株式会社 Calibration method and calibration equipment
JP7426611B2 (en) 2019-01-24 2024-02-02 パナソニックIpマネジメント株式会社 Calibration method and calibration device

Similar Documents

Publication Publication Date Title
KR101142316B1 (en) Image selection device and method for selecting image
US8155432B2 (en) Photographing apparatus
JP4553346B2 (en) Focus adjustment device and focus adjustment method
JP4663700B2 (en) Imaging apparatus and imaging method
US9357205B2 (en) Stereoscopic image control apparatus to adjust parallax, and method and program for controlling operation of same
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
US8269819B2 (en) Image generating apparatus for generating three-dimensional image having high visibility
TW201301866A (en) Image processing device capable of generating wide-range image, image processing method, and recording medium
JP5180349B2 (en) Imaging apparatus, method, and program
US8773506B2 (en) Image output device, method and program
JP2011048295A (en) Compound eye photographing device and method for detecting posture of the same
JP4818999B2 (en) Imaging apparatus, method, and program
JP2004349750A (en) Digital camera and control method therefor
JP2003338955A (en) Camera with advising functions
JP4360369B2 (en) Electronic camera
KR20140116014A (en) Image acquisition apparatus,image acquisition method and recording medium
JP2009081636A (en) Image recording apparatus and photographing method
JP2010141609A (en) Imaging apparatus
KR101630307B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
US9124866B2 (en) Image output device, method, and recording medium therefor
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9094671B2 (en) Image processing device, method, and recording medium therefor
JP2008054031A (en) Digital camera and display control method
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP5029765B2 (en) Image data generation apparatus and image data generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120116

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130424