JP2011033990A - Compound eye photographing device and photographing method - Google Patents

Compound eye photographing device and photographing method Download PDF

Info

Publication number
JP2011033990A
JP2011033990A JP2009182591A JP2009182591A JP2011033990A JP 2011033990 A JP2011033990 A JP 2011033990A JP 2009182591 A JP2009182591 A JP 2009182591A JP 2009182591 A JP2009182591 A JP 2009182591A JP 2011033990 A JP2011033990 A JP 2011033990A
Authority
JP
Japan
Prior art keywords
user
compound eye
photographing
stereoscopic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009182591A
Other languages
Japanese (ja)
Inventor
Kodai Fujita
広大 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009182591A priority Critical patent/JP2011033990A/en
Publication of JP2011033990A publication Critical patent/JP2011033990A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a compound eye photographing device for preventing photographing from failing because a user is located outside a range where a parallax image can be photographed, when the parallax image for stereoscopic display is photographed by using a self-timer function by the compound eye photographing device whose convergence angle is fixed; and to provide a photographing method. <P>SOLUTION: The compound eye photographing device 10 starts a timer to start the counting of time (step S22), when it is determined that the user is in a stereoscopic viewing possible range A1 where an object can be stereoscopically viewed (Yes in step S20), and photographs right and left parallax images by photographing parts 12-1 and 12-2 (step S24), when a previously set time (for instance, several seconds) elapses. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は複眼撮影装置及び撮影方法に係り、特に立体視可能な画像表示を行うための画像を撮影する複眼撮影装置及び撮影方法に関する。   The present invention relates to a compound eye photographing apparatus and a photographing method, and more particularly to a compound eye photographing apparatus and a photographing method for photographing an image for performing stereoscopic display.

特許文献1から3には、左右の視差画像を撮影する撮影装置において輻輳制御を自動化することが開示されている。特許文献1から3には、検出した被写体距離と前回更新した被写体距離との差分の絶対値が所定値より大きい状態が所定時間継続した場合に限って、検出した被写体距離に輻輳距離を設定することが開示されている。   Patent Documents 1 to 3 disclose automating congestion control in a photographing apparatus that photographs right and left parallax images. In Patent Documents 1 to 3, the convergence distance is set to the detected subject distance only when the state where the absolute value of the difference between the detected subject distance and the previously updated subject distance is larger than a predetermined value continues for a predetermined time. It is disclosed.

特開2001−16618号公報Japanese Patent Laid-Open No. 2001-16618 特開2001−16619号公報JP 2001-16619 A 特開2001−16620号公報JP 2001-16620 A

立体視可能な画像表示を行うための左右の視差画像を撮影する場合、被写体が撮影装置に近すぎると視差ズレが大きくなり、立体表示画像(3D画像)がブレてしまう。一方、被写体が撮影装置から遠すぎると視差ズレが小さくなり、立体感が得られなくなるという現象が発生する。   When capturing left and right parallax images for performing stereoscopic display, if the subject is too close to the imaging device, the parallax shift increases and the stereoscopic display image (3D image) blurs. On the other hand, if the subject is too far away from the photographing device, the parallax shift is reduced and a phenomenon in which a stereoscopic effect cannot be obtained occurs.

セルフタイマー機能を利用して視差画像を撮影する場合、被写体であるユーザは、画角や構図を決めた後に撮影装置の視野内に移動することになるため、3D画像を確認しながら撮影することができない。このため、ユーザは、視差画像が撮影可能な範囲(視差ズレが大きくなりすぎず且つ小さくなりすぎない範囲)内に自分がいるかどうか判断することが困難であるため、撮影に失敗しやすい。   When shooting a parallax image using the self-timer function, the user, who is the subject, moves within the field of view of the shooting device after determining the angle of view and composition, so take a shot while checking the 3D image. I can't. For this reason, since it is difficult for the user to determine whether or not he / she is within a range in which a parallax image can be captured (a range in which the parallax shift is not too large and not too small), it is likely that shooting will fail.

特許文献1から3に記載の発明は、輻輳角が固定された複眼撮影装置に適用することは不可能である。また、特許文献1から3に記載の発明は、セルフタイマー撮影に着目してなされたものではない。更に、特許文献1から3に記載の発明は、検出した被写体距離と前回更新した被写体距離との差分の絶対値を所定時間監視した結果に応じて輻輳制御を行うものであり、輻輳角が固定された複眼撮影装置において画角及び構図を決めてからセルフタイマー撮影を行う場合における視差画像の撮影の失敗を防止するという課題を解決するものではない。   The inventions described in Patent Documents 1 to 3 cannot be applied to a compound eye photographing apparatus with a fixed convergence angle. Further, the inventions described in Patent Documents 1 to 3 are not made by paying attention to self-timer photographing. Furthermore, the inventions described in Patent Documents 1 to 3 perform the congestion control according to the result of monitoring the absolute value of the difference between the detected subject distance and the previously updated subject distance for a predetermined time, and the convergence angle is fixed. However, it does not solve the problem of preventing failure in taking a parallax image when self-timer shooting is performed after the angle of view and the composition are determined in the compound eye photographing device.

本発明はこのような事情に鑑みてなされたもので、輻輳角が固定された複眼撮影装置によりセルフタイマー機能を利用して立体表示用の視差画像の撮影を行う場合に、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止するための複眼撮影装置及び撮影方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and a parallax image can be taken when a parallax image for stereoscopic display is shot using a self-timer function by a compound eye photographing device with a fixed convergence angle. It is an object of the present invention to provide a compound eye photographing apparatus and a photographing method for preventing a user from being located outside the range and failing in photographing.

上記課題を解決するために、本発明の第1の態様に係る複眼撮影装置は、所定の輻輳角をなすように固定された第1及び第2の撮影部と、ユーザからの撮影指示の入力を受け付ける撮影指示部と、セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部とを備える。   In order to solve the above problems, a compound eye photographing apparatus according to a first aspect of the present invention includes first and second photographing units fixed to form a predetermined angle of convergence, and input of photographing instructions from a user. A shooting instruction unit for receiving a self-timer shooting setting, a timer shooting setting unit for receiving setting of self-timer shooting, and the shooting instruction unit receiving an input of the shooting instruction after the timer shooting setting unit has received the setting of the self-timer shooting. A first determination unit that detects the position of the user and determines whether the position of the user is within a stereoscopically viewable range where a stereoscopically viewable parallax image can be captured; and the position of the user A shooting control unit that performs shooting of the parallax image of the user by the first and second shooting units after a predetermined time has elapsed since the first determination unit determined that the range is within the stereoscopic viewable range; Preparation That.

上記第1の態様によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。   According to the first aspect, when the self-timer photographing is performed by the compound eye photographing device in which the convergence angles of the first and second imaging units are fixed, it is detected that the position of the user is within the stereoscopic view possible range. After that, since the timer is started to be counted, it is possible to prevent the shooting from failing because the user is positioned outside the range where the parallax image can be shot.

本発明の第2の態様に係る複眼撮影装置は、上記第1の態様において、前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。   In the compound eye photographing apparatus according to the second aspect of the present invention, in the first aspect, the first determination unit obtains the feature point of the user from the images photographed by the first and second photographing units. And detecting whether or not the position of the user is within the stereoscopic view possible range based on the amount of parallax deviation of the feature points.

本発明の第3の態様に係る複眼撮影装置は、上記第2の態様において、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。   The compound-eye imaging device according to a third aspect of the present invention is the compound eye photographing apparatus according to the second aspect, further comprising a map in which the amount of parallax deviation of the feature points is recorded such that the position of the user is within the stereoscopic viewable range. The first determination unit is configured to determine whether the position of the user is within the stereoscopic view possible range by comparing the amount of parallax deviation of the feature points with the map. is there.

上記第3の態様によれば、上記した効果に加え、ユーザが立体視可能範囲内にいるかどうかの判断基準となるマップを予め備えておくことにより、ユーザが立体視可能範囲内にいるかどうかの判断のための処理時間を短縮することが可能になる。   According to the third aspect, in addition to the above-described effects, whether or not the user is in the stereoscopic view possible range is prepared in advance by providing a map that is a criterion for determining whether or not the user is in the stereoscopic view possible range. It becomes possible to shorten the processing time for judgment.

本発明の第4の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える。   In the compound eye imaging device according to the fourth aspect of the present invention, in the first to third aspects, the first determination unit determines that the position of the user is within the stereoscopic viewable range. A notification unit for notifying the user is further provided.

上記第4の態様によれば、ユーザの位置が立体視可能範囲内であるかどうかを報知部によりユーザに報知することができる。   According to the fourth aspect, the notification unit can notify the user whether the user's position is within the stereoscopic view possible range.

本発明の第5の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行するようにしたものである。   According to a fifth aspect of the present invention, in the first to third aspects, the compound eye photographing apparatus extracts the user feature point from the user's parallax image, and the user's position is at the time of photographing the parallax image. A second determination unit that determines whether or not the range is within the stereoscopic view possible range; and the second determination unit that the position of the user is not within the stereoscopic view possible range when the parallax image is captured. A notifying unit for notifying the user, wherein the shooting control unit determines that the position of the user is not within the stereoscopic view possible range at the time of shooting the parallax image; After the first determination unit determines that the user's position is within the stereoscopic view possible range, the first and second imaging units re-shoot the parallax image of the user. Like It is.

上記第5の態様によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置の前方にいるユーザに上記第2の判断部による判断結果を報知することができる。   According to the fifth aspect, it is determined whether stereoscopic 3D display is possible based on the parallax image obtained by photographing the parallax image with the self-timer, and the user in front of the compound-eye imaging device receives the first The determination result by the two determination units can be notified.

本発明の第6の態様に係るは、上記第4又は第5の態様において、前記報知部を補助光発光部又はフラッシュ発光部としたものである。   According to a sixth aspect of the present invention, in the fourth or fifth aspect, the notification unit is an auxiliary light emitting unit or a flash light emitting unit.

本発明の第7の態様に係るは、上記第4から第6の態様において、前記報知部を音声出力部としたものである。   According to a seventh aspect of the present invention, in the fourth to sixth aspects, the notification unit is an audio output unit.

上記第6及び第7の態様によれば、既存の補助光発光部、フラッシュ発光部又は音声出力部をユーザへの報知に用いたので、複眼撮影装置の製造コストを抑制することができる。   According to the sixth and seventh aspects, since the existing auxiliary light emitting unit, flash light emitting unit, or audio output unit is used for notification to the user, the manufacturing cost of the compound eye photographing device can be suppressed.

本発明の第8の態様に係る複眼撮影装置は、上記第1から第7の態様において、前記所定時間を変更する変更部を更に備える。   A compound eye photographing apparatus according to an eighth aspect of the present invention further includes a changing unit that changes the predetermined time in the first to seventh aspects.

上記第8の態様によれば、ユーザ等が撮影時の姿勢を決めるまでの所定時間の自由に設定できるので、ユーザの意図通りの撮影を容易にすることができる。   According to the eighth aspect, since it is possible to freely set a predetermined time until the user or the like decides the posture at the time of shooting, shooting as intended by the user can be facilitated.

本発明の第9の態様に係る複眼撮影装置は、上記第1から第8の態様において、前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。   According to a ninth aspect of the present invention, in the first to eighth aspects, the compound eye photographing apparatus further includes a feature point information recording unit that records the feature point information of the user, and the first determination unit includes: Based on the feature point information, it is determined whether or not the position of the user is within a stereoscopically viewable range where a stereoscopically viewable parallax image can be taken.

上記第9の態様によれば、上記した効果に加え、予め記録しておいたユーザの特徴点情報により検出対象を絞り込むことができるので、ユーザの検出処理に要する時間を短縮することができる。   According to the ninth aspect, in addition to the effects described above, the detection target can be narrowed down based on the user's feature point information recorded in advance, so that the time required for the user detection process can be shortened.

本発明の第10の態様に係る複眼撮影装置は、上記第9の態様において、前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行するようにしたものである。   The compound eye imaging device according to a tenth aspect of the present invention is the ninth aspect, wherein the feature point information recording unit records feature point information of a user of the compound eye imaging device and a person other than the user. The first determination unit determines whether the positions of the user and a person other than the user are within a stereoscopically viewable range where a stereoscopically viewable parallax image can be taken based on the feature point information. The photographing control unit is configured to perform the first and second after a lapse of a predetermined time after the first determination unit determines that the positions of the user and a person other than the user are within the stereoscopic view possible range. The photographing unit performs photographing of the user's parallax image.

上記第10の態様によれば、予め登録した人物(ユーザを含む)がすべて立体視可能範囲内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、予め記録しておいた特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。   According to the tenth aspect, the self-timer shooting is started when all of the pre-registered persons (including the user) are within the stereoscopic viewable range. It is possible to prevent the shooting from being performed in a state where there is no person who has already finished. In addition, since the detection target can be narrowed down based on the feature point information recorded in advance, the time required for the subject detection process can be shortened.

本発明の第11の態様に係る撮影方法は、所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程とを備える。   An imaging method according to an eleventh aspect of the present invention is an imaging method in which a parallax image of a user is captured by a compound-eye imaging device including first and second imaging means fixed so as to form a predetermined convergence angle. The user's position can be detected and the user's position can be stereoscopically captured when the compound eye photographing device accepts an input of a photographing instruction after accepting the self-timer photographing setting. A first determination step of determining whether or not the stereoscopic view is within a range within which stereoscopic viewing is possible; and after a predetermined time has elapsed since the determination that the user's position is within the stereoscopic view possible range, And a first shooting control step of shooting a parallax image of the user by the second shooting means.

本発明の第12の態様に係る撮影方法は、上記第11の態様の前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。   In the photographing method according to a twelfth aspect of the present invention, in the first determining step according to the eleventh aspect, the compound eye photographing apparatus is configured such that the user uses an image photographed by the first and second photographing means. These feature points are detected, and based on the amount of parallax deviation of the feature points, it is determined whether or not the position of the user is within the stereoscopic view possible range.

本発明の第13の態様に係る撮影方法は、上記第12の態様の前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。   In the photographing method according to a thirteenth aspect of the present invention, in the first determination step according to the twelfth aspect, the compound eye photographing device is characterized in that the position of the user is within the stereoscopic viewable range. It is determined whether or not the position of the user is within the stereoscopic view possible range by comparing a map in which the amount of disparity between points is recorded and the amount of disparity between the feature points.

本発明の第14の態様に係る撮影方法は、上記第11から第13の態様において、前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える。   In the photographing method according to the fourteenth aspect of the present invention, in the eleventh to thirteenth aspects, the compound eye photographing apparatus determines that the position of the user is within the stereoscopic view possible range. A notification step of notifying the user is further provided.

本発明の第15の態様に係る撮影方法は、上記第11から第13の態様において、前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程とを更に備える。   In the photographing method according to a fifteenth aspect of the present invention, in the eleventh to thirteenth aspects, the compound eye photographing device extracts the user feature point from the user's parallax image, and the parallax image is captured when the parallax image is captured. A second determination step of determining whether or not a user's position is within the stereoscopic viewable range; and the compound eye photographing device determines that the user's position was not within the stereoscopic viewable range when photographing the parallax image After the second determining step determines that the user's position is not within the stereoscopic view possible range when the compound eye imaging device captures the parallax image. After the predetermined time has elapsed since the first determination step that the position is within the stereoscopic view possible range, the parallax image of the user is again captured by the first and second imaging means. Further comprising a second imaging control step of rows.

本発明の第16の態様に係る撮影方法は、上記第11から第15の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。   In the photographing method according to the sixteenth aspect of the present invention, in the first determining step of the eleventh to fifteenth aspects, the compound eye photographing device is based on the feature point information of the user recorded in advance. It is determined whether or not the position of the user is within a stereoscopic view possible range where a stereoscopically viewable parallax image can be taken.

本発明の第17の態様に係る撮影方法は、上記第16の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行するようにしたものである。   In the photographing method according to a seventeenth aspect of the present invention, in the first determination step of the sixteenth aspect, the compound eye photographing device is a user of the compound eye photographing device and a person other than the user who have been recorded in advance. Based on the feature point information, it is determined whether or not the positions of the user and a person other than the user are within a stereoscopic viewable range in which a stereoscopically viewable parallax image can be taken. The imaging apparatus captures a parallax image of the user by the first and second imaging units after a predetermined time has elapsed after determining that the positions of the user and a person other than the user are within the stereoscopic viewable range. Is to be executed.

本発明によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。   According to the present invention, when performing self-timer shooting with a compound eye imaging device in which the convergence angles of the first and second imaging units are fixed, after detecting that the position of the user is within the stereoscopic view possible range, Since the timer starts counting, it is possible to prevent a user from being located outside the range where the parallax image can be photographed and photographing failure.

本発明の第1の実施形態に係る複眼撮影装置の主要構成を示すブロック図1 is a block diagram showing the main configuration of a compound eye photographing apparatus according to a first embodiment of the present invention. 本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図The figure for demonstrating the method of carrying out the self-timer imaging | photography of the parallax image with the compound eye imaging device which concerns on this embodiment. 本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート7 is a flowchart showing a self-timer photographing method for parallax images according to the first embodiment of the present invention. ユーザの位置の判断方法を説明するための図The figure for demonstrating the judgment method of a user's position 複眼撮影装置のポストビュー表示を示す図The figure which shows the post view display of a compound eye imaging device 本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート7 is a flowchart showing a self-timer photographing method for parallax images according to the second embodiment of the present invention. 立体視可能範囲A1と視差ズレ量の対応関係を示すマップMap showing correspondence between stereoscopic view possible range A1 and parallax deviation amount 本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図The block diagram which shows the main structures of the compound eye imaging device which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート7 is a flowchart showing a self-timer photographing method for parallax images according to a third embodiment of the present invention. 本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート8 is a flowchart showing a self-timer photographing method for parallax images according to a fourth embodiment of the present invention. 本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートFlowchart illustrating a self-timer photographing method for parallax images according to a fifth embodiment of the present invention. 本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図The block diagram which shows the main structures of the compound eye imaging device which concerns on the 6th Embodiment of this invention. 本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートThe flowchart which shows the self-timer imaging method of the parallax image which concerns on the 6th Embodiment of this invention. 本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図The block diagram which shows the main structures of the compound eye imaging device which concerns on the 7th Embodiment of this invention. 本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートThe flowchart which shows the self-timer imaging method of the parallax image which concerns on the 7th Embodiment of this invention. 本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートThe flowchart which shows the self-timer imaging method of the parallax image which concerns on the 8th Embodiment of this invention. 本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートThe flowchart which shows the self-timer imaging method of the parallax image which concerns on the 9th Embodiment of this invention. ユーザの特徴点情報の登録処理を示すフローチャートFlowchart showing registration process of user feature point information 本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートThe flowchart which shows the self-timer imaging method of the parallax image which concerns on the 10th Embodiment of this invention. 本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートThe flowchart which shows the self-timer imaging method of the parallax image which concerns on the 11th Embodiment of this invention.

以下、添付図面に従って本発明に係る複眼撮影装置及び撮影方法の好ましい実施の形態について説明する。   Preferred embodiments of a compound eye photographing apparatus and photographing method according to the present invention will be described below with reference to the accompanying drawings.

[第1の実施形態]
まず、本実施形態に係る複眼撮影装置の構成について、図1のブロック図を参照して説明する。
[First Embodiment]
First, the configuration of the compound eye photographing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.

図1に示すように、複眼撮影装置10は、2つの撮影部12−1及び12−2を備えている。なお、撮影部12は2つ以上設けてもよい。   As shown in FIG. 1, the compound eye photographing apparatus 10 includes two photographing units 12-1 and 12-2. Two or more photographing units 12 may be provided.

複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の画像データを合成する。例えば、複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の視差画像データを合成して立体視表示用の画像の作成及び表示を行う。複眼撮影装置10は、上記視差画像データを、1つの記録用画像ファイルに格納する。また、複眼撮影装置10は、ブラケット撮影時、動画撮影時及び連写撮影した複数フレームの画像データをつなぎ合わせて1つの記録用画像ファイルに格納する。   The compound eye photographing apparatus 10 combines two pieces of image data photographed by the photographing units 12-1 and 12-2. For example, the compound eye photographing apparatus 10 generates and displays an image for stereoscopic display by combining two pieces of parallax image data photographed by the photographing units 12-1 and 12-2. The compound eye photographing apparatus 10 stores the parallax image data in one recording image file. In addition, the compound eye photographing apparatus 10 joins a plurality of frames of image data obtained during bracket photographing, moving image photographing and continuous photographing and stores them in one recording image file.

この複数フレームの画像を記録するフォーマットとしては、例えば“マルチピクチャフォーマット”などが知られているが、それに限られるものではない。(以下の実施例においても同様)
信号処理IC(Integrated Circuit)は、CPU(Central Processing Unit)14を含んでおり、操作部16からの入力に基づき所定の制御プログラムに従って複眼撮影装置10全体の動作を統括制御する手段である。
As a format for recording an image of a plurality of frames, for example, “multi-picture format” is known, but is not limited thereto. (The same applies to the following examples)
The signal processing IC (Integrated Circuit) includes a CPU (Central Processing Unit) 14 and is a means for comprehensively controlling the operation of the entire compound eye photographing apparatus 10 in accordance with a predetermined control program based on an input from the operation unit 16.

信号処理ICは、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)及びワークメモリ(RAM(Random Access Memory))を含んでいる。ROMには、CPU14が実行する制御プログラム及び制御に必要な各種データ等が格納される。EPROMには、ユーザ設定情報等の複眼撮影装置10の動作に関する各種設定情報等が格納されるものであり、EEPROMとしては電源を切っても記憶内容が消去されない不揮発性メモリが使用される。ワークメモリは、CPU14の演算作業用領域及び画像データの一時記憶領域を含んでいるものであり、通常はコスト面から揮発性メモリであるダイナミックRAMが使用される。   The signal processing IC includes a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), and a work memory (RAM (Random Access Memory)). The ROM stores a control program executed by the CPU 14 and various data necessary for control. In the EPROM, various setting information relating to the operation of the compound eye photographing apparatus 10 such as user setting information is stored. As the EEPROM, a non-volatile memory whose stored contents are not erased even when the power is turned off is used. The work memory includes a calculation work area for the CPU 14 and a temporary storage area for image data. Usually, a dynamic RAM, which is a volatile memory, is used in terms of cost.

操作部16は、ユーザが各種の操作入力を行うための操作手段であり、電源のオン、オフの切り替えを行う電源スイッチ、複眼撮影装置10の動作モードの切り替えを行うモードダイヤル、レリーズスイッチ及びズームボタンを含んでいる。   The operation unit 16 is an operation means for a user to perform various operation inputs, and includes a power switch for switching power on and off, a mode dial for switching the operation mode of the compound eye photographing apparatus 10, a release switch, and a zoom. Includes buttons.

モードダイヤルは、複眼撮影装置10の動作モードの切り替え入力を行うための操作手段であり、モードダイヤルの設定位置に応じて、2次元の画像(静止画、動画)を撮影する2Dモードと、立体視用の画像(静止画、動画)を撮影する3Dモードと、画像の再生を行う再生モードとの間で動作モードが切り替えられる。   The mode dial is an operation means for performing an operation mode switching input of the compound eye photographing apparatus 10, and a 2D mode for capturing a two-dimensional image (still image, moving image) according to the set position of the mode dial, and a stereoscopic The operation mode is switched between a 3D mode for capturing a visual image (still image, moving image) and a reproduction mode for reproducing an image.

レリーズスイッチは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。静止画を撮影するモードの時には、レリーズスイッチが半押しされると(S1オン)、撮影準備処理(例えば、自動露出調整処理(AE(Automatic Exposure))、自動焦点合わせ処理(AF(Auto Focus))、自動ホワイトバランス調整処理(AWB(Automatic White Balance)))が行われる。そして、レリーズスイッチが全押しされると(S2オン)、静止画の撮影・記録処理が行われる。また、動画を撮影するモードの時には、レリーズスイッチが全押しされると動画の撮影が開始され、再度全押しされると動画の撮影が終了する。なお、静止画撮影用のレリーズスイッチ及び動画撮影用のレリーズスイッチを別々に設けてもよい。   The release switch is composed of a two-stage stroke type switch composed of so-called “half-press” and “full-press”. When the release switch is pressed halfway (S1 ON) in the still image shooting mode, shooting preparation processing (for example, automatic exposure adjustment processing (AE (Automatic Exposure)), automatic focusing processing (AF (Auto Focus)) ), Automatic white balance adjustment processing (AWB (Automatic White Balance))) is performed. When the release switch is fully pressed (S2 is on), still image shooting / recording processing is performed. In the mode for shooting a moving image, the shooting of the moving image starts when the release switch is fully pressed, and the shooting of the moving image ends when the release switch is fully pressed again. A release switch for still image shooting and a release switch for moving image shooting may be provided separately.

ズームボタンは、撮影部12−1及び12−2のズーミング操作を行うための操作手段であり、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとを備えている。   The zoom button is an operation means for performing zooming operations of the photographing units 12-1 and 12-2, and includes a zoom tele button for instructing zooming to the telephoto side, and a zoom wide button for instructing zooming to the wide angle side. It has.

表示部18は、例えば、カラー液晶パネル(LCD(Liquid Crystal Display))を備えた表示装置である。表示部18は、撮影された画像を表示する表示部として機能するとともに、複眼撮影装置10の各種機能に関する設定を行うときのユーザインターフェースとして機能する。また、表示部18は、撮影モード時に画角を確認するためのライブビュー画像を表示する電子ファインダとして機能する。   The display unit 18 is a display device including a color liquid crystal panel (LCD (Liquid Crystal Display)), for example. The display unit 18 functions as a display unit that displays a captured image, and also functions as a user interface when performing settings related to various functions of the compound-eye imaging device 10. The display unit 18 functions as an electronic viewfinder that displays a live view image for confirming the angle of view in the shooting mode.

表示部18は、3Dモード時に、ユーザ、観察者が立体視可能な立体視用(3D)画像を表示する機能を有する。3D画像の表示方式としては、例えば、ライト・ディレクション・コントロール・システム(Light Direction Control System)が採用される。ライト・ディレクション・コントロール・システムでは、左眼用の画像データをLCDに表示して、バックライトパネルによってユーザの左眼に届くように指向性をもたせた照明光をLCDに照射する処理と、右眼用の画像データをLCDに表示して、バックライトパネルによってユーザの右眼に届くように指向性をもたせた照明光をLCDに照射する処理とを交互に(例えば、1/60秒間隔で)繰り返す。これにより、相互に視差のある左眼用画像と右眼用画像が、ユーザの左右の眼によって交互に観察可能になるので、ユーザは立体的な画像を観察することができる。立体視用画像を表示する方法にはたくさんの方式があり、どれを使用してもよい。   The display unit 18 has a function of displaying a stereoscopic (3D) image that can be stereoscopically viewed by the user and the observer in the 3D mode. As a 3D image display method, for example, a light direction control system is employed. In the light direction control system, the image data for the left eye is displayed on the LCD, and the backlight panel irradiates the LCD with illumination light having directivity so as to reach the left eye of the user. A process of displaying image data for eyes on the LCD and irradiating the LCD with illumination light having directivity so as to reach the right eye of the user through the backlight panel (for example, at intervals of 1/60 seconds) )repeat. Accordingly, the left-eye image and the right-eye image having parallax with each other can be observed alternately by the left and right eyes of the user, so that the user can observe a stereoscopic image. There are many methods for displaying a stereoscopic image, and any of them may be used.

記録部20は、撮影された画像ファイル及び各種のデータを記録する。記録部20は、例えば、SDメモリカード(登録商標)又はxDピクチャカード(登録商標)のような着脱可能な記録メディアでもよいし、複眼撮影装置10の本体に内蔵されているメモリでもよい。ただし、複眼撮影装置10の本体に内蔵されているメモリを使用する場合は、カメラ本体の電源を切った場合でも画像が消去されないように不揮発性メモリを使用する必要がある。   The recording unit 20 records captured image files and various data. The recording unit 20 may be a detachable recording medium such as an SD memory card (registered trademark) or an xD picture card (registered trademark), or may be a memory built in the main body of the compound eye photographing apparatus 10. However, when using the memory built in the main body of the compound eye photographing apparatus 10, it is necessary to use a non-volatile memory so that the image is not erased even when the power of the camera main body is turned off.

次に、複眼撮影装置10の撮影機能について説明する。なお、図1では、各撮影部12−1及び12−2等にそれぞれ符号1及び2を付して区別しているが、各部の機能は略同様であるため、以下の説明では、符号1及び2を適宜省略して説明する。   Next, the photographing function of the compound eye photographing apparatus 10 will be described. In FIG. 1, the imaging units 12-1 and 12-2 are distinguished from each other by reference numerals 1 and 2, but the functions of the respective units are substantially the same. 2 will be omitted as appropriate.

各撮影部12は、フォーカスレンズ24、ズームレンズ26、絞り28及びメカシャッタ30を含む撮影レンズ(撮影レンズ)22を備えている。本実施形態では、撮影レンズ22−1及び22−2の輻輳角θは固定されている。   Each photographing unit 12 includes a photographing lens (photographing lens) 22 including a focus lens 24, a zoom lens 26, a diaphragm 28 and a mechanical shutter 30. In the present embodiment, the convergence angle θ of the photographing lenses 22-1 and 22-2 is fixed.

フォーカスレンズ24及びズームレンズ26は、各撮影部12の光軸に沿って前後に移動する。CPU14は、光学系駆動部32に設けられたフォーカスアクチュエータの動作を制御して、フォーカスレンズ24の位置を調整してフォーカシングを行う。また、CPU14は、光学系駆動部32に設けられたズームアクチュエータの動作を制御して、ズームレンズ26の位置を調整してズーミングを行う。また、CPU14は、光学系駆動部32に設けられた絞りアクチュエータの駆動を制御することにより、絞り28の開口量(絞り値)を調整して撮像素子34への入射光量を制御する。   The focus lens 24 and the zoom lens 26 move back and forth along the optical axis of each photographing unit 12. The CPU 14 controls the operation of the focus actuator provided in the optical system driving unit 32 to adjust the position of the focus lens 24 and perform focusing. Further, the CPU 14 controls the operation of the zoom actuator provided in the optical system driving unit 32 to adjust the position of the zoom lens 26 to perform zooming. The CPU 14 controls the amount of light incident on the image sensor 34 by adjusting the aperture (aperture value) of the diaphragm 28 by controlling the driving of the diaphragm actuator provided in the optical system driving unit 32.

メカシャッタ30は、撮像素子34からデータを読み出すときに閉じられる。これにより、データ読み出し時に撮像素子34に入射する光が遮光される。   The mechanical shutter 30 is closed when data is read from the image sensor 34. As a result, light incident on the image sensor 34 is shielded during data reading.

CPU14は、3Dモード時に、各撮影部12−1及び12−2の撮影レンズ22−1及び22−1(即ち、フォーカスレンズ24−1及び24−2、ズームレンズ26−1及び26−2、絞り28−1及び28−2)を同期させて駆動する。即ち、撮影部12−1及び12−2は、3Dモード時に、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ入射光量(絞り値)となるように絞りが調整される。更に、3Dモード時には、常に同じ被写体にピントが合うように焦点調節が行われる。   In the 3D mode, the CPU 14 takes the photographing lenses 22-1 and 22-1 (that is, the focus lenses 24-1 and 24-2, zoom lenses 26-1 and 26-2, and the like) of the photographing units 12-1 and 12-2. The diaphragms 28-1 and 28-2) are driven in synchronization. That is, in the 3D mode, the photographing units 12-1 and 12-2 are always set to the same focal length (zoom magnification), and the diaphragm is adjusted so that the same incident light amount (aperture value) is always obtained. Further, in the 3D mode, focus adjustment is performed so that the same subject is always in focus.

撮像素子34は、例えば、カラーCCD(Charge Coupled Device)固体撮像素子である。撮像素子34−1と撮像素子34−2は、サイズ及び飽和特性が同じものであってもよいし、相互に異なっているものであってもよい。なお、撮像素子34としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等のCCD以外の撮像素子を用いることもできる。   The image sensor 34 is, for example, a color CCD (Charge Coupled Device) solid-state image sensor. The image sensor 34-1 and the image sensor 34-2 may have the same size and saturation characteristics, or may be different from each other. As the image sensor 34, an image sensor other than a CCD, such as a complementary metal oxide semiconductor (CMOS) image sensor, can also be used.

撮像素子34の受光面には、多数のフォトダイオードが2次元的に配列されている。各フォトダイオードには所定の色(例えば、赤(R)、緑(G)、青(B)の3原色)のカラーフィルタが所定の配列となるように配置されている。なお、カラーフィルタの色はR,G,Bの3原色に限定されるものではなく、例えば、補色系のカラーフィルタを用いることも可能である。撮影部12を介して撮像素子34の受光面上に被写体光が結像されると、この被写体光はフォトダイオードによって入射光量に応じた信号電荷に変換される。撮像素子34は、電子シャッタ機能を備えており、CPU14はフォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)を制御する。各フォトダイオードに蓄積された信号電荷は、CPU14の指令に従ってタイミング・ジェネレータ(TG)36から与えられる駆動パルスに基づいて、電荷量に応じた画像信号(R、G、B信号)として撮像素子34から順次読み出される。撮像素子34から読み出された画像信号は、アンプ38を経てアナログ信号処理部40に入力される。   A large number of photodiodes are two-dimensionally arranged on the light receiving surface of the image sensor 34. In each photodiode, color filters of a predetermined color (for example, three primary colors of red (R), green (G), and blue (B)) are arranged in a predetermined arrangement. Note that the color of the color filter is not limited to the three primary colors of R, G, and B. For example, a complementary color system color filter may be used. When subject light is imaged on the light receiving surface of the image sensor 34 via the imaging unit 12, the subject light is converted into signal charges corresponding to the amount of incident light by the photodiode. The image sensor 34 has an electronic shutter function, and the CPU 14 controls the exposure time (shutter speed) by controlling the charge accumulation time in the photodiode. The signal charge accumulated in each photodiode is based on a drive pulse given from a timing generator (TG) 36 in accordance with a command from the CPU 14 and is used as an image signal (R, G, B signal) corresponding to the charge amount. Are read sequentially. The image signal read from the image sensor 34 is input to the analog signal processing unit 40 through the amplifier 38.

アナログ信号処理部40は、撮像素子34から出力されたR、G、B信号に含まれるリセットノイズ(低周波)を除去するための相関2重サンプリング(CDS(Correlated Double Sampling))回路、R、G、B信号を増幅して一定レベルの大きさにコントロールするためのAGC(Automatic Gain Control)回路、アナログ信号をデジタル信号に変換するA/D変換器を含んでいる。撮像素子34から出力されるアナログのR、G、B信号は、アナログ信号処理部40によって相関2重サンプリング処理されるとともに増幅される。アナログ信号処理部40におけるR、G、B信号の増幅ゲインは撮影感度(ISO感度)に相当する。CPU14は、被写体の明るさ等に応じて、この増幅ゲインを調整することにより撮影感度を設定する。なお、感度が等しい2つの撮像素子を用いて画像を撮影する場合(3Dモード)、このゲインは、[1]系アナログ信号処理部40−1と[2]系アナログ信号処理部40−2とで同じ値に設定される。   The analog signal processing unit 40 includes a correlated double sampling (CDS (Correlated Double Sampling)) circuit for removing reset noise (low frequency) included in the R, G, and B signals output from the image sensor 34, R, It includes an AGC (Automatic Gain Control) circuit for amplifying the G and B signals and controlling them to a certain level, and an A / D converter for converting analog signals into digital signals. Analog R, G, B signals output from the image sensor 34 are subjected to correlated double sampling processing and amplified by the analog signal processing unit 40. The amplification gains of the R, G, and B signals in the analog signal processing unit 40 correspond to shooting sensitivity (ISO sensitivity). The CPU 14 sets the photographing sensitivity by adjusting the amplification gain in accordance with the brightness of the subject. Note that, when images are taken using two imaging elements having the same sensitivity (3D mode), the gains are the same as [1] system analog signal processing unit 40-1 and [2] system analog signal processing unit 40-2. Is set to the same value.

ゲイン調整されたアナログのR、G、B信号は、A/D変換器によってデジタルのR、G、B信号に変換された後、バッファメモリを介して信号処理IC14に入力される。   The gain-adjusted analog R, G, B signals are converted into digital R, G, B signals by an A / D converter and then input to the signal processing IC 14 via a buffer memory.

上記のようにして生成されたデジタルのR、G、B信号は、信号処理ICによって、所定の処理(例えば、単板撮像素子のカラーフィルタ配列に伴う色信号の空間的なズレを補間してR、G、Bの色信号を作る処理)、ホワイトバランス調整処理、階調変換(ガンマ補正)処理及び輪郭補正処理が施されて、輝度信号(Y信号)及び色差信号(Cr、Cb信号)、即ち、Y/C信号に変換される。   The digital R, G, and B signals generated as described above are subjected to predetermined processing (for example, by interpolating a spatial shift of the color signal accompanying the color filter array of the single-plate image sensor by a signal processing IC. R, G, and B color signal processing), white balance adjustment processing, gradation conversion (gamma correction) processing, and contour correction processing are performed to obtain a luminance signal (Y signal) and a color difference signal (Cr, Cb signal). That is, it is converted into a Y / C signal.

静止画や動画を撮影する場合の画角を確認するための画像であるライブビュー画像(スルー画像)を表示部18に表示する場合、撮像素子34に蓄積された画像信号が所定時間間隔で間引き読み出しされる。この読み出された画像信号は、信号処理ICによって、所定の処理が施されるとともに、Y/C信号に変換される。そして、このY/C信号は、表示部18の表示に適した信号(例えば、R、G、B信号)に変換された後、1フレーム分ずつ表示部18に出力される。これにより、表示部18に画角確認用の動画(スルー画像)が表示される。2Dモード時には、1つの撮影部12のみからスルー画像用の画像信号の読み出しが行われる。一方、3Dモード時には、左右の撮影部12−1及び12−2の両方からスルー画像用の画像信号の読み出しが行われ、両方の画像を用いて3Dのスルー画像(動画)の表示が行われる。   When a live view image (through image) that is an image for confirming the angle of view when shooting a still image or a moving image is displayed on the display unit 18, the image signal accumulated in the image sensor 34 is thinned out at predetermined time intervals. Read out. The read image signal is subjected to predetermined processing by a signal processing IC and converted into a Y / C signal. The Y / C signal is converted into a signal suitable for display on the display unit 18 (for example, R, G, B signal), and then output to the display unit 18 frame by frame. As a result, a moving image for checking the angle of view (through image) is displayed on the display unit 18. In the 2D mode, an image signal for a through image is read from only one photographing unit 12. On the other hand, in the 3D mode, image signals for through images are read from both the left and right imaging units 12-1 and 12-2, and a 3D through image (moving image) is displayed using both images. .

なお、3Dモード時には、設定によりスルー画像を2D表示とすることができる。この場合、左右の撮影部12−1及び12−2のいずれか一方から得られた画像を用いて作成されたスルー画像が表示される。3Dモード時において被写体の検出(顔検出)を行う場合、当該被写体が立体視可能範囲内にいるかどうかに応じて、上記2Dのスルー画像から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。   In the 3D mode, the through image can be displayed in 2D by setting. In this case, a through image created using an image obtained from one of the left and right imaging units 12-1 and 12-2 is displayed. When performing subject detection (face detection) in the 3D mode, depending on whether or not the subject is within the stereoscopic view possible range, a figure (for example, face detection) attached to the subject detected from the 2D through image The color of the frame may be changed.

次に、画像の撮影及び記録処理について説明する。2Dモード時には、所定の1つの撮影部(例えば、12−1)により記録用の画像が撮影される。なお、撮影部12−1、12−2(撮影レンズ22、撮像素子34等)の特性を互い異なるものにして、2Dモード時にどちらの撮影部を使用するかをユーザが選択できるようにしてもよい。   Next, image capturing and recording processing will be described. In the 2D mode, a recording image is shot by a predetermined one shooting unit (for example, 12-1). Note that the characteristics of the imaging units 12-1 and 12-2 (imaging lens 22, imaging element 34, etc.) are different from each other so that the user can select which imaging unit to use in the 2D mode. Good.

2Dモード時に、撮影部12−1によって撮影された画像は、信号処理ICによって圧縮される。圧縮された画像データは、所定形式の画像ファイルとして記録部20に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)、動画についてはMPEG2又はMPEG4、H.264等の規格に準拠した圧縮画像ファイルとして記録される。ただし、圧縮方式はこれらに限るものではない。   In the 2D mode, an image photographed by the photographing unit 12-1 is compressed by the signal processing IC. The compressed image data is recorded in the recording unit 20 as an image file in a predetermined format. For example, JPEG (Joint Photographic Experts Group) for still images, MPEG2 or MPEG4 for moving images, and H.264. It is recorded as a compressed image file conforming to a standard such as H.264. However, the compression method is not limited to these.

3Dモード時には、撮影部12−1及び12−2によって同期して画像が撮影される。上記3Dモード時には、AF処理及びAE処理は、撮影部12−1及び12−2のいずれか一方によって取得された画像信号に基づいて行われる。上記3Dモード時には、各撮影部12−1及び12−2によって撮影された2視点の画像は、それぞれ圧縮されて1つのファイルに格納されて記録部20に記録される。ファイルには、2視点の圧縮画像データとともに、被写体距離情報、撮影部12の撮影レンズの間隔及び輻輳角に関する情報が格納される。   In the 3D mode, images are captured in synchronization by the imaging units 12-1 and 12-2. In the 3D mode, AF processing and AE processing are performed based on the image signal acquired by one of the imaging units 12-1 and 12-2. In the 3D mode, the two viewpoint images photographed by the photographing units 12-1 and 12-2 are respectively compressed, stored in one file, and recorded in the recording unit 20. The file stores subject distance information, the distance between the photographing lenses of the photographing unit 12, and information on the convergence angle together with the compressed image data of the two viewpoints.

再生モード時には、記録部20に記録されている最終の画像ファイル(最後に記録された画像ファイル)が読み出されて、信号処理ICによって非圧縮のY/C信号に伸張される。この非圧縮のY/C信号は、R、G、B信号に変換された後表示部18に出力される。これにより、記録部20に記録されている画像ファイルが表示部18に表示される。   In the playback mode, the last image file (last recorded image file) recorded in the recording unit 20 is read out and decompressed into an uncompressed Y / C signal by the signal processing IC. The uncompressed Y / C signal is converted into R, G, and B signals and then output to the display unit 18. As a result, the image file recorded in the recording unit 20 is displayed on the display unit 18.

3Dモードで撮影された画像の再生時には、設定により3D表示と2D表示とを選択することができる。画像中から被写体の検出(顔検出)を行う場合、撮影時に当該被写体が立体視可能範囲内にいたかどうかに応じて、上記2D表示から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。   At the time of reproduction of an image shot in 3D mode, 3D display and 2D display can be selected by setting. When performing subject detection (face detection) from an image, a figure (for example, face detection) attached to the subject detected from the 2D display according to whether or not the subject is within the stereoscopic view possible range at the time of shooting. The color of the frame may be changed.

[セルフタイマー撮影]
次に、セルフタイマー撮影時における複眼撮影装置10の処理について説明する。
[Self-timer shooting]
Next, processing of the compound eye photographing apparatus 10 at the time of self-timer photographing will be described.

図2は、本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図である。   FIG. 2 is a diagram for explaining a method for performing self-timer photographing of a parallax image by the compound eye photographing apparatus according to the present embodiment.

図2に示すように、複眼撮影装置10の輻輳角θは固定されており、左右の撮影レンズ22−1及び22−2の光軸(それぞれL1,L2)は、複眼撮影装置10の前方のクロスポイントPcにおいて交わっている。左右の撮影レンズ22−1及び22−2の間隔(ステレオベース)をX(mm)、クロスポイントPcと複眼撮影装置10との間の距離をY(mm)とすると、輻輳角θは、θ=tan−1(X/2Y)により表される。 As shown in FIG. 2, the convergence angle θ of the compound eye photographing device 10 is fixed, and the optical axes (L1 and L2 respectively) of the left and right photographing lenses 22-1 and 22-2 are in front of the compound eye photographing device 10. Crossing at cross point Pc. When the distance (stereo base) between the left and right photographing lenses 22-1 and 22-2 is X (mm) and the distance between the cross point Pc and the compound eye photographing device 10 is Y (mm), the convergence angle θ is θ = Tan −1 (X / 2Y).

クロスポイントPcは、被写体を立体視する(立体視可能な視差画像を撮影する)ために最適な被写体の位置である。立体視可能範囲A1は、被写体を立体視することが可能な被写体までの距離範囲である。図2において、立体視可能範囲A1は、クロスポイントPcから複眼撮影装置10に近づく側に距離W1、クロスポイントPcを起点として複眼撮影装置10から遠ざかる側に距離W2の範囲である。   The cross point Pc is an optimal subject position for stereoscopically viewing the subject (capturing a stereoscopically viewable parallax image). The stereoscopic view possible range A1 is a distance range to a subject that can stereoscopically view the subject. In FIG. 2, the stereoscopic view possible range A1 is a range of a distance W1 from the cross point Pc toward the compound eye photographing apparatus 10 and a distance W2 from the cross point Pc to the side away from the compound eye photographing apparatus 10.

立体視可能範囲A1は、ステレオベースX、撮像素子34−1及び34−2の有効領域の幅、撮影レンズ22−1及び22−2の焦点距離及び許容視差量に基づいて定められる。   The stereoscopic view possible range A1 is determined based on the stereo base X, the width of the effective area of the imaging elements 34-1 and 34-2, the focal length of the photographing lenses 22-1 and 22-2, and the allowable parallax amount.

立体視可能範囲A1の複眼撮影装置10に最も近い点を近点Pn、複眼撮影装置10から最も遠い点を遠点Pfとする。φ=90°−θ、近点Pnにおける視差ズレ量をδ1(°)、遠点Pfにおける視差ズレ量をδ2(°)とすると、近点Pnと左レンズ22−2との距離Yn(=Y−W1)、遠点Pfと左レンズ22−2との距離Yf(=Y+W2)は、それぞれ下記の式(1)及び(2)により表される。   A point closest to the compound eye imaging device 10 in the stereoscopic view possible range A1 is a near point Pn, and a point farthest from the compound eye imaging device 10 is a far point Pf. When φ = 90 ° −θ, the parallax deviation amount at the near point Pn is δ1 (°), and the parallax deviation amount at the far point Pf is δ2 (°), the distance Yn between the near point Pn and the left lens 22-2 (= Y−W1), the distance Yf (= Y + W2) between the far point Pf and the left lens 22-2 is expressed by the following equations (1) and (2), respectively.

Yn=X/2×tan(φ−δ1) …(1)
Yf=X/2×tan(φ+δ2) …(2)
立体視可能範囲A1は、一例でδ1≦30°,δ2≦7°〜8°の範囲(範囲A)である。最近の調査では、立体視可能範囲A1は、好ましくはδ1≦3.34°,δ2≦3.05°の範囲(範囲B)であり、より好ましくはδ1≦1.84°,δ2≦2.04°の範囲(範囲C)と言われている。
Yn = X / 2 × tan (φ−δ1) (1)
Yf = X / 2 × tan (φ + δ2) (2)
The stereoscopic view possible range A1 is, for example, a range of δ1 ≦ 30 ° and δ2 ≦ 7 ° to 8 ° (range A). In a recent survey, the stereoscopic viewable range A1 is preferably a range of δ1 ≦ 3.34 ° and δ2 ≦ 3.05 ° (range B), more preferably δ1 ≦ 1.84 °, δ2 ≦ 2. The range of 04 ° (range C) is said.

図2では、計算を簡単にするために、左右の撮影レンズ22−1及び22−2の両方に角度をつけてクロスポイントPcを作っているが、左右どちらかの撮影レンズを固定してもよいことはもちろんである。   In FIG. 2, in order to simplify the calculation, the cross point Pc is formed by setting an angle to both the left and right photographing lenses 22-1 and 22-2. Of course it is good.

なお、複眼撮影装置10が、各範囲A,B,Cにユーザが出入りしたことを検知したときに、ユーザにその旨を報知するようにしてもよい。   In addition, when the compound eye imaging device 10 detects that the user has entered and exited each of the ranges A, B, and C, the user may be notified of that fact.

図3は、本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 3 is a flowchart showing a self-timer photographing method for parallax images according to the first embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS10)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS12)。   First, when the compound eye photographing apparatus 10 is powered on (step S10), the compound eye photographing apparatus 10 is activated in the 3D mode. The compound-eye imaging device 10 captures a parallax image by each of the imaging units 12-1 and 12-2, and displays a 3D live view image (through image) based on the parallax image on the display unit 18 (step S12). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS14)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS16)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS18)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS20)。なお、3Dモードで起動された場合に、デフォルトでセルフタイマーモードに設定されるようにしてもよい。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S14) and it is detected that the release switch is pressed (fully pressed) (step S16), the compound eye photographing apparatus 10 detects the position of the user (subject). Is started (step S18). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic view possible range A1 (step S20). Note that, when activated in the 3D mode, the self-timer mode may be set as a default.

図4は、ユーザの位置の判断方法を説明するための図である。   FIG. 4 is a diagram for explaining a method for determining the position of the user.

複眼撮影装置10は、左右の視差画像(左画像IMG、右画像IMG)からユーザを検出する。ここで、ユーザの検出は、例えば、顔検出処理により行われる。顔検出処理の方式としては、例えば、肌色に予め指定された色と近い色をもつ画素を原画像から取り出し、取り出した領域を顔領域として検出するものがある。この顔検出処理の方式では、例えば、肌色を他の色と区別するための色空間上で、予めサンプリングした肌色の情報から色空間上の肌色の範囲を定める。複眼撮影装置10は、例えば、画像中から検出した肌色領域ごとに、肌色の度合等に基づいて顔らしさの評価値(顔らしさ度)を算出する。そして、複眼撮影装置10は、上記顔らしさ度が所定値以上の肌色領域を顔領域と判断する。また、耳の検出処理の方式としては、例えば、上記顔検出処理によって検出された肌色の領域の中から左右に2つ並ぶ黒色を含む領域(目の領域)を検出し、こうして検出した目の領域の位置を基準として肌色領域の端部付近を耳の領域として検出するものがある。 The compound eye photographing apparatus 10 detects a user from left and right parallax images (left image IMG L and right image IMG R ). Here, the detection of the user is performed by, for example, face detection processing. As a face detection processing method, for example, there is a method in which a pixel having a color close to a color designated in advance as a skin color is extracted from an original image, and the extracted region is detected as a face region. In this face detection processing method, for example, a skin color range on a color space is determined from skin color information sampled in advance on a color space for distinguishing the skin color from other colors. For example, the compound eye photographing device 10 calculates an evaluation value (face-likeness degree) of the face-likeness based on the degree of the skin color or the like for each skin-color region detected from the image. Then, the compound eye photographing apparatus 10 determines that the skin color area having the faceness degree equal to or greater than a predetermined value is a face area. In addition, as a method of ear detection processing, for example, a region (eye region) including two black colors arranged on the left and right is detected from the skin color regions detected by the face detection processing, and thus the detected eye Some detect the vicinity of the edge of the skin color area as an ear area with reference to the position of the area.

次に、複眼撮影装置10は、左画像IMG及び右画像IMG中のユーザ(顔)の特徴点(それぞれP、P)を検出し、左画像IMGと右画像IMGとを重ねたときの特徴点PとPとのズレ量を測定する。そして、複眼撮影装置10は、このズレ量の絶対値(特徴点が複数の場合には、対応する特徴点間のズレ量の絶対値の合計値、平均値又は最大値)が所定値以下の場合、又は左画像IMG、右画像IMGの中心線(それぞれL、L)と特徴点P、Pとの間の距離の絶対値の合計値、平均値又は最大値が所定値以下の場合にユーザの位置が立体視可能範囲A1内にあると判断する。 Next, the compound eye imaging device 10 detects the feature points (P L and P R ) of the user (face) in the left image IMG L and the right image IMG R , respectively, and uses the left image IMG L and the right image IMG R. the shift amount between the feature points P L and P R when the superimposed measuring. Then, the compound eye photographing apparatus 10 has an absolute value of the shift amount (when there are a plurality of feature points, a total value, an average value, or a maximum value of the absolute values of the shift amounts between corresponding feature points) is equal to or less than a predetermined value. If, or left image IMG L, the right image IMG centerline of R (respectively L L, L R) and the feature point P L, the total value of the absolute value of the distance between the P R, the average value or the maximum value is predetermined If the value is less than or equal to the value, it is determined that the user's position is within the stereoscopic view possible range A1.

複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS20のYes)、タイマーを起動して時間のカウントを開始する(ステップS22)。そして、予め設定された時間(例えば、数秒)が経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS24)。複眼撮影装置10は、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS26)。また、図5に示すように、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS28)。 When the compound eye photographing apparatus 10 determines that the user is within the stereoscopic viewable range A1 (Yes in Step S20), the compound eye photographing apparatus 10 starts a timer and starts counting time (Step S22). When a preset time (for example, several seconds) elapses, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S24). The compound eye photographing apparatus 10 stores the parallax images IMG L and IMG R in a file of a predetermined format, and records the file in the recording unit 20 (step S26). As shown in FIG. 5, the compound eye photographing apparatus 10 displays a stereoscopic image for confirmation of photographing based on the parallax image on the display unit 18 for a predetermined time (postview display) (step S <b> 28).

本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。   According to the present embodiment, when self-timer photographing is performed by a compound eye photographing device with a fixed convergence angle θ, the timer count is started after detecting that the user is within the stereoscopic viewable range A1. As a result, it is possible to prevent the user from being located outside the range where the parallax image can be photographed and photographing failure.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.

本実施形態は、立体視可能範囲A1と視差ズレ量との関係を予めマップとして記録しておき、このマップに基づいて、ユーザが立体視可能範囲A1内にいるかどうかを判断するようにしたものである。   In this embodiment, the relationship between the stereoscopic viewable range A1 and the amount of parallax deviation is recorded in advance as a map, and based on this map, it is determined whether or not the user is within the stereoscopic viewable range A1. It is.

図6は、本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 6 is a flowchart illustrating a self-timer photographing method for parallax images according to the second embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS30)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく立体視のライブビュー画像(スルー画像)を表示部18に表示する(ステップS32)。   First, when the compound eye photographing apparatus 10 is turned on (step S30), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing device 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays a stereoscopic live view image (through image) based on the parallax images on the display unit 18 (step S32). ).

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS34)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS36)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS38)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS40)。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S34) and it is detected that the release switch is pressed (fully pressed) (step S36), the compound eye photographing apparatus 10 detects the position of the user (subject). Is started (step S38). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic viewable range A1 (step S40).

図7は、立体視可能範囲A1と視差ズレ量の対応関係を示すマップである。   FIG. 7 is a map showing the correspondence between the stereoscopic viewable range A1 and the amount of parallax deviation.

図7に示すように、マップM1には、視差ズレ量(角度)と立体視可能範囲であるかどうかを示す値が関連付けられて格納される。マップM1は、信号処理ICのROM又はEPROMに格納される。参照アドレスは、上記ROM又はEPROMにおけるデータの格納位置を示している。   As illustrated in FIG. 7, the map M1 stores a disparity amount (angle) and a value indicating whether or not a stereoscopic view possible range is associated with each other. The map M1 is stored in the ROM or EPROM of the signal processing IC. The reference address indicates the data storage position in the ROM or EPROM.

複眼撮影装置10は、上記実施形態と同様、左画像IMG及び右画像IMGに対してそれぞれ顔検出処理を施し、検出したユーザ(顔)の特徴点(それぞれP、P)を検出する。そして、複眼撮影装置10は、左画像IMGと右画像IMGとを重ねたときの特徴点PとPとのズレ量を測定する。複眼撮影装置10は、このズレ量の絶対値とマップM1に基づいて、ユーザの位置が立体視可能範囲A1内にあるかどうかを判断する。 Similarly to the above-described embodiment, the compound-eye imaging device 10 performs face detection processing on the left image IMG L and the right image IMG R , and detects the detected feature points (respectively P L and P R ) of the user (face). To do. The compound eye photographing apparatus 10 measures the deviation amount between the feature points P L and P R when the overlapped and left images IMG L and the right image IMG R. The compound eye photographing apparatus 10 determines whether or not the position of the user is within the stereoscopic viewable range A1 based on the absolute value of the shift amount and the map M1.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS40のYes)、下記のアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS42)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS44)。複眼撮影装置10は、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS46)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS48)。
[アルゴリズム]
IF ((ズレ量)≧min or (ズレ量)≦MAX)
{タイマー起動する}
else
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。また、ユーザが立体視可能範囲A1内にいるかどうかの判断基準となるマップM1を予め記憶しておくことにより、ユーザが立体視可能範囲A1内にいるかどうかの判断のための処理時間を短縮することが可能になる。
Next, when the compound-eye imaging device 10 determines that the user is within the stereoscopic viewable range A1 (Yes in Step S40), it starts a timer and starts counting time according to the following algorithm (Step S42). When a preset time (for example, several seconds) elapses, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S44). The compound eye imaging device 10 stores the parallax images IMG L and IMG R in a file of a predetermined format, and records the file in the recording unit 20 (step S46). Further, the compound eye photographing apparatus 10 displays a stereoscopic image for confirmation of photographing based on the parallax image on the display unit 18 for a predetermined time (postview display) (step S48).
[algorithm]
IF ((deviation amount) ≥ min or (deviation amount) ≤ MAX)
{Start timer}
else
According to the present embodiment, when self-timer photographing is performed by a compound eye photographing device with a fixed convergence angle θ, the timer count is started after detecting that the user is within the stereoscopic viewable range A1. As a result, it is possible to prevent the user from being located outside the range where the parallax image can be photographed and photographing failure. Further, by storing in advance a map M1 that is a criterion for determining whether or not the user is within the stereoscopic viewable range A1, the processing time for determining whether or not the user is within the stereoscopic viewable range A1 is shortened. It becomes possible.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

図8は、本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。   FIG. 8 is a block diagram showing a main configuration of a compound eye photographing apparatus according to the third embodiment of the present invention.

図8に示すように、本実施形態に係る複眼撮影装置10は、発光部50を備えている。発光部50は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。発光部50は、オートフォーカス時に被写体に光を照射して、AF検出を精度よく行うためのものである。   As shown in FIG. 8, the compound eye photographing apparatus 10 according to the present embodiment includes a light emitting unit 50. The light emitting unit 50 is, for example, a light emitting unit including a light emitting diode (LED), and is provided on the front surface of the compound eye photographing apparatus 10 (the surface on which the photographing lens 22 is provided). The light emitting unit 50 irradiates the subject with light at the time of autofocus, and performs AF detection with high accuracy.

本実施形態は、上記発光部50を用いて、立体視可能範囲A1内にいるかどうかをユーザに報知するようにしたものである。   In the present embodiment, the light emitting unit 50 is used to notify the user whether or not it is within the stereoscopic view possible range A1.

図9は、本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 9 is a flowchart showing a self-timer photographing method for parallax images according to the third embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS50)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS52)。   First, when the compound eye photographing apparatus 10 is turned on (step S50), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing device 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S52). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS54)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS56)、複眼撮影装置10は、後述のステップS64が終了するまで発光部50を発光させるとともに(ステップS58)、ユーザ(被写体)の位置の検出を開始する(ステップS60)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS62)。なお、ステップS62の判断工程については、上記第1及び第2の実施形態と同様である。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S54) and it is detected that the release switch is pressed (fully pressed) (step S56), the compound eye photographing apparatus 10 ends step S64 described later. The light emitting unit 50 is caused to emit light until it does (step S58), and detection of the position of the user (subject) is started (step S60). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic view possible range A1 (step S62). Note that the determination process in step S62 is the same as in the first and second embodiments.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS62のYes)、発光部50を点滅させて(ステップS64)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS66)、タイマーを起動して時間のカウントを開始する(ステップS68)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS70)。複眼撮影装置10は、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS72)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS74)。 Next, when the compound eye photographing apparatus 10 determines that the user is within the stereoscopic viewable range A1 (Yes in Step S62), the light emitting unit 50 is blinked (Step S64), and the user's position is within the stereoscopic viewable range A1. In addition, the user is notified (step S66), and the timer is started to start counting time (step S68). When a preset time (for example, several seconds) elapses, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S70). The compound eye imaging device 10 stores the parallax images IMG L and IMG R in a file of a predetermined format, and records the file in the recording unit 20 (step S72). Further, the compound eye photographing apparatus 10 displays a stereoscopic image for confirmation of photographing based on the parallax image on the display unit 18 for a predetermined time (postview display) (step S74).

本実施形態によれば、セルフタイマーで視差画像を撮影するときに、発光部50により、ユーザの位置が立体視可能範囲A1内であるかどうかをユーザに報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。   According to this embodiment, when a parallax image is captured by the self-timer, the light emitting unit 50 can notify the user whether or not the user's position is within the stereoscopic viewable range A1. In addition, since the existing AF auxiliary light emitting unit 50 is used for notification to the user, the manufacturing cost of the compound eye photographing apparatus 10 can be reduced.

なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。   In this embodiment, the light emitting unit 50 is caused to emit light when the release switch is pressed, and the light emitting unit 50 is blinked when the user enters the stereoscopic viewable range A1. It is not limited to the above. The light emission color, the light emission amount, the blinking time interval, and a combination thereof may indicate that the user has entered the stereoscopic switchable range A1 by pressing the release switch.

[第4の実施形態]
次に、本発明の第4の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

本実施形態は、セルフタイマー撮影した視差画像IMG及びIMGに基づいて、立体視可能な3D表示を行うことが可能かどうかを判断し、複眼撮影装置10の前方にいるユーザに上記判断結果を報知し、必要に応じて再撮影するようにしたものである。 In the present embodiment, based on the parallax images IMG L and IMG R taken by the self-timer, it is determined whether stereoscopic 3D display is possible, and the above determination result is sent to the user in front of the compound-eye imaging device 10. Is re-photographed if necessary.

図10は、本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 10 is a flowchart showing a self-timer photographing method for parallax images according to the fourth embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS80)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS82)。   First, when the compound eye photographing apparatus 10 is turned on (step S80), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing apparatus 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S82). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS84)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS86)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS88)、ユーザ(被写体)の位置の検出を開始する(ステップS90)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS92)。なお、ステップS92の判断工程については上記の実施形態と同様である。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S84) and it is detected that the release switch is pressed (fully pressed) (step S86), the compound eye photographing apparatus 10 causes the light emitting unit 50 to emit light. At the same time (step S88), detection of the position of the user (subject) is started (step S90). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic viewable range A1 (step S92). The determination process in step S92 is the same as that in the above embodiment.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS92のYes)、発光部50を点滅させて(ステップS94)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS96)、タイマーを起動して時間のカウントを開始する(ステップS98)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS100)。   Next, when the compound eye photographing apparatus 10 determines that the user is within the stereoscopic viewable range A1 (Yes in Step S92), the light emitting unit 50 is blinked (Step S94), and the user's position is within the stereoscopic viewable range A1. In addition, the user is notified (step S96), and the timer is started to start counting time (step S98). When a preset time (for example, several seconds) elapses, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S100).

次に、複眼撮影装置10は、ステップS100において撮影された視差画像IMG及びIMGから撮影実行時におけるユーザの動きを測定する(ステップS102)。複眼撮影装置10は、視差画像IMG及びIMGから被写体の特徴点を抽出し、上記ステップS92と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS106)。そして、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS108)。 Next, the compound eye photographing apparatus 10 measures the movement of the user at the time of photographing from the parallax images IMG L and IMG R photographed in Step S100 (Step S102). The compound eye photographing apparatus 10 extracts the feature point of the subject from the parallax images IMG L and IMG R, and detects the amount of parallax deviation based on the position of the feature point in the same manner as in step S92 (step S106). Then, the compound eye photographing device 10 determines whether or not stereoscopic 3D display based on the parallax images IMG L and IMG R is possible, that is, the stereoscopic movement range when the user moves when shooting the parallax images IMG L and IMG R. Judgment is made as to whether or not A1 has exited (step S108).

また、複眼撮影装置10は、視差画像IMG及びIMGに基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS104)。 Further, the compound eye photographing apparatus 10 displays a stereoscopic image for photographing confirmation based on the parallax images IMG L and IMG R on the display unit 18 for a predetermined time (post view display) (step S104).

次に、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS108のYes)、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS110)。 Next, the compound eye photographing apparatus 10 can perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that the image has not come out (Yes in step S108), the parallax images IMG L and IMG R are stored in a file of a predetermined format, and the file is recorded in the recording unit 20 (step S110).

一方、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS108のNo)、点滅していた発光部50を発光させて(ステップS112)、撮影の失敗をユーザに報知する(ステップS114)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS92からS114)。 On the other hand, the compound eye photographing apparatus 10 cannot perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that the light has exited (No in step S108), the flashing light emitting unit 50 is caused to emit light (step S112), and the user is notified of the shooting failure (step S114). Then, the process returns to step S92, and the parallax image is captured again (steps S92 to S114).

本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。   According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-eye imaging device 10. Can be notified. In addition, since the existing AF auxiliary light emitting unit 50 is used for notification to the user, the manufacturing cost of the compound eye photographing apparatus 10 can be reduced.

なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させ、撮影の失敗時に発光部50を再点灯させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。   In the present embodiment, the light emitting unit 50 is caused to emit light when the release switch is pressed, the light emitting unit 50 is blinked when the user enters the stereoscopic viewable range A1, and the light emitting unit 50 is turned on when photographing fails. Although it is made to light up again, the light emission method is not limited to the above. The light emission color, the light emission amount, the blinking time interval, and a combination thereof may indicate that the user has entered the stereoscopic switchable range A1 by pressing the release switch.

[第5の実施形態]
次に、本発明の第5の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

図11は、本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 11 is a flowchart showing a self-timer photographing method for parallax images according to the fifth embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS120)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS122)。   First, when the compound eye photographing apparatus 10 is powered on (step S120), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing device 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S122). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS124)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS126)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS128)、ユーザ(被写体)の位置の検出を開始する(ステップS130)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS132)。なお、ステップS132の判断工程については上記の実施形態と同様である。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S124) and it is detected that the release switch is pressed (fully pressed) (step S126), the compound eye photographing apparatus 10 causes the light emitting unit 50 to emit light. At the same time (step S128), detection of the position of the user (subject) is started (step S130). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic viewable range A1 (step S132). The determination process in step S132 is the same as that in the above embodiment.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS132のYes)、発光部50の発光色を変化(遷移)させて(ステップS134)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS136)、タイマーを起動して時間のカウントを開始する(ステップS138)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS140)。   Next, when the compound-eye imaging device 10 determines that the user is within the stereoscopic viewable range A1 (Yes in step S132), the emission color of the light emitting unit 50 is changed (transitioned) (step S134), and the position of the user Is in the stereoscopic view possible range A1 (step S136), and the timer is started to start counting time (step S138). Then, when a preset time (for example, several seconds) elapses, left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S140).

次に、複眼撮影装置10は、ステップS140において撮影された視差画像IMG及びIMGから撮影実行時におけるユーザの動きを測定する(ステップS142)。複眼撮影装置10は、視差画像IMG及びIMGから被写体の特徴点を抽出し、上記ステップS132と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS146)。そして、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS148)。 Next, the compound eye photographing apparatus 10 measures the movement of the user at the time of photographing from the parallax images IMG L and IMG R photographed in Step S140 (Step S142). The compound-eye imaging device 10 extracts feature points of the subject from the parallax images IMG L and IMG R, and detects the amount of parallax deviation based on the position of the feature points in the same manner as in step S132 (step S146). Then, the compound eye photographing device 10 determines whether or not stereoscopic 3D display based on the parallax images IMG L and IMG R is possible, that is, the stereoscopic movement range when the user moves when shooting the parallax images IMG L and IMG R. Judgment is made as to whether or not A1 has been exited (step S148).

また、複眼撮影装置10は、視差画像IMG及びIMGに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS144)。 Further, the compound eye photographing apparatus 10 displays a 3D image for photographing confirmation based on the parallax images IMG L and IMG R on the display unit 18 for a predetermined time (post-view display) (step S144).

次に、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS148のYes)、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS150)。 Next, the compound eye photographing apparatus 10 can perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that it has not come out (Yes in step S148), the parallax images IMG L and IMG R are stored in a file of a predetermined format, and the file is recorded in the recording unit 20 (step S150).

一方、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS148のNo)、発光部50の発光色をステップS128の発光色に戻し(ステップS152)、撮影の失敗をユーザに報知する(ステップS154)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS132からS154)。 On the other hand, the compound eye photographing apparatus 10 cannot perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that the light has come out (No in step S148), the light emission color of the light emitting unit 50 is returned to the light emission color in step S128 (step S152), and the user is notified of the shooting failure (step S154). Then, the process returns to step S92, and the parallax image is captured again (steps S132 to S154).

本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。   According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-eye imaging device 10. Can be notified. In addition, since the existing AF auxiliary light emitting unit 50 is used for notification to the user, the manufacturing cost of the compound eye photographing apparatus 10 can be reduced.

[第6の実施形態]
次に、本発明の第6の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

図12は、本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。   FIG. 12 is a block diagram showing the main configuration of a compound eye photographing apparatus according to the sixth embodiment of the present invention.

図12に示すように、本実施形態に係る複眼撮影装置10は、フラッシュ発光部60を備えている。フラッシュ発光部60は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。フラッシュ発光部60は、AEの結果又はユーザの設定に応じて撮影時に被写体に光を照射するためのものである。   As shown in FIG. 12, the compound eye photographing apparatus 10 according to the present embodiment includes a flash light emitting unit 60. The flash light emitting unit 60 is, for example, a light emitting unit including a light emitting diode (LED), and is provided on the front surface of the compound eye photographing apparatus 10 (the surface on which the photographing lens 22 is provided). The flash light emitting unit 60 is for irradiating the subject with light at the time of shooting according to the result of AE or the setting of the user.

本実施形態は、上記フラッシュ発光部60を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMG及びIMGに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。 In the present embodiment, 3D display capable of stereoscopic viewing can be performed using the flash light emitting unit 60 based on whether or not it is within the stereoscopic viewable range A1 and the parallax images IMG L and IMG R taken by the self-timer. This is to notify the user of the determination result.

図13は、本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 13 is a flowchart showing a self-timer photographing method for parallax images according to the sixth embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS160)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS162)。   First, when the compound eye photographing apparatus 10 is powered on (step S160), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing device 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S162). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS164)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS166)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS168)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS170)。なお、ステップS170の判断工程については上記の実施形態と同様である。   Next, the compound eye photographing apparatus 10 is set to the self-timer mode (step S164), and when it is detected that the release switch is pressed (full depression) (step S166), the compound eye photographing apparatus 10 detects the position of the user (subject). Is started (step S168). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic viewable range A1 (step S170). The determination process in step S170 is the same as that in the above embodiment.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS170のYes)、フラッシュ発光部60をプリ発光させた後点滅させて(ステップS172)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS174)、タイマーを起動して時間のカウントを開始する(ステップS176)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS178)。   Next, when the compound eye photographing apparatus 10 determines that the user is within the stereoscopic viewable range A1 (Yes in Step S170), the flash light emitting unit 60 is pre-flashed and then blinked (Step S172), and the position of the user Is in the stereoscopic viewable range A1 (step S174), and a timer is started to start counting time (step S176). When a preset time (for example, several seconds) elapses, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S178).

次に、複眼撮影装置10は、ステップS178において撮影された視差画像IMG及びIMGから撮影実行時におけるユーザの動きを測定する(ステップS180)。複眼撮影装置10は、視差画像IMG及びIMGから被写体の特徴点を抽出し、上記ステップS170と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS184)。そして、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS186)。 Next, the compound eye photographing apparatus 10 measures the movement of the user at the time of photographing from the parallax images IMG L and IMG R photographed in Step S178 (Step S180). The compound eye photographing apparatus 10 extracts the feature point of the subject from the parallax images IMG L and IMG R, and detects the amount of parallax deviation based on the position of the feature point in the same manner as in step S170 (step S184). Then, the compound eye photographing device 10 determines whether or not stereoscopic 3D display based on the parallax images IMG L and IMG R is possible, that is, the stereoscopic movement range when the user moves when shooting the parallax images IMG L and IMG R. Judgment is made as to whether or not A1 has exited (step S186).

また、複眼撮影装置10は、視差画像IMG及びIMGに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS182)。 Further, the compound eye photographing apparatus 10 displays a 3D image for photographing confirmation based on the parallax images IMG L and IMG R on the display unit 18 for a predetermined time (post view display) (step S182).

次に、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS186のYes)、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS188)。 Next, the compound eye photographing apparatus 10 can perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that the image has not come out (Yes in step S186), the parallax images IMG L and IMG R are stored in a file of a predetermined format, and the file is recorded in the recording unit 20 (step S188).

一方、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS186のNo)、フラッシュ発光部60再発光させて(ステップS190)、撮影の失敗をユーザに報知する(ステップS192)。そして、ステップS170に戻り、再び視差画像の撮影を実行する(ステップS170からS192)。 On the other hand, the compound eye photographing apparatus 10 cannot perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that it has come out (No in step S186), the flash light emitting unit 60 is re-emitted (step S190), and the user is notified of the shooting failure (step S192). Then, the process returns to step S170, and the parallax image is captured again (steps S170 to S192).

本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のフラッシュ発光部60をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。   According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-eye imaging device 10. Can be notified. Moreover, since the existing flash light emitting unit 60 is used for notification to the user, the manufacturing cost of the compound eye photographing apparatus 10 can be suppressed.

[第7の実施形態]
次に、本発明の第7の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Seventh Embodiment]
Next, a seventh embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

図14は、本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。   FIG. 14 is a block diagram showing the main configuration of a compound eye photographing apparatus according to the seventh embodiment of the present invention.

図14に示すように、本実施形態に係る複眼撮影装置10は、スピーカ70を備えている。スピーカ70は、不図示のマイクを介して録音された音声(いわゆるボイスメモ等)を再生するためのものである。   As shown in FIG. 14, the compound eye photographing apparatus 10 according to the present embodiment includes a speaker 70. The speaker 70 is for playing back sound (so-called voice memo or the like) recorded via a microphone (not shown).

本実施形態は、上記スピーカ70を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMG及びIMGに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。 In this embodiment, it is possible to perform stereoscopic 3D display using the speaker 70 based on whether or not it is within the stereoscopic viewable range A1 and the parallax images IMG L and IMG R taken by the self-timer. The determination result is notified to the user.

図15は、本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 15 is a flowchart showing a self-timer photographing method for parallax images according to the seventh embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS200)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS202)。   First, when the compound eye photographing apparatus 10 is turned on (step S200), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing apparatus 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays a 3D live view image (through image) based on the parallax images on the display unit 18 (step S202). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS204)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS206)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS208)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS210)。なお、ステップS210の判断工程については上記の実施形態と同様である。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S204) and it is detected that the release switch is pressed (fully pressed) (step S206), the compound eye photographing apparatus 10 detects the position of the user (subject). Is started (step S208). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic view possible range A1 (step S210). The determination process in step S210 is the same as that in the above embodiment.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS210のYes)、立体視可能範囲A1内に入ったことをスピーカ70から音声出力させ(ステップS212)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS214)、タイマーを起動して時間のカウントを開始する(ステップS216)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS218)。   Next, when the compound-eye imaging device 10 determines that the user is within the stereoscopic viewable range A1 (Yes in step S210), it outputs a sound from the speaker 70 that it has entered the stereoscopic viewable range A1 (step S212). The user is notified that the position of the user is within the stereoscopic viewable range A1 (step S214), and the timer is started to start counting time (step S216). Then, when a preset time (for example, several seconds) elapses, left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S218).

次に、複眼撮影装置10は、ステップS218において撮影された視差画像IMG及びIMGから撮影実行時におけるユーザの動きを測定する(ステップS220)。複眼撮影装置10は、視差画像IMG及びIMGから被写体の特徴点を抽出し、上記ステップS210と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS224)。そして、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS226)。 Next, the compound eye photographing apparatus 10 measures the movement of the user at the time of photographing from the parallax images IMG L and IMG R photographed in Step S218 (Step S220). The compound-eye imaging device 10 extracts feature points of the subject from the parallax images IMG L and IMG R, and detects the amount of parallax deviation based on the position of the feature points in the same manner as in step S210 (step S224). Then, the compound eye photographing device 10 determines whether or not stereoscopic 3D display based on the parallax images IMG L and IMG R is possible, that is, the stereoscopic movement range when the user moves when shooting the parallax images IMG L and IMG R. Judgment is made as to whether or not it has exited from A1 (step S226).

また、複眼撮影装置10は、視差画像IMG及びIMGに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS222)。 Further, the compound eye photographing apparatus 10 displays a 3D image for photographing confirmation based on the parallax images IMG L and IMG R on the display unit 18 for a predetermined time (postview display) (step S222).

次に、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS226のYes)、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS228)。 Next, the compound eye photographing apparatus 10 can perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that the image has not come out (Yes in step S226), the parallax images IMG L and IMG R are stored in a file of a predetermined format, and the file is recorded in the recording unit 20 (step S228).

一方、複眼撮影装置10は、視差画像IMG及びIMGに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMG及びIMGの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS226のNo)、立体視可能な視差画像の撮影に失敗したことをスピーカ70から音声出力させて(ステップS230)、撮影の失敗をユーザに報知する(ステップS232)。そして、ステップS210に戻り、再び視差画像の撮影を実行する(ステップS210からS232)。 On the other hand, the compound eye photographing apparatus 10 cannot perform stereoscopic 3D display based on the parallax images IMG L and IMG R , that is, the stereoscopic view possible range A1 when the user moves when photographing the parallax images IMG L and IMG R. If it is determined that the image has been taken out (No in step S226), the speaker 70 outputs a sound that the shooting of the stereoscopically viewable parallax image has failed (step S230), and notifies the user of the shooting failure (step S232). . And it returns to step S210 and imaging | photography of a parallax image is performed again (step S210 to S232).

本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のスピーカ70をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。   According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-eye imaging device 10. Can be notified. Further, since the existing speaker 70 is used for notification to the user, the manufacturing cost of the compound eye photographing apparatus 10 can be suppressed.

[第8の実施形態]
次に、本発明の第8の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Eighth Embodiment]
Next, an eighth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

本実施形態は、上記第3の実施形態において、セルフタイマーの時間をユーザが手動で調整できるようにしたものである。   In the third embodiment, the user can manually adjust the self-timer time in the third embodiment.

図16は、本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 16 is a flowchart showing a self-timer photographing method for parallax images according to the eighth embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS240)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS242)。   First, when the compound eye photographing apparatus 10 is powered on (step S240), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing apparatus 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S242). .

次に、複眼撮影装置10は、セルフタイマーモードに設定されると(ステップS244)、タイマー時間(ステップS262における立体視可能範囲A1内にユーザが入ったことを検出してから撮影を実行するまでの時間)の設定画面(GUI)を表示部18に表示し、タイマー時間の設定入力を受け付ける(ステップS246)。以下、ステップS248からS266の処理については、上記図9のステップS56からS74と同様である。   Next, when the compound-eye imaging device 10 is set to the self-timer mode (step S244), the timer time (from detecting that the user has entered the stereoscopic viewable range A1 in step S262 to executing the imaging) (Time)) setting screen (GUI) is displayed on the display unit 18, and a timer time setting input is received (step S246). Hereinafter, the processing of steps S248 to S266 is the same as that of steps S56 to S74 of FIG.

本実施形態によれば、ユーザ等が撮影時の姿勢を決めるまでの時間の自由に設定することができるので、ユーザの意図通りの撮影を容易にすることができる。   According to the present embodiment, since it is possible to freely set the time until the user or the like decides the posture at the time of shooting, shooting as intended by the user can be facilitated.

[第9の実施形態]
次に、本発明の第9の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Ninth Embodiment]
Next, a ninth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

図17は、本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 17 is a flowchart showing a self-timer photographing method for parallax images according to the ninth embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS270)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS272)。   First, when the compound eye photographing apparatus 10 is turned on (step S270), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing apparatus 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S272). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS274)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS276)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS278)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS280)。なお、ステップS280の判断工程については上記の実施形態と同様である。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S274) and it is detected that the release switch is pressed (full depression) (step S276), the compound eye photographing apparatus 10 detects the position of the user (subject). Is started (step S278). Then, the compound eye photographing apparatus 10 determines whether or not the user is within the stereoscopic view possible range A1 (step S280). The determination process in step S280 is the same as that in the above embodiment.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS280のYes)、立体視可能範囲A1内にユーザ以外の被写体がいるかどうか判断する(ステップS282)。ステップS282では、複眼撮影装置10は、例えば、ステップS272のスルー画像に対して顔検出処理を行い、レリーズスイッチが押下された後に、スルー画像中から新たに検出された(レリーズスイッチ押下前に顔が検出されていた場合にはレリーズスイッチ押下前から増えた)顔をユーザと判断する。   Next, when the compound-eye imaging device 10 determines that the user is within the stereoscopic viewable range A1 (Yes in step S280), the compound-eye imaging device 10 determines whether there is a subject other than the user in the stereoscopic viewable range A1 (step S282). In step S282, for example, the compound eye photographing apparatus 10 performs face detection processing on the through image in step S272, and after the release switch is pressed, a new detection is made in the through image (the face before the release switch is pressed). Is detected), the face is determined to be a user.

複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいると判断すると(ステップS282のYes)、ユーザとユーザ以外の被写体に合わせて撮影制御を行う(ステップS284)。ステップS284では、複眼撮影装置10は、例えば、検出した被写体(ユーザを含む)のすべて又は所定の割合以上が立体視可能範囲A1内にいると判断した場合に、ステップS288に進んでタイマーを起動する。また、複眼撮影装置10は、検出した被写体(ユーザを含む)の中から主要被写体を選択し、上記主要被写体に合わせてAE制御、AF制御及びAWB制御を行う。ここで、主要被写体はユーザ自身としてもよいし、又は顔領域の大きさ、複眼撮影装置10からの距離及び顔らしさ度のうちの少なくとも1つに基づいて決定されるようにしてもよい。例えば、顔領域が最も大きい、複眼撮影装置10からの距離が最も近い、又は顔らしさ度が最も高い被写体が主要被写体として選択される。   When the compound eye photographing apparatus 10 determines that there is a subject other than the user within the stereoscopic view possible range A1 (Yes in step S282), the compound eye photographing device 10 performs photographing control according to the subject other than the user and the user (step S284). In step S284, for example, when the compound-eye imaging device 10 determines that all or a predetermined ratio or more of the detected subjects (including the user) are within the stereoscopic viewable range A1, the process proceeds to step S288 and starts the timer. To do. In addition, the compound eye photographing apparatus 10 selects a main subject from the detected subjects (including the user), and performs AE control, AF control, and AWB control according to the main subject. Here, the main subject may be the user himself / herself, or may be determined based on at least one of the size of the face region, the distance from the compound-eye imaging device 10, and the degree of facialness. For example, the subject with the largest face area, the shortest distance from the compound-eye imaging device 10, or the highest faceness degree is selected as the main subject.

一方、複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいないと判断すると(ステップS282のNo)、被写体はユーザのみであると判断し、ユーザに合わせて撮影制御を行う(ステップS286)。即ち、複眼撮影装置10は、ユーザに合わせてAE制御、AF制御及びAWB制御を行う。   On the other hand, when the compound eye photographing apparatus 10 determines that there is no subject other than the user in the stereoscopic view possible range A1 (No in step S282), it determines that the subject is only the user and performs photographing control according to the user ( Step S286). That is, the compound eye photographing apparatus 10 performs AE control, AF control, and AWB control according to the user.

次に、複眼撮影装置10は、タイマーを起動して時間のカウントを開始する(ステップS288)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS290)。   Next, the compound eye photographing apparatus 10 starts a timer and starts counting time (step S288). Then, when a preset time (for example, several seconds) elapses, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S290).

次に、複眼撮影装置10は、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS292)。また、複眼撮影装置10は、視差画像IMG及びIMGに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS294)。 Next, the compound eye imaging device 10 stores the parallax images IMG L and IMG R in a file of a predetermined format, and records the file in the recording unit 20 (step S292). Further, the compound eye photographing apparatus 10 displays a 3D image for photographing confirmation based on the parallax images IMG L and IMG R on the display unit 18 for a predetermined time (post-view display) (step S294).

本実施形態によれば、ユーザがレリーズスイッチを押下した時点で、立体視可能範囲A1内に他の人物が既にいた場合であっても、立体視可能範囲A1内にユーザが入ってからセルフタイマー撮影を開始することができるので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。   According to the present embodiment, even when another person is already in the stereoscopic viewable range A1 when the user presses the release switch, the self-timer after the user enters the stereoscopic viewable range A1. Since the photographing can be started, it is possible to prevent the photographing from being performed in the state where there is no user within the stereoscopic view possible range A1.

[第10の実施形態]
次に、本発明の第10の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Tenth embodiment]
Next, a tenth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

本実施形態は、ユーザの画像の特徴点情報を複眼撮影装置10に予め登録しておき、特徴点情報に基づいて、ユーザの検出を行うようにしたものである。   In the present embodiment, feature point information of a user's image is registered in advance in the compound eye photographing apparatus 10, and the user is detected based on the feature point information.

図18は、ユーザの特徴点情報の登録処理を示すフローチャートである。   FIG. 18 is a flowchart showing a registration process of user feature point information.

まず、複眼撮影装置10の電源がオンになると(ステップS300)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS302)。   First, when the compound eye photographing apparatus 10 is turned on (step S300), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye imaging device 10 captures the parallax images by the imaging units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S302). .

次に、レリーズスイッチが押下(全押し)に応じて、複眼撮影装置10は、人物(ユーザ)の画像を撮影する(ステップS304)。そして、複眼撮影装置10は、撮影した人物画像に対して顔検出処理を施して特徴点を抽出し(ステップS306)、特徴点の座標及び位置関係を示す特徴点情報をEPROM等の記憶手段に記憶する(ステップS308)。   Next, in response to the release switch being pressed (fully pressed), the compound eye imaging device 10 captures an image of a person (user) (step S304). Then, the compound eye photographing apparatus 10 performs face detection processing on the photographed person image to extract feature points (step S306), and stores feature point information indicating the coordinates and positional relationship of the feature points in a storage unit such as an EPROM. Store (step S308).

図19は、本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 19 is a flowchart showing a self-timer photographing method for parallax images according to the tenth embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS310)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS312)。   First, when the compound eye photographing apparatus 10 is turned on (step S310), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing apparatus 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays a 3D live view image (through image) based on the parallax images on the display unit 18 (step S312). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS314)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS316)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS318)。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S314) and it is detected that the release switch is pressed (full depression) (step S316), the compound eye photographing apparatus 10 The detection of the position of the person included in is started (step S318).

次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、検出した人物が特徴点を登録済みの人物であるかどうか判断する(ステップS320)。複眼撮影装置10は、検出した人物が特徴点を登録済みの人物であると判断した場合(ステップS320のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS322)。ステップS322では、複眼撮影装置10は、スルー画像から検出したユーザの特徴点の視差ズレ量と、図7のマップM1に基づいてユーザが立体視可能範囲A1内にいるかどうかを判断する。なお、ステップS322の判断は、例えば、上記第1の実施形態と同様にしてもよい。   Next, the compound eye photographing apparatus 10 extracts the feature point of the person detected from the through image, compares the feature point of the person with the feature point information registered in advance, and the detected person has registered the feature point It is determined whether the person is a person (step S320). When the compound eye imaging apparatus 10 determines that the detected person is a person whose feature points have been registered (Yes in step S320), the compound eye imaging apparatus 10 determines whether the user is within the stereoscopic view possible range A1 (step S322). In step S322, the compound eye photographing apparatus 10 determines whether the user is within the stereoscopic view possible range A1 based on the amount of parallax shift of the user's feature point detected from the through image and the map M1 of FIG. Note that the determination in step S322 may be the same as that in the first embodiment, for example.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS322のYes)、上記第2の実施形態で説明したアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS324)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS326)。複眼撮影装置10は、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS328)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS330)。 Next, when the compound eye photographing apparatus 10 determines that the user is within the stereoscopic viewable range A1 (Yes in step S322), the timer is started according to the algorithm described in the second embodiment, and the time is counted. Start (step S324). Then, when a preset time (for example, several seconds) has elapsed, the left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S326). The compound eye photographing apparatus 10 stores the parallax images IMG L and IMG R in a file of a predetermined format, and records the file in the recording unit 20 (step S328). Further, the compound eye photographing apparatus 10 displays a 3D image for photographing confirmation based on the parallax image on the display unit 18 for a predetermined time (post-view display) (step S330).

本実施形態によれば、予め登録した被写体(人物、ユーザ)が立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体(人物、ユーザ)の検出処理に要する時間を短縮することができる。   According to the present embodiment, since the self-timer shooting is started when a pre-registered subject (person, user) enters the stereoscopic viewable range A1, there is no user in the stereoscopic viewable range A1. Can prevent shooting. Further, since the detection target can be narrowed down by the feature point information, the time required for the subject (person, user) detection process can be shortened.

[第11の実施形態]
次に、本発明の第11の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Eleventh embodiment]
Next, an eleventh embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.

本実施形態は、ユーザとユーザ以外の被写体となりうる人物の両方について特徴点情報の登録処理を行い、この特徴点情報に基づいてユーザとユーザ以外の被写体(人物)が立体視可能範囲A1内にいるかどうかの判断を行うようにしたものである。   In this embodiment, the feature point information is registered for both the user and a person who can be a subject other than the user, and the subject (person) other than the user and the user is within the stereoscopic viewable range A1 based on the feature point information. Judgment is made whether or not.

図20は、本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。   FIG. 20 is a flowchart showing a self-timer photographing method for parallax images according to the eleventh embodiment of the present invention.

まず、複眼撮影装置10の電源がオンになると(ステップS340)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS342)。   First, when the compound eye photographing apparatus 10 is powered on (step S340), the compound eye photographing apparatus 10 is activated in the 3D mode. Then, the compound eye photographing device 10 photographs the parallax images by the photographing units 12-1 and 12-2, and displays the 3D live view image (through image) based on the parallax images on the display unit 18 (step S342). .

次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS344)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS346)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS348)。   Next, when the compound eye photographing apparatus 10 is set to the self-timer mode (step S344) and it is detected that the release switch is pressed (full depression) (step S346), the compound eye photographing apparatus 10 The detection of the position of the person included in is started (step S348).

次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、特徴点情報を登録済みの人物が立体視可能範囲A1内にいるかどうか判断する(ステップS350)。複眼撮影装置10は、特徴点情報を登録済みの人物が立体視可能範囲A1内にいると判断した場合(ステップS350のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS352)。なお、ステップS350及びS352の判断工程は上記の実施形態と同様である。   Next, the compound eye photographing device 10 extracts the feature points of the person detected from the through image, compares the feature points of the person with the feature point information registered in advance, and the person who has registered the feature point information It is determined whether it is within the stereoscopic view possible range A1 (step S350). When the compound eye photographing apparatus 10 determines that the person whose feature point information has been registered is in the stereoscopic viewable range A1 (Yes in step S350), the compound eye imaging apparatus 10 determines whether the user is in the stereoscopic viewable range A1 (step S350). S352). In addition, the determination process of step S350 and S352 is the same as that of said embodiment.

次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS352のYes)、タイマーを起動して時間のカウントを開始する(ステップS354)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS356)。複眼撮影装置10は、視差画像IMG及びIMGを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS358)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS360)。 Next, when the compound eye photographing apparatus 10 determines that the user is within the stereoscopic viewable range A1 (Yes in step S352), the compound eye photographing apparatus 10 starts a timer and starts counting time (step S354). Then, when a preset time (for example, several seconds) elapses, left and right parallax images are captured by the imaging units 12-1 and 12-2 (step S356). The compound eye imaging device 10 stores the parallax images IMG L and IMG R in a file of a predetermined format, and records the file in the recording unit 20 (step S358). Further, the compound eye photographing apparatus 10 displays a 3D image for confirmation of photographing based on the parallax image on the display unit 18 for a predetermined time (post-view display) (step S360).

本実施形態によれば、予め登録した人物(ユーザとユーザ以外の被写体となりうる人物)がすべて立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。   According to the present embodiment, the self-timer shooting is started when all of the pre-registered persons (persons who can be subjects other than the user) are within the stereoscopic viewable range A1, so that the stereoscopic viewable range is reached. It is possible to prevent photographing in a state where there is no user or registered person in A1. Further, since the detection target can be narrowed down by the feature point information, the time required for the subject detection process can be shortened.

10…複眼カメラ、12…撮影部、14…CPU、16…操作部、18…表示部、20…記録部、22…撮影レンズ、24…フォーカスレンズ、26…ズームレンズ、28…絞り、30…メカシャッタ、32…光学系駆動部、34…撮像素子、36…タイミング・ジェネレータ、38…アンプ、40…アナログ信号処理部、50…発光部、60…フラッシュ発光部、70…スピーカ   DESCRIPTION OF SYMBOLS 10 ... Compound eye camera, 12 ... Shooting part, 14 ... CPU, 16 ... Operation part, 18 ... Display part, 20 ... Recording part, 22 ... Shooting lens, 24 ... Focus lens, 26 ... Zoom lens, 28 ... Aperture, 30 ... Mechanical shutter 32 ... Optical system drive unit 34 ... Image sensor 36 ... Timing generator 38 ... Amplifier 40 ... Analog signal processing unit 50 ... Light emission unit 60 ... Flash light emission unit 70 ... Speaker

Claims (17)

所定の輻輳角をなすように固定された第1及び第2の撮影部と、
ユーザからの撮影指示の入力を受け付ける撮影指示部と、
セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、
前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部と、
を備える複眼撮影装置。
First and second imaging units fixed to form a predetermined convergence angle;
A shooting instruction unit for receiving an input of a shooting instruction from a user;
A timer shooting setting unit for accepting settings for self-timer shooting;
After the timer shooting setting unit receives the setting of the self-timer shooting, when the shooting instruction unit receives an input of the shooting instruction, the user's position is detected and the user's position can be stereoscopically viewed. A first determination unit that determines whether or not a parallax image is within a stereoscopic view possible range;
After the first determination unit determines that the user's position is within the stereoscopic view possible range, the parallax image of the user is shot by the first and second shooting units. A shooting control unit;
A compound eye photographing apparatus.
前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項1記載の複眼撮影装置。   The first determination unit detects a feature point of the user from the images photographed by the first and second photographing units, and the position of the user is determined based on the amount of parallax deviation of the feature point. The compound-eye imaging device according to claim 1, wherein it is determined whether or not the range is within a viewable range. 前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、
前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項2記載の複眼撮影装置。
A map in which the amount of parallax deviation of the feature points is recorded so that the position of the user is within the stereoscopic view possible range;
The compound eye according to claim 2, wherein the first determination unit determines whether or not the position of the user is within the stereoscopic viewable range by comparing a parallax shift amount of the feature point with the map. Shooting device.
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える請求項1から3のいずれか1項記載の複眼撮影装置。   The compound eye photography according to any one of claims 1 to 3, further comprising a notification unit that notifies the user that the first determination unit has determined that the position of the user is within the stereoscopic viewable range. apparatus. 前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、
前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、
前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行する、請求項1から3のいずれか1項記載の複眼撮影装置。
A second determination unit that extracts a feature point of the user from the parallax image of the user and determines whether or not the position of the user is within the stereoscopic view possible range when the parallax image is captured;
A notification unit that notifies the user that the second determination unit has determined that the position of the user is not within the stereoscopic viewable range when the parallax image is captured;
The shooting control unit determines that the position of the user is within the stereoscopic viewable range after the second determination unit determines that the position of the user is not within the stereoscopic viewable range when shooting the parallax image. 4. The parallax image of the user is re-executed by the first and second imaging units after a lapse of a predetermined time from the determination by the first determination unit. 5. Compound eye photography device.
前記報知部は補助光発光部又はフラッシュ発光部である、請求項4又は5記載の複眼撮影装置。   The compound eye photographing apparatus according to claim 4 or 5, wherein the notification unit is an auxiliary light emitting unit or a flash light emitting unit. 前記報知部は音声出力部である、請求項4から6のいずれか1項記載の複眼撮影装置。   The compound eye photographing apparatus according to claim 4, wherein the notification unit is an audio output unit. 前記所定時間を変更する変更部を更に備える請求項1から7のいずれか1項記載の複眼撮影装置。   The compound eye photographing apparatus according to claim 1, further comprising a changing unit that changes the predetermined time. 前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項1から8のいずれか1項記載の複眼撮影装置。
A feature point information recording unit for recording the feature point information of the user;
The first determination unit according to claim 1, wherein the first determination unit determines whether the position of the user is within a stereoscopic view possible range where a stereoscopically viewable parallax image can be taken based on the feature point information. The compound-eye imaging device of any one of Claims.
前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する、請求項9記載の複眼撮影装置。
The feature point information recording unit records feature point information of a user other than the user and the user of the compound eye photographing device,
The first determination unit determines, based on the feature point information, whether the positions of the user and a person other than the user are within a stereoscopically viewable range where a stereoscopically viewable parallax image can be taken,
The imaging control unit is configured to perform the first and second imaging after a lapse of a predetermined time after the first determination unit determines that the positions of the user and a person other than the user are within the stereoscopic viewable range. The compound eye imaging device according to claim 9, wherein a parallax image of the user is executed by a unit.
所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、
前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、
前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程と、
を備える撮影方法。
A photographing method for photographing a user's parallax image with a compound eye photographing device provided with first and second photographing means fixed so as to form a predetermined convergence angle,
When the compound eye photographing device accepts a setting for self-timer photographing and then accepts an input of a photographing instruction, the user's position is detected, and a stereoscopic view capable of photographing a parallax image in which the user's position is stereoscopically viewable A first determination step of determining whether or not it is within a possible range;
A first that the compound-eye imaging device captures a parallax image of the user by the first and second imaging means after a predetermined time has elapsed since the position of the user is determined to be within the stereoscopic viewable range. Shooting control process of
A photographing method comprising:
前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項11記載の撮影方法。   In the first determination step, the compound eye photographing device detects the user feature point from the images photographed by the first and second photographing means, and based on the amount of parallax deviation of the feature point, The imaging method according to claim 11, wherein it is determined whether or not a user's position is within the stereoscopic view possible range. 前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項12記載の撮影方法。   In the first determination step, the compound eye photographing device includes a map in which a parallax shift amount of the feature point is recorded so that the position of the user is within the stereoscopic view possible range, and a parallax shift amount of the feature point. The imaging method according to claim 12, wherein it is determined whether or not the position of the user is within the stereoscopic view possible range by comparing. 前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える請求項11から13のいずれか1項記載の撮影方法。   The imaging method according to claim 11, further comprising a notifying step in which the compound eye imaging device notifies the user that the position of the user is determined to be within the stereoscopic view possible range. 前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程と、
を更に備える請求項11から13のいずれか1項記載の撮影方法。
A second determination step in which the compound eye imaging device extracts the user feature points from the parallax image of the user, and determines whether or not the position of the user is within the stereoscopic viewable range at the time of shooting the parallax image;
A notifying step for notifying the user that the compound eye photographing device has determined that the position of the user is not within the stereoscopic view possible range when photographing the parallax image;
After the second determining step determines that the user's position is not within the stereoscopic viewable range when the compound eye photographing device captures the parallax image, the user's position is within the stereoscopic viewable range. A second shooting control step of performing again shooting of the parallax image of the user by the first and second shooting means after a lapse of a predetermined time from the determination of the first determination step;
The imaging method according to claim 11, further comprising:
前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項11から15のいずれか1項記載の撮影方法。   In the first determination step, the compound eye photographing device is within a stereoscopic viewable range in which a parallax image in which the user's position is stereoscopically viewable can be taken based on the user's feature point information recorded in advance. The imaging method according to claim 11, wherein it is determined whether or not there is any. 前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する、請求項16記載の撮影方法。
In the first determination step, the compound eye photographing apparatus determines the positions of the user and the person other than the user based on the feature point information of the user of the compound eye photographing apparatus and the person other than the user recorded in advance. Determine whether the stereoscopic viewable parallax image is within the stereoscopic viewable range,
In the photographing control step, the compound eye photographing device is configured such that the first and second photographing units are provided after a predetermined time has elapsed since the positions of the user and a person other than the user are determined to be within the stereoscopic view possible range. The imaging method according to claim 16, wherein imaging of the parallax image of the user is executed by the following.
JP2009182591A 2009-08-05 2009-08-05 Compound eye photographing device and photographing method Withdrawn JP2011033990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009182591A JP2011033990A (en) 2009-08-05 2009-08-05 Compound eye photographing device and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009182591A JP2011033990A (en) 2009-08-05 2009-08-05 Compound eye photographing device and photographing method

Publications (1)

Publication Number Publication Date
JP2011033990A true JP2011033990A (en) 2011-02-17

Family

ID=43763102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009182591A Withdrawn JP2011033990A (en) 2009-08-05 2009-08-05 Compound eye photographing device and photographing method

Country Status (1)

Country Link
JP (1) JP2011033990A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249168A (en) * 2011-05-30 2012-12-13 Pentax Ricoh Imaging Co Ltd Camera capable of displaying stereoscopic image
US9143761B2 (en) 2011-09-29 2015-09-22 Fujifilm Corporation Image processing device, image processing method, recording medium, and imaging device
WO2017104228A1 (en) * 2015-12-17 2017-06-22 ソニー株式会社 Signal processing method and image capturing device
US9838667B2 (en) 2011-09-30 2017-12-05 Fujifilm Corporation Image pickup apparatus, image pickup method, and non-transitory computer-readable medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249168A (en) * 2011-05-30 2012-12-13 Pentax Ricoh Imaging Co Ltd Camera capable of displaying stereoscopic image
US9143761B2 (en) 2011-09-29 2015-09-22 Fujifilm Corporation Image processing device, image processing method, recording medium, and imaging device
US9838667B2 (en) 2011-09-30 2017-12-05 Fujifilm Corporation Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
WO2017104228A1 (en) * 2015-12-17 2017-06-22 ソニー株式会社 Signal processing method and image capturing device
US10628926B2 (en) 2015-12-17 2020-04-21 Sony Corporation Signal processing method and imaging device

Similar Documents

Publication Publication Date Title
JP5595499B2 (en) Monocular stereoscopic imaging device
JP5474234B2 (en) Monocular stereoscopic imaging apparatus and control method thereof
US20110018970A1 (en) Compound-eye imaging apparatus
TWI514847B (en) Image processing device, image processing method, and recording medium
JP5243666B2 (en) Imaging apparatus, imaging apparatus main body, and shading correction method
JP5767715B2 (en) Imaging apparatus, imaging method, and program
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP5635211B2 (en) Imaging device
JP4533735B2 (en) Stereo imaging device
JP4764854B2 (en) Imaging apparatus, image reproducing apparatus, imaging method, system, and program
JP5415170B2 (en) Compound eye imaging device
JP5231771B2 (en) Stereo imaging device
JP2010056865A (en) Image capturing apparatus
JP2010114760A (en) Photographing apparatus, and fingering notification method and program
JP2011075675A (en) Compound-eye imaging apparatus
JP2011022501A (en) Compound-eye imaging apparatus
JP2011087128A (en) Pantoscopic camera and method for discrimination of object
JP2011119995A (en) Three-dimensional imaging apparatus and three-dimensional imaging method
JP2011033990A (en) Compound eye photographing device and photographing method
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2012124650A (en) Imaging apparatus, and imaging method
JP5351298B2 (en) Compound eye imaging device
JP2009210832A (en) Imaging device
JP2011109268A (en) Three-dimensional image display device and method
JP2005037517A (en) Stereoscopic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120124

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130423