JP2011033990A - Compound eye photographing device and photographing method - Google Patents
Compound eye photographing device and photographing method Download PDFInfo
- Publication number
- JP2011033990A JP2011033990A JP2009182591A JP2009182591A JP2011033990A JP 2011033990 A JP2011033990 A JP 2011033990A JP 2009182591 A JP2009182591 A JP 2009182591A JP 2009182591 A JP2009182591 A JP 2009182591A JP 2011033990 A JP2011033990 A JP 2011033990A
- Authority
- JP
- Japan
- Prior art keywords
- user
- compound eye
- photographing
- stereoscopic
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は複眼撮影装置及び撮影方法に係り、特に立体視可能な画像表示を行うための画像を撮影する複眼撮影装置及び撮影方法に関する。 The present invention relates to a compound eye photographing apparatus and a photographing method, and more particularly to a compound eye photographing apparatus and a photographing method for photographing an image for performing stereoscopic display.
特許文献1から3には、左右の視差画像を撮影する撮影装置において輻輳制御を自動化することが開示されている。特許文献1から3には、検出した被写体距離と前回更新した被写体距離との差分の絶対値が所定値より大きい状態が所定時間継続した場合に限って、検出した被写体距離に輻輳距離を設定することが開示されている。
立体視可能な画像表示を行うための左右の視差画像を撮影する場合、被写体が撮影装置に近すぎると視差ズレが大きくなり、立体表示画像(3D画像)がブレてしまう。一方、被写体が撮影装置から遠すぎると視差ズレが小さくなり、立体感が得られなくなるという現象が発生する。 When capturing left and right parallax images for performing stereoscopic display, if the subject is too close to the imaging device, the parallax shift increases and the stereoscopic display image (3D image) blurs. On the other hand, if the subject is too far away from the photographing device, the parallax shift is reduced and a phenomenon in which a stereoscopic effect cannot be obtained occurs.
セルフタイマー機能を利用して視差画像を撮影する場合、被写体であるユーザは、画角や構図を決めた後に撮影装置の視野内に移動することになるため、3D画像を確認しながら撮影することができない。このため、ユーザは、視差画像が撮影可能な範囲(視差ズレが大きくなりすぎず且つ小さくなりすぎない範囲)内に自分がいるかどうか判断することが困難であるため、撮影に失敗しやすい。 When shooting a parallax image using the self-timer function, the user, who is the subject, moves within the field of view of the shooting device after determining the angle of view and composition, so take a shot while checking the 3D image. I can't. For this reason, since it is difficult for the user to determine whether or not he / she is within a range in which a parallax image can be captured (a range in which the parallax shift is not too large and not too small), it is likely that shooting will fail.
特許文献1から3に記載の発明は、輻輳角が固定された複眼撮影装置に適用することは不可能である。また、特許文献1から3に記載の発明は、セルフタイマー撮影に着目してなされたものではない。更に、特許文献1から3に記載の発明は、検出した被写体距離と前回更新した被写体距離との差分の絶対値を所定時間監視した結果に応じて輻輳制御を行うものであり、輻輳角が固定された複眼撮影装置において画角及び構図を決めてからセルフタイマー撮影を行う場合における視差画像の撮影の失敗を防止するという課題を解決するものではない。
The inventions described in
本発明はこのような事情に鑑みてなされたもので、輻輳角が固定された複眼撮影装置によりセルフタイマー機能を利用して立体表示用の視差画像の撮影を行う場合に、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止するための複眼撮影装置及び撮影方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and a parallax image can be taken when a parallax image for stereoscopic display is shot using a self-timer function by a compound eye photographing device with a fixed convergence angle. It is an object of the present invention to provide a compound eye photographing apparatus and a photographing method for preventing a user from being located outside the range and failing in photographing.
上記課題を解決するために、本発明の第1の態様に係る複眼撮影装置は、所定の輻輳角をなすように固定された第1及び第2の撮影部と、ユーザからの撮影指示の入力を受け付ける撮影指示部と、セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部とを備える。 In order to solve the above problems, a compound eye photographing apparatus according to a first aspect of the present invention includes first and second photographing units fixed to form a predetermined angle of convergence, and input of photographing instructions from a user. A shooting instruction unit for receiving a self-timer shooting setting, a timer shooting setting unit for receiving setting of self-timer shooting, and the shooting instruction unit receiving an input of the shooting instruction after the timer shooting setting unit has received the setting of the self-timer shooting. A first determination unit that detects the position of the user and determines whether the position of the user is within a stereoscopically viewable range where a stereoscopically viewable parallax image can be captured; and the position of the user A shooting control unit that performs shooting of the parallax image of the user by the first and second shooting units after a predetermined time has elapsed since the first determination unit determined that the range is within the stereoscopic viewable range; Preparation That.
上記第1の態様によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。 According to the first aspect, when the self-timer photographing is performed by the compound eye photographing device in which the convergence angles of the first and second imaging units are fixed, it is detected that the position of the user is within the stereoscopic view possible range. After that, since the timer is started to be counted, it is possible to prevent the shooting from failing because the user is positioned outside the range where the parallax image can be shot.
本発明の第2の態様に係る複眼撮影装置は、上記第1の態様において、前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。 In the compound eye photographing apparatus according to the second aspect of the present invention, in the first aspect, the first determination unit obtains the feature point of the user from the images photographed by the first and second photographing units. And detecting whether or not the position of the user is within the stereoscopic view possible range based on the amount of parallax deviation of the feature points.
本発明の第3の態様に係る複眼撮影装置は、上記第2の態様において、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。 The compound-eye imaging device according to a third aspect of the present invention is the compound eye photographing apparatus according to the second aspect, further comprising a map in which the amount of parallax deviation of the feature points is recorded such that the position of the user is within the stereoscopic viewable range. The first determination unit is configured to determine whether the position of the user is within the stereoscopic view possible range by comparing the amount of parallax deviation of the feature points with the map. is there.
上記第3の態様によれば、上記した効果に加え、ユーザが立体視可能範囲内にいるかどうかの判断基準となるマップを予め備えておくことにより、ユーザが立体視可能範囲内にいるかどうかの判断のための処理時間を短縮することが可能になる。 According to the third aspect, in addition to the above-described effects, whether or not the user is in the stereoscopic view possible range is prepared in advance by providing a map that is a criterion for determining whether or not the user is in the stereoscopic view possible range. It becomes possible to shorten the processing time for judgment.
本発明の第4の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える。 In the compound eye imaging device according to the fourth aspect of the present invention, in the first to third aspects, the first determination unit determines that the position of the user is within the stereoscopic viewable range. A notification unit for notifying the user is further provided.
上記第4の態様によれば、ユーザの位置が立体視可能範囲内であるかどうかを報知部によりユーザに報知することができる。 According to the fourth aspect, the notification unit can notify the user whether the user's position is within the stereoscopic view possible range.
本発明の第5の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行するようにしたものである。 According to a fifth aspect of the present invention, in the first to third aspects, the compound eye photographing apparatus extracts the user feature point from the user's parallax image, and the user's position is at the time of photographing the parallax image. A second determination unit that determines whether or not the range is within the stereoscopic view possible range; and the second determination unit that the position of the user is not within the stereoscopic view possible range when the parallax image is captured. A notifying unit for notifying the user, wherein the shooting control unit determines that the position of the user is not within the stereoscopic view possible range at the time of shooting the parallax image; After the first determination unit determines that the user's position is within the stereoscopic view possible range, the first and second imaging units re-shoot the parallax image of the user. Like It is.
上記第5の態様によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置の前方にいるユーザに上記第2の判断部による判断結果を報知することができる。 According to the fifth aspect, it is determined whether stereoscopic 3D display is possible based on the parallax image obtained by photographing the parallax image with the self-timer, and the user in front of the compound-eye imaging device receives the first The determination result by the two determination units can be notified.
本発明の第6の態様に係るは、上記第4又は第5の態様において、前記報知部を補助光発光部又はフラッシュ発光部としたものである。 According to a sixth aspect of the present invention, in the fourth or fifth aspect, the notification unit is an auxiliary light emitting unit or a flash light emitting unit.
本発明の第7の態様に係るは、上記第4から第6の態様において、前記報知部を音声出力部としたものである。 According to a seventh aspect of the present invention, in the fourth to sixth aspects, the notification unit is an audio output unit.
上記第6及び第7の態様によれば、既存の補助光発光部、フラッシュ発光部又は音声出力部をユーザへの報知に用いたので、複眼撮影装置の製造コストを抑制することができる。 According to the sixth and seventh aspects, since the existing auxiliary light emitting unit, flash light emitting unit, or audio output unit is used for notification to the user, the manufacturing cost of the compound eye photographing device can be suppressed.
本発明の第8の態様に係る複眼撮影装置は、上記第1から第7の態様において、前記所定時間を変更する変更部を更に備える。 A compound eye photographing apparatus according to an eighth aspect of the present invention further includes a changing unit that changes the predetermined time in the first to seventh aspects.
上記第8の態様によれば、ユーザ等が撮影時の姿勢を決めるまでの所定時間の自由に設定できるので、ユーザの意図通りの撮影を容易にすることができる。 According to the eighth aspect, since it is possible to freely set a predetermined time until the user or the like decides the posture at the time of shooting, shooting as intended by the user can be facilitated.
本発明の第9の態様に係る複眼撮影装置は、上記第1から第8の態様において、前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。 According to a ninth aspect of the present invention, in the first to eighth aspects, the compound eye photographing apparatus further includes a feature point information recording unit that records the feature point information of the user, and the first determination unit includes: Based on the feature point information, it is determined whether or not the position of the user is within a stereoscopically viewable range where a stereoscopically viewable parallax image can be taken.
上記第9の態様によれば、上記した効果に加え、予め記録しておいたユーザの特徴点情報により検出対象を絞り込むことができるので、ユーザの検出処理に要する時間を短縮することができる。 According to the ninth aspect, in addition to the effects described above, the detection target can be narrowed down based on the user's feature point information recorded in advance, so that the time required for the user detection process can be shortened.
本発明の第10の態様に係る複眼撮影装置は、上記第9の態様において、前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行するようにしたものである。 The compound eye imaging device according to a tenth aspect of the present invention is the ninth aspect, wherein the feature point information recording unit records feature point information of a user of the compound eye imaging device and a person other than the user. The first determination unit determines whether the positions of the user and a person other than the user are within a stereoscopically viewable range where a stereoscopically viewable parallax image can be taken based on the feature point information. The photographing control unit is configured to perform the first and second after a lapse of a predetermined time after the first determination unit determines that the positions of the user and a person other than the user are within the stereoscopic view possible range. The photographing unit performs photographing of the user's parallax image.
上記第10の態様によれば、予め登録した人物(ユーザを含む)がすべて立体視可能範囲内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、予め記録しておいた特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。 According to the tenth aspect, the self-timer shooting is started when all of the pre-registered persons (including the user) are within the stereoscopic viewable range. It is possible to prevent the shooting from being performed in a state where there is no person who has already finished. In addition, since the detection target can be narrowed down based on the feature point information recorded in advance, the time required for the subject detection process can be shortened.
本発明の第11の態様に係る撮影方法は、所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程とを備える。 An imaging method according to an eleventh aspect of the present invention is an imaging method in which a parallax image of a user is captured by a compound-eye imaging device including first and second imaging means fixed so as to form a predetermined convergence angle. The user's position can be detected and the user's position can be stereoscopically captured when the compound eye photographing device accepts an input of a photographing instruction after accepting the self-timer photographing setting. A first determination step of determining whether or not the stereoscopic view is within a range within which stereoscopic viewing is possible; and after a predetermined time has elapsed since the determination that the user's position is within the stereoscopic view possible range, And a first shooting control step of shooting a parallax image of the user by the second shooting means.
本発明の第12の態様に係る撮影方法は、上記第11の態様の前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。 In the photographing method according to a twelfth aspect of the present invention, in the first determining step according to the eleventh aspect, the compound eye photographing apparatus is configured such that the user uses an image photographed by the first and second photographing means. These feature points are detected, and based on the amount of parallax deviation of the feature points, it is determined whether or not the position of the user is within the stereoscopic view possible range.
本発明の第13の態様に係る撮影方法は、上記第12の態様の前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。 In the photographing method according to a thirteenth aspect of the present invention, in the first determination step according to the twelfth aspect, the compound eye photographing device is characterized in that the position of the user is within the stereoscopic viewable range. It is determined whether or not the position of the user is within the stereoscopic view possible range by comparing a map in which the amount of disparity between points is recorded and the amount of disparity between the feature points.
本発明の第14の態様に係る撮影方法は、上記第11から第13の態様において、前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える。 In the photographing method according to the fourteenth aspect of the present invention, in the eleventh to thirteenth aspects, the compound eye photographing apparatus determines that the position of the user is within the stereoscopic view possible range. A notification step of notifying the user is further provided.
本発明の第15の態様に係る撮影方法は、上記第11から第13の態様において、前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程とを更に備える。 In the photographing method according to a fifteenth aspect of the present invention, in the eleventh to thirteenth aspects, the compound eye photographing device extracts the user feature point from the user's parallax image, and the parallax image is captured when the parallax image is captured. A second determination step of determining whether or not a user's position is within the stereoscopic viewable range; and the compound eye photographing device determines that the user's position was not within the stereoscopic viewable range when photographing the parallax image After the second determining step determines that the user's position is not within the stereoscopic view possible range when the compound eye imaging device captures the parallax image. After the predetermined time has elapsed since the first determination step that the position is within the stereoscopic view possible range, the parallax image of the user is again captured by the first and second imaging means. Further comprising a second imaging control step of rows.
本発明の第16の態様に係る撮影方法は、上記第11から第15の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。 In the photographing method according to the sixteenth aspect of the present invention, in the first determining step of the eleventh to fifteenth aspects, the compound eye photographing device is based on the feature point information of the user recorded in advance. It is determined whether or not the position of the user is within a stereoscopic view possible range where a stereoscopically viewable parallax image can be taken.
本発明の第17の態様に係る撮影方法は、上記第16の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行するようにしたものである。 In the photographing method according to a seventeenth aspect of the present invention, in the first determination step of the sixteenth aspect, the compound eye photographing device is a user of the compound eye photographing device and a person other than the user who have been recorded in advance. Based on the feature point information, it is determined whether or not the positions of the user and a person other than the user are within a stereoscopic viewable range in which a stereoscopically viewable parallax image can be taken. The imaging apparatus captures a parallax image of the user by the first and second imaging units after a predetermined time has elapsed after determining that the positions of the user and a person other than the user are within the stereoscopic viewable range. Is to be executed.
本発明によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。 According to the present invention, when performing self-timer shooting with a compound eye imaging device in which the convergence angles of the first and second imaging units are fixed, after detecting that the position of the user is within the stereoscopic view possible range, Since the timer starts counting, it is possible to prevent a user from being located outside the range where the parallax image can be photographed and photographing failure.
以下、添付図面に従って本発明に係る複眼撮影装置及び撮影方法の好ましい実施の形態について説明する。 Preferred embodiments of a compound eye photographing apparatus and photographing method according to the present invention will be described below with reference to the accompanying drawings.
[第1の実施形態]
まず、本実施形態に係る複眼撮影装置の構成について、図1のブロック図を参照して説明する。
[First Embodiment]
First, the configuration of the compound eye photographing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.
図1に示すように、複眼撮影装置10は、2つの撮影部12−1及び12−2を備えている。なお、撮影部12は2つ以上設けてもよい。
As shown in FIG. 1, the compound
複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の画像データを合成する。例えば、複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の視差画像データを合成して立体視表示用の画像の作成及び表示を行う。複眼撮影装置10は、上記視差画像データを、1つの記録用画像ファイルに格納する。また、複眼撮影装置10は、ブラケット撮影時、動画撮影時及び連写撮影した複数フレームの画像データをつなぎ合わせて1つの記録用画像ファイルに格納する。
The compound
この複数フレームの画像を記録するフォーマットとしては、例えば“マルチピクチャフォーマット”などが知られているが、それに限られるものではない。(以下の実施例においても同様)
信号処理IC(Integrated Circuit)は、CPU(Central Processing Unit)14を含んでおり、操作部16からの入力に基づき所定の制御プログラムに従って複眼撮影装置10全体の動作を統括制御する手段である。
As a format for recording an image of a plurality of frames, for example, “multi-picture format” is known, but is not limited thereto. (The same applies to the following examples)
The signal processing IC (Integrated Circuit) includes a CPU (Central Processing Unit) 14 and is a means for comprehensively controlling the operation of the entire compound
信号処理ICは、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)及びワークメモリ(RAM(Random Access Memory))を含んでいる。ROMには、CPU14が実行する制御プログラム及び制御に必要な各種データ等が格納される。EPROMには、ユーザ設定情報等の複眼撮影装置10の動作に関する各種設定情報等が格納されるものであり、EEPROMとしては電源を切っても記憶内容が消去されない不揮発性メモリが使用される。ワークメモリは、CPU14の演算作業用領域及び画像データの一時記憶領域を含んでいるものであり、通常はコスト面から揮発性メモリであるダイナミックRAMが使用される。
The signal processing IC includes a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), and a work memory (RAM (Random Access Memory)). The ROM stores a control program executed by the
操作部16は、ユーザが各種の操作入力を行うための操作手段であり、電源のオン、オフの切り替えを行う電源スイッチ、複眼撮影装置10の動作モードの切り替えを行うモードダイヤル、レリーズスイッチ及びズームボタンを含んでいる。
The
モードダイヤルは、複眼撮影装置10の動作モードの切り替え入力を行うための操作手段であり、モードダイヤルの設定位置に応じて、2次元の画像(静止画、動画)を撮影する2Dモードと、立体視用の画像(静止画、動画)を撮影する3Dモードと、画像の再生を行う再生モードとの間で動作モードが切り替えられる。
The mode dial is an operation means for performing an operation mode switching input of the compound
レリーズスイッチは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。静止画を撮影するモードの時には、レリーズスイッチが半押しされると(S1オン)、撮影準備処理(例えば、自動露出調整処理(AE(Automatic Exposure))、自動焦点合わせ処理(AF(Auto Focus))、自動ホワイトバランス調整処理(AWB(Automatic White Balance)))が行われる。そして、レリーズスイッチが全押しされると(S2オン)、静止画の撮影・記録処理が行われる。また、動画を撮影するモードの時には、レリーズスイッチが全押しされると動画の撮影が開始され、再度全押しされると動画の撮影が終了する。なお、静止画撮影用のレリーズスイッチ及び動画撮影用のレリーズスイッチを別々に設けてもよい。 The release switch is composed of a two-stage stroke type switch composed of so-called “half-press” and “full-press”. When the release switch is pressed halfway (S1 ON) in the still image shooting mode, shooting preparation processing (for example, automatic exposure adjustment processing (AE (Automatic Exposure)), automatic focusing processing (AF (Auto Focus)) ), Automatic white balance adjustment processing (AWB (Automatic White Balance))) is performed. When the release switch is fully pressed (S2 is on), still image shooting / recording processing is performed. In the mode for shooting a moving image, the shooting of the moving image starts when the release switch is fully pressed, and the shooting of the moving image ends when the release switch is fully pressed again. A release switch for still image shooting and a release switch for moving image shooting may be provided separately.
ズームボタンは、撮影部12−1及び12−2のズーミング操作を行うための操作手段であり、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとを備えている。 The zoom button is an operation means for performing zooming operations of the photographing units 12-1 and 12-2, and includes a zoom tele button for instructing zooming to the telephoto side, and a zoom wide button for instructing zooming to the wide angle side. It has.
表示部18は、例えば、カラー液晶パネル(LCD(Liquid Crystal Display))を備えた表示装置である。表示部18は、撮影された画像を表示する表示部として機能するとともに、複眼撮影装置10の各種機能に関する設定を行うときのユーザインターフェースとして機能する。また、表示部18は、撮影モード時に画角を確認するためのライブビュー画像を表示する電子ファインダとして機能する。
The
表示部18は、3Dモード時に、ユーザ、観察者が立体視可能な立体視用(3D)画像を表示する機能を有する。3D画像の表示方式としては、例えば、ライト・ディレクション・コントロール・システム(Light Direction Control System)が採用される。ライト・ディレクション・コントロール・システムでは、左眼用の画像データをLCDに表示して、バックライトパネルによってユーザの左眼に届くように指向性をもたせた照明光をLCDに照射する処理と、右眼用の画像データをLCDに表示して、バックライトパネルによってユーザの右眼に届くように指向性をもたせた照明光をLCDに照射する処理とを交互に(例えば、1/60秒間隔で)繰り返す。これにより、相互に視差のある左眼用画像と右眼用画像が、ユーザの左右の眼によって交互に観察可能になるので、ユーザは立体的な画像を観察することができる。立体視用画像を表示する方法にはたくさんの方式があり、どれを使用してもよい。
The
記録部20は、撮影された画像ファイル及び各種のデータを記録する。記録部20は、例えば、SDメモリカード(登録商標)又はxDピクチャカード(登録商標)のような着脱可能な記録メディアでもよいし、複眼撮影装置10の本体に内蔵されているメモリでもよい。ただし、複眼撮影装置10の本体に内蔵されているメモリを使用する場合は、カメラ本体の電源を切った場合でも画像が消去されないように不揮発性メモリを使用する必要がある。
The
次に、複眼撮影装置10の撮影機能について説明する。なお、図1では、各撮影部12−1及び12−2等にそれぞれ符号1及び2を付して区別しているが、各部の機能は略同様であるため、以下の説明では、符号1及び2を適宜省略して説明する。
Next, the photographing function of the compound
各撮影部12は、フォーカスレンズ24、ズームレンズ26、絞り28及びメカシャッタ30を含む撮影レンズ(撮影レンズ)22を備えている。本実施形態では、撮影レンズ22−1及び22−2の輻輳角θは固定されている。 Each photographing unit 12 includes a photographing lens (photographing lens) 22 including a focus lens 24, a zoom lens 26, a diaphragm 28 and a mechanical shutter 30. In the present embodiment, the convergence angle θ of the photographing lenses 22-1 and 22-2 is fixed.
フォーカスレンズ24及びズームレンズ26は、各撮影部12の光軸に沿って前後に移動する。CPU14は、光学系駆動部32に設けられたフォーカスアクチュエータの動作を制御して、フォーカスレンズ24の位置を調整してフォーカシングを行う。また、CPU14は、光学系駆動部32に設けられたズームアクチュエータの動作を制御して、ズームレンズ26の位置を調整してズーミングを行う。また、CPU14は、光学系駆動部32に設けられた絞りアクチュエータの駆動を制御することにより、絞り28の開口量(絞り値)を調整して撮像素子34への入射光量を制御する。
The focus lens 24 and the zoom lens 26 move back and forth along the optical axis of each photographing unit 12. The
メカシャッタ30は、撮像素子34からデータを読み出すときに閉じられる。これにより、データ読み出し時に撮像素子34に入射する光が遮光される。 The mechanical shutter 30 is closed when data is read from the image sensor 34. As a result, light incident on the image sensor 34 is shielded during data reading.
CPU14は、3Dモード時に、各撮影部12−1及び12−2の撮影レンズ22−1及び22−1(即ち、フォーカスレンズ24−1及び24−2、ズームレンズ26−1及び26−2、絞り28−1及び28−2)を同期させて駆動する。即ち、撮影部12−1及び12−2は、3Dモード時に、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ入射光量(絞り値)となるように絞りが調整される。更に、3Dモード時には、常に同じ被写体にピントが合うように焦点調節が行われる。
In the 3D mode, the
撮像素子34は、例えば、カラーCCD(Charge Coupled Device)固体撮像素子である。撮像素子34−1と撮像素子34−2は、サイズ及び飽和特性が同じものであってもよいし、相互に異なっているものであってもよい。なお、撮像素子34としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等のCCD以外の撮像素子を用いることもできる。 The image sensor 34 is, for example, a color CCD (Charge Coupled Device) solid-state image sensor. The image sensor 34-1 and the image sensor 34-2 may have the same size and saturation characteristics, or may be different from each other. As the image sensor 34, an image sensor other than a CCD, such as a complementary metal oxide semiconductor (CMOS) image sensor, can also be used.
撮像素子34の受光面には、多数のフォトダイオードが2次元的に配列されている。各フォトダイオードには所定の色(例えば、赤(R)、緑(G)、青(B)の3原色)のカラーフィルタが所定の配列となるように配置されている。なお、カラーフィルタの色はR,G,Bの3原色に限定されるものではなく、例えば、補色系のカラーフィルタを用いることも可能である。撮影部12を介して撮像素子34の受光面上に被写体光が結像されると、この被写体光はフォトダイオードによって入射光量に応じた信号電荷に変換される。撮像素子34は、電子シャッタ機能を備えており、CPU14はフォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)を制御する。各フォトダイオードに蓄積された信号電荷は、CPU14の指令に従ってタイミング・ジェネレータ(TG)36から与えられる駆動パルスに基づいて、電荷量に応じた画像信号(R、G、B信号)として撮像素子34から順次読み出される。撮像素子34から読み出された画像信号は、アンプ38を経てアナログ信号処理部40に入力される。
A large number of photodiodes are two-dimensionally arranged on the light receiving surface of the image sensor 34. In each photodiode, color filters of a predetermined color (for example, three primary colors of red (R), green (G), and blue (B)) are arranged in a predetermined arrangement. Note that the color of the color filter is not limited to the three primary colors of R, G, and B. For example, a complementary color system color filter may be used. When subject light is imaged on the light receiving surface of the image sensor 34 via the imaging unit 12, the subject light is converted into signal charges corresponding to the amount of incident light by the photodiode. The image sensor 34 has an electronic shutter function, and the
アナログ信号処理部40は、撮像素子34から出力されたR、G、B信号に含まれるリセットノイズ(低周波)を除去するための相関2重サンプリング(CDS(Correlated Double Sampling))回路、R、G、B信号を増幅して一定レベルの大きさにコントロールするためのAGC(Automatic Gain Control)回路、アナログ信号をデジタル信号に変換するA/D変換器を含んでいる。撮像素子34から出力されるアナログのR、G、B信号は、アナログ信号処理部40によって相関2重サンプリング処理されるとともに増幅される。アナログ信号処理部40におけるR、G、B信号の増幅ゲインは撮影感度(ISO感度)に相当する。CPU14は、被写体の明るさ等に応じて、この増幅ゲインを調整することにより撮影感度を設定する。なお、感度が等しい2つの撮像素子を用いて画像を撮影する場合(3Dモード)、このゲインは、[1]系アナログ信号処理部40−1と[2]系アナログ信号処理部40−2とで同じ値に設定される。
The analog signal processing unit 40 includes a correlated double sampling (CDS (Correlated Double Sampling)) circuit for removing reset noise (low frequency) included in the R, G, and B signals output from the image sensor 34, R, It includes an AGC (Automatic Gain Control) circuit for amplifying the G and B signals and controlling them to a certain level, and an A / D converter for converting analog signals into digital signals. Analog R, G, B signals output from the image sensor 34 are subjected to correlated double sampling processing and amplified by the analog signal processing unit 40. The amplification gains of the R, G, and B signals in the analog signal processing unit 40 correspond to shooting sensitivity (ISO sensitivity). The
ゲイン調整されたアナログのR、G、B信号は、A/D変換器によってデジタルのR、G、B信号に変換された後、バッファメモリを介して信号処理IC14に入力される。
The gain-adjusted analog R, G, B signals are converted into digital R, G, B signals by an A / D converter and then input to the
上記のようにして生成されたデジタルのR、G、B信号は、信号処理ICによって、所定の処理(例えば、単板撮像素子のカラーフィルタ配列に伴う色信号の空間的なズレを補間してR、G、Bの色信号を作る処理)、ホワイトバランス調整処理、階調変換(ガンマ補正)処理及び輪郭補正処理が施されて、輝度信号(Y信号)及び色差信号(Cr、Cb信号)、即ち、Y/C信号に変換される。 The digital R, G, and B signals generated as described above are subjected to predetermined processing (for example, by interpolating a spatial shift of the color signal accompanying the color filter array of the single-plate image sensor by a signal processing IC. R, G, and B color signal processing), white balance adjustment processing, gradation conversion (gamma correction) processing, and contour correction processing are performed to obtain a luminance signal (Y signal) and a color difference signal (Cr, Cb signal). That is, it is converted into a Y / C signal.
静止画や動画を撮影する場合の画角を確認するための画像であるライブビュー画像(スルー画像)を表示部18に表示する場合、撮像素子34に蓄積された画像信号が所定時間間隔で間引き読み出しされる。この読み出された画像信号は、信号処理ICによって、所定の処理が施されるとともに、Y/C信号に変換される。そして、このY/C信号は、表示部18の表示に適した信号(例えば、R、G、B信号)に変換された後、1フレーム分ずつ表示部18に出力される。これにより、表示部18に画角確認用の動画(スルー画像)が表示される。2Dモード時には、1つの撮影部12のみからスルー画像用の画像信号の読み出しが行われる。一方、3Dモード時には、左右の撮影部12−1及び12−2の両方からスルー画像用の画像信号の読み出しが行われ、両方の画像を用いて3Dのスルー画像(動画)の表示が行われる。
When a live view image (through image) that is an image for confirming the angle of view when shooting a still image or a moving image is displayed on the
なお、3Dモード時には、設定によりスルー画像を2D表示とすることができる。この場合、左右の撮影部12−1及び12−2のいずれか一方から得られた画像を用いて作成されたスルー画像が表示される。3Dモード時において被写体の検出(顔検出)を行う場合、当該被写体が立体視可能範囲内にいるかどうかに応じて、上記2Dのスルー画像から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。 In the 3D mode, the through image can be displayed in 2D by setting. In this case, a through image created using an image obtained from one of the left and right imaging units 12-1 and 12-2 is displayed. When performing subject detection (face detection) in the 3D mode, depending on whether or not the subject is within the stereoscopic view possible range, a figure (for example, face detection) attached to the subject detected from the 2D through image The color of the frame may be changed.
次に、画像の撮影及び記録処理について説明する。2Dモード時には、所定の1つの撮影部(例えば、12−1)により記録用の画像が撮影される。なお、撮影部12−1、12−2(撮影レンズ22、撮像素子34等)の特性を互い異なるものにして、2Dモード時にどちらの撮影部を使用するかをユーザが選択できるようにしてもよい。 Next, image capturing and recording processing will be described. In the 2D mode, a recording image is shot by a predetermined one shooting unit (for example, 12-1). Note that the characteristics of the imaging units 12-1 and 12-2 (imaging lens 22, imaging element 34, etc.) are different from each other so that the user can select which imaging unit to use in the 2D mode. Good.
2Dモード時に、撮影部12−1によって撮影された画像は、信号処理ICによって圧縮される。圧縮された画像データは、所定形式の画像ファイルとして記録部20に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)、動画についてはMPEG2又はMPEG4、H.264等の規格に準拠した圧縮画像ファイルとして記録される。ただし、圧縮方式はこれらに限るものではない。
In the 2D mode, an image photographed by the photographing unit 12-1 is compressed by the signal processing IC. The compressed image data is recorded in the
3Dモード時には、撮影部12−1及び12−2によって同期して画像が撮影される。上記3Dモード時には、AF処理及びAE処理は、撮影部12−1及び12−2のいずれか一方によって取得された画像信号に基づいて行われる。上記3Dモード時には、各撮影部12−1及び12−2によって撮影された2視点の画像は、それぞれ圧縮されて1つのファイルに格納されて記録部20に記録される。ファイルには、2視点の圧縮画像データとともに、被写体距離情報、撮影部12の撮影レンズの間隔及び輻輳角に関する情報が格納される。
In the 3D mode, images are captured in synchronization by the imaging units 12-1 and 12-2. In the 3D mode, AF processing and AE processing are performed based on the image signal acquired by one of the imaging units 12-1 and 12-2. In the 3D mode, the two viewpoint images photographed by the photographing units 12-1 and 12-2 are respectively compressed, stored in one file, and recorded in the
再生モード時には、記録部20に記録されている最終の画像ファイル(最後に記録された画像ファイル)が読み出されて、信号処理ICによって非圧縮のY/C信号に伸張される。この非圧縮のY/C信号は、R、G、B信号に変換された後表示部18に出力される。これにより、記録部20に記録されている画像ファイルが表示部18に表示される。
In the playback mode, the last image file (last recorded image file) recorded in the
3Dモードで撮影された画像の再生時には、設定により3D表示と2D表示とを選択することができる。画像中から被写体の検出(顔検出)を行う場合、撮影時に当該被写体が立体視可能範囲内にいたかどうかに応じて、上記2D表示から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。 At the time of reproduction of an image shot in 3D mode, 3D display and 2D display can be selected by setting. When performing subject detection (face detection) from an image, a figure (for example, face detection) attached to the subject detected from the 2D display according to whether or not the subject is within the stereoscopic view possible range at the time of shooting. The color of the frame may be changed.
[セルフタイマー撮影]
次に、セルフタイマー撮影時における複眼撮影装置10の処理について説明する。
[Self-timer shooting]
Next, processing of the compound
図2は、本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図である。 FIG. 2 is a diagram for explaining a method for performing self-timer photographing of a parallax image by the compound eye photographing apparatus according to the present embodiment.
図2に示すように、複眼撮影装置10の輻輳角θは固定されており、左右の撮影レンズ22−1及び22−2の光軸(それぞれL1,L2)は、複眼撮影装置10の前方のクロスポイントPcにおいて交わっている。左右の撮影レンズ22−1及び22−2の間隔(ステレオベース)をX(mm)、クロスポイントPcと複眼撮影装置10との間の距離をY(mm)とすると、輻輳角θは、θ=tan−1(X/2Y)により表される。
As shown in FIG. 2, the convergence angle θ of the compound
クロスポイントPcは、被写体を立体視する(立体視可能な視差画像を撮影する)ために最適な被写体の位置である。立体視可能範囲A1は、被写体を立体視することが可能な被写体までの距離範囲である。図2において、立体視可能範囲A1は、クロスポイントPcから複眼撮影装置10に近づく側に距離W1、クロスポイントPcを起点として複眼撮影装置10から遠ざかる側に距離W2の範囲である。
The cross point Pc is an optimal subject position for stereoscopically viewing the subject (capturing a stereoscopically viewable parallax image). The stereoscopic view possible range A1 is a distance range to a subject that can stereoscopically view the subject. In FIG. 2, the stereoscopic view possible range A1 is a range of a distance W1 from the cross point Pc toward the compound
立体視可能範囲A1は、ステレオベースX、撮像素子34−1及び34−2の有効領域の幅、撮影レンズ22−1及び22−2の焦点距離及び許容視差量に基づいて定められる。 The stereoscopic view possible range A1 is determined based on the stereo base X, the width of the effective area of the imaging elements 34-1 and 34-2, the focal length of the photographing lenses 22-1 and 22-2, and the allowable parallax amount.
立体視可能範囲A1の複眼撮影装置10に最も近い点を近点Pn、複眼撮影装置10から最も遠い点を遠点Pfとする。φ=90°−θ、近点Pnにおける視差ズレ量をδ1(°)、遠点Pfにおける視差ズレ量をδ2(°)とすると、近点Pnと左レンズ22−2との距離Yn(=Y−W1)、遠点Pfと左レンズ22−2との距離Yf(=Y+W2)は、それぞれ下記の式(1)及び(2)により表される。
A point closest to the compound
Yn=X/2×tan(φ−δ1) …(1)
Yf=X/2×tan(φ+δ2) …(2)
立体視可能範囲A1は、一例でδ1≦30°,δ2≦7°〜8°の範囲(範囲A)である。最近の調査では、立体視可能範囲A1は、好ましくはδ1≦3.34°,δ2≦3.05°の範囲(範囲B)であり、より好ましくはδ1≦1.84°,δ2≦2.04°の範囲(範囲C)と言われている。
Yn = X / 2 × tan (φ−δ1) (1)
Yf = X / 2 × tan (φ + δ2) (2)
The stereoscopic view possible range A1 is, for example, a range of δ1 ≦ 30 ° and δ2 ≦ 7 ° to 8 ° (range A). In a recent survey, the stereoscopic viewable range A1 is preferably a range of δ1 ≦ 3.34 ° and δ2 ≦ 3.05 ° (range B), more preferably δ1 ≦ 1.84 °, δ2 ≦ 2. The range of 04 ° (range C) is said.
図2では、計算を簡単にするために、左右の撮影レンズ22−1及び22−2の両方に角度をつけてクロスポイントPcを作っているが、左右どちらかの撮影レンズを固定してもよいことはもちろんである。 In FIG. 2, in order to simplify the calculation, the cross point Pc is formed by setting an angle to both the left and right photographing lenses 22-1 and 22-2. Of course it is good.
なお、複眼撮影装置10が、各範囲A,B,Cにユーザが出入りしたことを検知したときに、ユーザにその旨を報知するようにしてもよい。
In addition, when the compound
図3は、本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 3 is a flowchart showing a self-timer photographing method for parallax images according to the first embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS10)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS12)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS14)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS16)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS18)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS20)。なお、3Dモードで起動された場合に、デフォルトでセルフタイマーモードに設定されるようにしてもよい。
Next, when the compound
図4は、ユーザの位置の判断方法を説明するための図である。 FIG. 4 is a diagram for explaining a method for determining the position of the user.
複眼撮影装置10は、左右の視差画像(左画像IMGL、右画像IMGR)からユーザを検出する。ここで、ユーザの検出は、例えば、顔検出処理により行われる。顔検出処理の方式としては、例えば、肌色に予め指定された色と近い色をもつ画素を原画像から取り出し、取り出した領域を顔領域として検出するものがある。この顔検出処理の方式では、例えば、肌色を他の色と区別するための色空間上で、予めサンプリングした肌色の情報から色空間上の肌色の範囲を定める。複眼撮影装置10は、例えば、画像中から検出した肌色領域ごとに、肌色の度合等に基づいて顔らしさの評価値(顔らしさ度)を算出する。そして、複眼撮影装置10は、上記顔らしさ度が所定値以上の肌色領域を顔領域と判断する。また、耳の検出処理の方式としては、例えば、上記顔検出処理によって検出された肌色の領域の中から左右に2つ並ぶ黒色を含む領域(目の領域)を検出し、こうして検出した目の領域の位置を基準として肌色領域の端部付近を耳の領域として検出するものがある。
The compound
次に、複眼撮影装置10は、左画像IMGL及び右画像IMGR中のユーザ(顔)の特徴点(それぞれPL、PR)を検出し、左画像IMGLと右画像IMGRとを重ねたときの特徴点PLとPRとのズレ量を測定する。そして、複眼撮影装置10は、このズレ量の絶対値(特徴点が複数の場合には、対応する特徴点間のズレ量の絶対値の合計値、平均値又は最大値)が所定値以下の場合、又は左画像IMGL、右画像IMGRの中心線(それぞれLL、LR)と特徴点PL、PRとの間の距離の絶対値の合計値、平均値又は最大値が所定値以下の場合にユーザの位置が立体視可能範囲A1内にあると判断する。
Next, the compound
複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS20のYes)、タイマーを起動して時間のカウントを開始する(ステップS22)。そして、予め設定された時間(例えば、数秒)が経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS24)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS26)。また、図5に示すように、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS28)。
When the compound
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。 According to the present embodiment, when self-timer photographing is performed by a compound eye photographing device with a fixed convergence angle θ, the timer count is started after detecting that the user is within the stereoscopic viewable range A1. As a result, it is possible to prevent the user from being located outside the range where the parallax image can be photographed and photographing failure.
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.
本実施形態は、立体視可能範囲A1と視差ズレ量との関係を予めマップとして記録しておき、このマップに基づいて、ユーザが立体視可能範囲A1内にいるかどうかを判断するようにしたものである。 In this embodiment, the relationship between the stereoscopic viewable range A1 and the amount of parallax deviation is recorded in advance as a map, and based on this map, it is determined whether or not the user is within the stereoscopic viewable range A1. It is.
図6は、本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 6 is a flowchart illustrating a self-timer photographing method for parallax images according to the second embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS30)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく立体視のライブビュー画像(スルー画像)を表示部18に表示する(ステップS32)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS34)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS36)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS38)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS40)。
Next, when the compound
図7は、立体視可能範囲A1と視差ズレ量の対応関係を示すマップである。 FIG. 7 is a map showing the correspondence between the stereoscopic viewable range A1 and the amount of parallax deviation.
図7に示すように、マップM1には、視差ズレ量(角度)と立体視可能範囲であるかどうかを示す値が関連付けられて格納される。マップM1は、信号処理ICのROM又はEPROMに格納される。参照アドレスは、上記ROM又はEPROMにおけるデータの格納位置を示している。 As illustrated in FIG. 7, the map M1 stores a disparity amount (angle) and a value indicating whether or not a stereoscopic view possible range is associated with each other. The map M1 is stored in the ROM or EPROM of the signal processing IC. The reference address indicates the data storage position in the ROM or EPROM.
複眼撮影装置10は、上記実施形態と同様、左画像IMGL及び右画像IMGRに対してそれぞれ顔検出処理を施し、検出したユーザ(顔)の特徴点(それぞれPL、PR)を検出する。そして、複眼撮影装置10は、左画像IMGLと右画像IMGRとを重ねたときの特徴点PLとPRとのズレ量を測定する。複眼撮影装置10は、このズレ量の絶対値とマップM1に基づいて、ユーザの位置が立体視可能範囲A1内にあるかどうかを判断する。
Similarly to the above-described embodiment, the compound-
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS40のYes)、下記のアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS42)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS44)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS46)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS48)。
[アルゴリズム]
IF ((ズレ量)≧min or (ズレ量)≦MAX)
{タイマー起動する}
else
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。また、ユーザが立体視可能範囲A1内にいるかどうかの判断基準となるマップM1を予め記憶しておくことにより、ユーザが立体視可能範囲A1内にいるかどうかの判断のための処理時間を短縮することが可能になる。
Next, when the compound-
[algorithm]
IF ((deviation amount) ≥ min or (deviation amount) ≤ MAX)
{Start timer}
else
According to the present embodiment, when self-timer photographing is performed by a compound eye photographing device with a fixed convergence angle θ, the timer count is started after detecting that the user is within the stereoscopic viewable range A1. As a result, it is possible to prevent the user from being located outside the range where the parallax image can be photographed and photographing failure. Further, by storing in advance a map M1 that is a criterion for determining whether or not the user is within the stereoscopic viewable range A1, the processing time for determining whether or not the user is within the stereoscopic viewable range A1 is shortened. It becomes possible.
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
図8は、本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。 FIG. 8 is a block diagram showing a main configuration of a compound eye photographing apparatus according to the third embodiment of the present invention.
図8に示すように、本実施形態に係る複眼撮影装置10は、発光部50を備えている。発光部50は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。発光部50は、オートフォーカス時に被写体に光を照射して、AF検出を精度よく行うためのものである。
As shown in FIG. 8, the compound
本実施形態は、上記発光部50を用いて、立体視可能範囲A1内にいるかどうかをユーザに報知するようにしたものである。 In the present embodiment, the light emitting unit 50 is used to notify the user whether or not it is within the stereoscopic view possible range A1.
図9は、本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 9 is a flowchart showing a self-timer photographing method for parallax images according to the third embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS50)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS52)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS54)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS56)、複眼撮影装置10は、後述のステップS64が終了するまで発光部50を発光させるとともに(ステップS58)、ユーザ(被写体)の位置の検出を開始する(ステップS60)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS62)。なお、ステップS62の判断工程については、上記第1及び第2の実施形態と同様である。
Next, when the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS62のYes)、発光部50を点滅させて(ステップS64)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS66)、タイマーを起動して時間のカウントを開始する(ステップS68)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS70)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS72)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS74)。
Next, when the compound
本実施形態によれば、セルフタイマーで視差画像を撮影するときに、発光部50により、ユーザの位置が立体視可能範囲A1内であるかどうかをユーザに報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
According to this embodiment, when a parallax image is captured by the self-timer, the light emitting unit 50 can notify the user whether or not the user's position is within the stereoscopic viewable range A1. In addition, since the existing AF auxiliary light emitting unit 50 is used for notification to the user, the manufacturing cost of the compound
なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。 In this embodiment, the light emitting unit 50 is caused to emit light when the release switch is pressed, and the light emitting unit 50 is blinked when the user enters the stereoscopic viewable range A1. It is not limited to the above. The light emission color, the light emission amount, the blinking time interval, and a combination thereof may indicate that the user has entered the stereoscopic switchable range A1 by pressing the release switch.
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
本実施形態は、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて、立体視可能な3D表示を行うことが可能かどうかを判断し、複眼撮影装置10の前方にいるユーザに上記判断結果を報知し、必要に応じて再撮影するようにしたものである。
In the present embodiment, based on the parallax images IMG L and IMG R taken by the self-timer, it is determined whether stereoscopic 3D display is possible, and the above determination result is sent to the user in front of the compound-
図10は、本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 10 is a flowchart showing a self-timer photographing method for parallax images according to the fourth embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS80)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS82)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS84)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS86)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS88)、ユーザ(被写体)の位置の検出を開始する(ステップS90)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS92)。なお、ステップS92の判断工程については上記の実施形態と同様である。
Next, when the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS92のYes)、発光部50を点滅させて(ステップS94)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS96)、タイマーを起動して時間のカウントを開始する(ステップS98)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS100)。
Next, when the compound
次に、複眼撮影装置10は、ステップS100において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS102)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS92と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS106)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS108)。
Next, the compound
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS104)。
Further, the compound
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS108のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS110)。
Next, the compound
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS108のNo)、点滅していた発光部50を発光させて(ステップS112)、撮影の失敗をユーザに報知する(ステップS114)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS92からS114)。
On the other hand, the compound
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-
なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させ、撮影の失敗時に発光部50を再点灯させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。 In the present embodiment, the light emitting unit 50 is caused to emit light when the release switch is pressed, the light emitting unit 50 is blinked when the user enters the stereoscopic viewable range A1, and the light emitting unit 50 is turned on when photographing fails. Although it is made to light up again, the light emission method is not limited to the above. The light emission color, the light emission amount, the blinking time interval, and a combination thereof may indicate that the user has entered the stereoscopic switchable range A1 by pressing the release switch.
[第5の実施形態]
次に、本発明の第5の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
図11は、本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 11 is a flowchart showing a self-timer photographing method for parallax images according to the fifth embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS120)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS122)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS124)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS126)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS128)、ユーザ(被写体)の位置の検出を開始する(ステップS130)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS132)。なお、ステップS132の判断工程については上記の実施形態と同様である。
Next, when the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS132のYes)、発光部50の発光色を変化(遷移)させて(ステップS134)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS136)、タイマーを起動して時間のカウントを開始する(ステップS138)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS140)。
Next, when the compound-
次に、複眼撮影装置10は、ステップS140において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS142)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS132と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS146)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS148)。
Next, the compound
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS144)。
Further, the compound
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS148のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS150)。
Next, the compound
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS148のNo)、発光部50の発光色をステップS128の発光色に戻し(ステップS152)、撮影の失敗をユーザに報知する(ステップS154)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS132からS154)。
On the other hand, the compound
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-
[第6の実施形態]
次に、本発明の第6の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
図12は、本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。 FIG. 12 is a block diagram showing the main configuration of a compound eye photographing apparatus according to the sixth embodiment of the present invention.
図12に示すように、本実施形態に係る複眼撮影装置10は、フラッシュ発光部60を備えている。フラッシュ発光部60は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。フラッシュ発光部60は、AEの結果又はユーザの設定に応じて撮影時に被写体に光を照射するためのものである。
As shown in FIG. 12, the compound
本実施形態は、上記フラッシュ発光部60を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。
In the present embodiment, 3D display capable of stereoscopic viewing can be performed using the flash
図13は、本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 13 is a flowchart showing a self-timer photographing method for parallax images according to the sixth embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS160)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS162)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS164)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS166)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS168)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS170)。なお、ステップS170の判断工程については上記の実施形態と同様である。
Next, the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS170のYes)、フラッシュ発光部60をプリ発光させた後点滅させて(ステップS172)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS174)、タイマーを起動して時間のカウントを開始する(ステップS176)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS178)。
Next, when the compound
次に、複眼撮影装置10は、ステップS178において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS180)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS170と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS184)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS186)。
Next, the compound
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS182)。
Further, the compound
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS186のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS188)。
Next, the compound
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS186のNo)、フラッシュ発光部60再発光させて(ステップS190)、撮影の失敗をユーザに報知する(ステップS192)。そして、ステップS170に戻り、再び視差画像の撮影を実行する(ステップS170からS192)。
On the other hand, the compound
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のフラッシュ発光部60をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-
[第7の実施形態]
次に、本発明の第7の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Seventh Embodiment]
Next, a seventh embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
図14は、本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。 FIG. 14 is a block diagram showing the main configuration of a compound eye photographing apparatus according to the seventh embodiment of the present invention.
図14に示すように、本実施形態に係る複眼撮影装置10は、スピーカ70を備えている。スピーカ70は、不図示のマイクを介して録音された音声(いわゆるボイスメモ等)を再生するためのものである。
As shown in FIG. 14, the compound
本実施形態は、上記スピーカ70を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。 In this embodiment, it is possible to perform stereoscopic 3D display using the speaker 70 based on whether or not it is within the stereoscopic viewable range A1 and the parallax images IMG L and IMG R taken by the self-timer. The determination result is notified to the user.
図15は、本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 15 is a flowchart showing a self-timer photographing method for parallax images according to the seventh embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS200)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS202)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS204)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS206)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS208)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS210)。なお、ステップS210の判断工程については上記の実施形態と同様である。
Next, when the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS210のYes)、立体視可能範囲A1内に入ったことをスピーカ70から音声出力させ(ステップS212)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS214)、タイマーを起動して時間のカウントを開始する(ステップS216)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS218)。
Next, when the compound-
次に、複眼撮影装置10は、ステップS218において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS220)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS210と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS224)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS226)。
Next, the compound
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS222)。
Further, the compound
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS226のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS228)。
Next, the compound
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS226のNo)、立体視可能な視差画像の撮影に失敗したことをスピーカ70から音声出力させて(ステップS230)、撮影の失敗をユーザに報知する(ステップS232)。そして、ステップS210に戻り、再び視差画像の撮影を実行する(ステップS210からS232)。
On the other hand, the compound
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のスピーカ70をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
According to the present embodiment, it is determined whether stereoscopic 3D display is possible based on a parallax image obtained by capturing a parallax image with a self-timer, and the above determination result is sent to a user in front of the compound-
[第8の実施形態]
次に、本発明の第8の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Eighth Embodiment]
Next, an eighth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
本実施形態は、上記第3の実施形態において、セルフタイマーの時間をユーザが手動で調整できるようにしたものである。 In the third embodiment, the user can manually adjust the self-timer time in the third embodiment.
図16は、本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 16 is a flowchart showing a self-timer photographing method for parallax images according to the eighth embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS240)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS242)。
First, when the compound
次に、複眼撮影装置10は、セルフタイマーモードに設定されると(ステップS244)、タイマー時間(ステップS262における立体視可能範囲A1内にユーザが入ったことを検出してから撮影を実行するまでの時間)の設定画面(GUI)を表示部18に表示し、タイマー時間の設定入力を受け付ける(ステップS246)。以下、ステップS248からS266の処理については、上記図9のステップS56からS74と同様である。
Next, when the compound-
本実施形態によれば、ユーザ等が撮影時の姿勢を決めるまでの時間の自由に設定することができるので、ユーザの意図通りの撮影を容易にすることができる。 According to the present embodiment, since it is possible to freely set the time until the user or the like decides the posture at the time of shooting, shooting as intended by the user can be facilitated.
[第9の実施形態]
次に、本発明の第9の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Ninth Embodiment]
Next, a ninth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
図17は、本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 17 is a flowchart showing a self-timer photographing method for parallax images according to the ninth embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS270)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS272)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS274)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS276)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS278)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS280)。なお、ステップS280の判断工程については上記の実施形態と同様である。
Next, when the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS280のYes)、立体視可能範囲A1内にユーザ以外の被写体がいるかどうか判断する(ステップS282)。ステップS282では、複眼撮影装置10は、例えば、ステップS272のスルー画像に対して顔検出処理を行い、レリーズスイッチが押下された後に、スルー画像中から新たに検出された(レリーズスイッチ押下前に顔が検出されていた場合にはレリーズスイッチ押下前から増えた)顔をユーザと判断する。
Next, when the compound-
複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいると判断すると(ステップS282のYes)、ユーザとユーザ以外の被写体に合わせて撮影制御を行う(ステップS284)。ステップS284では、複眼撮影装置10は、例えば、検出した被写体(ユーザを含む)のすべて又は所定の割合以上が立体視可能範囲A1内にいると判断した場合に、ステップS288に進んでタイマーを起動する。また、複眼撮影装置10は、検出した被写体(ユーザを含む)の中から主要被写体を選択し、上記主要被写体に合わせてAE制御、AF制御及びAWB制御を行う。ここで、主要被写体はユーザ自身としてもよいし、又は顔領域の大きさ、複眼撮影装置10からの距離及び顔らしさ度のうちの少なくとも1つに基づいて決定されるようにしてもよい。例えば、顔領域が最も大きい、複眼撮影装置10からの距離が最も近い、又は顔らしさ度が最も高い被写体が主要被写体として選択される。
When the compound
一方、複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいないと判断すると(ステップS282のNo)、被写体はユーザのみであると判断し、ユーザに合わせて撮影制御を行う(ステップS286)。即ち、複眼撮影装置10は、ユーザに合わせてAE制御、AF制御及びAWB制御を行う。
On the other hand, when the compound
次に、複眼撮影装置10は、タイマーを起動して時間のカウントを開始する(ステップS288)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS290)。
Next, the compound
次に、複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS292)。また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS294)。
Next, the compound
本実施形態によれば、ユーザがレリーズスイッチを押下した時点で、立体視可能範囲A1内に他の人物が既にいた場合であっても、立体視可能範囲A1内にユーザが入ってからセルフタイマー撮影を開始することができるので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。 According to the present embodiment, even when another person is already in the stereoscopic viewable range A1 when the user presses the release switch, the self-timer after the user enters the stereoscopic viewable range A1. Since the photographing can be started, it is possible to prevent the photographing from being performed in the state where there is no user within the stereoscopic view possible range A1.
[第10の実施形態]
次に、本発明の第10の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Tenth embodiment]
Next, a tenth embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
本実施形態は、ユーザの画像の特徴点情報を複眼撮影装置10に予め登録しておき、特徴点情報に基づいて、ユーザの検出を行うようにしたものである。
In the present embodiment, feature point information of a user's image is registered in advance in the compound
図18は、ユーザの特徴点情報の登録処理を示すフローチャートである。 FIG. 18 is a flowchart showing a registration process of user feature point information.
まず、複眼撮影装置10の電源がオンになると(ステップS300)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS302)。
First, when the compound
次に、レリーズスイッチが押下(全押し)に応じて、複眼撮影装置10は、人物(ユーザ)の画像を撮影する(ステップS304)。そして、複眼撮影装置10は、撮影した人物画像に対して顔検出処理を施して特徴点を抽出し(ステップS306)、特徴点の座標及び位置関係を示す特徴点情報をEPROM等の記憶手段に記憶する(ステップS308)。
Next, in response to the release switch being pressed (fully pressed), the compound
図19は、本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 19 is a flowchart showing a self-timer photographing method for parallax images according to the tenth embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS310)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS312)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS314)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS316)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS318)。
Next, when the compound
次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、検出した人物が特徴点を登録済みの人物であるかどうか判断する(ステップS320)。複眼撮影装置10は、検出した人物が特徴点を登録済みの人物であると判断した場合(ステップS320のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS322)。ステップS322では、複眼撮影装置10は、スルー画像から検出したユーザの特徴点の視差ズレ量と、図7のマップM1に基づいてユーザが立体視可能範囲A1内にいるかどうかを判断する。なお、ステップS322の判断は、例えば、上記第1の実施形態と同様にしてもよい。
Next, the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS322のYes)、上記第2の実施形態で説明したアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS324)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS326)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS328)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS330)。
Next, when the compound
本実施形態によれば、予め登録した被写体(人物、ユーザ)が立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体(人物、ユーザ)の検出処理に要する時間を短縮することができる。 According to the present embodiment, since the self-timer shooting is started when a pre-registered subject (person, user) enters the stereoscopic viewable range A1, there is no user in the stereoscopic viewable range A1. Can prevent shooting. Further, since the detection target can be narrowed down by the feature point information, the time required for the subject (person, user) detection process can be shortened.
[第11の実施形態]
次に、本発明の第11の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
[Eleventh embodiment]
Next, an eleventh embodiment of the present invention will be described. In the following description, the description of the same configuration as the above embodiment is omitted.
本実施形態は、ユーザとユーザ以外の被写体となりうる人物の両方について特徴点情報の登録処理を行い、この特徴点情報に基づいてユーザとユーザ以外の被写体(人物)が立体視可能範囲A1内にいるかどうかの判断を行うようにしたものである。 In this embodiment, the feature point information is registered for both the user and a person who can be a subject other than the user, and the subject (person) other than the user and the user is within the stereoscopic viewable range A1 based on the feature point information. Judgment is made whether or not.
図20は、本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。 FIG. 20 is a flowchart showing a self-timer photographing method for parallax images according to the eleventh embodiment of the present invention.
まず、複眼撮影装置10の電源がオンになると(ステップS340)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS342)。
First, when the compound
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS344)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS346)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS348)。
Next, when the compound
次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、特徴点情報を登録済みの人物が立体視可能範囲A1内にいるかどうか判断する(ステップS350)。複眼撮影装置10は、特徴点情報を登録済みの人物が立体視可能範囲A1内にいると判断した場合(ステップS350のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS352)。なお、ステップS350及びS352の判断工程は上記の実施形態と同様である。
Next, the compound
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS352のYes)、タイマーを起動して時間のカウントを開始する(ステップS354)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS356)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS358)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS360)。
Next, when the compound
本実施形態によれば、予め登録した人物(ユーザとユーザ以外の被写体となりうる人物)がすべて立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。 According to the present embodiment, the self-timer shooting is started when all of the pre-registered persons (persons who can be subjects other than the user) are within the stereoscopic viewable range A1, so that the stereoscopic viewable range is reached. It is possible to prevent photographing in a state where there is no user or registered person in A1. Further, since the detection target can be narrowed down by the feature point information, the time required for the subject detection process can be shortened.
10…複眼カメラ、12…撮影部、14…CPU、16…操作部、18…表示部、20…記録部、22…撮影レンズ、24…フォーカスレンズ、26…ズームレンズ、28…絞り、30…メカシャッタ、32…光学系駆動部、34…撮像素子、36…タイミング・ジェネレータ、38…アンプ、40…アナログ信号処理部、50…発光部、60…フラッシュ発光部、70…スピーカ
DESCRIPTION OF
Claims (17)
ユーザからの撮影指示の入力を受け付ける撮影指示部と、
セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、
前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部と、
を備える複眼撮影装置。 First and second imaging units fixed to form a predetermined convergence angle;
A shooting instruction unit for receiving an input of a shooting instruction from a user;
A timer shooting setting unit for accepting settings for self-timer shooting;
After the timer shooting setting unit receives the setting of the self-timer shooting, when the shooting instruction unit receives an input of the shooting instruction, the user's position is detected and the user's position can be stereoscopically viewed. A first determination unit that determines whether or not a parallax image is within a stereoscopic view possible range;
After the first determination unit determines that the user's position is within the stereoscopic view possible range, the parallax image of the user is shot by the first and second shooting units. A shooting control unit;
A compound eye photographing apparatus.
前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項2記載の複眼撮影装置。 A map in which the amount of parallax deviation of the feature points is recorded so that the position of the user is within the stereoscopic view possible range;
The compound eye according to claim 2, wherein the first determination unit determines whether or not the position of the user is within the stereoscopic viewable range by comparing a parallax shift amount of the feature point with the map. Shooting device.
前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、
前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行する、請求項1から3のいずれか1項記載の複眼撮影装置。 A second determination unit that extracts a feature point of the user from the parallax image of the user and determines whether or not the position of the user is within the stereoscopic view possible range when the parallax image is captured;
A notification unit that notifies the user that the second determination unit has determined that the position of the user is not within the stereoscopic viewable range when the parallax image is captured;
The shooting control unit determines that the position of the user is within the stereoscopic viewable range after the second determination unit determines that the position of the user is not within the stereoscopic viewable range when shooting the parallax image. 4. The parallax image of the user is re-executed by the first and second imaging units after a lapse of a predetermined time from the determination by the first determination unit. 5. Compound eye photography device.
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項1から8のいずれか1項記載の複眼撮影装置。 A feature point information recording unit for recording the feature point information of the user;
The first determination unit according to claim 1, wherein the first determination unit determines whether the position of the user is within a stereoscopic view possible range where a stereoscopically viewable parallax image can be taken based on the feature point information. The compound-eye imaging device of any one of Claims.
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する、請求項9記載の複眼撮影装置。 The feature point information recording unit records feature point information of a user other than the user and the user of the compound eye photographing device,
The first determination unit determines, based on the feature point information, whether the positions of the user and a person other than the user are within a stereoscopically viewable range where a stereoscopically viewable parallax image can be taken,
The imaging control unit is configured to perform the first and second imaging after a lapse of a predetermined time after the first determination unit determines that the positions of the user and a person other than the user are within the stereoscopic viewable range. The compound eye imaging device according to claim 9, wherein a parallax image of the user is executed by a unit.
前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、
前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程と、
を備える撮影方法。 A photographing method for photographing a user's parallax image with a compound eye photographing device provided with first and second photographing means fixed so as to form a predetermined convergence angle,
When the compound eye photographing device accepts a setting for self-timer photographing and then accepts an input of a photographing instruction, the user's position is detected, and a stereoscopic view capable of photographing a parallax image in which the user's position is stereoscopically viewable A first determination step of determining whether or not it is within a possible range;
A first that the compound-eye imaging device captures a parallax image of the user by the first and second imaging means after a predetermined time has elapsed since the position of the user is determined to be within the stereoscopic viewable range. Shooting control process of
A photographing method comprising:
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程と、
を更に備える請求項11から13のいずれか1項記載の撮影方法。 A second determination step in which the compound eye imaging device extracts the user feature points from the parallax image of the user, and determines whether or not the position of the user is within the stereoscopic viewable range at the time of shooting the parallax image;
A notifying step for notifying the user that the compound eye photographing device has determined that the position of the user is not within the stereoscopic view possible range when photographing the parallax image;
After the second determining step determines that the user's position is not within the stereoscopic viewable range when the compound eye photographing device captures the parallax image, the user's position is within the stereoscopic viewable range. A second shooting control step of performing again shooting of the parallax image of the user by the first and second shooting means after a lapse of a predetermined time from the determination of the first determination step;
The imaging method according to claim 11, further comprising:
前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する、請求項16記載の撮影方法。 In the first determination step, the compound eye photographing apparatus determines the positions of the user and the person other than the user based on the feature point information of the user of the compound eye photographing apparatus and the person other than the user recorded in advance. Determine whether the stereoscopic viewable parallax image is within the stereoscopic viewable range,
In the photographing control step, the compound eye photographing device is configured such that the first and second photographing units are provided after a predetermined time has elapsed since the positions of the user and a person other than the user are determined to be within the stereoscopic view possible range. The imaging method according to claim 16, wherein imaging of the parallax image of the user is executed by the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009182591A JP2011033990A (en) | 2009-08-05 | 2009-08-05 | Compound eye photographing device and photographing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009182591A JP2011033990A (en) | 2009-08-05 | 2009-08-05 | Compound eye photographing device and photographing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011033990A true JP2011033990A (en) | 2011-02-17 |
Family
ID=43763102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009182591A Withdrawn JP2011033990A (en) | 2009-08-05 | 2009-08-05 | Compound eye photographing device and photographing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011033990A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012249168A (en) * | 2011-05-30 | 2012-12-13 | Pentax Ricoh Imaging Co Ltd | Camera capable of displaying stereoscopic image |
US9143761B2 (en) | 2011-09-29 | 2015-09-22 | Fujifilm Corporation | Image processing device, image processing method, recording medium, and imaging device |
WO2017104228A1 (en) * | 2015-12-17 | 2017-06-22 | ソニー株式会社 | Signal processing method and image capturing device |
US9838667B2 (en) | 2011-09-30 | 2017-12-05 | Fujifilm Corporation | Image pickup apparatus, image pickup method, and non-transitory computer-readable medium |
-
2009
- 2009-08-05 JP JP2009182591A patent/JP2011033990A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012249168A (en) * | 2011-05-30 | 2012-12-13 | Pentax Ricoh Imaging Co Ltd | Camera capable of displaying stereoscopic image |
US9143761B2 (en) | 2011-09-29 | 2015-09-22 | Fujifilm Corporation | Image processing device, image processing method, recording medium, and imaging device |
US9838667B2 (en) | 2011-09-30 | 2017-12-05 | Fujifilm Corporation | Image pickup apparatus, image pickup method, and non-transitory computer-readable medium |
WO2017104228A1 (en) * | 2015-12-17 | 2017-06-22 | ソニー株式会社 | Signal processing method and image capturing device |
US10628926B2 (en) | 2015-12-17 | 2020-04-21 | Sony Corporation | Signal processing method and imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5595499B2 (en) | Monocular stereoscopic imaging device | |
JP5474234B2 (en) | Monocular stereoscopic imaging apparatus and control method thereof | |
US20110018970A1 (en) | Compound-eye imaging apparatus | |
TWI514847B (en) | Image processing device, image processing method, and recording medium | |
JP5243666B2 (en) | Imaging apparatus, imaging apparatus main body, and shading correction method | |
JP5767715B2 (en) | Imaging apparatus, imaging method, and program | |
JP5371845B2 (en) | Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus | |
JP5635211B2 (en) | Imaging device | |
JP4533735B2 (en) | Stereo imaging device | |
JP4764854B2 (en) | Imaging apparatus, image reproducing apparatus, imaging method, system, and program | |
JP5415170B2 (en) | Compound eye imaging device | |
JP5231771B2 (en) | Stereo imaging device | |
JP2010056865A (en) | Image capturing apparatus | |
JP2010114760A (en) | Photographing apparatus, and fingering notification method and program | |
JP2011075675A (en) | Compound-eye imaging apparatus | |
JP2011022501A (en) | Compound-eye imaging apparatus | |
JP2011087128A (en) | Pantoscopic camera and method for discrimination of object | |
JP2011119995A (en) | Three-dimensional imaging apparatus and three-dimensional imaging method | |
JP2011033990A (en) | Compound eye photographing device and photographing method | |
JP5366693B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2012124650A (en) | Imaging apparatus, and imaging method | |
JP5351298B2 (en) | Compound eye imaging device | |
JP2009210832A (en) | Imaging device | |
JP2011109268A (en) | Three-dimensional image display device and method | |
JP2005037517A (en) | Stereoscopic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120124 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130423 |