JP2009188953A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2009188953A
JP2009188953A JP2008029681A JP2008029681A JP2009188953A JP 2009188953 A JP2009188953 A JP 2009188953A JP 2008029681 A JP2008029681 A JP 2008029681A JP 2008029681 A JP2008029681 A JP 2008029681A JP 2009188953 A JP2009188953 A JP 2009188953A
Authority
JP
Japan
Prior art keywords
imaging
unit
image data
degree
coincidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008029681A
Other languages
Japanese (ja)
Inventor
Seiichiro Sakata
誠一郎 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008029681A priority Critical patent/JP2009188953A/en
Publication of JP2009188953A publication Critical patent/JP2009188953A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and method for easily performing self-photographing within predetermined composition. <P>SOLUTION: The imaging apparatus includes: an imaging portion 13 for imaging a subject and converting an image into image data; a correlation operating portion 59 for detecting a degree of matching between first image data 53b obtained by imaging a background using the imaging portion and second image data 53a obtained by imaging a photographer under the background; a decision portion 65 for determining whether the degree of matching is settled within a predetermined range; an imaging operation control portion 15 for causing the imaging portion to start imaging operation when the decision portion determines that the degree of matching is settled within a predetermined range; and a recording portion for recording third image data obtained by starting the imaging operation by the imaging portion by operating the imaging operation control portion. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、予め定めた構図で自分撮りを簡便に行うことができる撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method that can easily perform self-taking with a predetermined composition.

デジタルカメラ等の撮像装置では、撮影者が自分自身を撮影する所謂自分撮りを、撮影ミスを起こさずに実施することが求められている。   An imaging apparatus such as a digital camera is required to perform so-called self-photographing in which a photographer photographs himself without causing a photographing mistake.

特許文献1に記載のデジタルカメラは、撮像素子からの撮像信号に基づいて被写体に含まれる顔の輪郭を検出し、検出した顔の輪郭が予め設定した撮像範囲内に収まるかどうかを判定してその結果を出力する。
これによって自分撮りにおいて、顔の一部などが切れてしまうといったミスが起こりにくくなる。
特開2005−217768号公報
The digital camera described in Patent Document 1 detects the outline of a face included in a subject based on an imaging signal from an imaging element, and determines whether or not the detected outline of the face falls within a preset imaging range. The result is output.
As a result, mistakes such as part of the face being cut off are less likely to occur in selfies.
JP 2005-217768 A

しかし、特許文献1に開示された技術は、背景画像について考慮されていない。
例えば、予め背景画像を含めた構図を決めて、その構図で自分撮りをしようとする場合、特許文献1に開示された技術では、撮影者自身はミスなく撮像できるが、背景画像が意図した構図となっていることを保障してはいない。
However, the technique disclosed in Patent Document 1 does not consider the background image.
For example, when a composition including a background image is determined in advance and a self-photographing is to be performed with the composition, the technique disclosed in Patent Document 1 allows the photographer himself to capture without mistake, but the composition intended for the background image It is not guaranteed that

本発明は、このような事情に鑑みてなされたものであり、予め定めた構図で自分撮りを簡便に行うことができる撮像装置及び撮像方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging apparatus and an imaging method capable of easily taking a selfie with a predetermined composition.

上記課題を解決するための本発明は、被写体を撮像して画像データに変換する撮像部と、上記撮像部で背景を撮像して得られた第1画像データと、上記背景のもとで撮影者を撮像して得られた第2画像データとの一致度を検出する相関演算部と、上記一致度が所定の範囲内にあるかどうかを判定する判定部と、上記判定部において上記一致度が所定の範囲内にあると判定したとき、上記撮像部による撮像動作を開始させる撮像動作制御部と、上記撮像動作制御部が操作して上記撮像部による撮像動作を開始して得られた第3画像データを記録する記録部と、を備えた撮像装置である。   In order to solve the above problems, the present invention provides an imaging unit that captures an image of a subject and converts it into image data, first image data obtained by imaging a background with the imaging unit, and imaging based on the background A correlation calculation unit that detects the degree of coincidence with the second image data obtained by imaging the person, a determination unit that determines whether the degree of coincidence is within a predetermined range, and the degree of coincidence in the determination unit Obtained when the imaging operation control unit that starts the imaging operation by the imaging unit and the imaging operation control unit operates to start the imaging operation by the imaging unit is determined. And a recording unit that records three image data.

また本発明は上記記載の発明である撮像装置において、さらに、上記一致度が所定の範囲内になるように撮影者に撮影方向を告知する出力部を備えた撮像装置である。   Further, the present invention is the imaging apparatus according to the above-described invention, further comprising an output unit for notifying a photographer of a shooting direction so that the degree of coincidence falls within a predetermined range.

また本発明は上記記載の発明である撮像装置において、上記出力部は、上記一致度が所定の範囲内になったときは撮影開始を予告する。   In the imaging apparatus according to the above-described invention, the output unit notifies the start of shooting when the degree of coincidence falls within a predetermined range.

また本発明は上記記載の発明である撮像装置において、上記撮像装置は、上記一致度が所定の範囲内になった後に自動で撮影を開始する。   According to the present invention, in the imaging apparatus according to the above-described invention, the imaging apparatus automatically starts photographing after the degree of coincidence falls within a predetermined range.

また本発明は、背景を撮像して第1画像データを取得するステップと、上記背景のもとで撮影者を撮像して第2画像データを取得するステップと、上記第1画像データと上記第2画像データの一致度を検出するための相関演算を行うステップと、上記一致度が所定の範囲内にあるかどうかを判定するステップと、上記一致度が所定の範囲内にあると判定したとき撮像動作を行うステップと、上記撮像動作を行って得られた第3画像データを記録部に記録するステップと、を備えた撮像方法である。   The present invention also includes a step of capturing a background to acquire first image data, a step of capturing a photographer under the background to acquire second image data, the first image data, and the first image data. A step of performing a correlation operation for detecting the degree of coincidence of the two image data, a step of determining whether or not the degree of coincidence is within a predetermined range, and when the degree of coincidence is within the predetermined range An imaging method comprising: a step of performing an imaging operation; and a step of recording third image data obtained by performing the imaging operation in a recording unit.

本発明によれば、予め定めた構図で自分撮りを簡便に行うことができる撮像装置及び撮像方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device and imaging method which can perform a self-portrait simply with a predetermined composition can be provided.

[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る撮像装置の斜視図である。図2は、本発明の第1の実施の形態に係る撮像装置の概略構成を示すブロック図である。
図1、図2を参照しつつ撮像装置の構成と動作について説明する。
[First Embodiment]
FIG. 1 is a perspective view of an imaging apparatus according to the first embodiment of the present invention. FIG. 2 is a block diagram showing a schematic configuration of the imaging apparatus according to the first embodiment of the present invention.
The configuration and operation of the imaging apparatus will be described with reference to FIGS.

図示されない被写体からの撮像光束は、撮像レンズ11a、絞り11bで構成される撮像レンズ系11を介して撮像素子12に入射される。この撮像素子12は、CCD、CMOS等の固体撮像素子を用いて構成される。撮像素子12に入射された撮像光束は、ここで電気信号に光電変換された後、撮像回路13を経て動きベクトル検出回路23に至る。   An imaging light beam from a subject (not shown) enters the imaging element 12 via an imaging lens system 11 including an imaging lens 11a and a diaphragm 11b. The image sensor 12 is configured using a solid-state image sensor such as a CCD or a CMOS. The imaging light beam incident on the imaging device 12 is photoelectrically converted into an electrical signal here, and then reaches the motion vector detection circuit 23 via the imaging circuit 13.

撮像回路13は、撮像素子12が出力したアナログ信号をデジタル信号の画像データに変換する。そして、自分撮りモードでの撮影を実行する場合に、所定タイミングで画像データを動きベクトル検出回路23に出力する。   The imaging circuit 13 converts the analog signal output from the imaging device 12 into digital image data. Then, when shooting in the self-shooting mode, the image data is output to the motion vector detection circuit 23 at a predetermined timing.

動きベクトル検出回路23は、入力された画像データから予め定めた構図での自分撮り画像となっているかどうかを判定する。また動きベクトル検出回路23は、予め定めた構図での自分撮り画像となっていると判定した場合は、撮像された画像データを画像処理回路24へ供給する。尚、動きベクトル検出回路23の詳細は後述する。   The motion vector detection circuit 23 determines from the input image data whether the self-portrait image has a predetermined composition. If the motion vector detection circuit 23 determines that the self-portrait image has a predetermined composition, it supplies the captured image data to the image processing circuit 24. Details of the motion vector detection circuit 23 will be described later.

画像処理回路24では、画像信号のγ補正、ホワイトバランス補正、自動露出調整等のデジタル信号処理が施される。また、例えばJPEG規格に基づいて画像圧縮/伸長が行われる。こうして圧縮/伸長された画像データは、ビデオメモリ26に転送されて記憶された後、ビデオ出力回路33を介して画像表示LCD35に表示可能であると共に、ビデオ出力端子36よりビデオ機器に出力可能である。
なお、画像表示LCD35に替えて、有機EL(Electroluminescence)ディスプレイ、LED等を用いた表示装置を用いても良い。
The image processing circuit 24 performs digital signal processing such as γ correction, white balance correction, and automatic exposure adjustment of the image signal. Further, for example, image compression / decompression is performed based on the JPEG standard. The compressed / decompressed image data is transferred to and stored in the video memory 26, and can be displayed on the image display LCD 35 via the video output circuit 33, and can be output to a video device from the video output terminal 36. is there.
Instead of the image display LCD 35, a display device using an organic EL (Electroluminescence) display, LED, or the like may be used.

画像処理された画像データは、I/F27からカードスロット30を介して、当該カメラに着脱自在な着脱メモリ31に記録することができる。ここで、着脱メモリ31には、不揮発性メモリであるフラッシュメモリ、DVD(Digital Versatile Disk)等の光記憶媒体を用いることができる。また、画像処理された画像データは、外部I/F28を介して、外部入出力端子37より外部機器に入出力が可能である。   The image data subjected to the image processing can be recorded from the I / F 27 to the removable memory 31 that is detachable from the camera via the card slot 30. Here, the removable memory 31 may be an optical storage medium such as a flash memory or a DVD (Digital Versatile Disk) that is a non-volatile memory. Further, the image data subjected to the image processing can be input / output to / from an external device via the external input / output terminal 37 via the external I / F 28.

更に撮像装置1には、撮像装置全体の動作を制御するシステムコントローラ15が設けられている。システムコントローラ15には、レンズ駆動部17、ストロボ発光部18、操作部19、スピーカ40、方向表示部41が接続されている。   Furthermore, the imaging apparatus 1 is provided with a system controller 15 that controls the operation of the entire imaging apparatus. The system controller 15 is connected to a lens driving unit 17, a strobe light emitting unit 18, an operation unit 19, a speaker 40, and a direction display unit 41.

レンズ駆動部17は、撮像レンズ11aを光軸方向に移動させる。ストロボ発光部18はストロボ光を発する。操作部19は、レリーズスイッチ42、パワーオン、各種のモード設定、電池表示選択等を行うためのスイッチや釦で構成される。スピーカ40は、撮影者に対して自分撮りの画像が予め定められた構図となるようにカメラの向きを音声で指示する。方向表示部41は、撮影者に対して自分撮りの画像が予め定められた構図とするためのカメラの向きを方向で表示する。   The lens driving unit 17 moves the imaging lens 11a in the optical axis direction. The strobe light emitting unit 18 emits strobe light. The operation unit 19 includes a release switch 42, power on, various mode settings, switches and buttons for performing battery display selection, and the like. The speaker 40 instructs the photographer with the direction of the camera by voice so that the self-portrait image has a predetermined composition. The direction display unit 41 displays the direction of the camera for the photographer so that the self-portrait image has a predetermined composition.

このシステムコントローラには、また、共通バス21を介して、動きベクトル検出回路23と、画像処理回路24と、バッファメモリ25と、ビデオメモリ26と、インターフェース(I/F)27と、外部インターフェース(I/F)28とが電気的に接続されている。
尚、電源部39は、電源としての電池の電圧を、当該撮像装置1の各回路が必要とする電圧に変換して供給するために設けられている。
The system controller also includes a motion vector detection circuit 23, an image processing circuit 24, a buffer memory 25, a video memory 26, an interface (I / F) 27, and an external interface (via the common bus 21. I / F) 28 is electrically connected.
The power supply unit 39 is provided to convert the voltage of the battery as a power supply into a voltage required for each circuit of the imaging device 1 and supply the voltage.

図3は、動きベクトル検出回路23の概略構成を示すブロック図である。
動きベクトル検出回路23は、撮像データ取得部51と、Y/C分離部52と、評価フレーム53a及び参照フレーム53bを有するフレームメモリ53と、評価領域設定部56と、参照領域設定部57と、フレーム間相関演算部59と、信頼性判定部60と、動きベクトル検出部61と、動きベクトル決定部64と、判定部65とを有して構成される。
FIG. 3 is a block diagram showing a schematic configuration of the motion vector detection circuit 23.
The motion vector detection circuit 23 includes an imaging data acquisition unit 51, a Y / C separation unit 52, a frame memory 53 having an evaluation frame 53a and a reference frame 53b, an evaluation region setting unit 56, a reference region setting unit 57, An inter-frame correlation calculation unit 59, a reliability determination unit 60, a motion vector detection unit 61, a motion vector determination unit 64, and a determination unit 65 are configured.

撮像データ取得部51は、評価フレーム53aと、参照フレーム53bを取得するために、撮像回路13から撮像データを取得するための手段である。評価フレーム53aは、所定時点で撮像されたデータであり、参照フレーム53bは、上記所定時点よりも所定時間前に撮像されたデータである。   The imaging data acquisition unit 51 is a means for acquiring imaging data from the imaging circuit 13 in order to acquire the evaluation frame 53a and the reference frame 53b. The evaluation frame 53a is data imaged at a predetermined time point, and the reference frame 53b is data imaged a predetermined time before the predetermined time point.

続いて、動きベクトル検出回路23の動作について説明する。
撮像データ取得部51から出力されたデータに対して、Y/C分離部52にて輝度成分が抽出される。抽出された輝度成分のデータは、後述の自分撮りモードでの撮影動作に合わせて、評価フレーム53a及び参照フレーム53bとしてフレームメモリ53に格納される。
評価領域設定部56は、撮像データ取得部51から得られた評価フレーム53aの所定領域を評価領域として設定するための評価領域設定手段である。同様に、参照領域設定部57は、上記撮像データ取得部から得られた参照フレーム53bに於いて、上記評価領域に対応した参照領域を設定するための参照領域設定手段である。
Next, the operation of the motion vector detection circuit 23 will be described.
A luminance component is extracted from the data output from the imaging data acquisition unit 51 by the Y / C separation unit 52. The extracted luminance component data is stored in the frame memory 53 as an evaluation frame 53a and a reference frame 53b in accordance with a shooting operation in a self-shooting mode described later.
The evaluation area setting unit 56 is an evaluation area setting unit for setting a predetermined area of the evaluation frame 53a obtained from the imaging data acquisition unit 51 as an evaluation area. Similarly, the reference area setting unit 57 is a reference area setting unit for setting a reference area corresponding to the evaluation area in the reference frame 53b obtained from the imaging data acquisition unit.

図4は、評価領域を設定する方法を説明するための図である。
図4(1)は、参照フレーム53bについて参照領域を設定した例を示している。参照フレーム53bを3×3のマス目に区切り、その各々のマス目を参照領域として設定している。
図4(2)は、評価フレーム53aについて評価領域を設定した例を示している。設定された各々の参照領域の中央部分の小領域を評価領域として設定している。
評価フレーム53a及び参照フレーム53bの両フレーム間での相関演算手段としてのフレーム間相関演算部59は、評価領域設定部56で設定された評価領域と、参照領域設定部57で設定された参照領域との相対的な位置関係をシフトして変化させながら、各々の位置関係に於いて、評価領域と参照領域の間の相関係数を算出する。
FIG. 4 is a diagram for explaining a method of setting an evaluation area.
FIG. 4A shows an example in which a reference area is set for the reference frame 53b. The reference frame 53b is divided into 3 × 3 squares, and each square is set as a reference area.
FIG. 4B shows an example in which an evaluation area is set for the evaluation frame 53a. A small area at the center of each set reference area is set as an evaluation area.
The inter-frame correlation calculation unit 59 as a correlation calculation unit between the evaluation frame 53a and the reference frame 53b includes an evaluation region set by the evaluation region setting unit 56 and a reference region set by the reference region setting unit 57. The correlation coefficient between the evaluation region and the reference region is calculated for each positional relationship while shifting and changing the relative positional relationship between the evaluation region and the reference region.

図5は、評価領域と参照領域との位置関係をシフトする例を示す図である。
例えば、評価領域を参照領域の左上端位置から1ピクセルずつ右方向にシフトする。そして、右端位置までシフトしたときは、評価領域を1ピクセル下げた状態で、参照領域の左端位置から1ピクセルずつ右方向に右端位置までシフトする。この動作を評価領域が参照領域の右下端位置になるまで実行する。
FIG. 5 is a diagram illustrating an example of shifting the positional relationship between the evaluation area and the reference area.
For example, the evaluation area is shifted rightward by one pixel from the upper left position of the reference area. When the shift is made to the right end position, the pixel is shifted to the right end position in the right direction by one pixel from the left end position of the reference area with the evaluation area lowered by one pixel. This operation is performed until the evaluation area reaches the lower right position of the reference area.

そして、フレーム間相関演算部59は、各々のシフト位置において、相関係数を算出する。
ここで、相関係数は、評価領域と参照領域の対応する各画素データの差分の絶対値を領域内で積分した値である。従って、この相関係数が相対的に小さい場合には、相対的に評価領域と参照領域との相関度が高いことを表している。
Then, the interframe correlation calculation unit 59 calculates a correlation coefficient at each shift position.
Here, the correlation coefficient is a value obtained by integrating the absolute value of the difference between corresponding pixel data in the evaluation region and the reference region in the region. Therefore, when the correlation coefficient is relatively small, it indicates that the degree of correlation between the evaluation region and the reference region is relatively high.

このフレーム間相関演算部59が演算した相関係数に従って、動きベクトル検出手段である動きベクトル検出部61にて、最も相関度の高い位置関係から評価領域(ブロック)単位で動きベクトルが求められる。   In accordance with the correlation coefficient calculated by the inter-frame correlation calculation unit 59, a motion vector detection unit 61, which is a motion vector detection means, obtains a motion vector for each evaluation area (block) from the positional relationship having the highest degree of correlation.

例えば、図5に示すように、評価領域を参照領域の左上端位置に置いたときの相関係数が最も低い値であったときは、この評価領域の動きベクトルはベクトルAとなる。ここで、ベクトルAは、始点を参照領域の中心点とし、終点を参照領域の左上端位置にある評価領域の中心点とするベクトルである。   For example, as shown in FIG. 5, when the correlation coefficient when the evaluation area is placed at the upper left end position of the reference area is the lowest value, the motion vector of this evaluation area is a vector A. Here, the vector A is a vector having the start point as the center point of the reference area and the end point as the center point of the evaluation area at the upper left position of the reference area.

このとき、信頼性判定手段である信頼性判定部60にて、動きベクトル検出部61の検出結果の信頼性が判定される。例えば、上述の演算によって求めた最も低い相関係数が、所定レベルより高い値であった場合は、信頼性判定部60は、動きベクトル検出部61の検出結果について「信頼性無し」と判定する。   At this time, the reliability of the detection result of the motion vector detection unit 61 is determined by the reliability determination unit 60 which is a reliability determination unit. For example, when the lowest correlation coefficient obtained by the above-described calculation is a value higher than a predetermined level, the reliability determination unit 60 determines that the detection result of the motion vector detection unit 61 is “no reliability”. .

動きベクトル決定部64は、評価領域単位の複数の動きベクトルから評価フレーム53a全体の動きベクトルを決定する。そして、この場合判定部65が、評価フレーム53a全体の動きベクトルに信頼性があるかどうかを判定する。
そして、判定部65に於いて、評価フレーム53a全体の動きベクトルに信頼性有りと判定された場合に、動きベクトル決定部64で決定された動きベクトルに応じて、予め決められた構図となるように撮像装置を移動する方向が撮影者に指示される。この指示は、
システムコントローラ15を介して、スピーカ40あるいは方向表示部41に出力することによってなされる。
The motion vector determination unit 64 determines a motion vector of the entire evaluation frame 53a from a plurality of motion vectors in units of evaluation regions. In this case, the determination unit 65 determines whether the motion vector of the entire evaluation frame 53a is reliable.
When the determination unit 65 determines that the motion vector of the entire evaluation frame 53a is reliable, the composition is determined in advance according to the motion vector determined by the motion vector determination unit 64. The direction of moving the imaging device is instructed to the photographer. This instruction
This is done by outputting to the speaker 40 or the direction display unit 41 via the system controller 15.

そして、その後所定条件が成立したときに、撮像データ取得部51からの画像データが画像処理回路24に送られる。   Then, when predetermined conditions are satisfied thereafter, the image data from the imaging data acquisition unit 51 is sent to the image processing circuit 24.

なお、上述の動きベクトル検出回路23の基本構成は、例えば、特開2005−260481号公報記載の電子手ブレ補正の差分マッチング回路を応用したものである。   Note that the basic configuration of the above-described motion vector detection circuit 23 is an application of the electronic camera shake correction difference matching circuit described in JP-A-2005-260481, for example.

図6は、本実施の形態に係る撮像装置の自分撮り動作を示す概略のフロー図である。
ステップS01において、撮影者は操作部19を操作して撮影モードを「自分撮りモード」に設定する。ステップS02において、撮像装置1は、レリーズスイッチ42が押されるまで待機する。
FIG. 6 is a schematic flowchart showing a self-portrait operation of the imaging apparatus according to the present embodiment.
In step S01, the photographer operates the operation unit 19 to set the photographing mode to “selfie mode”. In step S02, the imaging apparatus 1 stands by until the release switch 42 is pressed.

ステップS03において、撮影者は基準撮影を行う。即ち、撮影者は背景となる構図を定めてレリーズスイッチ42を操作する。ステップS04において、撮像回路13からの画像データは、参照フレーム53bに格納される。   In step S03, the photographer performs reference photographing. That is, the photographer operates the release switch 42 with a background composition. In step S04, the image data from the imaging circuit 13 is stored in the reference frame 53b.

ステップS05において、撮影者は、基準撮影で撮影した被写体を背景として、撮像装置1を手に持ってレンズを自らの方向に向ける。撮像装置1は本撮影のための待機状態に移行する。即ち、ステップS06からステップS11の動作を実行する。   In step S05, the photographer holds the imaging device 1 in his hand and points the lens in his / her direction with the subject photographed in the standard photographing as a background. The imaging apparatus 1 shifts to a standby state for actual shooting. That is, the operations from step S06 to step S11 are executed.

ステップS06において、撮像回路13から背景と撮影者とを被写体として含む画像データが取り出され、評価フレーム53aに格納される。ステップS07において、図4及び図5で説明した処理によって動きベクトルを求め、相関マッチング法によりフレーミングのずれ量を求める。   In step S06, image data including the background and the photographer as subjects is extracted from the imaging circuit 13 and stored in the evaluation frame 53a. In step S07, a motion vector is obtained by the processing described with reference to FIGS. 4 and 5, and a framing shift amount is obtained by a correlation matching method.

図7は、相関マッチング法によりフレーミングのずれ量を求める処理を説明する図である。
図7(1)は、基準撮影で得られた背景画像を示し、図7(2)は、評価フレーム53aに格納された画像を示している。図7(3)は、相関マッチング処理の結果を示している。
FIG. 7 is a diagram for explaining processing for obtaining a framing shift amount by a correlation matching method.
FIG. 7 (1) shows a background image obtained by reference photographing, and FIG. 7 (2) shows an image stored in the evaluation frame 53a. FIG. 7 (3) shows the result of the correlation matching process.

基準撮影で得られた背景画像に対して参照領域を設定し、その参照領域と対応して設定した評価領域との間で相関演算を行うことにより、評価領域毎に動きベクトルを求める。図7(3)の右の図には、このようにして求められた評価領域ごとの動きベクトルが表されている。   A reference region is set for the background image obtained by the standard imaging, and a motion vector is obtained for each evaluation region by performing a correlation calculation between the reference region and the evaluation region set corresponding to the reference region. The right side of FIG. 7 (3) shows the motion vector for each evaluation area obtained in this way.

ここで、撮影者の顔を含んでいる評価領域では、背景画像との相関係数は高い値となっている。このため、この評価領域の動きベクトルは、上述のように信頼性判定部60が「信頼性無し」と判定している。そこで、「信頼性無し」と判定された評価領域の動きベクトルを除外して、残りの複数の動きベクトルからフレーム全体としての動きベクトルを求める。例えば、これら評価領域毎の動きベクトルの平均値を求めても良く、或いは中央値を求めても良い。   Here, in the evaluation region including the photographer's face, the correlation coefficient with the background image has a high value. For this reason, as described above, the reliability determination unit 60 determines that the motion vector of this evaluation region is “no reliability”. Therefore, the motion vector of the evaluation area determined as “unreliable” is excluded, and the motion vector of the entire frame is obtained from the remaining plurality of motion vectors. For example, an average value of motion vectors for each evaluation area may be obtained, or a median value may be obtained.

ステップS08において、全体の動きベクトルが閾値以下かどうかを閾値マトリクスを用いて調べる。
図8は、閾値マトリクスを示す図である。
閾値マトリクスでは、参照領域の中央位置を原点とする二次元座標系を定義して、9つの領域(領域[1]〜領域[9])に区分する。ここで、X軸方向の正の閾値をTx、Y軸方向の正の閾値をTyとすると、領域[5]は、−Ty≦Y≦Ty、−Tx≦X≦Txで囲まれる領域である。この領域[5]を閾値以下の領域という。そして、この閾値マトリクス上で、全体の動きベクトルの始点を座標原点としたとき、ベクトルの終点位置がどの領域に属するかを調べる。
In step S08, it is checked using the threshold value matrix whether or not the entire motion vector is equal to or less than the threshold value.
FIG. 8 is a diagram illustrating a threshold matrix.
In the threshold matrix, a two-dimensional coordinate system having the origin at the center position of the reference area is defined and divided into nine areas (area [1] to area [9]). Here, if the positive threshold value in the X-axis direction is Tx and the positive threshold value in the Y-axis direction is Ty, the region [5] is a region surrounded by −Ty ≦ Y ≦ Ty and −Tx ≦ X ≦ Tx. . This area [5] is referred to as an area below the threshold. Then, on this threshold value matrix, when the start point of the entire motion vector is set as the coordinate origin, it is examined to which region the end point position of the vector belongs.

ステップS08でNOの場合、即ち、動きベクトルの終点位置が領域[5]以外であった場合、ステップS09において、撮像装置は撮影者に対する指示を指示マトリクスに基づいて行う。   If NO in step S08, that is, if the end point position of the motion vector is other than the region [5], in step S09, the imaging apparatus gives an instruction to the photographer based on the instruction matrix.

図9は、指示マトリクスを示す図である。
この指示マトリクスには、ベクトルの終点位置が属する領域に対応して、撮影者に指示する内容が記載されている。例えば、ベクトルの終点位置が領域[1]に属する場合は「右下にずらす」指示がなされる。この指示は、スピーカ40により音声でなされても良く、また方向表示部41に撮像装置をずらす方向を点灯表示しても良い。
FIG. 9 is a diagram showing an instruction matrix.
In this instruction matrix, contents instructed to the photographer are described corresponding to the area to which the end point position of the vector belongs. For example, when the end point position of the vector belongs to the area [1], an instruction “shift to the lower right” is issued. This instruction may be given by voice through the speaker 40, or the direction in which the image pickup apparatus is shifted may be lit on the direction display unit 41.

そして、所定時間経過後にステップS06に戻り、取得した新たな被写体の画像データに基づいて動きベクトルを求める。   Then, after a predetermined time has elapsed, the process returns to step S06, and a motion vector is obtained based on the acquired new subject image data.

ステップS08でYESの場合、即ち、動きベクトルの終点位置が領域[5]内にあった場合、ステップS10において、撮像装置は構図が所定位置内に収まっていることを方向表示部41を点滅表示して知らせると共に、撮影者に対して撮影開始を予告する。例えば、「x秒後に撮影を開始します」と、スピーカ40を用いて音声で予告する。
これによって、撮影者は撮像装置の移動を停止して保持することができると共に、撮影のために表情を整えるなどの準備時間を確保することができる。
If YES in step S08, that is, if the end point position of the motion vector is in the area [5], in step S10, the imaging apparatus blinks and displays the direction display unit 41 that the composition is within the predetermined position. To notify the photographer of the start of shooting. For example, “Shooting starts after x seconds” is notified by voice using the speaker 40.
Thereby, the photographer can stop and hold the movement of the image pickup apparatus, and can secure a preparation time for adjusting the facial expression for photographing.

ステップS11において、撮像装置は、x秒経過後に本撮影動作を実行する。即ち、撮像装置は、x秒経過後においてなお、動きベクトルの終点位置が領域[5]内にあった場合、本撮影動作を実行する。そして、撮像データ取得部51は、本撮影で取得した画像データを画像処理回路24に出力する。   In step S <b> 11, the imaging apparatus performs the main photographing operation after x seconds have elapsed. That is, the imaging apparatus performs the main photographing operation when the end point position of the motion vector is still in the region [5] after x seconds have elapsed. Then, the imaging data acquisition unit 51 outputs the image data acquired in the actual imaging to the image processing circuit 24.

図10は、自分撮りにおける撮影者へのフレーミング動作を補助する機能を説明する図である。
1枚目に撮影した基準画像に対して、2枚目に撮影する自分撮り画像との一致度を表す差分値を検出し、その差分値を修正するように音、光などを用いて撮影者に知らせる。また、差分値が閾値以内に収まった場合は、そのことを直ちに光によって知らせると共に、音声によって撮影開始を予告する。
FIG. 10 is a diagram for explaining a function for assisting a framing operation for a photographer in self-portrait.
The photographer uses sound, light, etc. to detect a difference value indicating the degree of coincidence with the reference image photographed on the first image and a self-portrait image photographed on the second image, and to correct the difference value. To inform. If the difference value falls within the threshold value, this is immediately notified by light, and the start of shooting is notified by voice.

[実施の形態の効果]
以上説明した実施の形態では、種々の効果を得ることができる。
[Effect of the embodiment]
In the embodiment described above, various effects can be obtained.

(1)撮像装置は、自分撮りモードを備え、一度目に背景画像を撮影し、二度目に自分撮りを行う。そして、自分撮りを行うときは予め定めた構図になるように撮影者に対して音や光で撮像装置を移動させる方向を知らせる。
さらに、定めた構図になったときは、そのことを光によって直ちに撮影者に知らせる。これによって撮影者はその位置で撮像装置の移動等を速やかに停止させることができる。また撮影を開始することを予告するように構成し、撮影のための準備時間を確保できるようにしている。このように、本撮像装置は自分撮りを円滑に実行するための機能を備えている。
(1) The imaging device has a self-portrait mode, takes a background image for the first time, and takes a self-portrait for the second time. When taking a self-portrait, the photographer is informed of the direction in which the imaging device is moved by sound or light so as to obtain a predetermined composition.
In addition, when the composition is determined, this is immediately notified to the photographer by light. As a result, the photographer can quickly stop the movement of the imaging device at that position. In addition, it is configured to notify the start of shooting so that preparation time for shooting can be secured. As described above, the imaging apparatus has a function for smoothly performing self-portrait.

(2)また、撮像装置は自分撮り動作において、定めた構図になったときは自動で撮像動作に移行する。このため、撮影者はレリーズスイッチを操作する必要がなく、取扱いが簡便であると共に、レリーズ操作に伴うぶれ等の画質劣化の恐れもない。   (2) In addition, the imaging apparatus automatically shifts to the imaging operation when the determined composition is obtained in the self-portrait operation. For this reason, the photographer does not need to operate the release switch, is easy to handle, and there is no fear of image quality deterioration such as blur due to the release operation.

(3)さらに撮像装置は、予め定めた構図に対して、画像処理によって撮像装置を移動させる方向を求める。この画像処理においては、動きベクトルを用いているが、この基本的な処理方法は電子手ブレ補正の差分マッチング回路を応用したものである。従って、この回路を共用できるため、電子手ブレ補正と自分撮りの機能を共に搭載した安価な撮像装置を構成することができる。   (3) Further, the imaging apparatus obtains a direction in which the imaging apparatus is moved by image processing with respect to a predetermined composition. In this image processing, a motion vector is used, but this basic processing method applies a difference matching circuit for electronic camera shake correction. Therefore, since this circuit can be shared, it is possible to configure an inexpensive image pickup apparatus equipped with both electronic camera shake correction and self-shooting functions.

なお、上述の実施の形態で説明した各機能は、ハードウエアを用いて構成しても良く、また、ソフトウエアを用いて各機能を記載したプログラムをコンピュータに読み込ませて実現しても良い。また、各機能は、適宜ソフトウエア、ハードウエアのいずれかを選択して構成するものであっても良い。   Each function described in the above embodiment may be configured using hardware, or may be realized by reading a program describing each function into a computer using software. Each function may be configured by appropriately selecting either software or hardware.

更に、各機能は図示しない記録媒体に格納したプログラムをコンピュータに読み込ませることで実現させることもできる。ここで本実施の形態における記録媒体は、プログラムを記録でき、かつコンピュータが読み取り可能な記録媒体であれば、その記録形式は何れの形態であってもよい。   Furthermore, each function can be realized by causing a computer to read a program stored in a recording medium (not shown). Here, as long as the recording medium in the present embodiment can record a program and can be read by a computer, the recording format may be any form.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

本発明の第1の実施形態に係る撮像装置の斜視図。1 is a perspective view of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る撮像装置の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 動きベクトル検出回路の概略構成を示すブロック図。The block diagram which shows schematic structure of a motion vector detection circuit. 評価領域を設定する方法を説明するための図。The figure for demonstrating the method of setting an evaluation area | region. 評価領域と参照領域との位置関係をシフトする例を示す図。The figure which shows the example which shifts the positional relationship of an evaluation area | region and a reference area. 撮像装置の自分撮り動作を示す概略のフロー図。FIG. 3 is a schematic flowchart showing a self-taking operation of the imaging apparatus. 相関マッチング法によりフレーミングのずれ量を求める処理を説明する図。The figure explaining the process which calculates | requires the deviation | shift amount of a framing with a correlation matching method. 閾値マトリクスを示す図。The figure which shows a threshold value matrix. 指示マトリクスを示す図。The figure which shows an instruction | indication matrix. 自分撮りにおける撮影者へのフレーミング動作を補助する機能を説明する図。The figure explaining the function which assists the framing operation | movement to the photographer in self-portrait.

符号の説明Explanation of symbols

1…撮像装置、11…撮像レンズ系、11a…撮像レンズ、12…撮像素子、13…撮像回路、15…システムコントローラ、17…レンズ駆動部、19…操作部、23…動きベクトル検出回路、24…画像処理回路、25…バッファメモリ、26…ビデオメモリ、27…インターフェース、28…外部インターフェース、30…カードスロット、31…着脱メモリ、33…ビデオ出力回路、35…画像表示LCD、40…スピーカ、41…方向表示部、42…レリーズスイッチ、51…撮像データ取得部、53…フレームメモリ、53a…評価フレーム、53b…参照フレーム、56…評価領域設定部、57…参照領域設定部、59…フレーム間相関演算部、60…信頼性判定部、61…動きベクトル検出部、64…動きベクトル決定部、65…判定部。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... Imaging lens system, 11a ... Imaging lens, 12 ... Imaging element, 13 ... Imaging circuit, 15 ... System controller, 17 ... Lens drive part, 19 ... Operation part, 23 ... Motion vector detection circuit, 24 Image processing circuit, 25 Buffer memory, 26 Video memory, 27 Interface, 28 External interface, 30 Card slot, 31 Detachable memory, 33 Video output circuit, 35 Image display LCD, 40 Speaker DESCRIPTION OF SYMBOLS 41 ... Direction display part, 42 ... Release switch, 51 ... Imaging data acquisition part, 53 ... Frame memory, 53a ... Evaluation frame, 53b ... Reference frame, 56 ... Evaluation area setting part, 57 ... Reference area setting part, 59 ... Frame Inter-correlation calculation unit, 60 ... reliability determination unit, 61 ... motion vector detection unit, 64 ... motion vector determination unit, 5 ... the determination unit.

Claims (5)

被写体を撮像して画像データに変換する撮像部と、
上記撮像部で背景を撮像して得られた第1画像データと、上記背景のもとで撮影者を撮像して得られた第2画像データとの一致度を検出する相関演算部と、
上記一致度が所定の範囲内にあるかどうかを判定する判定部と、
上記判定部において上記一致度が所定の範囲内にあると判定したとき、上記撮像部による撮像動作を開始させる撮像動作制御部と、
上記撮像動作制御部が操作して上記撮像部による撮像動作を開始して得られた第3画像データを記録する記録部と、
を備えたことを特徴とする撮像装置。
An imaging unit for imaging a subject and converting it into image data;
A correlation calculation unit for detecting a degree of coincidence between the first image data obtained by imaging the background with the imaging unit and the second image data obtained by imaging the photographer under the background;
A determination unit for determining whether or not the degree of coincidence is within a predetermined range;
An imaging operation control unit that starts an imaging operation by the imaging unit when the determination unit determines that the degree of coincidence is within a predetermined range;
A recording unit that records the third image data obtained by operating the imaging operation control unit and starting the imaging operation by the imaging unit;
An imaging apparatus comprising:
上記撮像装置は、さらに、上記一致度が所定の範囲内になるように撮影者に撮影方向を告知する出力部を備えたことを特徴とする請求項1に記載の撮像装置。   2. The imaging apparatus according to claim 1, further comprising an output unit that notifies a photographer of a shooting direction so that the degree of coincidence falls within a predetermined range. 上記出力部は、上記一致度が所定の範囲内になったときは撮影開始を予告することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the output unit notifies the start of shooting when the degree of coincidence falls within a predetermined range. 上記撮像装置は、上記一致度が所定の範囲内になった後に自動で撮影を開始することを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the imaging apparatus automatically starts imaging after the degree of coincidence falls within a predetermined range. 背景を撮像して第1画像データを取得するステップと、
上記背景のもとで撮影者を撮像して第2画像データを取得するステップと、
上記第1画像データと上記第2画像データの一致度を検出するための相関演算を行うステップと、
上記一致度が所定の範囲内にあるかどうかを判定するステップと、
上記一致度が所定の範囲内にあると判定したとき撮像動作を行うステップと、
上記撮像動作を行って得られた第3画像データを記録部に記録するステップと、
を備えたことを特徴とする撮像方法。
Imaging a background to obtain first image data;
Capturing a photographer under the background and obtaining second image data;
Performing a correlation operation for detecting the degree of coincidence between the first image data and the second image data;
Determining whether the degree of coincidence is within a predetermined range;
Performing an imaging operation when it is determined that the degree of coincidence is within a predetermined range;
Recording the third image data obtained by performing the imaging operation in a recording unit;
An imaging method comprising:
JP2008029681A 2008-02-08 2008-02-08 Imaging apparatus and imaging method Withdrawn JP2009188953A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008029681A JP2009188953A (en) 2008-02-08 2008-02-08 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008029681A JP2009188953A (en) 2008-02-08 2008-02-08 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2009188953A true JP2009188953A (en) 2009-08-20

Family

ID=41071707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008029681A Withdrawn JP2009188953A (en) 2008-02-08 2008-02-08 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2009188953A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081462A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Information recording/reproducing device
JP2011221394A (en) * 2010-04-13 2011-11-04 Nec Corp Image processing apparatus, image processing method, and program therefor
JP2014056343A (en) * 2012-09-11 2014-03-27 Mega Chips Corp Mobile terminal device, program, and situation detection method
US8947560B2 (en) 2011-03-31 2015-02-03 Sony Corporation Image processing apparatus, image processing method, image processing program, and imaging apparatus
US9747871B2 (en) 2012-09-11 2017-08-29 Megachips Corporation Portable terminal device, program, device shake compensation method, and condition detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081462A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Information recording/reproducing device
JP2011221394A (en) * 2010-04-13 2011-11-04 Nec Corp Image processing apparatus, image processing method, and program therefor
US8947560B2 (en) 2011-03-31 2015-02-03 Sony Corporation Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP2014056343A (en) * 2012-09-11 2014-03-27 Mega Chips Corp Mobile terminal device, program, and situation detection method
US9747871B2 (en) 2012-09-11 2017-08-29 Megachips Corporation Portable terminal device, program, device shake compensation method, and condition detection method

Similar Documents

Publication Publication Date Title
JP5235798B2 (en) Imaging apparatus and control method thereof
TWI514847B (en) Image processing device, image processing method, and recording medium
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
US20160330366A1 (en) Image processing device and method, and program
TWI492618B (en) Image pickup device and computer readable recording medium
JP2010213220A (en) Imaging apparatus, and imaging control method
JP2009088768A (en) Imaging apparatus, and imaging method
JP4127521B2 (en) Digital camera and control method thereof
JP2015053741A (en) Image reproduction device
JP2009188953A (en) Imaging apparatus and imaging method
JP2006246354A (en) Imaging unit and imaging program
JP2009278432A (en) Imaging apparatus, and imaging method in imaging apparatus
JP2011024123A (en) Three-dimensional imaging apparatus, and three-dimensional image display method
JP5942260B2 (en) Imaging device, image reproduction device
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010141609A (en) Imaging apparatus
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP2005086271A (en) Electronic camera
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP4989243B2 (en) Imaging device and subject detection method thereof
JP2007208355A (en) Photographing device, method, and program
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2010016469A (en) Electronic camera
JP2010134291A (en) Image capturing apparatus and method for controlling the same
JP2009139423A (en) Imaging apparatus and subject distance calculating method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110510