JP5736796B2 - Electronic camera, program and recording medium - Google Patents
Electronic camera, program and recording medium Download PDFInfo
- Publication number
- JP5736796B2 JP5736796B2 JP2011012184A JP2011012184A JP5736796B2 JP 5736796 B2 JP5736796 B2 JP 5736796B2 JP 2011012184 A JP2011012184 A JP 2011012184A JP 2011012184 A JP2011012184 A JP 2011012184A JP 5736796 B2 JP5736796 B2 JP 5736796B2
- Authority
- JP
- Japan
- Prior art keywords
- main subject
- unit
- image data
- electronic camera
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 111
- 238000000034 method Methods 0.000 claims description 64
- 238000001514 detection method Methods 0.000 claims description 63
- 230000003287 optical effect Effects 0.000 claims description 37
- 238000003384 imaging method Methods 0.000 claims description 34
- 238000010586 diagram Methods 0.000 description 16
- 230000001629 suppression Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、電子カメラ、プログラム及びそのプログラムが記録された記録媒体に関する。 The present invention relates to an electronic camera, a program, and a recording medium on which the program is recorded.
従来、主要被写体のぶれを低減させて自動的に流し撮りの撮影を行なう電子カメラが提案されている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an electronic camera that automatically takes a panning shot while reducing blurring of a main subject has been proposed (see, for example, Patent Document 1).
しかし、上記の電子カメラによる撮影では、主要被写体の移動方向が撮影画面内で例えば左右方向に限られている。そのため、主要被写体の移動方向によっては、その主要被写体のぶれを低減させる撮影が困難になるおそれがある。 However, in the above-described shooting by the electronic camera, the moving direction of the main subject is limited to, for example, the horizontal direction in the shooting screen. For this reason, depending on the moving direction of the main subject, it may be difficult to perform shooting that reduces the blur of the main subject.
そこで、本発明は、上記事情に鑑み、主要被写体が撮影画面内を何れかの方向に移動した場合であっても、その主要被写体のぶれを低減させる撮影手段を提供することを目的とする。 In view of the above circumstances, an object of the present invention is to provide a photographing unit that reduces blurring of a main subject even when the main subject moves in any direction on the photographing screen.
本発明の一態様の電子カメラは、被写体像を撮像し画像データを出力する撮像部と、前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出部と、前記主要被写体領域内に複数の検出領域を設定する設定部と、異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出部と、前記動き検出部により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像部が記録用画像データを出力するように制御する制御部と、を備えることを特徴とする。 An electronic camera according to an aspect of the present invention includes an imaging unit that captures a subject image and outputs image data, a main subject region detection unit that detects a main subject region where a main subject exists using the image data, and the main A movement for detecting movements of the plurality of detection areas set in the main subject area using a setting unit that sets a plurality of detection areas in the subject area and a plurality of the image data captured at different times A detection unit; and a control unit that controls the imaging unit to output recording image data when the motion of the plurality of detection areas detected by the motion detection unit is smaller than a predetermined threshold. Features.
本発明の一態様のプログラムは、被写体像を撮像し画像データを出力する撮像処理と、前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、前記主要被写体領域内に複数の検出領域を設定する設定処理と、異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、をコンピュータに実行させるものである。 The program according to an aspect of the present invention includes an imaging process that captures a subject image and outputs image data, a main subject area detection process that detects a main subject area where a main subject exists using the image data, and the main subject Motion detection for detecting movement of the plurality of detection areas set in the main subject area using setting processing for setting a plurality of detection areas in the area and a plurality of the image data captured at different times And a control process for performing control to output the recording image data by performing the imaging process when the motions of the plurality of detection areas detected by the motion detection process are smaller than a predetermined threshold. To be executed.
本発明の一態様の記録媒体は、被写体像を撮像し画像データを出力する撮像処理と、前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、前記主要被写体領域内に複数の検出領域を設定する設定処理と、異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、をコンピュータに実行させるための命令が記録されたものである。 The recording medium of one embodiment of the present invention includes an imaging process that captures a subject image and outputs image data, a main subject area detection process that detects a main subject area where a main subject exists using the image data, and the main subject area detection process. A setting process for setting a plurality of detection areas in a subject area and a motion for detecting movements of the plurality of detection areas set in the main subject area using a plurality of the image data captured at different times A detection process and a control process for performing control to output the image data for recording by performing the imaging process when the motions of the plurality of detection areas detected by the motion detection process are smaller than a predetermined threshold value. Instructions to be executed are recorded.
本発明は、主要被写体が撮影画面内を何れかの方向に移動した場合であっても、その主要被写体のぶれを低減させる撮影手段を提供できる。 The present invention can provide imaging means for reducing the shake of the main subject even when the main subject moves in any direction on the imaging screen.
以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、電子カメラ1の構成例を示すブロック図である。ここで、電子カメラ1は、被写体のぶれが抑制された撮影を行なう「ぶれ抑制モード」を有している。ぶれ抑制モードでは、例えば動く主要被写体が撮影画面内で静止した時に、自動的に撮影を実行する撮影モードである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of the
電子カメラ1は、撮影光学系10と、レンズ駆動部11と、絞り12と、絞り駆動部13と、撮像素子14と、信号処理部15と、RAM(Random Access Memory)16と、画像処理部17と、フラッシュメモリ18と、記録インターフェース部(以下「記録I/F部」という)19と、表示インターフェース部(以下「表示I/F部」という)20と、表示モニタ21と、タッチパネル22と、操作部23と、レリーズ釦24と、CPU(Central Processing Unit)25と、データバス26とを備える。
The
このうち、信号処理部15、RAM16、画像処理部17、フラッシュメモリ18、記録I/F部19、表示I/F部20及びCPU25は、データバス26を介して互いに接続されている。また、レンズ駆動部11、絞り駆動部13、信号処理部15、タッチパネル22、操作部23及びレリーズ釦24は、CPU25に接続されている。
Among these, the
撮影光学系10は、焦点距離を調整するズームレンズと、撮像素子14の撮像面での結像位置を調整するフォーカスレンズとを含む複数のレンズ群で構成されている。レンズ駆動部11は、撮影光学系10内でズームレンズやフォーカスレンズのレンズ位置をCPU25の指示に応じて光軸(図中L)方向に調整する。なお、簡単のため、図1では、撮影光学系10を1枚のレンズとして図示する。
The photographic
絞り12は、撮像素子14に入射する単位時間当たりの光量を調節する。絞り駆動部13は、絞り12の開口量をCPU25の指示に応じて調整する。
The
撮像素子14は、撮影光学系10及び絞り12を通過した被写体像を撮像し、アナログの画像信号を取得する。そして、撮像素子14が出力するアナログの画像信号は、信号処理部15に入力される。なお、撮像素子14の撮像面には、R(赤)、G(緑)B(青)の3種類のカラーフィルタが例えばベイヤー配列で配置されている。また、撮像素子14の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。
The
ここで、撮像素子14は、後述のレリーズ釦24の全押し操作に応答して記録用画像(本画像)を撮像する。また、撮像素子14は、撮影待機時に所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。また、撮像素子14は、ぶれ抑制モードにおいて、後述の取得部25eの指示に応答して、記録用画像を撮像する。
Here, the
なお、撮像素子14は、CCD(Charge Coupled Device)型又はCMOS(Complementary Metal−Oxide Semiconductor)型のカラーイメージセンサである。
The
信号処理部15は、撮像素子14が出力するアナログの画像信号をデジタル信号(画像データ)に変換しデータバス26に出力する。
The
RAM16は、揮発性のメモリであり、信号処理部15が出力する画像データは、データバス26を介して画像データとしてRAM16に一時記録される。画像処理部17は、RAM16に記録されている画像データを読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。また、画像処理部17は、画像信号を解析して、画素毎の輝度を検出する。具体的には、画像処理部17は、RGB信号の画像データを輝度信号(Y信号)と、色差信号(Cr、Cb信号)の画像データに変換(YC変換)する。
The
フラッシュメモリ18は、書き換え可能な不揮発性の半導体メモリである。フラッシュメモリ18には、電子カメラ1の制御を行なうプログラム等が予め記録されている。CPU25は、このプログラムに従い、一例として後述の図5に示すフローの処理を実行する。また、フラッシュメモリ18には、主要被写体の移動状態の判定基準を示す情報(閾値を含む)がテーブル化されて記録されている(詳細は後述する)。
The flash memory 18 is a rewritable nonvolatile semiconductor memory. A program for controlling the
記録I/F部19には、着脱自在の記録媒体30を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部19は、そのコネクタに接続された記録媒体30にアクセスして静止画像の記録処理等を行なう。この記録媒体30は、例えば、カード型の不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。
The recording I /
表示I/F部20は、RAM16に一時記録された再生用の静止画像や電子カメラ1の操作メニューを示す画像等を表示モニタ21に出力する。また、表示I/F部20は、撮影待機時において、記録媒体30に記録する記録用画像に比べて撮像素子14が出力する画像の解像度を低く設定したスルー画像を表示モニタ21に出力する。例えば、表示I/F部20は、30フレーム毎秒(30fps)でスルー画像を表示モニタ21に出力する。表示モニタ21は、例えば液晶表示媒体により構成される。
The display I /
タッチパネル22は、タッチパネル表面に接触した指先等の位置を検出する。そして、タッチパネル22は、検出した位置情報をCPU25に出力することで撮影者からの操作を受け付ける。操作部23は、撮影者の操作を受け付ける複数の釦(不図示)を有しており、電子カメラ1を操作するための指示入力を受け付ける。
The
レリーズ釦24は、半押し操作(撮影前におけるオートフォーカス(AF)や自動露出(AE)等の動作開始の指示入力)と全押し操作(記録媒体30に記録する記録用画像を取得するための撮像動作開始)との指示入力とを受け付ける。
The
CPU25は、各種演算及び電子カメラ1の統括的な制御を行なうマイクロプロセッサである。CPU25は、上記のプログラムを実行することにより、電子カメラ1の各部の制御等を行なう。CPU25は、認識部25aと、設定部25bと、動き量検出部25cと、判定部25dと、取得部25eと、ズーム制御部25fとしても機能する。
The
認識部25aは、画像から主要被写体を認識する。例えば、認識部25aは、画像を解析して人物の顔を抽出し、顔を主要被写体として認識する。具体的には、認識部25aは、画像の画像信号の輝度分布に基づいて、肌色領域を顔の領域として抽出する。認識部25aは、顔を検出した場合、さらに顔の特徴部位を検出する。すなわち、認識部25aは、例えば、特開2001−16573号公報等に記載された特徴点抽出処理によって、目、鼻、耳、唇等の顔の特徴部位を画像から検出する。これにより、認識部25aは、人物の顔の領域を容易に主要被写体として認識できる。なお、認識部25aは、顔の横顔を認識しても良い。具体的には、認識部25aは、画像の画像信号の輝度分布に基づいて、肌色領域とその領域に連なる黒色領域とから顔の輪郭を抽出し、顔の輪郭の形状が中心対称性を有さない場合、横顔として検出して良い。また、認識部25aは、顔の輪郭部分である鼻の輪郭に基づいて横顔を検出しても良い。 The recognition unit 25a recognizes the main subject from the image. For example, the recognition unit 25a extracts a person's face by analyzing the image and recognizes the face as a main subject. Specifically, the recognition unit 25a extracts the skin color area as a face area based on the luminance distribution of the image signal of the image. When the recognition unit 25a detects a face, the recognition unit 25a further detects a feature portion of the face. That is, the recognition unit 25a detects facial feature parts such as eyes, nose, ears, and lips from an image by a feature point extraction process described in, for example, Japanese Patent Application Laid-Open No. 2001-16573. Accordingly, the recognition unit 25a can easily recognize the face area of the person as the main subject. Note that the recognition unit 25a may recognize a side profile of the face. Specifically, the recognition unit 25a extracts a face outline from a skin color area and a black area connected to the area based on the luminance distribution of the image signal of the image, and the shape of the face outline has central symmetry. If not, it may be detected as a profile. The recognizing unit 25a may detect a side face based on the outline of the nose, which is the outline of the face.
また、認識部25aは、タッチパネル22を介して、ユーザ入力により指定された領域を主要被写体として認識しても良い。これにより、認識部25aは、ユーザが指定した領域を主要被写体とすることができる。
In addition, the recognition unit 25a may recognize the area designated by the user input via the
或いは、認識部25aは、画像の画像データを量子化することにより主要被写体と背景とを分離し、その主要被写体を認識しても良い。具体的には、認識部25aは、画像データを2値化するため、画像データの輝度分布に基づいて2値化の基準となる画素の明るさを選択する。そして、認識部25aは、その画素の明るさを基準にして、基準となる画素値よりも明るい画素値は白、基準以下の暗い画素値は黒とすることで、画像データを2値化する。これにより、認識部25aは、主要被写体を示す領域と背景を示す領域とが分離した画像を得ることができる。 Alternatively, the recognition unit 25a may separate the main subject and the background by quantizing the image data of the image and recognize the main subject. Specifically, in order to binarize the image data, the recognition unit 25a selects the brightness of a pixel that serves as a binarization reference based on the luminance distribution of the image data. The recognizing unit 25a binarizes the image data by setting the pixel value brighter than the reference pixel value as white and the dark pixel value below the reference as black based on the brightness of the pixel. . As a result, the recognition unit 25a can obtain an image in which the area indicating the main subject and the area indicating the background are separated.
設定部25bは、撮影画面内を何れかの方向に移動する主要被写体の動きを検出するために、主要被写体の領域内に複数の観察領域を設定する。具体的には、設定部25bは、例えば、認識部25aが認識した目、鼻、耳、唇等の特徴部位を観察領域に設定する。或いは、設定部25bは、後述する図2に示す通り、顔の領域を囲む矩形枠の各辺の中点を含む領域を観察領域に設定しても良い。 The setting unit 25b sets a plurality of observation areas in the area of the main subject in order to detect the movement of the main subject moving in any direction within the shooting screen. Specifically, the setting unit 25b sets, for example, characteristic parts such as eyes, nose, ears, and lips recognized by the recognition unit 25a in the observation region. Alternatively, the setting unit 25b may set a region including the midpoint of each side of the rectangular frame surrounding the face region as the observation region, as shown in FIG.
図2は、観察領域の設定処理の一例を説明する図である。図2では、撮影画面内を紙面上、主要被写体(人物P1)が右から左の方向に走っている1フレーム(スルー画像)を模式的に表している。ここで、認識部25aは、顔の領域を抽出し、その顔の領域を囲む矩形枠W1を設定する。そして、設定部25bは、例えば、矩形枠W1の各辺の中点を含む領域を観察領域に設定する。具体的には、設定部25bは、主要被写体である人物P1の顔の領域の上下左右の4箇所に観察領域(S1、S2、S3、S4)を設定する。 FIG. 2 is a diagram for explaining an example of the observation region setting process. FIG. 2 schematically shows one frame (through image) in which the main subject (person P1) runs from the right to the left on the paper in the shooting screen. Here, the recognition unit 25a extracts a face area and sets a rectangular frame W1 surrounding the face area. Then, the setting unit 25b sets, for example, an area including the midpoint of each side of the rectangular frame W1 as the observation area. Specifically, the setting unit 25b sets observation areas (S1, S2, S3, and S4) at four locations on the upper, lower, left, and right sides of the face area of the person P1, which is the main subject.
動き量検出部25cは、時系列に取得される複数のスルー画像に基づいて、観察領域毎の動き量を検出する。 The motion amount detection unit 25c detects the motion amount for each observation region based on a plurality of through images acquired in time series.
図3は、観察領域毎の動き量の検出処理の一例を説明する図である。図3に示す撮影画面は、撮像素子14の撮像面に対応しており、一例として、縦に30分割、横に20分割され、全体で600分割されている。図3(a)は、図2に示す1フレームの画像に各画素を対応付けて重畳して描いている。動き量検出部25cは、例えば、フレーム間での主要被写体の観察領域毎の動き量を、画像内の画素数の移動量で検出する。図3(b)は、図3(a)に示すフレームの次フレーム(現フレーム)の画像に各画素を対応付けて重畳して描いている。なお、説明をわかりやすくするため、図3(b)では、前フレーム(図3(a))の矩形枠W1と人物P1(図中点線)も対応付けて重畳して描いている。また、図3(b)では、動きベクトル(図中矢印)を模式的に重畳して描いている。
FIG. 3 is a diagram for explaining an example of a motion amount detection process for each observation region. The imaging screen shown in FIG. 3 corresponds to the imaging surface of the
動き量検出部25cは、画像処理部17が検出した画素毎の輝度に基づいて、観察領域(S1、S2、S3、S4(符号省略))の4箇所の画素の色(輝度)に対して、どの方向に移動したのか画素単位で検出する。図3(b)の例では、観察領域全てが、動きベクトルの向きに8画素移動しているので、動き量検出部25cは、人物P1の移動を検出する。ここで、動き量検出部25cは、連続するフレーム間にわたって、観察領域の移動量が予め設定した閾値を超えた場合に観察領域の動き量として検出しても良い。つまり、動き量検出部25cは、観察領域の移動量に基づいて、観察領域の動き量を検出する。これにより、動き量検出部25cは、閾値を判定基準として動き量を検出することができる。ここで閾値とは、例えば、観察領域の画素上での移動量であって、図3(b)の場合、一例として、2画素とする。なお、実際の適用においては、さらに閾値の値を適宜変更しても良い。また、本実施形態では、説明をわかりやすくするため、閾値を、観察領域の画素上での移動量に対応付けているが、撮影画面内の位置座標に対応付けて、予め設定した移動距離を閾値として設定しても良い。
Based on the luminance of each pixel detected by the image processing unit 17, the motion amount detection unit 25 c performs the color (luminance) of four pixels in the observation region (
図4は、観察領域毎の動き量の検出処理の他の一例を説明する図である。図4では、主要被写体の移動方向が、光軸方向(撮影光学系10の光軸方向の成分を有する方向を含む)である場合を想定している。図4(a)、(b)は、主要被写体(人物P2)が撮影光学系10の光軸L方向(紙面垂直方向:図中z方向)に移動するシーンでのスルー画像を時系列に示している。認識部25aは、人物P2の顔の領域を検出し、矩形枠W1を設定する。ここで、図4(c)は、図4(a)、(b)の矩形枠W1内の領域を抽出して拡大した図である。図4(c)では、紙面左側が図4(a)の矩形枠W1内の領域を示す図であり、紙面右側が図4(b)の矩形枠W1内の領域を示す図である。
FIG. 4 is a diagram for explaining another example of the motion amount detection process for each observation region. In FIG. 4, it is assumed that the moving direction of the main subject is the optical axis direction (including a direction having a component in the optical axis direction of the photographing optical system 10). 4A and 4B show a through image in a time series in a scene in which the main subject (person P2) moves in the optical axis L direction (vertical direction in the drawing: z direction in the drawing) of the photographing
設定部25bは、観察領域S1〜S4を図3で説明した場合と同様にして矩形枠W1内に設定する。ここで、図4(a)から図4(b)の状態に人物P2が移動した場合、人物P2の移動方向は、撮影者に接近する方向になる。この際、各観察領域(S1〜S4)の移動方向は、撮影画面上で矩形枠W1が拡大する方向となり、図4(c)の矢印で示す通り、外側に向かう方向となる(以下「正の向き」という)。なお、人物P2の移動方向が撮影者から遠ざかる場合、各観察領域(S1〜S4)の移動方向は、撮影画面上で矩形枠W1が縮小する方向となり、内側に向かう方向となる(以下「負の向き」という)。したがって、動き量検出部25cは、各観察領域(S1〜S4)の移動方向が、正の向き、或いは、負の向きの場合、人物P2の移動方向を光軸方向として検出する。 The setting unit 25b sets the observation areas S1 to S4 in the rectangular frame W1 in the same manner as described with reference to FIG. Here, when the person P2 moves from the state shown in FIG. 4A to the state shown in FIG. 4B, the moving direction of the person P2 is a direction approaching the photographer. At this time, the movement direction of each observation region (S1 to S4) is a direction in which the rectangular frame W1 is enlarged on the photographing screen, and is a direction toward the outside as indicated by an arrow in FIG. Direction ”). When the moving direction of the person P2 moves away from the photographer, the moving direction of each observation area (S1 to S4) is a direction in which the rectangular frame W1 is reduced on the shooting screen and is a direction toward the inside (hereinafter referred to as “negative”). Direction ”). Therefore, when the movement direction of each observation region (S1 to S4) is a positive direction or a negative direction, the motion amount detection unit 25c detects the movement direction of the person P2 as the optical axis direction.
つまり、設定部25bが主要被写体内に観察領域を4箇所設定することにより、動き量検出部25cは、撮影画面内の主要被写体の移動方向を、上下方向、左右方向、斜め方向、光軸方向(前後方向)の何れかの方向であるかを検出することが容易に可能となる。なお、設定部25bが観察領域を4箇所設定することは一例であって、4箇所に限定されない。 That is, when the setting unit 25b sets four observation areas in the main subject, the movement amount detection unit 25c sets the movement direction of the main subject in the shooting screen as the vertical direction, the left-right direction, the diagonal direction, and the optical axis direction. It is possible to easily detect which direction (the front-rear direction). Note that the setting unit 25b sets four observation regions as an example, and is not limited to four.
判定部25dは、観察領域毎の動き量に基づいて、主要被写体の移動状態を判定する。具体的には、判定部25dは、現フレームと前フレームとのフレーム間での観察領域毎の動き量に基づいて、主要被写体が撮影画面内の何れかの方向に移動しているか、或いは、主要被写体が静止しているか等の移動状態を判定する。 The determination unit 25d determines the moving state of the main subject based on the amount of movement for each observation region. Specifically, the determination unit 25d determines whether the main subject has moved in any direction within the shooting screen based on the amount of movement for each observation region between the current frame and the previous frame, or The moving state such as whether the main subject is stationary is determined.
取得部25eは、判定部より観察領域が静止していると判定された場合には、撮像素子14に本画像を取得させる。具体的には、取得部25eは、AEやAFを行なった後、タイミングジェネレータ(不図示)を介して電荷蓄積時間等の撮影条件を制御して撮像素子14に本画像を取得させる自動撮影を行なう。
When the determination unit determines that the observation region is stationary, the acquisition unit 25e causes the
ズーム制御部25fは、ズーム倍率を変更する。具体的には、ズーム制御部25fは、レンズ駆動部11にズーム倍率の変更を指示する。これにより、ズーム制御部25fは、レンズ駆動部11を介して撮影光学系10のズームレンズのズーム倍率を変更する。また、主要被写体の移動状態が撮影光学系10の光軸方向の成分を有する方向への移動であると判定部25dが判定した場合には、ズーム制御部25fは、ズーム倍率を変更する。これにより、ズーム制御部25fは、観察領域の動き量を相殺することができる(詳細は後述する)。
The zoom control unit 25f changes the zoom magnification. Specifically, the zoom control unit 25f instructs the lens driving unit 11 to change the zoom magnification. Accordingly, the zoom control unit 25 f changes the zoom magnification of the zoom lens of the photographing
また、CPU25は、現フレームと前フレームとのフレーム間差分によりの主要被写体の動きを検出し、画像内で主要被写体を追尾する。具体的には、CPU25は、一例としてスルー画像を16画素×16画素のブロックに分割し、ブロック毎に各画素のフレーム間の差分信号が予め設定した差分信号用の閾値以上になる画素を算出することにより主要被写体の動きを検出する。なお、CPU25は、スルー画像を間引き読み出しすることによりフレーム間差分を行なっても良い。
Further, the
次に、電子カメラ1の撮影時における動作の一例を説明する。図5は、電子カメラ1の動作の一例を示すフローチャートである。以下の動作例では、電源オンの後、先ず、CPU25は、撮像素子14を駆動させてスルー画像の撮像を開始する。その後、操作部23は、撮影モードとして「ぶれ抑制モード」の指示入力を受け付けると、CPU25は、図5に示すフローの処理を開始する。なお、撮像素子14の画素数は、図3で説明した画素数よりも多いことする。また、CPU25は、「ぶれ抑制モード」の下位のモードとして、撮影者の操作を介さずにズーム倍率の変更を行なう「自動ズームモード」の設定の指示入力を受け付けても良い。
Next, an example of the operation at the time of photographing with the
図6は、ぶれ抑制モードにおける撮影動作の一例を示すシーケンス図である。撮影シーンとしては、主要被写体(人物P3)がサッカーをしているシーンを一例として取り上げる。図6(a)では、図5に示すフローの処理を開始から終了まで時間軸t(単位:秒)に沿って表している。また、図6(b)では、図5に示すフローの処理に対応付けて、時系列に4枚のスルー画像(図中(1)〜(4))を抽出して描いている。 FIG. 6 is a sequence diagram illustrating an example of a photographing operation in the shake suppression mode. As a shooting scene, a scene in which a main subject (person P3) is playing soccer is taken as an example. In FIG. 6A, the process of the flow shown in FIG. 5 is represented along the time axis t (unit: second) from the start to the end. In FIG. 6B, four through images ((1) to (4) in the drawing) are extracted and drawn in time series in association with the processing of the flow shown in FIG.
ステップS101:CPU25の認識部25aは、主要被写体の認識処理を行なう。具体的には、認識部25aは、スルー画像の画像信号の輝度分布に基づいて、肌色領域を顔の領域として抽出する。そして、認識部25aは、前述した特徴点抽出処理によって、顔の特徴部位を画像から検出する。さらに、認識部25aは、顔の特徴部位の位置関係に基づいて、人物P3の顔の領域を囲む矩形枠W1を設定する(図6(b)の(1)参照)。
Step S101: The recognition unit 25a of the
ステップS102:主要被写体の認識ができた場合(ステップS102:Yes)、CPU25は、ステップS103の処理に移行する。一方、主要被写体の認識ができなかった場合(ステップS102:No)、CPU25は、図5に示すフローの処理を終了する。
Step S102: If the main subject has been recognized (step S102: Yes), the
ステップS103:CPU25の設定部25bは、観察領域の設定処理を行なう。具体的には、設定部25bは、主要被写体である人物P3の顔の領域の上下左右の4箇所に観察領域(S1、S2、S3、S4)を設定する(図6(b)の(1)の拡大図を参照)。ここで、CPU25は、表示モニタ21に表示させるスルー画像に矩形枠W1を重畳表示させる。一方、CPU25は、観察領域については撮影者に視認させる必要がないので、表示モニタ21に観察領域を表示させない。なお、設定部25bは、人物P3の目、鼻、唇等の顔の特徴部位を観察領域として設定しても良い。
Step S103: The setting unit 25b of the
ステップS104:CPU25は、主要被写体の追尾処理を行なう。具体的には、CPU25は、現フレームと前フレームとのフレーム間差分によりの主要被写体の動きを検出し、画像内でその主要被写体を追尾する。また、CPU25は、現フレームにおける追尾対象の主要被写体の位置と、前フレームの追尾対象の主要被写体の位置とに基づいて、動きベクトル(方向と大きさとを含む)を算出する。なお、図6(b)の(3)、(4)の図は、ステップS104からステップS110の処理に対応している。
Step S104: The
ステップS105:CPU25は、主要被写体の追尾がフレーム間でできたか否かを判定する。CPU25は、主要被写体を撮影画面内で消失した場合(ステップS105:No)、図5に示すフローの処理を終了する。一方、CPU25は、主要被写体を撮影画面内で消失しない場合(ステップS105:Yes)、ステップS106の処理に移行する。
Step S105: The
ステップS106:CPU25の動き量検出部25cは、フレーム間で観察領域毎に移動量を算出する。具体的には、動き量検出部25cは、現フレームと前フレームとから、フレーム間での主要被写体の観察領域毎の移動量を、画像内の画素数の移動量で検出する。
Step S106: The movement amount detection unit 25c of the
ステップS107:CPU25の判定部25dは、観察領域毎の移動量が閾値以下であるか否かを判定する。具体的には、判定部25dは、フラッシュメモリ18に記録されている閾値を参照し、移動量から定まる観察領域毎の動き量に基づいて、主要被写体が撮影画面内の何れかの方向に移動しているか、或いは、主要被写体が静止しているかの移動状態を判定する。ここで、観察領域毎の移動量が閾値以下であれば、判定部25dは、主要被写体が静止状態にあると判定する。したがって、観察領域毎の移動量が閾値以下の場合(ステップS107:Yes)、CPU25は、後述するステップS111の撮影処理に移行する。一方、観察領域毎の移動量が閾値よりも大きい場合(ステップS107:No)、CPU25は、ステップS108の処理に移行する。なお、判定部25dは、フラッシュメモリ18に記録されている主要被写体の移動状態の判定基準を示す情報を参照して判定しても良い。
Step S107: The determination unit 25d of the
図7は、主要被写体の移動状態の判定基準の一例を示す図である。図7(a)は、主要被写体が光軸方向に移動する場合について、主要被写体の移動状態の判定基準の一例を示す図である。図7(a)では、主要被写体の横幅の画素数と、静止状態と許容する閾値との関係を示している。ここで、主要被写体の横幅としては、簡単のため、図4(c)で示した矩形枠W1の横幅であって良い。 FIG. 7 is a diagram illustrating an example of a criterion for determining the moving state of the main subject. FIG. 7A is a diagram illustrating an example of a criterion for determining the moving state of the main subject when the main subject moves in the optical axis direction. FIG. 7A shows the relationship between the number of horizontal pixels of the main subject, the stationary state, and the allowable threshold. Here, for the sake of simplicity, the horizontal width of the main subject may be the horizontal width of the rectangular frame W1 shown in FIG.
例えば、前フレームにおける横幅の画素数が10画素であって、現フレームにおける横幅の画素数が10画素の場合、判定部25dは、観察領域毎の移動量が2画素以下ならば、主要被写体は静止していると判定する。 For example, if the number of horizontal pixels in the previous frame is 10 pixels and the number of horizontal pixels in the current frame is 10, the determination unit 25d determines that the main subject is Determine that it is stationary.
一方、図4に示した通り、主要被写体の移動方向が光軸方向で撮影者に近づいて来る場合、撮影画面内における主要被写体(顔の領域)の占める割合は大きくなってくる。例えば、前フレームにおける横幅の画素数が10画素であったのが、移動に伴い現フレームで30画素になった場合、判定部25dは、次回のフレーム間差分での観察領域毎の移動量が例えば6画素以下ならば、主要被写体は静止していると判定する。これにより、判定部25dは、より正確に主要被写体の移動状態を判定できる。これは、撮影画面内に占める主要被写体の割合が、例えば図4(a)と図4(b)とを比較した場合、図4(a)の場合の方が撮影画面内に占める主要被写体の割合が小さい分、画素数の移動量が同じでも、図4(b)の場合と比較して、動きが大きくなるからである。 On the other hand, as shown in FIG. 4, when the moving direction of the main subject approaches the photographer in the optical axis direction, the ratio of the main subject (face area) in the shooting screen increases. For example, when the number of horizontal pixels in the previous frame is 10 pixels, but the number of pixels in the current frame is 30 pixels in accordance with the movement, the determination unit 25d determines that the movement amount for each observation area in the next inter-frame difference is For example, if it is 6 pixels or less, it is determined that the main subject is stationary. Thereby, the determination unit 25d can determine the movement state of the main subject more accurately. This is because the ratio of the main subject in the shooting screen is, for example, when FIG. 4 (a) is compared with FIG. 4 (b), the case of FIG. This is because even if the movement amount of the number of pixels is the same as the ratio is small, the movement is larger than in the case of FIG.
また、図7(b)は、シャッタ速度と主要被写体を静止状態と許容する閾値との関係を示している。シャッタ速度が速い方が、動きのある被写体を静止させて撮影しやすくなる。したがって、判定部25dは、シャッタ速度の設定値に応じた画素数を閾値の画素数にさらに加算して、主要被写体の移動状態を判定しても良い。これにより、判定部25dは、シャッタ速度の設定値が大きいほど閾値の値を大きくして、主要被写体の移動状態を判定できる。 FIG. 7B shows the relationship between the shutter speed and the threshold value for allowing the main subject to be stationary. The faster the shutter speed, the easier it is to shoot a moving subject stationary. Accordingly, the determination unit 25d may determine the movement state of the main subject by further adding the number of pixels corresponding to the set value of the shutter speed to the threshold number of pixels. Thus, the determination unit 25d can determine the moving state of the main subject by increasing the threshold value as the shutter speed setting value increases.
なお、図7に示した画素数は、一例であって、これらの数値に限定されない。また、図7(b)において、判定部25dは、シャッタ速度の設定値に応じた画素数を閾値の画素数にさらに加算するのでなく、シャッタ速度の設定値に応じた所定の比例係数を乗算するようにしても良い。 The number of pixels shown in FIG. 7 is an example, and is not limited to these numerical values. In FIG. 7B, the determination unit 25d does not further add the number of pixels corresponding to the shutter speed setting value to the threshold number of pixels, but multiplies a predetermined proportional coefficient according to the shutter speed setting value. You may make it do.
ステップS108:CPU25は、主要被写体の移動方向が光軸方向の場合(ステップS108:Yes)、ステップS109の処理に移行する。一方、CPU25は、主要被写体の移動方向が光軸方向でない場合(ステップS108:No)、ステップS104の処理に戻り、追尾処理を引き続き行なう。
Step S108: When the moving direction of the main subject is the optical axis direction (step S108: Yes), the
ステップS109:CPU25は、自動ズームモードの設定の有無を判定する。自動ズームモードの設定がされている場合(ステップS109:Yes)、CPU25は、ステップS110の処理に移行する。一方、自動ズームモードの設定がされていない場合(ステップS109:No)、CPU25は、ステップS104の処理に戻り、追尾処理を引き続き行なう。
Step S109: The
ステップS110:CPU25のズーム制御部25fは、ズーム倍率の変更を行なう。なお、図6で取り上げた撮影シーンの場合、主要被写体(人物P3)が光軸方向に移動していないため、ステップS109、ステップS110の処理は行なわれない。そのため、本実施形態では、別途、別の撮影シーンで主要被写体の光軸方向の移動を取り上げて、ステップS109、ステップS110の処理の詳細について説明する。
Step S110: The zoom control unit 25f of the
ステップS111:CPU25の取得部25eは、自動撮影により、撮像素子14に本画像を取得させる。具体的には、取得部25eは、タイミングジェネレータ(不図示)を介して電荷蓄積時間等の撮影条件を制御して撮像素子14に本画像を取得させる(図6(b)の(4)の図参照)。そして、CPU25は、図5に示すフローの処理を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。
Step S111: The acquisition unit 25e of the
次に、主要被写体が光軸方向に移動する撮影シーンでの撮影の一例について説明する。 Next, an example of shooting in a shooting scene in which the main subject moves in the optical axis direction will be described.
図8は、主要被写体が光軸方向に移動する撮影シーンの一例を説明する図である。図8(a)では、主要被写体(人物P4)がブランコ50に乗っている様子を表している。ここで、(A)及び(C)の地点では、ブランコ50に乗っている主要被写体の動きベクトルが一旦ゼロになり、主要被写体は一時的に静止状態になる。その後、動きベクトルは反転し、主要被写体はブランコ50での運動を再度開始する。また、(B)の地点では、動きベクトルが最大になる。
FIG. 8 is a diagram illustrating an example of a shooting scene in which the main subject moves in the optical axis direction. FIG. 8A shows a state where the main subject (person P4) is on the
図8(b)は、主要被写体(人物P4)がブランコ50に乗っている様子を正面から見た図(スルー画像)である。図8(b)では、図8(a)の(C)の地点を表している。
FIG. 8B is a front view (through image) of the main subject (person P4) riding on the
例えば、図8に示す通り、主要被写体の移動方向が光軸方向で撮影者に近づいて来る場合、CPU25は、ステップS109の処理に移行する。さらに、自動ズームモードが設定されていない場合(ステップS109:No)、CPU25は、ステップS104の処理に戻る。そして、例えば、ステップS104からステップS109の処理を繰り返すうちに、図8(b)に示す地点(図8(a)の(C)の地点)に主要被写体(人物P4)が到達すると、主要被写体は一時的に静止状態になる。この場合、判定部25dは、次回のステップS107の処理で、観察領域毎の移動量が閾値以下と判定し(ステップS107:Yes)、CPU25は、ステップS111の撮影処理に移行する。そして、CPU25は、図5に示すフローの処理(ぶれ抑制モード)を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。
For example, as shown in FIG. 8, when the moving direction of the main subject approaches the photographer in the optical axis direction, the
次に自動ズームモードが設定されている場合について説明する。図9は、自動ズームモードの一例を説明する図である。図9(a)は、前フレームにおける主要被写体(P4)の移動方向が正の方向を表している(図8(a)に示す(A)から(C)に向かう移動)。図9(a)に示す通り、主要被写体の移動方向が光軸方向で撮影者に近づいて来る場合、CPU25は、ステップS109の処理に移行する。さらに、自動ズームモードが設定されている場合(ステップS109:Yes)、CPU25は、ステップS110の処理に移行する。
Next, a case where the automatic zoom mode is set will be described. FIG. 9 is a diagram illustrating an example of the automatic zoom mode. FIG. 9A shows a positive direction of movement of the main subject (P4) in the previous frame (movement from (A) to (C) shown in FIG. 8A). As shown in FIG. 9A, when the moving direction of the main subject approaches the photographer in the optical axis direction, the
ズーム制御部25fは、レンズ駆動部11を介して撮影光学系10のズームレンズを広角側にシフトする(図9(b))。図9(b)では、各観察領域の移動方向を実線の矢印(動きベクトル)で表している。また、点線の矢印は、ズームレンズを広角側にシフトさせることを模式的に表している。
The zoom control unit 25f shifts the zoom lens of the photographing
CPU25は、ステップS110の処理後に再度ステップS104の処理に戻る。そして、CPU25は、追尾処理を行ない、現フレームの画像を得る。この際、現フレームの主要被写体を図9(c)に示す。動き量検出部25cは、現フレームと前フレームとから、フレーム間での主要被写体の観察領域毎の移動量を、画像内の画素数の移動量で検出する。判定部25dは、観察領域毎の動き量に基づいて、主要被写体の移動状態を再度判定する(ステップS106)。判定部25dは、例えば、図9(a)に示す主要被写体と、図9(c)に示す主要被写体とを比較する。観察領域毎の移動量が閾値以下の場合(ステップS107:Yes)、主要被写体は見かけ上、静止状態になるので、CPU25は、ステップS111の撮影処理に移行することができる。そして、CPU25は、図5に示すフローの処理を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。
CPU25 returns to the process of step S104 again after the process of step S110. Then, the
図10は、自動ズームモードの他の一例を説明する図である。図10(a)は、前フレームにおける主要被写体(P4)の移動方向が負の方向を表している(図8(a)に示す(C)から(A)に向かう移動)。図10(a)に示す通り、主要被写体の移動方向が光軸方向で撮影者から遠ざかる場合、CPU25は、ステップS109の処理に移行する。さらに、自動ズームモードが設定されている場合(ステップS109:Yes)、CPU25は、ステップS110の処理に移行する。
FIG. 10 is a diagram for explaining another example of the automatic zoom mode. FIG. 10A shows a negative direction of movement of the main subject (P4) in the previous frame (movement from (C) to (A) shown in FIG. 8A). As shown in FIG. 10A, when the moving direction of the main subject is away from the photographer in the optical axis direction, the
ズーム制御部25fは、レンズ駆動部11を介して撮影光学系10のズームレンズを望遠側にシフトする(図10(b))。図10(b)では、各観察領域の移動方向を実線の矢印(動きベクトル)で表している。また、点線の矢印は、ズームレンズを望遠側にシフトさせることを模式的に表している。
The zoom control unit 25f shifts the zoom lens of the photographing
CPU25は、ステップS110の処理後に再度ステップS104の処理に戻る。そして、CPU25は、追尾処理を行ない、現フレームの画像を得る。この際、現フレームの主要被写体を図10(c)に示す。動き量検出部25cは、現フレームと前フレームとから、フレーム間での主要被写体の観察領域毎の移動量を、画像内の画素数の移動量で検出する。判定部25dは、観察領域毎の動き量に基づいて、主要被写体の移動状態を再度判定する(ステップS106)。判定部25dは、例えば、図10(a)に示す主要被写体と、図10(c)に示す主要被写体とを比較する。観察領域毎の移動量が閾値以下の場合(ステップS107:Yes)、主要被写体は見かけ上、静止状態になるので、CPU25は、ステップS111の撮影処理に移行することができる。そして、CPU25は、図5に示すフローの処理を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。
CPU25 returns to the process of step S104 again after the process of step S110. Then, the
以上より、本実施形態の電子カメラ1は、主要被写体が撮影画面内を何れかの方向に移動した場合であっても、観察領域を設定することにより、主要被写体の移動状態を判定することができる。これにより、電子カメラ1は、主要被写体が静止した場合(見かけ上静止した場合も含む)に、自動的に本画像を取得する。したがって、電子カメラ1は、主要被写体のぶれを低減させる撮影手段を提供できる。
(上記実施形態の補足事項)
(1)上記実施形態では、自動ズームモードにより、撮影光学系10のズームレンズのズーム倍率を変更する場合について説明した。ここで、ズーム制御部25fは、ぶれ抑制モードの際、ユーザのマニュアル操作に応じて、ズームレンズのズーム倍率を変更しても良い。この場合、設定部25bは、ズーム倍率変更後の主要被写体に対して、再度観察領域を設定する。また、CPU25は、ズーム倍率変更後の主要被写体が撮影画面内に占める割合に応じて閾値を再設定する。これにより、動き量検出部25cは、ユーザのマニュアル操作に応じてズーム倍率の変更が生じても、再設定された閾値を判定基準として動き量を検出することができる。
As described above, the
(Supplementary items of the above embodiment)
(1) In the above embodiment, the case where the zoom magnification of the zoom lens of the photographing
(2)上記実施形態では、認識部25aは、主要被写体として顔を認識した。ここで、本実施形態では、予め人物登録をした画像をフラッシュメモリ18に記録しておいても良い。これにより、撮影画面内に複数の人物がいる場合、認識部25aは、撮影画面内で認識した顔と人物登録した顔とを照合して、登録された人物のみを主要被写体としても良い。 (2) In the above embodiment, the recognition unit 25a recognizes a face as a main subject. Here, in the present embodiment, an image in which a person is registered in advance may be recorded in the flash memory 18. Thereby, when there are a plurality of persons in the shooting screen, the recognition unit 25a may collate the face recognized in the shooting screen with the face registered as a person and use only the registered person as the main subject.
(3)上記実施形態では、電子カメラ1を動かさないようにして撮影を行った。本実施形態では、前述した撮影手段を流し撮り撮影に適用しても良い。
(3) In the above embodiment, shooting was performed without moving the
(4)本発明のプログラムは、例えば、電子カメラ1のCPU25上で実行される。上記実施形態では、フラッシュメモリ18に本発明のプログラムが予め記録されていた。なお、本実施形態では、例えば、本発明のプログラムを記録媒体30に記録して、この記録媒体30に記録されたプログラムをフラッシュメモリ18に記録しても良い。これにより、電子カメラ1では、新たな機能を追加するファームウエアとして、本発明のプログラムを適用することが可能となる。
(4) The program of the present invention is executed on the
(5)本発明のプログラムは、いわゆるウェブカメラとコンピュータとを組み合わせたカメラシステムに適用しても良い。この場合、本発明のプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。 (5) The program of the present invention may be applied to a camera system that combines a so-called web camera and a computer. In this case, the program of the present invention may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.
(6)なお、(5)でいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。さらに(5)でいう「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに前述の「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでも良い。また上記のプログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせにより実現するものであっても良い。 (6) Note that the “computer system” in (5) includes an OS (Operating System) and hardware of peripheral devices. Further, the “computer-readable recording medium” in (5) means a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. . Further, the above-mentioned “computer-readable recording medium” refers to a program that is dynamically executed for a short time, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. What is held, and what holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or client in that case, may be included. Further, the above program may be for realizing a part of the above-described functions, and further, may be realized by combining the above-described functions with a program already recorded in the computer system. .
1・・・電子カメラ、14・・・撮像素子、25a・・・認識部、25b・・・設定部、25c・・・動き量検出部、25d・・・判定部、30・・・記録媒体
DESCRIPTION OF
Claims (9)
前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出部と、
前記主要被写体領域内に複数の検出領域を設定する設定部と、
異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出部と、
前記動き検出部により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像部が記録用画像データを出力するように制御する制御部と、を備えることを特徴とする電子カメラ。 An imaging unit that captures a subject image and outputs image data ;
A main subject area detection unit for detecting a main subject area where a main subject exists using the image data ;
A setting unit for setting a plurality of detection areas in the main subject area ;
Using a plurality of the image data picked up at different times, a motion detection unit for detecting movements of the plurality of detection regions set in the main subject region ;
A control unit that controls the imaging unit to output image data for recording when the movements of the plurality of detection areas detected by the motion detection unit are smaller than a predetermined threshold value. camera.
前記主要被写体領域検出部は、人物の顔の領域を前記主要被写体領域として検出し、
前記設定部は、前記人物の顔の特徴部分を前記検出領域として設定することを特徴とする電子カメラ。 The electronic camera according to claim 1 ,
The main subject region detection unit detects a human face region as the main subject region,
The electronic camera according to claim 1, wherein the setting unit sets a feature portion of the face of the person as the detection area .
前記検出領域は、前記人物の顔の目の部分、鼻の部分、耳の部分、唇の部分のうち少なくとも1つを含むことを特徴とする電子カメラ。 An electronic camera according to claim 2,
The electronic camera according to claim 1, wherein the detection area includes at least one of an eye part, a nose part, an ear part, and a lip part of the face of the person .
前記制御部は、シャッタ速度が速いほど、前記所定の閾値を大きくすることを特徴とする電子カメラ。 An electronic camera as claimed in any one of claims 1 to 3,
The control unit increases the predetermined threshold as the shutter speed increases .
前記制御部は、前記主要被写体領域の横幅が大きいほど、前記所定の閾値を大きくすることを特徴とする電子カメラ。 The electronic camera according to claim 4 ,
The electronic camera according to claim 1, wherein the control unit increases the predetermined threshold as the lateral width of the main subject region increases .
撮像光学系のズーム倍率を変更するズーム制御部をさらに備え、
前記ズーム制御部は、前記主要被写体が前記撮像光学系における光軸方向と同一方向へ移動していることを前記動き検出部が検出した場合に前記撮像光学系のズーム倍率を変更することを特徴とする電子カメラ。 An electronic camera as claimed in any one of claims 1 to 5,
A zoom control unit for changing the zoom magnification of the imaging optical system;
The zoom control unit changes the zoom magnification of the imaging optical system when the motion detection unit detects that the main subject is moving in the same direction as the optical axis direction in the imaging optical system. And an electronic camera.
前記制御部は、前記撮像光学系のズーム倍率の変更に伴って前記検出領域の動きを再度検出し、前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像部が記録用画像データを出力するように制御することを特徴とする電子カメラ。 An electronic camera according to claim 6,
The control unit detects again the movement of the detection area in accordance with the change of the zoom magnification of the imaging optical system, and when the movement of the plurality of detection areas is smaller than a predetermined threshold, the imaging unit detects image data for recording. An electronic camera characterized by being controlled so as to output .
前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、
前記主要被写体領域内に複数の検出領域を設定する設定処理と、
異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、
前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、
をコンピュータに実行させることを特徴とするプログラム。 Imaging processing for capturing a subject image and outputting image data ;
A main subject region detection process for detecting a main subject region where a main subject exists using the image data ;
A setting process for setting a plurality of detection areas in the main subject area ;
Using a plurality of the image data captured at different times, a motion detection process for detecting movements of the plurality of detection areas set in the main subject area ;
A control process for performing control to output the image data for recording by performing the imaging process when the motion of the plurality of detection areas detected by the motion detection process is smaller than a predetermined threshold;
A program that causes a computer to execute.
前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、
前記主要被写体領域内に複数の検出領域を設定する設定処理と、
異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、
前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、
をコンピュータに実行させるための命令が記録されたコンピュータ可読な記録媒体。 Imaging processing for capturing a subject image and outputting image data ;
A main subject region detection process for detecting a main subject region where a main subject exists using the image data ;
A setting process for setting a plurality of detection areas in the main subject area ;
Using a plurality of the image data captured at different times, a motion detection process for detecting movements of the plurality of detection areas set in the main subject area ;
A control process for performing control to output the image data for recording by performing the imaging process when the motion of the plurality of detection areas detected by the motion detection process is smaller than a predetermined threshold;
A computer-readable recording medium having recorded thereon instructions for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011012184A JP5736796B2 (en) | 2011-01-24 | 2011-01-24 | Electronic camera, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011012184A JP5736796B2 (en) | 2011-01-24 | 2011-01-24 | Electronic camera, program and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012156644A JP2012156644A (en) | 2012-08-16 |
JP5736796B2 true JP5736796B2 (en) | 2015-06-17 |
Family
ID=46837957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011012184A Active JP5736796B2 (en) | 2011-01-24 | 2011-01-24 | Electronic camera, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5736796B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5743501B2 (en) * | 2010-11-25 | 2015-07-01 | キヤノン株式会社 | Object tracking device, object tracking method, and object tracking program |
US10146795B2 (en) | 2012-01-12 | 2018-12-04 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US9165187B2 (en) | 2012-01-12 | 2015-10-20 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US10127636B2 (en) | 2013-09-27 | 2018-11-13 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
US9355312B2 (en) | 2013-03-13 | 2016-05-31 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
US20140316841A1 (en) | 2013-04-23 | 2014-10-23 | Kofax, Inc. | Location-based workflows and services |
EP2992481A4 (en) * | 2013-05-03 | 2017-02-22 | Kofax, Inc. | Systems and methods for detecting and classifying objects in video captured using mobile devices |
WO2015073920A1 (en) | 2013-11-15 | 2015-05-21 | Kofax, Inc. | Systems and methods for generating composite images of long documents using mobile video data |
JP6312460B2 (en) * | 2014-02-18 | 2018-04-18 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
US9760788B2 (en) | 2014-10-30 | 2017-09-12 | Kofax, Inc. | Mobile document detection and orientation based on reference object characteristics |
US10242285B2 (en) | 2015-07-20 | 2019-03-26 | Kofax, Inc. | Iterative recognition-guided thresholding and data extraction |
JP6579657B2 (en) * | 2015-12-17 | 2019-09-25 | Kddi株式会社 | Judgment device, program, and remote communication support device |
US10803350B2 (en) | 2017-11-30 | 2020-10-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
JP7319521B2 (en) * | 2019-03-29 | 2023-08-02 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002044516A (en) * | 2000-07-24 | 2002-02-08 | Olympus Optical Co Ltd | Electronic camera |
JP2006067452A (en) * | 2004-08-30 | 2006-03-09 | Nikon Corp | Video recording apparatus, and electronic camera |
JP2006319578A (en) * | 2005-05-11 | 2006-11-24 | Sharp Corp | Depth direction movement determining device, blurring correction system having the same, and blurring correction method, program, computer readable record medium recording the program, and electronic apparatus equipped with the blurring correction system |
JP2007251429A (en) * | 2006-03-14 | 2007-09-27 | Omron Corp | Moving image imaging unit, and zoom adjustment method |
JP4438099B2 (en) * | 2007-11-22 | 2010-03-24 | カシオ計算機株式会社 | Imaging apparatus and program thereof |
KR101710624B1 (en) * | 2010-07-27 | 2017-02-27 | 삼성전자주식회사 | Digital photographing method, Digital photographing apparatus and medium for recording the method |
-
2011
- 2011-01-24 JP JP2011012184A patent/JP5736796B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012156644A (en) | 2012-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5736796B2 (en) | Electronic camera, program and recording medium | |
US10270978B2 (en) | Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith | |
US8395694B2 (en) | Apparatus and method for blurring image background in digital image processing device | |
US8786760B2 (en) | Digital photographing apparatus and method using face recognition function | |
US10701274B2 (en) | Controlling zoom magnification based on image size | |
JP4986175B2 (en) | Imaging apparatus and program | |
JP6863284B2 (en) | Detection device, detection method, detection program and imaging device | |
JP2007201534A (en) | Imaging apparatus | |
JP2007264049A (en) | Imaging method and apparatus | |
JP4645413B2 (en) | Imaging device | |
JP2013008004A (en) | Imaging apparatus | |
JP2011217103A (en) | Compound eye photographing method and apparatus | |
KR20090086349A (en) | Imaging apparatus and imaging method | |
JP2011223294A (en) | Imaging apparatus | |
US10419686B2 (en) | Image pickup apparatus and method for controlling the display of through image data based on shutter state | |
JP2013160991A (en) | Imaging apparatus | |
JP6476064B2 (en) | Imaging apparatus and imaging control method | |
JP2008263478A (en) | Imaging apparatus | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2015019416A (en) | Imaging apparatus, control method of the same, and program | |
JP5761387B2 (en) | Imaging apparatus and program | |
JP2015118274A (en) | Imaging device, imaging device control method, and program | |
JP2018106763A (en) | Imaging apparatus | |
JP2015040922A (en) | Imaging apparatus and its control method, program and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131101 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5736796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |