JP5736796B2 - Electronic camera, program and recording medium - Google Patents

Electronic camera, program and recording medium Download PDF

Info

Publication number
JP5736796B2
JP5736796B2 JP2011012184A JP2011012184A JP5736796B2 JP 5736796 B2 JP5736796 B2 JP 5736796B2 JP 2011012184 A JP2011012184 A JP 2011012184A JP 2011012184 A JP2011012184 A JP 2011012184A JP 5736796 B2 JP5736796 B2 JP 5736796B2
Authority
JP
Japan
Prior art keywords
main subject
unit
image data
electronic camera
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011012184A
Other languages
Japanese (ja)
Other versions
JP2012156644A (en
Inventor
雄飛 降矢
雄飛 降矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011012184A priority Critical patent/JP5736796B2/en
Publication of JP2012156644A publication Critical patent/JP2012156644A/en
Application granted granted Critical
Publication of JP5736796B2 publication Critical patent/JP5736796B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、電子カメラ、プログラム及びそのプログラムが記録された記録媒体に関する。   The present invention relates to an electronic camera, a program, and a recording medium on which the program is recorded.

従来、主要被写体のぶれを低減させて自動的に流し撮りの撮影を行なう電子カメラが提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an electronic camera that automatically takes a panning shot while reducing blurring of a main subject has been proposed (see, for example, Patent Document 1).

特開2009−130557号公報JP 2009-130557 A

しかし、上記の電子カメラによる撮影では、主要被写体の移動方向が撮影画面内で例えば左右方向に限られている。そのため、主要被写体の移動方向によっては、その主要被写体のぶれを低減させる撮影が困難になるおそれがある。   However, in the above-described shooting by the electronic camera, the moving direction of the main subject is limited to, for example, the horizontal direction in the shooting screen. For this reason, depending on the moving direction of the main subject, it may be difficult to perform shooting that reduces the blur of the main subject.

そこで、本発明は、上記事情に鑑み、主要被写体が撮影画面内を何れかの方向に移動した場合であっても、その主要被写体のぶれを低減させる撮影手段を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide a photographing unit that reduces blurring of a main subject even when the main subject moves in any direction on the photographing screen.

本発明の一態様の電子カメラは、被写体像を撮像し画像データを出力する撮像部と、前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出部と、前記主要被写体領域内に複数の検出領域を設定する設定部と、異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出部と、前記動き検出部により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像部が記録用画像データを出力するように制御する制御部と、を備えることを特徴とする。 An electronic camera according to an aspect of the present invention includes an imaging unit that captures a subject image and outputs image data, a main subject region detection unit that detects a main subject region where a main subject exists using the image data, and the main A movement for detecting movements of the plurality of detection areas set in the main subject area using a setting unit that sets a plurality of detection areas in the subject area and a plurality of the image data captured at different times A detection unit; and a control unit that controls the imaging unit to output recording image data when the motion of the plurality of detection areas detected by the motion detection unit is smaller than a predetermined threshold. Features.

本発明の一態様のプログラムは、被写体像を撮像し画像データを出力する撮像処理と、前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、前記主要被写体領域内に複数の検出領域を設定する設定処理と、異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、をコンピュータに実行させるものである。 The program according to an aspect of the present invention includes an imaging process that captures a subject image and outputs image data, a main subject area detection process that detects a main subject area where a main subject exists using the image data, and the main subject Motion detection for detecting movement of the plurality of detection areas set in the main subject area using setting processing for setting a plurality of detection areas in the area and a plurality of the image data captured at different times And a control process for performing control to output the recording image data by performing the imaging process when the motions of the plurality of detection areas detected by the motion detection process are smaller than a predetermined threshold. To be executed.

本発明の一態様の記録媒体は、被写体像を撮像し画像データを出力する撮像処理と、前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、前記主要被写体領域内に複数の検出領域を設定する設定処理と、異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、をコンピュータに実行させるための命令が記録されたものである。 The recording medium of one embodiment of the present invention includes an imaging process that captures a subject image and outputs image data, a main subject area detection process that detects a main subject area where a main subject exists using the image data, and the main subject area detection process. A setting process for setting a plurality of detection areas in a subject area and a motion for detecting movements of the plurality of detection areas set in the main subject area using a plurality of the image data captured at different times A detection process and a control process for performing control to output the image data for recording by performing the imaging process when the motions of the plurality of detection areas detected by the motion detection process are smaller than a predetermined threshold value. Instructions to be executed are recorded.

本発明は、主要被写体が撮影画面内を何れかの方向に移動した場合であっても、その主要被写体のぶれを低減させる撮影手段を提供できる。   The present invention can provide imaging means for reducing the shake of the main subject even when the main subject moves in any direction on the imaging screen.

電子カメラ1の構成例を示すブロック図The block diagram which shows the structural example of the electronic camera 1 観察領域の設定処理の一例を説明する図The figure explaining an example of the setting process of an observation area | region 観察領域毎の動き量の検出処理の一例を説明する図The figure explaining an example of the detection process of the motion amount for every observation area 観察領域毎の動き量の検出処理の他の一例を説明する図The figure explaining another example of the detection processing of the motion amount for every observation area 電子カメラ1の動作の一例を示すフローチャートA flowchart showing an example of the operation of the electronic camera 1 ぶれ抑制モードにおける撮影動作の一例を示すシーケンス図Sequence diagram showing an example of shooting operation in blur suppression mode 主要被写体の移動状態の判定基準の一例を示す図The figure which shows an example of the criterion of the movement state of the main subject 主要被写体が光軸方向に移動する撮影シーンの一例を説明する図The figure explaining an example of the photography scene where a main subject moves to an optical axis direction 自動ズームモードの一例を説明する図The figure explaining an example of automatic zoom mode 自動ズームモードの他の一例を説明する図The figure explaining another example of automatic zoom mode

以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、電子カメラ1の構成例を示すブロック図である。ここで、電子カメラ1は、被写体のぶれが抑制された撮影を行なう「ぶれ抑制モード」を有している。ぶれ抑制モードでは、例えば動く主要被写体が撮影画面内で静止した時に、自動的に撮影を実行する撮影モードである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of the electronic camera 1. Here, the electronic camera 1 has a “blur suppression mode” in which shooting is performed with blurring of the subject suppressed. The shake suppression mode is a shooting mode in which shooting is automatically performed when, for example, a moving main subject stops on the shooting screen.

電子カメラ1は、撮影光学系10と、レンズ駆動部11と、絞り12と、絞り駆動部13と、撮像素子14と、信号処理部15と、RAM(Random Access Memory)16と、画像処理部17と、フラッシュメモリ18と、記録インターフェース部(以下「記録I/F部」という)19と、表示インターフェース部(以下「表示I/F部」という)20と、表示モニタ21と、タッチパネル22と、操作部23と、レリーズ釦24と、CPU(Central Processing Unit)25と、データバス26とを備える。   The electronic camera 1 includes a photographing optical system 10, a lens driving unit 11, a diaphragm 12, a diaphragm driving unit 13, an image sensor 14, a signal processing unit 15, a RAM (Random Access Memory) 16, and an image processing unit. 17, flash memory 18, recording interface unit (hereinafter referred to as “recording I / F unit”) 19, display interface unit (hereinafter referred to as “display I / F unit”) 20, display monitor 21, and touch panel 22. , An operation unit 23, a release button 24, a CPU (Central Processing Unit) 25, and a data bus 26.

このうち、信号処理部15、RAM16、画像処理部17、フラッシュメモリ18、記録I/F部19、表示I/F部20及びCPU25は、データバス26を介して互いに接続されている。また、レンズ駆動部11、絞り駆動部13、信号処理部15、タッチパネル22、操作部23及びレリーズ釦24は、CPU25に接続されている。   Among these, the signal processing unit 15, the RAM 16, the image processing unit 17, the flash memory 18, the recording I / F unit 19, the display I / F unit 20, and the CPU 25 are connected to each other via a data bus 26. The lens driving unit 11, the aperture driving unit 13, the signal processing unit 15, the touch panel 22, the operation unit 23, and the release button 24 are connected to the CPU 25.

撮影光学系10は、焦点距離を調整するズームレンズと、撮像素子14の撮像面での結像位置を調整するフォーカスレンズとを含む複数のレンズ群で構成されている。レンズ駆動部11は、撮影光学系10内でズームレンズやフォーカスレンズのレンズ位置をCPU25の指示に応じて光軸(図中L)方向に調整する。なお、簡単のため、図1では、撮影光学系10を1枚のレンズとして図示する。   The photographic optical system 10 includes a plurality of lens groups including a zoom lens that adjusts the focal length and a focus lens that adjusts the imaging position on the imaging surface of the imaging element 14. The lens driving unit 11 adjusts the lens positions of the zoom lens and the focus lens in the photographic optical system 10 in the direction of the optical axis (L in the figure) according to an instruction from the CPU 25. For the sake of simplicity, FIG. 1 shows the photographing optical system 10 as a single lens.

絞り12は、撮像素子14に入射する単位時間当たりの光量を調節する。絞り駆動部13は、絞り12の開口量をCPU25の指示に応じて調整する。   The diaphragm 12 adjusts the amount of light per unit time incident on the image sensor 14. The diaphragm drive unit 13 adjusts the opening amount of the diaphragm 12 in accordance with an instruction from the CPU 25.

撮像素子14は、撮影光学系10及び絞り12を通過した被写体像を撮像し、アナログの画像信号を取得する。そして、撮像素子14が出力するアナログの画像信号は、信号処理部15に入力される。なお、撮像素子14の撮像面には、R(赤)、G(緑)B(青)の3種類のカラーフィルタが例えばベイヤー配列で配置されている。また、撮像素子14の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。   The image sensor 14 captures a subject image that has passed through the photographing optical system 10 and the diaphragm 12 and acquires an analog image signal. The analog image signal output from the image sensor 14 is input to the signal processing unit 15. Note that three types of color filters of R (red), G (green), and B (blue) are arranged on the imaging surface of the imaging device 14 in, for example, a Bayer array. Further, the charge accumulation time of the image sensor 14 and the reading of the image signal are controlled by a timing generator (not shown).

ここで、撮像素子14は、後述のレリーズ釦24の全押し操作に応答して記録用画像(本画像)を撮像する。また、撮像素子14は、撮影待機時に所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。また、撮像素子14は、ぶれ抑制モードにおいて、後述の取得部25eの指示に応答して、記録用画像を撮像する。   Here, the image sensor 14 captures an image for recording (main image) in response to a full press operation of a release button 24 described later. The imaging element 14 continuously captures images for observation (through images) at predetermined intervals during standby for shooting. In addition, the imaging element 14 captures a recording image in response to an instruction from an acquisition unit 25e described later in the shake suppression mode.

なお、撮像素子14は、CCD(Charge Coupled Device)型又はCMOS(Complementary Metal−Oxide Semiconductor)型のカラーイメージセンサである。   The imaging device 14 is a CCD (Charge Coupled Device) type or CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor.

信号処理部15は、撮像素子14が出力するアナログの画像信号をデジタル信号(画像データ)に変換しデータバス26に出力する。   The signal processing unit 15 converts an analog image signal output from the image sensor 14 into a digital signal (image data) and outputs the digital signal to the data bus 26.

RAM16は、揮発性のメモリであり、信号処理部15が出力する画像データは、データバス26を介して画像データとしてRAM16に一時記録される。画像処理部17は、RAM16に記録されている画像データを読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。また、画像処理部17は、画像信号を解析して、画素毎の輝度を検出する。具体的には、画像処理部17は、RGB信号の画像データを輝度信号(Y信号)と、色差信号(Cr、Cb信号)の画像データに変換(YC変換)する。   The RAM 16 is a volatile memory, and the image data output from the signal processing unit 15 is temporarily recorded in the RAM 16 as image data via the data bus 26. The image processing unit 17 reads the image data recorded in the RAM 16 and performs various image processing (gradation conversion processing, contour enhancement processing, white balance processing, etc.). In addition, the image processing unit 17 analyzes the image signal and detects the luminance for each pixel. Specifically, the image processing unit 17 converts image data of RGB signals into image data of luminance signals (Y signals) and color difference signals (Cr, Cb signals) (YC conversion).

フラッシュメモリ18は、書き換え可能な不揮発性の半導体メモリである。フラッシュメモリ18には、電子カメラ1の制御を行なうプログラム等が予め記録されている。CPU25は、このプログラムに従い、一例として後述の図5に示すフローの処理を実行する。また、フラッシュメモリ18には、主要被写体の移動状態の判定基準を示す情報(閾値を含む)がテーブル化されて記録されている(詳細は後述する)。   The flash memory 18 is a rewritable nonvolatile semiconductor memory. A program for controlling the electronic camera 1 is recorded in the flash memory 18 in advance. The CPU 25 executes processing of a flow shown in FIG. 5 described later as an example according to this program. The flash memory 18 stores information (including a threshold value) indicating determination criteria for the moving state of the main subject in a table (details will be described later).

記録I/F部19には、着脱自在の記録媒体30を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部19は、そのコネクタに接続された記録媒体30にアクセスして静止画像の記録処理等を行なう。この記録媒体30は、例えば、カード型の不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。   The recording I / F unit 19 is formed with a connector (not shown) for connecting a detachable recording medium 30. Then, the recording I / F unit 19 accesses the recording medium 30 connected to the connector and performs still image recording processing and the like. The recording medium 30 is, for example, a card type nonvolatile memory card. FIG. 1 shows the recording medium 30 after being connected to the connector.

表示I/F部20は、RAM16に一時記録された再生用の静止画像や電子カメラ1の操作メニューを示す画像等を表示モニタ21に出力する。また、表示I/F部20は、撮影待機時において、記録媒体30に記録する記録用画像に比べて撮像素子14が出力する画像の解像度を低く設定したスルー画像を表示モニタ21に出力する。例えば、表示I/F部20は、30フレーム毎秒(30fps)でスルー画像を表示モニタ21に出力する。表示モニタ21は、例えば液晶表示媒体により構成される。   The display I / F unit 20 outputs a still image for reproduction temporarily recorded in the RAM 16, an image showing an operation menu of the electronic camera 1, and the like to the display monitor 21. In addition, the display I / F unit 20 outputs, to the display monitor 21, a through image in which the resolution of the image output by the image sensor 14 is set lower than the recording image recorded on the recording medium 30 during shooting standby. For example, the display I / F unit 20 outputs a through image to the display monitor 21 at 30 frames per second (30 fps). The display monitor 21 is composed of, for example, a liquid crystal display medium.

タッチパネル22は、タッチパネル表面に接触した指先等の位置を検出する。そして、タッチパネル22は、検出した位置情報をCPU25に出力することで撮影者からの操作を受け付ける。操作部23は、撮影者の操作を受け付ける複数の釦(不図示)を有しており、電子カメラ1を操作するための指示入力を受け付ける。   The touch panel 22 detects the position of a fingertip or the like that has touched the touch panel surface. The touch panel 22 receives the operation from the photographer by outputting the detected position information to the CPU 25. The operation unit 23 has a plurality of buttons (not shown) for accepting a photographer's operation, and accepts an instruction input for operating the electronic camera 1.

レリーズ釦24は、半押し操作(撮影前におけるオートフォーカス(AF)や自動露出(AE)等の動作開始の指示入力)と全押し操作(記録媒体30に記録する記録用画像を取得するための撮像動作開始)との指示入力とを受け付ける。   The release button 24 is used to obtain a recording image to be recorded on the recording medium 30 and a half-press operation (instruction input for starting operation such as autofocus (AF) and automatic exposure (AE) before photographing) and a full-press operation. An instruction input of “image pickup operation start” is received.

CPU25は、各種演算及び電子カメラ1の統括的な制御を行なうマイクロプロセッサである。CPU25は、上記のプログラムを実行することにより、電子カメラ1の各部の制御等を行なう。CPU25は、認識部25aと、設定部25bと、動き量検出部25cと、判定部25dと、取得部25eと、ズーム制御部25fとしても機能する。   The CPU 25 is a microprocessor that performs various calculations and overall control of the electronic camera 1. The CPU 25 controls each part of the electronic camera 1 by executing the above program. The CPU 25 also functions as a recognition unit 25a, a setting unit 25b, a motion amount detection unit 25c, a determination unit 25d, an acquisition unit 25e, and a zoom control unit 25f.

認識部25aは、画像から主要被写体を認識する。例えば、認識部25aは、画像を解析して人物の顔を抽出し、顔を主要被写体として認識する。具体的には、認識部25aは、画像の画像信号の輝度分布に基づいて、肌色領域を顔の領域として抽出する。認識部25aは、顔を検出した場合、さらに顔の特徴部位を検出する。すなわち、認識部25aは、例えば、特開2001−16573号公報等に記載された特徴点抽出処理によって、目、鼻、耳、唇等の顔の特徴部位を画像から検出する。これにより、認識部25aは、人物の顔の領域を容易に主要被写体として認識できる。なお、認識部25aは、顔の横顔を認識しても良い。具体的には、認識部25aは、画像の画像信号の輝度分布に基づいて、肌色領域とその領域に連なる黒色領域とから顔の輪郭を抽出し、顔の輪郭の形状が中心対称性を有さない場合、横顔として検出して良い。また、認識部25aは、顔の輪郭部分である鼻の輪郭に基づいて横顔を検出しても良い。   The recognition unit 25a recognizes the main subject from the image. For example, the recognition unit 25a extracts a person's face by analyzing the image and recognizes the face as a main subject. Specifically, the recognition unit 25a extracts the skin color area as a face area based on the luminance distribution of the image signal of the image. When the recognition unit 25a detects a face, the recognition unit 25a further detects a feature portion of the face. That is, the recognition unit 25a detects facial feature parts such as eyes, nose, ears, and lips from an image by a feature point extraction process described in, for example, Japanese Patent Application Laid-Open No. 2001-16573. Accordingly, the recognition unit 25a can easily recognize the face area of the person as the main subject. Note that the recognition unit 25a may recognize a side profile of the face. Specifically, the recognition unit 25a extracts a face outline from a skin color area and a black area connected to the area based on the luminance distribution of the image signal of the image, and the shape of the face outline has central symmetry. If not, it may be detected as a profile. The recognizing unit 25a may detect a side face based on the outline of the nose, which is the outline of the face.

また、認識部25aは、タッチパネル22を介して、ユーザ入力により指定された領域を主要被写体として認識しても良い。これにより、認識部25aは、ユーザが指定した領域を主要被写体とすることができる。   In addition, the recognition unit 25a may recognize the area designated by the user input via the touch panel 22 as the main subject. Thereby, the recognition unit 25a can set the area designated by the user as the main subject.

或いは、認識部25aは、画像の画像データを量子化することにより主要被写体と背景とを分離し、その主要被写体を認識しても良い。具体的には、認識部25aは、画像データを2値化するため、画像データの輝度分布に基づいて2値化の基準となる画素の明るさを選択する。そして、認識部25aは、その画素の明るさを基準にして、基準となる画素値よりも明るい画素値は白、基準以下の暗い画素値は黒とすることで、画像データを2値化する。これにより、認識部25aは、主要被写体を示す領域と背景を示す領域とが分離した画像を得ることができる。   Alternatively, the recognition unit 25a may separate the main subject and the background by quantizing the image data of the image and recognize the main subject. Specifically, in order to binarize the image data, the recognition unit 25a selects the brightness of a pixel that serves as a binarization reference based on the luminance distribution of the image data. The recognizing unit 25a binarizes the image data by setting the pixel value brighter than the reference pixel value as white and the dark pixel value below the reference as black based on the brightness of the pixel. . As a result, the recognition unit 25a can obtain an image in which the area indicating the main subject and the area indicating the background are separated.

設定部25bは、撮影画面内を何れかの方向に移動する主要被写体の動きを検出するために、主要被写体の領域内に複数の観察領域を設定する。具体的には、設定部25bは、例えば、認識部25aが認識した目、鼻、耳、唇等の特徴部位を観察領域に設定する。或いは、設定部25bは、後述する図2に示す通り、顔の領域を囲む矩形枠の各辺の中点を含む領域を観察領域に設定しても良い。   The setting unit 25b sets a plurality of observation areas in the area of the main subject in order to detect the movement of the main subject moving in any direction within the shooting screen. Specifically, the setting unit 25b sets, for example, characteristic parts such as eyes, nose, ears, and lips recognized by the recognition unit 25a in the observation region. Alternatively, the setting unit 25b may set a region including the midpoint of each side of the rectangular frame surrounding the face region as the observation region, as shown in FIG.

図2は、観察領域の設定処理の一例を説明する図である。図2では、撮影画面内を紙面上、主要被写体(人物P1)が右から左の方向に走っている1フレーム(スルー画像)を模式的に表している。ここで、認識部25aは、顔の領域を抽出し、その顔の領域を囲む矩形枠W1を設定する。そして、設定部25bは、例えば、矩形枠W1の各辺の中点を含む領域を観察領域に設定する。具体的には、設定部25bは、主要被写体である人物P1の顔の領域の上下左右の4箇所に観察領域(S1、S2、S3、S4)を設定する。   FIG. 2 is a diagram for explaining an example of the observation region setting process. FIG. 2 schematically shows one frame (through image) in which the main subject (person P1) runs from the right to the left on the paper in the shooting screen. Here, the recognition unit 25a extracts a face area and sets a rectangular frame W1 surrounding the face area. Then, the setting unit 25b sets, for example, an area including the midpoint of each side of the rectangular frame W1 as the observation area. Specifically, the setting unit 25b sets observation areas (S1, S2, S3, and S4) at four locations on the upper, lower, left, and right sides of the face area of the person P1, which is the main subject.

動き量検出部25cは、時系列に取得される複数のスルー画像に基づいて、観察領域毎の動き量を検出する。   The motion amount detection unit 25c detects the motion amount for each observation region based on a plurality of through images acquired in time series.

図3は、観察領域毎の動き量の検出処理の一例を説明する図である。図3に示す撮影画面は、撮像素子14の撮像面に対応しており、一例として、縦に30分割、横に20分割され、全体で600分割されている。図3(a)は、図2に示す1フレームの画像に各画素を対応付けて重畳して描いている。動き量検出部25cは、例えば、フレーム間での主要被写体の観察領域毎の動き量を、画像内の画素数の移動量で検出する。図3(b)は、図3(a)に示すフレームの次フレーム(現フレーム)の画像に各画素を対応付けて重畳して描いている。なお、説明をわかりやすくするため、図3(b)では、前フレーム(図3(a))の矩形枠W1と人物P1(図中点線)も対応付けて重畳して描いている。また、図3(b)では、動きベクトル(図中矢印)を模式的に重畳して描いている。   FIG. 3 is a diagram for explaining an example of a motion amount detection process for each observation region. The imaging screen shown in FIG. 3 corresponds to the imaging surface of the imaging device 14, and as an example, is divided into 30 parts vertically, 20 parts horizontally, and 600 parts as a whole. FIG. 3A illustrates each pixel corresponding to the image of one frame shown in FIG. The motion amount detection unit 25c detects, for example, the motion amount of each observation area of the main subject between frames based on the movement amount of the number of pixels in the image. FIG. 3B illustrates the respective pixels in association with each other on the image of the next frame (current frame) of the frame illustrated in FIG. For easy understanding, in FIG. 3B, the rectangular frame W1 of the previous frame (FIG. 3A) and the person P1 (dotted line in the figure) are also drawn in association with each other. In FIG. 3B, the motion vectors (arrows in the figure) are schematically superimposed and drawn.

動き量検出部25cは、画像処理部17が検出した画素毎の輝度に基づいて、観察領域(S1、S2、S3、S4(符号省略))の4箇所の画素の色(輝度)に対して、どの方向に移動したのか画素単位で検出する。図3(b)の例では、観察領域全てが、動きベクトルの向きに8画素移動しているので、動き量検出部25cは、人物P1の移動を検出する。ここで、動き量検出部25cは、連続するフレーム間にわたって、観察領域の移動量が予め設定した閾値を超えた場合に観察領域の動き量として検出しても良い。つまり、動き量検出部25cは、観察領域の移動量に基づいて、観察領域の動き量を検出する。これにより、動き量検出部25cは、閾値を判定基準として動き量を検出することができる。ここで閾値とは、例えば、観察領域の画素上での移動量であって、図3(b)の場合、一例として、2画素とする。なお、実際の適用においては、さらに閾値の値を適宜変更しても良い。また、本実施形態では、説明をわかりやすくするため、閾値を、観察領域の画素上での移動量に対応付けているが、撮影画面内の位置座標に対応付けて、予め設定した移動距離を閾値として設定しても良い。   Based on the luminance of each pixel detected by the image processing unit 17, the motion amount detection unit 25 c performs the color (luminance) of four pixels in the observation region (S 1, S 2, S 3, S 4 (reference number omitted)). The direction of movement is detected in pixel units. In the example of FIG. 3B, since the entire observation region has moved by 8 pixels in the direction of the motion vector, the motion amount detection unit 25c detects the movement of the person P1. Here, the movement amount detection unit 25c may detect the movement amount of the observation region when the movement amount of the observation region exceeds a preset threshold value between consecutive frames. That is, the motion amount detection unit 25c detects the motion amount of the observation region based on the movement amount of the observation region. Thereby, the motion amount detection unit 25c can detect the motion amount using the threshold value as a determination criterion. Here, the threshold is, for example, the amount of movement of the observation region on the pixel, and in the case of FIG. In actual application, the threshold value may be changed as appropriate. Further, in this embodiment, in order to make the explanation easy to understand, the threshold value is associated with the movement amount on the pixel in the observation region, but the movement distance set in advance is associated with the position coordinate in the imaging screen. It may be set as a threshold value.

図4は、観察領域毎の動き量の検出処理の他の一例を説明する図である。図4では、主要被写体の移動方向が、光軸方向(撮影光学系10の光軸方向の成分を有する方向を含む)である場合を想定している。図4(a)、(b)は、主要被写体(人物P2)が撮影光学系10の光軸L方向(紙面垂直方向:図中z方向)に移動するシーンでのスルー画像を時系列に示している。認識部25aは、人物P2の顔の領域を検出し、矩形枠W1を設定する。ここで、図4(c)は、図4(a)、(b)の矩形枠W1内の領域を抽出して拡大した図である。図4(c)では、紙面左側が図4(a)の矩形枠W1内の領域を示す図であり、紙面右側が図4(b)の矩形枠W1内の領域を示す図である。   FIG. 4 is a diagram for explaining another example of the motion amount detection process for each observation region. In FIG. 4, it is assumed that the moving direction of the main subject is the optical axis direction (including a direction having a component in the optical axis direction of the photographing optical system 10). 4A and 4B show a through image in a time series in a scene in which the main subject (person P2) moves in the optical axis L direction (vertical direction in the drawing: z direction in the drawing) of the photographing optical system 10. FIG. ing. The recognition unit 25a detects the face area of the person P2 and sets a rectangular frame W1. Here, FIG. 4C is a diagram obtained by extracting and enlarging the region in the rectangular frame W1 of FIGS. 4A and 4B. In FIG. 4C, the left side of the drawing is a diagram showing a region in the rectangular frame W1 of FIG. 4A, and the right side of the drawing is a diagram showing a region in the rectangular frame W1 of FIG. 4B.

設定部25bは、観察領域S1〜S4を図3で説明した場合と同様にして矩形枠W1内に設定する。ここで、図4(a)から図4(b)の状態に人物P2が移動した場合、人物P2の移動方向は、撮影者に接近する方向になる。この際、各観察領域(S1〜S4)の移動方向は、撮影画面上で矩形枠W1が拡大する方向となり、図4(c)の矢印で示す通り、外側に向かう方向となる(以下「正の向き」という)。なお、人物P2の移動方向が撮影者から遠ざかる場合、各観察領域(S1〜S4)の移動方向は、撮影画面上で矩形枠W1が縮小する方向となり、内側に向かう方向となる(以下「負の向き」という)。したがって、動き量検出部25cは、各観察領域(S1〜S4)の移動方向が、正の向き、或いは、負の向きの場合、人物P2の移動方向を光軸方向として検出する。   The setting unit 25b sets the observation areas S1 to S4 in the rectangular frame W1 in the same manner as described with reference to FIG. Here, when the person P2 moves from the state shown in FIG. 4A to the state shown in FIG. 4B, the moving direction of the person P2 is a direction approaching the photographer. At this time, the movement direction of each observation region (S1 to S4) is a direction in which the rectangular frame W1 is enlarged on the photographing screen, and is a direction toward the outside as indicated by an arrow in FIG. Direction ”). When the moving direction of the person P2 moves away from the photographer, the moving direction of each observation area (S1 to S4) is a direction in which the rectangular frame W1 is reduced on the shooting screen and is a direction toward the inside (hereinafter referred to as “negative”). Direction ”). Therefore, when the movement direction of each observation region (S1 to S4) is a positive direction or a negative direction, the motion amount detection unit 25c detects the movement direction of the person P2 as the optical axis direction.

つまり、設定部25bが主要被写体内に観察領域を4箇所設定することにより、動き量検出部25cは、撮影画面内の主要被写体の移動方向を、上下方向、左右方向、斜め方向、光軸方向(前後方向)の何れかの方向であるかを検出することが容易に可能となる。なお、設定部25bが観察領域を4箇所設定することは一例であって、4箇所に限定されない。   That is, when the setting unit 25b sets four observation areas in the main subject, the movement amount detection unit 25c sets the movement direction of the main subject in the shooting screen as the vertical direction, the left-right direction, the diagonal direction, and the optical axis direction. It is possible to easily detect which direction (the front-rear direction). Note that the setting unit 25b sets four observation regions as an example, and is not limited to four.

判定部25dは、観察領域毎の動き量に基づいて、主要被写体の移動状態を判定する。具体的には、判定部25dは、現フレームと前フレームとのフレーム間での観察領域毎の動き量に基づいて、主要被写体が撮影画面内の何れかの方向に移動しているか、或いは、主要被写体が静止しているか等の移動状態を判定する。   The determination unit 25d determines the moving state of the main subject based on the amount of movement for each observation region. Specifically, the determination unit 25d determines whether the main subject has moved in any direction within the shooting screen based on the amount of movement for each observation region between the current frame and the previous frame, or The moving state such as whether the main subject is stationary is determined.

取得部25eは、判定部より観察領域が静止していると判定された場合には、撮像素子14に本画像を取得させる。具体的には、取得部25eは、AEやAFを行なった後、タイミングジェネレータ(不図示)を介して電荷蓄積時間等の撮影条件を制御して撮像素子14に本画像を取得させる自動撮影を行なう。   When the determination unit determines that the observation region is stationary, the acquisition unit 25e causes the image sensor 14 to acquire the main image. Specifically, after performing AE and AF, the acquisition unit 25e performs automatic shooting that controls the shooting conditions such as the charge accumulation time via a timing generator (not shown) and causes the image sensor 14 to acquire the main image. Do.

ズーム制御部25fは、ズーム倍率を変更する。具体的には、ズーム制御部25fは、レンズ駆動部11にズーム倍率の変更を指示する。これにより、ズーム制御部25fは、レンズ駆動部11を介して撮影光学系10のズームレンズのズーム倍率を変更する。また、主要被写体の移動状態が撮影光学系10の光軸方向の成分を有する方向への移動であると判定部25dが判定した場合には、ズーム制御部25fは、ズーム倍率を変更する。これにより、ズーム制御部25fは、観察領域の動き量を相殺することができる(詳細は後述する)。   The zoom control unit 25f changes the zoom magnification. Specifically, the zoom control unit 25f instructs the lens driving unit 11 to change the zoom magnification. Accordingly, the zoom control unit 25 f changes the zoom magnification of the zoom lens of the photographing optical system 10 via the lens driving unit 11. In addition, when the determination unit 25d determines that the moving state of the main subject is movement in a direction having a component in the optical axis direction of the photographing optical system 10, the zoom control unit 25f changes the zoom magnification. Thereby, the zoom control unit 25f can cancel the movement amount of the observation region (details will be described later).

また、CPU25は、現フレームと前フレームとのフレーム間差分によりの主要被写体の動きを検出し、画像内で主要被写体を追尾する。具体的には、CPU25は、一例としてスルー画像を16画素×16画素のブロックに分割し、ブロック毎に各画素のフレーム間の差分信号が予め設定した差分信号用の閾値以上になる画素を算出することにより主要被写体の動きを検出する。なお、CPU25は、スルー画像を間引き読み出しすることによりフレーム間差分を行なっても良い。   Further, the CPU 25 detects the movement of the main subject due to the difference between the current frame and the previous frame, and tracks the main subject in the image. Specifically, as an example, the CPU 25 divides the through image into blocks of 16 pixels × 16 pixels, and calculates a pixel in which the difference signal between frames of each pixel is equal to or greater than a preset threshold value for the difference signal for each block. Thus, the movement of the main subject is detected. Note that the CPU 25 may perform inter-frame difference by thinning out and reading through images.

次に、電子カメラ1の撮影時における動作の一例を説明する。図5は、電子カメラ1の動作の一例を示すフローチャートである。以下の動作例では、電源オンの後、先ず、CPU25は、撮像素子14を駆動させてスルー画像の撮像を開始する。その後、操作部23は、撮影モードとして「ぶれ抑制モード」の指示入力を受け付けると、CPU25は、図5に示すフローの処理を開始する。なお、撮像素子14の画素数は、図3で説明した画素数よりも多いことする。また、CPU25は、「ぶれ抑制モード」の下位のモードとして、撮影者の操作を介さずにズーム倍率の変更を行なう「自動ズームモード」の設定の指示入力を受け付けても良い。   Next, an example of the operation at the time of photographing with the electronic camera 1 will be described. FIG. 5 is a flowchart showing an example of the operation of the electronic camera 1. In the following operation example, after the power is turned on, the CPU 25 first drives the imaging device 14 to start capturing a through image. After that, when the operation unit 23 receives an instruction input of “blur suppression mode” as the shooting mode, the CPU 25 starts the processing of the flow illustrated in FIG. 5. It is assumed that the number of pixels of the image sensor 14 is larger than the number of pixels described in FIG. Further, the CPU 25 may accept an instruction input for setting an “auto zoom mode” in which the zoom magnification is changed without the photographer's operation as a mode below the “blur suppression mode”.

図6は、ぶれ抑制モードにおける撮影動作の一例を示すシーケンス図である。撮影シーンとしては、主要被写体(人物P3)がサッカーをしているシーンを一例として取り上げる。図6(a)では、図5に示すフローの処理を開始から終了まで時間軸t(単位:秒)に沿って表している。また、図6(b)では、図5に示すフローの処理に対応付けて、時系列に4枚のスルー画像(図中(1)〜(4))を抽出して描いている。   FIG. 6 is a sequence diagram illustrating an example of a photographing operation in the shake suppression mode. As a shooting scene, a scene in which a main subject (person P3) is playing soccer is taken as an example. In FIG. 6A, the process of the flow shown in FIG. 5 is represented along the time axis t (unit: second) from the start to the end. In FIG. 6B, four through images ((1) to (4) in the drawing) are extracted and drawn in time series in association with the processing of the flow shown in FIG.

ステップS101:CPU25の認識部25aは、主要被写体の認識処理を行なう。具体的には、認識部25aは、スルー画像の画像信号の輝度分布に基づいて、肌色領域を顔の領域として抽出する。そして、認識部25aは、前述した特徴点抽出処理によって、顔の特徴部位を画像から検出する。さらに、認識部25aは、顔の特徴部位の位置関係に基づいて、人物P3の顔の領域を囲む矩形枠W1を設定する(図6(b)の(1)参照)。   Step S101: The recognition unit 25a of the CPU 25 performs recognition processing of the main subject. Specifically, the recognition unit 25a extracts the skin color area as a face area based on the luminance distribution of the image signal of the through image. Then, the recognizing unit 25a detects a feature portion of the face from the image by the feature point extraction process described above. Further, the recognizing unit 25a sets a rectangular frame W1 surrounding the face area of the person P3 based on the positional relationship of the facial feature parts (see (1) in FIG. 6B).

ステップS102:主要被写体の認識ができた場合(ステップS102:Yes)、CPU25は、ステップS103の処理に移行する。一方、主要被写体の認識ができなかった場合(ステップS102:No)、CPU25は、図5に示すフローの処理を終了する。   Step S102: If the main subject has been recognized (step S102: Yes), the CPU 25 proceeds to the process of step S103. On the other hand, when the main subject cannot be recognized (step S102: No), the CPU 25 ends the process of the flow shown in FIG.

ステップS103:CPU25の設定部25bは、観察領域の設定処理を行なう。具体的には、設定部25bは、主要被写体である人物P3の顔の領域の上下左右の4箇所に観察領域(S1、S2、S3、S4)を設定する(図6(b)の(1)の拡大図を参照)。ここで、CPU25は、表示モニタ21に表示させるスルー画像に矩形枠W1を重畳表示させる。一方、CPU25は、観察領域については撮影者に視認させる必要がないので、表示モニタ21に観察領域を表示させない。なお、設定部25bは、人物P3の目、鼻、唇等の顔の特徴部位を観察領域として設定しても良い。   Step S103: The setting unit 25b of the CPU 25 performs observation area setting processing. Specifically, the setting unit 25b sets the observation areas (S1, S2, S3, S4) at four locations on the top, bottom, left, and right of the face area of the person P3 that is the main subject ((1) in FIG. 6B). ) Here, the CPU 25 causes the rectangular frame W1 to be superimposed and displayed on the through image displayed on the display monitor 21. On the other hand, the CPU 25 does not require the photographer to visually recognize the observation area, and therefore does not display the observation area on the display monitor 21. The setting unit 25b may set facial features such as the eyes, nose, and lips of the person P3 as an observation area.

ステップS104:CPU25は、主要被写体の追尾処理を行なう。具体的には、CPU25は、現フレームと前フレームとのフレーム間差分によりの主要被写体の動きを検出し、画像内でその主要被写体を追尾する。また、CPU25は、現フレームにおける追尾対象の主要被写体の位置と、前フレームの追尾対象の主要被写体の位置とに基づいて、動きベクトル(方向と大きさとを含む)を算出する。なお、図6(b)の(3)、(4)の図は、ステップS104からステップS110の処理に対応している。   Step S104: The CPU 25 performs a main subject tracking process. Specifically, the CPU 25 detects the movement of the main subject based on the inter-frame difference between the current frame and the previous frame, and tracks the main subject in the image. Further, the CPU 25 calculates a motion vector (including direction and size) based on the position of the main subject to be tracked in the current frame and the position of the main subject to be tracked in the previous frame. Note that the diagrams (3) and (4) in FIG. 6B correspond to the processing from step S104 to step S110.

ステップS105:CPU25は、主要被写体の追尾がフレーム間でできたか否かを判定する。CPU25は、主要被写体を撮影画面内で消失した場合(ステップS105:No)、図5に示すフローの処理を終了する。一方、CPU25は、主要被写体を撮影画面内で消失しない場合(ステップS105:Yes)、ステップS106の処理に移行する。 Step S105: The CPU 25 determines whether or not the main subject has been tracked between frames. If the main subject disappears in the shooting screen (step S105: No ), the CPU 25 ends the process of the flow shown in FIG. On the other hand, when the main subject does not disappear in the shooting screen (step S105: Yes ), the CPU 25 proceeds to the process of step S106.

ステップS106:CPU25の動き量検出部25cは、フレーム間で観察領域毎に移動量を算出する。具体的には、動き量検出部25cは、現フレームと前フレームとから、フレーム間での主要被写体の観察領域毎の移動量を、画像内の画素数の移動量で検出する。   Step S106: The movement amount detection unit 25c of the CPU 25 calculates a movement amount for each observation region between frames. Specifically, the motion amount detection unit 25c detects the amount of movement of the main subject for each observation region between frames from the current frame and the previous frame, based on the amount of movement of the number of pixels in the image.

ステップS107:CPU25の判定部25dは、観察領域毎の移動量が閾値以下であるか否かを判定する。具体的には、判定部25dは、フラッシュメモリ18に記録されている閾値を参照し、移動量から定まる観察領域毎の動き量に基づいて、主要被写体が撮影画面内の何れかの方向に移動しているか、或いは、主要被写体が静止しているかの移動状態を判定する。ここで、観察領域毎の移動量が閾値以下であれば、判定部25dは、主要被写体が静止状態にあると判定する。したがって、観察領域毎の移動量が閾値以下の場合(ステップS107:Yes)、CPU25は、後述するステップS111の撮影処理に移行する。一方、観察領域毎の移動量が閾値よりも大きい場合(ステップS107:No)、CPU25は、ステップS108の処理に移行する。なお、判定部25dは、フラッシュメモリ18に記録されている主要被写体の移動状態の判定基準を示す情報を参照して判定しても良い。   Step S107: The determination unit 25d of the CPU 25 determines whether or not the movement amount for each observation region is equal to or less than a threshold value. Specifically, the determination unit 25d refers to the threshold value recorded in the flash memory 18, and the main subject moves in any direction within the shooting screen based on the amount of movement for each observation region determined from the amount of movement. Whether or not the main subject is stationary is determined. Here, if the movement amount for each observation region is equal to or smaller than the threshold value, the determination unit 25d determines that the main subject is in a stationary state. Therefore, when the movement amount for each observation area is equal to or less than the threshold (step S107: Yes), the CPU 25 proceeds to a photographing process in step S111 described later. On the other hand, when the movement amount for each observation region is larger than the threshold (step S107: No), the CPU 25 proceeds to the process of step S108. Note that the determination unit 25d may perform the determination with reference to information indicating the determination criterion of the moving state of the main subject recorded in the flash memory 18.

図7は、主要被写体の移動状態の判定基準の一例を示す図である。図7(a)は、主要被写体が光軸方向に移動する場合について、主要被写体の移動状態の判定基準の一例を示す図である。図7(a)では、主要被写体の横幅の画素数と、静止状態と許容する閾値との関係を示している。ここで、主要被写体の横幅としては、簡単のため、図4(c)で示した矩形枠W1の横幅であって良い。   FIG. 7 is a diagram illustrating an example of a criterion for determining the moving state of the main subject. FIG. 7A is a diagram illustrating an example of a criterion for determining the moving state of the main subject when the main subject moves in the optical axis direction. FIG. 7A shows the relationship between the number of horizontal pixels of the main subject, the stationary state, and the allowable threshold. Here, for the sake of simplicity, the horizontal width of the main subject may be the horizontal width of the rectangular frame W1 shown in FIG.

例えば、前フレームにおける横幅の画素数が10画素であって、現フレームにおける横幅の画素数が10画素の場合、判定部25dは、観察領域毎の移動量が2画素以下ならば、主要被写体は静止していると判定する。   For example, if the number of horizontal pixels in the previous frame is 10 pixels and the number of horizontal pixels in the current frame is 10, the determination unit 25d determines that the main subject is Determine that it is stationary.

一方、図4に示した通り、主要被写体の移動方向が光軸方向で撮影者に近づいて来る場合、撮影画面内における主要被写体(顔の領域)の占める割合は大きくなってくる。例えば、前フレームにおける横幅の画素数が10画素であったのが、移動に伴い現フレームで30画素になった場合、判定部25dは、次回のフレーム間差分での観察領域毎の移動量が例えば6画素以下ならば、主要被写体は静止していると判定する。これにより、判定部25dは、より正確に主要被写体の移動状態を判定できる。これは、撮影画面内に占める主要被写体の割合が、例えば図4(a)と図4(b)とを比較した場合、図4(a)の場合の方が撮影画面内に占める主要被写体の割合が小さい分、画素数の移動量が同じでも、図4(b)の場合と比較して、動きが大きくなるからである。   On the other hand, as shown in FIG. 4, when the moving direction of the main subject approaches the photographer in the optical axis direction, the ratio of the main subject (face area) in the shooting screen increases. For example, when the number of horizontal pixels in the previous frame is 10 pixels, but the number of pixels in the current frame is 30 pixels in accordance with the movement, the determination unit 25d determines that the movement amount for each observation area in the next inter-frame difference is For example, if it is 6 pixels or less, it is determined that the main subject is stationary. Thereby, the determination unit 25d can determine the movement state of the main subject more accurately. This is because the ratio of the main subject in the shooting screen is, for example, when FIG. 4 (a) is compared with FIG. 4 (b), the case of FIG. This is because even if the movement amount of the number of pixels is the same as the ratio is small, the movement is larger than in the case of FIG.

また、図7(b)は、シャッタ速度と主要被写体を静止状態と許容する閾値との関係を示している。シャッタ速度が速い方が、動きのある被写体を静止させて撮影しやすくなる。したがって、判定部25dは、シャッタ速度の設定値に応じた画素数を閾値の画素数にさらに加算して、主要被写体の移動状態を判定しても良い。これにより、判定部25dは、シャッタ速度の設定値が大きいほど閾値の値を大きくして、主要被写体の移動状態を判定できる。   FIG. 7B shows the relationship between the shutter speed and the threshold value for allowing the main subject to be stationary. The faster the shutter speed, the easier it is to shoot a moving subject stationary. Accordingly, the determination unit 25d may determine the movement state of the main subject by further adding the number of pixels corresponding to the set value of the shutter speed to the threshold number of pixels. Thus, the determination unit 25d can determine the moving state of the main subject by increasing the threshold value as the shutter speed setting value increases.

なお、図7に示した画素数は、一例であって、これらの数値に限定されない。また、図7(b)において、判定部25dは、シャッタ速度の設定値に応じた画素数を閾値の画素数にさらに加算するのでなく、シャッタ速度の設定値に応じた所定の比例係数を乗算するようにしても良い。   The number of pixels shown in FIG. 7 is an example, and is not limited to these numerical values. In FIG. 7B, the determination unit 25d does not further add the number of pixels corresponding to the shutter speed setting value to the threshold number of pixels, but multiplies a predetermined proportional coefficient according to the shutter speed setting value. You may make it do.

ステップS108:CPU25は、主要被写体の移動方向が光軸方向の場合(ステップS108:Yes)、ステップS109の処理に移行する。一方、CPU25は、主要被写体の移動方向が光軸方向でない場合(ステップS108:No)、ステップS104の処理に戻り、追尾処理を引き続き行なう。   Step S108: When the moving direction of the main subject is the optical axis direction (step S108: Yes), the CPU 25 proceeds to the process of step S109. On the other hand, when the moving direction of the main subject is not the optical axis direction (step S108: No), the CPU 25 returns to the process of step S104 and continues the tracking process.

ステップS109:CPU25は、自動ズームモードの設定の有無を判定する。自動ズームモードの設定がされている場合(ステップS109:Yes)、CPU25は、ステップS110の処理に移行する。一方、自動ズームモードの設定がされていない場合(ステップS109:No)、CPU25は、ステップS104の処理に戻り、追尾処理を引き続き行なう。   Step S109: The CPU 25 determines whether or not the automatic zoom mode is set. When the automatic zoom mode is set (step S109: Yes), the CPU 25 proceeds to the process of step S110. On the other hand, when the automatic zoom mode is not set (step S109: No), the CPU 25 returns to the process of step S104 and continues the tracking process.

ステップS110:CPU25のズーム制御部25fは、ズーム倍率の変更を行なう。なお、図6で取り上げた撮影シーンの場合、主要被写体(人物P3)が光軸方向に移動していないため、ステップS109、ステップS110の処理は行なわれない。そのため、本実施形態では、別途、別の撮影シーンで主要被写体の光軸方向の移動を取り上げて、ステップS109、ステップS110の処理の詳細について説明する。   Step S110: The zoom control unit 25f of the CPU 25 changes the zoom magnification. Note that in the case of the shooting scene taken up in FIG. 6, the main subject (person P3) has not moved in the optical axis direction, and therefore the processing in steps S109 and S110 is not performed. Therefore, in this embodiment, the details of the processing in steps S109 and S110 will be described separately by taking up movement of the main subject in the optical axis direction in another shooting scene.

ステップS111:CPU25の取得部25eは、自動撮影により、撮像素子14に本画像を取得させる。具体的には、取得部25eは、タイミングジェネレータ(不図示)を介して電荷蓄積時間等の撮影条件を制御して撮像素子14に本画像を取得させる(図6(b)の(4)の図参照)。そして、CPU25は、図5に示すフローの処理を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。   Step S111: The acquisition unit 25e of the CPU 25 causes the image sensor 14 to acquire a main image by automatic shooting. Specifically, the acquisition unit 25e controls the imaging conditions such as the charge accumulation time via a timing generator (not shown) and causes the image sensor 14 to acquire the main image (in (4) of FIG. 6B). (See figure). Then, the CPU 25 ends the process of the flow shown in FIG. Thereafter, the CPU 25 records the main image on the recording medium 30.

次に、主要被写体が光軸方向に移動する撮影シーンでの撮影の一例について説明する。   Next, an example of shooting in a shooting scene in which the main subject moves in the optical axis direction will be described.

図8は、主要被写体が光軸方向に移動する撮影シーンの一例を説明する図である。図8(a)では、主要被写体(人物P4)がブランコ50に乗っている様子を表している。ここで、(A)及び(C)の地点では、ブランコ50に乗っている主要被写体の動きベクトルが一旦ゼロになり、主要被写体は一時的に静止状態になる。その後、動きベクトルは反転し、主要被写体はブランコ50での運動を再度開始する。また、(B)の地点では、動きベクトルが最大になる。   FIG. 8 is a diagram illustrating an example of a shooting scene in which the main subject moves in the optical axis direction. FIG. 8A shows a state where the main subject (person P4) is on the swing 50. FIG. Here, at the points (A) and (C), the motion vector of the main subject riding on the swing 50 once becomes zero, and the main subject is temporarily stationary. Thereafter, the motion vector is reversed, and the main subject starts moving on the swing 50 again. At the point (B), the motion vector is maximum.

図8(b)は、主要被写体(人物P4)がブランコ50に乗っている様子を正面から見た図(スルー画像)である。図8(b)では、図8(a)の(C)の地点を表している。   FIG. 8B is a front view (through image) of the main subject (person P4) riding on the swing 50. FIG. FIG. 8B shows the point (C) in FIG.

例えば、図8に示す通り、主要被写体の移動方向が光軸方向で撮影者に近づいて来る場合、CPU25は、ステップS109の処理に移行する。さらに、自動ズームモードが設定されていない場合(ステップS109:No)、CPU25は、ステップS104の処理に戻る。そして、例えば、ステップS104からステップS109の処理を繰り返すうちに、図8(b)に示す地点(図8(a)の(C)の地点)に主要被写体(人物P4)が到達すると、主要被写体は一時的に静止状態になる。この場合、判定部25dは、次回のステップS107の処理で、観察領域毎の移動量が閾値以下と判定し(ステップS107:Yes)、CPU25は、ステップS111の撮影処理に移行する。そして、CPU25は、図5に示すフローの処理(ぶれ抑制モード)を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。   For example, as shown in FIG. 8, when the moving direction of the main subject approaches the photographer in the optical axis direction, the CPU 25 proceeds to the process of step S109. Furthermore, when the automatic zoom mode is not set (step S109: No), the CPU 25 returns to the process of step S104. For example, when the main subject (person P4) reaches the point shown in FIG. 8B (the point (C) in FIG. 8A) while repeating the processing from step S104 to step S109, the main subject Is temporarily stationary. In this case, in the next process of step S107, the determination unit 25d determines that the movement amount for each observation region is equal to or less than the threshold (step S107: Yes), and the CPU 25 proceeds to the imaging process of step S111. Then, the CPU 25 ends the flow process (blur suppression mode) shown in FIG. Thereafter, the CPU 25 records the main image on the recording medium 30.

次に自動ズームモードが設定されている場合について説明する。図9は、自動ズームモードの一例を説明する図である。図9(a)は、前フレームにおける主要被写体(P4)の移動方向が正の方向を表している(図8(a)に示す(A)から(C)に向かう移動)。図9(a)に示す通り、主要被写体の移動方向が光軸方向で撮影者に近づいて来る場合、CPU25は、ステップS109の処理に移行する。さらに、自動ズームモードが設定されている場合(ステップS109:Yes)、CPU25は、ステップS110の処理に移行する。   Next, a case where the automatic zoom mode is set will be described. FIG. 9 is a diagram illustrating an example of the automatic zoom mode. FIG. 9A shows a positive direction of movement of the main subject (P4) in the previous frame (movement from (A) to (C) shown in FIG. 8A). As shown in FIG. 9A, when the moving direction of the main subject approaches the photographer in the optical axis direction, the CPU 25 proceeds to the process of step S109. Furthermore, when the automatic zoom mode is set (step S109: Yes), the CPU 25 proceeds to the process of step S110.

ズーム制御部25fは、レンズ駆動部11を介して撮影光学系10のズームレンズを広角側にシフトする(図9(b))。図9(b)では、各観察領域の移動方向を実線の矢印(動きベクトル)で表している。また、点線の矢印は、ズームレンズを広角側にシフトさせることを模式的に表している。   The zoom control unit 25f shifts the zoom lens of the photographing optical system 10 to the wide-angle side via the lens driving unit 11 (FIG. 9B). In FIG. 9B, the moving direction of each observation region is represented by a solid line arrow (motion vector). A dotted arrow schematically represents shifting the zoom lens to the wide angle side.

CPU25は、ステップS110の処理後に再度ステップS104の処理に戻る。そして、CPU25は、追尾処理を行ない、現フレームの画像を得る。この際、現フレームの主要被写体を図9(c)に示す。動き量検出部25cは、現フレームと前フレームとから、フレーム間での主要被写体の観察領域毎の移動量を、画像内の画素数の移動量で検出する。判定部25dは、観察領域毎の動き量に基づいて、主要被写体の移動状態を再度判定する(ステップS106)。判定部25dは、例えば、図9(a)に示す主要被写体と、図9(c)に示す主要被写体とを比較する。観察領域毎の移動量が閾値以下の場合(ステップS107:Yes)、主要被写体は見かけ上、静止状態になるので、CPU25は、ステップS111の撮影処理に移行することができる。そして、CPU25は、図5に示すフローの処理を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。   CPU25 returns to the process of step S104 again after the process of step S110. Then, the CPU 25 performs a tracking process to obtain an image of the current frame. At this time, the main subject of the current frame is shown in FIG. The motion amount detection unit 25c detects the movement amount of the main subject for each observation region between frames from the current frame and the previous frame, based on the movement amount of the number of pixels in the image. The determination unit 25d determines again the moving state of the main subject based on the amount of movement for each observation region (step S106). For example, the determination unit 25d compares the main subject shown in FIG. 9A with the main subject shown in FIG. 9C. If the amount of movement for each observation area is equal to or less than the threshold (step S107: Yes), the main subject appears to be stationary, so the CPU 25 can move to the photographing process in step S111. Then, the CPU 25 ends the process of the flow shown in FIG. Thereafter, the CPU 25 records the main image on the recording medium 30.

図10は、自動ズームモードの他の一例を説明する図である。図10(a)は、前フレームにおける主要被写体(P4)の移動方向が負の方向を表している(図8(a)に示す(C)から(A)に向かう移動)。図10(a)に示す通り、主要被写体の移動方向が光軸方向で撮影者から遠ざかる場合、CPU25は、ステップS109の処理に移行する。さらに、自動ズームモードが設定されている場合(ステップS109:Yes)、CPU25は、ステップS110の処理に移行する。   FIG. 10 is a diagram for explaining another example of the automatic zoom mode. FIG. 10A shows a negative direction of movement of the main subject (P4) in the previous frame (movement from (C) to (A) shown in FIG. 8A). As shown in FIG. 10A, when the moving direction of the main subject is away from the photographer in the optical axis direction, the CPU 25 proceeds to the process of step S109. Furthermore, when the automatic zoom mode is set (step S109: Yes), the CPU 25 proceeds to the process of step S110.

ズーム制御部25fは、レンズ駆動部11を介して撮影光学系10のズームレンズを望遠側にシフトする(図10(b))。図10(b)では、各観察領域の移動方向を実線の矢印(動きベクトル)で表している。また、点線の矢印は、ズームレンズを望遠側にシフトさせることを模式的に表している。   The zoom control unit 25f shifts the zoom lens of the photographing optical system 10 to the telephoto side via the lens driving unit 11 (FIG. 10B). In FIG. 10B, the moving direction of each observation region is represented by a solid line arrow (motion vector). A dotted arrow schematically represents shifting the zoom lens to the telephoto side.

CPU25は、ステップS110の処理後に再度ステップS104の処理に戻る。そして、CPU25は、追尾処理を行ない、現フレームの画像を得る。この際、現フレームの主要被写体を図10(c)に示す。動き量検出部25cは、現フレームと前フレームとから、フレーム間での主要被写体の観察領域毎の移動量を、画像内の画素数の移動量で検出する。判定部25dは、観察領域毎の動き量に基づいて、主要被写体の移動状態を再度判定する(ステップS106)。判定部25dは、例えば、図10(a)に示す主要被写体と、図10(c)に示す主要被写体とを比較する。観察領域毎の移動量が閾値以下の場合(ステップS107:Yes)、主要被写体は見かけ上、静止状態になるので、CPU25は、ステップS111の撮影処理に移行することができる。そして、CPU25は、図5に示すフローの処理を終了させる。その後、CPU25は、本画像を記録媒体30に記録する。   CPU25 returns to the process of step S104 again after the process of step S110. Then, the CPU 25 performs a tracking process to obtain an image of the current frame. At this time, the main subject of the current frame is shown in FIG. The motion amount detection unit 25c detects the movement amount of the main subject for each observation region between frames from the current frame and the previous frame, based on the movement amount of the number of pixels in the image. The determination unit 25d determines again the moving state of the main subject based on the amount of movement for each observation region (step S106). For example, the determination unit 25d compares the main subject shown in FIG. 10A with the main subject shown in FIG. If the amount of movement for each observation area is equal to or less than the threshold (step S107: Yes), the main subject appears to be stationary, so the CPU 25 can move to the photographing process in step S111. Then, the CPU 25 ends the process of the flow shown in FIG. Thereafter, the CPU 25 records the main image on the recording medium 30.

以上より、本実施形態の電子カメラ1は、主要被写体が撮影画面内を何れかの方向に移動した場合であっても、観察領域を設定することにより、主要被写体の移動状態を判定することができる。これにより、電子カメラ1は、主要被写体が静止した場合(見かけ上静止した場合も含む)に、自動的に本画像を取得する。したがって、電子カメラ1は、主要被写体のぶれを低減させる撮影手段を提供できる。
(上記実施形態の補足事項)
(1)上記実施形態では、自動ズームモードにより、撮影光学系10のズームレンズのズーム倍率を変更する場合について説明した。ここで、ズーム制御部25fは、ぶれ抑制モードの際、ユーザのマニュアル操作に応じて、ズームレンズのズーム倍率を変更しても良い。この場合、設定部25bは、ズーム倍率変更後の主要被写体に対して、再度観察領域を設定する。また、CPU25は、ズーム倍率変更後の主要被写体が撮影画面内に占める割合に応じて閾値を再設定する。これにより、動き量検出部25cは、ユーザのマニュアル操作に応じてズーム倍率の変更が生じても、再設定された閾値を判定基準として動き量を検出することができる。
As described above, the electronic camera 1 of the present embodiment can determine the moving state of the main subject by setting the observation area even when the main subject moves in any direction within the shooting screen. it can. As a result, the electronic camera 1 automatically acquires the main image when the main subject is stationary (including when the main subject is apparently stationary). Therefore, the electronic camera 1 can provide a photographing unit that reduces blurring of the main subject.
(Supplementary items of the above embodiment)
(1) In the above embodiment, the case where the zoom magnification of the zoom lens of the photographing optical system 10 is changed in the automatic zoom mode has been described. Here, the zoom control unit 25f may change the zoom magnification of the zoom lens according to the user's manual operation in the shake suppression mode. In this case, the setting unit 25b sets the observation area again for the main subject after changing the zoom magnification. Further, the CPU 25 resets the threshold according to the ratio of the main subject in the shooting screen after changing the zoom magnification. Thereby, even if the zoom magnification changes according to the user's manual operation, the motion amount detection unit 25c can detect the motion amount using the reset threshold as a determination criterion.

(2)上記実施形態では、認識部25aは、主要被写体として顔を認識した。ここで、本実施形態では、予め人物登録をした画像をフラッシュメモリ18に記録しておいても良い。これにより、撮影画面内に複数の人物がいる場合、認識部25aは、撮影画面内で認識した顔と人物登録した顔とを照合して、登録された人物のみを主要被写体としても良い。   (2) In the above embodiment, the recognition unit 25a recognizes a face as a main subject. Here, in the present embodiment, an image in which a person is registered in advance may be recorded in the flash memory 18. Thereby, when there are a plurality of persons in the shooting screen, the recognition unit 25a may collate the face recognized in the shooting screen with the face registered as a person and use only the registered person as the main subject.

(3)上記実施形態では、電子カメラ1を動かさないようにして撮影を行った。本実施形態では、前述した撮影手段を流し撮り撮影に適用しても良い。   (3) In the above embodiment, shooting was performed without moving the electronic camera 1. In the present embodiment, the above-described photographing unit may be applied to panning photographing.

(4)本発明のプログラムは、例えば、電子カメラ1のCPU25上で実行される。上記実施形態では、フラッシュメモリ18に本発明のプログラムが予め記録されていた。なお、本実施形態では、例えば、本発明のプログラムを記録媒体30に記録して、この記録媒体30に記録されたプログラムをフラッシュメモリ18に記録しても良い。これにより、電子カメラ1では、新たな機能を追加するファームウエアとして、本発明のプログラムを適用することが可能となる。   (4) The program of the present invention is executed on the CPU 25 of the electronic camera 1, for example. In the above embodiment, the program of the present invention is recorded in the flash memory 18 in advance. In the present embodiment, for example, the program of the present invention may be recorded on the recording medium 30 and the program recorded on the recording medium 30 may be recorded on the flash memory 18. Thereby, in the electronic camera 1, it becomes possible to apply the program of this invention as firmware which adds a new function.

(5)本発明のプログラムは、いわゆるウェブカメラとコンピュータとを組み合わせたカメラシステムに適用しても良い。この場合、本発明のプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。   (5) The program of the present invention may be applied to a camera system that combines a so-called web camera and a computer. In this case, the program of the present invention may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.

(6)なお、(5)でいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。さらに(5)でいう「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに前述の「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでも良い。また上記のプログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせにより実現するものであっても良い。   (6) Note that the “computer system” in (5) includes an OS (Operating System) and hardware of peripheral devices. Further, the “computer-readable recording medium” in (5) means a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. . Further, the above-mentioned “computer-readable recording medium” refers to a program that is dynamically executed for a short time, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. What is held, and what holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or client in that case, may be included. Further, the above program may be for realizing a part of the above-described functions, and further, may be realized by combining the above-described functions with a program already recorded in the computer system. .

1・・・電子カメラ、14・・・撮像素子、25a・・・認識部、25b・・・設定部、25c・・・動き量検出部、25d・・・判定部、30・・・記録媒体 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 14 ... Image sensor, 25a ... Recognition part, 25b ... Setting part, 25c ... Motion amount detection part, 25d ... Determination part, 30 ... Recording medium

Claims (9)

被写体像を撮像し画像データを出力する撮像部と、
前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出部と、
前記主要被写体領域内に複数の検出領域を設定する設定部と、
異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出部と、
前記動き検出部により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像部が記録用画像データを出力するように制御する制御部と、を備えることを特徴とする電子カメラ。
An imaging unit that captures a subject image and outputs image data ;
A main subject area detection unit for detecting a main subject area where a main subject exists using the image data ;
A setting unit for setting a plurality of detection areas in the main subject area ;
Using a plurality of the image data picked up at different times, a motion detection unit for detecting movements of the plurality of detection regions set in the main subject region ;
A control unit that controls the imaging unit to output image data for recording when the movements of the plurality of detection areas detected by the motion detection unit are smaller than a predetermined threshold value. camera.
請求項1に記載された電子カメラであって、
前記主要被写体領域検出部は、人物の顔の領域を前記主要被写体領域として検出し、
前記設定部は、前記人物の顔の特徴部分を前記検出領域として設定することを特徴とする電子カメラ。
The electronic camera according to claim 1 ,
The main subject region detection unit detects a human face region as the main subject region,
The electronic camera according to claim 1, wherein the setting unit sets a feature portion of the face of the person as the detection area .
請求項2に記載された電子カメラであって、
前記検出領域は、前記人物の顔の目の部分、鼻の部分、耳の部分、唇の部分のうち少なくとも1つを含むことを特徴とする電子カメラ。
An electronic camera according to claim 2,
The electronic camera according to claim 1, wherein the detection area includes at least one of an eye part, a nose part, an ear part, and a lip part of the face of the person .
請求項1乃至請求項3の何れか1項に記載された電子カメラであって、
前記制御部は、シャッタ速度が速いほど、前記所定の閾値を大きくすることを特徴とする電子カメラ。
An electronic camera as claimed in any one of claims 1 to 3,
The control unit increases the predetermined threshold as the shutter speed increases .
請求項に記載された電子カメラであって、
前記制御部は、前記主要被写体領域の横幅が大きいほど、前記所定の閾値を大きくすることを特徴とする電子カメラ。
The electronic camera according to claim 4 ,
The electronic camera according to claim 1, wherein the control unit increases the predetermined threshold as the lateral width of the main subject region increases .
請求項1乃至請求項の何れか1項に記載された電子カメラであって
撮像光学系のズーム倍率を変更するズーム制御部をさらに備え、
前記ズーム制御部は、前記主要被写体が前記撮像光学系における光軸方向と同一方向へ移動していることを前記動き検出部が検出した場合に前記撮像光学系のズーム倍率を変更することを特徴とする電子カメラ。
An electronic camera as claimed in any one of claims 1 to 5,
A zoom control unit for changing the zoom magnification of the imaging optical system;
The zoom control unit changes the zoom magnification of the imaging optical system when the motion detection unit detects that the main subject is moving in the same direction as the optical axis direction in the imaging optical system. And an electronic camera.
請求項に記載された電子カメラであって
前記制御部は、前記撮像光学系のズーム倍率の変更に伴って前記検出領域の動きを再度検出し、前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像部が記録用画像データを出力するように制御することを特徴とする電子カメラ。
An electronic camera according to claim 6,
The control unit detects again the movement of the detection area in accordance with the change of the zoom magnification of the imaging optical system, and when the movement of the plurality of detection areas is smaller than a predetermined threshold, the imaging unit detects image data for recording. An electronic camera characterized by being controlled so as to output .
被写体像を撮像し画像データを出力する撮像処理と、
前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、
前記主要被写体領域内に複数の検出領域を設定する設定処理と、
異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、
前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、
をコンピュータに実行させることを特徴とするプログラム。
Imaging processing for capturing a subject image and outputting image data ;
A main subject region detection process for detecting a main subject region where a main subject exists using the image data ;
A setting process for setting a plurality of detection areas in the main subject area ;
Using a plurality of the image data captured at different times, a motion detection process for detecting movements of the plurality of detection areas set in the main subject area ;
A control process for performing control to output the image data for recording by performing the imaging process when the motion of the plurality of detection areas detected by the motion detection process is smaller than a predetermined threshold;
A program that causes a computer to execute.
被写体像を撮像し画像データを出力する撮像処理と、
前記画像データを用いて主要被写体が存在する主要被写体領域を検出する主要被写体領域検出処理と、
前記主要被写体領域内に複数の検出領域を設定する設定処理と、
異なる時刻に撮像された複数の前記画像データを用いて、前記主要被写体領域内に設定された前記複数の検出領域の動きを検出する動き検出処理と、
前記動き検出処理により検出された前記複数の検出領域の動きが所定の閾値より小さいとき、前記撮像処理を行って記録用画像データを出力するように制御する制御処理と、
をコンピュータに実行させるための命令が記録されたコンピュータ可読な記録媒体。
Imaging processing for capturing a subject image and outputting image data ;
A main subject region detection process for detecting a main subject region where a main subject exists using the image data ;
A setting process for setting a plurality of detection areas in the main subject area ;
Using a plurality of the image data captured at different times, a motion detection process for detecting movements of the plurality of detection areas set in the main subject area ;
A control process for performing control to output the image data for recording by performing the imaging process when the motion of the plurality of detection areas detected by the motion detection process is smaller than a predetermined threshold;
A computer-readable recording medium having recorded thereon instructions for causing a computer to execute.
JP2011012184A 2011-01-24 2011-01-24 Electronic camera, program and recording medium Active JP5736796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011012184A JP5736796B2 (en) 2011-01-24 2011-01-24 Electronic camera, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011012184A JP5736796B2 (en) 2011-01-24 2011-01-24 Electronic camera, program and recording medium

Publications (2)

Publication Number Publication Date
JP2012156644A JP2012156644A (en) 2012-08-16
JP5736796B2 true JP5736796B2 (en) 2015-06-17

Family

ID=46837957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011012184A Active JP5736796B2 (en) 2011-01-24 2011-01-24 Electronic camera, program and recording medium

Country Status (1)

Country Link
JP (1) JP5736796B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5743501B2 (en) * 2010-11-25 2015-07-01 キヤノン株式会社 Object tracking device, object tracking method, and object tracking program
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9165187B2 (en) 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
EP2992481A4 (en) * 2013-05-03 2017-02-22 Kofax, Inc. Systems and methods for detecting and classifying objects in video captured using mobile devices
WO2015073920A1 (en) 2013-11-15 2015-05-21 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
JP6312460B2 (en) * 2014-02-18 2018-04-18 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
JP6579657B2 (en) * 2015-12-17 2019-09-25 Kddi株式会社 Judgment device, program, and remote communication support device
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
JP7319521B2 (en) * 2019-03-29 2023-08-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002044516A (en) * 2000-07-24 2002-02-08 Olympus Optical Co Ltd Electronic camera
JP2006067452A (en) * 2004-08-30 2006-03-09 Nikon Corp Video recording apparatus, and electronic camera
JP2006319578A (en) * 2005-05-11 2006-11-24 Sharp Corp Depth direction movement determining device, blurring correction system having the same, and blurring correction method, program, computer readable record medium recording the program, and electronic apparatus equipped with the blurring correction system
JP2007251429A (en) * 2006-03-14 2007-09-27 Omron Corp Moving image imaging unit, and zoom adjustment method
JP4438099B2 (en) * 2007-11-22 2010-03-24 カシオ計算機株式会社 Imaging apparatus and program thereof
KR101710624B1 (en) * 2010-07-27 2017-02-27 삼성전자주식회사 Digital photographing method, Digital photographing apparatus and medium for recording the method

Also Published As

Publication number Publication date
JP2012156644A (en) 2012-08-16

Similar Documents

Publication Publication Date Title
JP5736796B2 (en) Electronic camera, program and recording medium
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
US8395694B2 (en) Apparatus and method for blurring image background in digital image processing device
US8786760B2 (en) Digital photographing apparatus and method using face recognition function
US10701274B2 (en) Controlling zoom magnification based on image size
JP4986175B2 (en) Imaging apparatus and program
JP6863284B2 (en) Detection device, detection method, detection program and imaging device
JP2007201534A (en) Imaging apparatus
JP2007264049A (en) Imaging method and apparatus
JP4645413B2 (en) Imaging device
JP2013008004A (en) Imaging apparatus
JP2011217103A (en) Compound eye photographing method and apparatus
KR20090086349A (en) Imaging apparatus and imaging method
JP2011223294A (en) Imaging apparatus
US10419686B2 (en) Image pickup apparatus and method for controlling the display of through image data based on shutter state
JP2013160991A (en) Imaging apparatus
JP6476064B2 (en) Imaging apparatus and imaging control method
JP2008263478A (en) Imaging apparatus
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2015019416A (en) Imaging apparatus, control method of the same, and program
JP5761387B2 (en) Imaging apparatus and program
JP2015118274A (en) Imaging device, imaging device control method, and program
JP2018106763A (en) Imaging apparatus
JP2015040922A (en) Imaging apparatus and its control method, program and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150406

R150 Certificate of patent or registration of utility model

Ref document number: 5736796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250