JP4773924B2 - IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM - Google Patents

IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Download PDF

Info

Publication number
JP4773924B2
JP4773924B2 JP2006289197A JP2006289197A JP4773924B2 JP 4773924 B2 JP4773924 B2 JP 4773924B2 JP 2006289197 A JP2006289197 A JP 2006289197A JP 2006289197 A JP2006289197 A JP 2006289197A JP 4773924 B2 JP4773924 B2 JP 4773924B2
Authority
JP
Japan
Prior art keywords
image data
display
target
image
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006289197A
Other languages
Japanese (ja)
Other versions
JP2008109315A (en
JP2008109315A5 (en
Inventor
幸雄 小高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006289197A priority Critical patent/JP4773924B2/en
Publication of JP2008109315A publication Critical patent/JP2008109315A/en
Publication of JP2008109315A5 publication Critical patent/JP2008109315A5/ja
Application granted granted Critical
Publication of JP4773924B2 publication Critical patent/JP4773924B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、画像データから識別対象、詳しくは、人物の顔の位置を特定する技術に関するものである。   The present invention relates to a technique for identifying an identification target, specifically, a position of a person's face from image data.

識別対象としての条件を満たす対象物(以下、主被写体という)の特徴データを予め登録し、これと照合することで、画像データからこの対象物を識別する技術が知られている。   A technique is known in which feature data of an object (hereinafter referred to as a main subject) that satisfies an identification target is registered in advance and collated with this to identify the object from image data.

例えば、特許文献1では、予め登録された顔の画像データと識別対象となる画像データとの相関値を計算することで、顔が存在する領域を特定する方法が開示されている。   For example, Patent Document 1 discloses a method of specifying a region where a face exists by calculating a correlation value between face image data registered in advance and image data to be identified.

また、特許文献2では、画像データを周波数帯域別に複数に分割して顔が存在する可能性が高いと推定される領域を限定し、限定した領域に対して予め登録された顔画像データとの相関値を計算する方法が開示されている。   Further, in Patent Document 2, the region in which image data is divided into a plurality of frequency bands and the possibility that a face is likely to exist is limited, and the face image data registered in advance for the limited region A method for calculating a correlation value is disclosed.

これらの技術をカメラに応用した例を説明する。   An example in which these technologies are applied to a camera will be described.

特許文献3では、画像データから形状解析等の手法によって主被写体を自動的に検出し、検出された主被写体に対して焦点検出エリアを表示する。そして、この焦点検出エリアに対して焦点調節動作を行わせる方法が開示されている。   In Patent Document 3, a main subject is automatically detected from image data by a technique such as shape analysis, and a focus detection area is displayed for the detected main subject. And the method of performing a focus adjustment operation | movement with respect to this focus detection area is disclosed.

また、特許文献4では、画像データから特徴点を抽出することで主被写体である顔の存在する領域を識別し、この領域の大きさに応じて焦点検出エリアを設定する方法が開示されている。   Further, Patent Document 4 discloses a method of identifying a region where a face as a main subject exists by extracting feature points from image data and setting a focus detection area according to the size of this region. .

また、特許文献5では、画像データから特徴点を抽出することで顔の存在する領域を識別し、この領域の大きさに応じてズーム駆動を行う方法が開示されている。   Further, Patent Document 5 discloses a method of identifying a region where a face exists by extracting feature points from image data and performing zoom driving according to the size of this region.

また、特許文献6では、撮影前に顔位置を検出し、撮影直後に、検出された顔位置に枠を表示すると共に、顔を拡大表示させ、顔にピントが合っているかを確認できる方法が開示されている。
特開平09−251534号公報 特開平10−162118号公報 特開2003−107335号公報 特開2004−317699号公報 特開2004−320286号公報 特開2005−323015号公報
Further, in Patent Document 6, a method is provided in which a face position is detected before shooting, and a frame is displayed at the detected face position immediately after shooting, and the face is enlarged to confirm whether the face is in focus. It is disclosed.
JP 09-251534 A JP-A-10-162118 JP 2003-107335 A JP 2004-317699 A JP 2004-320286 A JP 2005-323015 A

ところで、いわゆるコンパクトタイプのデジタルカメラでは、撮影時にカメラ背面の液晶表示器に逐次画像を表示するライブビュー表示を行い、液晶表示器を電子ビューファインダとして使用するものが主流である。このようなカメラでは、ライブビュー表示を行っている間、撮像素子で取り込んだ画像データから常時顔検出を行ない、顔が存在する領域を枠で囲むなどして表示し、使用者が顔の識別結果を確認できるようにしている。ところが、撮像素子で取り込んだ画像データから顔の位置を高精度に検出しようとするとその処理に時間がかかる。そのため、顔検出処理が終わって枠を表示する時点では、既に人物が画面上の他の位置に移動してしまっていて、枠の位置と人物の実際の顔の位置が一致しない場合がある。すなわち枠の表示位置が、人物の顔の動きに追従しない場合がある。このような場合、カメラは枠を表示した位置に人物の顔があると判断するため、実際には人物の顔が存在しない枠の位置に露出やフォーカスを合わせる処理をしてしまい、露出やフォーカスが狂ってしまうことがある。また、表示された枠の位置が実際の人物の顔の位置に一致せず、使用者が違和感を感じるという問題もある。   By the way, so-called compact type digital cameras are mainly used in live view display in which images are sequentially displayed on a liquid crystal display on the back of the camera at the time of shooting, and the liquid crystal display is used as an electronic viewfinder. In such a camera, during live view display, face detection is always performed from the image data captured by the image sensor, and the area where the face exists is surrounded by a frame and displayed so that the user can identify the face. The result can be confirmed. However, when it is attempted to detect the position of the face with high accuracy from the image data captured by the image sensor, the processing takes time. For this reason, when the frame is displayed after the face detection process is completed, the person has already moved to another position on the screen, and the position of the frame may not match the actual face position of the person. That is, the display position of the frame may not follow the movement of the person's face. In such a case, the camera determines that there is a person's face at the position where the frame is displayed. Therefore, the exposure or focus is actually adjusted to the position of the frame where there is no person's face. May go crazy. There is also a problem that the position of the displayed frame does not match the position of the actual person's face, and the user feels uncomfortable.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、顔の検出精度を低下させることなく、顔の位置の検出結果の、実際の顔の位置に対する追従性を向上させることである。   Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to improve the followability of the face position detection result to the actual face position without reducing the face detection accuracy. That is.

上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、画像データから目的とする対象の位置を検出する検出手段と、撮像素子で生成された画像データを用いて画像を表示する表示手段と、前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、前記撮像素子で生成された画像データを記憶する記憶手段とを有し、前記検出手段は前記撮像素子で生成された画像データを前記記憶手段に記憶する撮影動作よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする。
また、本発明に係わる撮像装置は、画像データから目的とする対象の位置を検出する検出手段と、撮像素子で生成された画像データを用いて画像を表示する表示手段と、前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、記憶手段へ画像データを記憶することを指示するためのシャッタースイッチとを有し、前記検出手段は、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする。
In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention uses a detection unit that detects a target position from image data and an image data generated by the imaging element. Display means for displaying the display, display control means for causing the display means to display a display indicating the position of the object detected by the detection means, and storage means for storing the image data generated by the image sensor. When the detection unit detects the position of the target from the image data generated by the image sensor before the photographing operation for storing the image data generated by the image sensor in the storage unit, the storage in comparison with the case of detecting the position of the target from the image data stored in the unit, at least, it sets a narrow range of the image data to detect the target, and, biopsy And performing possible to one of the sets a narrow range of tilt of the object.
In addition, an imaging apparatus according to the present invention includes a detection unit that detects a target position from image data, a display unit that displays an image using image data generated by the imaging device, and a detection unit that detects the image. Display control means for causing the display means to display a display indicating the position of the target, and a shutter switch for instructing storage means to store image data, and the detection means includes the shutter switch When the position of the target is detected from the image data generated by the image sensor before the operation of the shutter, the position of the target is detected from the image data generated by the image sensor after the shutter switch is operated. in comparison with the case where, at least, it sets a narrow range of the image data to detect the target, and, inclination of the object to be detected And performing one of setting a narrow range.

また、本発明に係わる撮像装置の制御方法は、画像データから目的とする対象の位置を検出する検出工程と、撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、前記撮像素子で生成された画像データを記憶手段に記憶する撮影工程とを有し、前記検出工程において、前記撮影工程よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする。
また、本発明に係わる撮像装置の制御方法は、画像データから目的とする対象の位置を検出する検出工程と、撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、シャッタースイッチの操作に応じて記憶手段へ画像データを記憶する撮影工程とを有し、前記検出工程において、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする。
The image pickup apparatus control method according to the present invention includes a detection step of detecting a target position from image data, and a display step of displaying an image on a display unit using image data generated by the image pickup device. A display control step for displaying on the display means a display indicating the position of the object detected in the detection step, and a photographing step for storing the image data generated by the image sensor in the storage means, In the detection step, when the position of the target is detected from the image data generated by the imaging device before the photographing step, the position of the target is detected from the image data stored in the storage unit compared to, at least, it sets a narrow range of the image data to detect the target, and, either by setting narrow range of the target slope to be detected And performing.
The image pickup apparatus control method according to the present invention includes a detection step of detecting a target position from image data, and a display step of displaying an image on a display unit using image data generated by the image pickup device. A display control step for displaying on the display means a display indicating the position of the object detected in the detection step, and a photographing step for storing image data in the storage means in response to an operation of a shutter switch, In the detection step, when detecting the position of the target from the image data generated by the image sensor before the shutter switch is operated, the image data generated by the image sensor after the shutter switch is operated in comparison with the case of detecting the position of the object from at least be set narrow range of the image data to detect the target, and the detection And performing one of setting a narrow range of inclination of the subject in ability.

また、本発明に係わるプログラムは、上記の制御方法をコンピュータに実行させることを特徴とする。   A program according to the present invention causes a computer to execute the above control method.

また、本発明に係わる記憶媒体は、上記のプログラムを記憶したことを特徴とする。   A storage medium according to the present invention stores the above program.

本発明によれば、顔の検出精度を低下させることなく、顔の位置の検出結果の、実際の顔の位置に対する追従性を向上させることが可能となる。   According to the present invention, it is possible to improve the followability of the detection result of the face position with respect to the actual face position without reducing the face detection accuracy.

以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.

尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る撮像装置100の構成を示すブロック図である。本実施形態では、主被写体の識別領域(具体的には人物の顔領域)を表示する機能を有する機器として、デジタルカメラを例にあげて説明を行うが、動画を処理するものであればビデオカメラや監視カメラ等の他の装置であってもよい。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 according to the first embodiment of the present invention. In the present embodiment, a digital camera will be described as an example of a device having a function of displaying an identification area (specifically, a human face area) of a main subject. Other devices such as a camera and a surveillance camera may be used.

図1において、101は後述の撮像素子103に被写体像を結像させる対物レンズ群、102は絞り装置及びシャッタ装置を備えた光量調節装置である。103は対物レンズ群101によって結像された被写体像を電気信号に変換するCCDやCMOSセンサ等の撮像素子である。104は撮像素子103のアナログ出力信号にクランプ処理、ゲイン処理等を行うアナログ信号処理回路である。105はアナログ信号処理回路104の出力をデジタル信号に変換するアナログ/デジタル(以下、A/Dという)変換器である。A/D変換器105から出力された画像データは後述のデジタル信号処理回路107とメモリ制御回路106を介して、あるいは、直接メモリ制御回路106を介してメモリ108に書き込まれる。   In FIG. 1, reference numeral 101 denotes an objective lens group that forms a subject image on an image sensor 103 to be described later, and reference numeral 102 denotes a light amount adjusting device including an aperture device and a shutter device. Reference numeral 103 denotes an image sensor such as a CCD or CMOS sensor that converts an object image formed by the objective lens group 101 into an electric signal. An analog signal processing circuit 104 performs clamp processing, gain processing, and the like on the analog output signal of the image sensor 103. An analog / digital (hereinafter referred to as A / D) converter 105 converts the output of the analog signal processing circuit 104 into a digital signal. The image data output from the A / D converter 105 is written into the memory 108 via a digital signal processing circuit 107 and a memory control circuit 106 described later, or directly via the memory control circuit 106.

107はデジタル信号処理回路であり、A/D変換器105からのデータ或いはメモリ制御回路106からのデータに対して画素補間処理や色変換処理を行う。また、デジタル信号処理回路107はA/D変換器105からのデータを用いて被写体の合焦状態を示す値や、輝度値の演算、および、ホワイトバランスの調節を行う。   A digital signal processing circuit 107 performs pixel interpolation processing and color conversion processing on data from the A / D converter 105 or data from the memory control circuit 106. The digital signal processing circuit 107 uses the data from the A / D converter 105 to calculate a value indicating the in-focus state of the subject, a luminance value, and white balance adjustment.

このデジタル信号処理回路107には、主被写体の特徴データを予め登録し、特徴データと照合することで、画像データからこの主被写体を識別する被写体識別回路115が搭載されている。本実施形態では、被写体識別回路115はA/D変換器105からのデータ、あるいは、メモリ108に書き込まれたデータから、特徴データとして登録された目や口等の顔の特徴部を検出することで、人間の顔が存在する領域を識別する。本実施形態では主被写体である人間の顔が存在する領域の位置を識別領域としている。   The digital signal processing circuit 107 is equipped with a subject identification circuit 115 for previously registering feature data of the main subject and collating it with the feature data to identify the main subject from the image data. In the present embodiment, the subject identification circuit 115 detects a facial feature such as eyes and mouth registered as feature data from data from the A / D converter 105 or data written in the memory 108. Thus, an area where a human face exists is identified. In this embodiment, the position of the area where the human face that is the main subject exists is used as the identification area.

システム制御回路112はデジタル信号処理回路107の演算結果に基づいて、露出制御回路113、焦点制御回路114に対する制御を実行する。具体的には対物レンズ群101を通過した被写体像を用いた焦点制御処理、露出制御処理、調光処理を行う。またシステム制御回路112は、被写体識別回路115の識別結果をもとに、識別領域を示す被写界枠の表示を制御する表示制御回路117を有している。   The system control circuit 112 controls the exposure control circuit 113 and the focus control circuit 114 based on the calculation result of the digital signal processing circuit 107. Specifically, focus control processing, exposure control processing, and light control processing using a subject image that has passed through the objective lens group 101 are performed. In addition, the system control circuit 112 includes a display control circuit 117 that controls display of a scene frame indicating the identification area based on the identification result of the subject identification circuit 115.

メモリ制御回路106は、アナログ信号処理回路104、A/D変換器105、デジタル信号処理回路107、メモリ108、デジタル/アナログ(以下、D/Aとする)変換器109を制御する。A/D変換器105でA/D変換されたデータはデジタル信号処理回路107、メモリ制御回路106を介して、或いはA/D変換器105でA/D変換されたデータが直接メモリ制御回路106を介して、メモリ108に書き込まれる。   The memory control circuit 106 controls the analog signal processing circuit 104, the A / D converter 105, the digital signal processing circuit 107, the memory 108, and a digital / analog (hereinafter referred to as D / A) converter 109. The data A / D converted by the A / D converter 105 is sent via the digital signal processing circuit 107 and the memory control circuit 106, or the data A / D converted by the A / D converter 105 is directly sent to the memory control circuit 106. The data is written to the memory 108 via the.

メモリ108には表示装置110に表示するデータが書き込まれ、メモリ108に書き込まれたデータはD/A変換器109を介して後述する表示装置110によって表示される。また、メモリ108は、撮像した静止画あるいは動画を格納する。また、このメモリ108はシステム制御回路112の作業領域としても使用することが可能である。   Data to be displayed on the display device 110 is written in the memory 108, and the data written in the memory 108 is displayed on the display device 110 described later via the D / A converter 109. Further, the memory 108 stores captured still images or moving images. The memory 108 can also be used as a work area for the system control circuit 112.

110は撮影によって得られた画像データから生成した画像を表示する液晶モニターからなる表示装置であり、撮像素子103を用いて得られた被写体像を逐次表示すれば電子的なファインダとして機能する。この表示装置110は、システム制御回路112の指示により任意に表示のオンとオフを切り換えることができ、表示をオフにした場合は、オンにした場合に比較して撮像装置100の電力消費を低減できる。また、表示装置110はシステム制御回路112からの指令に応じて文字、画像等を用いて撮像装置100の動作状態やメッセージ等を表示する。   Reference numeral 110 denotes a display device that includes a liquid crystal monitor that displays an image generated from image data obtained by photographing, and functions as an electronic viewfinder if subject images obtained using the image sensor 103 are sequentially displayed. The display device 110 can arbitrarily switch the display on and off according to an instruction from the system control circuit 112. When the display is turned off, the power consumption of the imaging device 100 is reduced as compared with the case where the display is turned on. it can. Further, the display device 110 displays an operation state, a message, and the like of the imaging device 100 using characters, images, and the like in accordance with a command from the system control circuit 112.

111はメモリカードやハードディスク等の外部記憶媒体や、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うためのインターフェースである。このインターフェース111をPCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成した場合、各種通信カードを接続すればよい。この各種通信カードとしては、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等があげられる。   Reference numeral 111 denotes an interface for transferring image data and management information attached to the image data to / from external storage media such as a memory card and a hard disk, and peripheral devices such as other computers and printers. When the interface 111 is configured using a PCMCIA card, a CF (Compact Flash (registered trademark)) card, or the like, a variety of communication cards may be connected. Examples of the various communication cards include LAN cards, modem cards, USB cards, IEEE 1394 cards, P1284 cards, SCSI cards, communication cards such as PHS, and the like.

116は姿勢検知回路であり、撮像装置100の姿勢を検知してシステム制御回路112に検知結果を出力する。   Reference numeral 116 denotes an attitude detection circuit that detects the attitude of the imaging apparatus 100 and outputs a detection result to the system control circuit 112.

システム制御回路112は撮像装置100全体の動作を制御している。システム制御回路112内の不図示のメモリに、このシステム制御回路112の動作用の定数、変数、プログラム等を記憶している。   The system control circuit 112 controls the overall operation of the imaging apparatus 100. Constants, variables, programs, and the like for operation of the system control circuit 112 are stored in a memory (not shown) in the system control circuit 112.

露出制御回路113は、光量調節装置102の絞り装置、シャッタ装置を駆動する。焦点制御回路114は対物レンズ群101のフォーカシングレンズ、ズームレンズを駆動する。   The exposure control circuit 113 drives the aperture device and shutter device of the light amount adjusting device 102. The focus control circuit 114 drives the focusing lens and zoom lens of the objective lens group 101.

図2は、デジタル信号処理回路107の構成要素の一部を示す図である。   FIG. 2 is a diagram illustrating some of the components of the digital signal processing circuit 107.

201はA/D変換器105から出力された画像データのRGB信号から輝度信号Yと色差信号Cr、Cbを分離して生成する色変換回路である。   A color conversion circuit 201 separates and generates the luminance signal Y and the color difference signals Cr and Cb from the RGB signal of the image data output from the A / D converter 105.

202は色差信号Cr、Cbに対してホワイトバランス処理、高輝度或いは低輝度の色を薄くする色消し処理を行う色処理回路である。   Reference numeral 202 denotes a color processing circuit that performs white balance processing on the color difference signals Cr and Cb and achromatic processing for thinning a high-luminance or low-luminance color.

203は輝度信号にフィルタ処理、輝度補正処理、ガンマ処理等を行う輝度処理回路である。   A luminance processing circuit 203 performs filter processing, luminance correction processing, gamma processing, and the like on the luminance signal.

204は輝度信号にフィルタ処理を施して輪郭強調を行う輪郭強調回路である。   Reference numeral 204 denotes an edge enhancement circuit that performs edge enhancement by applying filter processing to the luminance signal.

205は輝度処理を施した後の輝度信号から高周波信号を抜き出すためのバンドパスフィルタ(BPF)、あるいはハイパスフィルタ(HPF)である。   Reference numeral 205 denotes a band pass filter (BPF) or a high pass filter (HPF) for extracting a high frequency signal from the luminance signal after the luminance processing.

206は撮像時のシーン変化を検出するシーン検出回路である。   Reference numeral 206 denotes a scene detection circuit that detects a scene change during imaging.

デジタル信号処理回路107は輝度信号Yと色差信号Cr、Cbを合成したYCrCb信号を画像データとして出力する。   The digital signal processing circuit 107 outputs a YCrCb signal obtained by combining the luminance signal Y and the color difference signals Cr and Cb as image data.

以下、図3乃至図7のフローチャートを参照して、本実施形態に係るデジタルカメラの動作について説明する。尚、この処理を実行するプログラムはシステム制御回路112内のメモリに記憶されており、システム制御回路112の制御の下に実行される。   The operation of the digital camera according to this embodiment will be described below with reference to the flowcharts of FIGS. A program for executing this processing is stored in a memory in the system control circuit 112 and is executed under the control of the system control circuit 112.

図3は本実施形態に係る撮像装置100におけるメイン処理での動作を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the operation in the main process in the imaging apparatus 100 according to the present embodiment.

この処理は、例えば電池交換後などの電源投入により開始される。   This process is started when the power is turned on, for example, after battery replacement.

ステップS101では、システム制御回路112は、内部のメモリの各種フラグや制御変数等を初期化する。   In step S101, the system control circuit 112 initializes various flags and control variables in the internal memory.

ステップS102では、システム制御回路112は、表示装置110の画像表示をオフに初期設定する。   In step S102, the system control circuit 112 initially sets the image display of the display device 110 to OFF.

ステップS103では、システム制御回路112は、電源の残容量や動作情況が撮像装置100の動作に問題があるか否かを判断する。システム制御回路112は、問題があると判断するとステップS105に進み、表示装置110を用いて、画像や音声により所定の警告表示を行い、その後、ステップS103に戻る。また、システム制御回路112は電源に問題が無いと判断するとステップS104に進む。   In step S <b> 103, the system control circuit 112 determines whether there is a problem in the operation of the imaging apparatus 100 with respect to the remaining capacity of the power source and the operation status. If the system control circuit 112 determines that there is a problem, the system control circuit 112 proceeds to step S105, displays a predetermined warning by an image or sound using the display device 110, and then returns to step S103. If the system control circuit 112 determines that there is no problem with the power supply, the process proceeds to step S104.

ステップS104では、システム制御回路112は、記憶媒体の動作状態が撮像装置100の動作、特に記憶媒体に対するデータの記録再生動作に問題があるか否かを判断する。システム制御回路112は問題があると判断すると前述のステップS105に進み、表示装置110を用いて、画像や音声により所定の警告表示を行った後にステップS103に戻る。また、システム制御回路112は記憶媒体の動作に問題が無いと判断するとステップS106に進む。   In step S104, the system control circuit 112 determines whether or not the operation state of the storage medium has a problem in the operation of the imaging apparatus 100, particularly in the data recording / reproduction operation with respect to the storage medium. If the system control circuit 112 determines that there is a problem, the process proceeds to step S105 described above, and a predetermined warning is displayed by an image or sound using the display device 110, and then the process returns to step S103. If the system control circuit 112 determines that there is no problem in the operation of the storage medium, the process proceeds to step S106.

ステップS106では、システム制御回路112は、表示装置110を用いて、画像や音声により撮像装置100の各種設定状態のユーザーインターフェース(以下、UIとする)表示を行う。尚、表示装置110の画像表示がオンであったならば、表示装置110も用いて画像や音声により撮像装置100の各種設定状態のUI表示を行ってもよい。こうしてユーザーによる各種設定がなされる。   In step S <b> 106, the system control circuit 112 uses the display device 110 to display a user interface (hereinafter referred to as UI) of various setting states of the imaging device 100 using images and sounds. If the image display of the display device 110 is on, UI display of various setting states of the imaging device 100 may be performed by using the display device 110 by an image or sound. Thus, various settings are made by the user.

ステップS107では、システム制御回路112は、表示装置110の画像表示をオンに設定する。   In step S107, the system control circuit 112 sets the image display of the display device 110 to ON.

ステップS108では、システム制御回路112は、撮像素子103にて得られた画像データをもとに生成した画像を逐次表示する観察(ライブビュー)表示状態に設定する。この観察表示状態では、メモリ108に逐次書き込まれたデータを表示装置110により逐次表示することにより、表示装置110が電子的なファインダとして機能する。   In step S108, the system control circuit 112 sets an observation (live view) display state in which images generated based on image data obtained by the image sensor 103 are sequentially displayed. In this observation display state, the display device 110 functions as an electronic finder by sequentially displaying data sequentially written in the memory 108 on the display device 110.

ステップS109では、システム制御回路112は、得られた画像データをもとに焦点制御処理および露出制御処理を行う。このときに顔が存在する領域(以下、顔領域という)である識別領域に関する情報を得ていれば、識別領域を優先して焦点制御処理および露出制御処理を行う。   In step S109, the system control circuit 112 performs focus control processing and exposure control processing based on the obtained image data. At this time, if information regarding an identification area that is an area where a face exists (hereinafter referred to as a face area) is obtained, the focus control process and the exposure control process are performed with priority on the identification area.

ステップS110では、システム制御回路112は、顔検出レベルを1に設定する。   In step S110, the system control circuit 112 sets the face detection level to 1.

ステップS111では、システム制御回路112は、被写体識別回路115に画像データから顔領域を識別する顔識別処理を行わせる。顔検出処理の詳細は後述する。なお、ここで行われる顔検出処理は、後述するように、例えば主たる被写体と考えられる人物の顔に露出を合わせたり、フォーカスを合わせたりするために行われるものである。   In step S111, the system control circuit 112 causes the subject identification circuit 115 to perform face identification processing for identifying a face area from the image data. Details of the face detection process will be described later. Note that the face detection process performed here is performed, for example, to adjust the exposure or focus on the face of a person considered to be the main subject, as will be described later.

ステップS112では、システム制御回路112は、被写体識別回路115による識別結果を受けて、デジタル信号処理回路107に識別領域を示す識別表示を表示する処理を行わせる。   In step S112, the system control circuit 112 receives the identification result by the subject identification circuit 115 and causes the digital signal processing circuit 107 to perform a process of displaying an identification display indicating the identification area.

本実施形態では、図7のように顔の位置する部分に識別表示として枠を表示する形態としている。本実施形態では、顔の大きさにあわせて、顔を囲むように四角い枠を表示している。   In the present embodiment, as shown in FIG. 7, a frame is displayed as an identification display on the portion where the face is located. In the present embodiment, a square frame is displayed so as to surround the face according to the size of the face.

ステップS113では、システム制御回路112は、シャッタースイッチSW1が押されているかどうかを調べ、押されていなければステップS103に戻るが、シャッタースイッチSW1が押されたならばステップS114に進む。なお、シャッタースイッチSW1は、不図示のレリーズボタンを半押しすることによりONするスイッチである。   In step S113, the system control circuit 112 checks whether or not the shutter switch SW1 is pressed. If not, the system control circuit 112 returns to step S103, but if the shutter switch SW1 is pressed, the process proceeds to step S114. The shutter switch SW1 is a switch that is turned on by half-pressing a release button (not shown).

ステップS114では、システム制御回路112は、識別領域の輝度値が適正となるように、あるいは、識別領域の重み付けを他の領域よりも大きくして画面全体としての輝度値が適正となるように露出制御回路113に露出制御を行わせる。   In step S114, the system control circuit 112 performs exposure so that the luminance value of the identification area is appropriate, or the weight of the identification area is larger than other areas so that the luminance value of the entire screen is appropriate. The control circuit 113 performs exposure control.

このときの露出制御の結果に応じて、必要であれば不図示の閃光装置を撮影時に発光させることを決定する。また、肌の色の影響によってホワイトバランスが不適切となることを防止するため、識別領域を除外して、あるいは、重み付けを他の領域よりも小さくしてホワイトバランスの調節を行う。さらに、識別領域が合焦状態になるように焦点制御回路114に焦点制御を行わせる。   In accordance with the result of the exposure control at this time, if necessary, it is determined that a flash device (not shown) emits light at the time of photographing. Further, in order to prevent the white balance from becoming inappropriate due to the influence of the skin color, the white balance is adjusted by excluding the identification area or by making the weighting smaller than that of the other areas. Further, the focus control circuit 114 is caused to perform focus control so that the identification area is in focus.

ステップS115では、システム制御回路112は、シャッタースイッチSW2が操作されるまで観察表示状態を継続する。なお、シャッタースイッチSW2は、不図示のレリーズボタンを全押しすることによりONするスイッチである。   In step S115, the system control circuit 112 continues the observation display state until the shutter switch SW2 is operated. The shutter switch SW2 is a switch that is turned on by fully pressing a release button (not shown).

ステップS116では、システム制御回路112は、シャッタースイッチSW2が押されているかどうかを調べ、押されていなければステップS117に進み、シャッタースイッチSW2が押されていればステップS118に進む。   In step S116, the system control circuit 112 checks whether the shutter switch SW2 is pressed. If not, the system control circuit 112 proceeds to step S117. If the shutter switch SW2 is pressed, the system control circuit 112 proceeds to step S118.

ステップS117では、システム制御回路112は、シャッタースイッチSW1が押されているかどうかを調べ、押されていなければステップS103に戻り、シャッタースイッチSW1が押されていればステップS116に戻る。   In step S117, the system control circuit 112 checks whether or not the shutter switch SW1 is pressed. If not, the system control circuit 112 returns to step S103, and if the shutter switch SW1 is pressed, returns to step S116.

ステップS118では、システム制御回路112は撮像した画像データをメモリ108に書き込む撮影処理を行う。露出制御回路113はステップS114の露出制御結果に従い絞り装置を駆動し、シャッタを開放して撮像素子103を露光する。必要に応じて閃光装置を発光させ、設定された露光時間が経過したところでシャッタを閉じる。撮像素子103から出力された電荷信号はA/D変換器105、デジタル信号処理回路107、メモリ制御回路106を介して保存用の画像データとしてメモリ108に書き込まれる。さらにシステム制御回路112はメモリ制御回路106、デジタル信号処理回路107を用いて、メモリ108に書き込まれた保存用の画像データを読み出して垂直加算処理を実行させる。デジタル信号処理回路107に色処理を順次行わせ、表示用の画像データを生成し、再びメモリ108に書き込ませる。   In step S <b> 118, the system control circuit 112 performs a shooting process for writing the captured image data in the memory 108. The exposure control circuit 113 drives the diaphragm device according to the exposure control result in step S114, opens the shutter, and exposes the image sensor 103. If necessary, the flash device is caused to emit light, and the shutter is closed when the set exposure time has elapsed. The charge signal output from the image sensor 103 is written into the memory 108 as image data for storage via the A / D converter 105, the digital signal processing circuit 107, and the memory control circuit 106. Further, the system control circuit 112 uses the memory control circuit 106 and the digital signal processing circuit 107 to read the image data for storage written in the memory 108 and execute vertical addition processing. The digital signal processing circuit 107 sequentially performs color processing to generate display image data, which is written in the memory 108 again.

ステップS119では、システム制御回路112は、顔検出レベルを2に設定する。   In step S119, the system control circuit 112 sets the face detection level to 2.

ステップS120では、システム制御回路112は、被写体識別回路115に画像データから顔領域を識別する顔識別処理を行わせる。顔検出処理の詳細は後述する。ここで行われる顔検出処理の結果は、例えば、ストロボ撮影時に赤目現象が起こってしまった場合に、人物の目の位置を正確に特定するための情報として用いられる。そのため顔の位置検出の精度が要求される。あるいは、人物又は特定の人物の写っている写真を分類するための情報として用いてもよい。   In step S120, the system control circuit 112 causes the subject identification circuit 115 to perform face identification processing for identifying a face area from the image data. Details of the face detection process will be described later. The result of the face detection processing performed here is used as information for accurately specifying the position of a person's eyes when, for example, a red-eye phenomenon occurs during flash photography. Therefore, the accuracy of face position detection is required. Alternatively, it may be used as information for classifying a photograph of a person or a specific person.

ステップS121では、システム制御回路112は、被写体識別回路115による識別結果を受けて、デジタル信号処理回路107に識別領域を示す識別表示を表示する処理を行わせる。   In step S121, the system control circuit 112 receives the identification result from the subject identification circuit 115 and causes the digital signal processing circuit 107 to perform a process of displaying an identification display indicating the identification area.

本実施形態では、図7のように顔の位置する部分に枠を表示する形態としている。   In the present embodiment, as shown in FIG. 7, a frame is displayed at the portion where the face is located.

ステップS122では、表示装置110にて、ステップS118にて得られた表示用の画像データを用いて撮影した画像の表示を行う。   In step S122, the display device 110 displays the captured image using the display image data obtained in step S118.

ステップS123では、システム制御回路112は、メモリ108に書き込まれた保存用の画像データを読み出して、メモリ制御回路106、及び必要に応じてデジタル信号処理回路107を用いて各種画像処理を実行させる。また、システム制御回路112は、画像圧縮処理を行わせた後、記憶媒体へ圧縮した保存用の画像データの書き込みを行う記録処理を実行する。このとき、ステップS120にて識別した顔領域の位置情報も画像データとともに書き込む。   In step S123, the system control circuit 112 reads the image data for storage written in the memory 108, and executes various image processing using the memory control circuit 106 and the digital signal processing circuit 107 as necessary. Further, the system control circuit 112 performs a recording process of writing the image data for storage compressed into the storage medium after performing the image compression process. At this time, the position information of the face area identified in step S120 is also written together with the image data.

ステップS124では、システム制御回路112は、設定された表示時間が経過するのを待ってステップS125に進む。   In step S124, the system control circuit 112 waits for the set display time to elapse and proceeds to step S125.

ステップS125では、システム制御回路112は表示装置110を観察表示状態に設定してステップS103に戻る。これにより、表示装置110で撮影した画像を確認した後に、次の撮影のための観察表示状態にすることができる。   In step S125, the system control circuit 112 sets the display device 110 to the observation display state and returns to step S103. Thereby, after confirming the image photographed with the display apparatus 110, it can be set as the observation display state for the next imaging | photography.

次に、本実施形態の特徴である図3のステップS111、ステップS120における顔検出の処理について説明する。   Next, the face detection process in steps S111 and S120 of FIG. 3 which is a feature of the present embodiment will be described.

顔領域を検出する技術としては、様々な手法が公知となっている。例えば、ニューラルネットワークに代表される学習を用いた方法がある。また、目、鼻、口、および、顔の輪郭といった物理的な形状の特徴のある部位を画像データからテンプレートマッチングを用いて識別する手法がある。他にも、肌の色や目の形といった画像データの特徴量を検出し統計的解析を用いた手法があげられる(例えば、特開平10−232934号公報や特開2000−48184号公報等を参照)。さらに、直前の顔領域が検出された位置の近傍であるかを判定したり、服の色を加味するために顔領域の近傍の色を判定したり、あるいは、画面の中央付近ほど顔識別のための閾値を低く設定したりする方法がある。または予め主被写体が存在する領域を指定させてヒストグラムや色情報を記憶し、相関値を求めることで主被写体を追尾する方法がある。本実施形態では、その形状から一対の目(両目)、鼻、口、および、顔の輪郭を検出し、これらの相対位置より人物の顔領域を決定する手法により顔領域の識別処理を行っている。そして検出された顔領域の大きさに沿って、この顔領域を囲む方形領域を設定し、この方形領域の座標を求める。この顔領域を囲む方形領域の座標が、対象となる主被写体の位置を示す識別領域となる。なお、顔領域を囲む領域は方形に限定されるものではなく、楕円などの他の形状や、検出された顔の輪郭に沿う形状であっても構わない。   Various techniques are known for detecting the face area. For example, there is a method using learning represented by a neural network. In addition, there is a technique for identifying parts having physical shape features such as eyes, nose, mouth, and facial contour from image data using template matching. In addition, there is a technique that detects a feature amount of image data such as skin color or eye shape and uses statistical analysis (for example, Japanese Patent Laid-Open Nos. 10-232934 and 2000-48184). reference). In addition, it is determined whether the previous face area is near the detected position, the color near the face area is determined in consideration of the color of clothes, or the face identification is performed closer to the center of the screen. There is a method of setting the threshold value for this purpose low. Alternatively, there is a method of tracking the main subject by specifying a region in which the main subject exists in advance, storing a histogram and color information, and obtaining a correlation value. In this embodiment, a pair of eyes (both eyes), a nose, a mouth, and a face outline are detected from the shape, and a face area identification process is performed by a method of determining a person's face area from these relative positions. Yes. Then, a square area surrounding the face area is set along the size of the detected face area, and the coordinates of the square area are obtained. The coordinates of the rectangular area surrounding the face area become an identification area indicating the position of the main subject. The area surrounding the face area is not limited to a square, and may be another shape such as an ellipse or a shape that follows the detected outline of the face.

また、図8は、本実施形態での画像データを説明する図である。   FIG. 8 is a diagram for explaining image data in the present embodiment.

X方向に3000画素、Y方向に2000画素の光電変換部を有する撮像素子を用いている。   An image sensor having a photoelectric conversion unit of 3000 pixels in the X direction and 2000 pixels in the Y direction is used.

図4は、本実施形態における顔検出処理の動作を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining the operation of the face detection process in the present embodiment.

図4に記載する顔検出処理では、顔検出レベルに応じて、顔検出範囲を切り替えている。   In the face detection process illustrated in FIG. 4, the face detection range is switched according to the face detection level.

ステップS201では、システム制御回路112は、顔検出レベルが1か否かを判別し、顔検出レベルが1であれば、ステップS202に進み、顔検出レベルが1でなければ、ステップS220に進む。なお、本実施形態では、図3で示したように、顔検出レベルが1でない場合は、顔検出レベルは2である。   In step S201, the system control circuit 112 determines whether or not the face detection level is 1. If the face detection level is 1, the process proceeds to step S202. If the face detection level is not 1, the process proceeds to step S220. In the present embodiment, as shown in FIG. 3, when the face detection level is not 1, the face detection level is 2.

ステップS202からステップS203では、顔検出レベルが1の場合の、顔検出範囲の設定を行う。   In steps S202 to S203, a face detection range is set when the face detection level is 1.

顔検出レベルが1の場合の顔検出範囲は、図9の太線で囲まれた範囲としている。   The face detection range when the face detection level is 1 is a range surrounded by a thick line in FIG.

ステップS202では、システム制御回路112は、顔検出範囲の始点座標(X1、Y1)の設定を行う。   In step S202, the system control circuit 112 sets the start point coordinates (X1, Y1) of the face detection range.

詳しくは、X1=999、Y1=499とする(図9参照)。   Specifically, X1 = 999 and Y1 = 499 (see FIG. 9).

ステップS203では、システム制御回路112は、顔検出範囲の終点座標(X2、Y2)の設定を行う。   In step S203, the system control circuit 112 sets the end point coordinates (X2, Y2) of the face detection range.

詳しくは、X2=1999、Y2=1499とする(図9参照)。   Specifically, X2 = 1999 and Y2 = 1499 (see FIG. 9).

ステップS204では、システム制御回路112は、特徴抽出の始点座標(X、Y)の設定を行う。   In step S204, the system control circuit 112 sets the start point coordinates (X, Y) for feature extraction.

詳しくは、X=X1、Y=Y1とする。   Specifically, X = X1 and Y = Y1.

ステップS205では、システム制御回路112は、特徴抽出領域の設定を行う。   In step S205, the system control circuit 112 sets a feature extraction area.

詳しくは、ステップS204で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図10参照)。   Specifically, based on the start point coordinates of the feature extraction region specified in step S204, a region for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 10).

ステップS206では、システム制御回路112は、指定された領域に対する特徴抽出を行なう。   In step S206, the system control circuit 112 performs feature extraction for the designated region.

ステップS207では、システム制御回路112は、特徴抽出の始点座標(X、Y)の更新を行う。   In step S207, the system control circuit 112 updates the start point coordinates (X, Y) for feature extraction.

詳しくは、X=X+1の計算を行う。このとき、X+α>X2となった時は、X=X1とすると共に、Y=Y+1の計算を行う。   Specifically, X = X + 1 is calculated. At this time, when X + α> X2, X = X1 and Y = Y + 1 are calculated.

ステップS208では、システム制御回路112は、特徴抽出領域の設定を行う。   In step S208, the system control circuit 112 sets a feature extraction area.

詳しくは、ステップS207で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図10参照)。   Specifically, based on the start point coordinates of the feature extraction area specified in step S207, an area for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 10).

このようにすることで、図10で太線で囲まれた範囲内で、矢印で示すように特徴抽出領域が移動していき、太線で囲まれた領域の全範囲について特徴抽出処理が行われる。   By doing so, the feature extraction region moves as indicated by the arrow within the range surrounded by the thick line in FIG. 10, and the feature extraction processing is performed for the entire range of the region surrounded by the thick line.

ステップS209では、システム制御回路112は、X+α>X2、かつ、Y+β>Y2の条件を満たすかを判定することで顔検出範囲全体について特徴抽出が終了したか否かの判定を行う。終了していなければステップS206に戻り、終了した場合は、ステップS210に進み顔検出処理を終了する。   In step S209, the system control circuit 112 determines whether or not feature extraction has been completed for the entire face detection range by determining whether the conditions of X + α> X2 and Y + β> Y2 are satisfied. If not completed, the process returns to step S206. If completed, the process proceeds to step S210 and the face detection process is terminated.

ステップS220では、システム制御回路112は、顔検出範囲の始点座標(X1、Y1)の設定を行う。   In step S220, the system control circuit 112 sets the start point coordinates (X1, Y1) of the face detection range.

詳しくは、X1=0、Y1=0とする(図11参照)。   Specifically, X1 = 0 and Y1 = 0 are set (see FIG. 11).

ステップS221では、システム制御回路112は、顔検出範囲の終点座標(X2、Y2)の設定を行う。   In step S221, the system control circuit 112 sets the end point coordinates (X2, Y2) of the face detection range.

詳しくは、X2=2999、Y2=1999とする(図11参照)。   Specifically, X2 = 2999 and Y2 = 1999 are set (see FIG. 11).

すなわち、本実施形態では、顔検出レベルが2の場合の顔検出範囲は、図11に示すように画面全体とする。   That is, in this embodiment, the face detection range when the face detection level is 2 is the entire screen as shown in FIG.

ステップS222では、システム制御回路112は、特徴抽出の始点座標(X、Y)の設定を行う。   In step S222, the system control circuit 112 sets the start point coordinates (X, Y) for feature extraction.

詳しくは、X=X1、Y=Y1とする。   Specifically, X = X1 and Y = Y1.

ステップS223では、システム制御回路112は、特徴抽出領域の設定を行う。   In step S223, the system control circuit 112 sets a feature extraction region.

詳しくは、ステップS222で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図12参照)。   Specifically, based on the start point coordinates of the feature extraction area specified in step S222, an area for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 12).

ステップS224では、システム制御回路112は、指定された領域に対する特徴抽出を行う。   In step S224, the system control circuit 112 performs feature extraction for the specified region.

ステップS225では、システム制御回路112は、特徴抽出の始点座標(X、Y)の更新を行う。   In step S225, the system control circuit 112 updates the starting point coordinates (X, Y) for feature extraction.

詳しくは、X=X+1の計算を行う。このとき、X+α>X2となった時は、X=X1とすると共に、Y=Y+1の計算を行う。   Specifically, X = X + 1 is calculated. At this time, when X + α> X2, X = X1 and Y = Y + 1 are calculated.

ステップS226では、システム制御回路112は、特徴抽出領域の設定を行う。   In step S226, the system control circuit 112 sets a feature extraction area.

詳しくは、ステップS207で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図12参照)。   Specifically, based on the start point coordinates of the feature extraction area specified in step S207, an area for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 12).

このようにすることで、図12で太線で囲まれた範囲内(本実施形態では画面全体)で、矢印で示すように特徴抽出領域が移動していき、太線で囲まれた領域の全範囲について特徴抽出処理が行われる。   By doing so, the feature extraction region moves as indicated by the arrow within the range surrounded by the thick line in FIG. 12 (the entire screen in this embodiment), and the entire range of the region surrounded by the thick line is moved. A feature extraction process is performed for.

ステップS227では、システム制御回路112は、X+α>X2、かつ、Y+β>Y2の条件を満たすかを判定することで顔検出範囲の特徴抽出が終了したか否かの判定を行う。終了していなければステップS224に戻り、終了した場合は、ステップS210に進み顔検出を終了する。なお、ある大きさの特徴抽出領域で顔検出範囲における特徴抽出が終了したら、αとβの値を異ならせて特徴抽出領域の大きさを変更し、再び顔検出範囲における特徴抽出を行う構成としてもよい。   In step S227, the system control circuit 112 determines whether or not the feature extraction of the face detection range is completed by determining whether the conditions of X + α> X2 and Y + β> Y2 are satisfied. If not completed, the process returns to step S224. If completed, the process proceeds to step S210 to end face detection. When feature extraction in the face detection range is completed in a feature extraction area of a certain size, the feature extraction area is changed by changing the values of α and β, and feature extraction in the face detection range is performed again. Also good.

以上説明したように、本実施形態では、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、ステップS110で顔検出レベルを1に設定し、次のステップS111で顔検出を行う。ステップS111で行う顔検出では、図9及び図10に示すように、顔検出範囲が中央付近に制限される。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、ステップS119で顔検出レベルを2に設定し、次のステップS120で顔検出を行う。ステップS120で行う顔検出では、図11及び図12に示すように、顔検出範囲の制限は行わない。   As described above, in the present embodiment, in the face detection operation before the shooting operation, specifically, in the face detection operation in the standby state (when displaying live view), the face detection level is set to 1 in step S110, In next step S111, face detection is performed. In the face detection performed in step S111, the face detection range is limited to the vicinity of the center as shown in FIGS. Further, in the face detection operation after the photographing operation, specifically, in the face detection operation in the photographed image (image reproduction), the face detection level is set to 2 in step S119, and the face detection is performed in the next step S120. . In the face detection performed in step S120, as shown in FIGS. 11 and 12, the face detection range is not limited.

撮影動作の前の状態で人物が動いている場合に、顔検出動作の処理に時間を要してしまうと、顔検出処理にて顔領域の位置を特定できたときには、実際の顔の位置がずれてしまい、顔領域の位置を利用した焦点制御処理や露出制御処理が有効に機能しなくなってしまう可能性が高くなる。そこで、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、顔検出範囲を制限することで処理時間を短縮し、顔検出の、人物の顔の移動への追従性を向上させている。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、上記のような問題が生じないため、顔検出範囲の制限をかけずに検出漏れの少ない顔検出結果が得られるようにしている。このように本実施形態では、顔検出に要する処理時間を優先するか、顔検出漏れの抑制を優先するかに応じて、顔検出範囲の面積を異ならせている。   If a person is moving in the state before the shooting operation and the face detection operation takes time, if the position of the face area can be identified by the face detection processing, the actual face position will be There is a high possibility that the focus control process and the exposure control process using the position of the face area will not function effectively. Therefore, in the face detection operation before the shooting operation, more specifically, in the face detection operation in the standby state (live view display), the processing time is shortened by limiting the face detection range. Improves the ability to follow the movement. In addition, the face detection operation after the shooting operation, more specifically, the face detection operation in the captured image (when the image is played back) does not cause the above-mentioned problems, and therefore the detection is not limited without limiting the face detection range. A face detection result with less image quality is obtained. As described above, in the present embodiment, the area of the face detection range is varied depending on whether priority is given to the processing time required for face detection or suppression of face detection omission.

(第2の実施形態)
以下、顔検出処理の第2の実施形態について説明する。なお、撮像装置の構成及び撮像装置のメインの動作は、図1及び図3に示した第1の実施形態と同様であるので説明を省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the face detection process will be described. The configuration of the imaging device and the main operation of the imaging device are the same as those in the first embodiment shown in FIGS.

図5は、第2の実施形態における顔検出処理の動作を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining the operation of the face detection process in the second embodiment.

ステップS301では、システム制御回路112は、顔検出レベルが1か否かを判別し、顔検出レベルが1であれば、ステップS302に進み、顔検出レベルが1でなければ、ステップS310に進む。   In step S301, the system control circuit 112 determines whether or not the face detection level is 1. If the face detection level is 1, the process proceeds to step S302. If the face detection level is not 1, the process proceeds to step S310.

ステップS302では、システム制御回路112は、特徴抽出用の画像データを生成する。画像データを生成する際、生成されるサイズを小さくするために画素間引き処理を行う。   In step S302, the system control circuit 112 generates image data for feature extraction. When generating image data, pixel thinning processing is performed in order to reduce the generated size.

ステップS303では、システム制御回路112は、前述したステップS302で生成された画像データを用いて特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。   In step S303, the system control circuit 112 performs feature extraction using the image data generated in step S302 described above. The feature extraction method is the same as in the first embodiment.

ステップS310では、システム制御回路112は、特徴抽出用の画像データを生成する。画像データを生成する際、画素間引き処理は行わない。   In step S310, the system control circuit 112 generates image data for feature extraction. When generating image data, pixel thinning processing is not performed.

ステップS311では、システム制御回路112は、前述したステップS310で生成された画像データを用いて特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。   In step S311, the system control circuit 112 performs feature extraction using the image data generated in step S310 described above. The feature extraction method is the same as in the first embodiment.

以上説明したように、本実施形態では、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、ステップS110で顔検出レベルを1に設定し、次のステップS111で顔検出を行う。ステップS111で行う顔検出では、画素間引き処理を行った画像データを生成し(ステップS302)、特徴抽出を行う(ステップS303)。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、ステップS119で顔検出レベルを2に設定し、次のステップS120で顔検出を行う。ステップS120で行う顔検出では、画素間引き処理をしていない画像データを生成し(ステップS310)、特徴抽出を行う(ステップS311)。   As described above, in the present embodiment, in the face detection operation before the shooting operation, specifically, in the face detection operation in the standby state (when displaying live view), the face detection level is set to 1 in step S110, In next step S111, face detection is performed. In face detection performed in step S111, image data subjected to pixel thinning processing is generated (step S302), and feature extraction is performed (step S303). Further, in the face detection operation after the photographing operation, specifically, in the face detection operation in the photographed image (image reproduction), the face detection level is set to 2 in step S119, and the face detection is performed in the next step S120. . In the face detection performed in step S120, image data not subjected to pixel thinning processing is generated (step S310), and feature extraction is performed (step S311).

このように、撮影動作の前の顔検出動作、詳しくは、待機状態での顔検出動作では、画素間引き処理が行なわれている画像データを用いるので顔検出動作で扱うデータ量を減少させることができる。このため処理時間を短縮できるので、顔検出の、人物の顔の移動への追従性を向上させることができる。   As described above, in the face detection operation before the photographing operation, specifically, the face detection operation in the standby state, the image data subjected to the pixel thinning process is used, so that the amount of data handled in the face detection operation can be reduced. it can. For this reason, since the processing time can be shortened, the followability of the face detection to the movement of the person's face can be improved.

また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、画素間引き処理が行なわれていない画像データを用いるので、撮影動作前よりも小さな顔を検出することが可能になり、精度の高い顔検出結果が得られる。このように顔検出に要する処理時間を優先するか、精度を優先するかに応じて、顔検出動作に用いる画像データの画素数を異ならせている。   In addition, the face detection operation after the shooting operation, more specifically, the face detection operation in the captured image (during image playback) uses image data that has not been subjected to pixel thinning processing, and therefore has a smaller face than before the shooting operation. Can be detected, and a highly accurate face detection result can be obtained. As described above, the number of pixels of the image data used for the face detection operation is varied depending on whether processing time required for face detection is given priority or accuracy is given priority.

(第3の実施形態)
以下、顔検出処理の第3の実施形態について説明する。なお、撮像装置の構成及び撮像装置のメインの動作は、図1及び図3に示した第1の実施形態と同様であるので説明を省略する。
(Third embodiment)
Hereinafter, a third embodiment of the face detection process will be described. The configuration of the imaging device and the main operation of the imaging device are the same as those in the first embodiment shown in FIGS.

図6は、第3の実施形態における顔検出処理の動作を説明するためのフローチャートである。鼻、口、および、顔の輪郭を検出して顔領域を検出する方法では、画像データ中の顔が傾いていると、これらの特徴のある部位を識別できない場合がある。そこで検出漏れを少なくするためには、顔領域の検出対象となる画像データを少しずつ回転させながら顔領域の検出を行う方法が考えられる。   FIG. 6 is a flowchart for explaining the operation of the face detection process in the third embodiment. In the method of detecting the face area by detecting the nose, mouth, and face outline, if the face in the image data is tilted, there are cases where these characteristic parts cannot be identified. In order to reduce detection omissions, a method of detecting a face area while rotating image data that is a detection target of the face area little by little can be considered.

ステップS401では、システム制御回路112は、顔検出レベルが1か否かを判別し、顔検出レベルが1であれば、ステップS402に進み、顔検出レベルが1でなければ、ステップS410に進む。   In step S401, the system control circuit 112 determines whether or not the face detection level is 1. If the face detection level is 1, the process proceeds to step S402. If the face detection level is not 1, the process proceeds to step S410.

ステップS402では、システム制御回路112は、顔の傾き角度の検出範囲の設定を行う。   In step S402, the system control circuit 112 sets a detection range of the face tilt angle.

詳しくは、−45度から+45度とする。   Specifically, the angle is −45 degrees to +45 degrees.

ステップS403では、システム制御回路112は、−45度分だけ画像を回転させる。   In step S403, the system control circuit 112 rotates the image by −45 degrees.

ステップS404では、システム制御回路112は、特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。   In step S404, the system control circuit 112 performs feature extraction. The feature extraction method is the same as in the first embodiment.

ステップS405では、システム制御回路112は、+5度分だけ画像を回転させる。   In step S405, the system control circuit 112 rotates the image by +5 degrees.

ステップS406では、システム制御回路112は、+45度まで検出が終了したか否かを判別し、終了した場合は、ステップS407に進み、終了していなければ、ステップS404に戻る。   In step S406, the system control circuit 112 determines whether or not the detection has been completed up to +45 degrees. If it has been completed, the process proceeds to step S407, and if not, the process returns to step S404.

ステップS410では、システム制御回路112は、顔の傾き角度の検出範囲の設定を行う。   In step S410, the system control circuit 112 sets the detection range of the face tilt angle.

詳しくは、−180度から+180度とする。   Specifically, it is set to −180 degrees to +180 degrees.

ステップS411では、システム制御回路112は、−180度分だけ画像を回転させる。   In step S411, the system control circuit 112 rotates the image by −180 degrees.

ステップS412では、システム制御回路112は、特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。   In step S412, the system control circuit 112 performs feature extraction. The feature extraction method is the same as in the first embodiment.

ステップS413では、システム制御回路112は、+5度分だけ画像を回転させる。   In step S413, the system control circuit 112 rotates the image by +5 degrees.

ステップS414では、システム制御回路112は、+180度まで検出が終了したか否かを判別し、終了した場合は、ステップS407に進み、終了していなければ、ステップS412に戻る。   In step S414, the system control circuit 112 determines whether or not the detection has been completed up to +180 degrees. If completed, the process proceeds to step S407, and if not completed, the process returns to step S412.

以上説明したように、本実施形態では、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、ステップS110で顔検出レベルを1に設定し、次のステップS111で顔検出を行う。ステップS111で行う顔検出では、顔の傾きの検出範囲が−45度から+45度に制限されて(ステップS402)、特徴抽出を行う(ステップS404)。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、ステップS119で顔検出レベルを2に設定し、次のステップS120で顔検出を行う。ステップS120で行う顔検出では、顔の傾きの検出範囲は制限されず、−180度から+180度にて(ステップS410)、特徴抽出を行う(ステップS412)。   As described above, in the present embodiment, in the face detection operation before the shooting operation, specifically, in the face detection operation in the standby state (when displaying live view), the face detection level is set to 1 in step S110, In next step S111, face detection is performed. In the face detection performed in step S111, the detection range of the face inclination is limited to −45 degrees to +45 degrees (step S402), and feature extraction is performed (step S404). Further, in the face detection operation after the photographing operation, specifically, in the face detection operation in the photographed image (image reproduction), the face detection level is set to 2 in step S119, and the face detection is performed in the next step S120. . In the face detection performed in step S120, the detection range of the face inclination is not limited, and feature extraction is performed from −180 degrees to +180 degrees (step S410) (step S412).

このように、撮影動作の前の顔検出動作、詳しくは、待機状態での顔検出動作では、顔の傾きの検出範囲を制限することで処理時間を短縮できるので、顔検出の、人物の顔の移動への追従性が向上できる。   As described above, the face detection operation before the photographing operation, more specifically, the face detection operation in the standby state, can reduce the processing time by limiting the detection range of the face inclination. The followability to the movement can be improved.

また、撮影動作の後の顔検出動作、詳しくは、撮影した画像での顔検出動作では、顔の傾きの検出範囲の制限をかけないので、精度の高い顔検出結果が得られる。   Further, in the face detection operation after the photographing operation, specifically, the face detection operation on the photographed image does not limit the detection range of the face inclination, a highly accurate face detection result can be obtained.

(第4の実施形態)
以上説明した実施形態では、撮影動作の前、詳しくは、待機状態での顔検出動作と、撮影動作後の顔検出動作とを、カメラが自動的に切り替える形態であったが、メニュー等の設定で、ユーザーが任意に切り替えられるようにしてもよい。
(Fourth embodiment)
In the embodiment described above, the camera automatically switches between the face detection operation in the standby state and the face detection operation after the shooting operation before the shooting operation. Thus, the user may arbitrarily switch.

(他の実施形態)
上記の実施形態では、撮影動作の前に行われる顔検出動作と、撮影直後に画像データを表示する際に行われる顔検出動作とで、顔検出レベルを異ならせるものを例にあげて説明を行ったが、これに限られるものではない。撮影動作とは無関係に、記憶媒体に記憶された画像データを読み出して任意の画像データを表示する再生モードで行われる顔検出動作の顔検出レベルを2とし、待機状態における顔検出レベルを1としてもよい。撮影直後や再生モードでは、リアルタイムで顔検出結果を得る必要がなく、焦点制御処理や露出制御処理に影響を与えるといった撮影動作の前の顔検出動作における課題が生じないためである。したがって、撮影直後や再生モードが設定された状態では、顔検出動作に要する時間よりも精度を優先したほうが望ましい。
(Other embodiments)
In the above-described embodiment, the face detection operation performed before the shooting operation and the face detection operation performed when image data is displayed immediately after shooting are described as examples of different face detection levels. Yes, but not limited to this. Regardless of the shooting operation, the face detection level of the face detection operation performed in the reproduction mode in which the image data stored in the storage medium is read and arbitrary image data is displayed is set to 2, and the face detection level in the standby state is set to 1. Also good. This is because it is not necessary to obtain a face detection result in real time immediately after shooting or in the playback mode, and there is no problem in the face detection operation before the shooting operation that affects the focus control process or the exposure control process. Therefore, it is desirable to prioritize accuracy over time required for face detection operation immediately after shooting or in a state where the playback mode is set.

また、検出対象として人物の顔を例にあげて説明を行ったがこれに限られるわけではない。例えば第1の実施形態では検出範囲の面積を異ならせるものであるため、例えば所定の色条件を満たす領域を目的とする対象として検出する方法や、所定の輝度条件を満たす領域を目的とする対象として検出する方法であっても適用することが可能である。第2、第3の実施形態では、目的とする対象の解像度や向きによって検出時間や検出精度に影響を与えるような、例えば、所定の形状条件を満たす領域を目的とする対象として検出方法であれば適用することが可能である。目的とする対象は人物の顔に限られるわけではなく、検出する目的に応じて特定の個人に限定したり、子供に限定したり、あるいは、人間以外の動物とすることも可能である。   Further, although the description has been given taking a human face as an example of the detection target, the present invention is not limited to this. For example, in the first embodiment, since the areas of the detection range are made different, for example, a method for detecting a region satisfying a predetermined color condition as a target, or a target for a region satisfying a predetermined luminance condition Even if it is the method of detecting as, it is possible to apply. In the second and third embodiments, for example, a detection method that targets a region that satisfies a predetermined shape condition that affects detection time and detection accuracy depending on the resolution and orientation of the target object. It is possible to apply. The target object is not limited to a person's face, but can be limited to a specific individual, a child, or an animal other than a human depending on the purpose of detection.

また、顔検出レベルの設定方法として、検出範囲の面積、画素数、および、被写体の傾きの許容範囲を例にあげて説明したが、他の方法も考えられる。例えば、検出対象である顔として認識するために必要な条件の数を異ならせる方法や、検出可能な顔のサイズの上限値や下限値を異ならせる方法も考えられる。   Further, as the method for setting the face detection level, the area of the detection range, the number of pixels, and the allowable range of the inclination of the subject have been described as examples, but other methods are also conceivable. For example, a method of changing the number of conditions necessary for recognizing the face as a detection target, or a method of changing the upper limit value and the lower limit value of the detectable face size can be considered.

また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる。   When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above.

本発明の第1の実施形態における撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態における撮像装置のデジタル信号処理回路の構成要素の一部を示す図である。It is a figure which shows a part of component of the digital signal processing circuit of the imaging device in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるメイン処理ルーチンでの動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement in the main process routine in the 1st Embodiment of this invention. 本発明の第1の実施形態における顔検出の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the face detection in the 1st Embodiment of this invention. 本発明の第2の実施形態における顔検出の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the face detection in the 2nd Embodiment of this invention. 本発明の第3の実施形態における顔検出の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the face detection in the 3rd Embodiment of this invention. 識別領域の表示例を示す図である。It is a figure which shows the example of a display of an identification area | region. 画像データを示す図である。It is a figure which shows image data. 本発明の第1の実施形態における顔検出範囲を示す図である。It is a figure which shows the face detection range in the 1st Embodiment of this invention. 本発明の第1の実施形態における顔検出範囲と特徴抽出領域の位置の関係を示す図である。It is a figure which shows the relationship between the face detection range and the position of a feature extraction area | region in the 1st Embodiment of this invention. 本発明の第1の実施形態における顔検出範囲を示す図である。It is a figure which shows the face detection range in the 1st Embodiment of this invention. 本発明の第1の実施形態における顔検出範囲と特徴抽出領域の位置の関係を示す図である。It is a figure which shows the relationship between the face detection range and the position of a feature extraction area | region in the 1st Embodiment of this invention.

符号の説明Explanation of symbols

100 撮像装置
101 対物レンズ群
102 光量調節装置
103 撮像素子
104 アナログ信号処理回路
105 A/D変換器
106 メモリ制御回路
107 デジタル信号処理回路
108 メモリ
109 D/A変換器
110 表示装置
111 インターフェース
112 システム制御回路
113 露出制御回路
114 焦点制御回路
115 被写体識別回路
116 姿勢検知回路
117 表示制御回路
DESCRIPTION OF SYMBOLS 100 Image pick-up device 101 Objective lens group 102 Light quantity adjustment device 103 Image pick-up element 104 Analog signal processing circuit 105 A / D converter 106 Memory control circuit 107 Digital signal processing circuit 108 Memory 109 D / A converter 110 Display device 111 Interface 112 System control Circuit 113 Exposure control circuit 114 Focus control circuit 115 Subject identification circuit 116 Posture detection circuit 117 Display control circuit

Claims (11)

画像データから目的とする対象の位置を検出する検出手段と、
撮像素子で生成された画像データを用いて画像を表示する表示手段と、
前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、
前記撮像素子で生成された画像データを記憶する記憶手段とを有し、
前記検出手段は前記撮像素子で生成された画像データを前記記憶手段に記憶する撮影動作よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする撮像装置。
Detecting means for detecting the position of the target object from the image data;
Display means for displaying an image using image data generated by the image sensor;
Display control means for causing the display means to display a display indicating the position of the object detected by the detection means;
Storage means for storing image data generated by the image sensor,
In the case where the detection unit detects the position of the target from the image data generated by the image sensor before the photographing operation for storing the image data generated by the image sensor in the storage unit, Compared with the case where the position of the target is detected from stored image data, at least the range of the image data for detecting the target is set narrow, and the range of the tilt of the target that can be detected imaging device and performing either to the narrow configuration.
前記表示手段は前記撮影動作により前記記憶手段に記憶された画像データを用いて画像を表示し、前記検出手段は該表示に用いた画像データから前記対象の位置を検出することを特徴とする請求項1に記載の撮像装置。   The display means displays an image using image data stored in the storage means by the photographing operation, and the detection means detects the position of the object from the image data used for the display. Item 2. The imaging device according to Item 1. 前記表示手段は前記記憶手段に記憶された画像データを再生して画像を表示し、前記検出手段は該表示に用いた画像データから前記対象の位置を検出することを特徴とする請求項1に記載の撮像装置。   2. The display unit according to claim 1, wherein the display unit reproduces the image data stored in the storage unit to display an image, and the detection unit detects the position of the target from the image data used for the display. The imaging device described. 画像データから目的とする対象の位置を検出する検出手段と、
撮像素子で生成された画像データを用いて画像を表示する表示手段と、
前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、
記憶手段へ画像データを記憶することを指示するためのシャッタースイッチとを有し、
前記検出手段は、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする撮像装置。
Detecting means for detecting the position of the target object from the image data;
Display means for displaying an image using image data generated by the image sensor;
Display control means for causing the display means to display a display indicating the position of the object detected by the detection means;
A shutter switch for instructing the storage means to store the image data;
When the detection unit detects the position of the target from image data generated by the image sensor before the shutter switch is operated, the image generated by the image sensor after the shutter switch is operated. Compared to the case where the position of the target is detected from data, at least a range of the image data for detecting the target is set narrowly, and a range of the inclination of the target that can be detected is set narrowly imaging device and performs either.
前記表示手段は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データを用いて画像の表示を行い、前記検出手段は該表示に用いた画像データから前記対象の位置を検出することを特徴とする請求項4に記載の撮像装置。   The display means displays an image using image data generated by the image sensor after the shutter switch is operated, and the detection means detects the position of the target from the image data used for the display. The imaging apparatus according to claim 4. 前記検出手段により検出された前記対象の位置の画像データを用いて、焦点制御を行う焦点制御手段をさらに有することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a focus control unit that performs focus control using image data of the position of the target detected by the detection unit. 前記検出手段により検出された前記対象の位置の画像データを用いて、露出制御を行う露出制御手段をさらに有することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an exposure control unit that performs exposure control using image data of the position of the target detected by the detection unit. 画像データから目的とする対象の位置を検出する検出工程と、
撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、
前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、
前記撮像素子で生成された画像データを記憶手段に記憶する撮影工程とを有し、
前記検出工程において、前記撮影工程よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする撮像装置の制御方法。
A detection step of detecting the position of the target object from the image data;
A display step of displaying an image on display means using image data generated by the image sensor;
A display control step of displaying on the display means a display indicating the position of the target detected in the detection step;
A photographing step of storing image data generated by the image sensor in a storage means,
In the detection step, when the position of the target is detected from image data generated by the imaging device before the photographing step, the position of the target is detected from the image data stored in the storage unit. compared to the case, and wherein at least, it sets a narrow range of the image data to detect the target, and, to do any of the possible sets a narrow range of the target slope to be detected Control method for imaging apparatus.
画像データから目的とする対象の位置を検出する検出工程と、
撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、
前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、
シャッタースイッチの操作に応じて記憶手段へ画像データを記憶する撮影工程とを有し、
前記検出工程において、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することいずれかを行うことを特徴とする撮像装置の制御方法。
A detection step of detecting the position of the target object from the image data;
A display step of displaying an image on display means using image data generated by the image sensor;
A display control step of displaying on the display means a display indicating the position of the target detected in the detection step;
A photographing step of storing image data in the storage means according to the operation of the shutter switch,
In the detection step, when the position of the target is detected from image data generated by the image sensor before the shutter switch is operated, an image generated by the image sensor after the shutter switch is operated Compared to the case where the position of the target is detected from data, at least a range of the image data for detecting the target is set narrowly, and a range of the inclination of the target that can be detected is set narrowly control method for an imaging apparatus which is characterized in that one of the.
請求項8または9に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 8 or 9. 請求項10に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 10.
JP2006289197A 2006-10-24 2006-10-24 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Expired - Fee Related JP4773924B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006289197A JP4773924B2 (en) 2006-10-24 2006-10-24 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006289197A JP4773924B2 (en) 2006-10-24 2006-10-24 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Publications (3)

Publication Number Publication Date
JP2008109315A JP2008109315A (en) 2008-05-08
JP2008109315A5 JP2008109315A5 (en) 2009-12-03
JP4773924B2 true JP4773924B2 (en) 2011-09-14

Family

ID=39442326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006289197A Expired - Fee Related JP4773924B2 (en) 2006-10-24 2006-10-24 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4773924B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5127592B2 (en) 2008-06-25 2013-01-23 キヤノン株式会社 Image processing apparatus, image processing method, program, and computer-readable recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01289696A (en) * 1988-05-18 1989-11-21 Fanuc Ltd Image processing method for visual sensor system
JP4338560B2 (en) * 2003-04-14 2009-10-07 富士フイルム株式会社 Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus
JP2005071344A (en) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd Image processing method, image processor and recording medium recording image processing program
JP4306482B2 (en) * 2004-02-09 2009-08-05 株式会社ニコン Red-eye image correction device, electronic camera, and red-eye image correction program
JP2005323015A (en) * 2004-05-07 2005-11-17 Nikon Gijutsu Kobo:Kk Digital camera

Also Published As

Publication number Publication date
JP2008109315A (en) 2008-05-08

Similar Documents

Publication Publication Date Title
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP4196714B2 (en) Digital camera
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP4656657B2 (en) Imaging apparatus and control method thereof
US20060034602A1 (en) Image capture apparatus and control method therefor
JP4290164B2 (en) Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus
JP2004317699A (en) Digital camera
JP2004320286A (en) Digital camera
JP2007282119A (en) Electronic camera and image processing apparatus
JP2007282118A (en) Electronic camera and image processing apparatus
JP2004320285A (en) Digital camera
JP2007188126A (en) Image brightness calculation device, method, and program
JP2007067934A (en) Imaging apparatus and its control method
JP2005167697A (en) Electronic camera having red-eye correction function
JP3985005B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2009290782A (en) Imaging device, method of controlling the same, and program
JP4773924B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2010104061A (en) Electronic camera and image processing apparatus
JP5241417B2 (en) Imaging apparatus, control method thereof, and program
JP5111023B2 (en) Imaging apparatus and control method thereof
JP4781299B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP7566830B2 (en) Image capture device, image capture device control method, and program
WO2021210340A1 (en) Image processing device, image processing method, and imaging device
JP4902512B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110620

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110624

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees