JP2016019118A - Image processing apparatus, imaging apparatus including the same, and image processing program - Google Patents

Image processing apparatus, imaging apparatus including the same, and image processing program Download PDF

Info

Publication number
JP2016019118A
JP2016019118A JP2014140169A JP2014140169A JP2016019118A JP 2016019118 A JP2016019118 A JP 2016019118A JP 2014140169 A JP2014140169 A JP 2014140169A JP 2014140169 A JP2014140169 A JP 2014140169A JP 2016019118 A JP2016019118 A JP 2016019118A
Authority
JP
Japan
Prior art keywords
image
unit
subject
identification
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014140169A
Other languages
Japanese (ja)
Inventor
小西 哲也
Tetsuya Konishi
哲也 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014140169A priority Critical patent/JP2016019118A/en
Publication of JP2016019118A publication Critical patent/JP2016019118A/en
Pending legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus that improves accuracy of identifying a subject, an imaging apparatus including the same, and a program.SOLUTION: The image processing apparatus includes: a determination part for determining an identification level of a subject included in a through image photographed by an imaging part; and an association part for associating identification information for identifying a subject and a photographed image containing the photographed subject when it is determined by the determination part that an identification level satisfies predetermined standards.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置及びそれを備えた撮像装置並びに画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an imaging apparatus including the image processing apparatus, and an image processing program.

近年、撮像範囲に写っている人物の顔を検出したり、人物の個人認識をできたりするデジタルカメラが知られている。   2. Description of the Related Art In recent years, digital cameras that detect the face of a person in an imaging range and can recognize a person individually are known.

特開2006−72770号公報JP 2006-72770 A

例えば被写体を識別する識別器の精度が十分でなく被写体の識別を行うことができない場合があった。   For example, the classifier that identifies the subject is not accurate enough to identify the subject.

本発明の目的は、被写体の識別精度が向上する画像処理装置及びそれを備えた撮像装置並びに画像処理プログラムを提供することにある。   An object of the present invention is to provide an image processing apparatus that improves the identification accuracy of a subject, an imaging apparatus including the image processing apparatus, and an image processing program.

上記目的を達成するために、本発明の一態様による画像処理装置は、撮像部によって撮像されたスルー画像に含まれる被写体の識別レベルを判定する判定部と、判定部によって識別レベルが所定基準を満たしていると判定された場合、被写体を識別するための識別情報と撮像部によって撮像された被写体を含む撮像画像とを関連付ける関連付け部とを備えることを特徴とする。
また、上記目的を達成するために、本発明の一態様による画像処理装置は、連続して撮像された一連の撮像画像に写る被写体の識別レベルを判定する判定部と、判定部によって識別レベルが所定基準を満たしていると判定された場合、被写体を識別するための識別情報と、一連の撮像画像のうちから選択された撮像画像とを関連付ける関連付け部とを備えることを特徴とする。
また、上記目的を達成するために、本発明の一態様による撮像装置は、被写体を撮像し、画像データを出力する撮像部と、撮像部によって出力された画像データに基づくライブビュー画像を表示する表示部と、撮像部による被写体の撮像を行うための入力部と、入力部による入力に基づいて撮像された被写体を含む画像と、被写体を含むライブビュー画像とを関連付ける関連付け部とを備えることを特徴とする。
また、上記目的を達成するために、本発明の一態様による画像処理プログラムは、スルー画像に写る被写体の識別レベルを判定部に判定させる処理と、判定部によって識別レベルが所定基準を満たしていると判定された場合、被写体を識別するための識別情報と被写体が撮像された撮像画像とを関連付け部に関連付けさせる処理とをコンピュータに実行させることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes a determination unit that determines an identification level of a subject included in a through image captured by an imaging unit, and an identification level that satisfies a predetermined reference by the determination unit. When it determines with satisfy | filling, it is provided with the correlation part which associates the identification information for identifying a to-be-photographed object, and the picked-up image containing the to-be-photographed object imaged by the imaging part.
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes a determination unit that determines an identification level of a subject that appears in a series of captured images that are continuously captured, and an identification level that is determined by the determination unit. When it is determined that the predetermined criterion is satisfied, the information processing apparatus includes an association unit that associates identification information for identifying a subject and a captured image selected from a series of captured images.
In order to achieve the above object, an imaging device according to one embodiment of the present invention images an object, outputs an image data, and displays a live view image based on the image data output by the imaging unit. A display unit; an input unit for capturing an image of the subject by the imaging unit; and an association unit that associates an image including the object imaged based on an input from the input unit and a live view image including the object. Features.
In order to achieve the above object, an image processing program according to an aspect of the present invention includes a process for causing a determination unit to determine the identification level of a subject in a through image, and the determination unit satisfies a predetermined level. When the determination is made, the computer is caused to execute processing for associating the identification information for identifying the subject and the captured image obtained by capturing the subject with the associating unit.

本発明によれば、被写体の識別精度が向上する。   According to the present invention, subject identification accuracy is improved.

本発明の一実施形態による撮像装置としてのカメラ10のシステム構成図である。1 is a system configuration diagram of a camera 10 as an imaging apparatus according to an embodiment of the present invention. 本発明の一実施形態による撮像装置としてのカメラ10に備えられた判定部44の機能ブロック図である。It is a functional block diagram of the determination part 44 with which the camera 10 as an imaging device by one Embodiment of this invention was equipped. 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of operation | movement of the image processing apparatus by one Embodiment of this invention, and an imaging device provided with the same. 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作のうちのスコア判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the score determination process among the operation | movement of the image processing apparatus by one Embodiment of this invention, and an imaging device provided with the same. 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作のうちの対象部位関連付け処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the object site | part correlation process among the operation | movement of the image processing apparatus by one Embodiment of this invention, and an imaging device provided with the same. 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作を模式的に示す図(その1)である。FIG. 3 is a diagram (part 1) schematically illustrating an operation of the image processing device and the imaging device including the image processing device according to the embodiment of the present invention. 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作を模式的に示す図(その2)である。FIG. 6 is a diagram (part 2) schematically illustrating the operation of the image processing device according to the embodiment of the present invention and the imaging device including the image processing device. 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作を模式的に示す図(その3)である。FIG. 6 is a diagram (part 3) schematically illustrating the operation of the image processing device and the imaging device including the image processing device according to the embodiment of the present invention; 本発明の一実施形態による画像処理装置及びそれを備えた撮像装置の動作を模式的に示す図(その4)である。It is FIG. (4) which shows typically operation | movement of the image processing apparatus by one Embodiment of this invention, and an imaging device provided with the same. 本発明の一実施形態の変形例による画像処理装置及びそれを備えた撮像装置の動作のうち、スコア判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a score determination process among operation | movement of the image processing apparatus by the modification of one Embodiment of this invention, and an imaging device provided with the same. 本発明の一実施形態の変形例におけるスルー画像に基づくスコア判定処理のうちの付加情報関連処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the additional information relevant process of the score determination processes based on the through image in the modification of one Embodiment of this invention. 本発明の一実施形態の変形例による画像処理装置及びそれを備えた撮像装置の動作のうち、対象部位関連付け処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an object site | part correlation process among operation | movement of the image processing apparatus by the modification of one Embodiment of this invention, and an imaging device provided with the same.

本発明の一実施形態による画像処理装置及びそれを備えた撮像装置並びにプログラムについて図1から図10を用いて説明する。本実施形態では、撮像装置としてカメラを例にとって説明する。本実施形態による撮像装置は、カメラに限られず、撮像素子を備えていれば例えば携帯電話機やスマートフォン、あるいはノートブック型パーソナルコンピュータなどの携帯型電子機器であってもよい。
まず、本実施形態によるカメラ10の概略構成について図1及び図2を用いて説明する。詳細は後述するが、本実施形態による画像処理装置、それを備えた撮像装置及びプログラムは、スルー画像に写る被写体を追尾しながら、識別レベルが最高レベルであると判定した被写体の識別情報を、当該被写体が撮像された撮像画像に基づく画像ファイルと関連付けて記憶するように構成されている。
An image processing apparatus, an imaging apparatus including the image processing apparatus, and a program according to an embodiment of the present invention will be described with reference to FIGS. In the present embodiment, a camera will be described as an example of the imaging apparatus. The imaging apparatus according to the present embodiment is not limited to a camera, and may be a portable electronic device such as a mobile phone, a smartphone, or a notebook personal computer as long as the imaging device is provided.
First, a schematic configuration of the camera 10 according to the present embodiment will be described with reference to FIGS. 1 and 2. Although details will be described later, the image processing apparatus according to the present embodiment, the imaging apparatus and the program provided with the image processing apparatus track identification information of the subject that is determined to have the highest identification level while tracking the subject in the through image. The subject is stored in association with an image file based on a captured image obtained by capturing the subject.

図1は、本実施形態による撮像装置としてのカメラ10のシステム構成図である。図1に示すように、カメラ10は、システム制御部11と、システムメモリ12と、光学系20と、撮像素子(撮像部)31と、アナログ/デジタル(以下、「A/D」と略記する)変換器32と、内部メモリ33と、画像処理部(画像処理装置)34と、表示制御部36と、表示部37と、記録媒体インタフェース38(以下、インタフェースを「IF」と略記する)と、操作部材39と、レンズ制御部41と、露光制御部42と、判定部44と、記録媒体50とを有している。システム制御部11、A/D変換器32、内部メモリ33、画像処理部34、表示制御部36、記録媒体IF38及び判定部44は、バスライン40にそれぞれ接続されている。所定の制御信号や所定の画像データなどは、バスライン40を介してシステム制御部11、A/D変換器32、内部メモリ33、画像処理部34、表示制御部36、記録媒体IF38及び判定部44間を送受信されるようになっている。   FIG. 1 is a system configuration diagram of a camera 10 as an imaging apparatus according to the present embodiment. As shown in FIG. 1, the camera 10 is abbreviated as a system control unit 11, a system memory 12, an optical system 20, an image sensor (imaging unit) 31, and analog / digital (hereinafter, “A / D”). ) Converter 32, internal memory 33, image processing unit (image processing device) 34, display control unit 36, display unit 37, and recording medium interface 38 (hereinafter, the interface is abbreviated as “IF”). , An operation member 39, a lens control unit 41, an exposure control unit 42, a determination unit 44, and a recording medium 50. The system control unit 11, the A / D converter 32, the internal memory 33, the image processing unit 34, the display control unit 36, the recording medium IF 38, and the determination unit 44 are connected to the bus line 40, respectively. The predetermined control signal, the predetermined image data, and the like are sent via the bus line 40 to the system control unit 11, the A / D converter 32, the internal memory 33, the image processing unit 34, the display control unit 36, the recording medium IF 38, and the determination unit. 44 can be transmitted and received.

システム制御部11は、カメラ10を構成する各要素を直接的または間接的に制御する。システム制御部11は、システムメモリ12と通信する。システムメモリ12は、電気的に消去・記録可能な不揮発性メモリである。システムメモリ12は、例えばElectrically Erasable Programmable Read-Only Memory(EEPROM(登録商標))等により構成される。システムメモリ12は、カメラ10の動作時に必要な定数、変数、設定値、プログラム等がカメラ10の非動作時にも失われないように記録している。   The system control unit 11 directly or indirectly controls each element constituting the camera 10. The system control unit 11 communicates with the system memory 12. The system memory 12 is an electrically erasable / recordable nonvolatile memory. The system memory 12 is configured by, for example, Electrically Erasable Programmable Read-Only Memory (EEPROM (registered trademark)). The system memory 12 records constants, variables, setting values, programs, and the like necessary when the camera 10 is operating so that they are not lost even when the camera 10 is not operating.

光学系20は、ズームレンズ、フォーカスレンズ及び手振れ補正レンズ等を含むレンズ群21と、シャッタ22とを有している。被写体像は、図中に破線矢印で示す光軸に沿って光学系20に入射し、レンズ群21及びシャッタ22を介して、撮像素子31の結像面に結像する。   The optical system 20 includes a lens group 21 including a zoom lens, a focus lens, a camera shake correction lens, and the like, and a shutter 22. The subject image enters the optical system 20 along the optical axis indicated by the broken-line arrow in the drawing, and forms an image on the imaging surface of the image sensor 31 via the lens group 21 and the shutter 22.

撮像素子31は、光学系20を透過して入射する被写体像である光学像を光電変換する素子である。撮像素子31として、例えば、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal-Oxide Semiconductor)センサが用いられる。撮像素子31で光電変換された被写体像は、A/D変換器32でアナログ信号からデジタル信号に変換される。   The imaging element 31 is an element that photoelectrically converts an optical image that is a subject image that is transmitted through the optical system 20 and is incident thereon. For example, a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) sensor is used as the imaging element 31. The subject image photoelectrically converted by the image sensor 31 is converted from an analog signal to a digital signal by the A / D converter 32.

デジタル信号に変換された被写体像は、画像データとして順次処理される。A/D変換器32によりデジタル信号に変換された画像データは、一旦内部メモリ33に記憶される。内部メモリ33は、高速で読み書きのできるランダムアクセスメモリである。内部メモリ33として、例えばDRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)などが用いられる。内部メモリ33は、連写撮影や動画撮影において高速に連続して画像データが生成される場合に、画像処理の順番を待つバッファメモリとしての役割を担う。   The subject image converted into the digital signal is sequentially processed as image data. The image data converted into a digital signal by the A / D converter 32 is temporarily stored in the internal memory 33. The internal memory 33 is a random access memory that can be read and written at high speed. As the internal memory 33, for example, a DRAM (Dynamic Random Access Memory), an SRAM (Static Random Access Memory), or the like is used. The internal memory 33 serves as a buffer memory that waits for the order of image processing when image data is continuously generated at high speed in continuous shooting or moving image shooting.

内部メモリ33は、画像処理や圧縮処理を実行するワークメモリとしての役割を担う。また、内部メモリ33は、ワークメモリとしてのみでなく、目的に即して加工処理された画像データを一時的に保管する役割も担う。さらに、内部メモリ33において、システムメモリ12に記録されている定数、変数、設定値、プログラム等が適宜展開されて、カメラ10の制御に利用される。したがって、内部メモリ33は、画像処理部34の役割を担うに相当する十分なメモリ容量を備える。システム制御部11は、メモリ制御部としての役割を担い、いかなる作業にどれくらいのメモリ容量を内部メモリ33に割り当てるかを制御する。   The internal memory 33 serves as a work memory that executes image processing and compression processing. Further, the internal memory 33 not only serves as a work memory, but also serves to temporarily store image data processed according to the purpose. Further, constants, variables, setting values, programs, and the like recorded in the system memory 12 are appropriately developed in the internal memory 33 and used for controlling the camera 10. Therefore, the internal memory 33 has a sufficient memory capacity corresponding to the role of the image processing unit 34. The system control unit 11 serves as a memory control unit, and controls how much memory capacity is allocated to the internal memory 33 for what kind of work.

画像処理部34は、設定されている撮影モード、ユーザからの指示に則して、画像データを特定の画像フォーマットに従った画像ファイルに変換する。例えば、静止画像としてJPEG(Joint Photographic Experts Group)ファイルを生成する場合、色変換処理、ガンマ処理、ホワイトバランス処理等の画像処理を行った後に適応離散コサイン変換等を施して圧縮処理を行う。また、動画像としてMPEG(Moving Picture Experts Group)ファイルを生成する場合、所定の画素数に縮小されて生成された連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化を施して圧縮処理を行う。   The image processing unit 34 converts the image data into an image file according to a specific image format in accordance with the set shooting mode and an instruction from the user. For example, when a JPEG (Joint Photographic Experts Group) file is generated as a still image, after performing image processing such as color conversion processing, gamma processing, and white balance processing, adaptive discrete cosine transformation is performed to perform compression processing. In addition, when generating a moving picture experts group (MPEG) file as a moving image, intra-frame encoding and inter-frame encoding are performed on frame images as continuous still images generated by reducing the number of pixels to a predetermined number of pixels. To perform compression processing.

画像処理部34によって処理された静止画像ファイル及び動画像ファイルは、内部メモリ33から記録媒体IF38を介して、記録媒体50に記録される。記録媒体50は、フラッシュメモリ等により構成される。記録媒体50は、カメラ10に対して着脱可能な不揮発性メモリである。ただし、記録媒体50は、着脱式に限らず、カメラ10に内蔵される例えばSSD(Solid State Drive)などの記録媒体であってもよい。記録媒体50がカメラ10に内蔵されている場合には、記録媒体50に記録された静止画像ファイルや動画像ファイルは、有線(例えば、USB(Universal Serial Bus))や無線(例えば、無線LAN(Local Area Network))により外部へ出力される。   The still image file and the moving image file processed by the image processing unit 34 are recorded on the recording medium 50 from the internal memory 33 via the recording medium IF 38. The recording medium 50 is configured by a flash memory or the like. The recording medium 50 is a nonvolatile memory that can be attached to and detached from the camera 10. However, the recording medium 50 is not limited to a removable type, and may be a recording medium such as an SSD (Solid State Drive) built in the camera 10. When the recording medium 50 is built in the camera 10, the still image file and the moving image file recorded on the recording medium 50 are wired (for example, USB (Universal Serial Bus)) or wireless (for example, wireless LAN ( Local Area Network)).

画像処理部34は、半透過処理、合成処理、クロップ処理、マッチング処理等の、画像処理全般に関わる処理を実行する。また、画像処理部34は、記録用に処理する画像データに並行して、あるいは先行して、表示用画像データを生成する。通常の表示用画像データは、撮像素子から送られてくる画像データをコピーして間引き処理された、画素数の少ない画像データである。
詳細は後述するが、画像処理部34は、検出した被写体の識別情報を画像ファイルと関連付ける関連付け部として役割を担うようになっている。
The image processing unit 34 executes processes related to the entire image processing such as translucent processing, composition processing, crop processing, matching processing, and the like. Further, the image processing unit 34 generates display image data in parallel with or in advance of the image data to be processed for recording. The normal display image data is image data with a small number of pixels, which is obtained by copying and thinning image data sent from the image sensor.
As will be described in detail later, the image processing unit 34 plays a role as an associating unit for associating detected subject identification information with an image file.

表示部37は、例えば液晶表示パネルを備えた液晶ディスプレイユニットである。表示部37は、表示制御部36が出力するRGB(Red、Green、Blue)信号及び輝度調整信号を受信し、受信したRGB信号及び輝度調整信号から表示用画像データを生成する。   The display unit 37 is a liquid crystal display unit including a liquid crystal display panel, for example. The display unit 37 receives RGB (Red, Green, Blue) signals and luminance adjustment signals output from the display control unit 36, and generates display image data from the received RGB signals and luminance adjustment signals.

記録の有無に関わらず、画像処理部34が撮像素子31の出力に従って逐次表示用画像データを生成して表示部37へ出力すれば、スルー画(詳細は後述する)としてのライブビュー表示が実現される。これにより、表示部37は、静止画および動画撮影後の再生表示、撮影前および動画撮影中のライブビュー表示を実現することができる。   Regardless of the presence or absence of recording, if the image processing unit 34 sequentially generates image data for display according to the output of the image sensor 31 and outputs it to the display unit 37, a live view display as a through image (details will be described later) is realized. Is done. Thereby, the display unit 37 can realize playback display after shooting a still image and a moving image, and live view display before shooting and during moving image shooting.

また、表示制御部36は、表示する画像データに付随する情報、および、システムメモリ12に記録されたメニュー画面等も、表示部37に単独で、あるいは表示画像に重畳して表示させることもできる。   Further, the display control unit 36 can also display the information accompanying the image data to be displayed and the menu screen recorded in the system memory 12 on the display unit 37 alone or superimposed on the display image. .

詳細は図2を用いて後述するが、判定部44は、スルー画像に写る被写体を追尾しながら、検出した被写体が所望の対象として検出される識別レベルを判定するようになっている。   Although details will be described later with reference to FIG. 2, the determination unit 44 determines the identification level at which the detected subject is detected as a desired target while tracking the subject in the through image.

操作部材39(入力部)は、使用者からの操作を受け付けるようになっている。システム制御部11は、操作部材39(入力部)が使用者に操作(入力)されたことを検知し、操作に応じた動作を実行する。また、操作部材39は、レリーズスイッチ39aと、スルー画像スイッチ39bとを有している。使用者は、レリーズスイッチ39aを操作することにより、システム制御部11に撮影準備動作および撮影動作を実行させ撮像画像の取得動作に移行する。なお、スルー画像スイッチ39bについては後述する。レリーズスイッチ39aが半押しされると、例えばオートフォーカスを行い、レリーズスイッチ39aが完全に押下されると撮像される。なお、半押し状態とは、レリーズスイッチ39aが通常ストロークの半分程度まで押し下げられた状態をいう。なお、本実施例ではレリーズスイッチ39aが完全に押下されると撮像される例で説明をするがそれに限らない。たとえば、使用者の声の入力に基づき撮像を行ってよい。取得された使用者の音声を解析し、解析された音声が撮像の指示を示す音声の場合(たとえば「撮影してください等」)に撮像を行ってもよい。   The operation member 39 (input unit) is adapted to receive an operation from the user. The system control unit 11 detects that the operation member 39 (input unit) is operated (input) by the user, and executes an operation corresponding to the operation. The operation member 39 includes a release switch 39a and a through image switch 39b. The user operates the release switch 39a to cause the system control unit 11 to execute a shooting preparation operation and a shooting operation, and shifts to a captured image acquisition operation. The through image switch 39b will be described later. When the release switch 39a is half-pressed, for example, autofocus is performed, and when the release switch 39a is fully pressed, an image is taken. The half-pressed state refers to a state where the release switch 39a is pressed down to about half of the normal stroke. In the present embodiment, an example in which an image is captured when the release switch 39a is completely pressed will be described, but the present invention is not limited to this. For example, imaging may be performed based on the input of the user's voice. The acquired user's voice may be analyzed, and imaging may be performed when the analyzed voice is a voice indicating an imaging instruction (for example, “Please take a picture”).

レンズ群21に含まれるズームレンズ、フォーカスレンズ及び手振れ補正レンズはレンズ制御部41により制御される。ズームレンズ、フォーカスレンズ及び手振れ補正レンズは、被写体像の画角を変更し、被写体像の特定領域を撮像素子31の受光面上で合焦させ、手ぶれを打ち消して撮像素子31の受光面上で安定した結像状態を維持する。シャッタ22は露光制御部42により制御される。シャッタ22は、設定された絞り値およびシャッタ速度を実現する。絞り値、シャッタ速度及びISO(International Organization for Standardization)感度を含む露出値は、予備取得された画像データの輝度分布と予め設定されたプログラム線図とにより、システム制御部11により算出される。   The zoom lens, the focus lens, and the camera shake correction lens included in the lens group 21 are controlled by the lens control unit 41. The zoom lens, the focus lens, and the camera shake correction lens change the angle of view of the subject image, focus a specific area of the subject image on the light receiving surface of the image sensor 31, cancel out camera shake, and operate on the light receiving surface of the image sensor 31. A stable imaging state is maintained. The shutter 22 is controlled by the exposure control unit 42. The shutter 22 realizes the set aperture value and shutter speed. The exposure value including the aperture value, shutter speed, and ISO (International Organization for Standardization) sensitivity is calculated by the system control unit 11 based on the luminance distribution of the preliminarily acquired image data and a preset program diagram.

次に、判定部44の概略構成について図2を用いて説明する。図2は、判定部44の機能ブロック図である。図2には、判定部44とともに本実施形態による画像処理装置を構成する画像処理部34が図示されている。また、図2には、スルー画像などが記憶される内部メモリ33も図示されている。判定部44は、被写体が撮像範囲にフレームインしてからフレームアウトするまでに取得されたスルー画像に写る被写体の識別レベルを判定するようになっている。   Next, a schematic configuration of the determination unit 44 will be described with reference to FIG. FIG. 2 is a functional block diagram of the determination unit 44. FIG. 2 shows an image processing unit 34 that constitutes the image processing apparatus according to the present embodiment together with the determination unit 44. FIG. 2 also shows an internal memory 33 in which a through image is stored. The determination unit 44 determines the identification level of the subject that appears in the through image acquired from when the subject is framed into the imaging range until when the subject is out of frame.

ここで、スルー画像について説明する。スルー画像とは、特に限定されるものではないが、例えば、スルー画像スイッチ39bを押下することによって撮像される画像であってもよい。もしくは、スルー画像とは、システム制御部11による撮像指示前に取得するモニタに表示するための画像であってもよい。もしくは、スルー画像とは、特別な処理がない限り記録媒体50に記憶せず、内部メモリ33のみに記憶される画像であってもよい。もしくは、スルー画像とは、レリーズスイッチ39aを押下することにより撮像される撮像画像とは異なる画像であってもよい。なお、本実施例では、カメラ10のスルー画像として説明するがこれに限らず、携帯電話等の場合では、カメラを起動するためのアプリ等の選択に基づいてカメラモードに切り替わった場合に撮像される画像をスルー画像としてもよい。
カメラ10は、システム制御部11からの指示に基づいて、撮像素子31がスルー画像用の駆動制御を開始し、スルー画像の画像データを取得するようになっている。カメラ10は、スルー画像用の駆動制御を開始したら、スルー画像スイッチ39bの押下に基づくスルー画像の取得と、表示部37の表示画面での当該スルー画像の表示を繰り返すように構成されている。スルー画像の画像データは、システム制御部11の指示に基づいて、内部メモリ33に蓄積される。例えば、30フレーム/毎秒のフレームレートで取得されるスルー画像のうち、直近の所定フレーム数(例えば3フレーム分)のスルー画像のデータが内部メモリ33に上書き保存される。
Here, the through image will be described. The through image is not particularly limited. For example, the through image may be an image picked up by pressing the through image switch 39b. Alternatively, the through image may be an image to be displayed on a monitor acquired before the imaging instruction by the system control unit 11. Alternatively, the through image may be an image that is not stored in the recording medium 50 and stored only in the internal memory 33 unless there is a special process. Alternatively, the through image may be an image different from the captured image captured by pressing the release switch 39a. In this embodiment, the camera 10 is described as a through image. However, the present invention is not limited to this. In the case of a mobile phone or the like, the image is captured when the camera mode is switched based on the selection of an application or the like for starting the camera. The image may be a through image.
In the camera 10, the image sensor 31 starts driving control for a through image based on an instruction from the system control unit 11 and acquires image data of the through image. The camera 10 is configured to repeat acquisition of a through image based on pressing of the through image switch 39b and display of the through image on the display screen of the display unit 37 when driving control for the through image is started. The image data of the through image is stored in the internal memory 33 based on an instruction from the system control unit 11. For example, among the through images acquired at the frame rate of 30 frames / second, the data of the through images of the latest predetermined number of frames (for example, 3 frames) is overwritten and stored in the internal memory 33.

図2に示すように、判定部44は、検出部44aと、対象部位判定部44bと、記憶部(識別レベル記憶部の一例)44cと、レベル比較部44dと、識別関連情報生成部44eと、動体検出部44fと、バスライン44gとを有している。検出部44a、対象部位判定部44b、記憶部44c、レベル比較部44d、識別関連情報生成部44e及び動体検出部44fは、バスライン44gにそれぞれ接続されている。所定の制御信号やスルー画像などは、バスライン44gを介して検出部44a、対象部位判定部44b、記憶部44c、レベル比較部44d、識別関連情報生成部44e及び動体検出部44f間を送受信されるようになっている。   2, the determination unit 44 includes a detection unit 44a, a target part determination unit 44b, a storage unit (an example of an identification level storage unit) 44c, a level comparison unit 44d, and an identification related information generation unit 44e. The moving object detection unit 44f and the bus line 44g are provided. The detection unit 44a, the target part determination unit 44b, the storage unit 44c, the level comparison unit 44d, the identification related information generation unit 44e, and the moving object detection unit 44f are connected to the bus line 44g. A predetermined control signal, a through image, and the like are transmitted and received between the detection unit 44a, the target part determination unit 44b, the storage unit 44c, the level comparison unit 44d, the identification related information generation unit 44e, and the moving object detection unit 44f via the bus line 44g. It has become so.

検出部44aは、スルー画像に写る被写体の識別レベルを判定するようになっている。より具体的には、検出部44aは、スルー画像に写る被写体の少なくとも一部の対象部位を検出するようになっている。本実施形態では、検出部44aは、被写体として例えば人物を検出し、対象部位として当該人物の一部である顔を検出する。検出部44aは、検出した対象部位の画像データを対象部位判定部44b及び動体検出部44fに送信する。   The detection unit 44a determines the identification level of the subject appearing in the through image. More specifically, the detection unit 44a detects at least a part of the target portion of the subject that appears in the through image. In the present embodiment, the detection unit 44a detects, for example, a person as a subject, and detects a face that is a part of the person as a target part. The detection unit 44a transmits the detected image data of the target part to the target part determination unit 44b and the moving object detection unit 44f.

対象部位判定部44bは、検出部44aから送信された対象部位の画像データを取得する。対象部位判定部44bは、検出部44aによって検出された対象部位が所望の対象として識別されているのかの識別レベルを判定するようになっている。当該所望の対象とは、対象部位判定部44bにおいて予め設定されている検出対象をいう。後述する記憶部44cには、所望の対象から抽出し、送信された対象部位の識別レベルの判定に用いる判定用パラメータが記憶されている。本実施形態では、記憶部44cには、所望の対象として人物の正面顔の画像データから抽出された判定用パラメータが記憶されている。判定用パラメータは正面顔を示すパラメータである。判定用パラメータ及び後述する比較用パラメータは、例えば、輝度情報やエッジ情報、これらの情報に関する統計学的データ、対象部位検出のために特徴を際立たせるアルゴリズムにおける設定要素、などから構成される。   The target part determination unit 44b acquires the image data of the target part transmitted from the detection unit 44a. The target part determination unit 44b is configured to determine an identification level as to whether the target part detected by the detection unit 44a is identified as a desired target. The desired target refers to a detection target set in advance in the target part determination unit 44b. The storage unit 44c, which will be described later, stores determination parameters that are extracted from a desired target and used to determine the identification level of the transmitted target part. In the present embodiment, the storage unit 44c stores determination parameters extracted from image data of a person's front face as a desired target. The determination parameter is a parameter indicating the front face. The determination parameter and the comparison parameter to be described later include, for example, luminance information and edge information, statistical data regarding the information, setting elements in an algorithm that highlights features for detecting a target part, and the like.

対象部位判定部44bは、検出部44aから対象部位の画像データが送信されると、判定用パラメータと比較するための比較用パラメータを対象部位から抽出する。対象部位判定部44bは、所望の対象に基づく判定用パラメータを記憶部44cから読み出し、両パラメータを比較して一致度を判定する。記憶部44cには、一致度が高い程値が高くなるスコアが記憶されている。対象部位判定部44bは、当該スコアの値に基づいて識別レベルを判定する。対象部位判定部44bは、両パラメータの比較結果に基づく識別レベルを後述するレベル比較部44dに送信する。   When the image data of the target part is transmitted from the detection unit 44a, the target part determination unit 44b extracts a comparison parameter for comparison with the determination parameter from the target part. The target part determination unit 44b reads a determination parameter based on a desired target from the storage unit 44c, compares both parameters, and determines the degree of coincidence. The storage unit 44c stores a score that increases as the matching degree increases. The target part determination unit 44b determines the identification level based on the score value. The target part determination unit 44b transmits an identification level based on the comparison result of both parameters to the level comparison unit 44d described later.

上述のとおり、記憶部44cは、対象部位の識別レベルの判定に用いる判定用パラメータと、識別レベルの判定に用いるスコアとを記憶している。記憶部44cは、被写体がフレームインしてからフレームアウトするまでの間で、レベル比較部44dが被写体の識別レベルを過去最高であると判定するたびに、記憶している識別レベルを更新するようになっている。最新の識別レベルが過去最高レベルである場合に、識別関連情報生成部44eが最高の識別レベルを含む識別関連情報を生成して記憶部44cに送信するようになっている(詳細は後述する)。このため、記憶部44cには、過去最高の識別レベルが常に記憶される。取得したスルー画像や撮像画像から検出される対象部位の数は、新たに被写体がフレームインしたり追尾中の被写体がフレームアウトしたりすることにより変化する場合がある。このため、判定部44は、取得したスルー画像や撮像画像から対象部位の検出、識別レベル判定及び最高レベル判定後の識別関連情報の記憶数を記憶部44cに記憶するようになっている。   As described above, the storage unit 44c stores the determination parameter used for determining the identification level of the target part and the score used for determining the identification level. The storage unit 44c updates the stored identification level every time the level comparison unit 44d determines that the identification level of the subject is the highest in the past from when the subject is framed in to when the subject is out of frame. It has become. When the latest identification level is the highest level in the past, the identification related information generation unit 44e generates identification related information including the highest identification level and transmits it to the storage unit 44c (details will be described later). . For this reason, the highest identification level in the past is always stored in the storage unit 44c. The number of target parts detected from an acquired through image or captured image may change when a subject is newly framed in or a tracked subject is framed out. For this reason, the determination unit 44 stores the number of identification-related information stored after detection of the target part, identification level determination, and maximum level determination from the acquired through image or captured image in the storage unit 44c.

レベル比較部44dは、検出部44aが検出した被写体の識別レベルが所定基準を満たしているか判定するようになっている。本実施形態では、識別レベルが過去最高レベルである場合に所定基準を満たしている判定される。なお、所定基準を満たす条件は、これに限られず、例えば識別レベルが所定レベル以上の場合に所定基準が満たされていると判定されるようになっていてもよい。もしくは、記憶部44cに記憶されている識別レベルの方が新たに取得された識別レベルよりも値が大きい場合でも、記憶部44cに記憶されている識別レベルが記憶された時間から所定時間以上経過している場合には、記憶部44cに記憶されている識別レベルに対して識別レベルが小さくなるような重みづけを行い、重みづけを行った識別レベルと新たに取得された識別レベルとを比較し、新たに取得された識別レベルの方が値が大きい場合は、所定基準を満たすと判定してもよい。このような所定基準を設定することにより、新しい画像が記憶されやすくなる効果を奏する。
レベル比較部44dは、対象部位判定部44bから送信された最新の識別レベルを受信すると、記憶部44cに記憶されている識別関連情報に含まれる識別レベルである記憶識別レベルを読み出し、両識別レベルを比較するようになっている。最新の識別レベルは、対象部位判定部44bが直近に判定した対象部位の識別レベルである。レベル比較部44dは、最新識別レベルが記憶識別レベルよりも高いと判定すると、最新識別レベルが過去最高の識別レベルであると判定する。一方、レベル比較部44dは、最新識別レベルが記憶識別レベルよりも低いか同じであると判定すると、記憶部44cに現時点で記憶されている識別レベルが過去最高の識別レベルであると判定する。レベル比較部44dは、判定結果を識別関連情報生成部44eに送信する。
The level comparison unit 44d determines whether the subject identification level detected by the detection unit 44a satisfies a predetermined standard. In this embodiment, when the identification level is the highest level in the past, it is determined that the predetermined criterion is satisfied. The condition that satisfies the predetermined standard is not limited to this, and for example, it may be determined that the predetermined standard is satisfied when the identification level is equal to or higher than the predetermined level. Alternatively, even when the identification level stored in the storage unit 44c has a larger value than the newly acquired identification level, a predetermined time or more has elapsed from the time when the identification level stored in the storage unit 44c is stored. If the identification level stored in the storage unit 44c is weighted such that the identification level becomes smaller, the weighted identification level is compared with the newly acquired identification level. However, when the newly acquired identification level has a larger value, it may be determined that the predetermined criterion is satisfied. By setting such a predetermined standard, there is an effect that a new image is easily stored.
When the level comparison unit 44d receives the latest identification level transmitted from the target part determination unit 44b, the level comparison unit 44d reads a storage identification level that is an identification level included in the identification-related information stored in the storage unit 44c. Are to be compared. The latest identification level is the identification level of the target part most recently determined by the target part determination unit 44b. If the level comparison unit 44d determines that the latest identification level is higher than the storage identification level, the level comparison unit 44d determines that the latest identification level is the highest identification level ever. On the other hand, when the level comparison unit 44d determines that the latest identification level is lower than or the same as the storage identification level, the level comparison unit 44d determines that the identification level currently stored in the storage unit 44c is the highest identification level in the past. The level comparison unit 44d transmits the determination result to the identification related information generation unit 44e.

識別関連情報生成部44eは、最新識別レベルが過去最高のレベルであることを示す情報をレベル比較部44dから受信すると、最新識別レベルと判定された対象部位の画像データと、当該識別レベル(例えばスコアの値)とを対応付けた識別関連情報を生成する。識別関連情報生成部44eは、生成した識別関連情報を記憶部44cに送信する。識別関連情報生成部44eは、生成した識別関連情報を、当該識別関連情報に含まれる最新識別レベルと比較された過去最高の識別レベルを含む識別関連情報に対応付けて記憶部44cに送信する。   When the identification-related information generating unit 44e receives information indicating that the latest identification level is the highest in the past from the level comparing unit 44d, the image data of the target part determined to be the latest identification level and the identification level (for example, Identification-related information in association with the score value) is generated. The identification related information generation unit 44e transmits the generated identification related information to the storage unit 44c. The identification-related information generation unit 44e transmits the generated identification-related information to the storage unit 44c in association with the identification-related information including the highest historical identification level compared with the latest identification level included in the identification-related information.

動体検出部44fは、取得したスルー画像と、記憶部44cに記憶された識別関連情報に含まれる画像データとから被写体が移動した方向を検出し、被写体の動きを追尾するようになっている。具体的には、動体検出部44fは、スルー画像を走査して、記憶部44cから取得した識別関連情報に含まれる画像データと同一または所定の一致度を有する画像データが当該スルー画像に含まれているか否かを判定しながら被写体の動きを追尾する。詳細は後述するが、動体検出部44fは、スコア関連処理において最高スコアの更新がなされなかった識別関連情報を記憶部44cから取得して、被写体を追尾中であるか否かを判定するようになっている。また、動体検出部44fは、被写体を追尾中でない(非追尾中)と判定した画像データを含む識別関連情報に、非追尾中という判定結果を対応付けてシステム制御部11に送信する。   The moving object detection unit 44f detects the direction of movement of the subject from the acquired through image and the image data included in the identification related information stored in the storage unit 44c, and tracks the movement of the subject. Specifically, the moving object detection unit 44f scans the through image, and the through image includes image data having the same or predetermined coincidence as the image data included in the identification-related information acquired from the storage unit 44c. The movement of the subject is tracked while determining whether or not it is. Although details will be described later, the moving object detection unit 44f obtains identification-related information from which the highest score has not been updated in the score-related processing from the storage unit 44c, and determines whether or not the subject is being tracked. It has become. In addition, the moving object detection unit 44f associates the determination result indicating non-tracking with the identification-related information including the image data determined to be not tracking the subject (not tracking), and transmits the identification result to the system control unit 11.

画像処理部34は、関連付け部としての役割を担うようになっている。関連付け部は、識別レベルが最高レベルの被写体の識別情報を、当該被写体が撮像された撮像画像に基づく画像ファイルと関連付けて記憶するようになっている。被写体の識別情報は例えば被写体の画像データである。より具体的には、被写体の識別情報は、被写体の少なくとも一部である対象部位の画像データである。本実施形態では、被写体は人物であり、対象部位は人物の顔である。このため、被写体の識別情報は、人物の顔の画像データである。なお、以下では対象部位を人物の顔で説明をするが、対象部位は人物の顔に限らず、手や足、顔の一部(目、鼻、口)でもよい。もちろん、その場合の被写体の識別情報は、手や足、顔の一部(目、鼻、口)の画像データとなる。また、複数の対象部位を検出してもよく、複数の対象部位に対応した、複数の被写体の識別情報を当該被写体が撮像された撮像画像に基づく画像ファイルと関連付けて記憶してもよい。
画像処理部34は、最新に撮像された撮像画像の画像データに基づく画像ファイルを内部メモリ33から読み出し、当該画像ファイルに被写体の識別情報を関連付けるようになっている。記憶部44cは、最高識別レベルの被写体の識別情報を記憶している。このため、画像処理部34は、現時点で最高の識別レベルの被写体の識別情報を画像ファイルと関連付けることができる。
The image processing unit 34 plays a role as an association unit. The associating unit stores identification information of a subject having the highest identification level in association with an image file based on a captured image obtained by capturing the subject. The subject identification information is, for example, subject image data. More specifically, the subject identification information is image data of a target part that is at least a part of the subject. In the present embodiment, the subject is a person, and the target part is a person's face. For this reason, the subject identification information is image data of a person's face. In the following description, the target part is described as a person's face, but the target part is not limited to a person's face, and may be a hand, a foot, or a part of the face (eyes, nose, mouth). Of course, the subject identification information in this case is image data of a part of the hand, foot, or face (eyes, nose, mouth). In addition, a plurality of target parts may be detected, and identification information of a plurality of subjects corresponding to the plurality of target parts may be stored in association with an image file based on a captured image obtained by capturing the subject.
The image processing unit 34 reads an image file based on the image data of the latest captured image from the internal memory 33, and associates identification information of the subject with the image file. The storage unit 44c stores identification information of the subject with the highest identification level. Therefore, the image processing unit 34 can associate the identification information of the subject with the highest identification level at the present time with the image file.

画像ファイルのファイルフォーマットが例えばExif(Exchangeable image file format)の場合、画像ファイルのヘッダ部分に当該識別情報が記憶される。
画像処理部34は、被写体の識別情報を関連付けて記憶した画像ファイルを内部メモリ33又は記録媒体50に送信するようになっている。
When the file format of the image file is, for example, Exif (Exchangeable image file format), the identification information is stored in the header portion of the image file.
The image processing unit 34 is configured to transmit an image file stored in association with subject identification information to the internal memory 33 or the recording medium 50.

次に、本実施形態による画像処理装置及びそれを備えた撮像装置の動作について、図1及び図2を参照しつつ図3から図9を用いて説明する。図3は、カメラ10において実行されるスルー画像から検出された対象部位のスコア判定処理(以下、「スコア判定処理」または「スルー画像に基づくスコア判定処理」と称する場合がある)の流れの一例を示すフローチャートである。本実施形態では、カメラ10に備えられたシステム制御部11の制御の下に、システム制御部11、判定部44、画像処理部34及び内部メモリ33のいずれかが図3に示すスコア判定処理の各ステップを実行するようになっている。また、本実施形態におけるスコア判定処理は、例えばカメラ10の使用者が本スコア判定処理の実行を選択することにより開始し、本スコア判定処理の実行を非選択とすることにより終了する。   Next, operations of the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus will be described with reference to FIGS. 3 to 9 with reference to FIGS. FIG. 3 shows an example of the flow of a score determination process (hereinafter, referred to as “score determination process” or “score determination process based on a through image”) of a target part detected from a through image executed by the camera 10. It is a flowchart which shows. In the present embodiment, any one of the system control unit 11, the determination unit 44, the image processing unit 34, and the internal memory 33 performs the score determination process illustrated in FIG. 3 under the control of the system control unit 11 provided in the camera 10. Each step is to be executed. Moreover, the score determination process in this embodiment is started, for example, when the user of the camera 10 selects the execution of the main score determination process, and is ended by deselecting the execution of the main score determination process.

本実施形態では、カメラ10の使用者がスルー画像に基づくスコア判定処理の実行を選択し、かつスルー画像スイッチ39bの押下を契機に図3に示すスコア判定処理が開始される。スコア判定処理が開始すると、まず、ステップS1において、スルー画像が内部メモリ33から読み出され、ステップS3に移行する。
具体的にステップS1では、システム制御部11は、操作部材39からスルー画像スイッチ39bの押下を示す検出信号を受信したと判定したら、内部メモリ33に記憶されているスルー画像のうちの最先に記憶されたスルー画像の読み出しを判定部44に指示する。システム制御部11の指示に基づいて、検出部44aは内部メモリ33から最先に記憶されたスルー画像を読み出す。
システム制御部11は、内部メモリ33からスルー画像を読み出したことを示す情報を検出部44aから受信すると、次のステップS3の処理に進む。
In the present embodiment, the score determination process shown in FIG. 3 is started when the user of the camera 10 selects execution of the score determination process based on the through image and when the through image switch 39b is pressed. When the score determination process starts, first, in step S1, a through image is read from the internal memory 33, and the process proceeds to step S3.
Specifically, in step S <b> 1, when the system control unit 11 determines that a detection signal indicating that the through image switch 39 b is pressed has been received from the operation member 39, the system control unit 11 takes the first of the through images stored in the internal memory 33. The determination unit 44 is instructed to read the stored through image. Based on an instruction from the system control unit 11, the detection unit 44 a reads the through image stored first from the internal memory 33.
When the system control unit 11 receives information indicating that the through image has been read from the internal memory 33 from the detection unit 44a, the system control unit 11 proceeds to the next step S3.

本実施形態では、スルー画像スイッチ39bの押下を契機として、同一のスルー画像が1枚取得されて内部メモリ33に記憶されるようになっているが、これに限られない。スルー画像スイッチ39bの押下に基づいて、同一のスルー画像が2枚以上内部メモリ33に記憶されてもよい。これにより、カメラ10に何らかの不具合が生じて内部メモリ33に記憶された一のスルー画像が消去されてしまっても残りのスルー画像をバックアップ画像として用いることができる。   In the present embodiment, the same through image is acquired and stored in the internal memory 33 when the through image switch 39b is pressed. However, the present invention is not limited to this. Two or more identical through images may be stored in the internal memory 33 based on the pressing of the through image switch 39b. Thereby, even if some trouble occurs in the camera 10 and one through image stored in the internal memory 33 is deleted, the remaining through image can be used as a backup image.

ステップS3では、対象部位の検出処理が実行され、ステップS5に移行する。具体的にステップS3では、検出部44aは、所定大きさの検出領域をステップS1において内部メモリ33から読み出したスルー画像において例えば1画素ずつ右方又は下方にずらして当該スルー画像を走査する。検出部44aは、当該検出領域において対象部位を検出したら、検出した対象部位の画像データを対象部位判定部44bに送信する。また、検出部44aは、対象部位の画像データを対象部位判定部44bに送信する際に、当該画像データに検出順に連番を付す。
検出部44aは、対象部位判定部44bにおいて用いられるのと同様の判定用パラメータに基づいて対象部位を検出する。対象部位判定部44bにおいて用いられるのと同様の判定用パラメータを用いることにより、検出部44aにおける対象部位の検出と、対象部位判定部44bでの識別レベルの判定との間で矛盾が生じるのを防止できる。また、識別レベルを最低レベルに設定することにより、スルー画像内で対象部位の可能性のある多くの被写体を検出できる。また、検出領域の大きさを変更して対象部位を検出してもよい。
システム制御部11は、内部メモリ33から読み出したスルー画像の走査を終了したことを示す情報を検出部44aから受信すると、次のステップS5の処理に進む。
In step S3, the target part detection process is executed, and the process proceeds to step S5. Specifically, in step S3, the detection unit 44a scans the through image by shifting a detection area having a predetermined size from the internal memory 33 in step S1 to the right or below by, for example, one pixel at a time. When detecting the target part in the detection region, the detection unit 44a transmits image data of the detected target part to the target part determination unit 44b. In addition, when the detection unit 44a transmits the image data of the target part to the target part determination unit 44b, the detection unit 44a attaches a serial number to the image data in the order of detection.
The detection unit 44a detects the target site based on the same determination parameters as those used in the target site determination unit 44b. By using the same determination parameters as those used in the target part determination unit 44b, there is a contradiction between the detection of the target part in the detection unit 44a and the determination of the identification level in the target part determination unit 44b. Can be prevented. In addition, by setting the identification level to the lowest level, it is possible to detect a large number of subjects that may be target portions in the through image. Further, the target region may be detected by changing the size of the detection region.
When the system control unit 11 receives from the detection unit 44a information indicating that scanning of the through image read from the internal memory 33 has been completed, the system control unit 11 proceeds to the next step S5.

ステップS5では、対象部位のスコア判定が実行され、ステップS7に移行する。具体的にステップS5では、対象部位判定部44bは、検出部44aから送信された対象部位の画像データから順次(例えば画像データに付された番号順に)、比較用パラメータを抽出する。対象部位判定部44bは、抽出した当該比較用パラメータと、記憶部44cから読み出した判定用パラメータとを比較して対象部位の識別レベルを判定する。対象部位判定部44bは、記憶部44cから読み出した識別レベルの判定用スコアを参照し、判定用パラメータと比較用パラメータとの比較結果から識別レベルを示すスコアの値を求める。対象部位判定部44bは、識別レベルを判定した画像データ及び比較用パラメータと、取得したスコアの値とを関連づけたスコア情報をレベル比較部44dに送信する。
システム制御部11は、レベル比較部44dへのスコア情報の送信が完了したことを示す情報を対象部位判定部44bから受信すると、次のステップS7に進む。
In step S5, score determination of the target part is executed, and the process proceeds to step S7. Specifically, in step S5, the target part determination unit 44b extracts comparison parameters sequentially from the image data of the target part transmitted from the detection unit 44a (for example, in the order of numbers attached to the image data). The target part determination unit 44b determines the identification level of the target part by comparing the extracted comparison parameter with the determination parameter read from the storage unit 44c. The target part determination unit 44b refers to the identification level determination score read from the storage unit 44c, and obtains a score value indicating the identification level from the comparison result between the determination parameter and the comparison parameter. The target part determination unit 44b transmits score information in which the image data and the comparison parameter for which the identification level has been determined are associated with the acquired score value to the level comparison unit 44d.
When the system control unit 11 receives information indicating that transmission of score information to the level comparison unit 44d has been completed from the target part determination unit 44b, the system control unit 11 proceeds to the next step S7.

ステップS7では、今回のスコアの値が現時点での最高スコアの値よりも高いか否かが判定され、今回のスコアの値の方が高いと判定されたら(Yes)ステップS9に移行し、今回のスコアの値の方が低いと判定されたら(No)ステップS9を実行せずにステップS11に移行する。具体的にステップS7では、レベル比較部44dは、対象部位判定部44bから送信された最新の識別レベルを示すスコア(今回のスコア)の値を含むスコア情報を受信し、かつシステム制御部11から最高スコアの読み出しの指示を受けると、記憶部44cに記憶されている全ての識別関連情報を読み出す。記憶部44cは、過去最高スコアの値のみを記憶するようになっているので、記憶部44cから読み出た識別関連情報に含まれるスコアの値は現時点での最高スコアの値である。   In step S7, it is determined whether or not the current score value is higher than the current highest score value. If it is determined that the current score value is higher (Yes), the process proceeds to step S9. If it is determined that the score value is lower (No), the process proceeds to step S11 without executing step S9. Specifically, in step S <b> 7, the level comparison unit 44 d receives score information including a score (current score) indicating the latest identification level transmitted from the target part determination unit 44 b, and from the system control unit 11. When receiving the instruction to read the highest score, all the identification related information stored in the storage unit 44c is read. Since the storage unit 44c stores only the past highest score value, the score value included in the identification-related information read from the storage unit 44c is the highest score value at the present time.

レベル比較部44dは、取得した識別関連情報に含まれる画像データから比較パラメータを抽出する。レベル比較部44dは、取得した全ての識別関連情報から比較パラメータを抽出する。レベル比較部44dは、スコア情報に含まれ比較パラメータと最も一致する比較パラメータが抽出された識別関連情報を選択する。レベル比較部44dは、選択した識別関連情報に含まれる過去最高の識別レベルのスコアの値と、対象部位判定部44bから送信されたスコアの値とを比較し、今回のスコアが最高スコアと判定した場合に判定結果情報を識別関連情報生成部44eに送信する。当該判定結果情報には、両スコアの値の比較結果と、比較対象となったスコア情報及び識別関連情報とが含まれる。レベル比較部44dは、対象部位判定部44bから送信された全てのスコア情報について当該処理を実行する。   The level comparison unit 44d extracts a comparison parameter from the image data included in the acquired identification related information. The level comparison unit 44d extracts comparison parameters from all the acquired identification related information. The level comparison unit 44d selects the identification related information from which the comparison parameter that is included in the score information and most closely matches the comparison parameter is extracted. The level comparison unit 44d compares the highest identification level score value included in the selected identification-related information with the score value transmitted from the target part determination unit 44b, and determines that the current score is the highest score. In such a case, the determination result information is transmitted to the identification related information generation unit 44e. The determination result information includes a comparison result of the values of both scores, and score information and identification related information that are comparison targets. The level comparison unit 44d performs the process for all score information transmitted from the target part determination unit 44b.

システム制御部11は、判定結果情報を識別関連情報生成部44eに送信したこと示す情報をレベル比較部44dから受信すると、次のステップS9の処理に進む。一方、システム制御部11は、判定結果情報を識別関連情報生成部44eに送信しなかったことを示す情報をレベル比較部44dから受信すると、ステップS9の処理を実行せずにステップS11の処理に進む。   When the system control unit 11 receives information indicating that the determination result information has been transmitted to the identification related information generation unit 44e from the level comparison unit 44d, the system control unit 11 proceeds to the process of the next step S9. On the other hand, when the system control unit 11 receives information indicating that the determination result information has not been transmitted to the identification-related information generation unit 44e from the level comparison unit 44d, the system control unit 11 performs the process of step S11 without executing the process of step S9. move on.

ステップS9では、最高スコアの値及び識別関連情報が更新され、ステップS11に移行する。具体的にステップS9では、識別関連情報生成部44eは、システム制御部11の指示に基づいて、レベル比較部44dから送信された判定結果情報に含まれる、最高の識別レベルと判定された対象部位の画像データと、識別レベルを示すスコアの値とを対応付けた識別関連情報を最新の識別関連情報として生成する。識別関連情報生成部44eは、生成した最新の識別関連情報を、当該最新の識別関連情報の元になった判定結果情報に含まれていた識別関連情報に対応付けて記憶部44cに送信する。記憶部44cは、当該最新の識別関連情報に対応付けられた識別関連情報と同一であって所定の記憶領域にすでに記憶されている識別関連情報に、受信した当該最近の識別関連情報を上書きして更新する。識別関連情報生成部44e及び記憶部44cは、レベル比較部44dから送信された全ての判定結果情報について当該処理を実行する。
システム制御部11は、識別関連情報の更新が終了したことを示す情報を記憶部44cから受信すると、次のステップS11の処理に進む。
In step S9, the value of the highest score and the identification related information are updated, and the process proceeds to step S11. Specifically, in step S9, the identification related information generation unit 44e is based on the instruction from the system control unit 11, and the target part determined to be the highest identification level included in the determination result information transmitted from the level comparison unit 44d. The identification-related information in which the image data is associated with the score value indicating the identification level is generated as the latest identification-related information. The identification-related information generation unit 44e transmits the generated latest identification-related information to the storage unit 44c in association with the identification-related information included in the determination result information that is the basis of the latest identification-related information. The storage unit 44c overwrites the received recent identification-related information with the identification-related information that is the same as the identification-related information associated with the latest identification-related information and is already stored in the predetermined storage area. Update. The identification related information generation unit 44e and the storage unit 44c execute the processing for all the determination result information transmitted from the level comparison unit 44d.
When the system control unit 11 receives information indicating that the update of the identification related information has been completed from the storage unit 44c, the system control unit 11 proceeds to the next step S11.

ステップS11では、被写体の追尾処理が実行され、ステップS1の処理に戻る。ステップS11における被写体の追尾の対象は、記憶部44cに記憶され、ステップS9において最高スコアの更新が行われなかった識別関連情報(以下、「追尾対象情報」と称する場合がある)に含まれる画像データ(以下、「追尾対象画像データ」と称する場合がある)である。ステップS9において最高スコアの更新が行われた識別関連情報に含まれる画像データは、記憶部44cに記憶されていた識別関連情報に含まれる画像データとの対比によって実質的に動体検出がなされている。このため、ステップS9において最高スコアの更新が行われた識別関連情報に含まれる画像データは、ステップS11における被写体追尾の対象とならない。   In step S11, a subject tracking process is executed, and the process returns to step S1. The subject to be tracked in step S11 is stored in the storage unit 44c, and is included in the identification-related information (hereinafter sometimes referred to as “tracking target information”) for which the highest score has not been updated in step S9. Data (hereinafter, sometimes referred to as “tracking target image data”). In the image data included in the identification-related information for which the highest score has been updated in step S9, the moving object is substantially detected by comparison with the image data included in the identification-related information stored in the storage unit 44c. . For this reason, the image data included in the identification-related information for which the highest score has been updated in step S9 is not a subject tracking target in step S11.

具体的にステップS11では、動体検出部44fは、対象部位から被写体の動きを検出する動体検出により被写体を追尾する。動体検出部44fは、追尾対象情報を記憶部44cから読み出し、追尾対象情報に含まれる追尾対象画像データと、ステップS1で内部メモリ33から読み出されたスルー画像とを比較し、被写体を追尾中であるか否かを判定する。したがって、ステップS1で読み出されたスルー画像がスコア判定処理の開始後の最初のスルー画像である場合には、識別関連情報が記憶部44cに記憶されておらず、被写体を追尾できないので、スコア判定処理を終了しステップS13(図3参照)に移行する。一方、動体検出部44fは、ステップS1で内部メモリ33から読み出されたスルー画像が2枚目以降のスルー画像であり、追尾対象情報が記憶部44cに記憶されている場合には、当該追尾対象情報に含まれる追尾対象画像データを用いて被写体を追尾しているか否かを判定する。動体検出部44fは、追尾対象画像データに対応する画像データがスルー画像に存在すると判断すると、追尾対象部位の被写体を追尾中であると判定し、判定結果をシステム制御部11に送信する。一方、動体検出部44fは、追尾対象部位の画像データに対応する画像データが当該スルー画像に存在しないと判断すると、追尾対象部位の被写体を追尾中でない(非追尾中)と判定し、判定結果をシステム制御部11に送信する。
当該判定結果を受信したシステム制御部11は、非追尾中と判定された画像データに対応する被写体はフレームアウトしたと判定し、当該画像データを含む識別関連情報を記憶部44cから消去する。システム制御部11は、動体検出部44fから判定結果の送信終了の情報を受信し、かつ非追尾中と判定された画像データを含む識別関連情報の全てを記憶部44cから消去したら、ステップS1の処理に戻る。
カメラ10は、カメラ10の使用者がスコア判定処理を非実行とするか、レリーズスイッチ39aが押下されるまでステップS1からステップS11の処理を繰り返し実行する。
Specifically, in step S11, the moving object detection unit 44f tracks the subject by moving object detection that detects the movement of the subject from the target region. The moving object detection unit 44f reads the tracking target information from the storage unit 44c, compares the tracking target image data included in the tracking target information with the through image read from the internal memory 33 in step S1, and is tracking the subject. It is determined whether or not. Therefore, if the through image read in step S1 is the first through image after the start of the score determination process, the identification-related information is not stored in the storage unit 44c, and the subject cannot be tracked. The determination process ends and the process proceeds to step S13 (see FIG. 3). On the other hand, when the through image read from the internal memory 33 in step S1 is the second or later through image and the tracking target information is stored in the storage unit 44c, the moving object detection unit 44f performs the tracking. It is determined whether or not the subject is being tracked using the tracking target image data included in the target information. If the moving object detection unit 44f determines that the image data corresponding to the tracking target image data exists in the through image, the moving object detection unit 44f determines that the subject of the tracking target part is being tracked, and transmits the determination result to the system control unit 11. On the other hand, when determining that the image data corresponding to the image data of the tracking target part does not exist in the through image, the moving object detection unit 44f determines that the subject of the tracking target part is not being tracked (not tracking), and the determination result Is transmitted to the system control unit 11.
The system control unit 11 that has received the determination result determines that the subject corresponding to the image data determined to be non-tracking is out of the frame, and deletes the identification-related information including the image data from the storage unit 44c. When the system control unit 11 receives the information indicating the end of transmission of the determination result from the moving object detection unit 44f and erases all the identification related information including the image data determined to be non-tracking from the storage unit 44c, the system control unit 11 performs step S1. Return to processing.
The camera 10 repeatedly executes the processing from step S1 to step S11 until the user of the camera 10 does not execute the score determination processing or the release switch 39a is pressed.

図4は、カメラ10において実行される撮像画像に対象部位を関連付ける対象部位関連付け処理の流れの一例を示すフローチャートである。本実施形態では、カメラ10に備えられたシステム制御部11の制御の下に、システム制御部11、判定部44、画像処理部34及び内部メモリ33のいずれかが図4に示す対象部位関連付け処理の各ステップを実行するようになっている。図4に示す対象部位関連付け処理は、カメラ10の使用者がレリーズスイッチ39aを押下したことを契機に開始される。   FIG. 4 is a flowchart illustrating an example of a target part association process for associating a target part with a captured image executed by the camera 10. In the present embodiment, under the control of the system control unit 11 provided in the camera 10, any of the system control unit 11, the determination unit 44, the image processing unit 34, and the internal memory 33 is the target part association process illustrated in FIG. 4. Each step is executed. The target part association process shown in FIG. 4 is started when the user of the camera 10 presses the release switch 39a.

図4に示すように、レリーズスイッチ39aの押下を契機に対象部位関連付け処理が開始すると、まず、ステップS31において、システム制御部11は、スルー画像に基づくスコア判定処理、すなわち図3に示す処理が実行中であるか否かを判定し、スコア判定処理が実行中であると判定するとステップS33に移行し、当該判定処理を実行中でないと判定するとステップS33を実行せずにステップS35に移行する。   As shown in FIG. 4, when the target part association process starts when the release switch 39a is pressed, first, in step S31, the system control unit 11 performs the score determination process based on the through image, that is, the process shown in FIG. If it is determined whether or not the score determination process is being performed, the process proceeds to step S33. If it is determined that the determination process is not being performed, the process proceeds to step S35 without executing step S33. .

ステップS33では、システム制御部11は、スルー画像に基づくスコア判定処理を中断してステップS35に移行する。なお、図3に示すスコア判定処理は、即時中断するのではなく、内部メモリ33に記憶されている全てのスルー画像に対するスコア判定処理が終了した時点で中断されてもよい。   In step S33, the system control unit 11 interrupts the score determination process based on the through image, and proceeds to step S35. Note that the score determination process shown in FIG. 3 is not interrupted immediately, but may be interrupted when the score determination process for all through images stored in the internal memory 33 is completed.

ステップS35では、撮像画像が内部メモリ33から読み出され、ステップS37に移行する。具体的にステップS35では、システム制御部11は、操作部材39からレリーズスイッチ39aの押下により取得され、内部メモリ33に記憶されている撮像画像の読み出しを判定部44に指示する。システム制御部11の指示に基づいて、検出部44aは内部メモリ33から撮像画像を読み出す。
システム制御部11は、内部メモリ33から撮像画像を読み出したことを示す情報を検出部44aから受信すると、次のステップS37の処理に進む。
In step S35, the captured image is read from the internal memory 33, and the process proceeds to step S37. Specifically, in step S <b> 35, the system control unit 11 instructs the determination unit 44 to read the captured image acquired from the operation member 39 by pressing the release switch 39 a and stored in the internal memory 33. Based on an instruction from the system control unit 11, the detection unit 44 a reads a captured image from the internal memory 33.
Upon receiving information indicating that the captured image has been read from the internal memory 33 from the detection unit 44a, the system control unit 11 proceeds to the next step S37.

ステップS37では、対象部位の検出処理が実行され、ステップS41に移行する。ステップS37における処理は、処理対象がスルー画像ではなく撮像画像である点を除いて、ステップS3における処理と同様であるため、説明は省略する。   In step S37, the target part detection process is executed, and the process proceeds to step S41. The process in step S37 is the same as the process in step S3 except that the processing target is a captured image instead of a through image, and thus description thereof is omitted.

ステップS39では、対象部位のスコア判定が実行され、ステップS41に移行する。ステップS39における処理は、処理対象がスルー画像ではなく撮像画像である点を除いて、ステップS5における処理と同様であるため、説明は省略する。   In step S39, the target site score is determined, and the process proceeds to step S41. Since the process in step S39 is the same as the process in step S5 except that the processing target is a captured image instead of a through image, description thereof is omitted.

ステップS41では、今回のスコアの値が現時点での最高スコアの値よりも高いか否かが判定され、今回のスコアの値の方が高いと判定されたら(Yes)ステップS43に移行し、今回のスコアの値の方が低いと判定されたら(No)ステップS43を実行せずにステップS45に移行する。ステップS41における処理は、処理対象がスルー画像ではなく撮像画像である点を除いて、ステップS7における処理と同様であるため、説明は省略する。   In step S41, it is determined whether or not the current score value is higher than the current highest score value. If it is determined that the current score value is higher (Yes), the process proceeds to step S43. If it is determined that the score value is lower (No), the process proceeds to step S45 without executing step S43. The processing in step S41 is the same as the processing in step S7 except that the processing target is a captured image instead of a through image, and thus description thereof is omitted.

ステップS43では、最高スコアの値及び識別関連情報が更新され、ステップS45に移行する。ステップS43における処理は、処理対象がスルー画像ではなく撮像画像である点を除いて、ステップS9における処理と同様であるため、説明は省略する。   In step S43, the value of the highest score and the identification related information are updated, and the process proceeds to step S45. The processing in step S43 is the same as the processing in step S9 except that the processing target is a captured image instead of a through image, and thus description thereof is omitted.

ステップS45では、被写体の追尾処理が実行され、ステップS47に移行する。ステップS45における処理は、処理対象がスルー画像ではなく撮像画像である点及び次の処理が元(本例では、ステップS31)に戻らない点を除いて、ステップS11における処理と同様であるため、説明は省略する。   In step S45, a subject tracking process is executed, and the process proceeds to step S47. The processing in step S45 is the same as the processing in step S11 except that the processing target is a captured image instead of a through image and that the next processing does not return to the original (step S31 in this example). Description is omitted.

ステップS47では、関連付け処理が実行される。ここで、関連付け処理について図5を用いて説明する。図5は、関連付け処理の流れの一例を示すフローチャートである。
関連付け処理が開始されると、まず、初期設定が実行され(ステップS51)、ステップS53に移行する。具体的にステップS51では、システム制御部11は、識別関連情報処理数xとして初期値「1」を所定の記憶領域(例えばシステムメモリ12)に記憶する。識別関連情報処理数は、記憶部44cに記憶されている識別関連情報のうち、何個目の識別関連情報に対して関連付け処理(ステップS47)を実行しているのかを判断するために設定される。
システム制御部11は、識別関連情報処理数xの初期設定が終了したらステップS53の処理に進む。
In step S47, association processing is executed. Here, the association process will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of the flow of association processing.
When the association process is started, first, initialization is executed (step S51), and the process proceeds to step S53. Specifically, in step S51, the system control unit 11 stores an initial value “1” as the identification-related information processing number x in a predetermined storage area (for example, the system memory 12). The number of identification-related information processes is set in order to determine the number of identification-related information among the identification-related information stored in the storage unit 44c and performing the association process (step S47). The
When the initial setting of the identification-related information processing number x is completed, the system control unit 11 proceeds to the process of step S53.

ステップS53では、最高スコアが閾値以上か否かが判定され、最高スコアが閾値以上であると判定されると(Yes)ステップS55に移行し、最高スコアが閾値より低いと判定されると(No)ステップS55を実行せずにステップS57に移行する。具体的にステップS53では、システム制御部11は、記憶部44cに記憶されている現在のスコアの値、すなわち現時点での最高の識別レベルのスコアの値を読み出し、読み出したスコアの値と所定の閾値とを比較する。システム制御部11は、複数の識別関連情報が記憶部44cに記憶されている場合には、最高スコアが閾値以上か否かを判定していない1つの識別関連情報に含まれる識別レベルを読み出す。なお、所定の閾値は例えばシステムメモリ12に記憶されている。   In step S53, it is determined whether or not the highest score is greater than or equal to a threshold. If it is determined that the highest score is greater than or equal to the threshold (Yes), the process proceeds to step S55, and if it is determined that the highest score is lower than the threshold (No). ) The process proceeds to step S57 without executing step S55. Specifically, in step S53, the system control unit 11 reads out the current score value stored in the storage unit 44c, that is, the score value of the highest identification level at the present time, and the read score value and a predetermined value. Compare with the threshold. When a plurality of pieces of identification related information are stored in the storage unit 44c, the system control unit 11 reads out an identification level included in one piece of identification related information that has not been determined whether or not the highest score is equal to or greater than a threshold value. The predetermined threshold value is stored in the system memory 12, for example.

ステップS55では、被写体の識別情報が画像ファイルに関連付けられてステップS57に移行する。具体的にステップS55では、画像処理部34は、システム制御部11の指示に基づいて、以下の処理を実行する。
まず、画像処理部34は、システム制御部11からステップS53において最高スコアが閾値以上か否かを判定した識別関連情報を受信する。次に、画像処理部34は、画像ファイルを内部メモリ33から読み出す。次に、画像処理部34は、受信した識別関連情報に含まれた対象部位の画像データを識別情報として当該画像ファイルに関連付けて例えば当該画像ファイルのヘッダ部分に記憶する。画像処理部34は、識別情報を記憶した画像ファイルを内部メモリ33又は記録媒体50に送信する。
In step S55, the subject identification information is associated with the image file, and the process proceeds to step S57. Specifically, in step S55, the image processing unit 34 executes the following processing based on an instruction from the system control unit 11.
First, the image processing unit 34 receives from the system control unit 11 identification-related information that is determined in step S53 as to whether or not the highest score is equal to or greater than a threshold value. Next, the image processing unit 34 reads the image file from the internal memory 33. Next, the image processing unit 34 stores the image data of the target part included in the received identification-related information in association with the image file as identification information, for example, in the header portion of the image file. The image processing unit 34 transmits the image file storing the identification information to the internal memory 33 or the recording medium 50.

システム制御部11は、画像ファイルを内部メモリ33又は記録媒体50に送信したことを示す情報を受信すると、ステップS57の処理に進む。   When the system control unit 11 receives information indicating that the image file has been transmitted to the internal memory 33 or the recording medium 50, the system control unit 11 proceeds to the process of step S57.

ステップS57では、識別関連情報処理数xが「1」増加されてステップS59に移行する。具体的にステップS57では、システム制御部11は、現在の識別関連情報処理数xを「1」増加した値を所定の記憶領域に記憶する。
システム制御部11は、識別関連情報処理数xを「1」増加したらステップS59の処理に進む。
In step S57, the identification-related information processing number x is incremented by “1”, and the process proceeds to step S59. Specifically, in step S57, the system control unit 11 stores a value obtained by increasing the current identification-related information processing number x by “1” in a predetermined storage area.
When the identification-related information processing number x is increased by “1”, the system control unit 11 proceeds to the process of step S59.

ステップS59では、識別関連情報処理数xが記憶部44cに記憶された識別関連情報の個数nより大きいか否かが判定され、識別関連情報処理数xが個数nより大きいと判定されたら(Yes)ステップS49に移行し(図4参照)、識別関連情報処理数xが個数n以下であると判定されたら(No)ステップS51に戻る。具体的にステップS59では、システム制御部11は、現時点での識別関連情報処理数xと、記憶部44cから取得した識別関連情報の個数nとを比較する。
システム制御部11は、識別関連情報処理数xが個数nよりも大きいと判定したら、ステップS49の処理に進み、識別関連情報処理数xが個数n以下であると判定したら、ステップS51の処理に戻る。識別関連情報処理数xが個数nよりも大きい場合には、記憶部44cには閾値と比較されていない最高スコアは存在していないため、関連付け処理(ステップS47)は終了し、ステップS49に進む。一方、識別関連情報処理数xが個数n以下の場合には、記憶部44cには閾値と比較されていない識別関連情報が存在するため、関連付け処理(ステップS47)は継続される。
In step S59, it is determined whether the identification-related information processing number x is larger than the number n of identification-related information stored in the storage unit 44c. If it is determined that the identification-related information processing number x is larger than the number n (Yes) ) The process proceeds to step S49 (see FIG. 4), and if it is determined that the identification-related information processing number x is equal to or less than the number n (No), the process returns to step S51. Specifically, in step S59, the system control unit 11 compares the number x of identification-related information processing at the present time with the number n of identification-related information acquired from the storage unit 44c.
If the system control unit 11 determines that the identification-related information processing number x is greater than the number n, the system control unit 11 proceeds to the process of step S49. If the system control unit 11 determines that the identification-related information processing number x is equal to or less than the number n, the system control unit 11 proceeds to the process of step S51. Return. If the identification-related information processing number x is larger than the number n, the highest score that has not been compared with the threshold does not exist in the storage unit 44c, so the association process (step S47) ends, and the process proceeds to step S49. . On the other hand, when the identification-related information processing number x is less than or equal to the number n, the association processing (step S47) is continued because there is identification-related information that has not been compared with the threshold value in the storage unit 44c.

図4に戻って、ステップS49では、スコア判定処理の中断が解除され、スルー画像の取得が再開され、図3に示すスコア判定処理が再開される。再開されるスコア判定処理では、レリーズスイッチ39aの押下後に内部メモリ33に最先に記憶されたスルー画像から順次読み出される。   Returning to FIG. 4, in step S <b> 49, the interruption of the score determination process is canceled, the through image acquisition is restarted, and the score determination process illustrated in FIG. 3 is restarted. In the restarted score determination process, after the release switch 39a is pressed, the first through image stored in the internal memory 33 is sequentially read out.

次に、本実施形態による画像処理装置及びそれを備えた撮像装置の動作を、人物を被写体とし人物の顔を対象部位とする例について、図1から図5を参照しつつ、図6から図9を用いて説明する。
図6から図9は、表示部37の表示画面37aに表示されたスルー画像及び撮像画像から対象部位として人物の顔を検出する状態を模式的に示している。図6から図9において、図中左側には、時刻を表す「t=0」から「t=11」の文字が図示されている。なお、図6から図9に亘って、図中上から下に向かって時の経過が表されている。
Next, the operation of the image processing apparatus according to the present embodiment and the image pickup apparatus including the image processing apparatus will be described with reference to FIGS. 9 will be used for explanation.
6 to 9 schematically show a state in which a human face is detected as a target part from a through image and a captured image displayed on the display screen 37 a of the display unit 37. 6 to 9, characters “t = 0” to “t = 11” representing the time are shown on the left side of the drawing. Note that, over time from FIG. 6 to FIG. 9, the passage of time is shown from the top to the bottom in the figure.

図6から図9の図中の「t=0」など文字の右隣の「LV画像」欄には、表示部37の表示画面37aが図示されている。図6から図9の図中の表示画面37aの右隣には、「獲得された顔」、「スコア」及び「保存された顔」がこの順に図示されている。「獲得された顔」は、検出部44aが各スルー画像及び撮像画像から検出した対象部位としての人物の顔を示している。「スコア」は、対象部位判定部44bが判定した識別レベルのスコアの値を示している。「保存された顔」は、識別関連情報に含まれて記憶部44cに記憶された顔の画像データの元となった顔画像を示している。   A display screen 37 a of the display unit 37 is shown in the “LV image” column on the right side of the characters such as “t = 0” in the diagrams of FIGS. 6 to 9. “Acquired face”, “score”, and “saved face” are shown in this order on the right side of the display screen 37a in FIGS. “Acquired face” indicates the face of a person as a target portion detected by the detection unit 44a from each through image and captured image. “Score” indicates the score value of the identification level determined by the target part determination unit 44b. “Saved face” indicates the face image that is included in the identification-related information and is the basis of the face image data stored in the storage unit 44c.

図6の図中上段に示すように、時刻「t=0」においてスルー画像スイッチ39bの押下が検出され、スルー画像に基づくスコア判定処理が開始されると、内部メモリ33に最先に記憶されたスルー画像が読み出され(ステップS1)、人物の顔、すなわち対象部位の検出が開始される(ステップS3)。図6の図中上段に示すように、検出領域60で表示画面37aを走査して人物の顔が検出(本例では1つのみ)されると、スコア判定が開始される(ステップS5)。スコア判定において、「獲得された顔」、すなわち検出した顔62について例えばスコア「60」と判定される(ステップS5)。
時刻「t=0」の時点では、スコアは保存されていないので、今回のスコアは最高スコアと判定される(ステップS7のYes)。これにより、「獲得された顔」欄から「保存された顔」欄に向かう図中横向き矢印で示すように、時刻「t=0」で検出された顔の画像データ64とスコア「60」とを含む識別関連情報が記憶部44cに記憶される。これにより、記憶部44cに記憶された最高スコア及び識別関連情報が更新される(ステップS9)。
As shown in the upper part of FIG. 6, when the pressing of the through image switch 39 b is detected at time “t = 0” and the score determination process based on the through image is started, it is stored in the internal memory 33 first. The through image is read (step S1), and the detection of the human face, that is, the target part is started (step S3). As shown in the upper part of FIG. 6, when a human face is detected by scanning the display screen 37a in the detection area 60 (only one in this example), score determination is started (step S5). In the score determination, for example, the score “60” is determined for the “acquired face”, that is, the detected face 62 (step S5).
Since the score is not stored at the time “t = 0”, the current score is determined to be the highest score (Yes in step S7). As a result, the face image data 64 detected at time “t = 0” and the score “60” are displayed as indicated by a horizontal arrow in the figure from the “acquired face” field to the “saved face” field. The identification related information including is stored in the storage unit 44c. Thereby, the highest score and identification related information memorize | stored in the memory | storage part 44c are updated (step S9).

今回読み出されたスルー画像はスルー画像スイッチ39bの押下に基づいて内部メモリ33に記憶された最先のスルー画像であるため、記憶部44cに記憶された識別関連情報に含まれる画像データ64に対応する対象部位は被写体の追尾対象として処理され(ステップS11)、ステップS1の処理に戻る。   Since the through image read this time is the earliest through image stored in the internal memory 33 based on the pressing of the through image switch 39b, the image data 64 included in the identification-related information stored in the storage unit 44c is used. The corresponding target part is processed as a tracking target of the subject (step S11), and the process returns to step S1.

図6の図中中段に示すように、時刻「t=1」において、内部メモリ33に記憶された2枚目のスルー画像が読み出されると(ステップS1)、人物の顔、すなわち対象部位の検出が開始される(ステップS3)。図6の図中中段に示すように、検出領域60で表示画面37aを走査して人物の顔が検出(本例では1つのみ)され、スコア判定が開始される(ステップS5)。スコア判定において、「獲得された顔」欄に示す検出した顔62について識別レベルが判定される(ステップS5)。時刻「t=1」における人物の顔の向きは、時刻「t=0」における人物の顔の向きよりも上向きとなっているため、「スコア」欄に示すように、検出した顔62のスコアは前回よりも低い例えば「50」と判定される。   As shown in the middle part of FIG. 6, when the second through image stored in the internal memory 33 is read at time “t = 1” (step S <b> 1), the human face, that is, the target part is detected. Is started (step S3). As shown in the middle part of FIG. 6, the display screen 37a is scanned in the detection area 60 to detect a human face (only one in this example), and score determination is started (step S5). In the score determination, the identification level is determined for the detected face 62 shown in the “acquired face” column (step S5). Since the face orientation of the person at time “t = 1” is higher than the face orientation of the person at time “t = 0”, the score of the detected face 62 is shown in the “score” column. Is determined to be lower than the previous time, for example, “50”.

スコア判定が終了すると、今回のスコアが最高スコアより高いか否かが判定される(ステップS7)。今回(時刻「t=1」の時点)のスコア「50」は、現時点での最高スコア「60」よりも低いので(ステップS7のNo)、図6の図中上段から中断に向かって下向き矢印で示すように、識別情報(画像データ64)等の更新処理はなされずにステップS37に移行する。   When the score determination is finished, it is determined whether or not the current score is higher than the highest score (step S7). Since the score “50” this time (at time “t = 1”) is lower than the current highest score “60” (No in step S7), a downward arrow from the upper stage in FIG. As shown in FIG. 8, the process proceeds to step S37 without updating the identification information (image data 64) or the like.

次に、被写体の追尾処理が実行される(ステップS11)。ステップS7において、今回読み出されたスルー画像から検出した対象部位の画像データのスコアと、時刻「t=0」において読み出されたスルー画像から検出した対象部位の画像データのスコアとが比較されている。これにより、被写体が追尾されていると判断され、ステップS1の処理に戻る。 Next, subject tracking processing is executed (step S11). In step S7, the score of the image data of the target part detected from the through image read this time is compared with the score of the image data of the target part detected from the through image read at time “t = 0”. ing. As a result, it is determined that the subject is being tracked, and the process returns to step S1.

図6の図中下段に示すように、時刻「t=2」において、内部メモリ33に記憶された3枚目のスルー画像が読み出されると(ステップS1)、人物の顔、すなわち対象部位の検出が開始される(ステップS3)。ステップS3では、図6の図中下段における「LV画像」欄に示す表示画面37aの検出領域60において人物の顔が検出されスコア判定が開始される(ステップS5)。
スコア判定において、「獲得された顔」欄に示す検出した顔62について識別レベルが判定される(ステップS5)。時刻「t=3」における人物の顔の向きは、時刻「t=0」における人物の顔の向きよりも正面を向いているため、「スコア」欄に示すように、検出した顔62のスコアは現時点での最高スコア「60」よりも高い例えば「80」と判定される。
As shown in the lower part of FIG. 6, when the third through image stored in the internal memory 33 is read at time “t = 2” (step S <b> 1), the human face, that is, the target part is detected. Is started (step S3). In step S3, a person's face is detected in the detection area 60 of the display screen 37a shown in the "LV image" column in the lower part of FIG. 6, and score determination is started (step S5).
In the score determination, the identification level is determined for the detected face 62 shown in the “acquired face” column (step S5). Since the face orientation of the person at time “t = 3” is more in front than the face orientation of the person at time “t = 0”, the score of the detected face 62 is shown in the “Score” column. Is determined to be higher than the current highest score “60”, for example “80”.

次に、今回のスコアが最高スコアより高いか否かが判定される(ステップS7)。今回(時刻「t=2」の時点)のスコア「80」は、現時点での最高スコア「60」よりも高いと判定され(ステップS7のYes)、「獲得された顔」欄から「保存された顔」欄に向かう図6中横向き矢印で示すように、時刻「t=2」で読み出されたスルー画像より検出された顔の画像データ64とスコア「80」とを含む識別関連情報が記憶部44cに記憶され、最高スコア及び識別関連情報が更新される(ステップS9)。   Next, it is determined whether or not the current score is higher than the highest score (step S7). The score “80” this time (at time “t = 2”) is determined to be higher than the current highest score “60” (Yes in step S7), and “saved” is stored from the “acquired face” column. The identification-related information including the face image data 64 detected from the through image read at time “t = 2” and the score “80”, as indicated by the horizontal arrow in FIG. The highest score and the identification related information are stored in the storage unit 44c (step S9).

最高スコア及び識別関連情報が更新されたことにより、被写体が追尾されていると判断され(ステップS11、ステップS1の処理に戻る。   When the highest score and the identification-related information are updated, it is determined that the subject is being tracked (returning to the processing of step S11 and step S1).

図7の図中上段に示す時刻「t=3」では、「スコア」欄に示すように、人物の顔の識別レベルのスコアが「75」であって、現時点での最高スコア「80」よりも低い。このため、時刻「t=3」における処理は、時刻「t=1」における処理と同様となるため、説明は省略する。   At the time “t = 3” shown in the upper part of FIG. 7, as shown in the “Score” column, the human face identification level score is “75”, which is higher than the current highest score “80”. Is also low. For this reason, the process at time “t = 3” is the same as the process at time “t = 1”, and thus the description thereof is omitted.

図7の図中中段に示す時刻「t=4」において、内部メモリ33に記憶された5枚目のスルー画像が読み出されると(ステップS1)、人物の顔、すなわち対象部位の検出が開始される(ステップS3)。時刻「t=4」では、人物の顔が横向きであるため、人物の顔は検出されず、スコア判定(ステップS5)に移行する。なお、図7並びに後述する図8及び図9では、ステップS9又はステップS19において人物の顔が検出されなかったことは、「獲得された顔」欄を空欄とすることによって表される。   When the fifth through image stored in the internal memory 33 is read at the time “t = 4” shown in the middle part of FIG. 7 (step S1), detection of a human face, that is, a target part is started. (Step S3). At time “t = 4”, since the person's face is sideways, the person's face is not detected, and the process proceeds to score determination (step S5). In FIG. 7 and FIGS. 8 and 9 to be described later, the fact that no human face has been detected in step S9 or step S19 is represented by leaving the “acquired face” field blank.

今回取得されたスルー画像から対象部位は検出されていないので、スコア判定(ステップS5)及びスコアの比較処理(ステップS7)は実行されず、被写体の追尾処理が実行される(ステップS11)。最高スコアの更新がなされていないため、動体検出部44fは、記憶部44cから識別関連情報を取得し、当該識別関連情報に含まれた画像データ64(追尾対象画像データ)が今回(時刻「t=4」)読み出されたスルー画像に含まれているか否かを判定する。動体検出部44fは、スルー画像を走査し、例えば図7の図中中段の「LV画像」欄に示す表示画面37aの検出領域60における画像データが追尾対象画像データと所定の一致度を有すると判断し、被写体を追尾中と判定する。動体検出部44fは、被写体を追尾中であるという判定結果をシステム制御部11に送信する。システム制御部11は、当該判定結果を受信すると、被写体を追尾中であると判断し、記憶部44cに記憶された識別関連情報を消去せずに、ステップS1の処理に戻る。   Since the target part is not detected from the through image acquired this time, the score determination (step S5) and the score comparison process (step S7) are not executed, and the subject tracking process is executed (step S11). Since the highest score has not been updated, the moving object detection unit 44f acquires the identification-related information from the storage unit 44c, and the image data 64 (tracking target image data) included in the identification-related information is the current time (time “t” = 4 ") It is determined whether or not it is included in the read through image. The moving object detection unit 44f scans the through image, and for example, when the image data in the detection area 60 of the display screen 37a shown in the “LV image” column in the middle of FIG. 7 has a predetermined degree of coincidence with the tracking target image data. It is determined that the subject is being tracked. The moving object detection unit 44f transmits a determination result that the subject is being tracked to the system control unit 11. Upon receiving the determination result, the system control unit 11 determines that the subject is being tracked, and returns to the process of step S1 without deleting the identification-related information stored in the storage unit 44c.

図7の図中下段に示す時刻「t=5」では、「獲得された顔」欄に示すように、ステップS9において人物の顔が検出されていないものの、被写体は追尾中と判定される。このため、時刻「t=5」における処理は、時刻「t=4」における処理と同様となるため、説明は省略する。   At time “t = 5” shown in the lower part of FIG. 7, as shown in the “Acquired face” column, although the face of a person is not detected in step S9, it is determined that the subject is being tracked. For this reason, the process at the time “t = 5” is the same as the process at the time “t = 4”, and thus the description thereof is omitted.

図8の図中上段に示す時刻「t=6」において、スルー画像に基づくスコア判定処理が開始してから初めてのレリーズスイッチ39aの押下が検出されると、スルー画像に基づくスコア判定処理が実行中であると判定され(ステップS31のYes)、スルー画像に基づくスコア判定処理が中断される(ステップS33)。次に、レリーズスイッチ39aのこの押下によって取得され記憶された撮像画像が内部メモリ33から読み出され(ステップS35)、読み出された撮像画像から人物の顔、すなわち対象部位の検出が実行される(ステップS37)。時刻「t=6」では、人物の顔がほぼ横向きであるため、ステップS37において人物の顔が検出されず、スコア判定に移行する(ステップS39)。   When the first depression of the release switch 39a is detected after the score determination process based on the through image is started at time “t = 6” shown in the upper part of FIG. 8, the score determination process based on the through image is executed. It is determined that it is in the middle (Yes in step S31), and the score determination process based on the through image is interrupted (step S33). Next, the captured image acquired and stored by pressing the release switch 39a is read from the internal memory 33 (step S35), and detection of a human face, that is, a target part is executed from the read captured image. (Step S37). At time “t = 6”, since the face of the person is substantially sideways, the face of the person is not detected in step S37, and the process proceeds to score determination (step S39).

今回取得された撮像画像から対象部位は検出されていないので、スコア判定(ステップS39)及びスコアの比較処理(ステップS41)は実行されず、被写体の追尾処理が実行される(ステップS45)。最高スコアの更新がなされていないため、動体検出部44fは、記憶部44cから識別関連情報を取得し、当該識別関連情報に含まれた画像データ64(追尾対象画像データ)が今回(時刻「t=6」)読み出された撮像画像に含まれているか否かを判定する。今回実行される被写体の追尾処理は、スルー画像が撮像画像に代わっただけで、時刻「t=4」において実行された追尾処理と同様なので、説明は省略する。   Since the target part has not been detected from the captured image acquired this time, the score determination (step S39) and the score comparison process (step S41) are not executed, and the subject tracking process is executed (step S45). Since the highest score has not been updated, the moving object detection unit 44f acquires the identification-related information from the storage unit 44c, and the image data 64 (tracking target image data) included in the identification-related information is the current time (time “t” = 6 ") It is determined whether or not it is included in the read captured image. The subject tracking process executed this time is the same as the tracking process executed at time “t = 4” except that the through image is replaced with the captured image, and thus the description thereof is omitted.

被写体の追尾処理に続いて関連付け処理が実行される(ステップS47)。関連付け処理において、識別関連情報処理数xの初期設定(x=1)がなされ(ステップS51)、現時点での最高スコアが「80」であって閾値(本例では「60」とする)以上であると判定され(ステップS53のYes)、人物の顔の画像データが識別情報として画像ファイルに関連付けられる。具体的には、図8の図中上段の「保存された顔」欄に示す画像データ64が、同段の「LV画像」欄の表示画面37aに表示された画像データに基づく画像ファイルの例えばヘッダ部分に記憶される。   Subsequent to the subject tracking process, an association process is executed (step S47). In the association process, the identification-related information processing number x is initially set (x = 1) (step S51), and the current highest score is “80” and is equal to or greater than a threshold value (“60” in this example). It is determined that there is (Yes in step S53), and the image data of the person's face is associated with the image file as identification information. Specifically, the image data 64 shown in the “stored face” field in the upper part of FIG. 8 is an image file based on the image data displayed on the display screen 37a in the “LV image” field in the same part, for example. Stored in the header part.

ステップS55に続いて、識別関連情報処理数xが「1」増加され(ステップS57)、識別関連情報処理数x(=2)が記憶部44cに記憶された識別関連情報の個数n(=1)より大きいため(ステップS59のYes)、ステップS49の処理に移行し、スルー画像から検出した対象部位の識別レベルの判定処理を再開する。   Subsequent to step S55, the identification-related information processing number x is incremented by “1” (step S57), and the identification-related information processing number x (= 2) is the number n of identification-related information stored in the storage unit 44c (= 1). ) (Yes in step S59), the process proceeds to step S49, and the determination process of the identification level of the target part detected from the through image is resumed.

図8の図中中段及び下段に示す時刻「t=7」及び「t=8」では、「獲得された顔」欄に示すように、ステップS9において人物の顔が検出されていない。このため、時刻「t=7」及び「t=8」におけるそれぞれ処理は、時刻「t=4」における処理と同様となるため、説明は省略する。   At times “t = 7” and “t = 8” shown in the middle and lower parts of FIG. 8, as shown in the “Acquired face” column, no human face is detected in step S9. For this reason, the processes at times “t = 7” and “t = 8” are the same as the processes at time “t = 4”, and thus the description thereof is omitted.

図9の図中上段に示す時刻「t=9」では、「獲得された顔」欄に示すように、2回目のレリーズスイッチ39aの押下を検出した後のステップS37において人物の顔が検出されていない。このため、時刻「t=9」における時刻「t=9」で取得した撮像画像に対するそれぞれの処理は、時刻「t=6」における時刻「t=6」で取得した撮像画像に対して実行した処理と同様であるため、説明は省略する。   At the time “t = 9” shown in the upper part of FIG. 9, as shown in the “Acquired face” column, a human face is detected in step S37 after detecting the second press of the release switch 39a. Not. For this reason, each process with respect to the captured image acquired at time “t = 9” at time “t = 9” is performed on the captured image acquired at time “t = 6” at time “t = 6”. Since it is the same as the process, the description is omitted.

図9の図中中段に示す時刻「t=10」では、「獲得された顔」欄に示すように、ステップS3において人物の顔が検出されていない。このため、時刻「t=10」における処理は、時刻「t=4」における処理と同様となるため、説明は省略する。   At the time “t = 10” shown in the middle part of FIG. 9, as shown in the “Acquired face” column, no human face is detected in step S3. For this reason, the process at the time “t = 10” is the same as the process at the time “t = 4”, and thus the description thereof is omitted.

図9の図中下段に示すように、時刻「t=11」において、内部メモリ33から読み出されたスルー画像に写る人物の顔の向きは、時刻「t=2」における人物の顔の向きよりも正面を向いているため、スコア判定(ステップS5)において、「スコア」欄に示すように、検出した顔62のスコアは現時点での最高スコア「80」よりも高い例えば「85」と判定される。
今回(時刻「t=11」の時点)のスコア「85」は、現時点での最高スコア「80」よりも高いと判定され(ステップS7のYes)、「獲得された顔」欄から「保存された顔」欄に向かう図9中横向き矢印で示すように、時刻「t=11」で検出された顔の画像データ64とスコア「85」とを含む識別関連情報が記憶部44cに記憶され、最高スコア及び識別関連情報が更新される(ステップS9)。また、最高スコア及び識別関連情報の更新がなされたことにより被写体が追尾されていると判定され(ステップS11)、ステップS1の処理に戻る。
As shown in the lower part of FIG. 9, at time “t = 11”, the orientation of the person's face in the through image read from the internal memory 33 is the orientation of the person's face at time “t = 2”. In the score determination (step S5), the score of the detected face 62 is determined to be higher than the current highest score “80”, for example “85” in the score determination (step S5). Is done.
The score “85” at this time (time “t = 11”) is determined to be higher than the current highest score “80” (Yes in step S7), and “saved” is stored from the “acquired face” column. The identification-related information including the face image data 64 detected at time “t = 11” and the score “85” is stored in the storage unit 44c, as indicated by the horizontal arrow in FIG. The highest score and the identification related information are updated (step S9). Further, it is determined that the subject is being tracked by updating the highest score and the identification related information (step S11), and the process returns to step S1.

以上説明したように、本実施形態による画像処理装置及びそれを備えた撮像装置は、スルー画像に写る被写体の識別レベルを判定する判定部44と、当該識別レベルが所定基準を満たしている被写体の識別情報を、当該被写体が撮像された撮像画像に基づく画像ファイルと関連付ける関連付け部として機能する画像処理部34とを有している。
このため、本実施形態による画像処理装置及びそれを備えた撮像装置は、画像ファイルの元となる撮像画像に見え難い態様で写っている被写体を特定できる。
As described above, the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus include the determination unit 44 that determines the identification level of the subject in the through image, and the subject whose identification level satisfies the predetermined standard. An image processing unit that functions as an associating unit that associates the identification information with an image file based on a captured image of the subject.
For this reason, the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus can identify a subject that is captured in a manner that is difficult to see in the captured image that is the source of the image file.

本実施形態による画像処理装置及びそれを備えた撮像装置は、識別レベルのより高い被写体の識別情報を画像ファイルに対応付けてタグ情報として記憶することができる。これにより、本実施形態による画像処理装置及びそれを備えた撮像装置は、当該撮像画像に基づく画像ファイルに記憶された識別情報に基づいて、撮像画像に写っている被写体を認識することができる。本実施形態による画像処理装置及びそれを備えた撮像装置によれば、スルー画像ではなく実際に撮像されて内部メモリ33又は記録媒体50に記憶された撮像画像に被写体が認識しにくい状態で写っていたとしても、画像ファイルに関連付けられた識別情報に基づいて被写体を認識できる。これにより、本実施形態による画像処理装置及びそれを備えた撮像装置は、被写体の識別精度を向上できる。   The image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus can store identification information of a subject having a higher identification level in association with an image file as tag information. Thereby, the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus can recognize the subject shown in the captured image based on the identification information stored in the image file based on the captured image. According to the image processing apparatus and the imaging apparatus including the image processing apparatus according to the present embodiment, the subject is not easily recognized in the captured image actually captured and stored in the internal memory 33 or the recording medium 50 instead of the through image. Even so, the subject can be recognized based on the identification information associated with the image file. Thereby, the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus can improve subject identification accuracy.

例えば、撮像画像に写る人物は横顔を向いており、当該撮像画像から人物の顔は検出し難い場合がある。しかしながら、本実施形態では、レリーズスイッチ39aの押下よりも前に取得したスルー画像から検出した当該人物の正面顔に近い画像データを当該人物の識別情報として画像ファイルに関連付けることができる。このため、本実施形態による画像処理装置及びそれを備えた撮像装置は、撮像画像において人物が特定され難い場合であっても、画像ファイルに関連付けられた識別情報によって当該人物を特定することができる。これにより、本実施形態による画像処理装置及びそれを備えた撮像装置は、被写体の識別精度の向上を図ることができる。   For example, a person shown in a captured image faces a side face, and it may be difficult to detect the person's face from the captured image. However, in the present embodiment, image data close to the front face of the person detected from the through image acquired before the release switch 39a is pressed can be associated with the image file as identification information of the person. For this reason, the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus can identify the person based on the identification information associated with the image file even when the person is difficult to identify in the captured image. . As a result, the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus can improve the identification accuracy of the subject.

スルー画像は、画素データが間引かれているため、本撮影で撮影された撮像画像の画像データと比較してデータ量が少ない。対象部位は、データ量が少ないスルー画像の一部分であるため、さらにデータ量は少なくなる。このため、画像ファイルのデータ量は、被写体の識別情報が記憶されても極端に増加しない。これにより、本実施形態による画像処理装置及びそれを備えた撮像装置は、内部メモリや記録媒体に負荷をかけずに被写体の識別精度を向上できる。   Since the through data of the through image is thinned out, the amount of data is small as compared with the image data of the captured image captured in the actual imaging. Since the target part is a part of the through image with a small data amount, the data amount is further reduced. For this reason, the data amount of the image file does not increase extremely even if the identification information of the subject is stored. As a result, the image processing apparatus according to the present embodiment and the image pickup apparatus including the image processing apparatus can improve subject identification accuracy without imposing a load on the internal memory or the recording medium.

また、本実施形態では、レリーズスイッチ39aの押下が検出される前にスルー画像から対象部位を検出し識別レベルを判定する(ステップS33の前のステップS1からステップS11の流れ)とともに、レリーズスイッチ39aの押下が検出された後もスルー画像を取得し、取得したスルー画像から検出された対象部位の識別レベルを判定する(ステップS49の後のステップS1からステップS11の流れ)ようになっている。このように、本実施形態による画像処理装置及びそれを備えた撮像装置は、被写体がフレームインしてからフレームアウトするまでであれば、レリーズスイッチ39aの押下の前後に取得されるスルー画像から対象部位を検出できる。   In the present embodiment, the target part is detected from the through image before the release switch 39a is detected and the identification level is determined (the flow from step S1 to step S11 before step S33), and the release switch 39a. The through image is acquired even after the pressing of is detected, and the identification level of the target part detected from the acquired through image is determined (the flow from step S1 to step S11 after step S49). As described above, the image processing apparatus according to the present embodiment and the image pickup apparatus including the image processing apparatus according to the present invention are based on a through image acquired before and after the release switch 39a is pressed as long as the subject is in the frame and then out of the frame. The site can be detected.

次に、本実施形態の変形例による画像処理装置及びそれを備えた撮像装置について、図1及び図2を参照しつつ図10を用いて説明する。本変形例では、検出部44aは、対象部位としての人物の顔とともに、当該人物の頭髪の色、当該人物の服装の色、当該人物の服装の柄及びスルー画像や撮像画像内における当該人物の位置の少なくともいずれか1つを付加情報として検出するようになっている。さらに、対象部位判定部44bは、検出した人物の顔が正面顔でなく当該顔を検出できないと判定すると、検出した付加情報に基づいて特定人物を推定できる場合には、当該特定人物の正面顔又は正面顔に近い画像データを識別情報として画像ファイルに関連付けるようになっている。   Next, an image processing apparatus according to a modification of the present embodiment and an imaging apparatus including the image processing apparatus will be described with reference to FIGS. 1 and 2 and FIG. In the present modification, the detection unit 44a, together with the face of the person as the target portion, the color of the person's hair, the color of the person's clothes, the pattern of the person's clothes, and the through image or the captured image in the captured image At least one of the positions is detected as additional information. Further, if the target part determination unit 44b determines that the detected person's face is not a frontal face and the face cannot be detected, and if the specific person can be estimated based on the detected additional information, the frontal face of the specific person Alternatively, image data close to the front face is associated with the image file as identification information.

図10は、本変形例による画像処理装置及びそれを備えた撮像装置の動作の一例を示すフローチャートである。以下、図3に示す画像処理装置及びそれを備えた撮像装置の動作におけるフローチャートと同様の処理については説明を省略し、異なる点を説明する。
図10に示すように、本変形例による画像処理装置及びそれを備えた撮像装置におけるスコア判定処理のステップS101、ステップS103及びステップS105からステップS113までの処理は、ステップS103において対象部位を検出したか否かの判断が実行される点を除いて、図3に示すステップS1からステップS11までの処理と同様である。
FIG. 10 is a flowchart illustrating an example of the operation of the image processing apparatus according to the present modification and the imaging apparatus including the image processing apparatus. Hereinafter, the description of the processing similar to the flowchart in the operation of the image processing apparatus shown in FIG. 3 and the imaging apparatus including the same will be omitted, and different points will be described.
As shown in FIG. 10, the processing from step S101, step S103, and step S105 to step S113 of the score determination process in the image processing apparatus according to this modification and the imaging apparatus equipped with the same detected the target part in step S103. This is the same as the processing from step S1 to step S11 shown in FIG.

ステップS101の次のステップS103では、対象部位を検出したか否かを判定し、対象部位を検出したと判定したら(Yes)ステップS105に移行し、対象部位を検出していないと判定したら(No)、ステップS107に移行する。具体的にステップS101では、検出部44aは、対象部位としての人物の顔とともに、当該人物の頭髪の色などの付加情報も検出する。   In step S103 following step S101, it is determined whether or not the target part has been detected. If it is determined that the target part has been detected (Yes), the process proceeds to step S105, and if it is determined that the target part has not been detected (No) ), The process proceeds to step S107. Specifically, in step S101, the detection unit 44a detects additional information such as the color of the person's hair as well as the face of the person as the target part.

ステップS107では、付加情報関連処理が実行され、付加情報関連処理が終了したらステップS131に移行する。図11は付加情報関連処理の流れの一例を示すフローチャートである。
付加情報関連処理が開始されるとまず、ステップS131において、付加情報が取得され、ステップS133に移行する。具体的にステップS131では、対象部位判定部44bは、システム制御部11の指示に基づいて、対象検出部位としての人物の顔とともに、検出していた当該人物の髪の毛の色などの付加情報も取得する。当該付加情報は、例えば記憶部44cに記憶されている。
システム制御部11は、付加情報を取得したことを示す情報を対象部位判定部44bから受信すると、次のステップS133に進む。
In step S107, an additional information related process is executed, and when the additional information related process ends, the process proceeds to step S131. FIG. 11 is a flowchart showing an example of the flow of additional information related processing.
When the additional information related processing is started, first, additional information is acquired in step S131, and the process proceeds to step S133. Specifically, in step S131, the target part determination unit 44b also acquires additional information such as the color of the detected human hair along with the face of the person as the target detection part based on an instruction from the system control unit 11. To do. The additional information is stored in the storage unit 44c, for example.
Upon receiving information indicating that additional information has been acquired from the target part determination unit 44b, the system control unit 11 proceeds to the next step S133.

ステップS133では、初期設定が実行され、ステップS135に移行する。具体的にステップS133では、システム制御部11は、付加情報処理数yとして初期値「1」を所定の所定の記憶領域(例えばシステムメモリ12)に記憶する。付加情報処理数は、ステップS131で取得された付加情報の総数を最大値とし、取得した付加情報に基づいて人物を特定できるか否かの処理の実行回数である。   In step S133, initial setting is executed, and the process proceeds to step S135. Specifically, in step S133, the system control unit 11 stores an initial value “1” as the additional information processing number y in a predetermined storage area (for example, the system memory 12). The number of additional information processings is the number of executions of whether or not a person can be specified based on the acquired additional information, with the total number of additional information acquired in step S131 as a maximum value.

ステップS135では、付加情報に基づいて人物を特定できるか否かを判定し、人物を特定できると判定したら(Yes)ステップS137に移行し、人物を特定できないと判定したら(No)、ステップS137を実行せずにステップS139に移行する。具体的にステップS135では、システム制御部11の指示に基づいて、対象部位判定部44bは、以下の動作を実行する。
検出部44aは、今回読み出したスルー画像よりも前に取得した数フレームのスルー画像において人物の顔を検出できたスルー画像を選択する。次に、対象部位判定部44bは、ステップS131で取得した付加情報と、記憶部44cから読み出した付加情報とを比較する。対象部位判定部44bは、両付加情報の一致度が所定の閾値以上であると判断すると、記憶部44cから読み出したスルー画像にステップS103において検出できなかった人物の顔が写っていると判定する。対象部位判定部44bは、内部メモリ33から読み出したスルー画像に写り、かつ比較した付加情報の画像の近傍の人物の顔を対象部位として特定する。
システム制御部11は、人物を特定したことを示す情報を対象部位判定部44bから受信すると、次のステップS137の処理に進む。
In step S135, it is determined whether or not the person can be specified based on the additional information. If it is determined that the person can be specified (Yes), the process proceeds to step S137. If it is determined that the person cannot be specified (No), step S137 is performed. Without executing, the process proceeds to step S139. Specifically, in step S135, the target part determination unit 44b executes the following operation based on an instruction from the system control unit 11.
The detection unit 44a selects a through image in which a person's face can be detected in through images of several frames acquired before the through image read this time. Next, the target part determination unit 44b compares the additional information acquired in step S131 with the additional information read from the storage unit 44c. If the target part determination unit 44b determines that the degree of coincidence between both pieces of additional information is greater than or equal to a predetermined threshold, the target part determination unit 44b determines that the face of the person that could not be detected in step S103 is reflected in the through image read from the storage unit 44c. . The target part determination unit 44b specifies the face of a person in the vicinity of the compared additional information image as a target part in the through image read from the internal memory 33.
When the system control unit 11 receives information indicating that a person has been identified from the target part determination unit 44b, the system control unit 11 proceeds to the next step S137.

ステップS137では、特定人物の顔画像及びスコアを取得し、ステップS139に移行する。具体的にステップS137では、対象部位判定部44bは、システム制御部11の制御に基づいて、ステップS135で特定された特定人物の正面顔又は最高スコアの顔画像を取得する。対象部位判定部44bは、取得したスコアをレベル比較部44dに送信する。
システム制御部11は、取得したスコアをレベル比較部44dに送信したことを示す情報を対象部位判定部44bから受信すると、次のステップS139に進む。
In step S137, the face image and score of the specific person are acquired, and the process proceeds to step S139. Specifically, in step S137, the target part determination unit 44b acquires the front face or the face image with the highest score of the specific person specified in step S135 based on the control of the system control unit 11. The target part determination unit 44b transmits the acquired score to the level comparison unit 44d.
When the system control unit 11 receives information indicating that the acquired score has been transmitted to the level comparison unit 44d from the target part determination unit 44b, the system control unit 11 proceeds to the next step S139.

ステップS39では、付加情報処理数yを「1」増加してステップS141に移行する。具体的にステップS125では、システム制御部11は、現在の付加情報処理数yを「1」増加した値を所定の記憶領域に記憶する。
システム制御部11は、付加情報処理数yを「1」増加したらステップS141の処理に進む。
In step S39, the additional information processing number y is increased by “1”, and the process proceeds to step S141. Specifically, in step S125, the system control unit 11 stores a value obtained by increasing the current additional information processing number y by “1” in a predetermined storage area.
If the additional information processing number y is increased by “1”, the system control unit 11 proceeds to the process of step S141.

ステップS141では、付加情報処理数yが取得された付加情報の総数mより大きいか否かを判定し、付加情報処理数yが総数mより大きいと判定したら(Yes)ステップS113(図10参照)に移行し、付加情報処理数yが総数m以下であると判定したら(No)ステップS135に移行する。具体的にステップS141では、システム制御部11は、現時点での付加情報処理数yと、ステップS131で取得された付加情報の総数mとを比較する。
システム制御部11は、付加情報処理数yが総数mよりも大きいと判定したら、ステップS103(図10参照)に移行し、付加情報処理数yが総数m以下であると判定したら、ステップS135に移行する。付加情報処理数yが総数mよりも大きい場合には、付加情報に基づく人物特定の判定(ステップS135)がなされていない付加情報は存在していないため、付加情報に基づく人物特定の判定処理を終了し、ステップS113の処理に進む。一方、付加情報処理数yが総数m以下の場合には、付加情報に基づく人物特定の判定(ステップS139)がなされていない付加情報が存在するため、付加情報に基づく人物特定の判定処理は継続される。
In step S141, it is determined whether or not the additional information processing number y is larger than the total number m of the acquired additional information, and if it is determined that the additional information processing number y is larger than the total number m (Yes), step S113 (see FIG. 10). If it is determined that the additional information processing number y is less than the total number m (No), the process proceeds to step S135. Specifically, in step S141, the system control unit 11 compares the current number y of additional information processing with the total number m of additional information acquired in step S131.
If the system control unit 11 determines that the additional information processing number y is greater than the total number m, the system control unit 11 proceeds to step S103 (see FIG. 10), and determines that the additional information processing number y is equal to or less than the total number m, the process proceeds to step S135. Transition. When the number of additional information processing y is larger than the total number m, there is no additional information for which the person identification determination based on the additional information (step S135) has not been made, and therefore the person identification determination process based on the additional information is performed. The process ends, and the process proceeds to step S113. On the other hand, if the additional information processing number y is less than or equal to the total number m, there is additional information for which the person identification determination based on the additional information (step S139) has not been made, and therefore the person identification determination process based on the additional information is continued. Is done.

図12は、本変形例における撮像装置において実行される撮像画像に対象部位を関連付ける対象部位関連付け処理の流れの一例を示すフローチャートである。
図12に示すように、本変形例における対象部位関連付け処理でのステップS151からステップS159及びステップS163からステップS171までの処理は、ステップS157において対象部位を検出したか否かの判断が実行される点を除いて、図4に示す対象部位関連付け処理でのステップS31からステップS49までの処理と同様である。ステップS161の処理は、処理対象がスルー画像ではなく撮像画像である点を除いて、図10に示すステップS107、すなわち図11に示すステップS131からステップS141と同様である。
FIG. 12 is a flowchart illustrating an example of a flow of a target part association process for associating a target part with a captured image executed in the imaging apparatus according to the present modification.
As shown in FIG. 12, in the processes from step S151 to step S159 and from step S163 to step S171 in the target part association process in this modification, it is determined whether or not the target part has been detected in step S157. Except for this point, the process is the same as the process from step S31 to step S49 in the target part association process shown in FIG. The process of step S161 is the same as step S107 shown in FIG. 10, that is, step S131 to step S141 shown in FIG. 11, except that the processing target is not a through image but a captured image.

以上説明したように、本変形例による画像処理装置及びそれを備えた撮像装置は、対象部位自体を検出できなくても、対象部位の周辺の情報などの付加情報を利用して対象部位を特定できる場合がある。   As described above, the image processing apparatus according to this modification and the imaging apparatus including the same specify the target part using additional information such as information around the target part even if the target part itself cannot be detected. There are cases where it is possible.

次に、本実施形態の他の変形例による画像処理装置及びそれを備えた撮像装置について説明する。本変形例による画像処理装置及びそれを備えた撮像装置は、スルー画像に代えて、連続して撮像された一連の撮像画像(いわゆる連写された撮像画像)を用いる点に特徴を有している。本変形例による画像処理装置及びそれを備えた撮像装置は、例えば内部メモリ33又は記録媒体50に記憶され、連続して撮像された一連の撮像画像に写る被写体を検出して識別レベルを判定する判定部と、当該識別レベルが所定の基準を満たしていると当該判定部によって判定された被写体の識別情報を、当該一連の撮像画像のうちから選択された撮像画像に基づく画像ファイルと関連付ける関連付け部とを有している。すなわち、本変形例では、図2に示す判定部44が連続して撮像された一連の撮像画像に写る被写体を検出して識別レベルを判定する。また、図2に示す画像処理部34が当該一連の撮像画像のうちから選択された撮像画像に基づく画像ファイルにと関連付ける関連付け部としての役割を担う。   Next, an image processing device according to another modification of the present embodiment and an imaging device including the image processing device will be described. The image processing apparatus according to this modification and an imaging apparatus including the image processing apparatus are characterized in that instead of the through image, a series of captured images (so-called continuous captured images) are used. Yes. The image processing apparatus according to the present modification and an imaging apparatus including the image processing apparatus detect the subject in a series of captured images that are stored in the internal memory 33 or the recording medium 50 and are continuously captured, and determine the identification level. A determining unit and an associating unit for associating identification information of the subject determined by the determining unit with the identification level satisfying a predetermined criterion with an image file based on a captured image selected from the series of captured images And have. That is, in this modification, the determination unit 44 shown in FIG. 2 detects a subject in a series of captured images that are continuously captured, and determines the identification level. Also, the image processing unit 34 shown in FIG. 2 serves as an associating unit for associating with an image file based on a captured image selected from the series of captured images.

本発明は、コンピュータプログラムとして具体化することができる。例えば、コンピュータを、判定部44の各部(検出部44a、対象部位判定部44b、記憶部44c、レベル比較部44d、識別関連情報生成部44e、動体検出部44f)及び関連付け部としての画像処理部34として機能させる画像処理プログラムとして実現することもできる。したがって、本発明の一部または全ては、ハードウェアまたはソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコード、ステートマシン、ゲートアレイ等を含む)に組み入れることができる。さらに、本発明は、コンピュータによって使用可能な、またはコンピュータ可読の記憶媒体上のコンピュータプログラム製品の形態をとることができ、この媒体には、コンピュータによって使用可能な、またはコンピュータ可読のプログラムコードが組み入れられる。本明細書のコンテキストでは、コンピュータによって使用可能な、またはコンピュータ可読の媒体は、命令実行システム、装置若しくはデバイスによって、またはそれらとともに使用されるプログラムを、収録する、記憶する、通信する、伝搬する、または搬送することのできる、任意の媒体とすることができる。   The present invention can be embodied as a computer program. For example, the image processing unit as each unit of the determination unit 44 (the detection unit 44a, the target part determination unit 44b, the storage unit 44c, the level comparison unit 44d, the identification related information generation unit 44e, the moving object detection unit 44f) and the association unit. It can also be realized as an image processing program that functions as 34. Thus, some or all of the present invention can be incorporated into hardware or software (including firmware, resident software, microcode, state machines, gate arrays, etc.). Furthermore, the present invention may take the form of a computer program product on a computer-usable or computer-readable storage medium, which incorporates computer-usable or computer-readable program code. It is done. In the context of this specification, a computer usable or computer readable medium includes, stores, communicates, propagates, programs that are used by or in conjunction with an instruction execution system, apparatus or device, Alternatively, any medium that can be transported can be used.

本発明は、上記実施形態に限らず、種々の変形が可能である。
上記実施形態及び変形例では、画像ファイルと関連付ける識別情報は画像データであるが、本発明はこれに限られない。例えば、画像処理装置及びそれを備えた撮像装置は、撮像画像の顔が設定上の最高レベルまたは設定した閾値以上の場合は、対象部位の画像データを画像ファイルと関連付けて保存せず、顔の特徴点(例えば目鼻口などのパーツ)の座標やパラメータのみを関連付けて保存するように構成されていてもよい。
The present invention is not limited to the above embodiment, and various modifications can be made.
In the above embodiment and the modification, the identification information associated with the image file is image data, but the present invention is not limited to this. For example, the image processing apparatus and the imaging apparatus including the image processing apparatus do not store the image data of the target part in association with the image file when the face of the captured image is equal to or higher than the set maximum level or the set threshold value. It may be configured to store only the coordinates and parameters of feature points (for example, parts such as the eyes, nose and mouth) in association with each other.

また、画像処理装置及びそれを備えた撮像装置は、検出した顔が正面向きでなく、首を傾げているために傾いていたり、人物が俯いたり上を見たりして顔が回転したりしていることを認識できる場合には、顔の傾き情報や回転情報も追加して画像ファイルと関連付けるように構成されていてもよい。また、画像処理装置及びそれを備えた撮像装置は、当該傾き情報や回転情報に基づいて、検出した顔が正面顔になるように補正して、補正後の顔画像を画像ファイルと関連付けて保存するように構成されていてもよい。   In addition, the image processing apparatus and the image pickup apparatus equipped with the image processing apparatus may be inclined because the detected face is not front-facing but the neck is tilted, or the face is rotated by scolding or looking up. If it is possible to recognize the image, it may be configured to add face inclination information and rotation information and associate them with the image file. In addition, the image processing apparatus and the imaging apparatus including the same correct the detected face to be a front face based on the tilt information and the rotation information, and store the corrected face image in association with the image file. It may be configured to.

また、画像処理装置及びそれを備えた撮像装置は、画像ファイルと関連付ける識別情報として顔の画像データ自体でなく、特徴点抽出した結果をそのアルゴリズム名称または識別子とともに画像ファイルと関連付けて保存してもよい。   Further, the image processing apparatus and the imaging apparatus including the image processing apparatus and the image capturing apparatus may store the feature point extracted result together with the algorithm name or identifier as the identification information associated with the image file in association with the image file. Good.

また、上記実施の形態では、被写体の識別情報を撮像画像の画像ファイルに関連付けているが本発明はこれに限られない。例えば、画像処理装置及びそれを備えた撮像装置は、被写体の識別情報を、撮像画像に写る当該被写体に対応付けて画像ファイルと関連付けてもよい。
例えば、画像処理部34は、記憶部44cから読み出した識別関連情報に含まれる対象部位の画像データから抽出した比較用パラメータと、内部メモリ33から読み出した撮像画像において検出された全ての対象部位の画像データから抽出した比較用パラメータとを比較する。画像処理部34は、撮像画像に写され、両比較用パラメータが最も一致する対象部位を含む被写体に識別情報を対応付けて画像ファイルと関連付けてもよい。画像処理部34は、この関連付け処理を例えば図5に示すステップS55で実行する。
In the above embodiment, the identification information of the subject is associated with the image file of the captured image, but the present invention is not limited to this. For example, the image processing apparatus and the imaging apparatus including the image processing apparatus may associate the identification information of the subject with the image file in association with the subject that appears in the captured image.
For example, the image processing unit 34 compares the parameters for comparison extracted from the image data of the target part included in the identification related information read from the storage unit 44 c and all the target parts detected in the captured image read from the internal memory 33. The comparison parameter extracted from the image data is compared. The image processing unit 34 may be associated with the image file by associating the identification information with the subject including the target portion that is copied to the captured image and has the best match between the two comparison parameters. The image processing unit 34 executes this association process in, for example, step S55 shown in FIG.

このように、被写体の識別情報を撮像画像に写る被写体に関連付けることにより、被写体個々の識別精度の向上を図ることができる。   In this way, by associating the subject identification information with the subject shown in the captured image, it is possible to improve the identification accuracy of each subject.

また、上記実施形態では、図6から図9を用いて説明したように、レリーズスイッチ39aの押下に基づく撮像画像の取得毎に、被写体の識別情報と撮像画像との関連付け処理を実行しているが、本発明はこれに限られない。画像処理装置及びそれを備えた撮像装置は、例えば一連の撮像を終了したら、この一連の撮像によって記憶部44cに記憶した最高スコアの対象部位を、この一連の撮像によって撮像した撮像画像に関連付けてもよい。図6から図9を例にすると、時刻「t=6」及び時刻「t=9」において撮像した時点での最高スコアは時刻「t=2」で取得した「80」であるが、一連の撮像の終了後に、時刻「t=6」及び時刻「t=9」において撮像した撮像画像に関連付けられる被写体の識別情報は、時刻「t=11」において取得された最高スコア「85」を含む識別情報となる。すなわち、撮像画像を撮像したよりも後に取得された対象部位の画像データを含む識別関連情報も撮像画像に関連付けられることがある。ここで、一連の撮像としては例えば、対象部位の追尾を開始してから追尾できなくなるまででの撮像、被写体がフレームインしてからフレームアウトするまでの撮像、あるいは所定の時間内(例えば、20秒間、60秒間など)の撮像などが挙げられる。   In the above embodiment, as described with reference to FIGS. 6 to 9, the process for associating the identification information of the subject with the captured image is executed every time the captured image is acquired based on the depression of the release switch 39a. However, the present invention is not limited to this. When the image processing apparatus and the imaging apparatus including the imaging apparatus complete a series of imaging, for example, the target part having the highest score stored in the storage unit 44c by the series of imaging is associated with the captured image captured by the series of imaging. Also good. Taking FIG. 6 to FIG. 9 as an example, the highest score at the time of imaging at time “t = 6” and time “t = 9” is “80” acquired at time “t = 2”. After the imaging is completed, the identification information of the subject associated with the captured images captured at time “t = 6” and time “t = 9” includes the highest score “85” acquired at time “t = 11”. Information. That is, identification-related information including image data of a target part acquired after the captured image is captured may be associated with the captured image. Here, as a series of imaging, for example, imaging from when tracking of a target part is started until tracking becomes impossible, imaging from when a subject is framed in to frame out, or within a predetermined time (for example, 20 Second, 60 seconds, etc.).

また、本実施形態による画像処理装置及びそれを備えた撮像装置は、被写体がフレームアウトした時点で、識別レベルを示すスコアが所定の閾値に達していなかった場合、まず過去の撮影履歴を検索する。次に、画像処理装置及びそれを備えた撮像装置は、現時点から撮影時刻が近い等の情報に基づき、同じ顔が発見できそうな場合は撮影画像と関連付けられた顔情報(識別情報)を検索し、撮像画像内での人物の位置、人物の頭髪の色、人物の服装の色又は模様や柄を比較し、一致する顔を同一人物と判断する。こうして判断した顔を付加情報とともに画像ファイルと関連付けて保存してもよい。   In addition, the image processing apparatus according to the present embodiment and the imaging apparatus including the same first search the past shooting history when the score indicating the identification level does not reach the predetermined threshold when the subject is out of the frame. . Next, the image processing apparatus and the image pickup apparatus including the same search for face information (identification information) associated with the photographed image when it is likely that the same face can be found based on information such as the photographing time being close from the present time. Then, the position of the person in the captured image, the color of the person's hair, the color of the person's clothes, the pattern or the pattern are compared, and the matching faces are determined to be the same person. The face thus determined may be stored in association with the image file together with the additional information.

さらに、上述の方法でも識別レベルを示すスコアが閾値に達する顔が得られない場合は、レリーズスイッチの押下の一定時間経過後に、レリーズ時刻の後に撮影された履歴を見て、上述の処理と同様の処理を実行してもよい。これにより、正面顔を獲得する可能性を向上させることができる。   Furthermore, if a face whose score indicating the identification level reaches the threshold value is not obtained even by the above method, the history taken after the release time is observed after a certain period of time after the release switch is pressed, and the same process as described above. The process may be executed. Thereby, the possibility of acquiring a front face can be improved.

夜景を背景に人物を撮影する場合、スルー画像は、実際に撮像された撮像画像と比較して、露出補正などの処理によって人物の顔が明るく映し出される。そこで、本実施形態による画像処理装置及びそれを備えた撮像装置では、スルー画像における相対的に明瞭な人物の顔の画像を一時的に保存しておき、実際の撮像画像に基づく画像ファイルに、当該顔の画像を関連付けることができる。これにより、本実施形態によれば、夜景を背景とする撮像画像において認識し難い人物を、画像ファイルと関連付けた情報に基づいて特定できるため、被写体の検出精度が向上する。   When a person is photographed against a background of a night view, the through image shows the face of the person brightly by a process such as exposure correction as compared to a captured image actually captured. Therefore, in the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus, a relatively clear human face image in the through image is temporarily stored, and an image file based on the actual captured image is stored. The face image can be associated. Thereby, according to this embodiment, since it is possible to identify a person who is difficult to recognize in the captured image with the night view as the background based on the information associated with the image file, the detection accuracy of the subject is improved.

また、人物の顔検出に加えて、感情検出(表情検出)を行う場合、六感情(喜、怒、哀、楽、愛、憎)及び無感情のうち、無感情が人物の顔として最も検出し易い。このため、感情検出を実行する場合、「無感情」は、六感情と比較して識別レベルの高い状態に関連付けられる。したがって、検出された顔が「無感情」に一致するほど識別レベル、すなわちスコアが高くなる。本実施形態による画像処理装置及びそれを備えた撮像装置が感情検出を実行可能に構成されている場合には、六感情の顔画像の画像データと比較して、「無感情」及び「無感情」に近い表情の顔画像の画像データが識別情報として画像ファイルに多数関連付けて記憶される。   When emotion detection (expression detection) is performed in addition to human face detection, no emotion is detected most as a human face among six emotions (joy, anger, sadness, comfort, love, hatred) and no emotion. Easy to do. For this reason, when performing emotion detection, “no emotion” is associated with a higher identification level than the six emotions. Therefore, as the detected face matches “no emotion”, the discrimination level, that is, the score increases. When the image processing apparatus according to the present embodiment and the imaging apparatus including the image processing apparatus are configured to be able to perform emotion detection, “no emotion” and “no emotion” compared to the image data of the six emotion facial images. A large number of facial image data having a facial expression close to "is stored in association with the image file as identification information.

感情を検出する方法としては、例えば笑顔検出で笑顔度が高い場合には、被写体が喜んでいる状態(「喜」)または楽しい状態(「楽」)であると検出し、撮影している撮影者の生体(心拍数や体温)を生体センサで検出し、心拍数が高い場合には怒っている状態(「怒」)や憎んでいる状態(「憎」)、心拍数が低い場合には哀しい状態(「哀」)であると検出する方法がある。当該生体センサは、例えば撮像装置のグリップ部の内部に備えられており、当該グリップ部を掴んでいる撮影者の手を通して検出することができる。   As a method of detecting emotions, for example, when a smile level is high in smile detection, it is detected that the subject is in a happy state (“joy”) or a happy state (“easy”), and shooting is performed. A person's body (heart rate or body temperature) is detected by a biosensor, and when the heart rate is high, the person is angry (“angry”) or hated (“hate”), and when the heart rate is low There is a method for detecting a sad state ("sorrow"). The biosensor is provided, for example, inside the grip portion of the imaging apparatus, and can be detected through the hand of the photographer holding the grip portion.

上記実施形態では、被写体として人物を例にとり、対象部位として人物の顔を例にとって説明したが、本発明はこれに限られない。被写体は人間以外の動物や風景など、対象部位は人物の顔以外の部分、人間以外の動物の顔や体、建築物、山などの自然物等であってもよい。例えば、象の場合には顔及び当該顔から伸びる長い鼻の形状など、キリンの場合には動体から伸びる長い首及びその先端の顔の形状など、建築物(例えば歴史的建築物)や自然物(例えば富士山などの名所)では、雑誌や絵葉書などに一般に用いられる方向からのシルエットなど、特徴的部分を判定用パラメータとして記憶部44cに記憶しておき、スルー画像や撮像画像から検出された対象部位と比較し、当該対象部位の識別レベルを判定するようにしてもよい。   In the above embodiment, a person is taken as an example of the subject and a person's face is taken as an example of the target part, but the present invention is not limited to this. The subject may be a non-human animal or landscape, the target part may be a part other than a human face, a non-human animal face or body, a building, a natural object such as a mountain, or the like. For example, in the case of an elephant, the shape of a face and a long nose extending from the face, and in the case of a giraffe, the shape of a long neck extending from a moving body and the shape of the face at the tip thereof, such as a building (such as a historical building) or a natural object ( For example, in a famous place such as Mt. Fuji, a characteristic portion such as a silhouette from a direction generally used for magazines or postcards is stored as a determination parameter in the storage unit 44c, and a target portion detected from a through image or a captured image is stored. And the identification level of the target part may be determined.

例えば、全景の写る広角画像に基づく画像ファイルに、当該広角画像に写る個々の被写体(例えば、花などの自然物、あるいは歴史的建築物など)の望遠画像を埋め込むことにより、当該広角画像では視認し難い被写体を画像データ上では識別することができる。また、当該望遠画像をスルー画像から取得することにより、画像データの増加を抑制しつつ画像ファイルに被写体の識別情報を埋め込むことができる。   For example, by embedding a telephoto image of an individual subject (for example, a natural object such as a flower or a historical building) that appears in the wide-angle image in an image file based on the wide-angle image in which the entire view is captured, the wide-angle image is visually recognized. Difficult subjects can be identified on the image data. Further, by acquiring the telephoto image from the through image, it is possible to embed subject identification information in the image file while suppressing an increase in image data.

上記実施形態及び変形例では、取得したスルー画像を内部メモリ33に記憶するようになっているが、本発明はこれに限られない。例えば、本発明は、取得したスルー画像を外部メモリ(記録用のメモリ)に記憶するようになっていてもよい。例えば、スルー画像は、撮像装置に設けられた通信部を介して外部メモリに送信され、当該外部メモリに記憶される。また、当該外部メモリには、スルー画像から検出された対象部位(例えば人物の顔)や識別レベルが記憶される。撮像装置は、外部メモリに記憶された被写体の対象部位(例えば人物の顔)の画像データが撮像装置に読み出され、読み出した画像データをレリーズスイッチの押下による本撮影で撮像された撮像画像と関連付け、画像データが関連付けられた撮像画像を撮像装置に設けられたメモリ(例えば内部メモリ)に保存するように構成されていてもよい。   In the above embodiment and the modification, the acquired through image is stored in the internal memory 33, but the present invention is not limited to this. For example, in the present invention, the acquired through image may be stored in an external memory (recording memory). For example, the through image is transmitted to an external memory via a communication unit provided in the imaging apparatus and stored in the external memory. In addition, the external memory stores a target part (for example, a human face) detected from a through image and an identification level. The imaging apparatus reads out image data of a target portion (for example, a human face) of a subject stored in an external memory to the imaging apparatus, and uses the read image data as a captured image captured by actual shooting by pressing a release switch. The captured image associated with the association and image data may be stored in a memory (for example, an internal memory) provided in the imaging apparatus.

本発明は、以下のような用途がある。
例えば、画像ファイルと関連付けられた識別情報を利用して、記録媒体50内で画像ファイルを整理(例えば人物別に整理)したり、他の装置(例えばパーソナルコンピュータ)の記憶部内で画像ファイルを整理したり(例えば人物別に整理する)ことができる。
また、例えば、画像ファイルと関連付けられた識別情報を利用して、表示部37にサムネイル形式で各人物の写っている一覧表示ができる。
また、例えば、画像ファイルと関連付けられた識別情報を利用して、当該識別情報で特定される人物に画像ファイルを送信できる。
The present invention has the following uses.
For example, using the identification information associated with the image file, the image file is organized in the recording medium 50 (for example, organized by person), or the image file is organized in the storage unit of another device (for example, a personal computer). (For example, organized by person).
Further, for example, by using the identification information associated with the image file, a list display of each person in the thumbnail format can be displayed on the display unit 37.
Further, for example, using the identification information associated with the image file, the image file can be transmitted to the person specified by the identification information.

10 カメラ、11 システム制御部、12 システムメモリ、20 光学系、21 レンズ群、22 シャッタ、31 撮像素子、32 A/D変換器、33 内部メモリ、34 画像処理部、36 表示制御部、37 表示部、37a 表示画面、38 記録媒体IF、39 操作部材、39a レリーズスイッチ、40、44g バスライン、41 レンズ制御部、42 露光制御部、44 検出部、44a 検出部、44b 対象部位判定部、44c 記憶部、44d レベル比較部、44e 識別関連情報生成部、44f 動体検出部、50 記録媒体、60 検出領域、62 検出した顔、64 画像データ DESCRIPTION OF SYMBOLS 10 Camera, 11 System control part, 12 System memory, 20 Optical system, 21 Lens group, 22 Shutter, 31 Image sensor, 32 A / D converter, 33 Internal memory, 34 Image processing part, 36 Display control part, 37 Display Part, 37a display screen, 38 recording medium IF, 39 operation member, 39a release switch, 40, 44g bus line, 41 lens control part, 42 exposure control part, 44 detection part, 44a detection part, 44b target part determination part, 44c Storage unit, 44d level comparison unit, 44e identification related information generation unit, 44f moving object detection unit, 50 recording medium, 60 detection area, 62 detected face, 64 image data

Claims (17)

撮像部によって撮像されたスルー画像に含まれる被写体の識別レベルを判定する判定部と、
前記判定部によって前記識別レベルが所定基準を満たしていると判定された場合、前記被写体を識別するための識別情報と前記撮像部によって撮像された前記被写体を含む撮像画像とを関連付ける関連付け部とを備える
ことを特徴とする画像処理装置。
A determination unit that determines an identification level of a subject included in the through image captured by the imaging unit;
An association unit that associates identification information for identifying the subject and a captured image including the subject captured by the imaging unit when the determination unit determines that the identification level satisfies a predetermined criterion; An image processing apparatus comprising:
前記関連付け部は、前記撮像画像に基づく画像ファイルのヘッダ部分に前記識別情報を記憶させる
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the association unit stores the identification information in a header portion of an image file based on the captured image.
前記判定部は、前記被写体の顔が正面顔として識別される識別レベルを判定する
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the determination unit determines an identification level at which the face of the subject is identified as a front face.
前記判定部は、前記被写体を追尾しながら、少なくとも前記被写体の一部の対象部位を検出する検出部と、前記検出部によって検出された前記対象部位が対象として識別される識別レベルを判定する対象部位判定部とを含む
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
The determination unit is a detection unit that detects at least a part of the target portion of the subject while tracking the subject, and a target that determines an identification level at which the target portion detected by the detection unit is identified as a target. The image processing apparatus according to claim 1, further comprising: a part determination unit.
前記検出部は、前記対象部位として人物の顔を検出し、
前記対象部位判定部は、前記検出部によって検出された顔が前記対象の正面顔として識別される識別レベルを判定し、
前記関連付け部は、前記検出部によって検出された顔の画像データを前記識別情報として関連付ける
ことを特徴とする請求項4に記載の画像処理装置。
The detection unit detects a human face as the target part,
The target part determination unit determines an identification level at which the face detected by the detection unit is identified as the front face of the target;
The image processing apparatus according to claim 4, wherein the association unit associates the face image data detected by the detection unit as the identification information.
前記判定部は、前記識別レベルが過去最高レベルである場合に前記所定基準を満たしていると判定し、
前記関連付け部は、前記撮像画像に含まれる前記被写体と前記識別情報とを関連付ける
ことを特徴とする請求項1から請求項5のいずれか一項に記載の画像処理装置。
The determination unit determines that the predetermined criterion is satisfied when the identification level is a record high level,
The image processing apparatus according to claim 1, wherein the association unit associates the subject included in the captured image with the identification information.
前記検出部は、前記人物の顔とともに、前記人物の頭髪の色、前記人物の服装の色、前記人物の服装の柄及び前記スルー画像内における前記人物の位置の少なくともいずれか1つを付加情報として検出し、
前記関連付け部は、検出された人物の顔が前記対象部位判定部によって前記正面顔でないと判定された場合、前記対象部位判定部によって前記付加情報に基づいて特定人物を推定できる場合には、前記特定人物の正面顔の画像データを前記識別情報として関連付ける
ことを特徴とする請求項6に記載の画像処理装置。
The detection unit includes at least one of the face of the person, the hair color of the person, the color of the clothes of the person, the pattern of the clothes of the person, and the position of the person in the through image. Detect as
The associating unit, when it is determined by the target part determination unit that the detected person's face is not the front face, when the target part determination unit can estimate a specific person based on the additional information, The image processing apparatus according to claim 6, wherein image data of a front face of a specific person is associated as the identification information.
前記被写体がフレームアウトするまでに、前記被写体の識別レベルを過去最高であると前記判定部によって判定されると、記憶している識別レベルを更新する識別レベル記憶部をさらに有する
ことを特徴とする請求項1から請求項7のいずれか一項に記載の画像処理装置。
An identification level storage unit that updates a stored identification level when the determination unit determines that the identification level of the subject is a record high before the subject is out of frame. The image processing apparatus according to any one of claims 1 to 7.
連続して撮像された一連の撮像画像に写る被写体の識別レベルを判定する判定部と、
前記判定部によって前記識別レベルが所定基準を満たしていると判定された場合、前記被写体を識別するための識別情報と、前記一連の撮像画像のうちから選択された撮像画像とを関連付ける関連付け部とを備える
ことを特徴とする画像処理装置。
A determination unit that determines an identification level of a subject in a series of captured images that are continuously captured;
An association unit for associating identification information for identifying the subject and a captured image selected from the series of captured images when the determination unit determines that the identification level satisfies a predetermined criterion; An image processing apparatus comprising:
請求項1から請求項9のいずれか一項に記載の画像処理装置を備えている
ことを特徴とする撮像装置。
An image pickup apparatus comprising the image processing apparatus according to any one of claims 1 to 9.
被写体を撮像し、画像データを出力する撮像部と、
前記撮像部による前記被写体の撮像を行うための入力部と、
前記入力部による入力の前に、もしくは前記入力部による入力によって前記撮像部による撮像が行われた後に、前記撮像部によって出力された画像データに基づくライブビュー画像を表示する表示部と、
前記入力部による入力に基づいて撮像された前記被写体を含む画像と、前記被写体を含む前記ライブビュー画像とを関連付ける関連付け部とを備える
ことを特徴とする撮像装置。
An imaging unit for imaging a subject and outputting image data;
An input unit for imaging the subject by the imaging unit;
A display unit for displaying a live view image based on image data output by the imaging unit before input by the input unit or after imaging by the imaging unit is performed by input by the input unit;
An imaging apparatus comprising: an associating unit that associates an image including the subject imaged based on an input from the input unit and the live view image including the subject.
前記被写体を識別する識別部とを備え、
前記関連付け部によって関連付けられる前記被写体を含む前記ライブビュー画像は、前記識別部によって前記被写体を識別することが可能な画像である
ことを特徴とする請求項11に記載の撮像装置。
An identification unit for identifying the subject,
The imaging apparatus according to claim 11, wherein the live view image including the subject associated by the associating unit is an image capable of identifying the subject by the identifying unit.
前記表示部は、前記識別部によって識別された前記被写体を含む前記ライブビュー画像と、前記入力部による入力に基づいて撮像された前記被写体を含む画像とが前記関連付け部によって関連付けられたことを示す表示を行う
ことを特徴とする請求項12に記載の撮像装置。
The display unit indicates that the live view image including the subject identified by the identification unit and the image including the subject captured based on an input by the input unit are associated by the association unit. The imaging apparatus according to claim 12, wherein display is performed.
前記関連付け部は、前記ライブビュー画像に含まれる前記被写体の一部の領域と前記入力部による入力に基づいて撮像された前記被写体を含む画像とを関連付ける
ことを特徴とする請求項11から請求項13のいずれか一項に記載の撮像装置。
The association unit associates a partial region of the subject included in the live view image with an image including the subject captured based on an input by the input unit. The imaging device according to any one of 13.
前記被写体の一部の領域は、前記被写体の顔である
ことを特徴とする請求項14に記載の撮像装置。
The imaging apparatus according to claim 14, wherein the partial area of the subject is a face of the subject.
被写体を撮像し、画像データを出力する撮像部と、
前記撮像部による前記被写体の撮像を行うための入力部と、
前記入力部による入力の前に、もしくは前記入力部による入力によって前記撮像部による撮像が行われた後に、前記撮像部によって出力された画像データに基づくライブビュー画像を表示する表示部と、
前記入力部による入力に基づいて撮像された前記被写体を含む画像と、前記ライブビュー画像に含まれる前記被写体を示す情報とを関連付ける関連付け部とを備える
ことを特徴とする撮像装置。
An imaging unit for imaging a subject and outputting image data;
An input unit for imaging the subject by the imaging unit;
A display unit for displaying a live view image based on image data output by the imaging unit before input by the input unit or after imaging by the imaging unit is performed by input by the input unit;
An image pickup apparatus comprising: an association unit that associates an image including the subject imaged based on an input from the input unit with information indicating the subject included in the live view image.
スルー画像に写る被写体の識別レベルを判定部に判定させる処理と、
前記判定部によって前記識別レベルが所定基準を満たしていると判定された場合、前記被写体を識別するための識別情報と前記被写体が撮像された撮像画像とを関連付け部に関連付けさせる処理とをコンピュータに実行させる
ことを特徴とする画像処理プログラム。
A process for causing the determination unit to determine the identification level of the subject appearing in the through image;
When the determination unit determines that the identification level satisfies a predetermined standard, the computer performs a process of associating the identification information for identifying the subject and the captured image obtained by capturing the subject with the association unit. An image processing program characterized by being executed.
JP2014140169A 2014-07-08 2014-07-08 Image processing apparatus, imaging apparatus including the same, and image processing program Pending JP2016019118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014140169A JP2016019118A (en) 2014-07-08 2014-07-08 Image processing apparatus, imaging apparatus including the same, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014140169A JP2016019118A (en) 2014-07-08 2014-07-08 Image processing apparatus, imaging apparatus including the same, and image processing program

Publications (1)

Publication Number Publication Date
JP2016019118A true JP2016019118A (en) 2016-02-01

Family

ID=55234047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014140169A Pending JP2016019118A (en) 2014-07-08 2014-07-08 Image processing apparatus, imaging apparatus including the same, and image processing program

Country Status (1)

Country Link
JP (1) JP2016019118A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128652A (en) * 2021-02-24 2022-09-05 キヤノン株式会社 Image processing device, control method thereof, imaging apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128652A (en) * 2021-02-24 2022-09-05 キヤノン株式会社 Image processing device, control method thereof, imaging apparatus, and program
JP7337865B2 (en) 2021-02-24 2023-09-04 キヤノン株式会社 IMAGE PROCESSING DEVICE AND CONTROL METHOD THEREOF, IMAGING DEVICE, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP4324170B2 (en) Imaging apparatus and display control method
US8989504B2 (en) Image processing device that renews identification information of specific subject
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
JP5293206B2 (en) Image search apparatus, image search method and program
JP4645685B2 (en) Camera, camera control program, and photographing method
US8131014B2 (en) Object-tracking computer program product, object-tracking device, and camera
JP4577252B2 (en) Camera, best shot shooting method, program
JP4784678B2 (en) Imaging apparatus, imaging method, and program
JP4634527B2 (en) Imaging device
JP2012003539A (en) Image processing device
US20130314507A1 (en) Image capturing device and data processing method
JP2010171797A (en) Imaging apparatus and program
JP6149854B2 (en) Imaging apparatus, imaging control method, and program
JP5434038B2 (en) Imaging device
CN102542251B (en) Object detection device and subject detection method
JP5880135B2 (en) Detection apparatus, detection method, and program
JP5423186B2 (en) Imaging apparatus, area detection method, and program
JP5168320B2 (en) Camera, best shot shooting method, program
JP5168034B2 (en) Image processing apparatus and program
JP2016019118A (en) Image processing apparatus, imaging apparatus including the same, and image processing program
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP5267645B2 (en) Imaging apparatus, imaging control method, and program
JP2006128793A (en) Image pickup device and control method thereof
JP2013081136A (en) Image processing apparatus, and control program
JP5170217B2 (en) Camera, camera control program, and photographing method