JP2010014783A - Photographing device - Google Patents

Photographing device Download PDF

Info

Publication number
JP2010014783A
JP2010014783A JP2008172312A JP2008172312A JP2010014783A JP 2010014783 A JP2010014783 A JP 2010014783A JP 2008172312 A JP2008172312 A JP 2008172312A JP 2008172312 A JP2008172312 A JP 2008172312A JP 2010014783 A JP2010014783 A JP 2010014783A
Authority
JP
Japan
Prior art keywords
information
face
unit
specific person
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008172312A
Other languages
Japanese (ja)
Inventor
Masatoshi Nakao
雅俊 中尾
Makoto Matsuyama
誠 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008172312A priority Critical patent/JP2010014783A/en
Publication of JP2010014783A publication Critical patent/JP2010014783A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To identify a specified person who should be given priority, with a high probability and to automatically focus the person even when identification of the specified person only by features of the face is difficult. <P>SOLUTION: A face region detecting unit 56 extracts a face region of a person from the image data of the subject acquired by a photographing unit 53, while a face peripheral region detecting unit 57 extracts a region other than the face. A specified person information recording unit 58 preliminarily has a record of characteristics information about the face (face information) of the specified person and characteristics information (additional information) about colors and features of clothes or the like other than the face. When a first object identifying unit 59 fails in identification of the specified person by the face information, a second object identifying unit 60 uses the additional information and determines whether or not the registered characteristics information about the specified person are included in the subject; and when the second identifying unit determines that the information is included in the subject, the unit determines the face region of the person as a focusing object. An AF controlling unit 55 performs AF control to focus the identified focusing object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えばデジタルスチルカメラやカメラ機能を搭載した携帯端末などの撮影装置に関し、特に撮影時の焦点合わせのための技術に関する。   The present invention relates to a photographing apparatus such as a digital still camera or a portable terminal equipped with a camera function, and more particularly to a technique for focusing during photographing.

例えばデジタルスチルカメラのような撮影装置を用いて写真等を撮影する場合には、撮影対象の被写体の像の中で特に注目すべき対象物(例えば人物)を鮮明に撮影できるように、前記対象物の箇所に対して光学系の焦点を合わせるのが一般的である。また、自動焦点調節機構(AF)を搭載した撮影装置においては、撮影範囲内の特定箇所(例えば撮影範囲の中央部)に対して焦点を合わせるように光学系の焦点距離を自動的に調節するのが一般的である。また最近では、被写体画像中に存在する人物の顔を認識し、顔領域に対して自動的に焦点を合わせる技術なども広く用いられている。   For example, when taking a photograph or the like using a photographing apparatus such as a digital still camera, the target is selected so that an object of particular interest (for example, a person) can be clearly photographed in an image of the subject to be photographed. In general, the optical system is focused on the part of the object. In an imaging apparatus equipped with an automatic focus adjustment mechanism (AF), the focal length of the optical system is automatically adjusted so as to focus on a specific location within the imaging range (for example, the center of the imaging range). It is common. Recently, a technique for recognizing a person's face in a subject image and automatically focusing on the face area has been widely used.

ところで、例えば同時に複数の人物を撮影する際に、同じ被写体の中に存在する複数の人物の中で特定人物だけに優先的に焦点を合わせたいような場合がある。例えば、複数の人物の中に、自分の家族や友人などの特定人物が含まれているような場合である。しかし、このような特定人物が撮影範囲の中央位置に存在するとは限らないので、特定人物に対して自動的に焦点を合わせることは困難である。   By the way, for example, when photographing a plurality of persons at the same time, there is a case where it is desired to focus on a specific person preferentially among a plurality of persons existing in the same subject. For example, there are cases where a specific person such as his / her family or friends is included in a plurality of persons. However, since such a specific person does not always exist at the center of the shooting range, it is difficult to automatically focus on the specific person.

このような場合に便利な機能を提供するための技術が、例えば特許文献1に開示されている。特許文献1の技術では、撮影範囲に含まれる人物の顔を画像処理により自動的に認識し、認識した顔の箇所に対して自動的に焦点を合わせる。更に、特定の顔の画像情報を予め登録しておいて、撮影対象の画像に含まれる顔が登録されている顔と一致したら、その顔に対して自動的に焦点を合わせるようにする。なお、顔の照合には画像データに含まれる輝度情報を利用している。   For example, Patent Document 1 discloses a technique for providing a convenient function in such a case. In the technique of Patent Document 1, a person's face included in the shooting range is automatically recognized by image processing, and the recognized face portion is automatically focused. Further, image information of a specific face is registered in advance, and when the face included in the image to be photographed matches the registered face, the face is automatically focused. Note that luminance information included in the image data is used for face matching.

また、例えば特許文献2においては、焦点位置を自動的に調整した後で、画像中のどの位置が合焦しているかを確認するための技術が開示されている。特許文献3においては、人物を撮影した場合に、画像に含まれる顔を認識して、顔が画面の中心に配置されるよう位置調整し拡大表示する技術が開示されている。特許文献4においては、撮影直後に、画面内の予め選択されたピント位置を自動的に拡大表示する技術が開示されている。
特開2002−333652号公報 特許第3956861号公報 特開2005−318515号公報 特開2004−64259号公報
For example, Patent Document 2 discloses a technique for confirming which position in an image is in focus after automatically adjusting the focal position. Patent Document 3 discloses a technique for recognizing a face included in an image and adjusting the position so that the face is arranged at the center of the screen and displaying the enlarged image when a person is photographed. Patent Document 4 discloses a technique for automatically enlarging and displaying a pre-selected focus position in a screen immediately after shooting.
Japanese Patent Laid-Open No. 2002-333651 Japanese Patent No. 3958861 JP 2005-318515 A JP 2004-64259 A

上述した特許文献1の技術を採用すれば、複数の人物が含まれる被写体を撮影する場合に、複数の人物中に家族や友人など予め登録した特定人物が含まれている場合には、特定人物が撮影範囲の中央に位置していなくても、特定人物の顔に対して自動的に焦点を合わせることが可能である。   If the technique of the above-mentioned patent document 1 is adopted, when shooting a subject including a plurality of persons, if a specific person registered in advance, such as a family or a friend, is included in the plurality of persons, the specific person Can be automatically focused on the face of a specific person even if is not located at the center of the shooting range.

しかしながら、被写体画像中のある人物の顔が特定人物の顔と一致するかどうか正確に照合するのは難しく、顔の特徴のみでは複数の人物の中で特定人物を認識できない状況が発生する可能性も高い。例えば、顔の特徴を示す輝度情報のみで特定人物かどうかを識別する場合、特定人物が横の方向を向いているような状態では、特定人物の顔が撮影方向に対して60度以上傾いていると顔の識別が極めて困難になる。   However, it is difficult to accurately check whether a person's face in the subject image matches the face of the specific person, and there may be a situation in which a specific person cannot be recognized among multiple persons using only the facial features. Is also expensive. For example, when identifying whether or not a specific person is based only on luminance information indicating facial features, the face of the specific person is tilted by 60 degrees or more with respect to the shooting direction in a state where the specific person is facing sideways. Face recognition becomes extremely difficult.

このように、特定人物が横を向いているなどして顔を正しく認識できない場合は、その特定人物に対して焦点を合わせることができないという課題がある。この場合、特定人物を十分認識可能になってから撮影を行おうとすると、撮影までに時間がかかり、シャッターチャンスを逃してしまうこともある。   As described above, when the face cannot be correctly recognized because the specific person is facing sideways, there is a problem in that the specific person cannot be focused. In this case, if an attempt is made to take a picture after sufficient recognition of a specific person is made, it takes time until the picture is taken and a photo opportunity may be missed.

本発明は、上記事情に鑑みてなされたもので、特定人物の顔の特徴のみでは識別が困難な状況であっても、特定人物をより高い確度で識別して自動的に焦点を合わせることが可能な撮影装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and it is possible to identify a specific person with higher accuracy and automatically focus even in a situation where it is difficult to identify only with the facial features of the specific person. An object of the present invention is to provide a possible photographing apparatus.

本発明は、被写体を撮影する撮影部と、前記撮影部により得られた被写体の画像データから、人物の顔の領域における第1の画像情報と、前記顔の周辺領域における第2の画像情報とを検出する特定領域検出部と、特定人物の顔に関する特徴情報を含む顔情報と、この特定人物の顔以外に関する特徴情報を含む付加情報とを記録する特定人物情報記録部と、前記特定領域検出部で検出された顔領域の第1の画像情報と前記特定人物情報記録部に記録された顔情報とを比較し、前記第1の画像情報と前記顔情報とが一致する場合に、この顔領域をフォーカス対象物として識別する第1の対象物識別部と、前記検出された顔領域の第1の画像情報と前記記録された顔情報とが一致しない場合に、前記特定領域検出部で検出された顔の周辺領域の第2の画像情報と前記特定人物情報記録部に記録された付加情報とを比較し、前記第2の画像情報に前記付加情報が含まれる場合に、この周辺領域に対応する顔領域をフォーカス対象物として識別する第2の対象物識別部と、前記第1の対象物識別部または前記第2の対象物識別部で識別されたフォーカス対象物の位置に前記撮影部の焦点を合わせる焦点調整部と、を備える撮影装置を提供する。
上記構成により、特定人物の顔の特徴のみでは識別が困難な状況であっても、顔以外の付加情報を用いることによって、特定人物をより高い確度で識別することが可能となる。このため、対象の特定人物に対してより確実にすばやく自動的に焦点を合わせることができるようになる。顔以外に関する特徴情報としては、例えば、特定人物が身に着けている衣服、めがねやアクセサリー、特定人物が所持しているバッグなどに関する情報を用いることが想定される。
The present invention provides a photographing unit for photographing a subject, first image information in a human face region, and second image information in a peripheral region of the face from image data of the subject obtained by the photographing unit. A specific area detecting unit for detecting the face, face information including feature information related to the face of the specific person, and a specific person information recording unit for recording additional information including feature information related to other than the face of the specific person, and the specific area detection If the first image information of the face area detected by the section is compared with the face information recorded in the specific person information recording section, and the first image information matches the face information, Detected by the specific region detecting unit when the first object identifying unit that identifies the region as a focus target and the first image information of the detected face region and the recorded face information do not match Of the area around the face When the additional information is included in the second image information, the face area corresponding to the peripheral area is set as the focus object. A second object identification unit for identifying; a focus adjustment unit that focuses the imaging unit on the position of the focus object identified by the first object identification unit or the second object identification unit; An imaging device is provided.
With the above-described configuration, even if it is difficult to identify only the facial features of a specific person, it is possible to identify the specific person with higher accuracy by using additional information other than the face. For this reason, it becomes possible to focus on a specific target person more reliably and quickly. As the feature information related to other than the face, for example, it is assumed to use information related to clothes worn by a specific person, glasses and accessories, a bag possessed by the specific person, and the like.

本発明は、被写体を撮影する撮影部と、前記撮影部により得られた被写体の画像データから、人物の顔の領域における第1の画像情報と、前記顔の周辺領域における第2の画像情報とを検出する特定領域検出部と、特定人物の顔に関する特徴情報を含む顔情報と、この特定人物の衣服に関する特徴情報を含む付加情報とを記録する特定人物情報記録部と、前記特定領域検出部で検出された顔領域の第1の画像情報と前記特定人物情報記録部に記録された顔情報とを比較し、前記第1の画像情報と前記顔情報とが一致する場合に、この顔領域をフォーカス対象物として識別する第1の対象物識別部と、前記検出された顔領域の第1の画像情報と前記記録された顔情報とが一致しない場合に、前記特定領域検出部で検出された顔の周辺領域の第2の画像情報と前記特定人物情報記録部に記録された付加情報とを比較し、前記第2の画像情報に前記衣服に関する付加情報が含まれる場合に、この周辺領域に対応する顔領域をフォーカス対象物として識別する第2の対象物識別部と、前記第1の対象物識別部または前記第2の対象物識別部で識別されたフォーカス対象物の位置に前記撮影部の焦点を合わせる焦点調整部と、を備える撮影装置を提供する。
上記構成により、特定人物の顔の特徴のみでは識別が困難な状況であっても、衣服に関する特徴情報を含む付加情報を用いることによって、特定人物をより高い確度で識別することが可能となる。このため、対象の特定人物に対してより確実にすばやく自動的に焦点を合わせることができるようになる。
The present invention provides a photographing unit for photographing a subject, first image information in a human face region, and second image information in a peripheral region of the face from image data of the subject obtained by the photographing unit. A specific area detecting unit for detecting the face, face information including characteristic information regarding the face of the specific person, and additional information including characteristic information regarding the clothes of the specific person, and the specific area detecting unit When the first image information of the face area detected in step 1 is compared with the face information recorded in the specific person information recording unit, and the first image information and the face information match, this face area Is detected by the specific area detection unit when the first image information of the detected face area does not match the recorded face information. 2nd area around the face When the image information and the additional information recorded in the specific person information recording unit are compared, and the second image information includes additional information related to the clothes, the face area corresponding to the peripheral area is selected as the focus object. And a focus adjustment unit that focuses the photographing unit on the position of the focus object identified by the first object identification unit or the second object identification unit. A photographing apparatus including the above is provided.
With the above configuration, even in a situation where it is difficult to identify only with the facial features of a specific person, it is possible to identify the specific person with higher accuracy by using additional information including feature information about clothes. For this reason, it becomes possible to focus on a specific target person more reliably and quickly.

また、本発明は、上記の撮影装置であって、前記特定人物情報記録部は、前記顔情報として輝度情報を含む特徴情報を記録し、前記付加情報として色差情報を含む特徴情報を記録するものであり、前記第1の対象物識別部は、前記第1の画像情報における輝度情報を用いて前記顔情報との比較を行い、前記第2の対象物識別部は、前記第2の画像情報における色差情報を用いて前記付加情報との比較を行うものを含む。
上記構成により、特定人物の顔の特徴のみでは識別が困難な状況であっても、色差情報を用いることで、例えば衣服の色などの一致によって高い確度で特定人物か否かを識別することが可能になる。また、色を判定することによって容易に特定人物の識別が可能である。
Further, the present invention is the above-described photographing apparatus, wherein the specific person information recording unit records feature information including luminance information as the face information, and records feature information including color difference information as the additional information. The first object identification unit compares the face information with luminance information in the first image information, and the second object identification unit performs the second image information. And comparing with the additional information using the color difference information.
With the above configuration, even in situations where it is difficult to identify only with the characteristics of the face of a specific person, it is possible to identify whether or not the person is a specific person with high accuracy by matching the color of clothes, for example, using color difference information It becomes possible. Further, it is possible to easily identify a specific person by determining the color.

また、本発明は、上記の撮影装置であって、前記第1の対象物識別部は、前記第1の画像情報と前記顔情報との一致の確からしさを示す尤度を算出し、この尤度と、第1の閾値及びこの第1の閾値より小さい第2の閾値とを比較して、前記尤度が前記第1の閾値以上の場合に一致を判定し、前記第2の対象物識別部は、前記第1の対象物識別部において前記尤度が前記第1の閾値と前記第2の閾値の間である場合にのみ、前記第2の画像情報と前記付加情報とを比較して特定人物の顔領域を識別するものを含む。
上記構成により、一致度を示す尤度を算出して判定することで、顔領域や周辺領域について特定人物に該当するか否かをより適切に判別することが可能になる。
Further, the present invention is the above-described imaging device, wherein the first object identification unit calculates a likelihood indicating a probability of matching between the first image information and the face information, and the likelihood. And the first threshold value and a second threshold value smaller than the first threshold value, and when the likelihood is equal to or greater than the first threshold value, a match is determined, and the second object identification is performed. The unit compares the second image information with the additional information only when the likelihood is between the first threshold and the second threshold in the first object identification unit. This includes identifying the face area of a specific person.
With the above configuration, it is possible to more appropriately determine whether or not the face region and the peripheral region correspond to a specific person by calculating and determining the likelihood indicating the degree of coincidence.

また、本発明は、上記の撮影装置であって、前記第2の対象物識別部は、前記第2の画像情報として、前記特定領域検出部で検出された顔領域に対して下方に位置する周辺領域の色情報を用いて、前記付加情報と比較して特定人物の顔周辺領域を識別するものを含む。
上記構成により、顔領域の下方に位置する衣服などの色を比較することで、高い確度で特定人物の識別、検出が可能になる。
Moreover, this invention is said imaging | photography apparatus, Comprising: A said 2nd target identification part is located below with respect to the face area detected by the said specific area detection part as said 2nd image information. This includes identifying the peripheral area of the face of a specific person using color information of the peripheral area as compared with the additional information.
With the above configuration, by comparing the color of clothes or the like located below the face area, it is possible to identify and detect a specific person with high accuracy.

また、本発明は、上記の撮影装置であって、前記特定人物情報記録部は、前記付加情報として特定人物の顔、上半身、下半身に関する色情報を記録するものであり、前記第2の対象物識別部は、前記第2の画像情報として、前記特定領域検出部で検出された顔領域と、この顔領域に近接する上半身に相当する領域と、この上半身に近接する下半身に相当する領域とにおける色情報を用いて、前記第2の画像情報と前記付加情報の色の配置を比較して特定人物の顔周辺領域を識別するものを含む。
上記構成により、人物の顔、上半身、下半身の色及びその配置を比較して整合性を判定することで、顔以外の付加情報を用いて特定人物の識別、検出がより確実に行える。例えば、特定人物の上半身の衣服と似た衣服を身につけた人物が被写体の中に複数存在する場合であっても、上半身の衣服と下半身の衣服の組み合わせなども判定することによって、判定精度を高められる。
Further, the present invention is the above-described photographing apparatus, wherein the specific person information recording unit records color information relating to the face, upper body, and lower body of the specific person as the additional information, and the second object The identification unit includes, as the second image information, a face region detected by the specific region detection unit, a region corresponding to the upper body close to the face region, and a region corresponding to the lower body close to the upper body The color information is used to compare the color arrangement of the second image information and the additional information to identify the face peripheral area of the specific person.
With the above configuration, the color of the person's face, upper body, and lower body and their arrangement are compared to determine consistency, so that the specific person can be more reliably identified and detected using additional information other than the face. For example, even when there are multiple persons in the subject wearing clothes similar to the upper body clothes of a specific person, the determination accuracy can be improved by determining the combination of the upper body clothes and the lower body clothes. Enhanced.

また、本発明は、上記の撮影装置であって、前記特定人物情報記録部は、前記付加情報として色差情報と輝度情報を含む複数の特徴情報を記録するものであり、前記第2の対象物識別部は、前記第2の画像情報における色差情報を用いた第1の付加情報との比較、及び前記第2の画像情報における輝度情報を用いた第2の付加情報との比較を行い、特定人物の顔周辺領域を識別するものを含む。
上記構成により、付加情報として色差情報に加えて輝度情報を用いて顔以外の衣服等の特徴を比較することで、特定人物の判定精度を高めることができる。例えば、特定人物の衣服と同じ色の衣服を身につけた人物が被写体の中に複数存在する場合であっても、衣服の形状、めがね等の身に着けている物の形状、かばん等の持ち物の形状などを合わせて判定することで、判定精度を高められる。
Further, the present invention is the above-described photographing device, wherein the specific person information recording unit records a plurality of feature information including color difference information and luminance information as the additional information, and the second object The identification unit performs comparison with the first additional information using the color difference information in the second image information and comparison with the second additional information using the luminance information in the second image information. This includes identifying the area around the human face.
With the above-described configuration, it is possible to improve the determination accuracy of a specific person by comparing features such as clothes other than the face using luminance information in addition to color difference information as additional information. For example, even if there are multiple persons in the subject wearing clothes of the same color as the clothes of a specific person, the shape of clothes, the shape of items worn such as glasses, and belongings such as bags The determination accuracy can be improved by determining the shape and the like together.

本発明によれば、特定人物の顔の特徴のみでは識別が困難な状況であっても、特定人物をより高い確度で識別して自動的に焦点を合わせることが可能な撮影装置を提供できる。   According to the present invention, it is possible to provide an imaging apparatus capable of identifying a specific person with higher accuracy and automatically focusing even in a situation where it is difficult to identify only by the facial features of the specific person.

以下の実施形態では、撮影装置の一例として、携帯電話端末等の携帯電子機器に搭載されるカメラ機能部、あるいはデジタルスチルカメラに適用した構成例を示す。   In the following embodiments, a configuration example applied to a camera function unit mounted on a portable electronic device such as a mobile phone terminal or a digital still camera is shown as an example of a photographing apparatus.

図1は本発明の実施形態に係る撮影装置の概略構成を示すブロック図である。本実施形態の撮影装置は、光学系52、撮影部53、焦点調節機構54、AF制御部55、顔領域検出部56、顔周辺領域検出部57、特定人物情報記録部58、第1対象物識別部59、及び第2対象物識別部60を備えて構成される。   FIG. 1 is a block diagram showing a schematic configuration of a photographing apparatus according to an embodiment of the present invention. The imaging apparatus of the present embodiment includes an optical system 52, an imaging unit 53, a focus adjustment mechanism 54, an AF control unit 55, a face area detection unit 56, a face peripheral area detection unit 57, a specific person information recording unit 58, and a first object. An identification unit 59 and a second object identification unit 60 are provided.

光学系52は、複数のレンズなどで構成されており、任意の被写体51から入射する光を撮影部53の撮像面に導いて結像する。光学系52に連結されている焦点調節機構54は、モータなどの駆動力によって光学系52のレンズの位置を移動し、撮影部53の撮像面に結像する光の焦点を調整する。撮影部53は、被写体51を撮影するもので、例えば二次元CCDイメージセンサのような撮像素子を備え、この表面の撮像面に入射した被写体像を二次元画像の電気信号に変換し画像データとして出力する。   The optical system 52 includes a plurality of lenses and the like, and guides light incident from an arbitrary subject 51 to the imaging surface of the imaging unit 53 to form an image. The focus adjustment mechanism 54 connected to the optical system 52 moves the position of the lens of the optical system 52 by a driving force such as a motor, and adjusts the focus of the light imaged on the imaging surface of the imaging unit 53. The photographing unit 53 photographs the subject 51, and includes an imaging device such as a two-dimensional CCD image sensor. The photographing unit 53 converts the subject image incident on the imaging surface of the surface into an electric signal of a two-dimensional image as image data. Output.

AF(自動焦点調節)制御部55は、撮影部53から出力される画像データ、もしくはその他のセンサ(図示しない測距センサ等)から出力される信号に基づいて焦点調節機構54を制御し、被写体51上の特定の位置に対して正しく焦点が合うように光学系52の焦点を自動的に調整するAF制御を行う。AF制御部55は、通常の動作モードでは、画面の中央などの予め定めた位置で焦点が合うようにAF制御を行う。また、AF制御部55は、人物に焦点を合わせる特別なモードでは、第1対象物識別部59または第2対象物識別部60から入力される信号に基づいて焦点を合わせるべきフォーカス対象物の位置を特定し、被写体51上の優先すべきフォーカス対象物の位置で正しく焦点が合うようにAF制御を行う。ここで、焦点調節機構54、AF制御部55が焦点調整部の機能を実現する。   An AF (automatic focus adjustment) control unit 55 controls the focus adjustment mechanism 54 based on image data output from the imaging unit 53 or a signal output from another sensor (such as a distance measuring sensor (not shown)), and the subject AF control is performed to automatically adjust the focus of the optical system 52 so that a specific position on 51 is correctly focused. In the normal operation mode, the AF control unit 55 performs AF control so that the focus is achieved at a predetermined position such as the center of the screen. Further, in a special mode for focusing on a person, the AF control unit 55 positions the focus object to be focused based on a signal input from the first object identification unit 59 or the second object identification unit 60. And AF control is performed so that the focus is correctly adjusted at the position of the focus object to be prioritized on the subject 51. Here, the focus adjustment mechanism 54 and the AF control unit 55 realize the function of the focus adjustment unit.

顔領域検出部56は、撮影部53から出力される画像データに含まれる輝度信号について所定の画像処理を実施することにより、撮影前の被写体画像(被写体イメージ画像)における各人物の顔の領域を抽出し、抽出された顔の領域のデータを出力する。   The face area detection unit 56 performs predetermined image processing on the luminance signal included in the image data output from the imaging unit 53, thereby determining the area of each person's face in the subject image (subject image image) before shooting. The extracted face area data is output.

顔周辺領域検出部57は、撮影部53から出力される画像データに含まれる輝度信号について所定の画像処理を実施することにより、撮影前の被写体画像(被写体イメージ画像)における各人物に属している顔以外の領域を抽出し、抽出された領域のデータを出力する。各人物に属している顔以外の領域としては、人物の上半身の領域、下半身の領域、所持している物品(例えばバッグ)の領域などがある。また、例えば人物がめがねをかけているような場合には、めがねの領域も顔以外の領域として抽出する。顔以外の領域のデータとしては、輝度情報だけでなく、色差情報なども用いる。ここで、顔領域検出部56、顔周辺領域検出部57が、被写体の画像データから人物の顔の領域における第1の画像情報と、顔の周辺領域における第2の画像情報とを検出する特定領域検出部の機能を実現する。   The face peripheral area detection unit 57 belongs to each person in the subject image (subject image image) before photographing by performing predetermined image processing on the luminance signal included in the image data output from the photographing unit 53. An area other than the face is extracted, and data of the extracted area is output. The area other than the face belonging to each person includes an upper body area, a lower body area, an article (for example, a bag) area of the person, and the like. For example, when a person is wearing glasses, the glasses area is also extracted as an area other than the face. As data of the area other than the face, not only luminance information but also color difference information is used. Here, the face area detection unit 56 and the face peripheral area detection unit 57 are configured to detect the first image information in the human face area and the second image information in the face peripheral area from the subject image data. The function of the area detection unit is realized.

特定人物情報記録部58は、不揮発性メモリを有し、ある時点で撮影部53が撮影した画像の中から顔領域検出部56及び顔周辺領域検出部57が抽出した特定人物に関する情報や、予め登録された人物特定用の衣服や所持品等に関する特徴情報などを特定人物情報として記録して保存する。特定人物としては、例えばこの撮影装置のユーザ(所有者等)の家族や友人などを選択することが想定される。したがって、撮影画像から特定人物に関する情報を記録する場合、この撮影装置のユーザがボタンなどの入力操作により指定した人物を特定人物として選択すればよい。   The specific person information recording unit 58 has a non-volatile memory, and information related to a specific person extracted by the face area detection unit 56 and the face peripheral area detection unit 57 from images captured by the image capturing unit 53 at a certain point in time, Feature information on registered personal identification clothes and personal belongings is recorded and stored as specific personal information. As the specific person, for example, it is assumed to select a family or a friend of the user (owner or the like) of the photographing apparatus. Therefore, when recording information related to a specific person from a photographed image, a person designated by an input operation such as a button by the user of the photographing apparatus may be selected as the specific person.

特定人物情報記録部58が記録する特定人物情報としては、特定人物の顔の領域の輝度信号の解析により得られた顔の特徴情報(例えば両目の間隔など、以下「顔情報」と称する)、特定人物の顔以外の領域の色差信号及び輝度信号の解析により得られた顔周辺の特徴情報(例えば衣服の色や形状など、以下「付加情報」と称する)、撮影日などが含まれている。更なる具体例については後で説明する。   The specific person information recorded by the specific person information recording unit 58 includes facial feature information obtained by analyzing the luminance signal of the face area of the specific person (for example, the distance between both eyes, hereinafter referred to as “face information”), Includes facial feature information (for example, clothing color and shape, hereinafter referred to as “additional information”) obtained by analysis of color difference signals and luminance signals of areas other than the face of a specific person, shooting date, and the like. . Further specific examples will be described later.

第1対象物識別部59は、撮影部53により得られた被写体イメージ画像の画像データにおいて、顔領域検出部56が抽出した人物の顔領域に関する特徴情報と、予め特定人物情報記録部58に登録されている特定人物の顔領域に関する特徴情報とを比較することにより、両者が同一人物かどうかを判断する。そして、同一人物であると判断した場合には、顔領域検出部56が抽出した該当する人物を特定人物と識別して、その顔領域をフォーカス対象物に決定し、このフォーカス対象物の領域に関する位置情報をAF制御部55に与える。   The first object identifying unit 59 registers in the image data of the subject image obtained by the photographing unit 53 with the feature information regarding the face area of the person extracted by the face area detecting unit 56 and the specific person information recording unit 58 in advance. It is determined whether or not both are the same person by comparing with the feature information regarding the face area of the specified person. If it is determined that they are the same person, the corresponding person extracted by the face area detecting unit 56 is identified as a specific person, the face area is determined as a focus object, and the focus object area is determined. Position information is given to the AF control unit 55.

第2対象物識別部60は、第1対象物識別部59において、顔領域検出部56が検出した人物を特定人物と識別できなかった場合に、次の処理を行う。すなわち、第2対象物識別部60は、撮影部53により得られた被写体イメージ画像の画像データにおいて、顔周辺領域検出部57が抽出した人物の顔以外の領域に関する特徴情報と、予め特定人物情報記録部58に登録されている特定人物の顔以外の領域に関する特徴情報とを比較することにより、両者が同一人物かどうかを判断する。そして、同一人物であると判断した場合には、顔周辺領域検出部57が抽出した該当する人物を特定人物と識別して、その顔領域をフォーカス対象物に決定し、このフォーカス対象物の領域に関する位置情報をAF制御部55に与える。   The second object identification unit 60 performs the following process when the first object identification unit 59 cannot identify the person detected by the face area detection unit 56 from the specific person. That is, the second object identifying unit 60 includes, in the image data of the subject image obtained by the photographing unit 53, feature information related to a region other than the person's face extracted by the face peripheral region detecting unit 57, and specific person information in advance. By comparing the feature information related to the area other than the face of the specific person registered in the recording unit 58, it is determined whether or not both are the same person. If it is determined that they are the same person, the corresponding person extracted by the face peripheral area detection unit 57 is identified as a specific person, the face area is determined as a focus object, and the area of the focus object is determined. Is given to the AF control unit 55.

つまり、本実施形態では、撮影部53で撮影された被写体51に含まれる人物が特定人物情報記録部58に登録されている特定人物と一致するかどうかを、第1対象物識別部59によって顔だけでは判断できない場合には、第2対象物識別部60によって顔以外の領域の特徴情報(付加情報)を利用して判断を行う。この際、予め特定人物情報記録部58に登録された特定人物が被写体51の中に含まれている場合には、第1対象物識別部59または第2対象物識別部60の識別結果に基づき、AF制御部55は、撮影部53で得られた被写体イメージ画像の画像データにおいて、フォーカス対象物となる特定人物に該当する人物の顔の領域の位置を把握し、この領域(特定人物の顔)で焦点が合うように焦点調節機構54を自動的に調整する。   That is, in the present embodiment, the first object identification unit 59 determines whether or not the person included in the subject 51 photographed by the photographing unit 53 matches the specific person registered in the specific person information recording unit 58. If the determination cannot be made only by using the feature information (additional information) of the region other than the face, the second object identifying unit 60 makes the determination. At this time, if a specific person registered in advance in the specific person information recording unit 58 is included in the subject 51, the identification result of the first object identification unit 59 or the second object identification unit 60 is used. The AF control unit 55 grasps the position of the face area of the person corresponding to the specific person as the focus object in the image data of the subject image obtained by the photographing unit 53, and this area (the face of the specific person) ) Automatically adjusts the focus adjustment mechanism 54 so that it is in focus.

図2は本実施形態の撮影装置の主要部の構成を示すブロック図である。本実施形態の撮影装置は、カメラデバイス10、表示デバイス20、アプリケーション部100、AF制御部200、優先判定部300、輝度成分判定部310、色差成分判定部320、優先登録部400、及び撮影制御部500を備えて構成される。   FIG. 2 is a block diagram showing the configuration of the main part of the photographing apparatus of this embodiment. The imaging apparatus of this embodiment includes a camera device 10, a display device 20, an application unit 100, an AF control unit 200, a priority determination unit 300, a luminance component determination unit 310, a color difference component determination unit 320, a priority registration unit 400, and imaging control. The unit 500 is provided.

なお、図1に示した各構成要素のうち、光学系52、撮影部53、焦点調節機構54はカメラデバイス10に含まれており、AF制御部55はAF制御部200に対応する。また、顔領域検出部56、顔周辺領域検出部57、第1対象物識別部59、第2対象物識別部60は優先判定部300に対応し、特定人物情報記録部58は優先登録部400に対応する。ここで、第1対象物識別部59は優先判定部300の輝度成分判定部310の機能を含み、第2対象物識別部60は優先判定部300の色差成分判定部320及び輝度成分判定部310の機能を含む。   Of the components shown in FIG. 1, the optical system 52, the imaging unit 53, and the focus adjustment mechanism 54 are included in the camera device 10, and the AF control unit 55 corresponds to the AF control unit 200. Further, the face area detection unit 56, the face peripheral area detection unit 57, the first object identification unit 59, and the second object identification unit 60 correspond to the priority determination unit 300, and the specific person information recording unit 58 is a priority registration unit 400. Corresponding to Here, the first object identifying unit 59 includes the function of the luminance component determining unit 310 of the priority determining unit 300, and the second object identifying unit 60 is the color difference component determining unit 320 and the luminance component determining unit 310 of the priority determining unit 300. Includes features.

カメラデバイス10は、任意の被写体のイメージを撮影するためのデバイスであり、AF制御部200からの指示によりフォーカス調整を行うとともに、撮影制御部500からの指示で撮影を行う。カメラデバイス10により得られた撮影前の被写体イメージ画像または撮影後の被写体画像の画像データは、撮影制御部500を経由してアプリケーション部100に引き渡される。カメラデバイス10はカラー画像を撮影し、出力される画像データには輝度情報(Y)と色差情報(Cb/Cr)とが含まれる。   The camera device 10 is a device for photographing an image of an arbitrary subject, and performs focus adjustment according to an instruction from the AF control unit 200 and performs photographing according to an instruction from the photographing control unit 500. The image data of the subject image before photographing or the subject image after photographing obtained by the camera device 10 is delivered to the application unit 100 via the photographing control unit 500. The camera device 10 captures a color image, and output image data includes luminance information (Y) and color difference information (Cb / Cr).

表示デバイス20は、例えば液晶表示パネルのように二次元の画像表示機能を有する装置であり、撮影制御部500からの指示及び情報に基づき表示を行う。この際、カメラデバイス10の撮影領域にある被写体イメージ画像の表示(プレビュー表示)や撮影した被写体画像の表示(ポストビュー表示)を行う。   The display device 20 is a device having a two-dimensional image display function such as a liquid crystal display panel, for example, and performs display based on instructions and information from the imaging control unit 500. At this time, display of the subject image in the shooting area of the camera device 10 (preview display) and display of the shot subject image (post-view display) are performed.

アプリケーション部100は、写真撮影を行う機能を制御するためのアプリケーションプログラム(カメラアプリケーション)である。このアプリケーションプログラムは、撮影装置に設けられる制御処理用のプロセッサによって実行される。このアプリケーション部100でのカメラアプリケーションの実行により、カメラの各機能を実現しており、撮影前のAF制御及びAE(自動露出調節)制御、撮影処理、撮影後のデータ保存などの一連の処理の制御が実施される。   The application unit 100 is an application program (camera application) for controlling a function of taking a photograph. This application program is executed by a processor for control processing provided in the photographing apparatus. Each function of the camera is realized by executing the camera application in the application unit 100, and a series of processes such as AF control and AE (automatic exposure adjustment) control before photographing, photographing processing, and data storage after photographing are performed. Control is implemented.

AF制御部200は、アプリケーション部100からの指示を受け、被写体の特定位置に対して自動的にカメラデバイス10の光学系の焦点を合わせるためのAF制御を行う。この際、どこにフォーカスを合わせるかの判定を優先判定部300に確認する。優先判定部300は、AF制御部200からの要求を受け、フォーカス調整時に優先的にフォーカスを合わせる対象(人物)が存在するかどうかを判定する。   The AF control unit 200 receives an instruction from the application unit 100 and performs AF control for automatically focusing the optical system of the camera device 10 on a specific position of the subject. At this time, the priority determination unit 300 confirms where to focus. The priority determination unit 300 receives a request from the AF control unit 200 and determines whether there is a target (person) to be focused preferentially during focus adjustment.

輝度成分判定部310は、撮影時に、フォーカスを合わせる際の優先箇所の有無判定を、輝度成分(顔領域の情報及び顔の周辺領域に関する付加情報)を基に行う。この際、輝度成分判定部310は、優先登録部400に予め登録された特定人物の顔情報及び付加情報と撮影領域内の被写体イメージ画像との比較を行い、情報の一致度に基づき、フォーカス優先箇所の有無判定を行う。   The luminance component determination unit 310 determines the presence / absence of a priority portion when focusing on the basis of the luminance component (information on the face region and additional information on the peripheral region of the face) at the time of shooting. At this time, the luminance component determination unit 310 compares the face information and additional information of the specific person registered in advance in the priority registration unit 400 with the subject image in the shooting region, and based on the degree of coincidence of information, the focus priority Judgment of presence / absence of location

色差成分判定部320は、撮影時に、フォーカスを合わせる際の優先箇所の有無判定を、色差成分(衣服などの色情報)を基に行う。この際、色差成分判定部320は、優先登録部400に予め登録された特定人物の周辺領域の色情報と撮影領域内の被写体イメージ画像との比較を行い、情報の一致度に基づき、フォーカス優先箇所の有無判定を行う。すなわち、輝度成分判定部310が輝度成分の判定を行うのに対して、色差成分判定部320は同様の判定を色差成分によって行う。   The color difference component determination unit 320 determines the presence / absence of a priority portion when focusing is performed based on the color difference component (color information such as clothes) at the time of shooting. At this time, the color difference component determination unit 320 compares the color information of the peripheral area of the specific person registered in advance in the priority registration unit 400 with the subject image in the shooting area, and based on the degree of coincidence of the information, the focus priority Judgment of presence / absence of location That is, the luminance component determination unit 310 determines the luminance component, whereas the color difference component determination unit 320 performs the same determination using the color difference component.

優先登録部400は、フォーカスを合わせる際に優先すべき特定人物についての特徴情報を登録するために、優先対象(人物の顔や衣服、など)の特徴情報の記録、保持を行う。この際、優先対象(人物及び衣服等)を撮影した画像データを元に、輝度成分及び色差成分を抽出して、輝度成分判定部310及び色差成分判定部320において用いる登録データとする。   The priority registration unit 400 records and holds feature information of a priority target (a person's face, clothes, etc.) in order to register feature information about a specific person to be prioritized when focusing. At this time, the luminance component and the color difference component are extracted based on the image data obtained by photographing the priority object (person, clothes, etc.) and are used as registration data used in the luminance component determination unit 310 and the color difference component determination unit 320.

撮影制御部500は、カメラの撮影動作そのものを制御する構成要素である。すなわち、撮影制御部500は、フォーカス調整や露出調整が完了した後、アプリケーション部100からの撮影操作(シャッター押下)信号により、カメラデバイス10がとらえている被写体画像の撮影動作の制御を行う。   The imaging control unit 500 is a component that controls the imaging operation itself of the camera. In other words, the photographing control unit 500 controls the photographing operation of the subject image captured by the camera device 10 by the photographing operation (shutter pressing) signal from the application unit 100 after the focus adjustment and the exposure adjustment are completed.

次に、本実施形態の撮影装置の動作について説明する。図3は本実施形態の撮影装置における動作の概要を示すフローチャートである。   Next, the operation of the photographing apparatus according to the present embodiment will be described. FIG. 3 is a flowchart showing an outline of operations in the photographing apparatus of the present embodiment.

まず、アプリケーション部100がユーザの撮影開始操作を入力し、カメラアプリケーションを起動して撮影処理を開始する(ステップS11)。その後、ユーザがシャッターボタンの半押しなどによりAF制御を指示する操作を行うと、アプリケーション部100がこのAF制御操作を入力し、AF制御部200に対してAF制御を実行する指示を行う(ステップS12)。   First, the application unit 100 inputs a user's shooting start operation, starts a camera application, and starts shooting processing (step S11). Thereafter, when the user performs an operation for instructing the AF control by half-pressing the shutter button or the like, the application unit 100 inputs the AF control operation, and instructs the AF control unit 200 to execute the AF control (step). S12).

AF制御部200は、AF制御処理において、まずフォーカスを合わせる際の優先箇所の有無を判定する優先判定処理を実行する(ステップS13)。この優先判定処理では、どの位置にフォーカスを合わせるかを決定するための優先条件として、顔領域や顔以外の領域の特徴情報が登録されているかを確認し、優先条件が登録されている場合には、登録情報と画像データとの一致の有無を判定する。この際、まず顔領域の特徴情報(顔情報:輝度成分)に関して、優先条件の登録を確認し、カメラデバイス10により得られる被写体イメージ画像の画像データ中にその顔情報と合致する部分があるかどうかを判定する(ステップS14)。顔情報の登録が無い場合、または画像データ中に合致部分が無い場合は、続いて、顔以外の領域の特徴情報(付加情報:色差成分、輝度成分)に関して、優先条件の登録を確認し、被写体イメージ画像の画像データ中にその付加情報と合致する部分があるかどうかを判定する(ステップS15)。この優先判定処理については後で詳述する。   In the AF control process, the AF control unit 200 first executes a priority determination process for determining the presence / absence of a priority portion when focusing is performed (step S13). In this priority determination process, as a priority condition for deciding which position to focus on, it is confirmed whether the feature information of the face area or the area other than the face is registered, and if the priority condition is registered Determines whether the registration information matches the image data. At this time, first, the registration of the priority condition is confirmed with respect to the feature information (face information: luminance component) of the face area, and whether there is a portion that matches the face information in the image data of the subject image obtained by the camera device 10. It is determined whether or not (step S14). If there is no registration of face information, or if there is no matching part in the image data, then confirm the registration of priority conditions for feature information (additional information: color difference component, luminance component) of areas other than the face, It is determined whether there is a portion that matches the additional information in the image data of the subject image (step S15). This priority determination process will be described in detail later.

ここで、優先条件が登録されており、かつ、その登録された優先条件の特徴情報と撮影対象との比較において撮影対象と特徴情報とが合致した場合には、該当する位置をAF優先位置としてフォーカス位置(フォーカス対象物)に決定し(ステップS16)、ここに優先的にフォーカスを合わせるようにする。一方、優先条件が登録されていないか、または、登録されていてもその優先条件の特徴情報と撮影対象との比較において合致する点が無い場合には、例えば被写体イメージ画像の中央部などをAF標準位置としてフォーカス位置に決定し(ステップS17)、ここにフォーカスを合わせるようにする。   Here, when the priority condition is registered and the feature information of the registered priority condition is matched with the subject in the comparison with the subject, the corresponding position is set as the AF priority position. The focus position (focus object) is determined (step S16), and the focus is preferentially adjusted here. On the other hand, if the priority condition is not registered or if there is no matching point in the comparison between the feature information of the priority condition and the shooting target even if it is registered, for example, the center portion of the subject image is AF The focus position is determined as the standard position (step S17), and the focus is adjusted here.

次に、AF制御部200は、フォーカス位置として決定したAF優先位置またはAF標準位置に光学系のフォーカスを合わせるよう、カメラデバイス10に指示を送り、該当するフォーカス位置でのフォーカス調整を行う(ステップS18)。カメラデバイス10は、AF制御部200からの指示を受けて、フォーカス位置で合焦状態となるようレンズを光軸方向に駆動して光学系の焦点を調節する。   Next, the AF control unit 200 sends an instruction to the camera device 10 to adjust the focus of the optical system to the AF priority position or AF standard position determined as the focus position, and performs focus adjustment at the corresponding focus position (step). S18). Upon receiving an instruction from the AF control unit 200, the camera device 10 adjusts the focus of the optical system by driving the lens in the optical axis direction so as to be in focus at the focus position.

次に、ユーザがシャッターボタンの押し込みなどにより撮影実行を指示する操作を行うと、アプリケーション部100がこの撮影操作を入力し、撮影制御部500に対して撮影動作を実行する指示を行う(ステップS19)。撮影制御部500は、アプリケーション部100から撮影実行の指示を受けると、カメラデバイス10に対して、撮影を指示する。   Next, when the user performs an operation for instructing execution of shooting by pressing a shutter button or the like, the application unit 100 inputs this shooting operation, and instructs the shooting control unit 500 to execute a shooting operation (step S19). ). When receiving a shooting execution instruction from the application unit 100, the shooting control unit 500 instructs the camera device 10 to perform shooting.

そして、撮影制御部500は、撮影処理の制御を行う(ステップS20)。カメラデバイス10は、撮影制御部500の指示に従って撮影対象の被写体を撮影し、撮影により得られた被写体画像の画像データを撮影制御部500に渡す。撮影制御部500は、カメラデバイス10から被写体画像の画像データを受け取った後、この画像データを撮影画像として表示デバイス20に表示するための制御を行うと同時に、アプリケーション部100に引き渡す。その後、アプリケーション部100は、撮影後の処理として、撮影制御部500から受け取った被写体画像の画像データを画像格納用のメモリに保存する(ステップS21)。   Then, the shooting control unit 500 controls the shooting process (step S20). The camera device 10 shoots a subject to be photographed in accordance with an instruction from the photographing control unit 500, and passes image data of a subject image obtained by photographing to the photographing control unit 500. After receiving the image data of the subject image from the camera device 10, the imaging control unit 500 performs control for displaying the image data as a captured image on the display device 20, and at the same time, delivers it to the application unit 100. Thereafter, the application unit 100 saves the image data of the subject image received from the shooting control unit 500 in the image storage memory as a process after shooting (step S21).

図4は本実施形態の撮影装置における優先判定処理の動作の具体例を示すフローチャートである。ここでは、事前に優先登録部400に特定人物の顔領域に関する顔情報(輝度情報)及び顔の周辺領域に関する付加情報(色差情報、輝度情報)が登録されている場合に、人物を撮影する際の処理手順を例示する。   FIG. 4 is a flowchart showing a specific example of the operation of priority determination processing in the photographing apparatus of the present embodiment. Here, when face information (luminance information) related to a face area of a specific person and additional information (color difference information, brightness information) related to a peripheral area of the face are registered in the priority registration unit 400 in advance, The processing procedure of is illustrated.

人物を含む被写体をカメラデバイス10で撮影する場合、まずステップS31で優先判定部300は被写体イメージ画像の中に顔が存在するかどうかを判定する。この際、撮影前の被写体の画像データの中から少なくとも一人の人物の顔を抽出できたかどうかを判定する。ステップS31において被写体イメージ画像の中から顔を検出できない場合には、ステップS32に進み、AF制御部200は、予め定めたAF標準位置、例えば被写体イメージ画像の中央部に相当する位置をフォーカス位置とし、この位置に対して焦点を合わせるようにカメラデバイス10を制御する。   When a subject including a person is photographed by the camera device 10, first, in step S31, the priority determination unit 300 determines whether a face exists in the subject image. At this time, it is determined whether or not at least one person's face has been extracted from the image data of the subject before photographing. If a face cannot be detected from the subject image in step S31, the process proceeds to step S32, and the AF control unit 200 sets a predetermined AF standard position, for example, a position corresponding to the center of the subject image to be a focus position. Then, the camera device 10 is controlled to focus on this position.

ステップS31において被写体イメージ画像の中から顔を検出できた場合は、ステップS33に進む。ステップS33では、優先判定部300の輝度成分判定部310は、検出された人物の顔情報と優先登録部400に登録されている特定人物の顔情報とを輝度成分により比較し、一致するかどうかを判定する。   If a face can be detected from the subject image in step S31, the process proceeds to step S33. In step S33, the luminance component determination unit 310 of the priority determination unit 300 compares the detected face information of the person with the face information of the specific person registered in the priority registration unit 400 using the luminance component, and determines whether or not they match. Determine.

実際に顔情報を比較する際には、例えば顔の特徴である目の幅、口の幅、目と鼻の距離などの情報について、長さの相対的な比率が一致するかどうかを判定する。しかし、撮影の条件の違いなどの影響を受けるため、被写体中の人物と登録された特定人物とが同一人物であったとしても完全に一致するとは限らない。そこで、輝度成分判定部310は、一致の確からしさを表す尤度の数値を基に、比較結果を出力する。   When actually comparing face information, for example, it is determined whether or not the relative proportions of the lengths of the facial features such as eye width, mouth width, and eye-nose distance match. . However, due to the influence of differences in shooting conditions, even if the person in the subject and the registered specific person are the same person, they do not always match completely. Therefore, the luminance component determination unit 310 outputs a comparison result based on the likelihood value representing the likelihood of matching.

図5は尤度の範囲と判定結果との対応関係を表す模式図である。図5において、(a)は一致/不一致のいずれかを判定する例を示し、(b)は本実施形態における3つの判定結果を出力する例を示している。図5(a)のように、一致または不一致を1つの条件で判定する場合、尤度を0〜100%の範囲の値で表すと、例えば75%に判定基準を設定し、これより尤度が高い場合は一致、尤度が低い場合は不一致とする。しかし、判定基準に近い値で不一致となった場合、本当は一致している可能性も高い。   FIG. 5 is a schematic diagram showing a correspondence relationship between the likelihood range and the determination result. In FIG. 5, (a) shows an example of determining either coincidence / non-coincidence, and (b) shows an example of outputting three determination results in the present embodiment. As shown in FIG. 5A, when matching or mismatching is determined under one condition, when the likelihood is expressed by a value in the range of 0 to 100%, for example, a determination criterion is set to 75%. If the value is high, it is matched, and if the likelihood is low, it is not matched. However, if there is a disagreement at a value close to the criterion, there is a high possibility that it actually matches.

そこで、本実施形態では、図5(b)のように、尤度が第1の閾値である閾値A(例えば80%)以上の場合には一致と判定し、尤度が第2の閾値である閾値B(例えば60%)以下の場合には不一致であると判定する。また、尤度が閾値AとBの間の範囲にある場合には、準一致(おおよそ一致)であるとみなし、他の付加条件によって再判定を行う。準一致の場合は、実際には一致である可能性もあるし、不一致である可能性もあるので、さらに付加情報を用いて特定人物であるかを判定することで、判定精度を高めるようにする。   Therefore, in the present embodiment, as shown in FIG. 5B, when the likelihood is equal to or higher than a threshold A (for example, 80%) that is the first threshold, it is determined that the values match, and the likelihood is set to the second threshold. If it is less than a certain threshold B (for example, 60%), it is determined that there is a mismatch. Further, when the likelihood is in the range between the thresholds A and B, it is regarded as semi-coincidence (approximately coincidence), and re-determination is performed according to other additional conditions. In the case of quasi-coincidence, there is a possibility that it is actually coincident or there is a possibility that it is not coincident. Therefore, by determining whether the person is a specific person using additional information, the determination accuracy is improved. To do.

よって、優先判定部300は、ステップS33における比較の結果、尤度が閾値A以上で一致と判定した場合にはステップS34に進み、尤度が閾値B以下で不一致と判定した場合にはステップS38に進み、尤度が閾値AとBの間にあり準一致と判定した場合にはステップS35に進み、尤度が判定不可の場合にはステップS39に進む。判定不可の場合としては、例えば顔である可能性が高いが、目が手で隠れているなどの理由で一致判定が困難な場合などが挙げられる。   Therefore, the priority determination unit 300 proceeds to step S34 when the likelihood is determined to be coincident with the threshold A or higher as a result of the comparison at step S33, and when it is determined that the likelihood is equal to or smaller than the threshold B with step S38. If the likelihood is between the thresholds A and B and it is determined as semi-match, the process proceeds to step S35, and if the likelihood cannot be determined, the process proceeds to step S39. As a case where determination is impossible, for example, there is a high possibility that the face is a face, but it is difficult to make a coincidence determination because the eyes are hidden by a hand.

ステップS34では、優先判定部300は、輝度成分判定部310または色差成分判定部320により一致を検出した人物、すなわち登録済みの特定人物の顔の領域をフォーカス対象物に決定し、AF制御部200は、このフォーカス対象物に対応するフォーカス位置に焦点を合わせるようにカメラデバイス10を制御する。   In step S34, the priority determination unit 300 determines a person whose matching is detected by the luminance component determination unit 310 or the chrominance component determination unit 320, that is, the face area of the registered specific person as the focus object, and the AF control unit 200. Controls the camera device 10 to focus on the focus position corresponding to the focus object.

ステップS35では、優先判定部300は、優先登録部400に付加情報として特定人物に関する顔以外の領域の特徴情報が登録されているか否かを判定する。ここで、付加情報が登録されている場合にはステップS36に進み、登録されていない場合はステップS38に進む。ここでは、付加情報として、第1の付加情報(例えば色差情報による衣服等の色情報)と第2の付加情報(例えば輝度情報による衣服等の形情報)とがある場合を想定する。   In step S <b> 35, the priority determination unit 300 determines whether or not feature information of a region other than the face related to the specific person is registered as additional information in the priority registration unit 400. If additional information is registered, the process proceeds to step S36, and if not registered, the process proceeds to step S38. Here, it is assumed that the additional information includes first additional information (for example, color information such as clothes based on color difference information) and second additional information (for example, shape information such as clothes based on luminance information).

ステップS36では、優先判定部300の色差成分判定部320は、優先登録部400に予め登録されている特定人物に関する第1の付加情報と、被写体イメージ画像から検出された人物の顔周辺の領域に関する特徴情報とを色差成分により比較し、一致するかどうかを判定する。この付加情報の比較においても、顔情報を比較する場合と同様に、尤度によって一致、準一致、不一致を判定する。ここで、一致と判定した場合はステップS34に進み、準一致と判定した場合はステップS37に進み、不一致または判定不可の場合はステップS38に進む。   In step S36, the color difference component determination unit 320 of the priority determination unit 300 relates to the first additional information related to the specific person registered in advance in the priority registration unit 400 and the area around the face of the person detected from the subject image. The feature information is compared with the color difference component to determine whether or not they match. In this comparison of additional information, as in the case of comparing face information, matching, semi-matching, and mismatching are determined based on likelihood. Here, if it is determined to be coincident, the process proceeds to step S34, if it is determined to be semi-coincidence, the process proceeds to step S37, and if not coincident or cannot be determined, the process proceeds to step S38.

ステップS37では、優先判定部300の輝度成分判定部310は、優先登録部400に予め登録されている特定人物に関する第2の付加情報と、被写体イメージ画像から検出された人物の顔周辺の領域に関する特徴情報とを輝度成分により比較し、一致するかどうかを判定する。ここで、一致と判定した場合はステップS34に進み、不一致または判定不可の場合はステップS38に進む。   In step S37, the luminance component determination unit 310 of the priority determination unit 300 relates to the second additional information related to the specific person registered in advance in the priority registration unit 400 and the area around the face of the person detected from the subject image. The feature information is compared with the luminance component to determine whether or not they match. Here, if it is determined that they match, the process proceeds to step S34, and if they do not match or cannot be determined, the process proceeds to step S38.

ステップS33で判定不可となり、被写体イメージ画像中の人物と特定人物との顔情報の一致判定ができない場合であっても、付加情報が登録されている場合には、ステップS39でステップS36と同様に、第1の付加情報との一致を判定する。すなわち、優先判定部300の色差成分判定部320は、予め登録されている特定人物に関する第1の付加情報と、被写体イメージ画像から検出された人物の顔周辺の領域に関する特徴情報とを色差成分により比較し、一致するかどうかを判定する。ここで、一致と判定した場合はステップS40に進み、不一致または判定不可の場合はステップS38に進む。   Even if it is not possible to make a determination in step S33 and the face information of the person in the subject image and the specific person cannot be matched, if additional information is registered, step S39 is similar to step S36. , A match with the first additional information is determined. That is, the color difference component determination unit 320 of the priority determination unit 300 uses the color difference component to store the first additional information related to the specific person registered in advance and the feature information about the area around the face of the person detected from the subject image. Compare and determine whether they match. Here, when it determines with a match, it progresses to step S40, and when it does not correspond or a determination is impossible, it progresses to step S38.

ステップS40では、優先判定部300の輝度成分判定部310は、予め登録されている特定人物に関する第2の付加情報と、被写体イメージ画像から検出された人物の顔周辺の領域に関する特徴情報とを輝度成分により比較し、一致するかどうかを判定する。ここで、一致と判定した場合はステップS41に進み、不一致または判定不可の場合はステップS38に進む。   In step S40, the luminance component determination unit 310 of the priority determination unit 300 uses the second additional information related to the specific person registered in advance and the feature information related to the area around the face of the person detected from the subject image. Compare by component and determine if they match. Here, if it is determined that they match, the process proceeds to step S41, and if they do not match or cannot be determined, the process proceeds to step S38.

ステップS41ではステップS34と同様に、優先判定部300は、輝度成分判定部310または色差成分判定部320により一致を検出した人物、すなわち登録済みの特定人物の顔の領域をフォーカス対象物に決定し、AF制御部200は、このフォーカス対象物に対応するフォーカス位置に焦点を合わせるようにカメラデバイス10を制御する。   In step S41, as in step S34, the priority determination unit 300 determines the person whose face is detected by the luminance component determination unit 310 or the color difference component determination unit 320, that is, the face area of the registered specific person as the focus object. The AF control unit 200 controls the camera device 10 so as to focus on the focus position corresponding to the focus object.

また、ステップS38では、優先判定部300は、被写体イメージ画像中で検出されたいずれかの顔の領域をフォーカス対象物に決定し、AF制御部200は、このフォーカス対象物に対応するフォーカス位置に焦点を合わせるようにカメラデバイス10を制御する。   In step S38, the priority determination unit 300 determines any face area detected in the subject image as the focus object, and the AF control unit 200 sets the focus position corresponding to the focus object. The camera device 10 is controlled to focus.

上記の優先判定処理により、優先的に撮影すべき特定人物が撮影方向に対して横の方向を向いている場合や、顔の一部分が手などで隠れている場合のように、顔の輝度情報の特徴情報だけでは人物の特定が困難な状況であっても、さらに付加情報を用いて一致判定を行うことで、特定人物との一致の有無をより正確に識別でき、特定人物の顔にフォーカスを自動的に合わせることができる。   By the above priority determination process, the brightness information of the face, such as when a specific person to be preferentially photographed faces in the direction transverse to the photographing direction, or when a part of the face is hidden by a hand, etc. Even in situations where it is difficult to identify a person using only the feature information, it is possible to more accurately identify whether or not there is a match with a specific person by making a match determination using additional information, and focus on the face of the specific person Can be adjusted automatically.

次に、顔以外の領域の特徴情報である付加情報に基づき、被写体イメージ画像中の特徴情報と特定人物の特徴情報とが一致するかどうかを判断する処理について、具体例を説明する。   Next, a specific example of processing for determining whether or not the feature information in the subject image matches the feature information of the specific person based on the additional information that is the feature information of the region other than the face will be described.

図6は付加情報に関する具体例を表す模式図である。ここでは、優先登録部400に登録される特定人物の特徴情報のうち、顔情報以外の付加情報として、色情報(第1の付加情報)と形情報(第2の付加情報)とを用いるものとする。図6に示す例では、第1の付加情報の色情報として、顔、上半身、下半身のそれぞれの領域についての色差成分(Cb/Cr)の情報を登録している。また、第2の付加情報の形情報として、上半身の衣服(上着)の形状と、下半身の衣服(ズボン)の形状とを登録している。   FIG. 6 is a schematic diagram illustrating a specific example of additional information. Here, color information (first additional information) and shape information (second additional information) are used as additional information other than face information among the feature information of a specific person registered in the priority registration unit 400. And In the example shown in FIG. 6, the color difference component (Cb / Cr) information for each of the face, upper body, and lower body regions is registered as the color information of the first additional information. In addition, as the shape information of the second additional information, the shape of the upper body clothes (outerwear) and the shape of the lower body clothes (trousers) are registered.

図7は人物を構成する顔、上半身、下半身の相対的な位置関係の例を示す模式図である。優先判定部300の色差成分判定部320では、第1の付加情報の色情報を比較し、登録された特定人物の付加情報と一致するかを判定する。人物の顔及びその周辺にある衣服等の色は、人物毎に異なっている場合が多いので、顔、上半身、下半身のそれぞれについて色を比較する。また、これらの色の位置関係によっても人物を特定できる場合も多いので、人物の顔及びその周辺の色とその配置を比較する。   FIG. 7 is a schematic diagram showing an example of the relative positional relationship between the face, upper body, and lower body constituting a person. The color difference component determination unit 320 of the priority determination unit 300 compares the color information of the first additional information and determines whether it matches the registered additional information of the specific person. Since the color of a person's face and clothes around the person are often different for each person, the colors of the face, upper body, and lower body are compared. In many cases, a person can also be specified by the positional relationship of these colors, so the colors of the person's face and its surroundings are compared with their arrangement.

被写体の人物が起立姿勢である場合は、図7(a)に示すように顔の相対的に下側に上半身があり、上半身の更に下側に下半身が位置する。また、横たわった姿勢である場合は、図7(a)に示すように顔から右方向に、あるいは反対の左方向に同じ順序で位置する。この顔→上半身→下半身の位置関係は変わらないので、これらの色の順序は決して入れ替わることはない。よって、色差成分判定部320は、これら顔、上半身、下半身の色の一致判定に加えて、色の配置の一致を判定することで、特定人物の色情報と一致するかどうかを識別することができる。特定人物の顔情報に加えて第1の付加情報の色情報を比較することで、精度の高い判定結果を得ることができる。   When the subject person is in a standing posture, as shown in FIG. 7 (a), the upper body is located relatively below the face, and the lower body is located further below the upper body. If the posture is lying, it is positioned in the same order in the right direction from the face or in the opposite left direction as shown in FIG. Since the positional relationship of this face → upper body → lower body does not change, the order of these colors is never changed. Therefore, the color difference component determination unit 320 can identify whether or not the color information matches the color information of the specific person by determining the color arrangement match in addition to the color match determination of the face, upper body, and lower body. it can. A highly accurate determination result can be obtained by comparing the color information of the first additional information in addition to the face information of the specific person.

一方、優先判定部300の輝度成分判定部310では、第2の付加情報の形情報を比較し、登録された特定人物の付加情報と一致するかを判定する。付加情報の形情報については、図6に示した衣服の形状の他に、更に細かい特徴的な形の情報を登録しておくこともできる。例えば、髪型、髭、めがね、ジャケットの襟、ズボン/スカートの区別、長袖/半袖の区別、所持しているバッグ、などの形情報が挙げられる。   On the other hand, the luminance component determination unit 310 of the priority determination unit 300 compares the shape information of the second additional information and determines whether it matches the registered additional information of the specific person. Regarding the shape information of the additional information, in addition to the shape of the clothes shown in FIG. 6, information of a more detailed characteristic shape can be registered. For example, shape information such as hairstyle, wrinkles, glasses, jacket collar, trouser / skirt distinction, long-sleeve / short-sleeve distinction, possessed bag, and the like.

図8は付加情報の形情報に関する具体例を示す模式図である。図8の例では、髪型、めがね、襟、ポケット、前開き、下半身、のそれぞれの形状について、顔からの距離を表す数値と、該当するパターンの輪郭の各特徴点を表す座標データとを登録してある。優先登録部400には、特定人物の第2の付加情報として上記のような様々な形情報を登録しておき、輝度成分判定部310において、これらの形情報を組み合わせて比較し、一致判定を行う。このように特定人物の顔情報に加えて第2の付加情報の形情報を比較することで、精度の高い判定結果を得ることができる。   FIG. 8 is a schematic diagram showing a specific example regarding the shape information of the additional information. In the example of FIG. 8, a numerical value representing the distance from the face and coordinate data representing each feature point of the contour of the corresponding pattern are registered for each of the hairstyle, glasses, collar, pocket, front opening, and lower body. It is. In the priority registration unit 400, various pieces of shape information as described above are registered as the second additional information of the specific person, and the luminance component determination unit 310 compares these pieces of shape information in combination to perform a match determination. Do. In this way, by comparing the shape information of the second additional information in addition to the face information of the specific person, a highly accurate determination result can be obtained.

なお、付加情報については、同じ人物であっても変化する可能性があり、特に当日中であれば比較的変化する可能性が低いが、前日またはそれ以前の状況と比較すると変化する可能性が高くなる。図9は付加情報の不変確率の例を示す模式図である。図9の例では、髪型、めがね、襟、ポケット、前開き、下半身、のそれぞれの形情報について、変化しない確率を例示している。   Note that additional information may change even for the same person, especially if it is during the day, but it is relatively unlikely to change, but it may change compared to the situation on the previous day or earlier. Get higher. FIG. 9 is a schematic diagram showing an example of the invariant probability of the additional information. In the example of FIG. 9, the probability that the shape information of each of the hairstyle, glasses, collar, pocket, front opening, and lower body does not change is illustrated.

図10は付加情報として不変確率を含む形情報に関する具体例を示す模式図である。例えば、図9に示した付加情報の不変確率情報のように、当日の不変確率とそれ以前の不変確率とを、それぞれ形情報の項目毎に定数として優先登録部400に予め登録しておく。そして、輝度成分判定部310は、優先登録部400に登録した特定人物の付加情報を取得する際に、特定人物の付加情報の登録日と現在の日付とが一致するかどうかを判定し、日付に応じた不変確率情報を付加情報に付加することで、付加情報の項目毎の変化可能性を示す情報として反映させる。これにより、図10に示すように、図8に示した付加情報の形情報に不変確率の要素を追加した付加情報を生成する。   FIG. 10 is a schematic diagram showing a specific example of shape information including invariant probability as additional information. For example, like the invariant probability information of the additional information shown in FIG. 9, the invariant probability of the day and the invariant probability before that are registered in advance in the priority registration unit 400 as constants for each item of shape information. Then, when acquiring the additional information of the specific person registered in the priority registration unit 400, the luminance component determination unit 310 determines whether the registration date of the additional information of the specific person matches the current date. By adding invariant probability information according to the additional information, it is reflected as information indicating the possibility of change for each item of the additional information. As a result, as shown in FIG. 10, additional information is generated by adding an element of invariant probability to the additional information form information shown in FIG.

図11は図10の付加情報を利用して特定人物の一致判定を行う処理手順を示すフローチャートである。輝度成分判定部310は、第2の付加情報を用いて被写体イメージ画像において検出された顔の人物と優先登録部400に登録されている特定人物との一致を判定する際は、図11に示すような処理を行う。   FIG. 11 is a flowchart showing a processing procedure for determining matching of a specific person using the additional information shown in FIG. The luminance component determination unit 310 uses the second additional information to determine whether the face person detected in the subject image and the specific person registered in the priority registration unit 400 match, as shown in FIG. Perform the following process.

ステップS51では、輝度成分判定部310は、優先登録部400に登録されている特定人物の付加情報の形情報(図10参照)について、比較対象の人物に関する画像の輝度情報と条件が合致するか判定する。この際、形情報のそれぞれの項目を順番(髪型、めがね、襟、ポケット、前開き、下半身の順)に判定する。そして、比較対象の画像と形情報の条件が合致する項目を抽出する。   In step S <b> 51, the luminance component determination unit 310 confirms that the condition information and the luminance information of the image related to the person to be compared match the condition information (see FIG. 10) of the additional information of the specific person registered in the priority registration unit 400. judge. At this time, each item of the shape information is determined in order (hairstyle, glasses, collar, pocket, front opening, lower body order). Then, an item that matches the image to be compared with the condition of the shape information is extracted.

そして、ステップS52では、輝度成分判定部310は、ステップS51で抽出した個別項目の形情報について、比較対象の人物と特定人物との一致に関する尤度を算出して分析する。この際、まずステップS53において、該当する項目の輪郭を表す座標データに基づいて、比較対象の人物と特定人物との輪郭一致度を尤度により算出する。次いでステップS54において、該当する項目の顔からの距離を表す数値に基づいて、比較対象の人物と特定人物との距離一致度を尤度により算出する。そして、ステップS55において、ステップS53で求めた輪郭一致度の尤度とステップS54で求めた距離一致度の尤度とに基づいて、該当する項目(例えば髪型等)に関する一致の確からしさを表す一致度を尤度により算出する。ここでは、輪郭一致度90%と距離一致度80%とを積算して項目の一致度を0.9×0.8=72%と求める。なお、この一致度を算出する際に、不変確率の値を考慮してもよい。   In step S52, the luminance component determination unit 310 calculates and analyzes the likelihood related to the comparison between the person to be compared and the specific person with respect to the shape information of the individual item extracted in step S51. At this time, first, in step S53, based on the coordinate data representing the contour of the corresponding item, the contour matching degree between the person to be compared and the specific person is calculated based on the likelihood. Next, in step S54, based on a numerical value representing the distance from the face of the corresponding item, the distance coincidence between the person to be compared and the specific person is calculated based on the likelihood. In step S55, based on the likelihood of the contour coincidence obtained in step S53 and the likelihood of the distance coincidence obtained in step S54, the coincidence representing the likelihood of matching for the corresponding item (for example, hairstyle). The degree is calculated by the likelihood. Here, the contour matching degree 90% and the distance matching degree 80% are integrated to obtain the item matching degree of 0.9 × 0.8 = 72%. Note that the value of the invariant probability may be taken into account when calculating the degree of coincidence.

次に、ステップS56では、輝度成分判定部310は、ステップS55で得られた一致度(尤度)を予め定めた第1基準値(例えば75%)以上であるか判定し、一致かどうかを識別する。ここで、一致度が第1基準値以上であればステップS57に進み、「一致」と判定して結果を出力する。   Next, in step S56, the luminance component determination unit 310 determines whether or not the degree of coincidence (likelihood) obtained in step S55 is greater than or equal to a predetermined first reference value (for example, 75%). Identify. Here, if the degree of coincidence is equal to or higher than the first reference value, the process proceeds to step S57, where it is judged as “match” and the result is output.

一方、ステップS56で一致度が第1基準値未満の場合はステップS58に進む。ステップS58では、輝度成分判定部310は、ステップS55で得られた一致度(尤度)を予め定めた第2基準値(例えば30%)以下であるか判定し、不一致かどうかを識別する。ここで、一致度が第2基準値以下であればステップS59に進み、「不一致」と判定して結果を出力する。   On the other hand, if the degree of coincidence is less than the first reference value in step S56, the process proceeds to step S58. In step S58, the luminance component determination unit 310 determines whether or not the degree of coincidence (likelihood) obtained in step S55 is equal to or less than a predetermined second reference value (for example, 30%), and identifies whether or not they match. Here, if the degree of coincidence is equal to or less than the second reference value, the process proceeds to step S59, where it is determined as “mismatch” and the result is output.

また、ステップS55で得られた一致度(尤度)が中間値(第1基準値と第2基準値との間)である場合には、ステップS51に戻って次の項目(めがね等)に関する評価として一致度の判定を実施する。以降は同様の処理を繰り返す。   If the degree of coincidence (likelihood) obtained in step S55 is an intermediate value (between the first reference value and the second reference value), the process returns to step S51 and relates to the next item (such as glasses). The degree of coincidence is determined as an evaluation. Thereafter, the same processing is repeated.

なお、比較対象の人物と特定人物との一致を最終的に判定する際に、輝度から検出された顔情報の特徴情報に関する一致の程度を表す尤度と、第1の付加情報(色差情報)に関する一致の程度を表す尤度と、第2の付加情報(形情報)に関する一致の程度を表す尤度とに基づいて、これらの尤度を総合的に評価して一致の有無を判定しても良い。   In addition, when finally determining the match between the person to be compared and the specific person, the likelihood indicating the degree of match regarding the feature information of the face information detected from the luminance and the first additional information (color difference information) Based on the likelihood representing the degree of coincidence and the likelihood representing the degree of coincidence related to the second additional information (form information), these likelihoods are comprehensively evaluated to determine whether or not there is a match Also good.

上述したように、本実施形態によれば、予め登録した特定人物の特徴情報と被写体の中に含まれる顔及び顔周辺の特徴情報とを比較して、特定人物と一致する人物の顔の領域に自動的に焦点を合わせることができる。この際、該当する人物が横方向を向いていたり手などで顔の一部分が隠れている場合のように、特定人物の顔の識別が困難な状況においても、顔以外の服装などに関する付加情報に基づいて特定人物を高い確度で識別でき、優先すべき人物にすばやく焦点を合わせて撮影することができる。   As described above, according to the present embodiment, the feature information of a specific person registered in advance is compared with the feature information about the face and the face surrounding the face included in the subject, and the face area of the person that matches the specific person Can automatically focus on. In this case, additional information on clothing other than the face is added even in situations where it is difficult to identify the face of a specific person, such as when the person is facing sideways or a part of the face is hidden by a hand. Based on this, a specific person can be identified with high accuracy, and a person who should be given priority can be quickly focused and photographed.

例えば、複数の人物を1つの被写体として同時に撮影する場合、複数の人物が身につけている衣服の特徴(色彩やデザインなど)は互いに異なる場合が多く、また、同じ日に違う衣服に着替える可能性は小さいので、例えば同日に撮影された特定人物の衣服に関する情報が付加情報として登録されている場合には、衣服の特徴が一致するかどうかにより、それを身につけている人物が特定人物か否かを識別することができる。なお、各人物が身につける衣服については、毎日違うものと取り替えられる可能性が高いので、登録する付加情報については、その都度当日の衣服の情報に更新するのが望ましい。   For example, when shooting multiple people at the same time as one subject, the characteristics (color, design, etc.) of the clothes worn by the people are often different from each other, and the possibility of changing to different clothes on the same day For example, if information on clothes of a specific person photographed on the same day is registered as additional information, whether the person wearing the clothes is a specific person depends on whether the characteristics of the clothes match. Can be identified. Since the clothes worn by each person are likely to be replaced with different ones every day, it is desirable to update the additional information to be registered with the clothes information of the day each time.

なお、本発明は上記の実施形態において示されたものに限定されるものではなく、明細書の記載、並びに周知の技術に基づいて、当業者が変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。   It should be noted that the present invention is not limited to those shown in the above-described embodiments, and those skilled in the art can also make changes and applications based on the description in the specification and well-known techniques. Yes, included in the scope of protection.

本発明は、特定人物の顔の特徴のみでは識別が困難な状況であっても、特定人物をより高い確度で識別して自動的に焦点を合わせることが可能となる効果を有し、例えばデジタルスチルカメラやカメラ機能を搭載した携帯端末などの撮影装置等として有用である。   The present invention has an effect that it is possible to identify a specific person with higher accuracy and automatically focus even in a situation where it is difficult to identify only by the facial features of the specific person, for example, digital It is useful as a photographing device such as a still camera or a portable terminal equipped with a camera function.

本発明の実施形態に係る撮影装置の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of a photographing apparatus according to an embodiment of the present invention. 本実施形態の撮影装置の主要部の構成を示すブロック図The block diagram which shows the structure of the principal part of the imaging device of this embodiment. 本実施形態の撮影装置における動作の概要を示すフローチャートThe flowchart which shows the outline | summary of operation | movement in the imaging device of this embodiment. 本実施形態の撮影装置における優先判定処理の動作の具体例を示すフローチャートThe flowchart which shows the specific example of the operation | movement of the priority determination process in the imaging device of this embodiment. 尤度の範囲と判定結果との対応関係を表す模式図Schematic diagram showing correspondence between likelihood range and determination result 付加情報に関する具体例を表す模式図Schematic diagram showing a specific example of additional information 人物を構成する顔、上半身、下半身の相対的な位置関係の例を示す模式図Schematic diagram showing an example of the relative positional relationship between the face, upper body, and lower body that make up a person 付加情報の形情報に関する具体例を示す模式図Schematic diagram showing a specific example of additional information shape information 付加情報の不変確率の例を示す模式図Schematic diagram showing an example of invariant probability of additional information 付加情報として不変確率を含む形情報に関する具体例を示す模式図Schematic diagram showing a specific example of shape information including invariant probability as additional information 図10の付加情報を利用して特定人物の一致判定を行う処理手順を示すフローチャートThe flowchart which shows the process sequence which performs a matching determination of a specific person using the additional information of FIG.

符号の説明Explanation of symbols

10 カメラデバイス
20 表示デバイス
51 被写体
52 光学系
53 撮影部
54 焦点調節機構
55 AF制御部
56 顔領域検出部
57 顔周辺領域検出部
58 特定人物情報記録部
59 第1対象物識別部
60 第2対象物識別部
100 アプリケーション部
200 AF制御部
300 優先判定部
310 輝度成分判定部
320 色差成分判定部
400 優先登録部
500 撮影制御部
DESCRIPTION OF SYMBOLS 10 Camera device 20 Display device 51 Subject 52 Optical system 53 Image | photographing part 54 Focus adjustment mechanism 55 AF control part 56 Face area detection part 57 Face periphery area detection part 58 Specific person information recording part 59 1st target identification part 60 2nd object Object identification unit 100 Application unit 200 AF control unit 300 Priority determination unit 310 Luminance component determination unit 320 Color difference component determination unit 400 Priority registration unit 500 Shooting control unit

Claims (7)

被写体を撮影する撮影部と、
前記撮影部により得られた被写体の画像データから、人物の顔の領域における第1の画像情報と、前記顔の周辺領域における第2の画像情報とを検出する特定領域検出部と、
特定人物の顔に関する特徴情報を含む顔情報と、この特定人物の顔以外に関する特徴情報を含む付加情報とを記録する特定人物情報記録部と、
前記特定領域検出部で検出された顔領域の第1の画像情報と前記特定人物情報記録部に記録された顔情報とを比較し、前記第1の画像情報と前記顔情報とが一致する場合に、この顔領域をフォーカス対象物として識別する第1の対象物識別部と、
前記検出された顔領域の第1の画像情報と前記記録された顔情報とが一致しない場合に、前記特定領域検出部で検出された顔の周辺領域の第2の画像情報と前記特定人物情報記録部に記録された付加情報とを比較し、前記第2の画像情報に前記付加情報が含まれる場合に、この周辺領域に対応する顔領域をフォーカス対象物として識別する第2の対象物識別部と、
前記第1の対象物識別部または前記第2の対象物識別部で識別されたフォーカス対象物の位置に前記撮影部の焦点を合わせる焦点調整部と、
を備える撮影装置。
A shooting section for shooting the subject;
A specific area detecting unit that detects first image information in a face area of a person and second image information in a peripheral area of the face from image data of a subject obtained by the photographing unit;
A specific person information recording unit that records face information including characteristic information related to the face of the specific person and additional information including characteristic information other than the face of the specific person;
When the first image information of the face area detected by the specific area detection unit is compared with the face information recorded in the specific person information recording unit, and the first image information and the face information match A first object identification unit for identifying the face area as a focus object;
When the first image information of the detected face area and the recorded face information do not match, the second image information of the peripheral area of the face detected by the specific area detector and the specific person information Second object identification that compares the additional information recorded in the recording unit and identifies the face area corresponding to the peripheral area as the focus object when the additional information is included in the second image information And
A focus adjustment unit that focuses the photographing unit on the position of the focus object identified by the first object identification unit or the second object identification unit;
An imaging device comprising:
被写体を撮影する撮影部と、
前記撮影部により得られた被写体の画像データから、人物の顔の領域における第1の画像情報と、前記顔の周辺領域における第2の画像情報とを検出する特定領域検出部と、
特定人物の顔に関する特徴情報を含む顔情報と、この特定人物の衣服に関する特徴情報を含む付加情報とを記録する特定人物情報記録部と、
前記特定領域検出部で検出された顔領域の第1の画像情報と前記特定人物情報記録部に記録された顔情報とを比較し、前記第1の画像情報と前記顔情報とが一致する場合に、この顔領域をフォーカス対象物として識別する第1の対象物識別部と、
前記検出された顔領域の第1の画像情報と前記記録された顔情報とが一致しない場合に、前記特定領域検出部で検出された顔の周辺領域の第2の画像情報と前記特定人物情報記録部に記録された付加情報とを比較し、前記第2の画像情報に前記衣服に関する付加情報が含まれる場合に、この周辺領域に対応する顔領域をフォーカス対象物として識別する第2の対象物識別部と、
前記第1の対象物識別部または前記第2の対象物識別部で識別されたフォーカス対象物の位置に前記撮影部の焦点を合わせる焦点調整部と、
を備える撮影装置。
A shooting section for shooting the subject;
A specific area detecting unit that detects first image information in a face area of a person and second image information in a peripheral area of the face from image data of a subject obtained by the photographing unit;
A specific person information recording unit that records face information including characteristic information about the face of the specific person and additional information including characteristic information about the clothes of the specific person;
When the first image information of the face area detected by the specific area detection unit is compared with the face information recorded in the specific person information recording unit, and the first image information and the face information match A first object identification unit for identifying the face area as a focus object;
When the first image information of the detected face area and the recorded face information do not match, the second image information of the peripheral area of the face detected by the specific area detector and the specific person information A second object for comparing the additional information recorded in the recording unit and identifying the face area corresponding to the peripheral area as a focus object when the second image information includes additional information about the clothes An object identification unit;
A focus adjustment unit that focuses the photographing unit on the position of the focus object identified by the first object identification unit or the second object identification unit;
An imaging device comprising:
請求項1または2に記載の撮影装置であって、
前記特定人物情報記録部は、前記顔情報として輝度情報を含む特徴情報を記録し、前記付加情報として色差情報を含む特徴情報を記録するものであり、
前記第1の対象物識別部は、前記第1の画像情報における輝度情報を用いて前記顔情報との比較を行い、
前記第2の対象物識別部は、前記第2の画像情報における色差情報を用いて前記付加情報との比較を行う撮影装置。
The imaging device according to claim 1 or 2,
The specific person information recording unit records feature information including luminance information as the face information, and records feature information including color difference information as the additional information,
The first object identification unit performs comparison with the face information using luminance information in the first image information,
The second object identification unit is a photographing apparatus that performs comparison with the additional information using color difference information in the second image information.
請求項1または2に記載の撮影装置であって、
前記第1の対象物識別部は、前記第1の画像情報と前記顔情報との一致の確からしさを示す尤度を算出し、この尤度と、第1の閾値及びこの第1の閾値より小さい第2の閾値とを比較して、前記尤度が前記第1の閾値以上の場合に一致を判定し、
前記第2の対象物識別部は、前記第1の対象物識別部において前記尤度が前記第1の閾値と前記第2の閾値の間である場合にのみ、前記第2の画像情報と前記付加情報とを比較して特定人物の顔領域を識別する撮影装置。
The imaging device according to claim 1 or 2,
The first object identification unit calculates a likelihood indicating the likelihood of the match between the first image information and the face information, and based on the likelihood, the first threshold value, and the first threshold value. Comparing with a small second threshold, and determining a match if the likelihood is greater than or equal to the first threshold;
The second object identification unit includes the second image information and the second image information only when the likelihood is between the first threshold and the second threshold in the first object identification unit. An imaging device that identifies a face area of a specific person by comparing with additional information.
請求項1または2に記載の撮影装置であって、
前記第2の対象物識別部は、前記第2の画像情報として、前記特定領域検出部で検出された顔領域に対して下方に位置する周辺領域の色情報を用いて、前記付加情報と比較して特定人物の顔周辺領域を識別する撮影装置。
The imaging device according to claim 1 or 2,
The second object identification unit uses the color information of the peripheral area positioned below the face area detected by the specific area detection unit as the second image information and compares it with the additional information. And an imaging device for identifying the area around the face of a specific person.
請求項1または2に記載の撮影装置であって、
前記特定人物情報記録部は、前記付加情報として特定人物の顔、上半身、下半身に関する色情報を記録するものであり、
前記第2の対象物識別部は、前記第2の画像情報として、前記特定領域検出部で検出された顔領域と、この顔領域に近接する上半身に相当する領域と、この上半身に近接する下半身に相当する領域とにおける色情報を用いて、前記第2の画像情報と前記付加情報の色の配置を比較して特定人物の顔周辺領域を識別する撮影装置。
The imaging device according to claim 1 or 2,
The specific person information recording unit records color information regarding the face, upper body, and lower body of the specific person as the additional information.
The second object identification unit includes, as the second image information, a face region detected by the specific region detection unit, a region corresponding to the upper body close to the face region, and a lower body close to the upper body. An image capturing apparatus for identifying a peripheral area of a face of a specific person by comparing color arrangements of the second image information and the additional information using color information in an area corresponding to.
請求項1または2に記載の撮影装置であって、
前記特定人物情報記録部は、前記付加情報として色差情報と輝度情報を含む複数の特徴情報を記録するものであり、
前記第2の対象物識別部は、前記第2の画像情報における色差情報を用いた第1の付加情報との比較、及び前記第2の画像情報における輝度情報を用いた第2の付加情報との比較を行い、特定人物の顔周辺領域を識別する撮影装置。
The imaging device according to claim 1 or 2,
The specific person information recording unit records a plurality of feature information including color difference information and luminance information as the additional information,
The second object identification unit compares the first additional information using color difference information in the second image information and the second additional information using luminance information in the second image information. Device for comparing the areas around the face of a specific person.
JP2008172312A 2008-07-01 2008-07-01 Photographing device Withdrawn JP2010014783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008172312A JP2010014783A (en) 2008-07-01 2008-07-01 Photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008172312A JP2010014783A (en) 2008-07-01 2008-07-01 Photographing device

Publications (1)

Publication Number Publication Date
JP2010014783A true JP2010014783A (en) 2010-01-21

Family

ID=41700980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008172312A Withdrawn JP2010014783A (en) 2008-07-01 2008-07-01 Photographing device

Country Status (1)

Country Link
JP (1) JP2010014783A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011153270A2 (en) * 2010-06-01 2011-12-08 Hewlett-Packard Development Company, L.P. Image retrieval
JP2012029035A (en) * 2010-07-23 2012-02-09 Nikon Corp Electronic camera and image processing program
JP2013011766A (en) * 2011-06-29 2013-01-17 Olympus Imaging Corp Imaging apparatus, imaging method, and imaging program
JP2013041362A (en) * 2011-08-12 2013-02-28 Nikon Corp Area extraction device, imaging device, and area extraction program
JP2013157812A (en) * 2012-01-30 2013-08-15 Olympus Imaging Corp Image processing apparatus and image processing method
JP2016114811A (en) * 2014-12-16 2016-06-23 株式会社 日立産業制御ソリューションズ Focus controller, imaging apparatus, and method for controlling focus
JP2020502629A (en) * 2017-10-20 2020-01-23 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and apparatus for verifying certificates and identities
JP2021005197A (en) * 2019-06-26 2021-01-14 日本電気株式会社 Image processor, identification method, and program
JP2021033679A (en) * 2019-08-26 2021-03-01 株式会社富士通ビー・エス・シー Inspection device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011153270A2 (en) * 2010-06-01 2011-12-08 Hewlett-Packard Development Company, L.P. Image retrieval
WO2011153270A3 (en) * 2010-06-01 2012-03-29 Hewlett-Packard Development Company, L.P. Image retrieval
JP2012029035A (en) * 2010-07-23 2012-02-09 Nikon Corp Electronic camera and image processing program
JP2013011766A (en) * 2011-06-29 2013-01-17 Olympus Imaging Corp Imaging apparatus, imaging method, and imaging program
JP2013041362A (en) * 2011-08-12 2013-02-28 Nikon Corp Area extraction device, imaging device, and area extraction program
JP2013157812A (en) * 2012-01-30 2013-08-15 Olympus Imaging Corp Image processing apparatus and image processing method
JP2016114811A (en) * 2014-12-16 2016-06-23 株式会社 日立産業制御ソリューションズ Focus controller, imaging apparatus, and method for controlling focus
JP2020502629A (en) * 2017-10-20 2020-01-23 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and apparatus for verifying certificates and identities
JP2021005197A (en) * 2019-06-26 2021-01-14 日本電気株式会社 Image processor, identification method, and program
JP7302329B2 (en) 2019-06-26 2023-07-04 日本電気株式会社 Image processing device, person discrimination method, and program
JP2021033679A (en) * 2019-08-26 2021-03-01 株式会社富士通ビー・エス・シー Inspection device

Similar Documents

Publication Publication Date Title
JP4218348B2 (en) Imaging device
JP2010014783A (en) Photographing device
US9147106B2 (en) Digital camera system
KR100924685B1 (en) Imaging apparatus and control method thereof
EP2199978B1 (en) Image capturing apparatus having subject cut-out function
JP4196714B2 (en) Digital camera
JP4290100B2 (en) Imaging apparatus and control method thereof
EP1522952B1 (en) Digital camera
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP4900014B2 (en) Imaging apparatus and program thereof
JP2004320286A (en) Digital camera
JP2004317699A (en) Digital camera
JP2007249588A (en) Face image registration device, method, program, and storage medium
JP2006295888A (en) Imaging apparatus and control method of display
KR20100048600A (en) Image photography apparatus and method for proposing composition based person
JP5030022B2 (en) Imaging apparatus and program thereof
US20120274804A1 (en) Image capturing apparatus and method for controlling the same
JP2004320285A (en) Digital camera
JP5880135B2 (en) Detection apparatus, detection method, and program
JP2009015518A (en) Eye image photographing device and authentication device
JP2007067934A (en) Imaging apparatus and its control method
JP2010081357A (en) Image processing apparatus, image processing method, image processing program, and imaging device
JP2021150760A (en) Imaging apparatus and method for controlling the same
JP5383308B2 (en) Image processing device
JP5109779B2 (en) Imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906