JP2012231327A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2012231327A
JP2012231327A JP2011098640A JP2011098640A JP2012231327A JP 2012231327 A JP2012231327 A JP 2012231327A JP 2011098640 A JP2011098640 A JP 2011098640A JP 2011098640 A JP2011098640 A JP 2011098640A JP 2012231327 A JP2012231327 A JP 2012231327A
Authority
JP
Japan
Prior art keywords
evaluation value
imaging
face
past
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011098640A
Other languages
Japanese (ja)
Inventor
Atsushi Fujita
篤史 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011098640A priority Critical patent/JP2012231327A/en
Publication of JP2012231327A publication Critical patent/JP2012231327A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent images of similar facial expressions and scenes from being taken excessively and to simply take images of various facial expressions of a subject.SOLUTION: A face detection part 104 detects the face of a subject imaged by an imaging system 102, and a facial expression detection part 105 calculates an evaluation value relating to the facial expression of the detected face. Memory 108 contains past evaluation values. If the calculated evaluation value is larger than a threshold and a difference between an evaluation value most approximate to a present evaluation value in the past evaluation values stored in the memory 108 and the present evaluation value is a predetermined value or more, an automatic imaging control part 106 gives an instruction for imaging.

Description

本発明は撮像装置、撮像方法及びプログラムに関し、特に、オートシャッター撮影技術に用いて好適な技術に関する。   The present invention relates to an imaging apparatus, an imaging method, and a program, and more particularly to a technique suitable for use in an auto shutter imaging technique.

従来、顔検出機能を備えたデジタルカメラにおいて、被写体の表情を判別して自働的に撮影を行う技術が知られている。その中でも代表的な技術としては、笑顔検出機能によるオートシャッター撮影技術が知られている。   2. Description of the Related Art Conventionally, there is known a technique for automatically taking a picture by determining the facial expression of a subject in a digital camera having a face detection function. Among them, as a representative technique, an auto shutter photography technique using a smile detection function is known.

この笑顔検出機能によるオートシャッター撮影技術では、まず、表示装置に表示されている画像から顔検出機能によって被写体の顔を検出する。次に、検出された顔に対し、笑顔判別機能によって笑顔の評価値を算出する。笑顔を判別する方法としては、パターンマッチングによって代表的な笑顔画像との相関をとる方法や、顔に含まれるエッジのベクトル解析による笑顔判別アルゴリズムなどが知られている。次に、時系列に算出された笑顔の評価値を解析し、被写体の最も良い笑顔を撮影するのに最適なタイミングを撮像部へ指示する。そして、撮像部は画像の撮影を行い、撮影画像をメモリに記録する。   In the automatic shutter photographing technique using the smile detection function, first, the face of the subject is detected from the image displayed on the display device by the face detection function. Next, a smile evaluation value is calculated for the detected face by a smile discrimination function. Known methods for determining a smile include a method of correlating with a representative smile image by pattern matching, and a smile determination algorithm based on vector analysis of edges included in a face. Next, the evaluation value of the smile calculated in time series is analyzed, and an optimal timing for photographing the best smile of the subject is instructed to the imaging unit. Then, the imaging unit captures an image and records the captured image in the memory.

このように撮影を指示する技術として、例えば特許文献1には、笑顔の評価値と予め決められた笑顔の閾値とを比較し、閾値を超えた場合に撮影を指示する方法が開示されている。また、特許文献2には、より最適な笑顔の撮影タイミングを判別する方法として、笑顔の評価値の推移から撮影に最適なタイミングを推測して求める方法が開示されている。さらに、他の技術としては、撮影時に複数枚の静止画を連写撮影することによって失敗を防ぐ方法などが知られている。   As a technique for instructing shooting as described above, for example, Patent Document 1 discloses a method of comparing a smile evaluation value with a predetermined smile threshold and instructing shooting when the threshold is exceeded. . Japanese Patent Application Laid-Open No. 2004-228561 discloses a method for estimating the optimum timing for photographing from the transition of the smile evaluation value as a method for determining a more suitable smile photographing timing. Furthermore, as another technique, a method of preventing failure by continuously shooting a plurality of still images at the time of shooting is known.

特開2008−42319号公報JP 2008-42319 A 特許第4240108号公報Japanese Patent No. 4240108

「固有空間法を用いた濃淡画像からの顔の向きの推定法」信学技法IE97-40P111〜"Estimation method of face direction from grayscale image using eigenspace method" IEICE-40 IE 111 ~ 「濃淡画像マッチングによるロバストな正面顔の識別法」電子情報通信学会論文誌'93/7Vol.J76-D-2 No.7 P1363〜“Robust Front Face Recognition by Gray Image Matching” IEICE Transactions '93 /7Vol.J76-D-2 No.7 P1363〜 「コンピュータによる顔の認識の研究動向」電子情報通信学会誌'93 Vol80 No.3 P257〜"Research Trends of Face Recognition by Computer" IEICE Journal '93 Vol80 No.3 P257-

しかしながら、上述の特許文献1に記載の従来技術では、被写体の笑顔の評価値が所定の閾値を超えた場合に常に撮影を行う。また、特許文献2に記載の従来技術では、最適な笑顔の撮影タイミングを検出する度に撮影を行う。このため、被写体が同じような表情で笑い続けていると、同じような笑顔画像を余剰に撮影してしまうという課題がある。   However, in the prior art described in Patent Document 1 described above, shooting is always performed when the evaluation value of a subject's smile exceeds a predetermined threshold. Further, in the conventional technique described in Patent Document 2, photographing is performed every time an optimum smile photographing timing is detected. For this reason, if the subject continues to laugh with a similar expression, there is a problem that a similar smile image is excessively shot.

本発明は前述の問題点に鑑み、同じような表情やシーンの画像を余剰に撮影することを防止するとともに、被写体の様々な表情を簡単に撮影できるようにすることを目的としている。   SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and it is an object of the present invention to prevent excessive photographing of similar facial expressions and scene images and to easily photograph various facial expressions of a subject.

本発明の撮像装置は、被写体を撮像する撮像手段と、前記撮像手段によって撮像された被写体の顔を検出する顔検出手段と、前記顔検出手段によって検出された顔の表情に関する評価値を算出する評価値算出手段と、前記評価値算出手段により算出された評価値に基づいて、撮影を指示する撮像制御手段と、前記評価値算出手段によって算出された過去の評価値を記憶する記憶手段とを備え、前記撮像制御手段は、前記記憶手段に記憶された過去の評価値のうち、前記評価値算出手段により算出された現在の評価値と最も近い評価値と、前記現在の評価値との差が所定値以上である場合に、撮影を指示することを特徴とする。   An imaging apparatus according to the present invention calculates an evaluation value relating to an imaging means for imaging a subject, a face detection means for detecting a face of the subject imaged by the imaging means, and a facial expression detected by the face detection means. Evaluation value calculating means, imaging control means for instructing photographing based on the evaluation value calculated by the evaluation value calculating means, and storage means for storing past evaluation values calculated by the evaluation value calculating means The imaging control means includes a difference between a current evaluation value closest to a current evaluation value calculated by the evaluation value calculation means and a current evaluation value among past evaluation values stored in the storage means When the value is equal to or greater than a predetermined value, the photographing is instructed.

本発明によれば、既に撮影済みの画像と似たような表情やシーンの画像を余剰に撮影してしまうことを防ぎ、ユーザの取得したい表情の顔を過不足なく撮影できる。   According to the present invention, it is possible to prevent a facial expression or scene image similar to an already captured image from being excessively captured, and to capture a facial expression that the user wants to acquire without excess or deficiency.

実施形態に係るデジタルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital camera which concerns on embodiment. 第1の実施形態における撮影指示の処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure of a shooting instruction in the first embodiment. 撮影可能な表情評価値及び表情評価閾値の一例を示す図である。It is a figure which shows an example of the facial expression evaluation value and facial expression evaluation threshold value which can be image | photographed. 人物ごとの撮影可能な表情評価値の一例を示す図である。It is a figure which shows an example of the facial expression evaluation value which can be image | photographed for every person. 第3の実施形態における撮影指示の処理手順の一例を示すフローチャートである。14 is a flowchart illustrating an example of a processing procedure of a shooting instruction in the third embodiment. 類似度を構成する評価値の一例を示す図である。It is a figure which shows an example of the evaluation value which comprises similarity.

(第1の実施形態)
以下、本発明の好ましい第1の実施形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態に係るデジタルカメラ100の構成例を示すブロック図である。本実施形態に係るデジタルカメラ100には、表情判別による自動撮影機能が搭載されている。
(First embodiment)
Hereinafter, a first preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration example of a digital camera 100 according to the present embodiment. The digital camera 100 according to the present embodiment is equipped with an automatic photographing function based on facial expression discrimination.

図1において、撮像系102は、光学系101によって結像された光をデジタル電気信号へ変換する。画像処理回路103は、この変換されたデジタル電気信号を画像データへ変換する。撮像制御部107は、撮像素子の動作制御、AE(Auto Exposure)に関わるシャッターや絞りなどのメカ制御、およびAF(Auto Focus)に関わるレンズ位置制御など、撮像系102による撮像シーケンスの制御を行う。   In FIG. 1, an imaging system 102 converts light imaged by the optical system 101 into a digital electrical signal. The image processing circuit 103 converts the converted digital electric signal into image data. The imaging control unit 107 performs imaging sequence control by the imaging system 102, such as operation control of the imaging element, mechanical control such as a shutter and a diaphragm related to AE (Auto Exposure), and lens position control related to AF (Auto Focus). .

顔検出部104は、画像処理回路103によって変換された画像データに対して顔検出を行う。表情検出部105は評価値算出手段として機能し、顔検出部104によって検出された各々の顔画像に対して表情評価値Fを算出する。本実施形態では、表情検出の一例として、被写体の笑った瞬間を検出する。笑顔を検出する方法としては、代表的な笑顔画像とのマッチングを行う手法や、顔のエッジ成分のベクトル解析を行う手法など一般的な手法を用いる。   The face detection unit 104 performs face detection on the image data converted by the image processing circuit 103. The expression detection unit 105 functions as an evaluation value calculation unit, and calculates an expression evaluation value F for each face image detected by the face detection unit 104. In the present embodiment, as an example of facial expression detection, a moment when a subject laughs is detected. As a method of detecting a smile, a general method such as a method of matching with a typical smile image or a method of performing vector analysis of face edge components is used.

自動撮影制御部106は、メモリ108に保持されている表情判定閾値F_Th、過去に撮影された画像の表情評価値P(i)(i=1、2、・・・、n)及びタイムスタンプ情報を元に撮影条件を適応的に更新する。また、自動撮影制御部106は、表情検出部105により算出された表情評価値Fが所定の条件を満たした場合に、撮像制御部107に対して撮影を指示する。そして、その時の表情評価値Fを最新の撮影済み表情評価値P(n)としてメモリ108に保存する。   The automatic photographing control unit 106 includes a facial expression determination threshold value F_Th held in the memory 108, a facial expression evaluation value P (i) (i = 1, 2,..., N) of a previously photographed image, and time stamp information. Based on, the shooting conditions are updated adaptively. Further, the automatic photographing control unit 106 instructs the photographing control unit 107 to perform photographing when the facial expression evaluation value F calculated by the facial expression detecting unit 105 satisfies a predetermined condition. Then, the facial expression evaluation value F at that time is stored in the memory 108 as the latest photographed facial expression evaluation value P (n).

ここで、メモリ108に保存できる過去の撮影情報は最大でN回分(Nは任意)とし、常に新しい情報をメモリ108に保存してN回分の撮影情報が保存されている場合には、最も古い情報から削除するものとする。また、過去の撮影情報とは、デジタルカメラ100が表情検出による自動撮影モードに移行してから、同モードを抜けるまでの期間に保存された情報としてもよく、デジタルカメラ100の電源が投入された直後から電源が切れるまでの期間としてもよい。   Here, the past shooting information that can be stored in the memory 108 is a maximum of N times (N is arbitrary). When new information is always stored in the memory 108 and N times of shooting information is stored, the oldest information is stored. It shall be deleted from the information. The past shooting information may be information stored in a period from when the digital camera 100 shifts to the automatic shooting mode based on facial expression detection until the digital camera 100 exits the same mode, and the digital camera 100 is turned on. It may be a period from immediately after the power is turned off.

次に、自動撮影制御部106の撮影判定アルゴリズムについて図2を参照しながら詳細に説明する。図2は、本実施形態において、自動撮影制御部106による撮影指示の処理手順の一例を示すフローチャートである。
まず、表情検出部105により算出された入力画像の表情評価値Fが自動撮影制御部106に入力されると処理を開始する。そして、S201において、メモリ108より過去に撮影した時の表情評価値P(i)、過去の撮影タイムスタンプtm(i)、及び予め定められた表情判定閾値F_Thを取得する。
Next, the shooting determination algorithm of the automatic shooting control unit 106 will be described in detail with reference to FIG. FIG. 2 is a flowchart illustrating an example of a processing procedure of a shooting instruction by the automatic shooting control unit 106 in the present embodiment.
First, when the facial expression evaluation value F of the input image calculated by the facial expression detection unit 105 is input to the automatic photographing control unit 106, the process starts. In step S201, a facial expression evaluation value P (i) obtained in the past from the memory 108, a past photographing timestamp tm (i), and a predetermined facial expression determination threshold F_Th are acquired.

次に、S202において、表情判定閾値F_Thと入力画像の表情評価値Fとを比較する。この比較の結果、表情評価値Fが表情判定閾値F_Th以下である場合は、撮影の指示を行わず、処理を終了する。一方、S202の比較の結果、入力表情評価値Fが表情判定閾値F_Thを上回る場合は、次のS203に進む。   Next, in S202, the facial expression determination threshold F_Th is compared with the facial expression evaluation value F of the input image. As a result of the comparison, if the facial expression evaluation value F is equal to or smaller than the facial expression determination threshold F_Th, the photographing is not instructed and the process is terminated. On the other hand, when the input facial expression evaluation value F exceeds the facial expression determination threshold F_Th as a result of the comparison in S202, the process proceeds to the next S203.

次に、S203において、過去に撮影した画像の最新のタイムスタンプtm(n)を参照し、前回の撮影から充分な時間が経過しているか否かを判定する。この判定の結果、充分な時間が経過している場合は、シーンが変動している可能性が高いと判断し、S205において、撮像制御部107に対して撮影を指示する。このとき、メモリ108に最新の表情評価値Fを保存する。一方、S203の判定の結果、充分な時間が経過していない場合は、同じような画像を複数枚撮影してしまう可能性があるため、S204に進む。   Next, in S203, the latest time stamp tm (n) of the image captured in the past is referred to and it is determined whether or not a sufficient time has elapsed since the previous shooting. If a sufficient time has passed as a result of this determination, it is determined that there is a high possibility that the scene has changed, and in step S205, the imaging control unit 107 is instructed to perform imaging. At this time, the latest facial expression evaluation value F is stored in the memory 108. On the other hand, if a sufficient time has not elapsed as a result of the determination in S203, there is a possibility that a plurality of similar images may be taken, and the process proceeds to S204.

次に、S204において、過去の表情評価値P(i)に基づいて撮影判定を行う。撮影判定では、図3(A)に示すように表情評価値P(i)を中心とした周辺区間[P(i)−α,P(i)+α]を撮影不可領域とする。この撮影判定の結果、入力画像の表情評価値Fがこの領域に存在する場合は、似たような表情が映った画像だと判断し、撮影の指示を行わず、処理を終了する。   Next, in S204, shooting determination is performed based on the past facial expression evaluation value P (i). In the shooting determination, as shown in FIG. 3A, the peripheral section [P (i) −α, P (i) + α] around the facial expression evaluation value P (i) is set as a non-shootable region. If the facial expression evaluation value F of the input image is present in this region as a result of the photographing determination, it is determined that the image has a similar facial expression, and the processing is terminated without giving a photographing instruction.

一方、S204の撮影判定の結果、表情評価値Fが上記に示した区間に存在しない場合は、撮影すべき表情だと判定し、S205において、自動撮影制御部106は撮像制御部107に対して撮影を指示するとともに、メモリ108に最新の表情評価値Fを保存する。   On the other hand, if the facial expression evaluation value F does not exist in the section shown above as a result of the photographing determination in S204, it is determined that the facial expression is to be photographed. In S205, the automatic photographing control unit 106 determines to the imaging control unit 107. In addition to instructing photographing, the latest facial expression evaluation value F is stored in the memory 108.

なお、S204の判定では、過去の撮影評価値の最大値P_max=MAX[P(1)、P(2)、P(3)、・・・]より表情評価値Fが所定値以上大きい場合(F>P_max)にのみ撮影を行うようにしてもよい。また、S202の判定では、図3(B)に示すように、過去の撮影回数に応じて表情判別閾値F_Thを徐々に大きくし、似たようなレベルの表情を撮影する頻度を落とすようにしてよい。   In the determination of S204, when the facial expression evaluation value F is larger than the maximum value P_max = MAX [P (1), P (2), P (3),. F> P_max) may be taken only. Further, in the determination of S202, as shown in FIG. 3B, the facial expression determination threshold F_Th is gradually increased according to the number of previous shootings, and the frequency of shooting a similar level of facial expression is decreased. Good.

以上のように本実施形態によれば、過去に撮影された顔の表情に基づいて撮影対象を絞りこむことができ、同じような表情の画像を連続で撮影して記録することを防ぐことができる。   As described above, according to the present embodiment, it is possible to narrow down the shooting target based on facial expressions photographed in the past, and it is possible to prevent continuous photographing and recording of images with similar facial expressions. it can.

(第2の実施形態)
以下、図1、図2及び図4を参照しながら、本発明の第2の実施形態について説明する。なお、本実施形態に係るデジタルカメラの構成は図1と同様であるため説明は省略する。
(Second Embodiment)
Hereinafter, the second embodiment of the present invention will be described with reference to FIGS. The configuration of the digital camera according to this embodiment is the same as that shown in FIG.

次に、本実施形態に係る撮影判定アルゴリズムについて図3及び図4を参照しながら詳細に説明する。なお、本実施形態の処理手順は基本的には図2と同様の流れであるため、異なる点を中心に説明する。
まず、顔検出部104は、個人認証技術に代表される人物特定アルゴリズムを用いて、画像中に含まれる顔画像を分類する。例えば、図4(A)に示すように、画像中の人物を分類し、それぞれIDを割りあてる。ここで個人認証技術では、入力された顔画像と、登録されている顔画像又は過去に撮影した顔画像との類似度を算出する。なお、これらの登録されている顔画像又は過去に撮影した顔画像は、メモリ108に保持されているものとする。類似度を算出する方法としては、入力された顔画像の大きさ、角度、輝度などを正規化した後、フーリエスペクトルのKL展開法を用いて算出する方法を用いる。また、パターンマッチングによる方法や、抽出した顔画像を正規化してブロック化し、その輝度間の距離を求める手法などを用いてもよい。これらの手法に関する詳細については、例えば非特許文献1〜3に開示されている。
Next, the shooting determination algorithm according to the present embodiment will be described in detail with reference to FIGS. Note that the processing procedure of the present embodiment is basically the same as that shown in FIG.
First, the face detection unit 104 classifies face images included in an image using a person identification algorithm typified by personal authentication technology. For example, as shown in FIG. 4A, the persons in the image are classified and assigned IDs. Here, in the personal authentication technology, the similarity between the input face image and a registered face image or a face image taken in the past is calculated. Note that these registered face images or face images taken in the past are held in the memory 108. As a method for calculating the similarity, after normalizing the size, angle, brightness, etc. of the input face image, a method of calculating using the KL expansion method of the Fourier spectrum is used. Alternatively, a pattern matching method, a method of normalizing the extracted face image into blocks, and obtaining a distance between the luminances may be used. Details regarding these methods are disclosed in Non-Patent Documents 1 to 3, for example.

以上のようにすべての顔に対して、表情検出部105により表情評価値Fxが算出され、この算出された表情評価値Fxが自動撮影制御部106に入力されると、図2に示す撮影判定処理を開始する。なお、xはIDを示している。そして、S201において、自動撮影制御部106は、メモリ108より、個人認証によって分類された個人ごとの過去に撮影した表情評価値P(ix)、過去の撮影タイムスタンプtm(ix)、及び予め定められた表情判定閾値F_Thを取得する。 As described above, the facial expression evaluation value F x is calculated by the facial expression detection unit 105 for all the faces, and when the calculated facial expression evaluation value F x is input to the automatic photographing control unit 106, it is shown in FIG. The shooting determination process is started. Note that x indicates an ID. Then, in S201, the automatic photographing control unit 106, from the memory 108, the personal authentication by classified taken in the past for each individual facial expression evaluation value P (i x), past imaging time stamp tm (i x), and A predetermined facial expression determination threshold value F_Th is acquired.

次に、S202においては、表情判定閾値F_Thと入力画像に含まれるすべての顔の表情評価値Fxとを比較する。この比較の結果、入力画像中に含まれるすべての顔の表情評価値Fxが表情判定閾値F_Th以下である場合は撮影の指示を行わず、処理を終了する。 Next, in S202, the facial expression determination threshold F_Th is compared with the facial expression evaluation values F x of all the faces included in the input image. As a result of the comparison, if the facial expression evaluation values F x of all the faces included in the input image are equal to or smaller than the facial expression determination threshold F_Th, the shooting is not instructed and the process is terminated.

一方、S202の比較の結果、少なくとも1つの顔の表情評価値Fxが表情判定閾値F_Thを上回る場合は、S203において、過去に撮影した画像の最新のタイムスタンプtm(nx)を参照し、前回の撮影よりも充分な時間が経過しているか否かを判定する。この判定の結果、充分な時間が経過している場合は、シーンが変動している可能性が高いと判断し、S205へ進み、撮影を指示する。このとき、メモリ108に最新の表情評価値Fを保存する。 On the other hand, the result of the comparison of S202, if at least one of facial expression evaluation value F x is greater than the facial expression determination threshold value F_th, in S203, with reference latest timestamp tm of shot in the past image (n x), It is determined whether or not a sufficient time has passed since the last shooting. As a result of this determination, if a sufficient time has elapsed, it is determined that there is a high possibility that the scene has changed, and the process proceeds to S205 to instruct shooting. At this time, the latest facial expression evaluation value F is stored in the memory 108.

例えば、ID1の人物の表情評価値F1が表情判定閾値F_Thを上回った場合に、過去にID1の人物をトリガとして撮影した画像の最新のタイムスタンプtm(n1)と現在の時刻とを比べて充分な時間が経過している場合は撮影を指示する。一方、S203の判定の結果、充分な時間が経過していない場合は、同じような画像を複数枚撮影してしまう可能性が高いため、S204に進む。なお、判定の対象となるのは、表情評価値Fxが表情判定閾値F_Thを上回る顔のみであり、表情評価値Fxが表情判定閾値F_Th以下で充分な時間が経過した顔が存在する場合であっても、判定には考慮されない。 For example, when the facial expression evaluation value F 1 of the person with ID 1 exceeds the facial expression determination threshold F_Th, the latest time stamp tm (n 1 ) of the image captured using the person with ID 1 in the past as a trigger is compared with the current time. If enough time has passed, instruct the camera to shoot. On the other hand, if a sufficient time has not elapsed as a result of the determination in S203, there is a high possibility that a plurality of similar images will be taken, and the process proceeds to S204. Note that the determination target is only a face whose facial expression evaluation value F x exceeds the facial expression determination threshold F_Th, and there is a face for which a sufficient time has passed with the facial expression evaluation value F x equal to or less than the facial expression determination threshold F_Th. Even so, it is not considered in the determination.

次に、S204において、過去の表情評価値P(ix)に基づいて撮影判定を行う。撮影判定は、第1の実施形態と同様に、図3(A)に示すような撮影不可領域に、表情評価値Fxが存在するか否かを判定する。この撮影判定の結果、表情評価値Fxがこの領域に存在する場合は、撮影の指示は行わず、処理を終了する。一方、S204の判定の結果、表情評価値Fxが上記に示した区間に存在しない場合は、S205において、自動撮影制御部106は撮像制御部107に対して撮影を指示するとともに、メモリ108に最新の表情評価値Fxを保存する。なお、第1の実施形態と同様に、過去の撮影評価値の最大値P_maxより表情評価値Fが所定値以上大きい場合(F>P_max)にのみ撮影を行うようにしてもよい。 Next, in S204, shooting determination is performed based on the past facial expression evaluation value P (i x ). In the shooting determination, as in the first embodiment, it is determined whether or not the facial expression evaluation value F x exists in the non-shootable area as shown in FIG. If the facial expression evaluation value F x exists in this region as a result of the photographing determination, the photographing is not instructed and the process is terminated. On the other hand, as a result of the determination in S204, if the facial expression evaluation value F x does not exist in the above-described section, in S205, the automatic shooting control unit 106 instructs the shooting control unit 107 to shoot and also stores in the memory 108. The latest facial expression evaluation value F x is stored. Note that, as in the first embodiment, photographing may be performed only when the facial expression evaluation value F is greater than the maximum value P_max of the past photographing evaluation values by a predetermined value (F> P_max).

また、上記撮影判定はID別に行う。例えば、図4(B)に示すように、ID1の人物に関する過去の表情評価値がP(1)=180、P(2)=220、n1=2、α=15であるものとする。また、ID3の人物に関する過去の表情評価値が存在せず、n3=0であるものとする。この場合、ID1の人物の表情評価値がF1=210であっても、図4(B)に示す斜線で示した撮影不可領域に属する。ところが、ID1の人物とID3の人物とで表情評価値が同じだった場合に、ID3の人物に関してはF3=210近辺で過去に撮影されたことがないので、撮影可能領域となる。したがって、このように少なくとも1人が撮影可能領域である場合には、S205に進む。 The above shooting determination is performed for each ID. For example, as shown in FIG. 4B, it is assumed that the past facial expression evaluation values for the person with ID1 are P (1) = 180, P (2) = 220, n 1 = 2 and α = 15. Also, it is assumed that there is no past facial expression evaluation value for the person with ID3, and n 3 = 0. In this case, even if the facial expression evaluation value of the person ID1 is F 1 = 210, it belongs to the non-photographable area shown by the oblique lines shown in FIG. However, when the facial expression evaluation values are the same for the person ID1 and the person ID3, the person ID3 has never been photographed in the past around F 3 = 210, and thus becomes a photographable area. Accordingly, when at least one person is in the shootable area in this way, the process proceeds to S205.

以上のように本実施形態によれば、過去に撮影された人物ごとの顔の表情に基づいて撮影対象を絞りこむことができ、同じような表情の画像を連続で撮影して記録することを防ぐことができる。   As described above, according to the present embodiment, it is possible to narrow down the shooting target based on the facial expression of each person photographed in the past, and to continuously capture and record images with similar facial expressions. Can be prevented.

(第3の実施形態)
以下、図1、図5及び図6を参照しながら、本発明の第3の実施形態について説明する。第1及び第2の実施形態では、人物の表情の変化に基づいて撮影制御を行ったが、本実施形態では、画像全体の類似度に基づいて撮影制御を行う。なお、本実施形態に係るデジタルカメラの構成は図1とほぼ同様であるため、異なる点についてのみ説明する。
(Third embodiment)
Hereinafter, the third embodiment of the present invention will be described with reference to FIGS. 1, 5, and 6. In the first and second embodiments, shooting control is performed based on a change in the facial expression of a person, but in this embodiment, shooting control is performed based on the similarity of the entire image. The configuration of the digital camera according to the present embodiment is almost the same as that shown in FIG.

自動撮影制御部106は、メモリ108に保持されている表情判定閾値F_Th、及び過去に撮影された画像と入力画像との間の類似度に基づいて撮影を行うべきシーンかどうかを判定する。そして、類似度が低い入力画像である場合は、撮像制御部107に対して撮影を指示する。なお、メモリ108には、類似度を求めるために必要な情報として、過去の撮影画像、その縮小画像、もしくは過去の撮影時のAFの撮影制御値(距離情報)や、AEの撮影制御値(露出情報)などのログのうち、少なくとも1つ以上の情報が保存されている。   The automatic shooting control unit 106 determines whether the scene should be shot based on the facial expression determination threshold F_Th held in the memory 108 and the similarity between the image shot in the past and the input image. If the input image has a low similarity, the imaging control unit 107 is instructed to shoot. It should be noted that the memory 108 has information necessary for obtaining the similarity as a past photographed image, a reduced image thereof, or an AF photographing control value (distance information) at the past photographing, or an AE photographing control value ( At least one piece of information such as exposure information) is stored.

次に、自動撮影制御部106の撮影判定アルゴリズムについて図5を参照しながら詳細に説明する。図5は、本実施形態において、自動撮影制御部106及び顔検出部104による撮影指示の処理手順の一例を示すフローチャートである。
まず、表情検出部105により算出された入力画像の表情評価値Fが自動撮影制御部106に入力されると処理を開始する。そして、S501において、自動撮影制御部106は、メモリ108から表情判定閾値F_Thを読み出し、表情判定閾値F_Thと入力画像の表情評価値Fとを比較する。この比較の結果、表情評価値Fが表情判定閾値F_Th以下である場合は、撮影の指示は行わず、処理を終了する。一方、S501の比較の結果、表情評価値Fが表情判定閾値F_Thを上回る場合は、次のS502に進む。
Next, the shooting determination algorithm of the automatic shooting control unit 106 will be described in detail with reference to FIG. FIG. 5 is a flowchart illustrating an example of a processing procedure of a shooting instruction by the automatic shooting control unit 106 and the face detection unit 104 in the present embodiment.
First, when the facial expression evaluation value F of the input image calculated by the facial expression detection unit 105 is input to the automatic photographing control unit 106, the process starts. In step S501, the automatic photographing control unit 106 reads the facial expression determination threshold value F_Th from the memory 108, and compares the facial expression determination threshold value F_Th with the facial expression evaluation value F of the input image. If the facial expression evaluation value F is equal to or smaller than the facial expression determination threshold value F_Th as a result of this comparison, the imaging is not instructed and the process is terminated. On the other hand, if the facial expression evaluation value F exceeds the facial expression determination threshold F_Th as a result of the comparison in S501, the process proceeds to the next S502.

次に、S502において、顔検出部104は、メモリ108に保持されている過去の撮影画像に含まれている顔であり、過去n回の撮影においてその撮影のトリガとなった顔を参照し、前述した個人認証技術による被写体の照合を行う。この照合の結果、入力画像に含まれる顔が、過去に撮影のトリガとなったどの顔とも異なる場合は、S505に進む。   Next, in S502, the face detection unit 104 refers to the face included in the past photographed image held in the memory 108 and has been a trigger for the photographing in the past n photographing, The subject is collated by the personal authentication technique described above. As a result of this collation, when the face included in the input image is different from any face that has been a shooting trigger in the past, the process proceeds to S505.

一方、S502の照合の結果、過去に撮影したことのある顔である場合は、S503に進む。そして、S503において、自動撮影制御部106は類似度算出手段として機能し、メモリ108に保持されている過去の撮影時の詳細な情報を用いて画像全体の類似度を算出する。ここで、類似度を構成する要素としては、以下の(1)〜(6)に示す評価値がある。
(1)撮影時のAF情報より算出される距離差(P1)
(2)撮影時のAE情報より算出される露出差(P2)
(3)撮影時の顔情報より算出される顔サイズ差(P3)
(4)過去の撮影画像中に含まれる顔の数と入力画像中に含まれる顔の数との差(P4)
(5)過去の撮影画像と入力画像の相関をとって算出される画像全体の相関値(P5)
(6)画像中に含まれる輝度又は色のヒストグラム分布の差(P6)
On the other hand, if it is determined in step S502 that the face has been taken in the past, the process proceeds to step S503. In step S <b> 503, the automatic shooting control unit 106 functions as a similarity calculation unit, and calculates the similarity of the entire image using detailed information at the time of previous shooting held in the memory 108. Here, there are evaluation values shown in the following (1) to (6) as elements constituting the similarity.
(1) Distance difference calculated from AF information at the time of shooting (P1)
(2) Exposure difference calculated from AE information at the time of shooting (P2)
(3) Face size difference calculated from face information at the time of shooting (P3)
(4) Difference between the number of faces included in the past photographed image and the number of faces included in the input image (P4)
(5) Correlation value of the entire image calculated by correlating the past captured image with the input image (P5)
(6) Difference in histogram distribution of luminance or color included in the image (P6)

類似度は(1)〜(6)のうち、少なくとも1つの条件を用いて算出され、それぞれの評価値P1〜P6に対する重み付け加算を行って算出される。図6は、前述した(1)〜(6)の条件から類似度を算出する概要の一例を示す図である。図6に示すように、過去の撮影画像Aと入力画像とのAF、AE、顔情報などの差分をそれぞれ評価値P1〜P4とし、画像相関値を評価値P5とし、さらにヒストグラムの差分の絶対値の総和を評価値P6とする。この場合、類似度Tは、例えば以下のような式によって求めることが可能である。   The degree of similarity is calculated using at least one condition among (1) to (6), and is calculated by performing weighted addition on each of the evaluation values P1 to P6. FIG. 6 is a diagram illustrating an example of an outline for calculating the degree of similarity from the above-described conditions (1) to (6). As shown in FIG. 6, the difference between AF, AE, face information, etc. between the past photographed image A and the input image is set as the evaluation value P1 to P4, the image correlation value is set as the evaluation value P5, and the absolute difference between the histograms The sum of the values is set as an evaluation value P6. In this case, the similarity T can be obtained by the following equation, for example.

Figure 2012231327
Figure 2012231327

ここで、w1〜w6はそれぞれ評価値P1〜P6に対する重みである。そして、次のS504において、算出された類似度Tが所定値以上であるか否かを判定する。この判定の結果、類似度Tが所定値よりも低い場合は、シーンの異なる被写体だと判断し、S505において、自動撮影制御部106は撮像制御部107に対して撮影を指示するとともに、メモリ108に最新の撮影条件及び撮影画像を保存する。一方、S504の判定の結果、類似度Tが所定値以上である場合は、入力画像は過去に撮影したシーンと類似したシーンであると判断し、撮影の指示を行わず、そのまま処理を終了する。   Here, w1 to w6 are weights for the evaluation values P1 to P6, respectively. In next step S504, it is determined whether or not the calculated similarity T is greater than or equal to a predetermined value. If the similarity T is lower than the predetermined value as a result of this determination, it is determined that the subject is in a different scene. In S505, the automatic shooting control unit 106 instructs the shooting control unit 107 to shoot, and the memory 108 Save the latest shooting conditions and images. On the other hand, if the result of determination in S504 is that the degree of similarity T is greater than or equal to a predetermined value, it is determined that the input image is a scene similar to a scene captured in the past, and the processing is terminated without performing a shooting instruction. .

以上のように本実施形態によれば、過去に撮影された画像とのシーンの変化に基づいて撮影対象を絞りこむことができ、同じようなシーンの画像を連続で撮影して記録することを防ぐことができる。   As described above, according to the present embodiment, it is possible to narrow down the shooting target based on a scene change from an image shot in the past, and to continuously shoot and record images of similar scenes. Can be prevented.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

102 撮像系
104 顔検出部
105 表情検出部
106 自動撮影制御部
107 撮影制御部
108 メモリ
DESCRIPTION OF SYMBOLS 102 Imaging system 104 Face detection part 105 Expression detection part 106 Automatic imaging | photography control part 107 Imaging | photography control part 108 Memory

Claims (13)

被写体を撮像する撮像手段と、
前記撮像手段によって撮像された被写体の顔を検出する顔検出手段と、
前記顔検出手段によって検出された顔の表情に関する評価値を算出する評価値算出手段と、
前記評価値算出手段により算出された評価値に基づいて、撮影を指示する撮像制御手段と、
前記評価値算出手段によって算出された過去の評価値を記憶する記憶手段とを備え、
前記撮像制御手段は、前記記憶手段に記憶された過去の評価値のうち、前記評価値算出手段により算出された現在の評価値と最も近い評価値と、前記現在の評価値との差が所定値以上である場合に、撮影を指示することを特徴とする撮像装置。
Imaging means for imaging a subject;
Face detection means for detecting the face of the subject imaged by the imaging means;
Evaluation value calculating means for calculating an evaluation value related to facial expression detected by the face detecting means;
Based on the evaluation value calculated by the evaluation value calculation means, imaging control means for instructing imaging,
Storage means for storing past evaluation values calculated by the evaluation value calculation means,
The imaging control unit has a predetermined difference between the current evaluation value and the evaluation value closest to the current evaluation value calculated by the evaluation value calculation unit among the past evaluation values stored in the storage unit. An imaging apparatus characterized by instructing photographing when the value is greater than or equal to a value.
前記撮像制御手段は、前記記憶手段に記憶された過去の評価値のうち、前記評価値算出手段により算出された現在の評価値と最も近い評価値と、前記現在の評価値との差が所定値以上であって、さらに前記現在の評価値が所定の値を超えた場合に撮影を指示することを特徴とする請求項1に記載の撮像装置。   The imaging control unit has a predetermined difference between the current evaluation value and the evaluation value closest to the current evaluation value calculated by the evaluation value calculation unit among the past evaluation values stored in the storage unit. The imaging apparatus according to claim 1, wherein imaging is instructed when the current evaluation value exceeds a predetermined value that is equal to or greater than a value. 前記所定の値は、前記記憶手段に記憶された過去の評価値の数に応じて異なることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the predetermined value differs according to the number of past evaluation values stored in the storage unit. 前記顔検出手段によって検出された顔の人物を特定する特定手段をさらに備え、
前記評価値算出手段は、前記特定手段によって特定された人物ごとに前記評価値を算出し、
前記記憶手段は、前記評価値算出手段によって算出された過去の評価値を人物ごとに記憶しており、
前記撮像制御手段は、少なくとも1人の人物に対して、前記記憶手段に記憶された過去の評価値のうち、前記評価値算出手段により算出された現在の評価値と最も近い評価値と、前記現在の評価値との差が所定値以上である場合に撮影を指示することを特徴とする請求項1〜3の何れか1項に記載の撮像装置。
Further comprising specifying means for specifying the person of the face detected by the face detecting means;
The evaluation value calculating means calculates the evaluation value for each person specified by the specifying means;
The storage means stores a past evaluation value calculated by the evaluation value calculation means for each person,
The imaging control means, for at least one person, out of the past evaluation values stored in the storage means, the evaluation value closest to the current evaluation value calculated by the evaluation value calculation means, The imaging apparatus according to claim 1, wherein imaging is instructed when a difference from a current evaluation value is a predetermined value or more.
前記記憶手段は、電源が投入された直後から現在までの間、または前記撮像制御手段による撮影の指示を行うモードに移行してから現在までの間に前記評価値算出手段によって算出された評価値を記憶していることを特徴とする請求項1〜4の何れか1項に記載の撮像装置。   The storage means is an evaluation value calculated by the evaluation value calculation means between immediately after the power is turned on and until the present time, or after shifting to a mode for instructing shooting by the imaging control means. The imaging device according to claim 1, wherein the imaging device is stored. 前記評価値算出手段は、前記顔検出手段によって検出された顔の笑顔に関する評価値を算出することを特徴とする請求項1〜5の何れか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the evaluation value calculation unit calculates an evaluation value related to a facial smile detected by the face detection unit. 被写体を撮像する撮像手段と、
前記撮像手段によって撮像された被写体の顔を検出する顔検出手段と、
前記顔検出手段によって検出された顔の人物を特定する特定手段と、
過去に撮影した画像の撮影情報を記憶する記憶手段と、
前記特定手段によって特定された人物を含む画像の撮影情報が前記記憶手段に記憶されている場合に、前記特定された人物を含む画像の撮影情報に基づいて過去に撮影した画像との類似度を算出する類似度算出手段と、
前記類似度算出手段によって算出された類似度が所定の値よりも小さい場合に、撮影を指示する撮像制御手段とを備えることを特徴とする撮像装置。
Imaging means for imaging a subject;
Face detection means for detecting the face of the subject imaged by the imaging means;
Specifying means for specifying the person of the face detected by the face detecting means;
Storage means for storing shooting information of images taken in the past;
When shooting information of an image including a person specified by the specifying unit is stored in the storage unit, a similarity with an image shot in the past based on shooting information of an image including the specified person is calculated. Similarity calculating means for calculating;
An image pickup apparatus comprising: an image pickup control unit that instructs shooting when the degree of similarity calculated by the degree of similarity calculation unit is smaller than a predetermined value.
前記顔検出手段によって検出された顔の表情に関する評価値を算出する評価値算出手段をさらに備え、
前記撮像制御手段は、前記類似度算出手段によって算出された類似度が所定の値よりも小さい場合であって、さらに前記評価値算出手段によって算出された評価値が所定の値を超えた場合に撮影を指示することを特徴とする請求項7に記載の撮像装置。
An evaluation value calculating means for calculating an evaluation value related to the facial expression detected by the face detecting means;
The imaging control means is when the similarity calculated by the similarity calculation means is smaller than a predetermined value, and when the evaluation value calculated by the evaluation value calculation means exceeds a predetermined value The imaging apparatus according to claim 7, wherein imaging is instructed.
前記類似度算出手段は、距離情報、露出情報、画像に含まれる顔の顔情報、過去の画像との相関値、及び輝度又は色のヒストグラムの差分のうち、少なくとも1つの情報を用いて前記類似度を算出することを特徴とする請求項7又は8に記載の撮像装置。   The similarity calculation means uses the at least one information among the distance information, the exposure information, the face information of the face included in the image, the correlation value with the past image, and the difference of the luminance or color histogram. The imaging device according to claim 7, wherein the degree is calculated. 撮像手段によって撮像された被写体の顔を検出する顔検出工程と、
前記顔検出工程において検出された顔の表情に関する評価値を算出する評価値算出工程と、
前記評価値算出工程において算出された評価値に基づいて、撮影を指示する撮像制御工程とを備え、
前記撮像制御工程においては、前記評価値算出工程において算出された過去の評価値のうち、前記評価値算出工程において算出された現在の評価値と最も近い評価値と、前記現在の評価値との差が所定値以上である場合に、撮影を指示することを特徴とする撮像方法。
A face detection step of detecting the face of the subject imaged by the imaging means;
An evaluation value calculating step of calculating an evaluation value related to the facial expression detected in the face detecting step;
An imaging control step for instructing imaging based on the evaluation value calculated in the evaluation value calculating step,
In the imaging control step, of the past evaluation values calculated in the evaluation value calculation step, an evaluation value closest to the current evaluation value calculated in the evaluation value calculation step, and the current evaluation value An imaging method characterized by instructing imaging when the difference is greater than or equal to a predetermined value.
撮像手段によって撮像された被写体の顔を検出する顔検出工程と、
前記顔検出工程において検出された顔の人物を特定する特定工程と、
前記特定工程において特定された人物を含む画像の撮影情報が過去に撮影した画像の撮影情報として記憶手段に記憶されている場合に、前記特定された人物を含む画像の撮影情報に基づいて過去に撮影した画像との類似度を算出する類似度算出工程と、
前記類似度算出工程において算出された類似度が所定の値よりも小さい場合に、撮影を指示する撮像制御工程とを備えることを特徴とする撮像方法。
A face detection step of detecting the face of the subject imaged by the imaging means;
A specifying step of specifying a person of the face detected in the face detection step;
When shooting information of an image including a person specified in the specifying step is stored in a storage unit as shooting information of an image shot in the past, based on shooting information of an image including the specified person in the past A similarity calculation step for calculating the similarity with the captured image;
An imaging method comprising: an imaging control step for instructing imaging when the similarity calculated in the similarity calculation step is smaller than a predetermined value.
撮像手段によって撮像された被写体の顔を検出する顔検出工程と、
前記顔検出工程において検出された顔の表情に関する評価値を算出する評価値算出工程と、
前記評価値算出工程において算出された評価値に基づいて、撮影を指示する撮像制御工程とをコンピュータに実行させ、
前記撮像制御工程においては、前記評価値算出工程において算出された過去の評価値のうち、前記評価値算出工程において算出された現在の評価値と最も近い評価値と、前記現在の評価値との差が所定値以上である場合に、撮影を指示することを特徴とするプログラム。
A face detection step of detecting the face of the subject imaged by the imaging means;
An evaluation value calculating step of calculating an evaluation value related to the facial expression detected in the face detecting step;
Based on the evaluation value calculated in the evaluation value calculation step, causing the computer to execute an imaging control step for instructing shooting,
In the imaging control step, of the past evaluation values calculated in the evaluation value calculation step, an evaluation value closest to the current evaluation value calculated in the evaluation value calculation step, and the current evaluation value A program for instructing photographing when the difference is equal to or greater than a predetermined value.
撮像手段によって撮像された被写体の顔を検出する顔検出工程と、
前記顔検出工程において検出された顔の人物を特定する特定工程と、
前記特定工程において特定された人物を含む画像の撮影情報が過去に撮影した画像の撮影情報として記憶手段に記憶されている場合に、前記特定された人物を含む画像の撮影情報に基づいて過去に撮影した画像との類似度を算出する類似度算出工程と、
前記類似度算出工程において算出された類似度が所定の値よりも小さい場合に、撮影を指示する撮像制御工程とをコンピュータに実行させることを特徴とするプログラム。
A face detection step of detecting the face of the subject imaged by the imaging means;
A specifying step of specifying a person of the face detected in the face detection step;
When shooting information of an image including a person specified in the specifying step is stored in a storage unit as shooting information of an image shot in the past, based on shooting information of an image including the specified person in the past A similarity calculation step for calculating the similarity with the captured image;
A program for causing a computer to execute an imaging control step for instructing imaging when the similarity calculated in the similarity calculation step is smaller than a predetermined value.
JP2011098640A 2011-04-26 2011-04-26 Imaging apparatus, imaging method, and program Withdrawn JP2012231327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011098640A JP2012231327A (en) 2011-04-26 2011-04-26 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011098640A JP2012231327A (en) 2011-04-26 2011-04-26 Imaging apparatus, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2012231327A true JP2012231327A (en) 2012-11-22

Family

ID=47432520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011098640A Withdrawn JP2012231327A (en) 2011-04-26 2011-04-26 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2012231327A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179967A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
EP2993891A1 (en) * 2014-09-02 2016-03-09 HTC Corporation Electronic device and image capture method thereof
WO2016199483A1 (en) * 2015-06-08 2016-12-15 ソニー株式会社 Image processing apparatus, image processing method, and program
WO2017134765A1 (en) * 2016-02-03 2017-08-10 オリンパス株式会社 Imaging device, image processing device, image processing method, and image processing program
JP7403218B2 (en) 2017-12-18 2023-12-22 キヤノン株式会社 Imaging device, its control method, program, storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179967A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
EP2993891A1 (en) * 2014-09-02 2016-03-09 HTC Corporation Electronic device and image capture method thereof
CN105391922A (en) * 2014-09-02 2016-03-09 宏达国际电子股份有限公司 Electronic device and image capture method thereof
US9571725B2 (en) 2014-09-02 2017-02-14 Htc Corporation Electronic device and image capture method thereof
CN105391922B (en) * 2014-09-02 2019-04-26 宏达国际电子股份有限公司 Electronic device and image acquisition method
WO2016199483A1 (en) * 2015-06-08 2016-12-15 ソニー株式会社 Image processing apparatus, image processing method, and program
JPWO2016199483A1 (en) * 2015-06-08 2018-03-29 ソニー株式会社 Image processing apparatus, image processing method, and program
WO2017134765A1 (en) * 2016-02-03 2017-08-10 オリンパス株式会社 Imaging device, image processing device, image processing method, and image processing program
JP7403218B2 (en) 2017-12-18 2023-12-22 キヤノン株式会社 Imaging device, its control method, program, storage medium

Similar Documents

Publication Publication Date Title
US9398209B2 (en) Face tracking for controlling imaging parameters
US8861806B2 (en) Real-time face tracking with reference images
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP5159515B2 (en) Image processing apparatus and control method thereof
JP5631106B2 (en) Image processing apparatus, control method thereof, program, and imaging apparatus
US10115178B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US8879802B2 (en) Image processing apparatus and image processing method
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
JP2010500687A (en) Real-time face detection in digital image acquisition device
KR20100055946A (en) Method and apparatus for generating thumbnail of moving picture
JP2013228930A (en) Subject area detection device, method and program for controlling the same, imaging device and display device
JP2012231327A (en) Imaging apparatus, imaging method, and program
JP2007067559A (en) Image processing method, image processing apparatus, and control method of imaging apparatus
JP2016127431A (en) Imaging device, imaging control method and program
JP5215775B2 (en) White balance control device, imaging device using the same, and white balance control method
JP5118590B2 (en) Subject tracking method and imaging apparatus
JP5386880B2 (en) Imaging device, mobile phone terminal, imaging method, program, and recording medium
JP4534750B2 (en) Image processing apparatus and image processing program
JP5111293B2 (en) Imaging apparatus and control method thereof
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
JP2016092513A (en) Image acquisition device, shake reduction method and program
JP2017147764A (en) Image processing apparatus, image processing method, and program
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2009017135A (en) Imaging device, imaging method, and program
JP5323243B2 (en) Image processing apparatus and control method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701