JP2007081682A - Image processor, image processing method, and executable program by information processor - Google Patents
Image processor, image processing method, and executable program by information processor Download PDFInfo
- Publication number
- JP2007081682A JP2007081682A JP2005265518A JP2005265518A JP2007081682A JP 2007081682 A JP2007081682 A JP 2007081682A JP 2005265518 A JP2005265518 A JP 2005265518A JP 2005265518 A JP2005265518 A JP 2005265518A JP 2007081682 A JP2007081682 A JP 2007081682A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- area
- information indicating
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の画像間の構図のずれである動きベクトルを算出するための画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラムに関するものである。 The present invention relates to an image processing apparatus, an image processing method, and a program executable by an information processing apparatus for calculating a motion vector, which is a composition shift between a plurality of images.
現在のカメラは露出決定や焦点調節等の撮影にとって重要な作業が自動化されたものが多く、カメラ操作に未熟な人でも容易に適正な画像を得ることができる。これに加え、カメラに加わる手ぶれを防ぐ装置も開発されている。この手ぶれを防ぐ方法としては、例えば光学式の手ぶれ補正がある。これは、手ぶれによる振動を、加速度、角加速度、角速度、角変位などを検知するセンサーによって検出し、その検出値に応じて補正レンズを変位させて光軸を補正するものである(例えば、特許文献1参照)。 Many of the current cameras have automated operations important for shooting such as exposure determination and focus adjustment, and even a person unskilled in camera operation can easily obtain an appropriate image. In addition to this, a device for preventing camera shake applied to the camera has been developed. As a method for preventing this camera shake, for example, there is an optical camera shake correction. In this method, vibration due to camera shake is detected by a sensor that detects acceleration, angular acceleration, angular velocity, angular displacement, and the like, and the correction lens is displaced according to the detected value to correct the optical axis (for example, patents). Reference 1).
また、光学式の手ぶれ補正と異なるものとして、画像合成式の手ぶれ補正がある。これは、手ぶれの生じないような短い露光時間で撮影を繰り返し、撮影された複数の画像の位置を合わせながら合成することで、画像毎の構図の違いを補正しつつ、露出の不足を補完するものである(例えば、特許文献2参照)。 In addition, as a difference from optical camera shake correction, there is image synthesis camera shake correction. This compensates for lack of exposure while correcting the difference in composition for each image by repeating shooting with a short exposure time so as not to cause camera shake and combining the positions of a plurality of shot images. (For example, refer to Patent Document 2).
この画像合成方式の手ぶれ補正では、人物を基準として構図のずれを補正しようとすると、手足の動きなどに影響されて、この基準となる人物を高い精度で検出することが困難である。そこで、人物が位置する領域を避けた背景を使って動きベクトルを算出する方法が提案されている(例えば、特許文献3参照)。
画像合成方式の手ぶれ補正では、光学式の手ぶれ補正と異なり、補正レンズ及びその駆動機構を設ける必要がないため、小型化に適している。しかしながら、画像合成方式の手ぶれ補正は、次の課題が生じる場合がある。 Unlike the optical camera shake correction, the image synthesis type camera shake correction is suitable for downsizing because it is not necessary to provide a correction lens and its driving mechanism. However, the following problems may occur in the image synthesis method of camera shake correction.
例えば、絞りを開いて被写界深度を浅く設定すると、主要となる被写体と背景でボケ量が大きく異なる。そのため、背景を使って動きベクトルを算出すると、ボケた領域の画像情報を用いて位置合わせ演算を行うため、精度の悪い結果しか得られない。 For example, when the aperture is opened and the depth of field is set shallow, the amount of blur greatly differs between the main subject and the background. For this reason, when the motion vector is calculated using the background, the alignment calculation is performed using the image information of the blurred area, so that only a result with poor accuracy can be obtained.
本発明は上記課題に鑑み、主要となる被写体を精度良く検出することで、主要となる被写体の画像信号間における構図のずれを適正に算出することを目的とする。 The present invention has been made in view of the above problems, and it is an object of the present invention to appropriately calculate a composition shift between image signals of main subjects by accurately detecting main subjects.
斯かる目的下において、第1の発明は、複数の画像信号間の位置ずれを検出するずれ検出手段と、画像信号から、基準情報との比較結果に応じて、特定の領域を検出する特定領域検出手段とを有し、ずれ検出手段は特定領域検出手段による特定の領域の検出結果に応じて、画像信号の領域別に、位置ずれを示す情報に対して異なる重み付けを設定して出力することを特徴とする画像処理装置を提供するものである。 Under such an object, the first invention provides a displacement detection means for detecting displacement between a plurality of image signals, and a specific region for detecting a specific region from the image signal according to a comparison result with reference information. Detecting means, and the deviation detecting means sets and outputs different weights for the information indicating the positional deviation for each area of the image signal according to the detection result of the specific area by the specific area detecting means. An image processing apparatus is provided.
同様に、斯かる目的下において、第2の発明は、複数の画像信号間の位置ずれを検出するずれ検出手段と、画像信号から人物の顔の形状を示す情報との比較結果に応じて人物の顔が存在する領域を検出する顔領域検出手段をと有し、ずれ検出手段は、画像信号の人物の顔が存在する領域の位置ずれを示す情報と、画像信号の人物の顔が存在する領域とは異なる領域の位置ずれを示す情報のいずれかを出力することを特徴とする画像処理装置を提供するものである。 Similarly, under such an object, the second invention provides a person according to a comparison result between a deviation detecting means for detecting a positional deviation between a plurality of image signals and information indicating the shape of a person's face from the image signals. A face area detecting means for detecting an area where the face of the image is present, and the deviation detecting means includes information indicating a positional deviation of the area where the human face of the image signal is present and a human face of the image signal is present. It is an object of the present invention to provide an image processing apparatus that outputs any one of information indicating a positional deviation of an area different from the area.
同様に、斯かる目的下において、第3の発明は、複数の画像信号間の位置ずれを検出するずれ検出工程と、画像信号から、基準情報との比較結果に応じて、特定の領域を検出する特定領域検出工程とを有し、ずれ検出工程では特定領域検出工程での特定の領域の検出結果に応じて、画像信号の領域別に、位置ずれを示す情報に対して異なる重み付けを設定して出力することを特徴とする画像処理方法を提供するものである。 Similarly, under such an object, the third invention detects a specific region from the image signal in accordance with a result of comparison with reference information, and a displacement detection step for detecting a displacement between a plurality of image signals. Specific area detection step, and in the deviation detection step, according to the detection result of the specific area in the specific area detection step, different weights are set for the information indicating the positional deviation for each area of the image signal. An image processing method characterized by output is provided.
同様に、斯かる目的下において、第4の発明は、複数の画像信号間の位置ずれを検出するずれ検出工程と、画像信号から人物の顔の形状を示す情報との比較結果に応じて人物の顔が存在する領域を検出する顔領域検出工程をと有し、ずれ検出工程では、画像信号の人物の顔が存在する領域の位置ずれを示す情報と、画像信号の人物の顔が存在する領域とは異なる領域の位置ずれを示す情報のいずれかを出力することを特徴とする画像処理方法を提供するものである。 Similarly, under such an object, the fourth invention provides a person according to a result of comparison between a displacement detection step for detecting a positional deviation between a plurality of image signals and information indicating the shape of a person's face from the image signals. A face area detecting step for detecting an area where the face of the image is present, and in the deviation detecting step, information indicating the positional deviation of the area where the human face of the image signal is present and the human face of the image signal exist It is an object of the present invention to provide an image processing method characterized by outputting any information indicating a positional deviation of an area different from the area.
同様に、斯かる目的下において、第5の発明は、上記第3の発明または第4の発明を実現するためのプログラムコードを有することを特徴とする情報処理装置が実行可能なプログラムを提供するものである。 Similarly, under such an object, the fifth invention provides a program executable by an information processing apparatus characterized by having a program code for realizing the third invention or the fourth invention. Is.
本発明によれば、基準情報と比較処理することによって高い精度で特定の対象を検出できるため、この特定の対象を中心とした画像信号間における構図のずれを適正に算出することができる。 According to the present invention, it is possible to detect a specific target with high accuracy by performing a comparison process with reference information. Therefore, it is possible to appropriately calculate a composition shift between image signals centered on the specific target.
以下、添付図面を参照して本発明の好適な実施の形態について詳しく説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(第1の実施の形態)
本発明の第1の実施の形態である画像処理装置について、図1乃至図4を用いて説明を行う。
(First embodiment)
The image processing apparatus according to the first embodiment of the present invention will be described with reference to FIGS.
なお、ここでは被写体検出機能を備えた画像処理装置の例として、人物の顔を検出する機能を備えたデジタルカメラをあげて説明する。 Here, as an example of an image processing apparatus having a subject detection function, a digital camera having a function of detecting a human face will be described.
画像処理装置は、複数の連続した画像データを入力できる構成であればどのようなものであっても構わない。例えば、CCDやCMOSセンサ等の撮像素子と、撮像素子の出力信号を基にデジタル信号処理を行うプロセッサを備えたデジタルカメラ、デジタルビデオカメラ、あるいはカメラ付き携帯電話が、画像処理装置の例としてあげられる。また、外部から無線通信、あるいは有線通信によって受信した画像データを基に、デジタル信号処理を行うコンピュータも画像処理装置の例としてあげられる。 The image processing apparatus may have any configuration as long as it can input a plurality of continuous image data. For example, a digital camera, a digital video camera, or a camera-equipped mobile phone including an image sensor such as a CCD or CMOS sensor and a processor that performs digital signal processing based on an output signal of the image sensor is an example of an image processing apparatus. It is done. An example of an image processing apparatus is a computer that performs digital signal processing based on image data received from outside by wireless communication or wired communication.
被写体検出機能は、特定の形状、特定の輝度分布、特定の色相分布等を検出し判別することによって、所定の被写体を検出する機能であればよい。被写体の対象としては、例えば犬、猫、鳥といった動物や、車、飛行機、電車といった乗り物のように、人物の顔以外のものであってもよい。 The subject detection function may be any function that detects a predetermined subject by detecting and determining a specific shape, a specific luminance distribution, a specific hue distribution, and the like. The subject of the subject may be something other than a human face, such as an animal such as a dog, cat, or bird, or a vehicle such as a car, airplane, or train.
このような被写体検出機能に関しては、様々な方法が公知となっている。 Various methods are known for such a subject detection function.
例えば、特開平05−197793号公報では、顔の各部品の形状データと入力画像とのマッチング結果から被写体を検出する技術が開示されている。この技術では、虹彩、口、鼻等の形状データを用意しておき、まず2つの虹彩を求める。続いて口、鼻等を求める際に、その虹彩の位置に基づいて、口、鼻等の顔部品の探索領域を限定する。つまり、このアルゴリズムでは、虹彩(眼)、口、鼻といった顔を構成する顔部品を並列的に検出するのではなく、虹彩(眼)を最初に見つけ、その結果を使用して、順に口、鼻という顔部品を検出している。 For example, Japanese Patent Laid-Open No. 05-197793 discloses a technique for detecting a subject from a matching result between shape data of each part of a face and an input image. In this technique, shape data such as iris, mouth and nose are prepared, and two irises are first obtained. Subsequently, when obtaining the mouth, nose, etc., the search area for the facial parts such as the mouth, nose, etc. is limited based on the position of the iris. In other words, this algorithm does not detect the facial parts that make up the face such as the iris (eye), mouth, and nose in parallel, but first finds the iris (eye) and uses the result to It detects a facial part called the nose.
他にもマッチングを行う処理としては、例えば、画像データならば、特開平9−130714号公報に記載の画像情報抽出装置で用いる方法を利用することができる。この装置では、被写体距離に応じたサイズのテンプレート画像を生成する。そして、これを用いて画面内を走査しながら、各場所で正規化相関係数などを計算することにより入力画像の局所部分とモデルデータとの類似度分布を算出する。他にも、特許3078166号公報に記載の局所的特徴の空間配置関係に基づくアルゴリズムや特開2002−8032号公報に記載の、畳み込み神経回路網をベースにしたアルゴリズムなどを用いても良い。 As other matching processing, for example, for image data, the method used in the image information extraction apparatus described in Japanese Patent Laid-Open No. 9-130714 can be used. In this apparatus, a template image having a size corresponding to the subject distance is generated. Then, using this, while calculating the normalized correlation coefficient at each location while scanning the screen, the similarity distribution between the local portion of the input image and the model data is calculated. In addition, an algorithm based on a spatial arrangement relationship of local features described in Japanese Patent No. 3078166, an algorithm based on a convolutional neural network described in Japanese Patent Laid-Open No. 2002-8032, or the like may be used.
本実施の形態では、画像データの輝度情報を用いてエッジを抽出し、抽出できたエッジの形状、画像における位置、色相などの指標を、予め記憶されたデータベースと比較してパターンマッチングを行うことで所望の被写体の検出を行う方法を用いている。 In this embodiment, an edge is extracted using luminance information of image data, and pattern matching is performed by comparing indexes such as the extracted edge shape, position in the image, and hue with a database stored in advance. A method for detecting a desired subject is used.
図1に本実施の形態における撮像装置100のブロック図を示す。
FIG. 1 shows a block diagram of an
図1において、101はズームレンズ及びフォーカスレンズを含む複数のレンズにて構成された撮影レンズであり、102は撮影レンズを通過した光束の量を調節する絞り、103は撮影レンズを通過した光束を遮るためのシャッタである。104はCMOSセンサやCCD等の撮像素子であり、絞り102とシャッタ103は、撮影レンズ101と撮像素子104の間に配置されている。
In FIG. 1,
105は撮像素子の電荷蓄積動作及びリセット動作を制御する撮像素子駆動手段である。106はAF駆動モータであり、撮影レンズ101に含まれるフォーカスレンズを光軸方向に駆動し、焦点位置を変更する。107はシャッタ103を駆動するシャッタ駆動手段であり、108は絞り102を駆動して絞り口径を調節する絞り駆動手段であり、109はAF駆動モータ106の駆動量、駆動方向を制御する焦点制御手段である。
110はアナログ/ディジタル(以下、A/Dという)変換手段であり、111はA/D変換手段110から出力された画像信号や、後述するメモリ112に記憶された画像信号に対して信号処理を施す信号処理手段である。撮像素子104から出力されたアナログ信号はA/D変換手段110によってディジタル信号に変換され、信号処理手段111に入力される。信号処理回路111はA/D変換手段110から入力されたディジタル信号から輝度信号や色信号を形成し、表示用の画像信号、記録用の画像信号、及び顔検出用の画像信号を形成する。112は顔検出の画像信号や表示用の画像信号を一時的に記憶するメモリである。113は制御手段であり、シャッタ駆動手段107、絞り駆動手段108、焦点制御手段109、信号処理手段111、及び後述する顔検出手段114の各々は、制御手段113からの制御指令に基づいて動作する。
114は顔検出手段であり、信号処理手段111で形成されてメモリ112に記憶された顔検出用の画像信号を解析し、人物の顔が存在する領域を検出する。後述するが、顔検出手段114は顔と判定するための基準レベルとして、第1の基準レベルと、この第1の基準レベルよりも顔の判定基準が厳しい第2の基準レベルを備えている。115はずれ検出手段であり、複数の画像信号間で相関演算を行い、画像信号間の相対的な位置ずれ量(動きベクトル)を算出する。ずれ検出手段115の動きベクトルの算出方法については後述する。116は座標変換手段であり、ずれ検出手段115で算出された動きベクトルにあわせて各画像信号の画像変換を行う。117は座標変換手段116にて座標変換された画像信号を記憶するための画像記憶手段であり、118は画像記憶手段117に記憶された画像信号を合成する画像合成手段である。
ずれ検出手段115、座標変換手段116、画像記憶手段117及び画像合成手段118は、ぶれが生じる可能性が高くないときは動作せずに、ぶれが生じる可能性が高いときのみカメラが画像合成モードが設定されることによって動作しても構わない。具体的な例としては、シャッタ速度が所定値よりも長く、かつ、カメラが三脚等に固定されていない場合である。なお、画像合成モードは、ユーザーによって手動で設定されるようにしてもよい。
The
119はLCD(Liquid Crystal Display)等からなる表示手段であり、信号処理手段111にて形成された表示用の画像信号を入力して被写体像を表示する。シャッタ速度、絞り値、感度、及び撮影モード等の撮影に関する各種のパラメータを被写体像に重畳させて表示することもできる。また、この表示手段115は、既に撮影されてカメラ内部に保存されている画像を再生するためにも用いられる。信号処理手段111は顔検出手段113にて検出された顔の領域に関する情報を受け取り、顔の位置及び大きさを示す枠を表示用の画像信号に重畳させる。表示手段119はこの画像信号を受け取って表示することで、カメラの使用者に顔検出結果を認識させることができる。120は記録手段であり、信号処理手段111にて形成された記録用の画像信号を記録する。121は操作手段であり、撮影用の測光動作及び焦点調節動作を指示するためのスイッチSW1、撮影を開始するためのスイッチSW2、後述する撮影モードや画像合成モード、あるいは流し撮りモードを設定するための操作部材が含まれている。
画像合成モードが設定され、撮影者によってレリーズボタンが半押しされてスイッチSW1がオンすると、撮像装置は本撮影のための焦点調節動作及び測光動作を行う。このときの測光結果に応じて、制御手段113が絞り102の絞り口径とシャッタ103のシャッタ速度(露光時間)を決定する。被写体輝度が低ければ、絞り口径は全開となり、露光時間も長くなる。露光時間が長ければそれだけ手ぶれが発生する可能性が高いため、露光時間が所定値よりも長い場合は、短い時間での露光を複数回連続して行う画像合成モードが設定される。
When the image composition mode is set and the release button is pressed halfway by the photographer and the switch SW1 is turned on, the imaging apparatus performs a focus adjustment operation and a photometric operation for the actual photographing. The control means 113 determines the aperture diameter of the
画像合成モードでは、1回の露光で得られた画像信号は輝度が不足した状態となるが、手ぶれの影響は低減させることができる。また、連続して得られた複数の画像信号を合成すれば、それぞれの画像信号の輝度が加算されるため、合成後の画像信号の輝度をほぼ適正値とすることができる。しかしながら、1つ1つの画像信号のぶれは小さくとも、連続撮影中の手ぶれにより各画像信号の構図は変化しているため、このまま画像信号の合成を行うと画像信号間の構図のずれが累積されてしまう。 In the image composition mode, the image signal obtained by one exposure is in a state where the luminance is insufficient, but the influence of camera shake can be reduced. Further, if a plurality of image signals obtained in succession are combined, the luminance of each image signal is added, so that the luminance of the combined image signal can be set to an approximately appropriate value. However, even if the blur of each image signal is small, the composition of each image signal changes due to camera shake during continuous shooting. Therefore, if the image signals are synthesized as they are, the composition deviation between the image signals is accumulated. End up.
そこで、連続して露光された複数の画像信号を、それぞれ信号処理手段111を介して顔検出手段114及びずれ検出手段115に入力し、これら複数の画像信号間の相対的な位置ずれ量、即ち動きベクトルを算出する。
Therefore, a plurality of continuously exposed image signals are input to the
ずれ検出手段115は、信号処理手段111から送られてきた複数の画像信号を、それぞれ図2にあるように複数のブロックに分割する。図2は画像信号の動きベクトルを説明するための図である。本実施の形態では1つの画像信号の長辺方向を8分割、短辺方向を6分割し、合計48のブロックに分割した例を示す。勿論、ブロックの分割数は任意であり、他の数、他の形状でも構わない。
The
図2では説明を容易にするために、左からA列、B列、C列、D列、E列、F列、G列、H列とし、上から1行、2行、3行、4行、5行、6行とする。そしてx列y行にあるブロックを、xyと称する。つまり、左上のブロックはA1となり、右下のブロックはH6となる。
In FIG. 2, for ease of explanation, A column, B column, C column, D column, E column, F column, G column, H column are shown from the left, and 1 row, 2 rows, 3 rows, 4 rows from the top.
ずれ検出手段115は、複数の画像信号間の同位置のブロックにおける二次元の相関演算を行って、ブロック毎の位置ずれ量である動きベクトルを算出する。そして算出された48個のブロックのそれぞれの動きベクトルに対して重み付けをしてからヒストグラムを求め、その最頻値をもって画像信号全体の動きベクトルとする。
The
本実施の形態においては、顔検出手段114にて画像信号から人物の顔が存在するブロックを検出し、顔が検出されたブロックの位置を重み付けに反映させる。具体的には、顔が検出されたブロックの動きベクトルの出現頻度を他の領域よりも高くして画像全体の動きベクトルを求める。
In the present embodiment, the
具体的には、顔が検出されたブロックの動きベクトルを他の領域よりも大きくして画像全体の動きベクトルを求める。もしくは、顔が検出されたブロックの動きベクトルのみを用いて画像全体の動きベクトルを求める。 Specifically, the motion vector of the block in which the face is detected is made larger than that of other regions, and the motion vector of the entire image is obtained. Alternatively, the motion vector of the entire image is obtained using only the motion vector of the block in which the face is detected.
図3に人物の顔が検出された位置と重み付けを反映させるブロックの位置との関係を示す。図3にて、楕円が人物の顔の輪郭を示しており、ブロックC4、C5、D4、D5、F3、F4、F5、G3、G4、G5の計10ブロックが顔の領域と完全に重畳している。本実施の形態では、これら10ブロックの動きベクトルの重み付けを、他の全てのブロックよりも大きくし、動きベクトルのヒストグラムから画像全体の動きベクトルを決定している。図3に示す例では、顔の領域と完全に重畳しているブロックを重み付けを大きくする対象としているが、顔の領域が所定の割合以上重畳しているブロックを同様の対象としてもよい。また、顔までの距離や、顔の存在する位置も、重み付けする際に考慮してもよい。例えば、中心に近い顔の領域と重畳しているブロックの重み付けを、周囲の顔の領域と重畳しているブロックの重み付けよりも大きくする方法が考えられる。 FIG. 3 shows the relationship between the position where the person's face is detected and the position of the block reflecting the weight. In FIG. 3, the ellipse indicates the outline of the face of the person, and a total of 10 blocks of blocks C4, C5, D4, D5, F3, F4, F5, G3, G4, and G5 are completely superimposed on the face area. ing. In the present embodiment, the motion vectors of these 10 blocks are weighted more than all other blocks, and the motion vector of the entire image is determined from the motion vector histogram. In the example shown in FIG. 3, a block that is completely overlapped with the face area is set as a target for increasing the weight, but a block in which the face area is overlapped by a predetermined ratio or more may be set as the same target. Also, the distance to the face and the position where the face exists may be taken into account when weighting. For example, a method is conceivable in which the weight of the block superimposed on the face area close to the center is made larger than the weight of the block superimposed on the surrounding face area.
座標変換手段116は画像信号間のずれを相殺するため、各画像信号に対して、ずれ検出手段115にて算出された画像全体の動きベクトルにあわせて座標変換を行う。座標変換手段116にて座標変換された画像信号は画像記憶手段117に記憶され、記憶された画像信号は画像合成手段118にて1枚の画像に合成されて、メモリ112に記憶される。画像信号間のずれを相殺するために合成した画像信号には、合成前の全ての画像信号と重畳する領域と、合成前の一部の画像信号とのみ重畳する領域が発生する。そこで画像合成手段118は、合成前の一部の画像信号とのみ重畳する領域はカットし、合成前の全ての画像信号と重畳する領域のみ合成した画像信号を生成する。そして合成した画像信号に拡散補完処理を施し、元のフレームと同じ大きさの画像信号を生成する。この画像信号はメモリ112を介して記録手段120に記録されるとともに、この画像信号を間引いて生成された表示用の画像信号を用いて表示手段119が合成後の画像信号の表示を行う。
The coordinate conversion unit 116 performs coordinate conversion on each image signal in accordance with the motion vector of the entire image calculated by the
次に、本実施の形態の動きベクトルの演算処理について、図4に示すフローチャートを用いて詳細に説明する。 Next, motion vector calculation processing according to the present embodiment will be described in detail with reference to the flowchart shown in FIG.
カメラの電源スイッチが操作されてカメラが起動すると、ステップS1からスタートする。ステップS1で、制御手段113がシャッタ駆動手段107、絞り駆動手段108、及び、焦点制御手段109の各制御パラメータを初期化する。そして撮像素子104の出力信号をA/D変換手段110を介して信号処理回路111に入力し、信号処理回路111が表示用の画像信号を生成して、表示手段119に入力する。このような撮像動作を周期的に繰り返すことで、カメラの操作者は表示手段119に表示される画像を観察することによって、被写体の様子をリアルタイムでモニターすることができる。
When the camera is activated by operating the power switch of the camera, the process starts from step S1. In step S <b> 1, the
制御手段113は顔検出手段114に顔を判定するための基準レベルの初期値として、第1の基準レベルよりも判定基準の厳しい第2の基準レベルを設定させる。ここで、顔を判定するための基準レベルとは、参照用データベースとして保存された顔のテンプレート情報に対して、入力された画像信号がどの程度まで一致したものを顔として判定するかのレベルのことである。
The
基準レベルに差を設ける方法としては、次のような例が考えられる。例えば、第1の基準レベルを用いた場合は、テンプレート情報との一致度が顔の形状において所定の条件を満たす領域があれば、その領域を顔として判定する。これに対し、第2の基準レベルを用いた場合には、テンプレート情報との一致度が顔の形状に加え、顔の色、及び顔の大きさの全てにおいて所定の条件を満たす領域があれば、その領域を顔として判定する。 As a method for providing a difference in the reference level, the following example can be considered. For example, when the first reference level is used, if there is a region whose degree of coincidence with the template information satisfies a predetermined condition in the shape of the face, the region is determined as a face. On the other hand, when the second reference level is used, if there is a region that satisfies a predetermined condition in all of the face color and face size in addition to the face shape, the degree of coincidence with the template information The area is determined as a face.
他の例としては、第2の基準レベルを設定した場合には、第1の基準レベルを設定した場合に比べて、検出対象として認める所定の数値範囲を狭くする方法があげられる。例えば、第1の基準レベルを設定した場合は、互いの距離が5.5cm〜7.5cmの範囲に虹彩のペアが存在することを顔として判定するために必要な条件の一つとする。これに対して、第2の基準レベルを設定した場合は、互いの距離が、第1の基準レベルよりも狭い6.0cm〜7.0cmの範囲に虹彩のペアが存在することを顔として判定するために必要な条件の一つとする。第1の基準レベルと第2の基準レベルとで、顔として認識するための基準値に差を設けることができるのであれば、別の方法であっても構わない。 As another example, when the second reference level is set, there is a method of narrowing a predetermined numerical range recognized as a detection target as compared with the case where the first reference level is set. For example, when the first reference level is set, it is set as one of the conditions necessary for determining as a face that an iris pair exists within a range of 5.5 cm to 7.5 cm. On the other hand, when the second reference level is set, it is determined as a face that there is an iris pair in a range of 6.0 cm to 7.0 cm whose distance from each other is narrower than the first reference level. One of the conditions necessary to do this. Another method may be used as long as a difference can be provided in the reference value for recognizing the face between the first reference level and the second reference level.
以上の準備が整ったら、ステップS2で制御手段113が撮影モードの判定を行う。これは、操作手段121によってカメラの撮影モードが複数枚の画像を撮影した後それらを合成する画像合成モードに設定されているか、その他の撮影モードに設定されているかを判定する。撮影モードが画像合成モードに設定されていればステップS3に進み、その他の撮影モードに設定されていればステップS22に進む。
When the above preparation is completed, the
まず、ステップS2にてその他の撮影モードに設定されていると判定された場合について説明する。ステップS22で、制御手段113は操作手段121に含まれるスイッチSW1がオンされたかを判定し、オンされたならばステップS23に進み、オンされていなければオンされるまで待機する。
First, the case where it is determined in step S2 that the other shooting mode is set will be described. In step S22, the
ステップS23で、スイッチSW1がオンされたことを受けて、信号処理手段111は顔検出用の画像信号を生成し、顔検出手段114がこの顔検出用の画像信号に対して顔検出を行う。そして制御手段113は顔検出結果に応じて焦点調節エリア、測光エリアを決定し、焦点調節動作、測光動作を行わせる。顔検出に失敗した場合は、至近にいる被写体に焦点を合わせる方法や、画面中央付近の重み付けを大きくして被写体輝度を求める方法を用いて、焦点調節動作や測光動作を行わせる。
In step S23, in response to the switch SW1 being turned on, the signal processing unit 111 generates an image signal for face detection, and the
ステップS24で、制御手段113は操作手段121に含まれるスイッチSW2がオンされているかを判定し、オンされているならばステップS25に進み、オンされていなければステップS22に戻る。 In step S24, the control means 113 determines whether or not the switch SW2 included in the operation means 121 is turned on. If it is turned on, the process proceeds to step S25, and if not, the process returns to step S22.
ステップS25で、ステップS23で得た測光情報をもとに、絞り値、シャッタ速度を設定して撮影を行い、得られた画像をメモリ112に記憶する。そして信号処理手段111が、このメモリ112に記憶された合成後の画像信号を表示用の画像信号、或いは記憶用の画像信号に変換する。この変換された画像信号を受けて、表示手段119が合成後の画像信号を表示し、記録手段120が合成後の画像信号を記録する。
In step S25, based on the photometric information obtained in step S23, the aperture value and shutter speed are set to perform shooting, and the obtained image is stored in the
次にステップS2で画像合成モードに設定されていると判定された場合について説明する。 Next, a case where it is determined in step S2 that the image composition mode is set will be described.
ステップS3で、制御手段113は顔検出手段114に顔を判定するための基準レベルとして第1の基準レベルを設定させる。顔を判定する基準レベルを変更するのは、流し撮りなどで被写体とカメラが相対的に動いて、被写体が静止している状態に比較して顔検出が困難である状況であっても、顔検出を成功させる確率を高く維持するためである。このため、ステップS3では第2の基準レベルよりも判定基準の緩やかな第1の基準レベルを設定する。
In step S3, the
ステップS4で、制御手段113は操作手段121に含まれるスイッチSW1がオンされているかを判定する。スイッチSW1がオンされているならばステップS5に進み、オンされていなければオンされるまで待機する。
In step S4, the
ステップS5で、スイッチSW1がオンされていることを受けて、信号処理手段111は顔検出用の画像信号を生成し、顔検出手段114がこの顔検出用の画像信号に対して顔検出を行う。そして制御手段113は顔検出結果に応じて焦点調節エリア、測光エリアを決定し、焦点調節動作、測光動作を行わせる。その際、検出された顔が存在する領域の座標情報をメモリ112に記憶する。顔検出に失敗した場合は、至近にいる被写体に焦点を合わせる方法や、画面中央付近の重み付けを大きくして被写体輝度を求める方法を用いて、焦点調節動作や測光動作を行わせる。
In step S5, in response to the switch SW1 being turned on, the signal processing unit 111 generates an image signal for face detection, and the
なお、画像合成モードは被写体の輝度によって自動的に設定されるものとして、ステップS5での測光結果を受けてから、ステップS2における画像合成モードに設定されているかの判定を行うようにしても構わない。この場合は、ステップS2の位置がステップS5とステップS6の間に変更され、画像合成モードが設定されていなければ、ステップS22に進む。 Note that it is assumed that the image composition mode is automatically set according to the luminance of the subject, and it is possible to determine whether the image composition mode is set in step S2 after receiving the photometric result in step S5. Absent. In this case, the position of step S2 is changed between step S5 and step S6, and if the image composition mode is not set, the process proceeds to step S22.
ステップS6で、制御手段113は操作手段121によって、カメラ自身が移動したり、カメラ自身の向きが変わることが予想される流し撮りモードに設定されているかを判定する。流し撮りモードに設定されていれば、制御手段113内のメモリに格納された流し撮りフラグflgを1に設定し(ステップS7)、そうでない場合はフラグflgを0に設定する(ステップS8)。
In step S <b> 6, the
このフラグflgの値は、操作手段によって流し撮りモードが設定されなくとも、カメラに内蔵された不図示の加速度、角加速度、角速度、角変位などを検知するセンサーの出力に応じて設定しても構わない。この場合は、不図示のセンサーによってカメラが一定方向に動いていると検知された場合は、フラグflgを1に設定する。 The value of the flag flg may be set according to the output of a sensor that detects acceleration, angular acceleration, angular velocity, angular displacement, etc. (not shown) incorporated in the camera, even if the panning mode is not set by the operating means. I do not care. In this case, the flag flg is set to 1 when it is detected by a sensor (not shown) that the camera is moving in a certain direction.
ステップS9で、制御手段113は操作手段121に含まれるスイッチSW2がオンされているかを判定し、オンされているならばステップS10に進み、オンされていなければステップS4に戻る。 In step S9, the control means 113 determines whether or not the switch SW2 included in the operation means 121 is turned on. If it is turned on, the process proceeds to step S10, and if not, the process returns to step S4.
ステップS10で、ステップS5で得た測光情報をもとに、連続撮影を行う。連続撮影する枚数nは、そのシーンで1枚撮影する場合に必要な本来の露光時間をTS、複数枚撮影時の一枚あたりの露光時間をTMとすると、
TS=TM×n
を満たせばよい。具体的な例としては、TMとして手ぶれしない露光時間の目安とされる「1/焦点距離」を与え、これにより撮影枚数nを決定する方法が考えられるが、実際はこの限りではない。
In step S10, continuous shooting is performed based on the photometric information obtained in step S5. The number of consecutive shots n is T S as the original exposure time required for shooting one shot in the scene, and T M as the exposure time per shot when shooting multiple shots.
T S = T M × n
Should be satisfied. As a specific example, a method may be considered in which “1 / focal length”, which is a measure of the exposure time without camera shake, is determined as TM and the number of shots n is determined based on this.
ステップS11で、ずれ検出手段115は連続撮影されたそれぞれの画像信号を、図2に示すように複数のブロックに分割する。これら画像信号の全てのブロックを対象として、同一のブロックに対してそれぞれ画像信号間の2次元の相関演算を行う。これによりブロック毎のずれ量、すなわち動きベクトルが求まり、これをバッファメモリに格納する。
In step S11, the
ステップS12で、制御手段113は操作手段121によって設定された画像合成モードが、主要被写体である人物を優先して合成を行う人物優先モードであるかを判定する。人物優先モードが設定されていればステップS13に進み、そうでなければステップS18に進む。
In step S <b> 12, the
ステップS13で、制御手段113は顔検出手段114に顔を判定するための基準レベルとして第2の基準レベルを設定させる。焦点調節エリア、測光エリアを決定するための顔検出よりも時間は要するが、撮影済みの画像信号に対して顔検出を行うため、撮影動作における顔検出とは異なり、レリーズタイムラグ等の影響が発生しない。基準レベルを厳しくすることで、ステップS5よりも精度の高い顔検出ができる。
In step S13, the
ステップS14で、顔検出手段114はステップS10で連続撮影された最初の画像信号に対して顔検出を行う。ただし一つ一つの画像の輝度が低いため、デジタルゲイン処理を行うなどして輝度を高めた顔検出用の画像信号を生成し、この顔検出用の画像信号に対して顔検出を行う。また、最初の画像信号から顔検出ができなければ、2枚目、3枚目、と別の画像信号に対し顔検出を行う。もし全ての画像信号に対して顔検出が失敗したのであれば、ステップS5での顔検出結果を代用してもよい。
In step S14, the
本実施の形態では、予め登録された個人別に顔検出用の異なるテンプレート情報を備えており、画像信号から顔検出だけでなく個人認識まで行うことができるものとする。顔として検出された領域に対して、更に個人別に用意されたテンプレート情報と順次マッチングを行う。一致度が最も高く、かつ、所定の閾値を満たしている場合は、そのテンプレート情報として登録されている個人であると判定する。そして、個人別のテンプレート情報には、予めその個人の優先順位に関する情報が関連付けられて記憶されている。これは複数の人物の顔が映っている場合に、全員に対して最適となるように位置ずれを補正することはほぼ不可能であるためである。また、予め優先度をつけておくことで、使用者の意図した被写体の位置ずれ補正を優先させることができる。 In the present embodiment, different template information for face detection is provided for each individual registered in advance, and not only face detection but also individual recognition can be performed from an image signal. The region detected as a face is further matched with template information prepared for each individual. If the degree of coincidence is the highest and a predetermined threshold is satisfied, it is determined that the person is registered as the template information. The individual template information is stored in advance in association with information related to the priority order of the individual. This is because it is almost impossible to correct the positional deviation so as to be optimal for all of the faces of a plurality of persons. In addition, by assigning priorities in advance, it is possible to give priority to the correction of the positional deviation of the subject intended by the user.
図3のように高い優先順位(例えば、1位)で登録されたAさんの顔と、優先順位が登録されていないBさんの顔が存在する場合を例にあげて説明する。Aさんの顔と重畳する長方形領域の左上の座標を(xA1、yA1)、右下の座標を(xA2、yA2)とする。Bさんの顔と重畳する長方形領域の左上の座標を(xB1、yB1)、右下の座標を(xB2、yB2)とする。Aさんの顔検出結果の信頼性をRA、Bさんの顔検出結果の信頼性をRBすると、AさんとBさんの顔検出結果に関してそれぞれ次の情報がメモリ112に記憶される。もちろん、この情報は検出された人数や、その個人に応じて、記憶される情報は異なる。
Aさん {(xA1、yA1)、(xA2、yA2)、RA、1}
Bさん {(xB1、yB1)、(xB2、yB2)、RB、−}
ここで、顔検出結果の信頼性について説明する。
An example will be described in which there is a face of Mr. A registered with a high priority (for example, first place) and a face of Mr. B with no priority registered as shown in FIG. The upper left coordinates of the rectangular area superimposed on Mr. A's face are (x A1 , y A1 ), and the lower right coordinates are (x A2 , y A2 ). The upper left coordinates of the rectangular area superimposed on Mr. B's face are (x B1 , y B1 ), and the lower right coordinates are (x B2 , y B2 ). When the reliability of the face detection result of Mr. A is R A and the reliability of the face detection result of Mr. B is R B , the following information is stored in the
Mr. A {(x A1 , y A1 ), (x A2 , y A2 ), R A , 1}
Mr. B {(x B1 , y B1 ), (x B2 , y B2 ), R B , −}
Here, the reliability of the face detection result will be described.
顔検出結果の信頼性にはいくつかの算出方法が考えられる。例えば、テンプレートマッチング結果、色(顔なら肌色)、動き検出(顔(人)なら動いている)などいくつかのパラメータを有していて、これらのパラメータの組み合わせによって信頼度を設定する方式がある。他には、テンプレートに対してどの程度マッチしたのかによって信頼度を設定する方式や、顔検出領域の解像度や面積に応じて信頼度を設定する(高解像度の画像に写った顔、大きく写った顔の方が信頼度が高い)方式などが考えられる。特開2004−206665号公報には、肌色領域を検出しておき、この肌色領域から検出された顔領域は信頼性が高いと判定する方法が開示されている。特開2003−266348号公報には、テンプレートの画素数nに対して、マッチした画素数をnmatchとし、nmatch/nを信頼度とする方法が開示されている。 Several calculation methods are conceivable for the reliability of the face detection result. For example, there are several parameters such as template matching result, color (skin color if face), motion detection (moving if face (person)), and there is a method of setting reliability by combining these parameters . Other methods include setting the reliability according to the degree of matching with the template, and setting the reliability according to the resolution and area of the face detection area (faces captured in high-resolution images, large images (Face is more reliable). Japanese Unexamined Patent Application Publication No. 2004-206665 discloses a method of detecting a skin color area and determining that the face area detected from the skin color area is highly reliable. Japanese Patent Laid-Open No. 2003-266348 discloses a method in which the number of matched pixels is set to nmatch and the reliability of nmatch / n with respect to the number of pixels n of the template.
本実施の形態では、上述のような種々の方法によって得られる顔検出結果の信頼性を示す値として、0〜1に正規化された値を設定する。信頼性が高いほど1に近い値となる。 In the present embodiment, a value normalized to 0 to 1 is set as a value indicating the reliability of the face detection result obtained by various methods as described above. The higher the reliability, the closer to 1.
もし、ステップS14で顔検出に失敗し、顔の存在する領域を検出することができなければ、後述するステップS19に進む(ステップS15)。 If face detection fails in step S14 and the area where the face exists cannot be detected, the process proceeds to step S19 described later (step S15).
ステップS16で、ずれ検出手段115はメモリ112に記憶された顔検出結果の座標情報の範囲に含まれるブロックに対する重み付けWを計算する。重み付けWの計算には、顔検出結果の信頼性R(0≦R≦1)と、登録された顔に関する優先順位が加味される。具体的なWの計算方法の例を挙げると、予め登録された顔の優先順位ごとの重みwf(fは優先順位)と、登録されていない一般の顔に対する重みw0をカメラ内に保持している。優先順位が高い顔ほど重みが増すように
w1≧w2≧・・・≧w0≧1
を満たしているとする。この時、各顔ブロックの重み付けWが、
W={(wf−1)×R}+1
で表されたとすると、登録された優先順位と顔検出時の信頼性が高いほど重み付けWの値は大きくなる。Aさん、Bさんの顔が検知された図3に示す例では、Aさんの顔が検出されたブロックであるF3〜F5、G3〜G5の計6ブロックに対して{(w1−1)×RA}+1の重み付けが与えられる。また、Bさんの顔が検出されたブロックであるC4〜C5、D4〜D5の計4ブロックに対しては{(w0−1)×RB}+1の重み付けが与えられる。なお、登録されていない顔の重み付けWを0とするように設定するように構成すれば、位置ずれを算出する際に、たまたま写ってしまった通りがかりの人物等の、使用者の意図していない人物を無視することができる。
In step S <b> 16, the
Is satisfied. At this time, the weight W of each face block is
W = {(w f −1) × R} +1
If the registered priority order and the reliability at the time of face detection are higher, the value of the weight W becomes larger. In the example shown in FIG. 3 in which the faces of Mr. A and Mr. B are detected, {(w 1 -1) for a total of 6 blocks F3 to F5 and G3 to G5 which are blocks from which the face of Mr. A is detected. A weight of × R A } +1 is given. Further, a weight of {(w 0 −1) × R B } +1 is given to a total of four blocks C4 to C5 and D4 to D5, which are blocks in which Mr. B's face is detected. Note that if the weight W of the unregistered face is set to be 0, the user does not intend the user, such as a passing person, who happens to be captured when calculating the positional deviation. You can ignore people.
なお、本実施の形態では、登録された優先順位と顔検出時の信頼性の両方を用いて重み付けWを与えているが、登録された優先順位と顔検出時の信頼性の一方のみを用いて重み付けWを与えてもよい。 In this embodiment, weight W is given using both the registered priority and the reliability at the time of face detection, but only one of the registered priority and the reliability at the time of face detection is used. The weight W may be given.
ステップS17で、ステップS11で算出してバッファメモリに記憶したブロック毎の動きベクトルと、ステップS16で計算した重み付けを基に、画像信号毎に動きベクトルのヒストグラムを作成する。顔が検出されていないブロックに関しては、ブロック毎で算出された動きベクトル1つにつき1を加算するのに対して、顔が検出されたブロックに関してはW(W>1)だけ加算して、その出現頻度をヒストグラムとして作成する。そしてステップS20に進む。 In step S17, a motion vector histogram is created for each image signal based on the motion vector for each block calculated in step S11 and stored in the buffer memory and the weight calculated in step S16. For blocks where no face is detected, 1 is added to each motion vector calculated for each block, whereas for blocks where a face is detected, only W (W> 1) is added. Create appearance frequency as a histogram. Then, the process proceeds to step S20.
ステップS12に戻り、通常の合成モードに設定されていた場合は、ステップS18にて、ステップS7において設定したフラグflgの値を検出する。フラグflgが1に設定されている場合は、カメラが流し撮りモードに設定されているか、撮影時にカメラが一定方向に動いていたことを示す。そのため、被写体を中心に画像合成を行う方が好ましい結果が得られると考えられる。そこでフラグflgが1に設定されている場合は、ステップS13に進み、顔検出結果を利用して画像合成を行う処理に進む。 Returning to step S12, if the normal synthesis mode has been set, the value of the flag flg set in step S7 is detected in step S18. When the flag flg is set to 1, it indicates that the camera is set to the panning mode or the camera has moved in a certain direction at the time of shooting. For this reason, it is considered that a preferable result can be obtained when image synthesis is performed with the subject as the center. Accordingly, if the flag flg is set to 1, the process proceeds to step S13, and the process proceeds to a process of performing image synthesis using the face detection result.
一方、フラグflgが0に設定されている場合は、ステップS19に進み、ブロック別に重み付けをすることなく、ブロック毎に算出された動きベクトル1つにつき1を加算して、画像信号毎に動きベクトルのヒストグラムを作成する。ステップS14にて顔検出に失敗した場合は、ステップS15を経て、このステップS19の処理を行う。そしてステップS20に進む。 On the other hand, when the flag flg is set to 0, the process proceeds to step S19, where 1 is added to each motion vector calculated for each block without weighting for each block, and the motion vector for each image signal is added. Create a histogram for. If face detection fails in step S14, the process of step S19 is performed through step S15. Then, the process proceeds to step S20.
ステップS20で、ステップS17、或いはステップS19で作成したヒストグラムにおいて最頻出となった動きベクトルを抽出し、その画像信号の動きベクトルとする。 In step S20, the motion vector that appears most frequently in the histogram created in step S17 or step S19 is extracted and used as the motion vector of the image signal.
そしてこの結果を基に、ステップS21で、座標変換手段116が座標変換を行い、画像記憶手段117に記憶する。ステップS20で求めた画像全体の動きベクトルを基に座標変換を行うことで、連続撮影された画像信号間の主たる位置ずれが相殺される。画像合成手段118は、画像記憶手段117から座標変換された一連の画像信号を読み出し、全ての画像信号とのみ重畳する領域のみを合成した画像信号を生成する。本実施の形態では、画像合成手段118は一部の画像信号のみが重畳する領域は合成せずにカットするが、一部の画像信号のみが重畳する領域も合成し、不足する輝度をデジタルゲインにて補償するようにしても構わない。画像合成手段118は合成した画像信号を拡散補完処理で元のフレームの大きさとしてから、メモリ112に記憶させる。そして信号処理手段111が、このメモリ112に記憶された合成後の画像信号を表示用の画像信号、或いは記憶用の画像信号に変換する。この変換された画像信号を受けて、表示手段119が合成後の画像信号を表示し、記録手段120が合成後の画像信号を記録する。
Based on this result, the coordinate conversion means 116 performs coordinate conversion and stores it in the image storage means 117 in step S21. By performing coordinate conversion based on the motion vector of the entire image obtained in step S20, the main positional deviation between consecutively captured image signals is offset. The
このように本実施の形態においては、人物の顔が存在する領域の重み付けを大きくして動きベクトルを求める。そのため、手足の動きなどの影響をあまり受けることなく、人物を優先させて複数の画像信号間のずれである動きベクトルを高い精度で求めることができる。 As described above, in this embodiment, the motion vector is obtained by increasing the weighting of the region where the human face exists. Therefore, it is possible to obtain a motion vector, which is a shift between a plurality of image signals, with high accuracy by giving priority to a person without being affected by the movement of limbs.
(第2の実施の形態)
上述した第1の実施の形態では、先に撮影画像を分割した全てのブロックについて動きベクトルを計算し、それから顔を検出して、顔が検出されたブロックに重み付けを行った上で、画像信号全体の動きベクトルを算出した。本実施の形態では、先に顔を検出して、顔が検出されたブロックのみを用いて画像信号全体の動きベクトルを算出する。
(Second Embodiment)
In the first embodiment described above, the motion vectors are calculated for all the blocks obtained by previously dividing the captured image, then the face is detected, and the block from which the face is detected is weighted, and then the image signal The overall motion vector was calculated. In the present embodiment, the face is detected first, and the motion vector of the entire image signal is calculated using only the block in which the face is detected.
本実施の形態における撮像装置であるカメラのブロック図は、第1の実施の形態のブロック図と同様である。 A block diagram of a camera which is an imaging apparatus in the present embodiment is the same as the block diagram of the first embodiment.
本実施の形態の動きベクトルの演算処理について、図5に示すフローチャートを用いて、第1の実施の形態と異なる処理を中心に詳細に説明する。図5に示すフローチャートは、第1の実施の形態のフローチャートと共通する処理については、図4と同じステップ番号を付してある。図5に示すフローチャートは、図4に示すフローチャートのステップS10までは同じ処理を行う。 The motion vector calculation processing of the present embodiment will be described in detail with reference to the flowchart shown in FIG. 5, focusing on processing different from that of the first embodiment. In the flowchart shown in FIG. 5, the same step numbers as those in FIG. 4 are attached to the processes common to the flowchart of the first embodiment. The flowchart shown in FIG. 5 performs the same processing up to step S10 of the flowchart shown in FIG.
ステップS10で、ステップS5で得た測光情報をもとに連続撮影を行うと、ステップS12に進む。第1の実施の形態と異なり、連続撮影をした後に、全てのブロックに対してそれぞれ2次元の相関演算を行うことはしない。 If continuous shooting is performed in step S10 based on the photometric information obtained in step S5, the process proceeds to step S12. Unlike the first embodiment, two-dimensional correlation calculation is not performed on all the blocks after continuous shooting.
ステップS12で、制御手段113は操作手段121によって設定された画像合成モードが、主要被写体である人物を優先して合成を行う人物優先モードであるかを判定する。人物優先モードが設定されていればステップS13に進み、そうでなければステップS18に進む。
In step S <b> 12, the
ステップS13で、制御手段113は顔検出手段114に顔を判定するための基準レベルとして第2の基準レベルを設定させる。
In step S13, the
そして、ステップS14で、顔検出手段114はステップS10で連続撮影された最初の画像信号に対して顔検出を行う。ただし一つ一つの画像の輝度が低いため、デジタルゲイン処理を行うなどして輝度を高めた顔検出用の画像信号を生成し、この顔検出用の画像信号に対して顔検出を行う。また、最初の画像信号から顔検出ができなければ、2枚目、3枚目、と別の画像信号に対し顔検出を行う。もし全ての画像信号に対して顔検出が失敗したのであれば、ステップS5での顔検出結果を代用してもよい。
In step S14, the
本実施の形態でも、予め登録された個人別に顔検出用の異なるテンプレート情報を備えており、画像信号から顔検出だけでなく個人認識まで行うことができるものとする。 Also in this embodiment, different template information for face detection is provided for each individual registered in advance, and not only face detection but also individual recognition can be performed from an image signal.
図3の画像信号に対して顔検出を行うものとし、第1の実施の形態と同様の顔検出結果、及び個人認識結果が得られるとすると、AさんとBさんの顔検出結果に関してそれぞれ次の情報がメモリ112に記憶される。
Aさん {(xA1、yA1)、(xA2、yA2)、RA、1}
Bさん {(xB1、yB1)、(xB2、yB2)、RB、−}
次に、ステップS31で、ずれ検出手段114は連続撮影されたそれぞれの画像信号を複数のブロックに分割する。これら画像信号のメモリ112に記憶された座標情報の範囲に含まれるブロックのみを対象として、同一のブロックに対してそれぞれ画像信号間の2次元の相関演算を行う。これにより顔が検出されたブロック毎のずれ量、すなわち動きベクトルが求まり、バッファメモリに格納する。
Assume that face detection is performed on the image signal of FIG. 3 and the same face detection result and personal recognition result as in the first embodiment are obtained. Is stored in the
Mr. A {(x A1 , y A1 ), (x A2 , y A2 ), R A , 1}
Mr. B {(x B1 , y B1 ), (x B2 , y B2 ), R B , −}
Next, in step S31, the
そしてステップS32で、顔が検出されたブロックに対して、顔検出結果の信頼性R(0≦R≦1)と、登録された顔に関する優先順位を加味して重み付けWを計算する。そして、この重み付けWを基に、画像信号毎に顔が検出されたブロックの動きベクトルのヒストグラムを作成する。そしてステップS20に進み、ヒストグラムにおいて最頻出となった動きベクトルを抽出し、その画像信号の動きベクトルとする。 In step S32, a weight W is calculated for the block in which the face is detected, taking into account the reliability R (0 ≦ R ≦ 1) of the face detection result and the priority order for the registered face. Based on this weighting W, a motion vector histogram of a block in which a face is detected is created for each image signal. In step S20, the motion vector that appears most frequently in the histogram is extracted and used as the motion vector of the image signal.
ステップS12に戻り、通常の合成モードに設定されていた場合は、ステップS18に進み、ステップS7、もしくはステップS8において記憶したフラグflgの値を検出する。フラグflgが1に設定されている場合は、カメラが流し撮りモードに設定されているか、撮影時にカメラが一定方向に動いていたことを示す。そのため、被写体を中心に画像合成を行う方が好ましい結果が得られると考えられる。そこでフラグflgが1に設定されている場合は、ステップS13に進み、顔検出結果を利用して画像合成を行う処理に進む。 Returning to step S12, if the normal composition mode is set, the process proceeds to step S18, and the value of the flag flg stored in step S7 or step S8 is detected. When the flag flg is set to 1, it indicates that the camera is set to the panning mode or the camera has moved in a certain direction at the time of shooting. For this reason, it is considered that a preferable result can be obtained when image synthesis is performed with the subject as the center. Accordingly, if the flag flg is set to 1, the process proceeds to step S13, and the process proceeds to a process of performing image synthesis using the face detection result.
一方、フラグflgが0に設定されている場合は、ステップS33に進む。ステップS33で、ずれ検出手段115は連続撮影されたそれぞれの画像信号を複数のブロックに分割する。これら画像信号の全てのブロックを対象として、同一のブロックに対してそれぞれ画像信号間の2次元の相関演算を行う。これによりブロック毎のずれ量、すなわち動きベクトルが求まり、バッファメモリに格納する。
On the other hand, if the flag flg is set to 0, the process proceeds to step S33. In step S <b> 33, the
そしてステップS34で、ブロック毎で算出された動きベクトル1つにつき1を加算して、画像信号毎に動きベクトルのヒストグラムを作成する。そしてステップS20に進み、ヒストグラムにおいて最頻出となった動きベクトルを抽出し、その画像信号の動きベクトルとする。 In step S34, 1 is added to each motion vector calculated for each block, and a motion vector histogram is created for each image signal. In step S20, the motion vector that appears most frequently in the histogram is extracted and used as the motion vector of the image signal.
ステップS21で、第1の実施の形態と同様に、ステップS20で求めた画像全体の動きベクトルを基に座標変換を行うことで、連続撮影された画像信号間の主たるずれを相殺し、これらの画像信号を合成する。 In step S21, as in the first embodiment, coordinate conversion is performed based on the motion vector of the entire image obtained in step S20, thereby canceling main deviations between continuously captured image signals. Synthesize the image signal.
第2の実施の形態においては、人物優先モードの場合には、第1の実施の形態と異なり、顔が検出された領域に対してのみから動きベクトルを算出するため、動きベクトルの算出に要する時間が短縮される。 In the second embodiment, in the person priority mode, unlike the first embodiment, the motion vector is calculated only from the area where the face is detected. Time is shortened.
また、第1、第2の実施の形態においては、画像信号を複数のブロックに分割し、メモリ112に記憶された座標情報の範囲に含まれるブロックに対して相関演算を行っていた。本発明は、この方法に限定されるものではなく、例えば画像信号を複数のブロックに分割せずに、メモリ112に記憶された座標情報の範囲そのものに応じた領域に対して相関演算を行ってもよい。また、顔の形状に沿った領域を抽出して、その領域に対して相関演算を行ってもよい。
In the first and second embodiments, the image signal is divided into a plurality of blocks, and the correlation calculation is performed on the blocks included in the range of the coordinate information stored in the
(その他の実施の形態)
第1の実施の形態、第2の実施の形態においては、静止画を前提とした構成について説明したが、本発明はこれに限ったものではなく、動画についても適用する事ができる。動画の手ぶれ補正については、例えば特開平11−187303号公報に、特定の画像を基準とし、これと連続した他の画像との位置ずれを検出してこれを補正した画像を再生する技術が開示されている。この技術に本発明を適用する事により、動きベクトル算出の高精度化、処理時間の短縮が可能になるため、動画の再生にも効果的である。また、動画の手ぶれ補正に関しては、第1、第2の実施の形態で説明したように主要被写体(人物の顔)のある領域から算出される動きベクトルを優先するのではなく、主要被写体の無い領域(背景)を優先した方が望ましい。
(Other embodiments)
In the first embodiment and the second embodiment, the configuration based on still images has been described. However, the present invention is not limited to this, and can be applied to moving images. As for moving image blur correction, for example, Japanese Patent Application Laid-Open No. 11-187303 discloses a technique for detecting a positional deviation between a specific image and a continuous image and reproducing the corrected image. Has been. By applying the present invention to this technique, it becomes possible to increase the accuracy of motion vector calculation and shorten the processing time, and therefore it is effective for reproducing moving images. In addition, as described in the first and second embodiments, the motion vector calculated from a certain area of the main subject (person's face) is not given priority, and there is no main subject. It is desirable to give priority to the area (background).
つまり、図4のステップS16での処理を、顔が検出された領域の重み付けを他の領域よりも小さくする処理に置き換えればよい。 That is, the process in step S16 in FIG. 4 may be replaced with a process in which the weight of the area where the face is detected is made smaller than the other areas.
もしくは、図5のステップS31、S32での処理を、顔が検出されていない領域のみの動きベクトルを算出し、ヒストグラムを作成する処理に置き換えればよい。 Alternatively, the processing in steps S31 and S32 in FIG. 5 may be replaced with processing for calculating a motion vector only for an area where no face is detected and creating a histogram.
また、上述の実施の形態は、カメラの内部で動きベクトルの算出を行うものであったが、本発明はこれに限定されるものではない。カメラあるいはネットワーク上から有線通信或いは無線通信により複数枚画像を受け取ったPC等の画像処理装置にも本発明を適用し、動きベクトル算出処理を実施することができる。 In the above-described embodiment, the motion vector is calculated inside the camera, but the present invention is not limited to this. The present invention can also be applied to an image processing apparatus such as a PC that has received a plurality of images from a camera or a network via wired communication or wireless communication, and motion vector calculation processing can be performed.
本発明の目的は、以下の様にして達成することも可能である。まず、前述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 The object of the present invention can also be achieved as follows. First, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、以下のようにして達成することも可能である。即ち、読み出したプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合である。ここでプログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、ROM、RAM、磁気テープ、不揮発性のメモリカード、CD−ROM、CD−R、DVD、光ディスク、光磁気ディスク、MOなどが考えられる。また、LAN(ローカル・エリア・ネットワーク)やWAN(ワイド・エリア・ネットワーク)などのコンピュータネットワークを、プログラムコードを供給するために用いることができる。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the following can be achieved. That is, based on the instruction of the read program code, an operating system (OS) or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Is the case. Examples of the storage medium for storing the program code include a flexible disk, hard disk, ROM, RAM, magnetic tape, nonvolatile memory card, CD-ROM, CD-R, DVD, optical disk, magneto-optical disk, MO, and the like. Can be considered. Also, a computer network such as a LAN (Local Area Network) or a WAN (Wide Area Network) can be used to supply the program code.
100 撮像装置
101 撮影レンズ
102 絞り
103 シャッタ
104 撮像素子
105 撮像素子駆動手段
106 AF駆動モータ
107 シャッタ駆動手段
108 絞り駆動手段
109 焦点制御回路
110 A/D変換手段
111 信号処理回路
112 メモリ
113 制御手段
114 顔検出手段
115 ずれ検出手段
116 座標変換手段
117 画像記憶手段
118 画像合成手段
119 表示手段
120 記録手段
121 操作手段
DESCRIPTION OF
Claims (21)
画像信号から、基準情報との比較結果に応じて、特定の領域を検出する特定領域検出手段とを有し、
前記ずれ検出手段は前記特定領域検出手段による特定の領域の検出結果に応じて、前記画像信号の領域別に、位置ずれを示す情報に対して異なる重み付けを設定して出力することを特徴とする画像処理装置。 A deviation detecting means for detecting a positional deviation between a plurality of image signals;
From the image signal, according to the comparison result with the reference information, having a specific area detection means for detecting a specific area,
The deviation detecting means sets and outputs different weights for information indicating positional deviation for each area of the image signal in accordance with the detection result of the specific area by the specific area detecting means. Processing equipment.
画像信号から人物の顔の形状を示す情報との比較結果に応じて人物の顔が存在する領域を検出する顔領域検出手段をと有し、
前記ずれ検出手段は、画像信号の前記人物の顔が存在する領域の位置ずれを示す情報と、画像信号の人物の顔が存在する領域とは異なる領域の位置ずれを示す情報のいずれかを出力することを特徴とする画像処理装置。 A deviation detecting means for detecting a positional deviation between a plurality of image signals;
A face area detecting means for detecting an area in which a person's face exists in accordance with a comparison result with information indicating the shape of the person's face from an image signal;
The deviation detecting means outputs either information indicating a positional deviation of an area where the human face of the image signal is present or information indicating a positional deviation of an area different from the area where the human face of the image signal is present. An image processing apparatus.
画像信号から、基準情報との比較結果に応じて、特定の領域を検出する特定領域検出工程とを有し、
前記ずれ検出工程では前記特定領域検出工程での前記特定の領域の検出結果に応じて、前記画像信号の領域別に、位置ずれを示す情報に対して異なる重み付けを設定して出力することを特徴とする画像処理方法。 A displacement detection step for detecting a displacement between a plurality of image signals;
From the image signal, according to the comparison result with the reference information, having a specific area detection step of detecting a specific area,
According to the detection result of the specific area in the specific area detection step, the deviation detection step sets and outputs different weights for information indicating positional deviation for each area of the image signal. Image processing method.
画像信号から人物の顔の形状を示す情報との比較結果に応じて人物の顔が存在する領域を検出する顔領域検出工程をと有し、
前記ずれ検出工程では、画像信号の前記人物の顔が存在する領域の位置ずれを示す情報と、画像信号の人物の顔が存在する領域とは異なる領域の位置ずれを示す情報のいずれかを出力することを特徴とする画像処理方法。 A displacement detection step for detecting a displacement between a plurality of image signals;
A face region detection step of detecting a region where the human face exists according to a comparison result with information indicating the shape of the human face from the image signal;
In the deviation detection step, either information indicating a positional deviation of an area where the human face of the image signal exists or information indicating an positional deviation of an area different from the area where the human face of the image signal exists is output. An image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005265518A JP2007081682A (en) | 2005-09-13 | 2005-09-13 | Image processor, image processing method, and executable program by information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005265518A JP2007081682A (en) | 2005-09-13 | 2005-09-13 | Image processor, image processing method, and executable program by information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007081682A true JP2007081682A (en) | 2007-03-29 |
Family
ID=37941537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005265518A Withdrawn JP2007081682A (en) | 2005-09-13 | 2005-09-13 | Image processor, image processing method, and executable program by information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007081682A (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009060355A (en) * | 2007-08-31 | 2009-03-19 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
JP2009100450A (en) * | 2007-09-28 | 2009-05-07 | Casio Comput Co Ltd | Image capture device and program |
JP2009187397A (en) * | 2008-02-07 | 2009-08-20 | Olympus Corp | Image processor and image processing program |
JP2009188837A (en) * | 2008-02-07 | 2009-08-20 | Olympus Corp | Image pickup apparatus and image pickup method |
JP2009207034A (en) * | 2008-02-29 | 2009-09-10 | Casio Comput Co Ltd | Imaging apparatus, and image processing program |
JP2010015023A (en) * | 2008-07-04 | 2010-01-21 | Canon Inc | Image pickup apparatus, automatic focusing detection method and program |
JP2010136071A (en) * | 2008-12-04 | 2010-06-17 | Olympus Corp | Image processor and electronic apparatus |
JP2010246162A (en) * | 2010-07-16 | 2010-10-28 | Casio Computer Co Ltd | Imaging apparatus, and image processing program |
JP2010258839A (en) * | 2009-04-27 | 2010-11-11 | Fujifilm Corp | Display control apparatus and operation control method thereof |
KR100994063B1 (en) | 2008-07-09 | 2010-11-11 | 가시오게산키 가부시키가이샤 | Image processing device, image processing method and a computer readable storage medium having stored therein a program |
JP2012085347A (en) * | 2008-05-16 | 2012-04-26 | Casio Comput Co Ltd | Photographic device and program |
US8227738B2 (en) | 2007-09-28 | 2012-07-24 | Casio Computer Co., Ltd. | Image capture device for creating image data from a plurality of image capture data, and recording medium therefor |
WO2012144195A1 (en) * | 2011-04-18 | 2012-10-26 | パナソニック株式会社 | Image capture device, image capture device focus control method, and integrated circuit |
JP2012257157A (en) * | 2011-06-10 | 2012-12-27 | Canon Inc | Image synthesizer |
JP2013115651A (en) * | 2011-11-29 | 2013-06-10 | Canon Inc | Image processing device, image processing method, and computer program |
US8711230B2 (en) | 2008-05-16 | 2014-04-29 | Casio Computer Co., Ltd. | Image capture apparatus and program |
KR101436321B1 (en) | 2008-02-20 | 2014-09-01 | 삼성전자주식회사 | Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method |
WO2014185691A1 (en) * | 2013-05-14 | 2014-11-20 | 삼성전자 주식회사 | Apparatus and method for extracting high watermark image from continuously photographed images |
JP2016066928A (en) * | 2014-09-25 | 2016-04-28 | キヤノン株式会社 | Blur correction device, blur correction method, program, and imaging apparatus |
WO2016075978A1 (en) * | 2014-11-12 | 2016-05-19 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2005
- 2005-09-13 JP JP2005265518A patent/JP2007081682A/en not_active Withdrawn
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009060355A (en) * | 2007-08-31 | 2009-03-19 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
US8227738B2 (en) | 2007-09-28 | 2012-07-24 | Casio Computer Co., Ltd. | Image capture device for creating image data from a plurality of image capture data, and recording medium therefor |
JP2009100450A (en) * | 2007-09-28 | 2009-05-07 | Casio Comput Co Ltd | Image capture device and program |
JP2009187397A (en) * | 2008-02-07 | 2009-08-20 | Olympus Corp | Image processor and image processing program |
JP2009188837A (en) * | 2008-02-07 | 2009-08-20 | Olympus Corp | Image pickup apparatus and image pickup method |
KR101436321B1 (en) | 2008-02-20 | 2014-09-01 | 삼성전자주식회사 | Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method |
JP2009207034A (en) * | 2008-02-29 | 2009-09-10 | Casio Comput Co Ltd | Imaging apparatus, and image processing program |
JP4561845B2 (en) * | 2008-02-29 | 2010-10-13 | カシオ計算機株式会社 | Imaging apparatus and image processing program |
US8248480B2 (en) | 2008-02-29 | 2012-08-21 | Casio Computer Co., Ltd. | Imaging apparatus provided with panning mode for taking panned image |
TWI387330B (en) * | 2008-02-29 | 2013-02-21 | Casio Computer Co Ltd | Imaging apparatus provided with panning mode for taking panned image |
JP2012085347A (en) * | 2008-05-16 | 2012-04-26 | Casio Comput Co Ltd | Photographic device and program |
US8711230B2 (en) | 2008-05-16 | 2014-04-29 | Casio Computer Co., Ltd. | Image capture apparatus and program |
JP2010015023A (en) * | 2008-07-04 | 2010-01-21 | Canon Inc | Image pickup apparatus, automatic focusing detection method and program |
KR100994063B1 (en) | 2008-07-09 | 2010-11-11 | 가시오게산키 가부시키가이샤 | Image processing device, image processing method and a computer readable storage medium having stored therein a program |
JP2010136071A (en) * | 2008-12-04 | 2010-06-17 | Olympus Corp | Image processor and electronic apparatus |
JP2010258839A (en) * | 2009-04-27 | 2010-11-11 | Fujifilm Corp | Display control apparatus and operation control method thereof |
JP2010246162A (en) * | 2010-07-16 | 2010-10-28 | Casio Computer Co Ltd | Imaging apparatus, and image processing program |
WO2012144195A1 (en) * | 2011-04-18 | 2012-10-26 | パナソニック株式会社 | Image capture device, image capture device focus control method, and integrated circuit |
JP5829679B2 (en) * | 2011-04-18 | 2015-12-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | IMAGING DEVICE, FOCUSING CONTROL METHOD OF IMAGING DEVICE, AND INTEGRATED CIRCUIT |
US8842213B2 (en) | 2011-04-18 | 2014-09-23 | Panasonic Corporation | Image capture device, image capture device focus control method, and integrated circuit |
JP2012257157A (en) * | 2011-06-10 | 2012-12-27 | Canon Inc | Image synthesizer |
JP2013115651A (en) * | 2011-11-29 | 2013-06-10 | Canon Inc | Image processing device, image processing method, and computer program |
US9940718B2 (en) | 2013-05-14 | 2018-04-10 | Samsung Electronics Co., Ltd. | Apparatus and method for extracting peak image from continuously photographed images |
CN105229700A (en) * | 2013-05-14 | 2016-01-06 | 三星电子株式会社 | For extracting equipment and the method for peak image from multiple continuously shot images |
WO2014185691A1 (en) * | 2013-05-14 | 2014-11-20 | 삼성전자 주식회사 | Apparatus and method for extracting high watermark image from continuously photographed images |
CN105229700B (en) * | 2013-05-14 | 2018-10-26 | 三星电子株式会社 | Device and method for extracting peak figure picture from multiple continuously shot images |
JP2016066928A (en) * | 2014-09-25 | 2016-04-28 | キヤノン株式会社 | Blur correction device, blur correction method, program, and imaging apparatus |
WO2016075978A1 (en) * | 2014-11-12 | 2016-05-19 | ソニー株式会社 | Information processing device, information processing method, and program |
KR20170085494A (en) * | 2014-11-12 | 2017-07-24 | 소니 주식회사 | Information processing device, information processing method, and program |
US11189024B2 (en) | 2014-11-12 | 2021-11-30 | Sony Corporation | Information processing apparatus and information processing method |
KR102503872B1 (en) * | 2014-11-12 | 2023-02-27 | 소니그룹주식회사 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007081682A (en) | Image processor, image processing method, and executable program by information processor | |
US8682040B2 (en) | Image processing apparatus, image processing method, and image capturing apparatus | |
US8538252B2 (en) | Camera | |
US7672580B2 (en) | Imaging apparatus and method for controlling display device | |
JP5409189B2 (en) | Imaging apparatus and control method thereof | |
US8184965B2 (en) | Imaging device | |
JP6659130B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US9317748B2 (en) | Tracking apparatus | |
JP2006211139A (en) | Imaging apparatus | |
JP2009296030A (en) | Imaging device | |
JP2018050146A (en) | Search device, imaging device thereof, and search method | |
KR20100030596A (en) | Image capturing apparatus, method of determining presence or absence of image area, and recording medium | |
JP2007208425A (en) | Display method for displaying denoting identification region together with image, computer-executable program, and imaging apparatus | |
JP2021124669A (en) | Electronic apparatus | |
US20070002463A1 (en) | Image capturing apparatus | |
JP6812387B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
JP7214681B2 (en) | SUBJECT TRACKING DEVICE, SUBJECT TRACKING METHOD, COMPUTER PROGRAM AND STORAGE MEDIUM | |
JP4807582B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2021132272A (en) | Electronic apparatus | |
US20210303846A1 (en) | Imaging device and tracking method | |
JP7342883B2 (en) | Imaging control device, imaging device, imaging control method | |
CN113286074A (en) | Electronic device, control method of electronic device, and computer-readable medium | |
US20230370714A1 (en) | Image processing apparatus, image processing method, and image capture apparatus | |
US20240236472A1 (en) | Image capturing apparatus, control method thereof, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081202 |