JP2016048863A - Subject detection device, control method of the same, imaging device, display device, and program - Google Patents
Subject detection device, control method of the same, imaging device, display device, and program Download PDFInfo
- Publication number
- JP2016048863A JP2016048863A JP2014173368A JP2014173368A JP2016048863A JP 2016048863 A JP2016048863 A JP 2016048863A JP 2014173368 A JP2014173368 A JP 2014173368A JP 2014173368 A JP2014173368 A JP 2014173368A JP 2016048863 A JP2016048863 A JP 2016048863A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- main subject
- main
- motion
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体検出装置、その制御方法、撮像装置、表示装置及びプログラムに関する。 The present invention relates to a subject detection device, a control method thereof, an imaging device, a display device, and a program.
画像から特定の被写体パターンを自動的に検出する画像処理方法は非常に有用であり、例えば人間の顔領域の特定に利用することができる。このような方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。デジタルカメラやデジタルビデオカメラでは、撮影画像から特定の被写体を検出し、その検出結果を制御対象として焦点や露出を最適化させている。撮像画像中から複数の被写体が検出された場合には、検出された複数の被写体の中から、主の被写体を選定して、当被写体に対して最適なAFやAEなどが実施される。 An image processing method for automatically detecting a specific subject pattern from an image is very useful, and can be used, for example, for specifying a human face area. Such methods can be used in many areas such as teleconferencing, man-machine interfaces, security, monitor systems for tracking human faces, image compression, and the like. In digital cameras and digital video cameras, a specific subject is detected from a captured image, and the focus and exposure are optimized by using the detection result as a control target. When a plurality of subjects are detected from the captured image, a main subject is selected from the detected plurality of subjects, and optimal AF, AE, and the like are performed on the subject.
上述したように、撮像画像中から複数の被写体が検出された場合に、正確なAFやAE
などを行うためには、主の被写体の選定が必要である。特許文献1では、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制した選定方法について記載されている。ここでの、被写体の状態とは、撮像装置から被写体までの距離、撮像範囲における被写体の面積、撮像範囲における被写体の位置、被写体間の距離などを表す種々のパラメータを意味する。また、特許文献2では、検出された複数の被写体領域からいずれかの領域を主の被写体としてユーザからの指示に応じて選択する方法について記載されている。
As described above, when a plurality of subjects are detected from the captured image, accurate AF and AE are performed.
For example, it is necessary to select a main subject. Patent Document 1 describes a selection method that suppresses the change of the main face extremely frequently while respecting changes in the state of the subject existing in the imaging range. Here, the state of the subject means various parameters representing the distance from the imaging device to the subject, the area of the subject in the imaging range, the position of the subject in the imaging range, the distance between subjects, and the like. Patent Document 2 describes a method of selecting one of a plurality of detected subject areas as a main subject according to an instruction from a user.
しかしながら、上記特許文献1に記載の方法では、撮影の構図や状態によって主の被写体が選定されるため、撮影者や被撮影者にとって最適な被写体が主の被写体として選定されないことがある。また、特許文献2では、撮影者が主の被写体を選定するため、最適な被写体を主の被写体として選定できるものの、被撮影者の意思に基づき、主の被写体を選定することはできない。 However, in the method described in Patent Document 1, since the main subject is selected depending on the composition and state of shooting, the optimal subject for the photographer and the subject may not be selected as the main subject. In Patent Document 2, since the photographer selects the main subject, the optimal subject can be selected as the main subject, but the main subject cannot be selected based on the intention of the subject.
本発明は、上述した課題に鑑みてなされたものであり、被撮影者に意思に基づき主の被写体を選定可能な被写体検出装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide a subject detection apparatus capable of selecting a main subject based on an intention of a subject.
上記目的は、
所定時間間隔で供給される画像から所定の被写体を検出し、検出した該所定の被写体の中から主の被写体を選定する被写体検出装置であって、
前記画像から所定の被写体を検出する検出手段と、
前記検出手段で検出された被写体の特定の動作を認識する動作認識手段と、
前記検出手段により検出された被写体の中から主の被写体を選定する主被写体選定手段を備え、
前記主被写体選定手段は、前記動作認識手段において認識される特定の動作と関連付いた主の被写体選定方法を有し、
前記動作認識手段により特定の動作を認識した場合、前記主被写体選定手段は該特定の動作と関連付いた主の被写体選定方法に基づき主の被写体を選定することを特徴とする被写体検出装置によって達成される。
The above purpose is
A subject detection device that detects a predetermined subject from images supplied at predetermined time intervals and selects a main subject from the detected predetermined subject,
Detecting means for detecting a predetermined subject from the image;
Action recognition means for recognizing a specific action of the subject detected by the detection means;
A main subject selecting means for selecting a main subject from the subjects detected by the detecting means;
The main subject selection means has a main subject selection method associated with a specific action recognized by the action recognition means,
Achieved by a subject detection device characterized in that when a specific motion is recognized by the motion recognition means, the main subject selection means selects a main subject based on a main subject selection method associated with the specific motion. Is done.
また、上記目的は、
所定時間間隔で供給される画像から所定の被写体を検出し、検出した該所定の被写体の中から主の被写体を選定する被写体検出装置の制御方法であって、
前記画像から所定の被写体を検出する検出工程と、
前記検出工程で検出された被写体の特定の動作を認識する動作認識工程と、
前記検出工程により検出された被写体の中から主の被写体を選定する主被写体選定工程を備え、
前記主被写体選定工程は、前記動作認識工程において認識される特定の動作と関連付いた主の被写体選定方法を有し、
前記動作認識工程により特定の動作を認識した場合、前記主被写体選定工程は該特定の動作と関連付いた主の被写体選定方法に基づき主の被写体を選定することを特徴とする被写体検出装置の制御方法によっても達成される。
The above purpose is
A method for controlling a subject detection apparatus that detects a predetermined subject from images supplied at predetermined time intervals and selects a main subject from the detected predetermined subject,
A detection step of detecting a predetermined subject from the image;
An action recognition step for recognizing a specific action of the subject detected in the detection step;
A main subject selection step of selecting a main subject from the subjects detected by the detection step;
The main subject selection step includes a main subject selection method associated with a specific motion recognized in the motion recognition step,
Control of a subject detection apparatus, wherein when a specific motion is recognized by the motion recognition step, the main subject selection step selects a main subject based on a main subject selection method associated with the specific motion. It is also achieved by the method.
本発明の被写体検出装置によれば、被撮影者に意思に基づき主の被写体を選定することができる。 According to the subject detection device of the present invention, the main subject can be selected based on the intention of the subject.
以下、この発明の実施の形態について図を参照して説明するが、この発明は以下の実施の形態に限定されない。また、この発明の実施の形態は発明の最も好ましい形態を示すものであり、発明の範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, the embodiment of the present invention shows the most preferable mode of the invention, and does not limit the scope of the invention.
[実施例1]
以下には第1の実施形態に係る撮像装置の構成及び動作について図を参照して説明する。図1は、第1の実施形態に係る撮像装置100の構成を示すブロック図である。本実施例の撮像装置100では、人物の顔を被写体として検出し、検出した被写体の中から主の被写体選定を行う。
[Example 1]
The configuration and operation of the imaging apparatus according to the first embodiment will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the first embodiment. In the imaging apparatus 100 of the present embodiment, a human face is detected as a subject, and a main subject is selected from the detected subjects.
図1に示すように、撮像装置100では、撮像レンズ101によって被写体像を表す光線が集光され、CCDイメージセンサやCMOSイメージセンサなどである撮像素子102に入射する。撮像素子102は、入射した光線の強度に応じた電気信号を画素単位で出力する。この電気信号は、撮像素子102で撮像された被写体像を示すアナログの映像信号である。 As shown in FIG. 1, in the imaging apparatus 100, light rays representing a subject image are collected by an imaging lens 101 and are incident on an imaging element 102 such as a CCD image sensor or a CMOS image sensor. The image sensor 102 outputs an electrical signal corresponding to the intensity of the incident light beam in units of pixels. This electrical signal is an analog video signal indicating a subject image captured by the image sensor 102.
撮像素子102から出力された映像信号は、アナログ信号処理部103において相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104においてデジタルデータの形式に変換され、撮影制御部105及び画像処理部106に入力される。 The video signal output from the image sensor 102 is subjected to analog signal processing such as correlated double sampling (CDS) in the analog signal processing unit 103. The video signal output from the analog signal processing unit 103 is converted into a digital data format by the A / D conversion unit 104 and input to the imaging control unit 105 and the image processing unit 106.
撮影制御部105は、CPUやマイクロコントローラなどであり、撮像装置100の動作を中央制御する。具体的には、撮影制御部105は、ROMに記憶されたプログラムコードをRAMの作業領域に展開して順次実行することで、撮像装置100の各部を制御する。 The imaging control unit 105 is a CPU, a microcontroller, or the like, and centrally controls the operation of the imaging apparatus 100. Specifically, the imaging control unit 105 controls each unit of the imaging apparatus 100 by developing the program code stored in the ROM in the work area of the RAM and sequentially executing the program code.
画像処理部106においては、入力されたデジタル形式の映像信号に対して、ガンマ補正、ホワイトバランス処理などの画像処理が行われる。なお、画像処理部106は、通常の画像処理に加え、後述する主被写体選定部111から供給される画像中の特定の被写体領域に関する情報を用いた画像処理を行う機能も有する。 The image processing unit 106 performs image processing such as gamma correction and white balance processing on the input digital video signal. In addition to the normal image processing, the image processing unit 106 also has a function of performing image processing using information regarding a specific subject area in an image supplied from a main subject selection unit 111 described later.
画像処理部106から出力された映像信号は、表示部107に送られる。表示部107は、例えばLCDや有機ELディスプレイであり、映像信号を表示する。撮像装置100は、撮像素子102で時系列的に逐次撮像した画像を表示部107に逐次表示させることで、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、後述する被写体検出部109や主被写体選定部111による被写体領域の位置などを表示可能とする。 The video signal output from the image processing unit 106 is sent to the display unit 107. The display unit 107 is, for example, an LCD or an organic EL display, and displays a video signal. The imaging apparatus 100 can cause the display unit 107 to function as an electronic viewfinder (EVF) by sequentially displaying images sequentially captured in time series by the imaging element 102 on the display unit 107. In addition, it is possible to display the position of a subject area by a subject detection unit 109 and a main subject selection unit 111 described later.
また、画像処理部106から出力された映像信号は、記録媒体108、例えば着脱可能なメモリーカードに記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インターフェイスにより通信可能に接続された外部装置(いずれも図示しない)であってもよい。 The video signal output from the image processing unit 106 is recorded on a recording medium 108, for example, a removable memory card. Note that the recording destination of the video signal may be the built-in memory of the imaging apparatus 100 or an external apparatus (both not shown) that are communicably connected via a communication interface.
画像処理部106から出力された映像信号は、被写体検出部109にも供給される。被写体検出部109は、画像中の目的とする所定の被写体を検出し、被写体領域を特定するためのものであり、被写体領域として人物の顔領域を特定する。画像中に複数の人物の顔が存在する場合は、その人数分の領域が検出される。被写体検出部109における検出方法としては、公知の顔検出方法を用いる。顔検出の公知技術は、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を利用する方法とニューラルネットに代表される学習アルゴリズムにより顔検出のための識別器を構成する方法などがある。また、顔検出では、認識率向上のためにこれらを組み合わせて顔認識を行うのが一般的である。具体的には特開2002−251380号広報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。 The video signal output from the image processing unit 106 is also supplied to the subject detection unit 109. The subject detection unit 109 detects a predetermined target subject in the image and specifies a subject region, and specifies a human face region as the subject region. When there are a plurality of human faces in the image, an area corresponding to the number of persons is detected. As a detection method in the subject detection unit 109, a known face detection method is used. Known techniques for face detection include a method of using knowledge about the face (skin color information, parts such as eyes, nose, mouth, etc.) and a method of configuring a classifier for face detection by a learning algorithm represented by a neural network. is there. Further, in face detection, face recognition is generally performed by combining them in order to improve the recognition rate. Specifically, there is a method for detecting a face using wavelet transform and an image feature amount described in JP 2002-251380 A.
また、本実施例における被写体検出部109の検出対象は人物の顔に限定されるものではなく、他の被写体領域を検出対象としても適用可能である。例えば、人物の上半身などが検出対象として挙げられる。検出方法として、特開2009−211311号公報により記述されている方法を例として挙げる。本例では、局所的な上半身の輪郭のエッジ強度を局所特徴量として検出する。画像から特徴量を抽出する方法としては、Sobelフィルタ、Prewittフィルタ、Haarフィルタなどの様々な方法がある。抽出された局所特徴量を人物判別器で上半身、非上半身を判別する。 In addition, the detection target of the subject detection unit 109 in the present embodiment is not limited to a human face, and other subject areas can be applied as detection targets. For example, a person's upper body etc. are mentioned as a detection target. As a detection method, a method described in Japanese Patent Application Laid-Open No. 2009-211311 is given as an example. In this example, the edge strength of the local upper body contour is detected as a local feature amount. As a method for extracting a feature amount from an image, there are various methods such as a Sobel filter, a Prewitt filter, and a Haar filter. The extracted local feature is discriminated between the upper body and the non-upper body using a person classifier.
人物判別器における判別は、AdaBoost学習などのような機械学習に基づき実施される。被写体検出部109による結果は後述する動作認識部110および主被写体選定部111に供給される。 The discrimination in the person discriminator is performed based on machine learning such as AdaBoost learning. The result of the subject detection unit 109 is supplied to an operation recognition unit 110 and a main subject selection unit 111 described later.
動作認識部110では、被写体検出部109による検出された被写体の動作を認識する。動作認識部110による認識結果は主被写体選定部111に供給される。本実施例での動作とは、人物を対象とし、「手を左右に振る」など身体の動きを伴う変化を指す。被写体検出部109では、人物の顔を検出するものとし、動作認識部110による処理方法の例に関して説明する。被写体検出部109による検出された被写体の画像に形状モデルを当てはめる。形状モデルとは、予め単純化された3次元パーツモデル(円筒、楕円体、super-quadrics等)により近似された人体各部の形状モデルであり、顔部(頭部)の位置、姿勢を基準として、腕、手、足、動体等の存在範囲を推定する。 The motion recognition unit 110 recognizes the motion of the subject detected by the subject detection unit 109. The recognition result by the motion recognition unit 110 is supplied to the main subject selection unit 111. The movement in the present embodiment refers to a change with physical movement such as “waving the hand left and right” for a person. Assume that the subject detection unit 109 detects a human face, and an example of a processing method performed by the motion recognition unit 110 will be described. A shape model is applied to the image of the subject detected by the subject detection unit 109. A shape model is a shape model of each part of the human body that is approximated by a simplified three-dimensional part model (cylinder, ellipsoid, super-quadrics, etc.), based on the position and orientation of the face (head). Estimate the existence range of arms, hands, feet, moving objects, etc.
対象となる人物を構成するパーツごとの特徴量(局所的かつ幾何学的な特徴、動きベクトル、色成分特徴等)をパーツの代表点付近での平均的特徴量として所定の記憶手段に格納し、パーツ単位での代表点位置の時系列画像データを抽出し、抽出した時系列画像データと動作モデルデータとの照合を行い、時系列画像データに対応する動作モデルデータが存在するか否かを判別する。ここで、動作モデルデータとは、認識したい動作の特徴量を指し、1つ以上のパーツによる時系列的な特徴量である。なお、人物動作の抽出技術の詳細については、文献(星野、「人物動作における個性の抽出と再構成」画像電子学会誌第30巻、pp.631−640, 2001)等に記載の技術を用いればよい。 Feature values (local and geometric features, motion vectors, color component features, etc.) for each part constituting the target person are stored in a predetermined storage means as an average feature value near the representative point of the part. , Extract time-series image data of representative point positions in parts, compare the extracted time-series image data and behavior model data, and check whether or not behavior model data corresponding to the time-series image data exists Determine. Here, the motion model data refers to a feature amount of the motion to be recognized, and is a time-series feature amount by one or more parts. For details of human motion extraction technology, the technology described in the literature (Hoshino, “Extraction and reconstruction of personality in human motion”, Image Electronics Society of Japan, Vol. 30, pp. 631-640, 2001) is used. That's fine.
動作モデルデータとのマッチング処理の基本的な方法としては、入力画像の遷移系列とモデルとの対応付けをDynamic time warpingという手法で行う方法(T.J.Darell and A.P.Pentland, 1993 “Space-Time Gestures,”)、動作の状態遷移を確率モデルで行う隠れマルコフモデルを用いた手法(J.Yamato, J.Ohya, and K.Ishii, 1992 “Recognizing Human Action in Time-Sequential Images Using Hidden Markov Model,” Proc. CVPR, pp. 379-385) 、時空間エッジ画像ベクトル列の連続動的計画法 (Continuous Dynamic Programming) による方法(西村、岡「ジェスチャ動画像の逆時間動作や静止動作をスポッティング認識するためのNon-monotonic連続DP」、信学技報、PRMU96-32、pp. 49-56, 1996)等がある。 As a basic method of matching processing with motion model data, a method called Dynamic time warping (TJDarell and APPentland, 1993 “Space-Time Gestures,”) ), A method using a hidden Markov model that performs state transition of motion with a stochastic model (J. Yamato, J. Ohya, and K. Ishii, 1992 “Recognizing Human Action in Time-Sequential Images Using Hidden Markov Model,” Proc. CVPR, pp. 379-385), Continuous Dynamic Programming Method of Space-Time Edge Image Vector Sequence (Nishimura, Oka “Non for Spotting Recognizing Reverse Time Motion and Still Motion of Gesture Video” -monotonic continuous DP ", IEICE Technical Report, PRMU 96-32, pp. 49-56, 1996).
主被写体選定部111では、被写体検出部109により検出された被写体の中から主の被写体を選定する。主被写体選定部111における主の被写体選定方法は、動作認識部110において、特定の動作が認識されたか否かによって異なる。動作認識部110において、特定の動作が認識されなかった場合、被写体検出部109によって出力される被写体の位置や大きさによって、主の被写体を選定する。被写体の大きさが大きく、位置が画像中心に近い被写体を優先的に主の被写体として選定する。また、時系列的な主の被写体の切り替わりを抑制するために、前フレームで主の被写体として選定された被写体を主の被写体として優先的に選定するようにしてもよい。 The main subject selection unit 111 selects a main subject from the subjects detected by the subject detection unit 109. The main subject selection method in the main subject selection unit 111 differs depending on whether or not a specific motion is recognized in the motion recognition unit 110. When the motion recognition unit 110 does not recognize a specific motion, the main subject is selected according to the position and size of the subject output by the subject detection unit 109. A subject whose size is large and whose position is close to the center of the image is preferentially selected as the main subject. Further, in order to suppress the time-series switching of the main subject, the subject selected as the main subject in the previous frame may be preferentially selected as the main subject.
一方で、動作認識部110において、特定の動作が認識された場合は、特定の動作と予め関連付けられた選定方法により主の被写体を選定する。例えば、動作認識部110において動作モデルデータとして定義された「左手を左右に振る」と「当該動作を認識した被写体を主の被写体とする」という主の被写体選定方法とを関連付けておく。この関連付けに基づき、被写体検出部109に検出された被写体が、動作認識部110において、「左手を左右に振る」という動作モデルデータが認識された場合は、当被写体を主の被写体として選定する。 On the other hand, when the motion recognition unit 110 recognizes a specific motion, the main subject is selected by a selection method associated in advance with the specific motion. For example, the main subject selection method defined as motion model data in the motion recognition unit 110 “was left hand to the left and right” and “uses the subject whose motion has been recognized as the main subject” is associated. Based on this association, when the motion detection unit 110 recognizes the motion model data “shake the left hand to the left and right”, the subject detected by the subject detection unit 109 is selected as the main subject.
撮影制御部105は、撮像素子102で撮像する際の焦点状況や露出状況などの撮像条件を制御する。具体的には、撮影制御部105は、A/D変換部104から出力された映像信号に基づいて、撮像レンズ101の焦点制御機構や露出制御機構(いずれも図示しない)を制御する。例えば、焦点制御機構は撮像レンズ101を光軸方向へ駆動させるアクチュエータなどであり、露出制御機構は絞りやシャッタを駆動させるアクチュエータなどである。 The imaging control unit 105 controls imaging conditions such as a focus situation and an exposure situation when imaging with the imaging device 102. Specifically, the imaging control unit 105 controls a focus control mechanism and an exposure control mechanism (neither shown) of the imaging lens 101 based on the video signal output from the A / D conversion unit 104. For example, the focus control mechanism is an actuator that drives the imaging lens 101 in the optical axis direction, and the exposure control mechanism is an actuator that drives an aperture or a shutter.
撮影制御部105は、この焦点制御機構や露出制御機構の制御に、主被写体選定部111から供給された主の被写体領域の選定結果の情報を用いることができる。具体的には、主の被写体領域のコントラスト値を用いた焦点制御や、被写体領域の輝度値を用いた露出制御を行う。したがって、撮像装置100では、撮像画像における特定の被写体領域を考慮した撮像処理を行うことができる。また、撮影制御部105は、撮像素子102の出力タイミングや出力画素など、撮像素子102の読み出し制御も行う。 The imaging control unit 105 can use information on the main subject region selection result supplied from the main subject selection unit 111 for the control of the focus control mechanism and the exposure control mechanism. Specifically, focus control using the contrast value of the main subject area and exposure control using the brightness value of the subject area are performed. Therefore, the imaging apparatus 100 can perform imaging processing in consideration of a specific subject area in the captured image. The imaging control unit 105 also performs readout control of the image sensor 102 such as output timing and output pixels of the image sensor 102.
第1の実施形態に係る主被写体選定の処理の流れについて図2を参照して説明する。画像処理部106は、撮像素子102を介して得られた撮像画像をA/D変換部104によりデジタル化して得られた画像を入力画像として読み込む(S201)。次に、被写体検出部109は、入力画像中の被写体領域を検出し、検出データを出力する(S202)。 A flow of main subject selection processing according to the first embodiment will be described with reference to FIG. The image processing unit 106 reads, as an input image, an image obtained by digitizing the captured image obtained via the image sensor 102 by the A / D conversion unit 104 (S201). Next, the subject detection unit 109 detects a subject region in the input image and outputs detection data (S202).
次に、動作認識部110は、被写体検出部109により検出された被写体に対して、特定の動作を認識する(S203)。本実施例では、特定の動作として図3に示すような動作を認識する。図3の(A)では、「被写体の左手を頭部で左右に振る」、図3の(B)では、「被写体の両手を動体の前で左右に振る」、図3の(C)では、「被写体の両手を頭部の上で1方向に向ける」動作を示す。動作認識部110では、図3に示すような、時系列的な各人体パーツの位置関係を動作モデルデータとして予め保持しておく。入力画像に対して、複数の人体パーツにより構成される3次元形状モデルをフィッティグし、各パーツの軌跡を動作モデルデータとマッチングし、一致するか否かを判定する。 Next, the motion recognition unit 110 recognizes a specific motion with respect to the subject detected by the subject detection unit 109 (S203). In this embodiment, the operation shown in FIG. 3 is recognized as the specific operation. In (A) of FIG. 3, “the left hand of the subject is swung left and right with the head”, in (B) of FIG. 3, “the hands of the subject are swung left and right in front of the moving object”, and in (C) of FIG. , “Operation to point both hands of the subject in one direction on the head” is shown. In the motion recognition unit 110, a time-series positional relationship between human body parts as shown in FIG. 3 is stored in advance as motion model data. A three-dimensional shape model composed of a plurality of human body parts is fitted to the input image, and the trajectory of each part is matched with the motion model data to determine whether or not they match.
次に、動作認識部110によって、特定の動作が認識されたか否かを判定する(S204)。動作認識部110の認識結果によって、主被写体選定部111における選定方法が異なる。図4に、主の被写体選定結果の例を示す。図4中の実線の矩形枠で囲まれた被写体は主の被写体を示し、点線の矩形枠で囲まれた被写体は非主の被写体を示す。 Next, it is determined whether or not a specific action is recognized by the action recognition unit 110 (S204). Depending on the recognition result of the motion recognition unit 110, the selection method in the main subject selection unit 111 differs. FIG. 4 shows an example of the main subject selection result. A subject surrounded by a solid rectangular frame in FIG. 4 indicates a main subject, and a subject surrounded by a dotted rectangular frame indicates a non-main subject.
動作認識部110によって、特定の動作が認識されなかった場合(S204でNOと判定)、被写体検出部109より得られる被写体の位置、大きさに基づき主の被写体が選定される(S205)。被写体の位置が画面中心に近く、大きさが大きい被写体を優先して主の被写体として選定するために図4(A)に示すような主の被写体選定結果となる。 When the motion recognition unit 110 does not recognize a specific motion (determined as NO in S204), the main subject is selected based on the position and size of the subject obtained from the subject detection unit 109 (S205). In order to preferentially select a subject whose position is close to the center of the screen and is large in size as a main subject, a main subject selection result as shown in FIG. 4A is obtained.
一方で、動作認識部110によって、特定の動作が認識された場合(S204でYESと判定)、認識された動作に関連付いた選定方法によって主の被写体が選定される(S206)。特定の動作と関連付いた主の被写体選定方法としては、特定の動作を認識した被写体を主の被写体として優先的に選定する方法、特定の動作を認識した被写体を非主の被写体として優先的に選定する方法、特定の動作が方向を示す動作であり該動作を認識した被写体の示す被写体を主の被写体として優先的に選定する方法などが挙げられる。本実施例では、図3の(A)で示した動作と、動作認識した被写体を主の被写体として優先的に選定する方法とが関連付いているものとする。 On the other hand, when a specific motion is recognized by the motion recognition unit 110 (YES in S204), the main subject is selected by a selection method associated with the recognized motion (S206). As a main subject selection method related to a specific motion, a method that preferentially selects a subject that recognizes a specific motion as a main subject, and a subject that recognizes a specific motion preferentially as a non-main subject. And a method for preferentially selecting the subject indicated by the subject that has recognized the motion as the main subject. In this embodiment, it is assumed that the operation shown in FIG. 3A is associated with a method for preferentially selecting a subject whose motion has been recognized as a main subject.
したがって、図4の(B)に示すように、動作認識された被写体を主の被写体として選定した結果となる。また、図3の(B)で示した動作と、動作認識された被写体を非主の被写体として優先的に選定する方法とが関連付いているものとする。したがって、図4の(C)に示すように、動作認識した被写体を非主の被写体として選定し、次いで被写体の位置が画像中心に近く、大きさの大きい被写体が主の被写体として選定された結果となる。また、図3(C)で示した方向を示す動作と、動作認識した被写体の示す被写体を主の被写体として優先的に選定する方法とが関連付いているものとする。したがって、図4の(D)に示すように、動作認識された被写体が示す位置に存在する被写体が主の被写体として選定された結果となる。 Therefore, as shown in FIG. 4B, the result is that the subject whose motion has been recognized is selected as the main subject. Further, it is assumed that the operation shown in FIG. 3B is associated with a method for preferentially selecting a motion-recognized subject as a non-main subject. Therefore, as shown in FIG. 4C, the subject whose motion has been recognized is selected as a non-main subject, and then the subject whose position is close to the center of the image and whose size is large is selected as the main subject. It becomes. Further, it is assumed that the operation indicating the direction shown in FIG. 3C is associated with a method of preferentially selecting the subject indicated by the subject whose motion has been recognized as the main subject. Therefore, as shown in FIG. 4D, the result is that the subject existing at the position indicated by the motion-recognized subject is selected as the main subject.
ここで、動作認識部110の処理は被写体検出部109で検出された各被写体に対して必要であり、被写体検出部109で検出された被写体の数が多い場合、処理負荷が大きくなる。したがって、処理負荷を軽減させる対策が必要となる。そこで、主被写体選定部110の選定結果に応じて、各被写体において認識する動作モデルの種別を絞り込むことで、処理の効率化を行う。主被写体選定部110の選定結果において、現在主の被写体のとして選定されている被写体に関しては、当被写体を主の被写体として選定する方法と関連付いた動作を認識する必要がない。また、現在非主の被写体として選定されている被写体に関しては、当被写体を非主の被写体として選定する方法と関連付いた動作を認識する必要がない。 Here, the process of the motion recognition unit 110 is necessary for each subject detected by the subject detection unit 109, and the processing load increases when the number of subjects detected by the subject detection unit 109 is large. Therefore, it is necessary to take measures to reduce the processing load. Therefore, processing efficiency is improved by narrowing down the types of motion models recognized by each subject according to the selection result of the main subject selection unit 110. In the selection result of the main subject selection unit 110, regarding the subject currently selected as the main subject, there is no need to recognize the operation associated with the method of selecting the subject as the main subject. For a subject that is currently selected as a non-main subject, it is not necessary to recognize an operation associated with a method of selecting the subject as a non-main subject.
つまり、現在の主の被写体選定結果を変化させない選定方法と関連付いた動作の認識は不要であり、不要な動作を認識対象から除外することにより処理の効率化が期待できる。本実施例では、現在主の被写体として選定されている被写体に関しては、特定の動作を認識した被写体を非主の被写体として優先的に選定する方法、特定の動作が方向を示す動作であり該動作を認識した被写体の示す被写体を主の被写体として優先的に選定する方法と関連付いた動作のみを認識対象として、特定の動作を認識した被写体を非主の被写体として優先的に選定する方法と関連付いた動作は認識対象から除外する。 In other words, it is not necessary to recognize an action associated with a selection method that does not change the current main subject selection result, and it is possible to improve the efficiency of the process by excluding the unnecessary action from the recognition target. In this embodiment, with respect to a subject that is currently selected as a main subject, a method of preferentially selecting a subject that has recognized a specific motion as a non-main subject, and a specific motion is a motion indicating a direction. Related to the method of preferentially selecting the subject that recognized a specific motion as the non-main subject, with only the motion associated with the method of preferentially selecting the subject indicated by the subject recognized as the main subject Excluded actions are excluded from recognition.
一方で、現在非の被写体として選定されている被写体に関しては、特定の動作を認識した被写体を主の被写体として優先的に選定する方法、特定の動作が方向を示す動作であり該動作を認識した被写体の示す被写体を主の被写体として優先的に選定する方法と関連付いた動作のみを認識対象として、特定の動作を認識した被写体を非主の被写体として優先的に選定する方法と関連付いた動作は認識対象から除外する。 On the other hand, for a subject that is currently selected as a non-subject subject, a method of preferentially selecting a subject that has recognized a specific motion as a main subject, a specific motion is a motion indicating direction, and the motion has been recognized. An operation associated with a method that preferentially selects a subject that recognizes a specific motion as a non-main subject, with only the motion associated with the method that preferentially selects the subject indicated by the subject as the main subject Are excluded from recognition.
以上のように、第1実施形態によれば、被撮影者が意識的に主の被写体選定方法と関連付いた動作を行うことにより、被撮影者の意思に基づき主の被写体を選定することができる。 As described above, according to the first embodiment, the subject can intentionally select the main subject based on the intention of the subject by performing an operation associated with the main subject selection method. it can.
[第2の実施形態]
第2の実施形態に係る撮像装置の構成及び動作を、第1の実施形態との差異を中心に説明する。なお、第1の実施形態と同一の構成及び動作については、その説明は省略する。
図5は、第2の実施形態に係る撮像装置500の構成を示すブロック図である。第2の実施形態に係る撮像装置500の構成及び動作として、第1の実施形態との差異があるのは、通知部501を有することである。
[Second Embodiment]
The configuration and operation of the imaging apparatus according to the second embodiment will be described focusing on differences from the first embodiment. Note that the description of the same configuration and operation as in the first embodiment is omitted.
FIG. 5 is a block diagram illustrating a configuration of an imaging apparatus 500 according to the second embodiment. The configuration and operation of the imaging apparatus 500 according to the second embodiment are different from those of the first embodiment in that a notification unit 501 is included.
第1の実施形態に係る撮像装置100により、被撮影者が意識的に主の被写体選定方法と関連付いた動作を行うことにより、被撮影者の意思に基づき主の被写体を選定することができ、主の被写体領域を考慮した撮像処理を行うことができる。しかしながら、被撮影者は、撮像装置100において、どの被写体が主の被写体として選定されるかを認識することができない。そこで、第2の実施形態に係る撮像装置500では、現在の主被写体選定部110の選定状態を被撮影者に通知する通知部501を備える。 With the imaging apparatus 100 according to the first embodiment, the subject can consciously perform an operation associated with the main subject selection method, so that the main subject can be selected based on the intention of the subject. Thus, it is possible to perform imaging processing in consideration of the main subject area. However, the subject cannot recognize which subject is selected as the main subject in the imaging apparatus 100. Therefore, the imaging apparatus 500 according to the second embodiment includes a notification unit 501 that notifies the subject of the current selection state of the main subject selection unit 110.
なお、撮像装置500における動作認識部110では、第1の実施形態で説明した認識する動作モデルに加え、特定の動作を主の被写体選定状態の通知を促す動作とし関連付けてあるものとする。 Note that in the motion recognition unit 110 in the imaging apparatus 500, in addition to the motion model to be recognized described in the first embodiment, a specific motion is associated with a motion that prompts notification of the main subject selection state.
第2の実施形態に係る主被写体選定状態通知に関する処理の流れについて図6を参照して説明する。画像処理部106は、撮像素子102を介して得られた撮像画像をA/D変換部104によりデジタル化して得られた画像を入力画像として読み込む(S601)。次に、被写体検出部109は、入力画像中の被写体領域を検出し、検出データを出力する(S602)。次に、動作認識部110は、被写体検出部109により検出された被写体に対して、特定の動作を認識する(S603)。 A flow of processing related to the notification of the main subject selection state according to the second embodiment will be described with reference to FIG. The image processing unit 106 reads, as an input image, an image obtained by digitizing the captured image obtained via the image sensor 102 by the A / D conversion unit 104 (S601). Next, the subject detection unit 109 detects a subject region in the input image and outputs detection data (S602). Next, the motion recognition unit 110 recognizes a specific motion with respect to the subject detected by the subject detection unit 109 (S603).
ここで、動作認識部110において主の被写体選定状態の通知を促す動作を認識したか否かを判定する(S604)。主の被写体選定状態の通知を促す動作が認識されなった場合(S604でNOと判定)、本入力画像に対する主被写体選定状態通知に関する処理は終了する。主の被写体選定状態の通知を促す動作が認識された場合(S604でYESと判定)、当該動作を認識した被写体が主の被写体であるか否かを判定する(S605)。特定の動作を認識した被写体が主の被写体である場合(S605でYESと判定)、通知部501は通知方法1を行う(S606)。特定の動作を認識した被写体が非主の被写体である場合(S605でNOと判定)、通知部501は通知方法2を行う(S607)。 Here, it is determined whether or not the motion recognition unit 110 has recognized a motion that prompts notification of the main subject selection state (S604). When the operation for prompting the notification of the main subject selection state is not recognized (determined as NO in S604), the processing related to the notification of the main subject selection state for the input image ends. If an operation that prompts notification of the main subject selection state is recognized (YES in S604), it is determined whether or not the subject that recognized the operation is the main subject (S605). When the subject that has recognized the specific motion is the main subject (YES in S605), the notification unit 501 performs the notification method 1 (S606). When the subject that has recognized the specific motion is a non-main subject (determined as NO in S605), the notification unit 501 performs the notification method 2 (S607).
通知部501は、例えばLEDとし、LEDの発光方法を動作認識した被写体の主被写体選定状態に応じて変化させる。例えば、通知方法1では赤色を発光し、通知方法2では青色を発光する。 The notification unit 501 is an LED, for example, and changes the LED emission method according to the main subject selection state of the subject whose operation has been recognized. For example, the notification method 1 emits red light, and the notification method 2 emits blue light.
以上のように、第2の実施形態によれば、被撮影者は、撮像装置において、どの被写体が主の被写体として選定されるかを認識することができる。 As described above, according to the second embodiment, the subject can recognize which subject is selected as the main subject in the imaging apparatus.
[他の実施形態]
上述した実施形態では撮像装置に被写体検出装置を適用した場合を例示したが、被写体検出装置を適用する機器は撮像装置に限定しない。例えば、外部機器や記録媒体などから供給される画像(再生データ)を表示する表示装置に被写体検出を行う被写体検出装置を適用してもよい。この表示装置では、再生データを被写体領域検出処理のデータとし、被写体領域検出処理が行われることとなる。この表示装置におけるマイクロコントローラなどの制御部は、被写体検出処理により抽出された被写体の情報(画像中の被写体の位置、大きさなど)に基づいて、画像を表示する際の表示条件を制御する。
[Other Embodiments]
In the above-described embodiment, the case where the subject detection device is applied to the imaging device is illustrated, but the device to which the subject detection device is applied is not limited to the imaging device. For example, a subject detection device that performs subject detection may be applied to a display device that displays an image (reproduction data) supplied from an external device or a recording medium. In this display device, the reproduction data is used as subject region detection processing data, and subject region detection processing is performed. A control unit such as a microcontroller in the display device controls display conditions for displaying an image based on subject information (position, size, etc. of the subject in the image) extracted by subject detection processing.
具体的には、画像中の被写体の位置に枠などの被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合いなどの制御を行う。また、検出された被写体が主の被写体であるか否かによって、重畳表示する枠の表示方法を変えてもよい。また、上述した実施の形態における記述は、一例を示すものであり、これに限定するものではない。上述した実施の形態における構成及び動作に関しては、適宜変更が可能である。 Specifically, information indicating a subject such as a frame is superimposed on the position of the subject in the image, and the brightness and color of the display image are controlled according to the brightness and color information of the subject portion. Further, the display method of the frame to be superimposed may be changed depending on whether or not the detected subject is the main subject. Moreover, the description in embodiment mentioned above shows an example, and is not limited to this. The configuration and operation in the embodiment described above can be changed as appropriate.
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。 The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。 The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。 As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。 In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.
100 撮像装置、101 撮像レンズ、102 撮像素子、
103 アナログ信号処理部、104 A/D変換部、105 撮影制御部、
106 画像処理部、107 表示部、108 記録媒体、109 被写体検出部、
110 動作認識部、111 主被写体選定部、501 通知部
100 imaging device, 101 imaging lens, 102 imaging device,
103 analog signal processing unit, 104 A / D conversion unit, 105 photographing control unit,
106 image processing unit, 107 display unit, 108 recording medium, 109 subject detection unit,
110 motion recognition unit, 111 main subject selection unit, 501 notification unit
Claims (10)
前記画像から所定の被写体を検出する検出手段と、
前記検出手段で検出された被写体の特定の動作を認識する動作認識手段と、
前記検出手段により検出された被写体の中から主の被写体を選定する主被写体選定手段を備え、
前記主被写体選定手段は、前記動作認識手段において認識される特定の動作と関連付いた主の被写体選定方法を有し、
前記動作認識手段により特定の動作を認識した場合、前記主被写体選定手段は該特定の動作と関連付いた主の被写体選定方法に基づき主の被写体を選定することを特徴とする被写体検出装置。 A subject detection device that detects a predetermined subject from images supplied at predetermined time intervals and selects a main subject from the detected predetermined subject,
Detecting means for detecting a predetermined subject from the image;
Action recognition means for recognizing a specific action of the subject detected by the detection means;
A main subject selecting means for selecting a main subject from the subjects detected by the detecting means;
The main subject selection means has a main subject selection method associated with a specific action recognized by the action recognition means,
An object detection apparatus characterized in that, when a specific action is recognized by the action recognition means, the main subject selection means selects a main subject based on a main subject selection method associated with the specific action.
該特定の動作を認識した被写体を主の被写体として優先的に選定する方法、
該特定の動作を認識した被写体を非主の被写体として優先的に選定する方法、
該特定の動作が方向を示す動作であり該動作を認識した被写体の示す被写体を主の被写体として優先的に選定する方法の
少なくともいずれか一つであることを特徴とする請求項1に記載の被写体検出装置。 The main subject selection method associated with a specific operation in the main subject selection means is:
A method of preferentially selecting a subject that recognizes the specific movement as a main subject;
A method of preferentially selecting a subject that recognizes the specific movement as a non-main subject;
2. The method according to claim 1, wherein the specific motion is a motion indicating a direction and is at least one of methods for preferentially selecting a subject indicated by a subject that has recognized the motion as a main subject. Subject detection device.
主の被写体として選定されている被写体に対しては、前記主被写体選定手段において主の被写体として優先的に選定する方法と関連付いた動作を認識動作から除外し、
非主の被写体として選定されている被写体に対しては、前記主被写体選定手段において被写体を非主の被写体として優先的に選定する方法と関連付いた動作を認識動作から除外することを特徴とする請求項3に記載の被写体検出装置。 The motion recognition means includes
For the subject selected as the main subject, the operation related to the method of preferentially selecting as the main subject in the main subject selecting means is excluded from the recognition operation,
For a subject selected as a non-main subject, an operation associated with a method of preferentially selecting the subject as a non-main subject in the main subject selection means is excluded from the recognition operation. The subject detection apparatus according to claim 3.
特定の動作を主の被写体選定状態の通知を促す動作とし、前記動作認識手段により該特定の動作が認識された場合、前記通知手段により主の被写体選定状態を通知することを特徴とする請求項1乃至請求項4の何れか一項に記載の被写体検出装置。 A notification means for notifying the main subject selection state;
The main object selection state is notified by the notification means when the specific action is recognized as an action that prompts notification of a main subject selection state, and the specific action is recognized by the action recognition means. The subject detection apparatus according to any one of claims 1 to 4.
前記動作認識手段により主の被写体選定状態の通知を促す動作を認識した被写体が、主の被写体である場合と非主の被写体である場合とにおいて前記通知手段の発光方法を変化させることを特徴とする請求項5に記載の被写体検出装置。 The notification means is means for notifying a main subject selection state by changing a light emitting method,
The light emitting method of the notifying unit is changed depending on whether the subject that has recognized the action of prompting notification of the main subject selection state by the motion recognizing unit is a main subject or a non-main subject. The subject detection apparatus according to claim 5.
請求項1乃至請求項6の何れか一項に記載の被写体検出装置と、
前記撮像手段が撮像する際の撮像条件を、前記被写体検出装置により選定された主の被写体の情報に応じて制御する制御手段と、
を備えることを特徴とする撮像装置。 An imaging means for supplying a captured image;
A subject detection device according to any one of claims 1 to 6,
Control means for controlling imaging conditions when the imaging means captures images according to information on a main subject selected by the subject detection device;
An imaging apparatus comprising:
請求項1乃至請求項6の何れか一項に記載の被写体検出装置と、
前記表示手段が表示する表示条件を、前記被写体検出装置により選定された主の被写体の情報に応じて制御する制御手段と、
を備えることを特徴とする表示装置。 Display means for displaying the supplied image;
A subject detection device according to any one of claims 1 to 6,
Control means for controlling display conditions displayed by the display means in accordance with information on a main subject selected by the subject detection device;
A display device comprising:
前記画像から所定の被写体を検出する検出工程と、
前記検出工程で検出された被写体の特定の動作を認識する動作認識工程と、
前記検出工程により検出された被写体の中から主の被写体を選定する主被写体選定工程を備え、
前記主被写体選定工程は、前記動作認識工程において認識される特定の動作と関連付いた主の被写体選定方法を有し、
前記動作認識工程により特定の動作を認識した場合、前記主被写体選定工程は該特定の動作と関連付いた主の被写体選定方法に基づき主の被写体を選定することを特徴とする被写体検出装置の制御方法。 A method for controlling a subject detection apparatus that detects a predetermined subject from images supplied at predetermined time intervals and selects a main subject from the detected predetermined subject,
A detection step of detecting a predetermined subject from the image;
An action recognition step for recognizing a specific action of the subject detected in the detection step;
A main subject selection step of selecting a main subject from the subjects detected by the detection step;
The main subject selection step includes a main subject selection method associated with a specific motion recognized in the motion recognition step,
Control of a subject detection apparatus, wherein when a specific motion is recognized by the motion recognition step, the main subject selection step selects a main subject based on a main subject selection method associated with the specific motion. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014173368A JP2016048863A (en) | 2014-08-28 | 2014-08-28 | Subject detection device, control method of the same, imaging device, display device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014173368A JP2016048863A (en) | 2014-08-28 | 2014-08-28 | Subject detection device, control method of the same, imaging device, display device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016048863A true JP2016048863A (en) | 2016-04-07 |
Family
ID=55649551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014173368A Pending JP2016048863A (en) | 2014-08-28 | 2014-08-28 | Subject detection device, control method of the same, imaging device, display device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016048863A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021105850A (en) * | 2019-12-26 | 2021-07-26 | キヤノン株式会社 | Image processing device and method, and imaging device |
JP7551082B2 (en) | 2020-08-05 | 2024-09-17 | 深▲せん▼市浩瀚卓越科技有限公司 | Camera stabilizer |
-
2014
- 2014-08-28 JP JP2014173368A patent/JP2016048863A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021105850A (en) * | 2019-12-26 | 2021-07-26 | キヤノン株式会社 | Image processing device and method, and imaging device |
JP7444604B2 (en) | 2019-12-26 | 2024-03-06 | キヤノン株式会社 | Image processing device and method, and imaging device |
JP7551082B2 (en) | 2020-08-05 | 2024-09-17 | 深▲せん▼市浩瀚卓越科技有限公司 | Camera stabilizer |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
JP6106921B2 (en) | Imaging apparatus, imaging method, and imaging program | |
KR20230013243A (en) | Maintain a fixed size for the target object in the frame | |
JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
US20100123816A1 (en) | Method and apparatus for generating a thumbnail of a moving picture | |
JP5959923B2 (en) | Detection device, control method thereof, control program, imaging device and display device | |
KR101537948B1 (en) | Photographing method and apparatus using pose estimation of face | |
US8786749B2 (en) | Digital photographing apparatus for displaying an icon corresponding to a subject feature and method of controlling the same | |
US8648960B2 (en) | Digital photographing apparatus and control method thereof | |
US9600712B2 (en) | Method and apparatus for processing digital images using face recognition | |
US8988545B2 (en) | Digital photographing apparatus and method of controlling the same | |
JP5279635B2 (en) | Image processing apparatus, image processing method, and program | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
JP5963525B2 (en) | Recognition device, control method thereof, control program, imaging device and display device | |
JP2010141847A (en) | Image processor and method of processing image | |
JP6087615B2 (en) | Image processing apparatus and control method therefor, imaging apparatus, and display apparatus | |
JP2016048863A (en) | Subject detection device, control method of the same, imaging device, display device, and program | |
US12002279B2 (en) | Image processing apparatus and method, and image capturing apparatus | |
JP2016081095A (en) | Subject tracking device, control method thereof, image-capturing device, display device, and program | |
JP5111293B2 (en) | Imaging apparatus and control method thereof | |
JP2008160280A (en) | Imaging apparatus and automatic imaging method | |
JP5323243B2 (en) | Image processing apparatus and control method thereof | |
JP2013157675A (en) | Imaging device, method for controlling the same, program, and storage medium | |
WO2023106103A1 (en) | Image processing device and control method for same | |
US20230345107A1 (en) | Imaging apparatus, information processing apparatus, information processing method, and program |