JP2022160333A - Image processing apparatus and control method for image processing apparatus - Google Patents

Image processing apparatus and control method for image processing apparatus Download PDF

Info

Publication number
JP2022160333A
JP2022160333A JP2021065017A JP2021065017A JP2022160333A JP 2022160333 A JP2022160333 A JP 2022160333A JP 2021065017 A JP2021065017 A JP 2021065017A JP 2021065017 A JP2021065017 A JP 2021065017A JP 2022160333 A JP2022160333 A JP 2022160333A
Authority
JP
Japan
Prior art keywords
tracking
unit
subject
evaluation value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021065017A
Other languages
Japanese (ja)
Inventor
徹 相田
Toru Aida
寧司 大輪
Yasushi Owa
貴弘 宇佐美
Takahiro Usami
浩靖 形川
Hiroyasu Katagawa
浩之 谷口
Hiroyuki Taniguchi
友貴 植草
Tomotaka Uekusa
侑弘 小貝
Yukihiro Kogai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021065017A priority Critical patent/JP2022160333A/en
Publication of JP2022160333A publication Critical patent/JP2022160333A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing apparatus and a control method for an image processing apparatus in which when the number of feature points in an image is small and the intensity of the feature points is small, the accuracy of tracking is reduced.SOLUTION: An imaging apparatus 100 has: a tracked subject determination unit that detects a subject from an image picked up by an image pickup device 104 and a feature point detection unit that detects feature points from an area corresponding to the subject detected by the tracked subject determination unit; and an evaluation value calculation unit that calculates an evaluation value based on the number of the feature points or the intensity of the feature points detected by the feature point detection unit or both the number and the intensity. The imaging apparatus has: an FPM tracking unit that tracks the subject detected by the tracked subject determination unit by using feature point matching based on the feature points detected by the feature point detection unit; a TM tracking unit 122 that tracks a subject detected by detection means by using a tracking technique different from that of the FPM tracking unit; and a tracking control unit 119 that switches between the FPM tracking unit and the TM tracking unit based on the evaluation value calculated by the evaluation value calculation unit.SELECTED DRAWING: Figure 1

Description

本発明は、複数の追尾回路を備え、映像信号から検出した被写体を複数の追尾回路によって追尾し、追尾した領域を被写体領域として画像処理等に用いる画像処理装置及び画像処理装置の制御方法に関する。 The present invention relates to an image processing apparatus having a plurality of tracking circuits, tracking an object detected from a video signal by the plurality of tracking circuits, and using the tracked area as an object area for image processing and the like, and a control method for the image processing apparatus.

デジタルカメラなどの撮像装置において、画像に含まれる被写体を追尾する、いわゆる被写体追尾機能が提供されている。 2. Description of the Related Art Imaging devices such as digital cameras are provided with a so-called subject tracking function for tracking a subject included in an image.

例えば、特許文献1には、テンプレートマッチングを利用して自動で特定の被写体を追跡するようにした技術が開示されている。なお、テンプレートマッチングとは、追跡対象となる特定の被写体を含む画像領域を切り出した部分画像をテンプレート画像として登録し、テンプレート画像と最も類似度が高い又は相違度が低い領域を画像内において推定し、特定の被写体を追跡する技術である。 For example, Patent Literature 1 discloses a technique for automatically tracking a specific subject using template matching. Note that template matching involves registering, as a template image, a partial image obtained by cutting out an image area that includes a specific subject to be tracked, and estimating an area within the image that has the highest degree of similarity or the lowest degree of difference from the template image. , is a technology for tracking a specific subject.

特開2001-060269号公報Japanese Patent Application Laid-Open No. 2001-060269

しかしながら、テンプレートマッチングは、被写体の形状や向きの変化に弱く、動き(変化)の激しい被写体の追尾に向かない。 However, template matching is weak against changes in the shape and orientation of the subject, and is not suitable for tracking subjects that move (change) rapidly.

本発明はこうした状況に鑑みなされたものであり、その目的は、複数の追尾手法を適切に使用して追尾性能を向上させる画像処理装置及び画像処理装置の制御方法を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus and an image processing apparatus control method that improve tracking performance by appropriately using a plurality of tracking methods.

上記課題を解決するために、本発明の画像処理装置は、撮像手段によって撮像される画像から被写体を検出する検出手段と、前記検出手段によって検出される前記被写体に対応する領域から、特徴点を検出する特徴点検出手段と、前記特徴点検出手段によって検出された特徴点の数または特徴点強度、もしくはその両方に基づいて評価値を算出する評価値算出手段と、前記検出手段によって検出した前記被写体を、前記特徴点検出手段によって検出された特徴点に基づいて特徴点マッチングを用いて追尾する第1の追尾手段と、前記検出手段によって検出した前記被写体を、前記第1の追尾手段とは異なる追尾手法を用いて追尾する第2の追尾手段と、前記評価値算出手段によって算出された評価値に基づいて、前記第1の追尾手段と前記第2の追尾手段を切り替える制御手段と、を有することを特徴とする。 In order to solve the above problems, the image processing apparatus of the present invention includes detection means for detecting a subject from an image captured by an image capturing means, and feature points from an area corresponding to the subject detected by the detection means. feature point detection means for detecting; evaluation value calculation means for calculating an evaluation value based on the number of feature points detected by the feature point detection means, the feature point intensity, or both; A first tracking means for tracking a subject using feature point matching based on the feature points detected by the feature point detection means; and a first tracking means for tracking the subject detected by the detection means. second tracking means for tracking using different tracking methods; and control means for switching between the first tracking means and the second tracking means based on the evaluation value calculated by the evaluation value calculation means. characterized by having

また、本発明の画像処理装置の制御方法は、撮像手段によって撮像される画像から被写体を検出する検出ステップと、前記検出手段によって検出される前記被写体に対応する領域から、特徴点を検出する特徴点検出ステップと、前記特徴検出点手段によって検出された特徴点の数または特徴点強度、もしくはその両方に基づいて評価値を算出する評価値算出ステップと、前記検出手段によって検出した前記被写体を、前記特徴点検出手段によって検出された特徴点に基づいて特徴点マッチングを用いて追尾する第1の追尾ステップと、
前記検出手段によって検出した前記被写体を、前記第1の追尾手段とは異なる追尾手法を用いて追尾する第2の追尾ステップと、前記評価値算出手段によって算出された評価値に基づいて、前記第1の追尾手段と前記第2の追尾手段を切り替える制御ステップと
を有することを特徴とする。
A control method for an image processing apparatus according to the present invention is characterized by: a detection step of detecting a subject from an image captured by an imaging device; and detecting a feature point from an area corresponding to the subject detected by the detection device. a point detection step; an evaluation value calculation step of calculating an evaluation value based on the number of feature points detected by the feature detection point means, the feature point intensity, or both; and the subject detected by the detection means, a first tracking step of tracking using feature point matching based on the feature points detected by the feature point detection means;
a second tracking step of tracking the subject detected by the detection means using a tracking method different from that of the first tracking means; and a control step of switching between one tracking means and the second tracking means.

本発明によれば、特徴点マッチングを含む複数の追尾回路を有する撮像装置において、
複数の追尾手法を適切に使用して追尾性能を向上させる。
According to the present invention, in an imaging device having a plurality of tracking circuits including feature point matching,
To improve tracking performance by appropriately using multiple tracking techniques.

本発明の実施形態1に係る撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る追尾制御部の構成を示す図である。4 is a diagram showing the configuration of a tracking control unit according to Embodiment 1 of the present invention; FIG. 本発明の実施形態1に係る処理を表すフロ-チャートである。4 is a flow chart showing processing according to Embodiment 1 of the present invention. 本発明の実施形態1に係る画像取得処理を表すフローチャートである。4 is a flowchart showing image acquisition processing according to Embodiment 1 of the present invention. 本発明の実施形態1に係る特徴点検出/特徴点強度算出処理を表すフローチャートである。4 is a flowchart showing feature point detection/feature point intensity calculation processing according to the first embodiment of the present invention. 本発明の実施形態2に係る処理を表すフローチャートである。It is a flow chart showing processing concerning Embodiment 2 of the present invention. 本発明の実施形態2に係る特徴量算出処理を表すフローチャートである。9 is a flow chart showing feature amount calculation processing according to Embodiment 2 of the present invention. 本発明の実施形態2に係る特徴量算出処理の模式図である。It is a schematic diagram of the feature amount calculation process according to the second embodiment of the present invention.

以下、本発明の実施形態について図面を参照しながら説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明に係る画像処理装置の一例である撮像装置100は、画像信号から生成する被写体追尾枠を、画像信号から生成する表示用画像に重畳処理し、表示を行う。 The imaging device 100, which is an example of an image processing device according to the present invention, superimposes a subject tracking frame generated from an image signal on a display image generated from the image signal, and displays the superimposed image.

図1は実施の形態1に係る撮像装置100の内部構造を模式的に示す図である。撮像装置100は、光学系101、光学制御部102、シャッター103、撮像素子104、画像処理部110、記録媒体130、表示部131、システム制御部140を含む。また、撮像装置100は、レリーズボタン150、モード切替スイッチ151、操作部152、不揮発性メモリ153、システムメモリ154を含む。 FIG. 1 is a diagram schematically showing the internal structure of an imaging device 100 according to Embodiment 1. As shown in FIG. The imaging apparatus 100 includes an optical system 101 , an optical control section 102 , a shutter 103 , an imaging element 104 , an image processing section 110 , a recording medium 130 , a display section 131 and a system control section 140 . The imaging device 100 also includes a release button 150 , a mode switch 151 , an operation section 152 , a nonvolatile memory 153 and a system memory 154 .

画像処理部110は、表示部131に表示するための画像を処理する第1の前処理部111、検出された被写体に対応する画像であって、追尾用に用いられる画像を処理する第2の前処理部112、第2の補正部113を有する。また画像処理部110は、表示画像を記録する第1のメモリ114、追尾用画像を記録する第2のメモリ115、表示用画像の補正を行う第1の補正部116を有する。さらに、被写体検出部117、被写体決定部118、追尾制御部119、追尾部120、表示用画像の後処理を行う第1の後処理部123、記録部124、追尾枠重畳部125を含む。 The image processing unit 110 includes a first preprocessing unit 111 that processes an image to be displayed on the display unit 131, and a second preprocessing unit 111 that processes an image corresponding to the detected subject and used for tracking. It has a preprocessing unit 112 and a second correction unit 113 . The image processing unit 110 also has a first memory 114 for recording the display image, a second memory 115 for recording the tracking image, and a first correction unit 116 for correcting the display image. Further, a subject detection unit 117 , a subject determination unit 118 , a tracking control unit 119 , a tracking unit 120 , a first post-processing unit 123 that performs post-processing of images for display, a recording unit 124 and a tracking frame superimposing unit 125 are included.

光学系101はズームレンズ等の複数枚のレンズを含み、被写体からの光情報を結像して取得する。光学制御部102は、光学系101のフォーカス制御を実行する。 The optical system 101 includes a plurality of lenses such as a zoom lens, and forms and acquires optical information from a subject. The optical control unit 102 executes focus control of the optical system 101 .

撮像素子104は、光学系101から送信された光情報を電気情報に変換し、画像信号として第1の前処理部111、及び、第2の前処理部112に出力する。撮像素子104はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いて実現できる。 The imaging device 104 converts the optical information transmitted from the optical system 101 into electrical information, and outputs the electrical information to the first preprocessing unit 111 and the second preprocessing unit 112 as image signals. The imaging element 104 can be realized using a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

第1の前処理部111は、撮像素子104から出力された画像信号をRGB各色の信号であるRGB信号に変換し、表示用メモリ114に書き込み処理する。 The first preprocessing unit 111 converts the image signal output from the image sensor 104 into an RGB signal, which is a signal of each color of RGB, and writes the RGB signal into the display memory 114 .

第1の補正部116は、画像を平面に見立て、垂直方向をラインとしたときの全ライン分の全画素RGB信号に対して、ホワイトバランス補正やシェーディング補正、RGB信号のYUV信号への変換などの各種画像補正処理を行う。第1の補正部116は、RGB信号に画像補正処理を行う際に、表示用メモリ114へのRGB信号、または変換処理をしたYUV信号の書き込み、読み出しを行い、複数ライン、または複数フレームを用いた画像補正処理を実行可能とする。 The first correction unit 116 performs white balance correction, shading correction, conversion of RGB signals to YUV signals, etc. for all pixel RGB signals for all lines when the image is regarded as a plane and the vertical direction is defined as lines. perform various image correction processes. The first correction unit 116 writes and reads RGB signals or converted YUV signals to and from the display memory 114 when performing image correction processing on the RGB signals, and uses a plurality of lines or a plurality of frames. It is possible to execute the image correction processing that has been used.

第1の後処理部123は、第1の補正部116が画像補正処理を行ったRGB信号、または変換処理を行ったYUV信号を記録媒体130に記録するための記録用画像信号に変換する。記録用画像信号は、例えばJPEG圧縮を適応した圧縮データ信号が挙げられる。また、第1の後処理部123は、第1の補正部116が画像補正処理をしたRGB信号、または変換処理をしたYUV信号を、表示部131に表示するための表示用画像信号に変換する。 The first post-processing unit 123 converts the RGB signal subjected to the image correction processing by the first correction unit 116 or the YUV signal subjected to the conversion processing into a recording image signal for recording on the recording medium 130 . The image signal for recording is, for example, a compressed data signal adapted to JPEG compression. Further, the first post-processing unit 123 converts the RGB signal subjected to the image correction processing by the first correction unit 116 or the YUV signal subjected to the conversion processing into a display image signal to be displayed on the display unit 131. .

記録部124は、第1の後処理部123で変換された記録用画像信号を記録媒体130に記録する。記録媒体としては、例えばSDメモリカード、コンパクトフラッシュ(登録商標)などのフラッシュメモリを使用する。 The recording unit 124 records the recording image signal converted by the first post-processing unit 123 on the recording medium 130 . As a recording medium, for example, a flash memory such as an SD memory card or compact flash (registered trademark) is used.

第2の前処理部112は、撮像素子104が変換した画像信号をRGB各色の信号である追尾RGB信号に変換し、検出追尾用メモリ115に書き込み処理する。 The second preprocessing unit 112 converts the image signal converted by the image sensor 104 into a tracking RGB signal, which is a signal of each color of RGB, and writes the signal in the detection/tracking memory 115 .

第2の補正部113は、追尾RGB信号をホワイトバランス補正やシェーディング補正、RGB信号のYUV信号への変換などの画像補正処理を行う。画像補正処理は被写体検出部117における被写体検出がより適切に行われるように行われる。例えば、全ライン分の全画素追尾RGB信号の輝度値を平均化したものがあらかじめ設定された閾値以下であれば全ライン分の全画素追尾RGB信号に対して一定の値を乗じる。これにより、被写体検出部117での検出性能を向上させる。このようなゲイン処理などを含む。第2の補正部113は第1の補正部116と同様に、複数ライン、複数フレームを用いた画像処理を、検出追尾用メモリ115を通して実行可能とする。 A second correction unit 113 performs image correction processing such as white balance correction and shading correction on the tracking RGB signal and conversion of the RGB signal into a YUV signal. The image correction processing is performed so that subject detection by the subject detection unit 117 can be performed more appropriately. For example, if the average luminance value of the all-pixel tracking RGB signals for all lines is equal to or less than a preset threshold value, the all-pixel tracking RGB signals for all lines are multiplied by a constant value. This improves the detection performance of the subject detection unit 117 . Including such gain processing. Like the first correction unit 116 , the second correction unit 113 can execute image processing using multiple lines and multiple frames through the detection/tracking memory 115 .

被写体検出部117は、フレーム毎の追尾RGB信号、または変換処理をしたYUV信号から一つ以上の追尾候補被写体の追尾候補被写体の位置情報、サイズ情報を検出する。被写体検出部117は、機械学習を用いた多クラス識別器にて実現してもよく、機械学習を用いない方式で実現してもよい。 The subject detection unit 117 detects the position information and size information of one or more tracking candidate subjects from the tracking RGB signal or YUV signal subjected to conversion processing for each frame. The subject detection unit 117 may be implemented by a multi-class classifier using machine learning, or may be implemented by a method that does not use machine learning.

追尾被写体決定部118は、被写体検出部117が検出した追尾候補被写体の位置情報、サイズ情報に基づいて、追尾部120が追尾対象とする主被写体である追尾被写体を決定する。一つ以上の追尾候補被写体から追尾被写体を決定する手法としては、例えば、あらかじめ用意した任意の優先順位に基づいて、追尾被写体を決定する手法があげられる。任意の優先順位としては、例えば、サイズの大きい人物顔を最も優先する、ユーザーが指定したオートフォーカス設定枠に最も近い被写体を優先する、などがあげられる。 The tracking subject determination unit 118 determines the tracking subject, which is the main subject to be tracked by the tracking unit 120, based on the position information and size information of the tracking candidate subject detected by the subject detection unit 117. FIG. As a method of determining a tracking subject from one or more tracking candidate subjects, for example, there is a method of determining a tracking subject based on an arbitrary priority order prepared in advance. Arbitrary priorities include, for example, prioritizing a large human face and prioritizing a subject closest to the autofocus setting frame specified by the user.

追尾部120は、処理対象のフレームのRGB信号もしくはYUV信号に対して、1フレーム以前のフレームのRGB信号もしくはYUV信号から追尾被写体決定部118が決定した追尾被写体が、どの位置に移動したかを推論する。そして追尾結果として追尾被写体位置情報、及び、サイズ情報を追尾枠重畳部125に出力する。 The tracking unit 120 determines to which position the tracking object determined by the tracking object determining unit 118 based on the RGB signal or YUV signal of the frame to be processed has moved. infer. Then, it outputs tracking object position information and size information to the tracking frame superimposing unit 125 as a tracking result.

追尾制御部119について説明する。図2は追尾制御部119の内部構造を模式的に示す図である。特徴点を検出する特徴点検出部201と、特徴点数と特徴点強度から評価値を算出する評価値算出部202と、評価値から追尾方法を判定する追尾判定部203を含む。本実施形態では、被写体の追尾処理として特徴点を検出し、該特徴点を追尾する特徴点追尾(FMP追尾)処理を用いる。特徴点追尾処理は、被写体にエッジ等の特徴があれば形状や被写体の状態によらず検出されやすく、被写体の変化に強い。本実施形態ではFMP追尾処理と、公知のテンプレートマッチングやヒストグラムマッチングの処理とを使い分けて精度を向上させる。 The tracking control unit 119 will be explained. FIG. 2 is a diagram schematically showing the internal structure of the tracking control unit 119. As shown in FIG. It includes a feature point detection unit 201 that detects feature points, an evaluation value calculation unit 202 that calculates evaluation values from the number of feature points and feature point strengths, and a tracking determination unit 203 that determines a tracking method from the evaluation values. In the present embodiment, feature point tracking (FMP tracking) processing for detecting feature points and tracking the feature points is used as object tracking processing. The feature point tracking process is easy to detect if the subject has a feature such as an edge, regardless of the shape or state of the subject, and is resistant to changes in the subject. In this embodiment, FMP tracking processing and known template matching or histogram matching processing are used separately to improve accuracy.

特徴点検出部201で画像内から特徴点の検出とその強度を算出する。評価値算出部202は特徴点数、特徴点強度のいずれか1つ以上に基づいて評価値を算出する。追尾判定部203は、評価値算出部202で算出された評価値に基づいて後述するFMP追尾を行うかTM追尾を行うかを判定する。 A feature point detection unit 201 detects a feature point from within an image and calculates its intensity. The evaluation value calculation unit 202 calculates an evaluation value based on one or more of the number of feature points and the intensity of feature points. The tracking determination unit 203 determines whether to perform FMP tracking or TM tracking, which will be described later, based on the evaluation value calculated by the evaluation value calculation unit 202 .

追尾部120は、特徴点マッチングを用いた追尾処理を実施するFPM追尾部121、及び、特徴点マッチングを用いない追尾手法による追尾処理を行う処理部を含む。例えば被写体を示す部分画像をテンプレートとして、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定するマッチング手段(テンプレートマッチング:TM)を用いたTM追尾部122を含む。また、目的とする被写体を示す部分画像のヒストグラムを、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させ、類似度が高い又は相違度が低い領域を推定するマッチング手段(ヒストグラムマッチング)などを用いてもよい。FPM追尾部121、及び、TM追尾部122は追尾制御部119によってどちらの追尾部を使用した追尾を行うかを制御される。 The tracking unit 120 includes an FPM tracking unit 121 that performs tracking processing using feature point matching, and a processing unit that performs tracking processing using a tracking method that does not use feature point matching. For example, a matching means (template matching: TM ) is included. Matching means for matching the histogram of the partial image showing the target subject with the histogram of the partial area of the supplied image, changing the partial area to be checked, and estimating the area with high similarity or low dissimilarity. (histogram matching) or the like may be used. The FPM tracking unit 121 and the TM tracking unit 122 are controlled by the tracking control unit 119 as to which tracking unit is used for tracking.

追尾部120は、追尾制御部119の判定に従い、FPM追尾部121またはTM追尾部122が出力する類似度スコアに基づいて算出された追尾被写体の中心位置、サイズのいずれを採用するかを選択する。そして、採用した側の追尾被写体の中心位置、サイズを追尾枠重畳部125、及び、光学制御部102に出力する。 The tracking unit 120 selects which of the center position and the size of the tracking object calculated based on the similarity score output by the FPM tracking unit 121 or the TM tracking unit 122, according to the determination of the tracking control unit 119. . Then, the central position and size of the tracking subject on the adopted side are output to the tracking frame superimposing unit 125 and the optical control unit 102 .

追尾枠重畳部125は、追尾部120が出力する追尾被写体の中心位置、及び、サイズから追尾枠を生成し、生成した追尾枠を第1の後処理部123が出力する表示用画像に重畳処理し、重畳処理した追尾枠付き表示用画像を表示部131に出力する。 The tracking frame superimposing unit 125 generates a tracking frame from the center position and size of the tracking subject output by the tracking unit 120, and superimposes the generated tracking frame on the display image output by the first post-processing unit 123. Then, the superimposed display image with the tracking frame is output to the display unit 131 .

表示部131は、例えばLCDパネルや有機ELパネルで構成し、追尾枠重畳部125から取得した追尾枠付き表示用画像を表示する。 The display unit 131 is configured by, for example, an LCD panel or an organic EL panel, and displays the tracking frame-attached display image acquired from the tracking frame superimposing unit 125 .

不揮発性メモリ153は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ153には、システム制御部140の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The nonvolatile memory 153 is an electrically erasable/recordable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 153 stores constants for operation of the system control unit 140, programs, and the like. The program here is a program for executing various flowcharts described later in this embodiment.

システム制御部140は、撮像装置100全体を制御する。前述した不揮発性メモリ153に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。154はシステムメモリであり、RAMが用いられる。システムメモリ154には、システム制御部140の動作用の定数、変数、不揮発性メモリ153から読み出したプログラム等を展開する。 The system control unit 140 controls the imaging device 100 as a whole. By executing the program recorded in the non-volatile memory 153 described above, each process of this embodiment, which will be described later, is realized. A system memory 154 uses a RAM. In the system memory 154, constants and variables for operation of the system control unit 140, programs read from the nonvolatile memory 153, and the like are developed.

レリーズボタン150、モード切替スイッチ151、操作部152はシステム制御部140に各種の動作指示を入力するための操作手段である。 A release button 150 , a mode switch 151 , and an operation unit 152 are operation means for inputting various operation instructions to the system control unit 140 .

レリーズボタン150はレリーズボタン150の操作途中、いわゆる半押し(撮影準備指示)と、レリーズボタン150の操作完了、いわゆる全押し(撮影指示)の状態を区別してシステム制御部140に入力する。システム制御部140は、半押しでAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。また、全押しで撮像素子104からの信号読み出しから記録媒体130に画像データを書き込むまでの一連の撮影処理の動作を開始するようシステム全体を制御する。 The release button 150 is input to the system control unit 140 by distinguishing between the so-called half-pressed state (shooting preparation instruction) during operation of the release button 150 and the so-called full-pressed state (shooting instruction) after the release button 150 is operated. The system control unit 140 starts operations such as AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, EF (flash pre-emission) processing, etc. by half-pressing. Further, the entire system is controlled to start a series of photographing processing operations from signal reading from the image sensor 104 to writing of image data to the recording medium 130 when the button is fully pressed.

モード切替スイッチ151は、システム制御部140の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切り替えスイッチ140で、メニューボタンに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切り替えスイッチ140でメニューボタンに一旦切り換えた後に、メニューボタンに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 A mode switch 151 switches the operation mode of the system control unit 140 between a still image recording mode, a moving image shooting mode, a playback mode, and the like. Modes included in the still image recording mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). In addition, there are various scene modes, program AE modes, custom modes, etc., which are shooting settings for each shooting scene. A mode switch 140 switches directly to any of these modes contained in the menu button. Alternatively, after switching to the menu button once with the mode switching switch 140, another operation member may be used to switch to one of these modes included in the menu button. Similarly, the movie shooting mode may also include multiple modes.

操作部152はシステム制御部140に各種の動作指示を入力するための操作手段である。操作部152の各操作部材は、表示部131に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部131に表示される。利用者は、表示部131に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 The operation unit 152 is operation means for inputting various operation instructions to the system control unit 140 . Each operation member of the operation unit 152 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 131, and acts as various function buttons. The function buttons include, for example, an end button, a return button, an image forward button, a jump button, a refinement button, an attribute change button, and the like. For example, when the menu button is pressed, a menu screen on which various settings can be made is displayed on the display unit 131 . The user can intuitively perform various settings by using the menu screen displayed on the display unit 131, the up, down, left, and right four-direction buttons and the SET button.

〔実施形態1〕
以下、実施形態1で行われる処理について、図3、図4、図5に示すフローチャートを用いて説明する。
[Embodiment 1]
Processing performed in the first embodiment will be described below with reference to flowcharts shown in FIGS. 3, 4, and 5. FIG.

図3は実施形態1に係る撮像装置100の画像信号の処理の流れを説明するフローチャートである。S300は画像取得を行うサブプロセスを示している。図4のフローチャートを用いてこの画像取得を行う処理の流れを説明する。S303は特徴点検出と特徴点強度算出を行うサブプロセスを示している。図5のフローチャートを用いてこの特徴点検出と特徴点強度算出を行う処理の流れを説明する。本フローチャートの各ステップはいずれもシステム制御部140あるいはシステム制御部140の指示により各部で行われる。 FIG. 3 is a flowchart for explaining the flow of image signal processing of the imaging apparatus 100 according to the first embodiment. S300 shows a sub-process for image acquisition. The flow of processing for acquiring this image will be described with reference to the flowchart of FIG. S303 indicates a sub-process for performing feature point detection and feature point intensity calculation. The flow of processing for detecting feature points and calculating feature point strength will be described with reference to the flowchart of FIG. Each step of this flowchart is performed by the system control unit 140 or each unit according to an instruction from the system control unit 140 .

撮像素子104は、被写体から放出された光信号を光学系101で集光し、電気信号である画像信号に変換する(S400)。第1の前処理部111は、撮像素子104が変換した画像信号をRGB各色の信号に変換する(S401)。 The imaging device 104 collects the optical signal emitted from the subject by the optical system 101 and converts it into an image signal, which is an electric signal (S400). The first preprocessing unit 111 converts the image signal converted by the image sensor 104 into signals of RGB colors (S401).

第1の前処理部111はS401で変換したRGB信号を、第1の補正部116はS403で画像補正処理したRGB信号、YUV信号を表示用メモリ114に書き込む(S402)。 The first preprocessing unit 111 writes the RGB signals converted in S401, and the first correction unit 116 writes the RGB signals and YUV signals subjected to image correction processing in S403 to the display memory 114 (S402).

第1の補正部116は、S402で表示用メモリ114に書き込んだRGB信号、YUV信号を読み出し、評価値の算出、および、画像補正処理を行う(S403)。読み出すライン数は第1の補正部116で実施する評価値算出処理や画像処理によって異なり、1ライン分の画像処理に対して、1ライン分のRGB信号を読み出す場合、複数ライン分のRGB信号を読み出す場合、画像を矩形エリアに分割し、矩形エリア単位で読み出す場合など、様々な読み出し処理を実行する。 The first correction unit 116 reads out the RGB signals and YUV signals written in the display memory 114 in S402, calculates evaluation values, and performs image correction processing (S403). The number of lines to be read varies depending on the evaluation value calculation processing and image processing performed by the first correction unit 116. When reading one line of RGB signals for one line of image processing, multiple lines of RGB signals are read. When reading out, the image is divided into rectangular areas, and various reading processes are executed, such as reading out in units of rectangular areas.

第1の補正部116は、必要なすべての画像補正処理が完了していない場合、S402の処理に戻る(S404のNo)。必要なすべての画像補正処理が完了した場合、画像補正処理されたRGB信号、またはYUV信号は第1の後処理部123に出力される(S404のYes)。 If all necessary image correction processing has not been completed, the first correction unit 116 returns to the processing of S402 (No in S404). When all necessary image correction processing is completed, the RGB signal or YUV signal subjected to image correction processing is output to the first post-processing unit 123 (Yes in S404).

なお、このフローチャートにおいて、第1の前処理部111、表示用メモリ114、第1の補正部116としての説明をしたが、第2の前処理部112、検出追尾用メモリ115、第2の補正部113の処理もメモリが表示用メモリ114ではなく検出追尾用メモリ115である点と、実施する画像補正処理が表示用の画像処理とは異なる検出追尾用の画像処理である点を除けば同様であるため説明を省略する。 In this flowchart, the first preprocessing unit 111, the display memory 114, and the first correction unit 116 have been described, but the second preprocessing unit 112, the detection/tracking memory 115, and the second correction are described. The processing of the unit 113 is the same except that the memory is not the display memory 114 but the detection and tracking memory 115, and the image correction processing to be performed is image processing for detection and tracking that is different from image processing for display. Therefore, the explanation is omitted.

続いて図3のフローチャートのS301以降の処理の流れを説明する。S301ではS300で取得された画像信号を用いて、1つ以上の追尾候補被写体の位置情報、サイズ情報を被写体検出部117で検出し、検出結果を検出追尾用メモリ115に書き込む。S302では追尾被写体決定部118が、検出追尾用メモリ115より追尾候補被写体情報を読み出し、あらかじめ定めておいた優先順位に基づいて追尾被写体を1つに決定する。 Next, the flow of processing after S301 in the flowchart of FIG. 3 will be described. In S<b>301 , position information and size information of one or more tracking candidate subjects are detected by the subject detection unit 117 using the image signal acquired in S<b>300 , and the detection results are written in the detection/tracking memory 115 . In S302, the tracking subject determination unit 118 reads tracking candidate subject information from the detection tracking memory 115, and determines one tracking subject based on a predetermined priority.

S303では特徴点および特徴点強度を算出する。図5は特徴点検出部201で行う特徴点検出のフローチャートである。S500で追尾被写体の領域に対して水平一次微分フィルタ処理を行うことで水平一次微分画像を生成する。S502で、S500で得た水平一次微分画像に対してさらに水平一次微分フィルタ処理を行うことで水平二次微分画像を生成する。 In S303, feature points and feature point strengths are calculated. FIG. 5 is a flowchart of feature point detection performed by the feature point detection unit 201 . In S500, a horizontal primary differential image is generated by performing horizontal primary differential filter processing on the area of the tracking subject. In S502, a horizontal secondary differential image is generated by further performing horizontal primary differential filter processing on the horizontal primary differential image obtained in S500.

S501で追尾被写体の領域に対して垂直一次微分フィルタ処理を行うことで垂直一次微分画像を生成する。 In S501, a vertical primary differential image is generated by performing vertical primary differential filter processing on the area of the tracking subject.

S504で、S501で得た垂直一次微分画像に対してさらに垂直一次微分フィルタ処理を行うことで水平二次微分画像を生成する。 In S504, a horizontal secondary differential image is generated by further performing vertical primary differential filter processing on the vertical primary differential image obtained in S501.

S503で、S500で得た水平一次微分画像に対してさらに垂直一次微分フィルタ処理を行うことで水平一次微分、垂直一次微分画像を生成する。 In S503, the horizontal primary differential image obtained in S500 is further subjected to vertical primary differential filter processing to generate horizontal primary differential and vertical primary differential images.

S505で、S502、S503、S504で得られた微分値のヘシアン行列Hの行列式Detを計算する。S502で得られた水平二次微分値をLxx、S504で得られた垂直二次微分値をLyy、S503で得られた水平一次微分、垂直一次微分値をLxyとするとき、ヘシアン行列Hは式(1)で表され、行列式Detは式(2)で表される。 In S505, the determinant Det of the Hessian matrix H of the differential values obtained in S502, S503, and S504 is calculated. When the horizontal secondary differential value obtained in S502 is Lxx, the vertical secondary differential value obtained in S504 is Lyy, and the horizontal primary differential and vertical primary differential value obtained in S503 are Lxy, the Hessian matrix H is expressed by the formula (1), and the determinant Det is represented by equation (2).

Figure 2022160333000002
Figure 2022160333000002

Figure 2022160333000003
Figure 2022160333000003

S506で、S505で得られた行列式Detが0以上であるかを判断する。行列式Detが0以上の時、S507に進む。行列式Detが0未満の時、S508に進む。 In S506, it is determined whether the determinant Det obtained in S505 is 0 or more. When the determinant Det is 0 or more, the process proceeds to S507. When the determinant Det is less than 0, proceed to S508.

S507で、行列式Detが0以上の点を特徴点として検出する。 In S507, points whose determinant Det is 0 or more are detected as feature points.

S508で入力された被写体領域全てに対して処理を行ったと判断した場合、特徴点検出処理を終了する。処理が全て完了していない場合は、S500からS507の処理を繰り返し、特徴点検出処理を続ける。 If it is determined in S508 that the process has been performed on all of the input subject areas, the feature point detection process ends. If all the processes have not been completed, the processes from S500 to S507 are repeated to continue the feature point detection process.

S304ではS303で得られた特徴点の数と特徴点強度のいずれか一方もしくは両方から評価値を算出する。例えば被写体領域に対する特徴点の割合と、特徴点強度の平均値から評価値を算出する。例として、被写体領域に対する特徴点の割合が大きいほど、また、特徴点強度の平均値か高いほど高い評価値となるものとする。 In S304, an evaluation value is calculated from one or both of the number of feature points and the intensity of feature points obtained in S303. For example, the evaluation value is calculated from the ratio of the feature points to the subject area and the average value of the feature point intensities. For example, it is assumed that the larger the ratio of the feature points to the subject area and the higher the average value of the feature point intensities, the higher the evaluation value.

S305ではS304で得られた評価値が予め設定される閾値以上であるかどうかを判定する。評価値が閾値以上であった場合は、S306へ移行し特徴点マッチングによる被写体追尾を行う。特徴点マッチングはS303で得られた特徴点の情報を用いることができる。 In S305, it is determined whether or not the evaluation value obtained in S304 is equal to or greater than a preset threshold value. If the evaluation value is equal to or greater than the threshold, the process proceeds to S306, and subject tracking is performed by feature point matching. The feature point matching can use the feature point information obtained in S303.

評価値が閾値未満であった場合にはS307へ移行しテンプレートマッチングによる被写体追尾処理に切り替える。なお、テンプレートマッチングに代えて、ヒストグラムマッチングなどを用いてもよいものとする。 If the evaluation value is less than the threshold, the process proceeds to S307 and switches to subject tracking processing based on template matching. Note that histogram matching or the like may be used instead of template matching.

S308では被写体の位置をS306またはS307で得られた被写体の位置に更新された被写体枠を第1の信号に重畳表示する。 In S308, the subject frame updated to the position of the subject obtained in S306 or S307 is displayed superimposed on the first signal.

以上のように、実施形態1に係る撮像装置100は、特徴点数と特徴点強度に基づく評価値にしたがって被写体追尾を行うことが困難な場合は、特徴点マッチングを用いない既存の方法による被写体追尾を行うことで追尾精度の低下を抑制することができる。 As described above, the imaging apparatus 100 according to the first embodiment performs subject tracking using an existing method that does not use feature point matching when it is difficult to track the subject according to the evaluation value based on the number of feature points and the feature point intensity. can suppress a decrease in tracking accuracy.

〔実施形態2〕
以下、実施形態2で行われる処理について、図6、図7に示すフローチャート、図8の模式図を用いて説明する。本フローチャートの各ステップはいずれもシステム制御部140あるいはシステム制御部140の指示により各部で行われる。
[Embodiment 2]
Processing performed in the second embodiment will be described below with reference to the flowcharts shown in FIGS. 6 and 7 and the schematic diagram of FIG. Each step of this flowchart is performed by the system control unit 140 or each unit according to an instruction from the system control unit 140 .

S600、S601、S602、S603は、実施形態1で行われる処理を示す図3のフローチャートのS300、S301、S302、S303と同じであるため説明を省略する。 S600, S601, S602, and S603 are the same as S300, S301, S302, and S303 in the flowchart of FIG.

S604は特徴点検出と特徴点強度算出を行うサブプロセスを示している。S603の特徴点検出と特徴点強度算出を行うサブプロセスが被写体領域に対して行われることに対して、S604は画像全体から行われること以外は同じであるため説明を省略する。 S604 indicates a sub-process for performing feature point detection and feature point intensity calculation. While the sub-processes of feature point detection and feature point intensity calculation in S603 are performed on the subject area, S604 is the same except that it is performed on the entire image, so description thereof will be omitted.

S606はS603、S604で検出された特徴点に対して特徴量を算出するサブプロセスである。図8は特徴量算出処理の模式図である。801で示す着目している特徴点周辺に、802で示すランダムな線分パターンを引くとき、各線分の両端の輝度値の大小関係を1、0で表現する。線分パターン全ての1、0の大小関係をビット列として表現したものが特徴量となる。 S606 is a sub-process for calculating feature amounts for the feature points detected in S603 and S604. FIG. 8 is a schematic diagram of feature amount calculation processing. When a random line segment pattern indicated by 802 is drawn around a feature point of interest indicated by 801, the magnitude relationship between luminance values at both ends of each line segment is represented by 1 and 0. FIG. A bit string representing the magnitude relationship between 1s and 0s of all line segment patterns is a feature amount.

図7に示すフローチャートを用いて特徴量を算出する処理について説明する。S701では、検出された特徴点に対して特徴量算出を行う。S702では検出された全特徴点の処理が完了したかを判断する。全ての特徴点に対する特徴量算出が終了していない場合、S701の特徴量算出を繰り返す。 Processing for calculating the feature amount will be described with reference to the flowchart shown in FIG. In S701, feature amount calculation is performed for the detected feature points. In S702, it is determined whether processing of all detected feature points has been completed. If the feature amount calculation for all feature points has not been completed, the feature amount calculation in S701 is repeated.

S607は実施形態1で行われる処理を示す図3のフローチャートのS304と同じであるため説明を省略する。 Since S607 is the same as S304 in the flowchart of FIG. 3 showing the processing performed in the first embodiment, description thereof is omitted.

S608は評価値が予め設定された閾値付近であるかを判定する。評価値が予め設定された閾値付近であるかどうかの範囲については適宜決められるものとする。評価値が閾値付近でないと判定された場合はS609へ移行する。S609およびS609以降のS611、S612、S613は、実施形態1で行われる処理を示す図3のフローチャートのS305、S306、S307、S308と同じであるため説明を省略する。評価値が閾値付近であると判定された場合はS610へ移行する。S610では被写体領域のある特徴点に対する特徴量と画像全体の特徴点に対する特徴量(他の領域の特徴量)とを比較し、類似する特徴量が複数存在するかを判定する。被写体領域のある特徴点に対する特徴量と類似する特徴量が、画像全体の特徴点に対する特徴量に複数存在する場合、特徴点マッチングによる誤マッチングを招くことを避けるためS612へ移行し、テンプレートマッチングによる被写体追尾を行う。 S608 determines whether the evaluation value is near a preset threshold value. It is assumed that the range of whether the evaluation value is near a preset threshold value is appropriately determined. If it is determined that the evaluation value is not near the threshold, the process proceeds to S609. S609 and S611, S612, and S613 subsequent to S609 are the same as S305, S306, S307, and S308 in the flowchart of FIG. If it is determined that the evaluation value is near the threshold value, the process proceeds to S610. In S610, the feature amount for a certain feature point in the subject area and the feature amount for the feature point in the entire image (feature amounts of other areas) are compared, and it is determined whether there are a plurality of similar feature amounts. If there are a plurality of feature amounts similar to the feature amount for a certain feature point in the subject area in the feature amount for the feature points of the entire image, the process proceeds to step S612 to avoid erroneous matching due to feature point matching. Perform subject tracking.

特徴点同士の特徴量の類似度(ハミング距離D)は被写体領域のある特徴点の特徴量のビット列をA、要素をAiとし、画像全体のある特徴点の特徴量のビット列をB、要素をBiとするとき、式(3)で表される。 The similarity (Hamming distance D) of the feature amount between the feature points is defined by A, the bit string of the feature amount of the feature point in the subject area, Ai being the element, B being the bit string of the feature amount of the feature point of the entire image, and the element being Bi is represented by Equation (3).

Figure 2022160333000004
Figure 2022160333000004

類似する特徴量か否かは特徴点同士の類似度を閾値と比較して判断する。類似度はハミング距離Dが0の時が最大である。 Whether or not feature amounts are similar is determined by comparing the degree of similarity between feature points with a threshold value. The degree of similarity is maximum when the Hamming distance D is 0.

被写体領域のある特徴点に対する特徴量と類似する特徴量が、画像全体の特徴点に対する特徴量に複数存在しない場合は、特徴点マッチングにより精度の高いマッチングができると判定してS611へ移行する。 If there are not a plurality of feature amounts similar to the feature amount for a certain feature point in the subject area in the feature amounts for the feature points of the entire image, it is determined that high-precision matching can be achieved by feature point matching, and the process proceeds to S611.

以上のように、実施形態2に係る撮像装置100は、特徴点数と特徴点強度に基づく評価値および、被写体と画像全体の特徴量の類似性に基づいて、特徴点マッチングによる被写体追尾が困難な場合は、特徴点マッチングを用いない既存の方法による被写体追尾を行うことで追尾精度の低下を抑制することができる。 As described above, the image capturing apparatus 100 according to the second embodiment determines whether it is difficult to track a subject by feature point matching based on the evaluation value based on the number of feature points and the feature point intensity, and the similarity between the feature amount of the subject and the entire image. In this case, it is possible to suppress deterioration in tracking accuracy by performing subject tracking using an existing method that does not use feature point matching.

特徴点マッチングによる追尾回路およびその他の追尾回路を備える撮像装置全般において広く利用することが可能である。 It can be widely used in general imaging apparatuses equipped with a tracking circuit based on feature point matching and other tracking circuits.

100 撮像装置
110 画像処理部
100 imaging device 110 image processing unit

Claims (6)

撮像手段によって撮像される画像から被写体を検出する検出手段と、
前記検出手段によって検出される前記被写体に対応する領域から、特徴点を検出する特徴点検出手段と、
前記特徴点検出手段によって検出された特徴点の数または特徴点強度、もしくはその両方に基づいて評価値を算出する評価値算出手段と、
前記検出手段によって検出した前記被写体を、前記特徴点検出手段によって検出された特徴点に基づいて特徴点マッチングを用いて追尾する第1の追尾手段と、
前記検出手段によって検出した前記被写体を、前記第1の追尾手段とは異なる追尾手法を用いて追尾する第2の追尾手段と、
前記評価値算出手段によって算出された評価値に基づいて、前記第1の追尾手段と前記第2の追尾手段を切り替える制御手段と
を有することを特徴とする画像処理装置。
a detecting means for detecting a subject from an image captured by the imaging means;
feature point detection means for detecting feature points from the area corresponding to the subject detected by the detection means;
evaluation value calculation means for calculating an evaluation value based on the number of feature points detected by the feature point detection means, the feature point intensity, or both;
a first tracking unit that tracks the subject detected by the detection unit using feature point matching based on the feature points detected by the feature point detection unit;
a second tracking means for tracking the subject detected by the detection means using a tracking method different from that of the first tracking means;
and control means for switching between the first tracking means and the second tracking means based on the evaluation value calculated by the evaluation value calculation means.
前記制御手段は、前記評価値が予め設定された閾値より大きい場合に前記第1の追尾手段を選択することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said control means selects said first tracking means when said evaluation value is greater than a preset threshold. 前記制御手段は、
前記評価値が予め設定された範囲の値であった場合に、前記被写体の特徴量と前記被写体に対応する領域から他の領域の特徴量に基づいて、前記第1の追尾手段と前記第2の追尾手段を切り替えることを特徴とする請求項1に記載の画像処理装置。
The control means is
When the evaluation value is within a preset range, the first tracking means and the second 2. The image processing apparatus according to claim 1, wherein said tracking means is switched.
前記第2の追尾手段は、テンプレートマッチングを用いて追尾処理を行うことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 4. The image processing apparatus according to claim 1, wherein said second tracking means performs tracking processing using template matching. 前記第2の追尾手段は、ヒストグラムマッチングを用いて追尾処理を行うことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 4. The image processing apparatus according to claim 1, wherein said second tracking means performs tracking processing using histogram matching. 撮像手段によって撮像される画像から被写体を検出する検出ステップと、
前記検出手段によって検出される前記被写体に対応する領域から、特徴点を検出する特徴点検出ステップと、
前記特徴検出点手段によって検出された特徴点の数または特徴点強度、もしくはその両方に基づいて評価値を算出する評価値算出ステップと、
前記検出手段によって検出した前記被写体を、前記特徴点検出手段によって検出された特徴点に基づいて特徴点マッチングを用いて追尾する第1の追尾ステップと、
前記検出手段によって検出した前記被写体を、前記第1の追尾手段とは異なる追尾手法を用いて追尾する第2の追尾ステップと、
前記評価値算出手段によって算出された評価値に基づいて、前記第1の追尾手段と前記第2の追尾手段を切り替える制御ステップと
を有することを特徴とする画像処理装置の制御方法。
a detection step of detecting a subject from an image captured by the imaging means;
a feature point detection step of detecting feature points from the area corresponding to the subject detected by the detection means;
an evaluation value calculation step of calculating an evaluation value based on the number of feature points detected by the feature detection point means, the strength of the feature points, or both;
a first tracking step of tracking the subject detected by the detection means using feature point matching based on the feature points detected by the feature point detection means;
a second tracking step of tracking the subject detected by the detection means using a tracking method different from that of the first tracking means;
and a control step of switching between the first tracking means and the second tracking means based on the evaluation value calculated by the evaluation value calculating means.
JP2021065017A 2021-04-06 2021-04-06 Image processing apparatus and control method for image processing apparatus Pending JP2022160333A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021065017A JP2022160333A (en) 2021-04-06 2021-04-06 Image processing apparatus and control method for image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021065017A JP2022160333A (en) 2021-04-06 2021-04-06 Image processing apparatus and control method for image processing apparatus

Publications (1)

Publication Number Publication Date
JP2022160333A true JP2022160333A (en) 2022-10-19

Family

ID=83657777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021065017A Pending JP2022160333A (en) 2021-04-06 2021-04-06 Image processing apparatus and control method for image processing apparatus

Country Status (1)

Country Link
JP (1) JP2022160333A (en)

Similar Documents

Publication Publication Date Title
US11039059B2 (en) Imaging capturing device and imaging capturing method
US7725019B2 (en) Apparatus and method for deciding in-focus position of imaging lens
US7791668B2 (en) Digital camera
JP4894661B2 (en) Imaging device
US7614559B2 (en) Apparatus and method for deciding in-focus position of imaging lens
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
JP5237721B2 (en) Imaging device
JP2006211139A (en) Imaging apparatus
JP2010010729A (en) Image pickup apparatus, and program
JP4645413B2 (en) Imaging device
JP2014077994A (en) Image display device, control method and control program for the same, and imaging device
JP2017129788A (en) Focus detection device and imaging device
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2008054031A (en) Digital camera and display control method
JP2022160333A (en) Image processing apparatus and control method for image processing apparatus
JP2009152725A (en) Automatic tracing apparatus and method
JP2019191661A (en) Image processing apparatus, imaging device, image processing method, and program
JP5743729B2 (en) Image synthesizer
JP5024033B2 (en) Object tracking device, object tracking program, and object tracking method
JP6512938B2 (en) Imaging apparatus and image processing method
US20230360229A1 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
JP7458723B2 (en) Image processing device, imaging device, control method, and program
JP6833772B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP5375943B2 (en) Imaging apparatus and program thereof
JP6833607B2 (en) Control device, image pickup device, control method, program, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213