JP2019191661A - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2019191661A
JP2019191661A JP2018080161A JP2018080161A JP2019191661A JP 2019191661 A JP2019191661 A JP 2019191661A JP 2018080161 A JP2018080161 A JP 2018080161A JP 2018080161 A JP2018080161 A JP 2018080161A JP 2019191661 A JP2019191661 A JP 2019191661A
Authority
JP
Japan
Prior art keywords
processing
image
tracking target
feature point
moving subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018080161A
Other languages
English (en)
Other versions
JP7129201B2 (ja
Inventor
友貴 植草
Tomotaka Uekusa
友貴 植草
谷口 浩之
Hiroyuki Taniguchi
浩之 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018080161A priority Critical patent/JP7129201B2/ja
Priority to US16/385,795 priority patent/US10880457B2/en
Publication of JP2019191661A publication Critical patent/JP2019191661A/ja
Application granted granted Critical
Publication of JP7129201B2 publication Critical patent/JP7129201B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

【課題】撮影途中にフレームインする移動被写体に対応する特徴点をより多く追跡する。【解決手段】撮影範囲の一部に第1の処理領域を設定する設定手段と、第1の撮影画像から複数の追跡対象点を選択する選択手段と、第1の撮影画像と次に撮影された第2の撮影画像との間で追跡対象点の動きベクトルを検出する検出手段と、第1の処理領域に移動被写体が出現したかを判定する判定手段と、移動被写体が出現したと判定するまでは、選択手段による選択と検出手段による検出と判定手段による判定とを含む第1の処理セットを繰返し実行し、移動被写体が出現したと判定した後は選択手段による選択と検出手段による検出とを含む第2の処理セットを繰返し実行する制御手段とを備える。第1の処理セットでは第1の処理領域から複数の追跡対象点を選択し、第2の処理セットでは直前の第2の処理セットで検出された追跡対象点の移動先を追跡対象点として選択する。【選択図】図9

Description

本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。
デジタルビデオカメラ等の撮像装置を用いて撮影された映像に対して手ぶれ補正を施すためには、フレーム画像間の動き量を検出して複数枚の画像に対して位置合わせを行う必要がある。フレーム画像間の動き量を検出する方法としては、ジャイロセンサのような外部機器の情報を用いたり、撮影されたフレーム画像から動き量を推定したりする方法等がある。
フレーム画像を用いた動き量推定の方法は従来から種々提案されているが、その代表的なものとしてテンプレートマッチングによる動きベクトル検出がある。テンプレートマッチングでは、まず映像中のある2枚のフレーム画像の一方を原画像、もう一方を参照画像とする。そして、原画像上に配置した所定の大きさの矩形領域をテンプレートブロックとし、参照画像の各位置においてテンプレートブロック内の画素値の分布との相関を求める。このとき、参照画像中で最も相関が高くなる位置がテンプレートブロックの移動先であり、原画像上でのテンプレートブロックの位置を基準とした時の移動先への向きと移動量が動きベクトルとなる。
動きベクトルの検出率を向上させるため、フレーム画像から特徴点を抽出し、抽出した特徴点にテンプレートブロックを配置してテンプレートマッチングを行う技術がある。ここで、画像全体で特徴点抽出を行うと、特徴点の分布は不均一になることが多い。不均一な特徴点に対して得られた動きベクトルを手ぶれ補正の用途で使用する場合、特徴の集中した領域が主となる手ぶれ補正となってしまう。そこで、特許文献1が開示するように、特徴点を均一に分布させるため、画像をグリッド状に分割して、特徴の大きさを表す特徴値を画素ごとに計算し、各グリッド内で特徴値が最も大きい画素を特徴点として抽出する技術が知られている。
また、特許文献2が開示するように、動きベクトルの検出率を向上させるために、特徴点を追跡する技術が知られている。特徴点追跡は、画像から抽出された特徴点の動きベクトルを、連続する複数のフレーム画像にわたって逐次検出することで実現できる。
図10は、特徴点追跡処理の概略を示す図である。撮像装置は、特徴点抽出を行うための特徴点抽出グリッド1004内で特徴点1001を抽出し、テンプレート領域1003を設定する。そして、撮像装置は、テンプレートマッチング領域1006内でテンプレートマッチングを実施してベクトル値1007を算出する。特徴点抽出グリッド1004の周囲には、特徴点抽出は実施されないがテンプレートマッチングで使用される周辺グリッド1005が配置される。
次のフレームの処理では、撮像装置は、算出されたベクトル値1007を特徴点1001に加算することにより得られる追跡先特徴点1002を中心にテンプレートマッチングを実施する。以後、撮像装置は、複数フレームにわたって、追跡先特徴点に対して、ベクトル値を加算して次の追跡先特徴点を検出する処理を繰り返す。
また、特許文献3が開示するように、追跡対象の移動方向などに基づいて追跡の範囲を制限する技術も知られている。
特開2008−192060号公報 特開2007−334625号公報 特開2012−73997号公報
上記のような特徴点追跡処理を行う撮像装置を用いて、移動する主被写体(移動被写体)がフレームインするタイミングの前後の期間に撮影を行う場合を考える。この場合、移動被写体のフレームイン前は、撮像装置は、移動被写体とは無関係な特徴点しか抽出することができない。従って、移動被写体のフレームイン前に特徴点追跡処理を開始した場合、撮像装置は、移動被写体のフレームイン後も、移動被写体とは無関係な特徴点を追跡し続けることになる。その結果、例えば、移動被写体を重視した手ぶれ補正を行うことができなくなる。
本発明はこのような状況に鑑みてなされたものであり、撮影途中にフレームインする移動被写体に対応する特徴点をより多く追跡することを可能にする技術を提供することを目的とする。
上記課題を解決するために、本発明は、撮影範囲の一部に第1の処理領域を設定する設定手段と、複数の撮影画像のうちの第1の撮影画像において複数の追跡対象点を選択する選択手段と、前記第1の撮影画像と前記第1の撮影画像の次に撮影された第2の撮影画像との間で、各追跡対象点の動きベクトルを検出する検出手段と、前記第1の処理領域に移動被写体が出現したか否かを判定する判定手段と、前記複数の撮影画像の各々を撮影順に前記第1の撮影画像として、前記第1の処理領域に前記移動被写体が出現したと判定されるまでは、前記選択手段による選択と前記検出手段による検出と前記判定手段による判定とを含む第1の処理セットを繰り返し実行し、前記第1の処理領域に前記移動被写体が出現したと判定された後は、前記選択手段による選択と前記検出手段による検出とを含む第2の処理セットを繰り返し実行するように制御する制御手段と、を備え、前記第1の処理セットにおいて、前記選択手段は、前記第1の撮影画像の前記第1の処理領域に基づいて、前記第1の処理領域の中から前記複数の追跡対象点を選択し、前記第2の処理セットにおいて、前記選択手段は、直前の第2の処理セットにおいて検出された各追跡対象点の前記動きベクトルが示す各追跡対象点の移動先を、現在の第2の処理セットのための前記複数の追跡対象点として選択することを特徴とする画像処理装置を提供する。
本発明によれば、撮影途中にフレームインする移動被写体に対応する特徴点をより多く追跡することが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
画像処理装置を含むデジタルカメラ100の構成を示すブロック図。 動きベクトル検出部116が処理するグリッド配置、特徴点、及びテンプレート領域などの関係を示す図。 動きベクトル検出部116の構成を示すブロック図。 特徴点追跡処理のフローチャート。 新規特徴点抽出部302の詳細な構成を示すブロック図。 低コントラスト判定、画素値の最大値突出判定、及び繰り返しパターン判定を説明する図。 追跡先特徴点算出処理(図4のS409)の詳細を示すフローチャート。 撮影範囲の特定の領域に対して移動被写体がフレームインするシーンを撮影する際の動きベクトル検出部116の処理を時系列に示した模式図。 図8のようなシーンにおける動きベクトル検出部116の処理を示すフローチャート。 特徴点追跡処理の概略を示す図。
以下、添付図面を参照して、本発明の実施形態を説明する。添付図面の全体を通じて、同一の参照符号が付与された要素は、同一又は同様の要素を表す。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。また、別々の実施形態の中で説明されている特徴を適宜組み合せることも可能である。
[第1の実施形態]
図1は、画像処理装置を含むデジタルカメラ100の構成を示すブロック図である。図1において、結像光学部101はフォーカスレンズや防振レンズを含む複数のレンズ群及び絞りなどを備えている。撮影の際、結像光学部101はフォーカス調節、露出調節、及びブレ補正等を行い、撮像素子102に光学像を結像する。撮像素子102は、光学像を電気信号(アナログ画像信号)に変換する光電変換機能を有し、CCDやCMOSセンサ等で構成される。A/D変換部103は撮像素子102からのアナログ画像信号をデジタル画像信号に変換する。
CPU112は、デジタルカメラ100全体の制御を司るマイクロコンピュータ等で構成され、各機能ブロックに対して動作指示を行い、各種の制御処理を実行する。バス114はシステムバスであり、バス115は画像データバスである。
DRAM107は、データを記憶するメモリであり、所定枚数の静止画像、所定時間の動画像、音声等のデータや、CPU112の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える。メモリ制御部106は、CPU112或いはデータ転送部105からの指示に応じて、DRAM107へのデータ書き込み及びデータ読み出しを行う。
不揮発性メモリ制御部108は、CPU112からの指示に応じて、ROM109にデータの書き込み及び読み出しを行う。ROM109は、電気的に消去・記録可能なメモリであり、EEPROM等が用いられる。ROM109には、CPU112の動作用の定数、プログラム等が記憶される。
CPU112は、バス114を介して画像処理部104、データ転送部105、メモリ制御部106、不揮発性メモリ制御部108、表示制御部110、操作部113、撮像素子102を制御する。CPU112は、ROM109に記録されたプログラムを実行することにより、本実施形態の各処理を実現する。
表示部111は、液晶モニタ等から成り、表示制御部110により制御され、各種画像データ等を表示する。操作部113は、ユーザにより操作されるスイッチ、ボタン、及び、タッチパネル等を含み、電源のON/OFF、シャッターのON/OFF等の操作に使用される。
画像処理部104は、各種画像処理回路及びバッファメモリ等から構成されており、動きベクトル検出部116を備える。
データ転送部105は、データ転送を行う複数のDMAC(Direct Memory Access Controller)で構成されている。
図2は、動きベクトル検出部116が処理するグリッド配置、特徴点、及びテンプレート領域などの関係を示す図である。
設定されたサイズの特徴点抽出グリッド202(図2中の白色グリッド)と周辺グリッド201(図2中の網点グリッド)が、水平、垂直方向に設定された個数分配置されている。特徴点203が、各特徴点抽出グリッド202に1つ抽出される。周辺グリッド201は、特徴点抽出グリッド202の周囲に配置され、特徴点抽出は実施されないが、テンプレートマッチングで使用される領域である。抽出された特徴点203を中心として、設定されたサイズの矩形状のサーチ領域205及びテンプレート領域204が設けられる。
次に、図3及び図4を参照して、特徴点追跡処理について説明する。図3は、動きベクトル検出部116の構成を示すブロック図であり、図4は、特徴点追跡処理のフローチャートである。なお、図3においては、説明の便宜上、実際には動きベクトル検出部116に含まれないブロックであっても、特徴点追跡処理のために利用されるブロック(例えば、DRAM107)については、動きベクトル検出部116の内部に図示する。また、データの流れを分かりやすくするために、同じブロック(例えば、DRAM107)を複数の位置に図示する場合もある。画像処理部104に対する撮影画像の入力が開始すると、図4のフローチャートの処理が実行される。
S400で、CPU112は、プログラム及び操作部113からの情報に基づいて、撮影範囲において特徴点抽出処理(後述)の対象とする処理領域を設定し、設定した処理領域を動きベクトル検出部116の分割設定部360に設定する。分割設定部360は、設定された処理領域を、例えば図2に示すようなグリッドに分割する。
S401で、データ転送部105が具備するRDDMAC321は、ベクトル検出対象となる現フレームの入力画像341を、バス115を介してDRAM107から読み出す。読み出すデータ量は、S400において例えば図2に示されるように設定された特徴点抽出グリッド202及び周辺グリッド201のサイズに従う。なお、入力画像341は、画像処理部104で各種画像処理が実施されている。RDDMAC321によりグリッド単位で読み出された入力画像341は、テンプレートマッチング画像生成部301及び新規特徴点抽出部302に出力される。また、RDDMAC321は、読み出したグリッドの座標位置を示すグリッド座標情報352を後述する追跡先特徴点決定部305に出力する。
S402で、テンプレートマッチング画像生成部301は、ベクトル検出時のテンプレートマッチングに使用するテンプレートマッチング画像を生成し、データ転送部105が具備するWRDMAC331に出力する。テンプレートマッチング画像生成部301は、バンドパスフィルタ回路を含み、テンプレートマッチング処理に不要な画像信号の高周波成分と低周波成分をカットする。
S403で、データ転送部105が具備するWRDMAC331は、入力されたテンプレートマッチング画像(以下、テンプレートマッチング画像342と呼ぶ)を、バス115を介してDRAM107に書き出す。また、DRAM107には、前フレームで生成されたテンプレートマッチング画像(以下、テンプレートマッチング画像343と呼ぶ)が格納されている。
S404で、新規特徴点抽出部302は、現フレームの新規特徴点(新規の追跡対象点)を抽出する。なお、S404の処理は、S402及びS403の処理と並行して実行可能である。
ここで、図5を参照して、新規特徴点抽出部302の詳細について説明する。新規特徴点抽出部302は、特徴フィルタ部501、特徴評価部502、特徴点決定部503を含む。
特徴フィルタ部501は、バンドパスフィルタ、水平微分フィルタ、垂直微分フィルタ、平滑化フィルタなど、複数のフィルタから構成される。本実施形態においては、バンドパスフィルタが、入力画像(グリッド単位)の不要な高周波成分と低周波成分をカットする。その後、水平微分フィルタにより水平方向の微分フィルタ処理を施した信号と、垂直微分フィルタにより垂直方向の微分フィルタ処理を施した信号とが生成される。そして、各方向の微分フィルタ処理が施された信号に対して、平滑化フィルタにより平滑化フィルタ処理が施される。特徴フィルタ部501は、こうして得られた信号を、各方向の特徴画像として出力する。
特徴評価部502は、特徴フィルタ部501によりフィルタ処理された特徴画像(グリッド単位)に対し、画素ごとに、2つのエッジの交点や曲率が極大である曲線状の点など画素の周辺の微分値が多方向に大きい点を、特徴評価式により特徴値として算出する。以下、Shi and Tomasiの手法を例に、特徴値の算出について説明する。特徴評価部502は、水平微分フィルタと垂直微分フィルタを施した結果から、式1に示す自己相関行列Hを作成する。
式1においてIxは水平微分フィルタを施した結果、Iyは垂直微分フィルタを施した結果を表しており、ガウシアンフィルタGを畳み込む演算が行われる。Shi and Tomasiの特徴評価式を式2に示す。

Shi and Tomasi=min(λ1,λ2)・・・(2)

式2は、式1の自己相関行列Hの固有値λ1,λ2のうちの小さい方を特徴値とすることを示す。
特徴点決定部503は、各グリッド(特徴点の選択対象領域)について、特徴評価部502によって画素ごとに算出された特徴値のうち最も大きい特徴値Pcを持つ画素を特徴点として決定(選択)する。本実施形態においては、特徴点の座標は、グリッドの左上端を(0,0)とした相対座標(PX,PY)で表現するが、画像信号における絶対座標で表現してもよい。
なお、抽出された新規特徴点の座標(PX,PY)は、新規特徴点抽出部302が具備するメモリに格納される。メモリは、前フレーム及び現フレームの特徴点の座標(PX,PY)を格納するための容量を有している。テンプレートマッチング処理部303にて、対応するグリッドのテンプレートマッチング処理が開始される際に、新規特徴点351が追跡先特徴点決定部305へ出力される。
S405で、RDDMAC322は、前フレームで算出された追跡先特徴点357を中心として、設定されたサイズの矩形領域を、現フレームのテンプレートマッチング画像342及び前フレームのテンプレートマッチング画像343から読み出す。追跡先特徴点357は、追跡先特徴点決定部305から入力される。但し、最初にテンプレートマッチング処理を行う際には、前フレームで追跡先特徴点が算出されていないため、追跡先特徴点357の代わりに前フレームの新規特徴点351が使用される。また、後述する特定の状況下においても、追跡先特徴点357の代わりに前フレームの新規特徴点351が使用される。
なお、現フレームのテンプレートマッチング画像342から読み出される矩形領域はサーチ領域205に対応し、前フレームのテンプレートマッチング画像343から読み出される矩形領域はテンプレート領域204に対応する。サーチ領域205に対応する矩形領域の画像及びテンプレート領域204に対応する画像は、それぞれ、サーチ領域画像353及びテンプレート領域画像354として、テンプレートマッチング処理部303へ出力される。
S406で、テンプレートマッチング処理部303は、サーチ領域画像353及びテンプレート領域画像354を用いて相関値を算出し、その相関値に基づいてベクトル値を算出する。本実施形態では、相関値の算出方法として、式3に示す差分絶対値和(Sum of Absolute Difference、SAD)を使用することができる。

S_SAD=ΣΣ|f(i,j)−g(i,j)| ・・・ (3)

式3において、f(i,j)はテンプレート領域画像354内の座標(i,j)における画素値を表し、g(i,j)はサーチ領域画像353において相関値算出の対象となる領域内の対応する画素値を表す。相関値算出対象領域は、テンプレート領域画像354と同じ大きさである。そしてSADでは、両ブロック内の各画素値f(i,j)及びg(i,j)について差の絶対値を計算し、その総和を求めることで相関値S_SADを得ることができる。従って、相関値S_SADの値が小さいほど両ブロック間の輝度値の差分が小さい、つまりテンプレート領域画像354と相関値算出領域内とでテクスチャが類似していることを表している。
なお、本実施形態では、相関値の一例としてSADを使用しているが、これに限るものではなく、差分二乗和(SSD)や正規化相互相関(NCC)等の他の相関値を用いてもよい。テンプレートマッチング処理部303は、相関値の最小値の位置に基づいて、前フレームの追跡先特徴点のベクトル値を算出する。テンプレートマッチング処理部303は、ベクトル情報355(算出されたベクトル値及び相関値)を精度判定部304に出力する。
S407で、精度判定部304は、S406において算出された相関値に基づいて相関値の最大値、最小値、平均値、極小値を算出し、低コントラスト判定、画素値の最大値突出判定、及び繰り返しパターン判定を行う。
図6に、画素値と各判定の関係をグラフで示す。但し、本実施形態では相関値が小さいほど類似度が高いため、図6において、画素値の最大値は相関値では最小値を表し、画素値の最小値は相関値では最大値を表し、画素値の極大値は相関値では極小値を表す。
低コントラスト判定では、相関値算出領域内の相関値の最大値と最小値の差分が予め設定されている閾値よりも小さい場合に、相関値算出領域は低コントラストであると判定される。画素値の最大値突出判定では、相関値算出領域内の相関値の最小値がどれだけ際立っているかが判定される。画素値の最大値と平均値の差分と、画素値の最大値と最小値の差分の除算結果が、予め設定されている閾値よりも小さい場合、相関値算出領域は低ピークであると判定される。除算結果が閾値よりも大きい場合、相関値算出領域は高ピークであると判定される。繰り返しパターン判定では、相関値算出領域内の画素値の最小値と極小値の差分が予め設定されている閾値よりも小さい場合に、相関値算出領域は繰り返しパターンであると判定される。
図6(a)は、各判定の結果が良好な場合を示す。図6(b)は、低コントラスト判定により相関値算出領域が低コントラストであると判定される場合を示す。図6(a)に比べて、図6(b)では画素値の最大値と最小値の差が小さい。図6(c)は、画素値の最大値突出判定により相関値算出領域が低ピークであると判定される場合を示す。図6(a)に比べて、図6(c)では画素値の最大値と平均値の差分と、画素値の最大値と最小値の差分の除算結果が小さい。図6(d)は、繰り返しパターン判定により相関値算出領域が繰り返しパターンであると判定される場合を示す。図6(a)に比べて、図6(d)では画素値の最大値と極大値の差分が小さい。
S408で、精度判定部304は、低コントラスト判定、最大値突出判定、及び繰り返しパターン判定の判定結果を含むベクトル情報356をSRAM306に出力する。ベクトル情報356は、ベクトルデータ344としてSRAM306に格納される。
S409で、追跡先特徴点決定部305は、前フレームの追跡先特徴点357及びベクトルデータ344に基づいて、次フレームのテンプレートマッチング処理に用いるための、現フレームの追跡先特徴点を算出する。ここで算出された追跡先特徴点は、次にS405においてテンプレートマッチング処理が実行される際に、前フレームの追跡先特徴点357として使用される。なお、S409の処理の詳細については、図7を参照して後述する。
以上の処理により、現フレームのテンプレートマッチング処理(即ち、現フレームにおいて前フレームの特徴点を追跡する処理)が完了する。その後、画像処理部104に次フレームの撮影画像が入力されると、次フレームの画像を現フレームの画像として、S401〜S409の処理が再び実行される。従って、図4では、基準となる所定の撮影画像(例えば、最初の撮影画像)の後に撮影される1以上の撮影画像にわたって特徴点を追跡する処理が行われる。
次に、図7を参照して、S409の処理の詳細について説明する。S701で、追跡先特徴点決定部305は、SRAM306からベクトルデータ344を取得する。そして、追跡先特徴点決定部305は、前フレームの追跡先特徴点357の座標に対してベクトルデータ344が示すベクトル値を加算することにより、現フレームの追跡先特徴点の座標を算出する。なお、S701及び続くS702〜S705の処理は、追跡先特徴点ごとに実行される。
S702で、追跡先特徴点決定部305は、ベクトルデータ344に含まれる判定結果(S407の判定結果)に基づき、S701で算出された追跡先特徴点が有効であるか否か(次フレームのテンプレートマッチング処理に使用可能であるか否か)を判定する。低コントラスト判定により相関値算出領域が低コントラストであると判定された場合、追跡先特徴点は有効でないと判定される。また、最大値突出判定で相関値算出領域が低ピークであると判定された場合、及び、繰り返しパターン判定で相関値算出領域が繰り返しパターンであると判定された場合にも、追跡先特徴点は有効でないと判定される。それ以外の場合には、追跡先特徴点は有効であると判定される。追跡先特徴点が有効である場合、処理はS703に進み、追跡先特徴点が有効でない場合、処理はS704に進む。
S703で、追跡先特徴点決定部305は、S701で算出された追跡先特徴点が撮影範囲の内部に含まれるか否かを判定する。S701で算出された追跡先特徴点が撮影範囲の内部に含まれる場合、処理はS705に進み、そうでない場合、処理はS704に進む。
S704で、追跡先特徴点決定部305は、S701で算出された追跡先特徴点を、図4のS404で算出された現フレームの新規特徴点で置き換える。即ち、S702又はS703で「NO」と判定された場合、追跡先特徴点決定部305は、特徴点の追跡に失敗したと判断し、前フレームの追跡先特徴点を代替する新たな特徴点を現フレームにおいて選択する。この時、追跡先特徴点決定部305は、S404で算出された複数の新規特徴点のうち、追跡に失敗した特徴点が最初に算出された特徴点抽出グリッドにおいて算出された新規特徴点を、追跡に失敗した特徴点を代替する新たな特徴点として選択する。例えば、最初の撮影画像の特定の特徴点抽出グリッドにおいて算出された特定の特徴点について、後続の特定の撮影画像において追跡に失敗した場合を考える。この場合、この特定の撮影画像を現フレームとして用いるS404の処理によりこの特定の特徴点抽出グリッドにおいて算出された新規特徴点が、追跡に失敗したこの特定の特徴点を代替する。
S705で、追跡先特徴点決定部305は、全ての追跡先特徴点が処理されたか否かを判定する。全ての追跡先特徴点が処理された場合、本フローチャートの処理は完了する。未処理の追跡先特徴点が残っている場合、次の未処理の追跡先特徴点について、同様にS701以降の処理が行われる。
次に、図8及び図9を参照して、移動被写体がフレームインするタイミングの前後の期間における撮影のための、手ぶれ補正に利用可能な特徴点追跡処理について説明する。この期間において、複数の撮影画像が撮像素子102により順次撮像される。
図8(a)〜(e)は、撮影範囲の特定の領域に対して移動被写体がフレームインするシーンを撮影する際の動きベクトル検出部116の処理を時系列に示した模式図である。また、図9は、図8のようなシーンにおける動きベクトル検出部116の処理を示すフローチャートである。
S901で、図8(a)〜(e)に示すような移動被写体がフレームインしてくるシーンを撮影することを望むユーザは、操作部113を用いて、移動被写体に対する防振を優先的に行う撮影モードに設定する操作を行う。CPU112は、ユーザによる操作に応じて、移動被写体に対する防振を優先的に行う撮影モードに設定する。
S902で、ユーザは、操作部113を用いて、例えば図8(b)に示すような被写体フレームイン領域801を指定する。被写体フレームイン領域801は、移動被写体がフレームインしてくるとユーザが期待する領域であり、撮影範囲の一部の領域である。この際に、ユーザは、矩形領域の水平・垂直サイズ及び位置を指定する。操作部113による指定は、方向キーなどのボタンによるものであってもよいし、タッチパネルによるものでもあってもよい。図8(b)から理解できるように、被写体フレームイン領域801の指定は、撮影画像が表示された状態で実行可能である。
S903の処理は、図4のS400において処理領域がS902の指定領域に対応する場合に相当する。即ち、CPU112は、S902における指定領域に対応する処理領域を分割設定部360に設定し、分割設定部360は、予め設定されたグリッド分割数に基づき、処理領域をグリッド(分割領域)に分割する。その結果、図8(c)に示すような、動きベクトル検出部116で処理する分割処理領域802が設定される。例えば、水平方向及び垂直方向のグリッド分割数は、サイズの大きい方向に多くなるように設定されるなど、ユーザの入力に応じて自動で設定される。なお、ここで分割処理領域802は、前述した特徴点抽出グリッド202のみを表記したものであり、周辺グリッド201の表記は割愛している。
S904で、動きベクトル検出部116は、図4のS401〜S404の処理に従って、テンプレートマッチング画像の用意と、各グリッド(分割処理領域802)における新規特徴点の抽出(選択)とを行う。
S905で、動きベクトル検出部116は、図4のS405〜S408の処理に従って、基準フレーム(第1の撮影画像)と基準フレームの次に撮影されたフレーム(第2の撮影画像)との間で、基準フレームの特徴点に関するベクトル検出処理を行う。なお、S905のベクトル検出処理では、精度判定部304は、ベクトル情報356を、SRAM306に加えて被写体検知部307に出力する。また、S905のベクトル検出処理では、追跡先特徴点算出処理(図4のS409)は行われない。従って、後述するS906からS904へ処理が戻った場合、次フレームについても、新規特徴点抽出部302が出力する新規特徴点351に関するベクトル検出処理が行われる。これにより、移動被写体のフレームイン前においては、背景のベクトル情報に基づいた背景防振がなされることになる。
S906で、被写体検知部307は、精度判定部304により出力されたベクトル情報356に基づいて、被写体フレームイン領域801に移動被写体がフレームインしたか否か(出現したか否か)を判定する。移動被写体のフレームイン前は、図8(c)に示すように、取得されるベクトル情報は背景のベクトル情報803、つまりユーザの撮影による手ぶれ成分が支配的となる。一方、図8(d)に示すように移動被写体804がフレームインすると、移動被写体804のベクトル情報805が取得される。移動被写体804のベクトル情報805は、背景のベクトル情報803に比べて大きな値を持ち、その方向も同一方向に揃う傾向にある。被写体検知部307は、背景のベクトル情報803が支配的なフレームから移動被写体804のベクトル情報805が支配的なフレームへの切り替わりを検知することで、移動被写体のフレームインを検知する。被写体検知部307による検知結果315は、分割設定部360、及び追跡先特徴点決定部305に出力される。S906において移動被写体のフレームインが検知された場合、処理はS907に進む。
S906において移動被写体のフレームインが検知されなかった場合、処理はS904に戻り、次のフレームについてS904〜S906の処理が行われる。即ち、デジタルカメラ100は、移動被写体がフレームインしたと判定されるまでは、複数の撮影画像の各々を撮影順に基準フレームとして、S904〜S906の処理(第1の処理セット)を繰り返し実行する。この繰り返しにおいて、各回のベクトル検出処理(S905)における追跡対象(ベクトル検出対象)の特徴点は、基準フレームの処理領域に基づいて各グリッドから1つずつ新たに抽出(選択)された特徴点である。また、S906の判定は、直前の繰り返しにおいて検出された各特徴点の動きベクトルと現在の繰り返しにおいて検出された各特徴点の動きベクトルとの相違に基づいて行われる。なお、最初のフレームの処理時には比較対象となる前フレームのベクトル情報が存在しないため、S906の判定は行われず、処理はS904に戻る。また、デジタルカメラ100は、動きベクトルを用いない方法(例えば、画像認識処理)によりS906の判定を行ってもよい。
S907で、分割設定部360は、図8(e)に示すように、動きベクトル検出部116の処理領域を撮影範囲全体に拡大してグリッドに分割する。これにより、分割処理領域806が設定される。処理領域のグリッド分割数は、処理性能に応じて予め決定されているため、拡大の前後で変化しない。また、ここで分割処理領域806は、前述した特徴点抽出グリッド202のみを表記したものであり、周辺グリッド201の表記は割愛している。なお、S907において新たに設定される処理領域は、S903において設定される処理領域よりも広ければ、撮影範囲の全体ではなく一部であってもよい。
S908で、動きベクトル検出部116は、S409の処理に従って、追跡先特徴点357を決定する。なお、分割処理領域806は撮影範囲全体(画面全体)に設定されているため、特徴点の追跡に失敗した場合(図7のS702又はS703でNOと判定された場合)にS704で採用される新規特徴点は、画面全体から抽出したものから選択されることになる。
S909で、動きベクトル検出部116は、図4のS401〜S404の処理に従って、テンプレートマッチング画像の用意と、各グリッド(分割処理領域806)における新規特徴点の抽出とを行う。ここで抽出された新規特徴点は、次にS908の追跡先特徴点算出処理が行われた際に特徴点の追跡に失敗した場合に使用される。
S910で、動きベクトル検出部116は、図4のS405〜S408の処理に従って、S908の追跡先特徴点に関するベクトル検出処理を行う。S910のベクトル検出処理は、S905と異なり、追跡先特徴点決定部305が出力した追跡先特徴点357に基づいて行われる。これにより、被写体のフレームイン検知後は、図8(e)に示すように移動被写体804のベクトル情報を継続して取得し続けることになる。
S911で、CPU112は、撮影終了か否かを判定する。撮影終了の場合、本フローチャートの処理は終了する。撮影終了でない場合、処理はS908に戻り、次のフレームについてS908〜S910の処理と、それに続くS911の判定とが行われる。即ち、デジタルカメラ100は、移動被写体がフレームインしたと判定された後は、複数の撮影画像の各々を撮影順に基準フレームとして、S908〜S910の処理(第2の処理セット)を繰り返し実行する。この繰り返しにおいて、各回のベクトル検出処理(S910)における追跡対象(ベクトル検出対象)の特徴点として、直前の繰り返しにおいて検出された各特徴点の動きベクトルが示す各特徴点の移動先が選択される(S908)。但し、直前の繰り返しにおいて特定の特徴点の有効な動きベクトルが検出されない場合がある。この場合、現在の繰り返しにおいて、動きベクトル検出部116は、特定の特徴点の移動先の代わりとなる特徴点を、基準フレームの処理領域に基づいて、処理領域の中から選択する。
なお、図9によれば、移動被写体のフレームイン後に最初に行われるベクトル検出処理(S910)が行われる前に、追跡先特徴点算出処理(S908)が行われる。従って、移動被写体のフレームイン後に最初に行われるベクトル検出処理(S910)の特徴点は、移動被写体のフレームイン時のベクトル検出処理(S905)の特徴点の移動先である。即ち、図9によれば、移動被写体のフレームインが検知されると直ちに、ベクトル検出処理の対象となる特徴点が新規特徴点から移動先(追跡先)の特徴点へと切り替えられる。しかしながら、切り替えのタイミングは、図9に示すタイミングよりも1フレーム後であってもよい。この場合、移動被写体のフレームイン後に最初に実行されるS908の処理において、動きベクトル検出部116は、図4のS404の処理に従って、基準フレームの新規特徴点を抽出する。また、移動被写体のフレームイン後に最初に実行されるS910の処理において、動きベクトル検出部116は、S908で抽出された新規特徴点について、ベクトル検出処理を行う。また、S907の処理は、移動被写体のフレームイン後に新規特徴点が抽出された後に、1回だけ実行される。
以上説明したように、第1の実施形態によれば、デジタルカメラ100は、移動被写体がフレームインしたと判定されるまでは、複数の撮影画像の各々を撮影順に基準フレームとして、S904〜S906の処理(第1の処理セット)を繰り返し実行する。この繰り返しにおいて、各回のベクトル検出処理(S905)における追跡対象(ベクトル検出対象)の特徴点は、基準フレームの処理領域に基づいて各グリッドから1つずつ新たに抽出(選択)された特徴点である。また、デジタルカメラ100は、移動被写体がフレームインしたと判定された後は、複数の撮影画像の各々を撮影順に基準フレームとして、S908〜S910の処理(第2の処理セット)を繰り返し実行する。この繰り返しにおいて、各回のベクトル検出処理(S910)における追跡対象(ベクトル検出対象)の特徴点として、直前の繰り返しにおいて検出された各特徴点の動きベクトルが示す各特徴点の移動先が選択される(S908)。これにより、撮影途中にフレームインする移動被写体に対応する特徴点をより多く追跡することが可能となる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…デジタルカメラ、102…撮像素子、104…画像処理部、107…DRAM、109…ROM、111…表示部、112…CPU、113…操作部、116…動きベクトル検出部

Claims (13)

  1. 撮影範囲の一部に第1の処理領域を設定する設定手段と、
    複数の撮影画像のうちの第1の撮影画像において複数の追跡対象点を選択する選択手段と、
    前記第1の撮影画像と前記第1の撮影画像の次に撮影された第2の撮影画像との間で、各追跡対象点の動きベクトルを検出する検出手段と、
    前記第1の処理領域に移動被写体が出現したか否かを判定する判定手段と、
    前記複数の撮影画像の各々を撮影順に前記第1の撮影画像として、前記第1の処理領域に前記移動被写体が出現したと判定されるまでは、前記選択手段による選択と前記検出手段による検出と前記判定手段による判定とを含む第1の処理セットを繰り返し実行し、前記第1の処理領域に前記移動被写体が出現したと判定された後は、前記選択手段による選択と前記検出手段による検出とを含む第2の処理セットを繰り返し実行するように制御する制御手段と、
    を備え、
    前記第1の処理セットにおいて、前記選択手段は、前記第1の撮影画像の前記第1の処理領域に基づいて、前記第1の処理領域の中から前記複数の追跡対象点を選択し、
    前記第2の処理セットにおいて、前記選択手段は、直前の第2の処理セットにおいて検出された各追跡対象点の前記動きベクトルが示す各追跡対象点の移動先を、現在の第2の処理セットのための前記複数の追跡対象点として選択する
    ことを特徴とする画像処理装置。
  2. 前記第1の処理セットにおいて、前記判定手段は、直前の第1の処理セットにおいて検出された各追跡対象点の前記動きベクトルと現在の第1の処理セットにおいて検出された各追跡対象点の前記動きベクトルとの相違に基づいて、前記第1の処理領域に前記移動被写体が出現したか否かを判定する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記第1の処理領域の中に複数の分割領域を設定し、
    前記第1の処理セットにおいて、前記選択手段は、前記第1の処理領域の各分割領域から1つずつ前記追跡対象点を選択する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記設定手段は、前記撮影範囲の中に前記第1の処理領域よりも広い第2の処理領域を設定し、
    直前の第2の処理セットにおいて特定の追跡対象点について有効な動きベクトルが検出されなかった場合、現在の第2の処理セットにおいて、前記選択手段は、当該特定の追跡対象点の移動先の代わりとなる追跡対象点を、前記第1の撮影画像の前記第2の処理領域に基づいて、前記第2の処理領域の中から選択する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第2の処理領域は、前記撮影範囲の全体である
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1の処理セットの次に実行される前記第2の処理セットにおいて、前記選択手段は、直前の第1の処理セットにおいて検出された各追跡対象点の前記動きベクトルが示す各追跡対象点の移動先を、現在の第2の処理セットのための前記複数の追跡対象点として選択する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記第1の処理セットの次に実行される前記第2の処理セットにおいて、前記選択手段は、前記第1の撮影画像の前記第1の処理領域に基づいて、前記第1の処理領域の中から前記複数の追跡対象点を選択する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  8. 撮像手段の撮影範囲の一部に第1の処理領域を設定する設定手段と、
    前記撮像手段で順次撮像された複数の撮影画像に対して前記第1の処理領域で特徴点の算出を行う算出手段と、
    前記特徴点に基づいて前記第1の処理領域に移動被写体が検出されるまで、前記複数の撮影画像に対して前記第1の処理領域で前記特徴点の算出を繰り返し、該移動被写体が検出されたことに応じて、算出された特徴点を追跡する処理を行う制御手段と、
    を有することを特徴とする画像処理装置。
  9. 前記制御手段は、前記移動被写体が検出されたことに応じて前記第1の処理領域よりも大きい第2の処理領域において、前記特徴点を追跡する
    ことを特徴とする請求項8に記載の画像処理装置。
  10. 前記撮像手段により撮像された画像を表示部に表示する表示制御手段と、
    前記表示部に前記撮像手段により撮像された画像が表示された状態で前記第1の処理領域を指示する指示手段と、
    を更に有することを特徴とする請求項8又は9に記載の画像処理装置。
  11. 請求項1乃至10のいずれか1項に記載の画像処理装置と、
    前記複数の撮影画像を生成する撮像手段と、
    を備えることを特徴とする撮像装置。
  12. 画像処理装置が実行する画像処理方法であって、
    撮影範囲の一部に第1の処理領域を設定する設定工程と、
    複数の撮影画像のうちの第1の撮影画像において複数の追跡対象点を選択する選択工程と、
    前記第1の撮影画像と前記第1の撮影画像の次に撮影された第2の撮影画像との間で、各追跡対象点の動きベクトルを検出する検出工程と、
    前記第1の処理領域に移動被写体が出現したか否かを判定する判定工程と、
    前記複数の撮影画像の各々を撮影順に前記第1の撮影画像として、前記第1の処理領域に前記移動被写体が出現したと判定されるまでは、前記選択工程による選択と前記検出工程による検出と前記判定工程による判定とを含む第1の処理セットを繰り返し実行し、前記第1の処理領域に前記移動被写体が出現したと判定された後は、前記選択工程による選択と前記検出工程による検出とを含む第2の処理セットを繰り返し実行するように制御する制御工程と、
    を備え、
    前記第1の処理セットにおいて、前記選択工程は、前記第1の撮影画像の前記第1の処理領域に基づいて、前記第1の処理領域の中から前記複数の追跡対象点を選択し、
    前記第2の処理セットにおいて、前記選択工程は、直前の第2の処理セットにおいて検出された各追跡対象点の前記動きベクトルが示す各追跡対象点の移動先を、現在の第2の処理セットのための前記複数の追跡対象点として選択する
    ことを特徴とする画像処理方法。
  13. コンピュータを、請求項1乃至10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018080161A 2018-04-18 2018-04-18 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP7129201B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018080161A JP7129201B2 (ja) 2018-04-18 2018-04-18 画像処理装置、撮像装置、画像処理方法、及びプログラム
US16/385,795 US10880457B2 (en) 2018-04-18 2019-04-16 Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018080161A JP7129201B2 (ja) 2018-04-18 2018-04-18 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019191661A true JP2019191661A (ja) 2019-10-31
JP7129201B2 JP7129201B2 (ja) 2022-09-01

Family

ID=68236064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080161A Active JP7129201B2 (ja) 2018-04-18 2018-04-18 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10880457B2 (ja)
JP (1) JP7129201B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111479063B (zh) * 2020-04-15 2021-04-06 上海摩象网络科技有限公司 云台驱动方法、设备及手持相机
CN112991393A (zh) * 2021-04-15 2021-06-18 北京澎思科技有限公司 目标检测与跟踪方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016544A (ja) * 2008-07-02 2010-01-21 Nikon Corp 撮像装置および画像処理装置、並びに画像処理プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136518B2 (en) * 2003-04-18 2006-11-14 Medispectra, Inc. Methods and apparatus for displaying diagnostic data
KR20060119707A (ko) * 2004-02-13 2006-11-24 소니 가부시끼 가이샤 화상 처리 장치와 화상 처리 방법 및 프로그램
JP2007334625A (ja) 2006-06-15 2007-12-27 Sony Corp 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置
CN101231755B (zh) * 2007-01-25 2013-03-06 上海遥薇(集团)有限公司 运动目标跟踪及数量统计方法
JP4775277B2 (ja) 2007-02-07 2011-09-21 株式会社デンソー 画像処理装置及び画像処理方法
JP4507129B2 (ja) * 2008-06-06 2010-07-21 ソニー株式会社 追尾点検出装置および方法、プログラム、並びに記録媒体
TWI334393B (en) * 2008-10-07 2010-12-11 Ind Tech Res Inst Image-based vehicle maneuvering assistant method and system
JP5644097B2 (ja) * 2009-12-08 2014-12-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP4763863B1 (ja) * 2009-12-28 2011-08-31 パナソニック株式会社 関節状領域検出装置およびその方法
JP2012073997A (ja) 2010-09-01 2012-04-12 Ricoh Co Ltd 物体追尾装置、物体追尾方法およびそのプログラム
CN102890824B (zh) * 2011-07-19 2015-07-29 株式会社东芝 运动对象轮廓跟踪方法和装置
WO2013145589A1 (ja) * 2012-03-26 2013-10-03 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
JP6759550B2 (ja) * 2015-03-04 2020-09-23 ソニー株式会社 情報処理装置、プログラム、情報処理方法及び観察システム
JP6727791B2 (ja) * 2015-11-05 2020-07-22 キヤノン株式会社 追尾制御装置および追尾制御方法、撮像装置
JP6671994B2 (ja) * 2016-02-02 2020-03-25 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
JP6752024B2 (ja) * 2016-02-12 2020-09-09 日立オートモティブシステムズ株式会社 画像処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016544A (ja) * 2008-07-02 2010-01-21 Nikon Corp 撮像装置および画像処理装置、並びに画像処理プログラム

Also Published As

Publication number Publication date
US10880457B2 (en) 2020-12-29
JP7129201B2 (ja) 2022-09-01
US20190327390A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP6271990B2 (ja) 画像処理装置、画像処理方法
KR20200041981A (ko) 이미지 처리 방법, 기기, 및 장치
JP6472183B2 (ja) 画像処理装置、その制御方法、プログラム
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JP2020053774A (ja) 撮像装置および画像記録方法
JP7117872B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP7129201B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20200267319A1 (en) Image processing apparatus that detects motion vectors, method of controlling the same, and storage medium
JP6576179B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021128537A (ja) 画像処理装置および画像処理方法、プログラム並びに記憶媒体
JP7077115B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2019192048A (ja) 撮像装置
JP2010154323A (ja) 画像処理装置、画像抽出方法、および、プログラム
JP2018072941A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP6381212B2 (ja) 撮像装置及びその制御方法
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
JP7324066B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP5928024B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2022099120A (ja) 被写体追尾装置およびその制御方法
JP2017220834A (ja) 撮像装置、撮像方法およびプログラム
JP2021107976A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022160333A (ja) 画像処理装置および画像処理装置の制御方法
JP2021180407A (ja) 電子機器

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R151 Written notification of patent or utility model registration

Ref document number: 7129201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151