JP2010074815A - 画像処理装置、画像処理方法、および、プログラム - Google Patents

画像処理装置、画像処理方法、および、プログラム Download PDF

Info

Publication number
JP2010074815A
JP2010074815A JP2009155684A JP2009155684A JP2010074815A JP 2010074815 A JP2010074815 A JP 2010074815A JP 2009155684 A JP2009155684 A JP 2009155684A JP 2009155684 A JP2009155684 A JP 2009155684A JP 2010074815 A JP2010074815 A JP 2010074815A
Authority
JP
Japan
Prior art keywords
tracking target
image
area
tracking
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009155684A
Other languages
English (en)
Other versions
JP5279635B2 (ja
Inventor
Yasuyoshi Miyazaki
康嘉 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009155684A priority Critical patent/JP5279635B2/ja
Priority to KR1020090071184A priority patent/KR101206389B1/ko
Priority to US12/539,036 priority patent/US8284994B2/en
Priority to CN2009101629772A priority patent/CN101656830B/zh
Priority to EP09168333.4A priority patent/EP2157547B1/en
Publication of JP2010074815A publication Critical patent/JP2010074815A/ja
Application granted granted Critical
Publication of JP5279635B2 publication Critical patent/JP5279635B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】 フレーム画像間の相関に基づいて追尾処理を行う画像処理装置において、追尾対象となる被写体を見失った場合に、追尾対象を示す枠が一様な背景に設定されてしまうと、追尾枠の表示がふらついてしまうことがある。
【解決手段】 設定された追尾対象領域と最も相関の高い追尾対象候補領域を検出し、この追尾対象候補領域から得られる評価値と、その周辺領域の評価値の差分を求め、その差分が閾値未満であれば、追尾を停止する。
【選択図】 図2

Description

本発明は、画像間の相関を求めることで被写体を追尾する技術に関するものである。
撮影している画像をリアルタイムでモニターに表示し、操作者がこのモニターに表示された動画上の領域を指定することで、その領域に存在する被写体に対して露出制御や合焦制御を行うデジタルカメラやビデオカメラがある。
また、モニターに表示された動画上の任意の被写体を操作者に指定させることで、追尾対象となる主被写体を指定し、指定された被写体を追尾するデジタルカメラやビデオカメラがある。動画のフレーム画像間で相関演算を行って、主被写体として初期指定された被写体と類似する領域を検出する処理を時系列で連続して行うことで、初期指定した主被写体を追尾し続けることが可能となる(例えば、特許文献1を参照)。
特開2008−011497号公報
しかしながら、追尾対象である被写体の動きが大きいと、同じ被写体であってもフレーム画像間で共通する部位が減少し、同じ被写体として認識できず、追尾に失敗してしまうことがある。
図4を用いて、例を説明する。図4(a)から(c)において、太線で示された四角形の枠が、操作者に指定された被写体、あるいは、追尾処理にて検出された主被写体の領域を示す追尾枠である。この追尾枠は、操作者に指定された被写体(この例では人物の顔)が枠内に収まるように、指定された被写体よりもやや大きめに設定されている。
例えば、図4(a)では、相関演算によって、主被写体として初期指定された人物の顔の追尾に成功しているものとする。この人物が急に素早く移動すると、図4(b)に示すように、この人物の像が大きくぶれてしまう。図4(a)に示す追尾枠の中には、人物の背景も一部含まれているため、図4(b)に示すフレーム画像では、この人物よりも背景のほうが最も相関の高い領域であると判定されてしまい、背景が新たな主被写体の領域として選択されてしまっている。
ここで、低い相関の領域しか検出されなかった場合には、主被写体を見失ったと判定する方法も考えられる。しかしながら、主被写体の姿勢が変わったり、向きが変わったりすると、画像中に主被写体が存在していたとしても、必ずしも高い相関を得られるとは限らない。そこで、被写体がある程度変化しても追尾できるようにするためには、画像中に低い相関の領域しか存在しなくとも、その中で最も相関の高い領域を主被写体として選択することが望ましい。
しかしながら、その結果、図4(b)に示すように、背景の一部が新たな主被写体の領域として選択されるケースも生じうる。この背景がコントラストの低い一様な物体であるとすると、その周辺には似たような領域が多く存在する。そのため、図4(c)に示すように、追尾枠がその周辺の領域を動き回り、追尾枠がふらついて見えてしまうことになる。
本発明は、上記課題に鑑みてなされたものであり、追尾処理において追尾対象となる被写体を見失った場合に、追尾対象を示す枠等の表示がふらついてしまうことを抑制することに関する。
上記課題を解決するため、本願発明は、動画を構成するいずれかのフレーム画像である第1画像において設定された追尾対象領域に存在する被写体を、別のフレーム画像である第2画像において検出することで、追尾処理を行う画像処理装置において、前記第1画像から追尾対象領域を設定する設定手段と、前記第2画像から、前記設定手段にて設定された追尾対象領域と最も相関の高い追尾対象候補領域を検出する追尾手段と、前記追尾対象候補領域から得られる評価値と、前記追尾対象候補領域の周辺領域の評価値の差分を求める判定手段と、前記差分が閾値以上であれば、前記追尾対象候補領域を前記追尾対象領域として更新し、前記差分が閾値未満であれば、前記追尾対象領域をリセットする制御手段と、を有することを特徴とするものである。
また、同様に上記課題を解決するため、本願発明は、動画を構成するいずれかのフレーム画像である第1画像において設定された追尾対象領域に存在する被写体を、別のフレーム画像である第2画像において検出することで、追尾処理を行う画像処理方法において、前記第1画像から追尾対象領域を設定する工程と、前記第2画像から、前記追尾対象領域と最も相関の高い追尾対象候補領域を検出する工程と、前記追尾対象候補領域から得られる評価値と、前記追尾対象候補領域の周辺領域の評価値の差分を求める判定する工程と、前記差分が閾値以上であれば、前記追尾対象候補領域を前記追尾対象領域として更新し、前記差分が閾値未満であれば、前記追尾対象領域をリセットする工程と、を有することを特徴とするものである。
本願発明によれば、画像間の相関を用いて追尾処理において、追尾対象となる被写体を見失った場合に、追尾対象を示す枠等の表示がふらついてしまうことを抑制することができる。
本発明の実施形態にかかるデジタルカメラの機能構成を示すブロック図である。 本発明の実施形態にかかる追尾処理のフローチャートを示す図である。 本発明の実施形態において、一様な背景に追尾対象候補領域が設定されたために、追尾処理が停止される様子を説明するための図である。 従来の追尾枠の更新方法を説明するための図である。
以下に、本願発明の好適な実施形態について、図面を用いて説明を行う。
本発明の実施形態では、画像処理装置として、デジタルカメラを用いた例をあげて説明する。
図1は、本実施形態に係るデジタルカメラの機能構成を示すブロック図である。
操作部101は、操作者がデジタルカメラに対して各種の指示を入力するために操作するスイッチやボタンなどにより構成されている。操作部101の中には、シャッタースイッチも含まれており、このシャッタースイッチが半押しの場合には信号SW1が発生し、操作部101から制御部102に対して信号SW1が送信される。また、シャッタースイッチが全押しされている場合には信号SW2が発生し、操作部101から制御部102に対して信号SW2が送信される。
制御部102は、図1に示す各部の動作を制御するものであり、操作部101からの指示に応じて各部を制御する。
撮像素子103は、レンズ108a、露出機構109aを介して入射される光を受け、その光量に応じた電荷を出力するものである。光電変換機能を備えたCCDやCMOSセンサーが用いられる。
A/D変換部104は、撮像素子103から出力されたアナログ画像信号に対して、サンプリング、ゲイン調整、A/D変換等を行い、ディジタル画像信号として出力する。
画像処理部105は、A/D変換部104から出力されたディジタル画像信号に対して各種の画像処理を行い、処理済みのディジタル画像信号を出力する。例えば、A/D変換部104から受けたディジタル画像信号を、YUV画像信号に変換して出力する。
顔検出部106は、A/D変換部104から受けたディジタル画像信号から、顔検出を行い、この領域に係る情報を制御部102に通知する。前記顔検出によって得られる情報には、撮像素子画面内の遮光領域に現れる輝度より位置、範囲、信頼度(顔の形としての確からしさ)などがある。
モニター部107は、小型液晶画面などにより構成されており、画像処理部105による処理済みの画像データに従った画像を表示する。
追尾処理部115は、フレーム画像間の相関から、あるフレーム画像から検出された顔の同一とみなせる領域が、それよりも後のフレーム画像のどこに存在しているかを判別し、その領域の位置、範囲、量を算出する。ここでは角速度センサを用いてカメラ自体の動きも算出する。本実施形態では、時系列的に並んだ2枚の画像を比較し、その差分情報から同一の顔領域とみなせる領域を抽出する。追尾処理部115は同一の顔領域とみなせる領域を連続して抽出することで、顔検出部106にて検出された顔領域の追尾を行う。
判定部116は、追尾処理部115から相関演算による評価値を取得し、これより現在の枠の状態が被写体にいるか、背景一様面にいるかを判定する。この判断方法が本実施形態の大きな特徴であり、後に詳細に説明する。
画像処理部105によって取得された画像から得られたAF評価値に基づいて、AF処理部108は被写体にピントを合わせるべくレンズ108aを動作させる。また、画像処理部105によって取得された画像から得られた測光値に基づいて、AE処理部109は画面が最適な輝度になるように露出機構109aを動作させる。
AF処理部108とAE処理部109は、制御部102が信号SW1なる信号の通知をシャッタースイッチから受けると、その時点における最新の画像を用いて合焦制御と露出制御を行う。
制御部102は、シャッタースイッチからSW2なる信号の通知(即ち、シャッタースイッチの全押しの通知)を受けると、フラッシュを発光するか否かの判断を行う。フラッシュを発光するか否かは、操作部101を用いて予め設定しておき、その設定データを読み取ることで判断するようにしても良いし、また周囲の暗さを検知し自動的に判断するようにしても良い。
この判断の結果、フラッシュの発光を行う場合には、制御部102はEF処理部110を制御し、フラッシュ部111にプリ発光を行わせ、発光量の算出を行う。そして、プリ発光により計算された本発光量でフラッシュ部111を発光させ、本撮影を行う。
フォーマット変換部112は、画像処理部105から出力された本撮影時のディジタル画像信号(画像データ)のフォーマットをJPEGなどのフォーマットに変換し、画像記録部113に出力する。画像記録部113は、フォーマット変換部112から受けたフォーマット変換済みの画像データを、本デジタルカメラ内の不図示のメモリや、本デジタルカメラに挿入されている外部メモリなどに記録する処理を行う。
外部接続部114は、本デジタルカメラをパーソナルコンピュータ(PC)やプリンタといった外部装置に接続するためのインターフェースとして機能するものである。
次に、一様面判定により、正常に被写体を追尾できているか否か、すなわち動体追尾を停止するか否かの判断を行う際の制御について説明する。
図2は、本実施形態における追尾処理のフローチャートを示す。デジタルカメラが撮影モードに設定されると、このフローチャートが開始されるものとする。
ステップS201において、デジタルカメラが撮影モードに設定されると、シャッターが開き、撮像素子103には、レンズ108a、露出機構109aを介して光が入光することになる。撮像素子103にて連続して生成されたフレーム画像は、操作者が被写体の状況をリアルタイムで観察するための動画としてモニター部107に表示される。
ステップS202にて、制御部102は、動画に対して評価測光(例えば、中央重点測光)を行い、露出制御を行う。
ステップS203にて、制御部102は、最新のフレーム画像を読み出して顔検出部106に送り、顔検出部106がフレーム画像から顔領域の検出を行う。顔領域の検出方法としては、例えば、目、鼻、口等の顔を構成する部位の特徴点を利用する方法が適用できる。例えば、予めカメラ内部に記憶しておいた目、鼻、口等の標準パターンとその特徴(形状は配置)が一致する部位が多く、かつ、それらをバランス良く配置した領域が顔領域であると推定する。
顔領域が複数検出された場合には、複数の顔領域全てを追尾対象領域としてもよいし、顔の位置、大きさ、顔としての信頼度(標準パターンとの一致度)にそれぞれポイントを設け、最もポイントの高い1つの顔のみを追尾対象領域としてもよい。あるいは、撮影者に操作部101を操作させて、複数の顔領域の中のいずれかを選択させるようにしてもよい。そして、追尾対象領域の位置と大きさがわかるように、動画に対して追尾枠を重畳表示させる。さらに追尾対象領域に相当する画像データを、追尾処理における基準画像データとするために追尾処理部115に送信する。
その様子を図3(a)に示す。図3(a)はモニター部107に表示された画像を示しており、検出された顔領域に対して太線で示された追尾枠が重畳表示されている。この追尾枠は検出された顔領域が完全に中に含まれるように、顔領域よりもやや大きめに設定されている。
ステップS204では、制御部102は、ステップS203で顔領域を検出することができたか否かを判定し、検出できていればステップS205へ、検出できていなければステップS209へ進む。
ステップS205では、制御部102は、新たにフレーム画像を読み出し、このフレーム画像に対して追尾処理を行う。
追尾処理部115は、まず新たに読み出したフレーム画像から大きさや座標をずらしながら部分領域を切出し、切出した領域の輝度、色差、コントラストなどの情報から、その切出した領域の評価値を求める。
ステップS206では、追尾処理部115は、先に得られた基準画像データから得られた評価値と、全ての切出した領域の評価値を比較し、この対象領域の中から基準画像データと最も相関が高いと判断された領域を追尾対象候補領域として設定する。
その様子を図3(b)に示す。顔領域が検出された人物の移動が早く、人物の像がぶれてしまったことで、図3(a)に示す追尾枠で囲まれた領域と最も相関の高い追尾対象候補領域として、点線枠で示された背景が選択されてしまっている。
ステップS207では、判定部116が、設定された追尾対象候補領域を中心として、左上、右上、左下、右下の4箇所に追尾対象候補領域をスライドさせた4つの周辺領域を設定し、それら周辺領域の評価値を求める。スライドさせる量としては、例えば、追尾対象候補領域の縦および横幅の0.5〜1つ分が設定される。どの程度スライドさせるかは、追尾対象領域として設定された被写体の大きさやそれまでの動きを考慮して、実験的に最適な値を求めるようにすればよい。
その様子を図3(c)に示す。図3(b)に示した追尾対象候補領域を中心として、斜め四方に位置をずらした周辺領域が設定される。
そして、判定部116は、4つの周辺領域のそれぞれから得られた評価値と、追尾対象候補領域から得られた評価値との差分を求める。これらの差分が、全て閾値未満であるならば、ステップS208に進み、全て閾値未満でないならば、すなわち閾値以上の領域が1つでもあればステップS211に進む。
ステップS208では、制御部102は、図3(d)に示すように追尾対象領域および基準画像データの情報を消去してリセットし、追尾処理を停止する。そして、制御部102は、モニター部107に表示された画像から追尾枠を消去する。ステップS207の判定の結果、追尾対象候補領域とその4つの周辺領域は全て類似しているのであれば、コントラストの低い一様な背景に追尾対象候補領域が設定されていると考えられる。このまま追尾処理を継続すると、図4を用いて説明したように、周辺に相関の高い領域が多く存在し、追尾枠の位置が定まらずにふらついてしまうためである。
ステップS209では、制御部102は、追尾すべき対象を見失ったために、AF処理部108とAE処理部109が、中央部に存在する被写体におおまかなピントが合うように合焦制御を行い、中央重点測光による露出制御を行う。
ステップS210では、制御部102は、操作部101のシャッタースイッチが半押しされて信号SW1が生じたかを監視する。信号SW1が生じていればステップS214に進み、生じていなければ追尾対象領域を新たに検出するためにステップS203に戻って、顔検出部106が新たに読み出したフレーム画像から顔領域の検出を行う。
ステップS207からステップS211に進んだ場合には、制御部102は、追尾に成功しているものと判断し、追尾対象候補領域を新たな追尾対象領域として更新し、新たな追尾対象領域に追尾枠を重畳表示させた画像をモニター部107で表示する。
ステップS212では、AF処理部108とAE処理部109が、追尾対象領域から得られた測光値やAF評価値に最も大きな重み付けをして、露出制御と合焦制御を行う。
ステップS213では、制御部102は、操作部101のシャッタースイッチが半押しされて信号SW1が生じたかを監視する。信号SW1が生じていればステップS214に進み、生じていなければ追尾処理を継続するためにステップS205に戻る。
ステップS210、S213で信号SW1が生じていれば、ステップS214にて、AF処理部108とAE処理部109が、本撮影用の露出制御と合焦制御を行う。追尾対象領域が存在していれば、その追尾対象領域のピントが合い、かつ、輝度が適正値になるよう制御を進め、追尾対象領域が存在していなければ、中央部のピントの状態および測光値を優先して、画面全体が適正となるように制御する。
ステップS215では、制御部102は、操作部101のシャッタースイッチが全押しされて信号SW2が生じるまで待機する。
信号SW2が生じれば、ステップS216に進み、静止画データを生成して画像記録部113に記録する。
以上のように、上記実施形態によれば、コントラストの低い一様な背景に追尾枠が設定され、この追尾枠が一様な背景上でふらつくような状況を抑制することができるようになる。
また、上記実施形態では、追尾続行の可否を判定するために4箇所の周辺領域を設定しているが、追尾対象候補領域とその周囲の相関の高さを判定できるのであればよい。例えば、設定する周辺領域の数は3箇所でも6箇所でも構わないし、周辺領域の位置も斜め四方でなくとも、垂直水平方向に設定しても構わない。
また、顔検出部106にて検出された顔領域を追尾対象領域として設定する例をあげて説明を行ったが、特開2008−011497に開示されたように、撮影者が操作部101を操作することで任意の追尾対象領域を指定するようにしてもよい。このような仕様にすれば、人物の顔だけでなく、動物や乗り物なども追尾対象として設定することが可能となる。あるいは、追尾処理部115がフレーム画像の差分から動体を抽出し、撮影者に操作部101を操作させて、複数の顔領域の中のいずれかを選択させるようにしてもよい。つまり、フレーム画像間の相関から、第1画像から検出された顔と同一とみなせる領域が、それよりも後の第2画像のどこに存在しているかを判別する追尾処理部115を備えている構成であれば、本発明を適用することが可能である。
以上、デジタルカメラを例にあげて本発明の実施形態の説明を行った。デジタルカメラに代えて、ビデオカメラはもちろんのこと、接続したカメラから動画データを受け取り、受け取った動画データに対して内部の画像処理ユニットにて追尾処理を行う監視システムのようなコンピュータシステムにも本発明を適用することができる。
また、本発明の目的は、以下の様にして達成することも可能である。まず、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、以下のようにして達成することも可能である。即ち、読み出したプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合である。ここでプログラムコードを記憶する記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、ROM、RAM、磁気テープ、不揮発性のメモリカード、CD−ROM、CD−R、DVD、光ディスク、光磁気ディスク(MO)などが考えられる。また、LAN(ローカル・エリア・ネットワーク)やWAN(ワイド・エリア・ネットワーク)などのコンピュータネットワークを、プログラムコードを供給するために用いることができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
101 操作部
102 制御部
103 撮像素子
104 A/D変換部
105 画像処理部
106 顔検出部
107 モニター部
108 AF処理部
109 AE処理部
110 EF処理部
111 フラッシュ部
112 フォーマット変換部
113 画像記録部
114 外部接続部
115 追尾処理部
116 判定部

Claims (6)

  1. 動画を構成するいずれかのフレーム画像である第1画像において設定された追尾対象領域に存在する被写体を、別のフレーム画像である第2画像において検出することで、追尾処理を行う画像処理装置において、
    前記第1画像から追尾対象領域を設定する設定手段と、
    前記第2画像から、前記設定手段にて設定された追尾対象領域と最も相関の高い追尾対象候補領域を検出する追尾手段と、
    前記追尾対象候補領域から得られる評価値と、前記追尾対象候補領域の周辺領域の評価値の差分を求める判定手段と、
    前記差分が閾値以上であれば、前記追尾対象候補領域を前記追尾対象領域として更新し、前記差分が閾値未満であれば、前記追尾対象領域をリセットする制御手段と、
    を有することを特徴とする画像処理装置。
  2. 前記設定手段は、人物の顔が検出された領域を追尾対象領域に設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記周辺領域は、前記追尾対象候補領域を中心として、前記追尾対象領域の大きさに応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記周辺領域は、前記追尾対象候補領域を中心として、前記追尾対象領域の動きに応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  5. 動画を構成するいずれかのフレーム画像である第1画像において設定された追尾対象領域に存在する被写体を、別のフレーム画像である第2画像において検出することで、追尾処理を行う画像処理方法において、
    前記第1画像から追尾対象領域を設定する工程と、
    前記第2画像から、前記追尾対象領域と最も相関の高い追尾対象候補領域を検出する工程と、
    前記追尾対象候補領域から得られる評価値と、前記追尾対象候補領域の周辺領域の評価値の差分を求める判定する工程と、
    前記差分が閾値以上であれば、前記追尾対象候補領域を前記追尾対象領域として更新し、前記差分が閾値未満であれば、前記追尾対象領域をリセットする工程と、
    を有することを特徴とする画像処理方法。
  6. コンピュータに、請求項5に記載の画像処理方法の各工程を実行させるためのプログラム。
JP2009155684A 2008-08-20 2009-06-30 画像処理装置、画像処理方法、および、プログラム Active JP5279635B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009155684A JP5279635B2 (ja) 2008-08-20 2009-06-30 画像処理装置、画像処理方法、および、プログラム
KR1020090071184A KR101206389B1 (ko) 2008-08-20 2009-08-03 화상 처리장치, 화상 처리방법 및 기억매체
US12/539,036 US8284994B2 (en) 2008-08-20 2009-08-11 Image processing apparatus, image processing method, and storage medium
CN2009101629772A CN101656830B (zh) 2008-08-20 2009-08-20 图像处理装置及图像处理方法
EP09168333.4A EP2157547B1 (en) 2008-08-20 2009-08-20 Object tracking

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008211842 2008-08-20
JP2008211842 2008-08-20
JP2009155684A JP5279635B2 (ja) 2008-08-20 2009-06-30 画像処理装置、画像処理方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2010074815A true JP2010074815A (ja) 2010-04-02
JP5279635B2 JP5279635B2 (ja) 2013-09-04

Family

ID=41403948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009155684A Active JP5279635B2 (ja) 2008-08-20 2009-06-30 画像処理装置、画像処理方法、および、プログラム

Country Status (5)

Country Link
US (1) US8284994B2 (ja)
EP (1) EP2157547B1 (ja)
JP (1) JP5279635B2 (ja)
KR (1) KR101206389B1 (ja)
CN (1) CN101656830B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119993A (ja) * 2010-12-01 2012-06-21 Canon Inc 画像処理装置及びその制御方法、及びプログラム
US8929598B2 (en) 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2355492B1 (en) * 2009-10-07 2018-04-11 Panasonic Intellectual Property Corporation of America Device, method, program, and circuit for selecting subject to be tracked
JP5825851B2 (ja) * 2011-05-27 2015-12-02 キヤノン株式会社 撮像装置及びその制御方法
US9258462B2 (en) * 2012-04-18 2016-02-09 Qualcomm Incorporated Camera guided web browsing based on passive object detection
JP6525545B2 (ja) * 2014-10-22 2019-06-05 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP6743337B1 (ja) * 2019-06-04 2020-08-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、撮像システム、制御方法、及びプログラム
CN110414447B (zh) * 2019-07-31 2022-04-15 京东方科技集团股份有限公司 行人跟踪方法、装置及设备
KR20210024859A (ko) * 2019-08-26 2021-03-08 삼성전자주식회사 영상 처리 방법 및 장치
CN112561963A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 目标跟踪的方法、装置、路侧设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300572A (ja) * 2001-03-30 2002-10-11 Mitsubishi Electric Corp 画像処理装置
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
WO2008026434A1 (fr) * 2006-08-30 2008-03-06 Nikon Corporation Appareil et procédé d'alignement d'image, ainsi que caméra
JP2009296030A (ja) * 2008-06-02 2009-12-17 Canon Inc 撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
KR101108634B1 (ko) * 2004-01-06 2012-01-31 소니 주식회사 화상 처리 장치 및 화상 처리 방법 및 기록 매체
KR101092287B1 (ko) * 2004-02-13 2011-12-13 소니 주식회사 화상 처리 장치 및 화상 처리 방법
JP4819380B2 (ja) * 2004-03-23 2011-11-24 キヤノン株式会社 監視システム、撮像設定装置、制御方法、及びプログラム
ATE546800T1 (de) * 2005-07-05 2012-03-15 Omron Tateisi Electronics Co Tracking-vorrichtung
CN100417223C (zh) * 2005-12-30 2008-09-03 浙江工业大学 基于全方位视觉传感器的智能安保装置
US7856360B2 (en) * 2006-01-30 2010-12-21 Hoozware, Inc. System for providing a service to venues where people aggregate
JP2008011497A (ja) 2006-06-01 2008-01-17 Canon Inc カメラ装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300572A (ja) * 2001-03-30 2002-10-11 Mitsubishi Electric Corp 画像処理装置
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
WO2008026434A1 (fr) * 2006-08-30 2008-03-06 Nikon Corporation Appareil et procédé d'alignement d'image, ainsi que caméra
JP2009296030A (ja) * 2008-06-02 2009-12-17 Canon Inc 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119993A (ja) * 2010-12-01 2012-06-21 Canon Inc 画像処理装置及びその制御方法、及びプログラム
US8929598B2 (en) 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program

Also Published As

Publication number Publication date
KR20100022918A (ko) 2010-03-03
CN101656830B (zh) 2013-01-16
EP2157547A3 (en) 2014-04-09
CN101656830A (zh) 2010-02-24
US8284994B2 (en) 2012-10-09
EP2157547A2 (en) 2010-02-24
JP5279635B2 (ja) 2013-09-04
KR101206389B1 (ko) 2012-11-29
US20100046798A1 (en) 2010-02-25
EP2157547B1 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP5279635B2 (ja) 画像処理装置、画像処理方法、および、プログラム
US8692888B2 (en) Image pickup apparatus
US10630891B2 (en) Image processing apparatus, image processing method, and program
JP2010056692A (ja) 撮像装置およびその制御方法
JP5383366B2 (ja) 画像処理装置、画像処理方法、および、そのプログラム
KR20100055938A (ko) 장면 정보 표시 방법 및 장치, 및 이를 이용한 디지털 촬영장치
JP2016009998A (ja) 撮像装置、撮像方法及びプログラム
JP2010113129A (ja) 画像追尾装置、焦点調節装置、および撮像装置
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP5118590B2 (ja) 被写体追尾方法及び撮像装置
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
JP5111293B2 (ja) 撮像装置及びその制御方法
JP2019041414A (ja) 電子機器、撮像装置、およびプログラム
JP5323243B2 (ja) 画像処理装置及びその制御方法
JP6493746B2 (ja) 画像追尾装置及び画像追尾方法
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
JP2014023054A (ja) 画像処理装置、撮像装置、および画像処理プログラム
US11394887B2 (en) Imaging apparatus having viewpoint detection function, method of controlling imaging apparatus, and storage medium
CN114342350A (zh) 成像控制装置、成像控制方法、程序以及成像设备
JP2013162453A (ja) 撮像装置
JP2013135268A (ja) 画像処理装置及び画像処理方法
JP2019161540A (ja) 撮像装置及びその制御方法並びにプログラム
JP2010157969A (ja) 撮像装置、対象物検出方法及びプログラム
JP2009117982A (ja) 自動追従装置及び方法、並びに撮影装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130521

R151 Written notification of patent or utility model registration

Ref document number: 5279635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151