JP5553109B2 - 画像処理装置および画像処理プログラム - Google Patents

画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP5553109B2
JP5553109B2 JP2012514623A JP2012514623A JP5553109B2 JP 5553109 B2 JP5553109 B2 JP 5553109B2 JP 2012514623 A JP2012514623 A JP 2012514623A JP 2012514623 A JP2012514623 A JP 2012514623A JP 5553109 B2 JP5553109 B2 JP 5553109B2
Authority
JP
Japan
Prior art keywords
image
image frame
size
unit
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012514623A
Other languages
English (en)
Other versions
JPWO2011141991A1 (ja
Inventor
悟 牛嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2011141991A1 publication Critical patent/JPWO2011141991A1/ja
Application granted granted Critical
Publication of JP5553109B2 publication Critical patent/JP5553109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、デジタルカメラにより得られる画像データを処理する画像処理装置および画像処理プログラムに係わる。
従来より、移動する被写体を追尾する機能を備えるデジタルカメラ(または、電子カメラ)が知られている。このようなデジタルカメラは、例えば、ユーザが所望する被写体が動く場合であっても、その被写体を追尾してフォーカスを保持することができる。
従来技術の1つとして、高速でズームアップまたはズームダウンを行いつつ、ズームに伴う自動追尾の失敗を解消し、物体を安定して追尾できる自動追尾装置が知られている。この自動追尾装置は、第1物体検出部、第1ズーム制御部、第2物体検出部、テンプレートマッチング部、第2ズーム制御部を備える。第1物体検出部は、カメラによって撮影され入力された画像から物体を検出する。第1ズーム制御部は、検出された物体の大きさが画像上で所定より小さい場合、カメラのズーム倍率を変更する。第2物体検出部は、ズーム倍率が変更された後、再びカメラによって撮影された画像から物体を検出する。テンプレートマッチング部は、第2物体検出部によって検出された物体とカメラによって撮影された画像とを比較して物体の位置を特定し、画像上で物体を追跡する。第2ズーム制御部は、追跡される物体がカメラによって撮影される画像上で所定の大きさになるように、カメラのズーム倍率を制御する。(例えば、特許文献1)
また、他の従来技術として、カメラ、第1のメモリ、第2のメモリ、相関器を備える移動物体追跡装置が知られている。カメラは、ズーム機構を含む。第1のメモリは、カメラから時々刻々入力する画像信号を記憶する。第2のメモリは、第1のメモリから予め定められた追跡目標物体の画像を抽出して記憶する。相関器は、第2のメモリからの画像に最も近似する画像を第1のメモリの画像から抽出する。そして、移動物体追跡装置は、この相関器で抽出された画像を第2のメモリに追跡目標物体の新たな画像として記憶し、この記憶と前回の記憶の偏差によりカメラの角度およびズーム機構を制御する。(例えば、特許文献2)
さらに他の従来技術として、ビデオカメラで撮影された撮影画像から一部を切り出した連続画像、又は動画像をモバイル端末機に容易に表示できる画像伝送システムが知られている。この画像伝送システムは、制御用駆動装置を備えたビデオカメラと、該撮影画像データから対象動物の顔を検出して該ビデオカメラが該対象動物の顔を追跡する制御信号を生成するカメラ制御部と、該撮影画像データを補正及び編集する画像データ編集部と、該画像データ編集部によって撮影画像データの一部を切り出した連続画像又は動画像データをモバイル端末機に伝送する伝送するシステムとを具備する。そして、画像データ編集部は、該撮影画像データから該対象動物の顔部分を切り出した画像を略一定の画素数又は一定のサイズを有する画像に変換して伝送する。(例えば、特許文献3)
特開2007−208453号公報 特開昭59−79868号公報 特開2003−319386号公報
デジタルカメラの画像を利用して被写体を追尾する動体追尾においては、例えば、各画像フレーム上で被写体に対応する色領域が抽出される。このとき、画像フレーム上で色成分に基づいて目標被写体を抽出するためには、注目画素を基準として、隣接する画素の画素値が注目画素と同じとみなせるか否かの判定を繰り返す手順が必要となる。
他方、動体追尾の結果を利用して自動焦点制御を行うデジタルカメラにおいては、リアルタイムでの追尾が要求される。すなわち、各画像フレームにおいて目標被写体に対応する領域を抽出するための処理時間が短縮化されることが好ましい。
ところが、画像フレーム上で目標被写体が大きいときは、その目標被写体に対応する領域を抽出するための処理量が多くなる。すなわち、画像フレーム上での目標被写体の状態によっては、動体追尾に要する処理時間が長くなってしまう。
本発明の課題は、画像データを利用する動体追尾のデータ処理量を少なくすることである。
本発明の1つの態様に係る画像処理装置は、第1の画像フレームにおいて所定の条件を満たす注目領域を抽出する抽出部と、前記抽出部により抽出された注目領域の大きさに基づいて画像サイズを決定するサイズ決定部と、処理対象画像フレームを前記サイズ決定部により決定された画像サイズに変換する画像変換部、を備える。そして、前記抽出部は、前記画像変換部により変換された処理対象画像フレームにおいて前記所定の条件を満たす注目領域を抽出する。
開示の装置または方法によれば、画像データを利用する動体追尾においてデータ処理量が少なくなる。
実施形態の画像処理装置を含むデジタルカメラの構成を示す図である。 デジタルカメラによる動体追尾について説明する図である。 動体追尾部の動作の概要を説明する図である。 動体追尾部による画像処理の実施例を示す図である。 画像変換テーブルの実施例である。 動体追尾部による画像処理の他の実施例を示す図である。 動体追尾部の処理を示すフローチャートである。 他の実施形態における動体追尾部による画像処理の実施例を示す図である。 他の実施形態における動体追尾部の処理を示すフローチャート(その1)である。 他の実施形態における動体追尾部の処理を示すフローチャート(その2)である。 実施形態の画像処理装置のハードウェア構成を示す図である。
図1は、実施形態の画像処理装置を含むデジタルカメラ1の構成を示す図である。デジタルカメラ(電子カメラ)1は、画像入力部11、制御部12、動体追尾部13、出力部14を備える。
画像入力部11は、例えば、CCDセンサまたはCMOSセンサ等の撮像素子を含み、撮影によって画像データを生成する。このとき、画像入力部11は、所定の時間間隔で画像データを生成する。すなわち、画像入力部11は、撮影時刻の異なる画像データを次々と生成して出力する。この時間間隔は、特に限定されるものではないが、例えば、30フレーム/秒程度である。また、画像入力部11は、制御部12からのフォーカス指示に従って焦点距離を調節するフォーカス制御部21を備えている。また、画像入力部11は、画像データを一時的に保存する画像メモリ22を備えている。
制御部12は、デジタルカメラ1の動作を制御する。すなわち、制御部12は、動体追尾部13を起動すると共に、画像入力部11から出力される画像データを動体追尾部13に転送して動体追尾処理を依頼する。そして、制御部12は、動体追尾部13による追尾結果に基づいて、画像入力部11に対してフォーカス指示を送る。また、制御部12は、画像入力部11により得られる画像データおよび動体追尾部13による追尾結果を出力部14に送信する。
なお、制御部12は、他の制御動作も実行する。例えば、制御部12は、ユーザインタフェースを提供し、ユーザからの指示に従ってデジタルカメラ1の動作を制御する。さらに、制御部12は、デジタルカメラ1が備える各種センサを利用して、デジタルカメラ1の動作を制御するようにしてもよい。
出力部14は、例えば液晶ディスプレイであり、画像入力部11により得られる画像データを表示する。このとき、出力部14は、画像入力部11により得られる画像データに動体追尾部13による追尾結果を重ねて表示することができる。なお、画像入力部11により得られる画像データに追尾結果を表す画像データを合成する処理は、制御部12により実行されてもよいし、出力部14により実行されてもよい。また、出力部14は、タッチパネル素子を利用して、ユーザの指示を受け付ける機能を提供するようにしてもよい。出力部14に表示される画像データは、画像入力部11により得られた画像データであるが、この画像データが実際に撮影された画像データとして記憶されなくても良い。すなわち、出力部14は、画像入力部11により得られた画像データをファインダ画像として表示できる。
動体追尾部13は、画像入力部11から出力される画像データを利用して、動体追尾処理を実行する。すなわち、動体追尾部13は、画像処理装置により実現される。ここで、画像処理装置は、例えば、動体追尾手順を記述した画像処理プログラムを実行するプロセッサを含む1または複数の半導体チップにより実現される。或いは、画像処理装置は、動体追尾手順を実現するハードウェア回路により実現されてもよい。さらに、画像処理装置は、ハードウェアおよびソフトウェアを含んでもよい。
図2は、デジタルカメラ1による動体追尾について説明する図である。ここでは、画像入力部11により時刻T、T+1、T+2において撮影が行われ、画像フレームn、n+1、n+2が生成される。このとき、出力部14は、画像フレームn、n+1、n+2を順番に表示する。また、各画像フレームには、被写体Aおよび物体Bに対応する画像領域が形成されている。この例では、被写体Aは動体であり、物体Bは非動体である。
ユーザは、例えば、出力部14に表示される画像を見ながら、フォーカスしたい被写体を指定するものとする。ここでは、ユーザは、被写体Aを選択するものとする。そして、被写体Aを選択するユーザ指示は、制御部12により受け付けられる。そうすると、制御部12は、このユーザ指示に応じて、画像入力部11に対してフォーカス指示を与える。これにより、フォーカス制御部21は、被写体Aに焦点が合うように、焦点調整メカニズム(例えば、1または複数のレンズを含む光学系)を制御する。そして、画像入力部11は、焦点距離が制御された状態で次の撮影を行う。なお、焦点距離が制御された状態での撮影により得られる画像データは、画像メモリ22に格納される。また、制御部12は、出力部14に対して、フォーカスマークの表示を指示する。これにより、出力部14により表示される画像において、被写体Aに重ねてフォーカスマーク41が表示される。
動体追尾部13は、画像入力部11から出力される画像データを利用して、ユーザにより指定された被写体Aを追尾する。このとき、動体追尾部13は、各画像フレームn、n+1、n+2において、それぞれ被写体Aに対応する画像領域を検出する。そして、動体追尾部13による追尾結果は、制御部12に送られる。
制御部12は、上述したように、動体追尾部13による追尾結果に応じて画像入力部11へフォーカス指示を送ると共に、その追尾結果を出力部14に通知する。これにより、画像入力部11は、被写体Aが動いている場合であっても、被写体Aに対するフォーカスを維持しながら撮影動作を継続することができる。また、出力部14により表示される画像において、フォーカスマーク41の表示位置は、被写体Aの動きに応じて制御される。すなわち、図2に示すように、被写体Aに対応する画像領域にフォーカスマーク41が重ねて表示される状態が維持される。
次に、図3を参照しながら、動体追尾部13の動作の概要を説明する。図3において、画像フレーム51A、51B、51Cは、それぞれ、画像入力部11により生成され動体追尾部13に入力される画像フレームである。また、画像フレーム51A、51B、51Cには、被写体52が写っている。被写体52は、ユーザにより指定された追尾対象物体である。
動体追尾部13は、動体追尾を実現する画像処理方法を提供するために、画像メモリ31、抽出部32、サイズ決定部33、画像変換部34を備えている。画像メモリ31は、画像フレームを一時的に格納する。また、動体追尾部13は、特に図示しないが、抽出部32、サイズ決定部33、画像変換部34が画像処理のための作業領域として使用するメモリを備えている。
画像入力部11から出力される各画像フレームは、順番に、制御部12により動体追尾部13へ転送される。動体追尾部13は、各入力画像フレームを画像メモリ31に格納する。
抽出部32は、各入力画像フレームにおいて所定の条件を満たす注目領域を抽出する。このとき、抽出部32は、入力画像フレームにおいて、注目点を含み且つ所定の条件を満たす注目領域を抽出する。注目点は、後で詳しく説明するが、直前の画像フレームにおいて指定された画素(または、座標)である。ただし、注目点の初期値は、例えば、ユーザにより指定される。ユーザは、出力部14に表示される画像を見ながら、フォーカスしたい被写体を指定することができる。この場合、注目点の初期値として、ユーザにより指定された被写体に対応する画像領域の中心(または、重心)が使用される。
「所定の条件」は、この例では、画素の特徴量により表わされる。画素の特長量としては、例えば、輝度成分および/または色差成分が使用される。そして、抽出部32は、注目点の画素と同じまたは類似する特徴量を有する画素を抽出する。一例として、画素の輝度成分が0〜255で表わされるときに、注目点の画素の輝度成分が「210」であるものとする。この場合、抽出部32は、例えば、入力画像フレームにおいて、輝度成分の値が200から220の範囲にある画素を抽出する。また一例として、画素の色成分がRGBのそれぞれについて0〜255で表わされるときに、注目点の画素のR成分が「100」、G成分が「140」、B成分が「85」であるものとする。この場合、抽出部21は、例えば、入力画像フレームにおいて、R成分の値が90から110の範囲、G成分が130から150の範囲、B成分が75から95の範囲の3つの条件を満たす画素を抽出する。また一例として、画素の色成分が輝度、彩度、色相の3成分から表されるときに、同様に各成分の範囲を決めて、その範囲の条件を満たす画素を抽出するようにしてもよい。
このとき、抽出部32は、注目点を含む連続する画像領域を抽出する。したがって、抽出部32は、例えば、以下の手順により注目領域を抽出する。
(1)注目点画素の特徴量を検出する。
(2)注目点の隣接画素(上、下、右、左)の特徴量と、注目点画素の特徴量との差分が閾値よりも小さければ、その隣接画素を注目領域に属する画素として抽出する。
(3)上記手順(2)により抽出された画素の隣接画素について、上記手順(2)と同様の抽出処理を行う。
(4)注目点画素の特徴量との差分が閾値よりも小さい隣接画素が検出されなくなるまで上記手順(2)〜(3)の処理を実行する。
上記手順(1)〜(4)により、入力画像フレームにおいて、注目点画素と類似する特徴量を有する連続した画素領域(すなわち、注目領域)が抽出される。ここで、注目領域の抽出は、特に限定されるものではないが、公知の方法により実現することができる。
なお、抽出部32は、必要に応じて、入力画像フレームから注目領域を抽出する代わりに、入力画像フレームの画像サイズを変更することにより得られる変換画像フレームにおいて注目領域を抽出する。例えば、抽出部32は、入力画像フレームを縮小することにより得られる変換画像フレームにおいて注目領域を抽出する。
動体追尾部13は、各画像フレームにおいてそれぞれ注目領域を抽出し、追尾結果としてその注目領域の位置(すなわち、画像フレーム内の座標)を表す情報を出力する。このとき、画像フレーム上で注目領域の面積が大きいと、注目領域を形成する画素の個数が多くなるので、上述した手順(1)〜(4)の実行時間が長くなる。そこで、動体追尾部13は、画像フレーム上での注目領域の大きさに応じて画像フレームのサイズを縮小する。そして、縮小された画像フレームにおいて注目領域が抽出される。
例えば、図3に示す画像フレーム51Aが動体追尾部13に入力されたものとする。画像フレーム51Aにおいては、追尾対象物体である被写体52に対応する画像領域は小さい。この場合、動体追尾部13は、入力画像フレーム51Aを縮小する必要がないと判定する。すなわち、動体追尾部13は、入力画像フレーム51Aのサイズを変更することなく、その入力画像フレーム51Aにおいて被写体52を抽出する。
画像フレーム51Bにおいては、画像フレーム51Aと比較すると、被写体52に対応する画像領域は大きい。この場合、動体追尾部13は、入力画像フレーム51Bを縮小する必要があると判定する。図3に示す例では、縮小率は50パーセントである。ここで、縮小率50パーセントは、面積が4分の1に縮小することを意味する。そして、動体追尾部13は、この縮小率で入力画像フレーム51Bを縮小することにより得られる変換画像フレーム53Bにおいて被写体52を抽出する。
画像フレーム51Cにおいては、画像フレーム51Bと比較すると、被写体52に対応する画像領域はさらに大きい。この場合、動体追尾部13は、入力画像フレーム51Cをさらに縮小する必要があると判定する。図3に示す例では、縮小率は25パーセントである。ここで、縮小率25パーセントは、面積が16分の1に縮小することを意味する。そして、動体追尾部13は、この縮小率で入力画像フレーム51Cを縮小することにより得られる変換画像フレーム53Cにおいて被写体52を抽出する。
このとき、縮小率は、例えば、各画像フレームにおいて追尾対象物体に対応する画像領域の面積がほぼ一定となるように決定される。図3に示す例では、入力画像フレーム51A、変換画像フレーム53B、53Cにおいて被写体52の画像領域が互いにほぼ同じになるように、縮小率が決定されている。
ところで、実施形態のデジタルカメラ1は、上述したように、短い時間間隔で繰り返し画像の取り込みを行う。一例としては、30フレーム/秒である。このため、被写体が動いている場合であっても、通常、連続する2枚の画像フレーム間で、被写体領域の位置、形状、大きさが大きく変わることはない。すなわち、入力画像フレームにおいて追尾対象領域として抽出される注目領域の大きさは、直前の画像フレームにおいて抽出される注目領域とほぼ同じである。
したがって、動体追尾部13は、入力画像フレームの注目領域の大きさに基づいてその入力画像フレームの画像サイズを決定する代わりに、直前の画像フレームの注目領域の大きさに基づいて入力画像フレームの画像サイズを決定することができる。そこで、追尾部13は、各画像フレームにおいて注目領域の大きさに基づいて画像サイズ(すなわち、縮小率)を決定し、その画像サイズに従ってそれぞれ次の画像フレームを縮小する。あるいは、動体追尾部13は、直前の画像フレームの注目領域の大きさに基づいて決定された縮小率で、新たな入力画像フレームを縮小する。
図3に示す例では、画像フレーム51Aに対して、その直前の画像フレームの注目領域の大きさに基づいて「縮小率100%」が得られている。このため、画像フレーム51Aは縮小されていない。また、画像フレーム51Bに対しては、その直前の画像フレームの注目領域の大きさに基づいて「縮小率50%」が得られている。この結果、画像フレーム51Bから変換画像フレーム53Bが生成されている。同様に、画像フレーム51Cに対しては、その直前の画像フレームの注目領域の大きさに基づいて「縮小率25%」が得られている。したがって、画像フレーム51Cから変換画像フレーム53Cが生成されている。
上述の画像変換処理は、サイズ決定部33および画像変換部34により実行される。すなわち、サイズ決定部33は、抽出部32により抽出された注目領域の大きさに基づいて画像サイズを決定する。このとき、サイズ決定部33は、画像フレーム全体に対して注目領域が占有する面積の比率に基づいて画像サイズを決定するようにしてもよい。画像サイズは、上述の例では、縮小率で表わされる。また、注目領域の大きさは、例えば、注目領域を形成する画素の個数で表わされる。
画像変換部34は、サイズ決定部33により決定された画像サイズに従って、処理対象画像フレームを変換する。ここで、処理対象画像フレームは、上述の例では、サイズ決定部33が画像サイズ(すなわち、縮小率)を決定するために参照した画像フレームの次の画像フレームである。この場合、画像変換部34は、直前の画像フレームの注目領域に基づいてサイズ決定部33により決定された画像サイズに従って、入力画像フレームを変換する。
抽出部32は、画像変換部34により生成される変換画像フレームにおいて注目領域を抽出する。ただし、画像変換部34により画像変換が行われない場合(すなわち、縮小率100%のとき)は、抽出部32は、入力画像フレームにおいて注目領域を抽出する。そして、抽出部32は、追尾結果として、各画像フレーム(入力画像フレームまたは変換画像フレーム)において抽出される注目領域の位置を表す情報を出力する。
このように、実施形態の画像処理方法においては、画像フレーム上での注目領域の大きさに応じて画像フレームのサイズが制御される。例えば、被写体52がデジタルカメラ1に接近し、画像フレーム上で被写体52に対応する画像領域が大きくなると、画像フレームは縮小される。このとき、画像フレームの縮小に伴って、被写体52に対応する画像領域が小さくなり、被写体52に対応する画像領域を形成する画素数も少なくなる。したがって、被写体52に対応する画像領域(すなわち、注目領域)を抽出するために要する時間は短縮される。よって、画像フレーム上で被写体が大きくなっても、注目領域の抽出のために要する時間はさほど長くなることはなく、リアルタイム動体追尾の実現が容易になる。
図4は、動体追尾部13による画像処理の実施例を示す図である。図4において、画像フレームN、N+1、N+2は、動体追尾部13への入力画像フレームである。ここで、画像フレームN+1は、画像フレームNの次の画像フレームであり、画像フレームN+2は、画像フレームN+1の次の画像フレームである。また、入力画像フレーム(N、N+1、N+2)のサイズは、40×32画素である。すなわち、入力画像フレームの幅は40画素であり、その高さは32画素である。さらに、画像フレームN、N+1、N+2上の斜線領域は、追尾対象の被写体に対応する画像領域である。この例では、被写体が、デジタルカメラ1に徐々に近づいてきており、また、デジタルカメラ1から見て右方向に移動している。
動体追尾部13は、画像フレームのサイズを制御するために、図5に示す画像変換テーブルを備える。この実施例では、画像変換テーブルにおいて3つの縮小レベルが定義されている。縮小レベル1は、入力画像フレームのサイズを変更しない動作モードを表す。よって、縮小レベル1が設定されているときは、入力画像フレームから注目領域が抽出される。また、縮小レベル2は、入力画像フレームを20×16画像フレームに変換する動作モードを表す。よって、縮小レベル2が設定されているときは、入力画像フレームは20×16画素の変換画像フレームに変換され、その変換画像フレームから注目領域が抽出される。さらに、縮小レベル3は、入力画像フレームを10×8画像フレームに変換する動作モードを表す。よって、縮小レベル3が設定されているときは、入力画像フレームは10×8画素の変換画像フレームに変換され、その変換画像フレームから注目領域が抽出される。
画像変換テーブルにおいて、各縮小レベルに対して閾値1および閾値2が登録されている。閾値1および閾値2は、この例では、画素数で表わされる。閾値1は、縮小レベルを維持するか下げるかを判定するために使用される。例えば、動体追尾部13が縮小レベル2で動作しているものとする。ここで、縮小レベル2の閾値1は「25」である。この場合、変換画像フレームから抽出される注目領域の画素数が25以上であれば、縮小レベル2が維持される。一方、変換画像フレームから抽出される注目領域の画素数が25よりも少なければ、縮小レベル2から縮小レベル1への変更が行われる。
閾値2は、縮小レベルを維持するか上げるかを判定するために使用される。例えば、上述の例と同様に、動体追尾部13が縮小レベル2で動作しているものとする。ここで、縮小レベル2の閾値2は「100」である。この場合、変換画像フレームから抽出される注目領域の画素数が100以下であれば、縮小レベル2が維持される。一方、変換画像フレームから抽出される注目領域の画素数が100を超えていれば、縮小レベル2から縮小レベル3への変更が行われる。
縮小レベル1の閾値1は、「−1」である。したがって、動体追尾部13が縮小レベル1で動作しているときは、「縮小レベルを下げる」と判定されることはない。また、縮小レベル3の閾値2は、無限大である。したがって、動体追尾部13が縮小レベル3で動作しているときは、「縮小レベルを上げる」と判定されることはない。
なお、図5に示す画像変換テーブルは、1つの実施例である。すなわち、縮小レベルの数は、2であってもよいし、4以上であってもよい。また、変換画像フレームの幅および高さ、閾値1および閾値2の値は、図5に示す値に限定されるものではない。
図4に戻る。ここでは、画像フレームNが入力されたときに、動体追尾部13は縮小レベル2で動作しているものとする。この場合、画像変換部34は、画像フレームNを20×16画素の画像フレームに縮小する。これにより、変換画像フレームnが生成される。
そうすると、抽出部32は、変換画像フレームnにおいて注目領域を抽出する。このとき、抽出部32は、★印で表わされる注目点を含む注目領域を抽出する。注目点は、注目領域を抽出する処理を開始する位置または画素を表す。なお、注目点の座標は、前回の画像フレームにおいて算出されているものとする。また、抽出部32は、変換画像フレームnにおいて抽出した注目領域の大きさ(または、面積)を検出する。この実施例では、注目領域の大きさは「56」である。
さらに、抽出部32は、変換画像フレームnにおいて抽出した注目領域の中心座標(または、重心)を算出する。算出した中心座標は、次の画像フレームにおいて注目領域を抽出するための注目点として使用される。
動体追尾部13は、追尾結果として、抽出部32により抽出された注目領域の位置を表す追尾対象位置情報を出力する。ただし、この注目領域は、画像フレームNを縮小率50%で変換することにより得られた変換画像フレームnから抽出されている。したがって、変換画像フレームnから抽出された注目領域の座標は、追尾対象位置情報として出力されるときは、40×32画素の画像フレーム上にマッピングされる。例えば、変換画像フレームnから抽出された注目領域は長方形であり、その4角の座標が(2,2)(9,2)(2,8)(9,8)であるものとする。この場合、動体追尾部13は、追尾対象位置情報として、座標(4,4)(18,4)(4,16)(18,16)を出力する。
続いて、動体追尾部13に画像フレームN+1が入力される。そうすると、サイズ決定部33は、前回フレーム(すなわち、変換画像フレームn)において抽出された注目領域の大きさに基づいて、画像フレームN+1の縮小レベルを決定する。この例では、変換画像フレームnの注目領域の大きさは「56」である。また、動体追尾部13は、縮小レベル2で動作している。ここで、縮小レベル2における閾値1、2は、それぞれ「25」「100」である。すなわち、閾値1≦注目領域の大きさ≦閾値2である。したがって、サイズ決定部33は、縮小レベルをそのまま維持する。すなわち、画像フレームN+1の縮小レベルは「2」である。
画像変換部34は、サイズ決定部33により決定された縮小レベルで入力画像フレームを変換する。よって、画像変換部34は、画像フレームN+1を20×16画素の画像フレームに縮小する。これにより、変換画像フレームn+1が生成される。
抽出部32は、変換画像フレームn+1において注目領域を抽出する。このとき、抽出部32は、前回フレームにおいて算出された注目点を含む注目領域を抽出する。また、抽出部32は、変換画像フレームn+1において抽出した注目領域の大きさを検出する。この実施例では、注目領域の大きさは「110」である。さらに、抽出部32は、次のフレームで使用する注目点として、変換画像フレームn+1において抽出した注目領域の中心座標を算出する。
動体追尾部13は、追尾結果として、抽出部32により抽出された注目領域の位置を表す追尾対象位置情報を出力する。このとき、変換画像フレームn+1から抽出された注目領域の座標は、上述のように、40×32画素の画像フレーム上にマッピングされる。
続いて、動体追尾部13に画像フレームN+2が入力される。そうすると、サイズ決定部33は、前回フレーム(すなわち、変換画像フレームn+1)において抽出された注目領域の大きさに基づいて、画像フレームN+2の縮小レベルを決定する。この例では、変換画像フレームn+1の注目領域の大きさは「110」である。また、動体追尾部13は、縮小レベル2で動作している。ここで、縮小レベル2における閾値2は、上述したように「100」である。すなわち、注目領域の大きさは閾値2よりも大きい。したがって、サイズ決定部33は、縮小レベルを高くする。すなわち、画像フレームN+2の縮小レベルは「3」と判定される。
画像変換部34は、サイズ決定部33により決定された縮小レベルで入力画像フレームを変換する。よって、画像変換部34は、画像フレームN+2を10×8画素の画像フレームに縮小する。これにより、変換画像フレームn+2が生成される。
抽出部32は、変換画像フレームn+2において注目領域を抽出する。このとき、抽出部32は、前回フレームにおいて算出された注目点を含む注目領域を抽出する。ただし、画像フレームN+2の縮小率は、前回フレームとは異なっている。具体的には、画像フレームN+1は縮小レベル2で処理されたが、画像フレームN+2は縮小レベル3で処理される。したがって、前回フレームにおいて算出された注目点(注目領域の中心座標)は、縮小率の変更に応じてサイズ決定部33によりマッピングされる。ここで、縮小レベル2の縮小率は50%であり、縮小レベル3の縮小率は25%である。よって、例えば、変換画像フレームn+1から抽出された注目領域の中心座標が(10,8)であるものとすると、変換画像フレームn+2で使用される注目点の座標は(5,4)となる。
また、抽出部32は、変換画像フレームn+2において抽出した注目領域の大きさを検出する。この実施例では、注目領域の大きさは「30」である。さらに、抽出部32は、次のフレームで使用する注目点として、変換画像フレームn+2において抽出した注目領域の中心座標を算出する。
動体追尾部13は、追尾結果として、抽出部32により抽出された注目領域の位置を表す追尾対象位置情報を出力する。このとき、変換画像フレームn+2から抽出された注目領域の座標は、40×32画素の画像フレーム上にマッピングされる。
このように、動体追尾部13は、各入力画像フレームにおいて注目領域を抽出する。具体的には、動体追尾部13は、各変換画像フレームにおいて注目領域を抽出し、抽出した注目領域を入力画像フォーマット上にマッピングしている。ここで、注目領域は、追尾対象の被写体に対応する画像領域である。したがって、上述の画像処理により、動体追尾が実現される。
また、上述の画像処理においては、画像フレーム上の注目領域の大きさに基づいて画像フレームの縮小レベルが決定される。例えば、図4に示す例では、画像フレームN+1において注目領域の大きさが閾値2を超えると、以降の画像フレームの縮小レベルが高くなる。この結果、以降の画像フレームにおいて抽出される注目領域の画素数は抑制される。すなわち、入力画像フレームにおいて被写体を表す注目領域が大きくなっても、注目領域を抽出するために要する処理時間が長くなることはない。
図6は、動体追尾部13による画像処理の他の実施例を示す図である。図6に示す実施例では、入力画像フレームにおいて、被写体を表す注目領域が徐々に小さくなっている。
この例では、画像フレームN+1において、注目領域の大きさが閾値よりも小さくなっている。すなわち、変換画像フレームn+1から抽出される注目領域の大きさは「20」である。そして、このサイズは、縮小レベル3における閾値1よりも小さい。よって、縮小レベルは「3」から「2」に変更される。この結果、画像フレームN+2および以降の画像フレームは、縮小レベル2で縮小されて処理される。
このように、注目領域の大きさが閾値よりも小さくなると、以降のフレームでは、変換画像フレームのサイズが大きくなる。ここで、追尾対象の被写体に対応する注目領域の大きさが小さいときは、一般に、追尾対象を見失うおそれがある。したがって、図6に示す実施例のように、注目領域の大きさに応じて縮小レベルが設定されると、画像フレーム上で追尾対象を見失う可能性が低くなる。
図7は、動体追尾部13の処理を示すフローチャートである。このフローチャートの処理は、たとえば、デジタルカメラ1のユーザにより追尾対象が指定されたときに実行される。
ステップS1において、動体追尾部13は、領域抽出開始座標としての注目点を設定する。この注目点は、例えば、ユーザにより指定された追尾対象の画像フレーム上の座標に基づいて決定される。
ステップS2において、動体追尾部13は、縮小レベルの初期値として「1」を設定すると共に、縮小レベル1に対応する閾値1、2を設定する。また、動体追尾部13は、前回領域サイズデータを初期化する。前回領域サイズデータは、前回フレームにおいて抽出された注目領域のサイズを表す。なお、前回領域サイズデータは、動体追尾部13が備えるメモリに記録される。
ステップS3において、抽出部32は、画像メモリ31に格納されている画像フレームを読み込む。なお、画像メモリ31には、画像入力部11から出力される画像フレームが格納されている。また、サイズ決定部33は、上記メモリから前回領域サイズデータを取得する。
ステップS4において、サイズ決定部33は、前回領域サイズデータと閾値1とを比較する。前回領域サイズデータが閾値1よりも小さければ、サイズ決定部33は、ステップS6において縮小レベルを1段階引き下げる。また、ステップS5において、サイズ決定部33は、前回領域サイズデータと閾値2とを比較する。前回領域サイズデータが閾値2よりも大きければ、サイズ決定部33は、ステップS7において縮小レベルを1段階引き上げる。
ステップS8において、サイズ決定部33は、ステップS6またはS7における縮小レベルの変更に応じて、閾値1、2を変更する。例えば、ステップS7において縮小レベルが「2」から「3」に引き上げられたときは、閾値2は「100」から「∞」に変更される。さらに、ステップS9においてサイズ決定部33は、ステップS6またはS7における縮小レベルの変更に応じて、注目点のマッピングを行う。なお、ステップS9でマッピングされる注目点の座標は、前回フレームに対するステップS12で算出されているものとする。
前回領域サイズデータが閾値1以上かつ閾値2以下であれば(ステップS4:No、ステップS5:No)、ステップS6〜S9はスキップされる。この場合、縮小レベルは維持される。また、前回フレームで算出された注目点のマッピングも実行されない。
ステップS10において、画像変換部34は、縮小レベルに従って、入力画像フレームから変換画像フレームを生成する。すなわち、画像変換部34は、サイズ決定部33により決定された縮小レベルに従って、処理対象画像フレームの画像サイズを変換する。ただし、この実施例では、動体追尾部13が縮小レベル1で動作しているときは、画像サイズの変更は実行されない。
ステップS11において、抽出部32は、ステップS10で生成される変換画像フレームにおいて、注目点を基準として注目領域を抽出する。注目点の座標は、前回フレームにおいて算出されている。なお、ステップS6またはS7において縮小サイズが変更されたときは、注目点の座標は、前回フレームにおいて算出され座標をステップS9でマッピングすることにより得られている。
ステップS12において、抽出部32は、抽出した注目領域に基づいて、次のフレームのための注目点の座標を算出する。次のフレームの注目点の座標は、例えば、抽出した注目領域の中心座標を算出することにより得られる。
ステップS13において、抽出部32は、ステップS11で抽出した注目領域のサイズを検出する。そして、抽出部32は、検出した注目領域のサイズを、次のフレームのための前回領域サイズデータとして設定する。注目領域のサイズは、注目領域内の画素数をカウントすることにより検出される。この後、動体追尾部13の処理は、ステップS3に戻る。
図7に示すフローチャートにおいて、例えば、図6の画像フレームN+1、N+2が入力されると、以下の処理が行われる。ここで、画像フレームN+1に対してステップS10〜S13が実行されるものとする。すなわち、ステップS10において、画像フレームN+1から変換画像フレームn+1が生成される。ステップS11において、変換画像フレームn+1において注目領域が抽出される。ステップS12において、抽出された注目領域の中心座標を算出することにより、次の画像フレームの注目点が決定される。ステップS13において、抽出された注目領域のサイズが検出される。ここでは、注目領域のサイズは「20」である。そして、この値が、前回領域サイズデータとして保存される。
続いて、画像フレームN+2に対してステップS3〜S13の処理が実行される。ここで、画像フレームN+2が入力されたときの縮小レベルは「3」である。また、変換画像フレームn+1の注目領域のサイズを表す前回領域サイズデータは「20」である。すなわち、前回領域サイズデータは、縮小レベル3の閾値1よりも小さい。したがって、ステップS4において「Yes」と判定され、ステップS6において縮小レベルが「3」から「2」に引き下げられる。さらに、前回フレーム(すなわち、変換画像フレームn+1)で算出された注目点の座標は、ステップS9において、縮小レベル3から縮小レベル2への変更に応じてマッピングされる。この後、ステップS10〜S13において、変換画像フレームn+2から注目領域が抽出され、次の画像フレームのための注目点の座標が算出され、注目領域のサイズが検出される。
このように、動体追尾部13は、各画像フレームに対してステップS3〜S13の処理を実行する。そして、各画像フレームについてステップS11で抽出される注目領域が、追尾対象領域として出力される。これにより、動体追尾が実現される。
なお、図7のフローチャートに示す手順では、入力画像フレームの処理時に、前回フレームの注目領域のサイズに基づいて、その入力画像フレームの縮小レベルが決定される。しかし、実施形態の画像処理方法は、この手順に限定されるものではない。すなわち、例えば、入力画像フレームにおいて注目領域を抽出したときに、その注目領域のサイズに基づいて次の画像フレームの縮小レベルを決定するようにしてもよい。
<他の実施形態>
上述のように、図4〜図7に示す実施形態においては、前回フレームの注目領域の大きさに基づいて、入力画像フレームの縮小レベルが決定される。これに対して、以下に説明する他の実施形態では、入力画像フレームの注目領域の大きさに基づいて、その入力画像フレームの縮小レベルが決定される。
他の実施形態においては、サイズ決定部33は、例えば、抽出部32が入力画像フレーム(または、変換画像フレーム)において注目領域を抽出する抽出処理の途中で注目領域の大きさが閾値サイズを超えると判定したときは、抽出部32による抽出処理が終了する前に、新たな画像サイズを決定する。また、画像変換部34は、上述の入力画像フレーム(または、変換画像フレーム)を、サイズ決定部33により決定された新たな画像サイズに変換する。そして、抽出部32は、画像変換部34により変換された画像フレームにおいて注目領域を抽出する。
図8は、他の実施形態における画像処理の実施例を示す図である。ここでは、動体追尾部13に画像フレームN、N+1が入力されるものとする。画像フレームN+1は、画像フレームNの次の画像フレームである。そして、この例では、被写体が、デジタルカメラ1に急速に近づいてきている。
画像フレームNが入力されると、動体追尾部13は、図4〜図7を参照しながら説明した手順と同様の画像処理を行う。すなわち、画像変換部34は、画像フレームNを縮小することにより変換画像フレームnを生成する。このとき、縮小レベルは「2」であるものとする。また、抽出部32は、変換画像フレームnにおいて注目領域を抽出し、その注目領域の大きさを検出する。この例では、注目領域の大きさは「56」である。さらに、抽出部32は、次のフレームのための注目点の座標を算出する。
続いて、画像フレームN+1が入力されると、動体追尾部13は、図4〜図7を参照しながら説明した手順と同様の画像処理を行う。すなわち、サイズ検出部33は、前回フレーム(すなわち、変換画像フレームn)の注目領域の大きさに基づいて縮小レベルを判定する。この例では、注目領域の大きさが閾値1以上かつ閾値2以下であるので、縮小レベル2が維持される。そうすると、画像変換部34は、画像フレームN+1を縮小することにより変換画像フレームn+1を生成する。
抽出部32は、前回フレームにおいて算出された注目点を基準として、注目領域の抽出を開始する。注目領域は、上述したように、注目点に近い画素から順番に、注目点画素と近い特徴量(例えば、色成分)を有する隣接画素を抽出することで検出される。このとき、抽出部32は、注目点画素と近い特徴量(例えば、色成分)を有する隣接画素を抽出する毎に、領域カウンタをカウントアップしてゆく。
図8に示す例では、変換画像フレームn+1における注目領域は、13×11画素に渡って広がっている。すなわち、注目領域の画素数は、143である。そして、抽出部32は、注目点に近い画素から順番に、注目領域に属する画素を抽出している。このとき、抽出部32は、領域カウンタを利用して、抽出した画素の数をカウントしている。
サイズ決定部33は、領域カウンタが閾値2に達するか否かをモニタする。そして、領域カウンタが閾値2に達すると、抽出部32は、サイズ決定部33からの通知に応じて、注目領域を抽出する処理を停止する。また、サイズ決定部33は、縮小レベルを引き上げる。ここで、縮小レベル2の閾値2は「100」である。よって、図8に示すように、抽出部32により抽出される画素の数が100に達すると、抽出部32は抽出処理を停止する。また、サイズ決定部33により、縮小レベルは「2」から「3」に変更される。
続いて、画像変換部34は、サイズ決定部33により決定された縮小レベルで変換画像フレームn+1をさらに変換する。これにより、10×8画素の画像フレームXが生成される。なお、画像変換部34は、入力画像フレームN+1から10×8画素の画像フレームXを生成してもよい。
この後、動体追尾部13は、画像フレームXに対して下記の画像処理を行う。抽出部32は、画像フレームXから注目領域を抽出する。この注目領域は、追尾結果として出力される際には、40×32画素の画像フレーム上にマッピングされる。さらに、抽出部32は、画像フレームXから抽出した注目領域を利用して、次の画像フレームのための注目点の座標を算出する。
このように、他の実施形態においては、注目領域の抽出処理の途中で、その注目領域の大きさが閾値2を超えると見込まれる場合は、抽出処理はいったん停止され、画像フレームがさらに縮小される。そして、その縮小画像フレームにおいて注目領域を抽出する処理が実行される。このため、注目領域を抽出するための処理時間が短縮される。
例えば、図8に示す例では、変換画像フレームn+1において注目領域から100個の画素が抽出された時点で、変換画像フレームn+1に対する画像処理は終了する。すなわち、残りの43個の画素を抽出する処理に要する時間が節約される。この後、画像フレームXにおいて注目領域に属する30個の画素が抽出される。このとき、画像フレームn+1において残りの43個の画素を抽出するための処理時間よりも、画像フレームXにおいて注目領域に属する30個の画素を抽出するための処理時間の方が短いものとすると、画像フレームN+1の注目領域を抽出するための処理時間は短縮されることになる。
図9A〜図9Bは、他の実施形態における動体追尾部の処理を示すフローチャートである。このフローチャートの処理は、図7に示す手順と同様に、例えば、デジタルカメラ1のユーザにより追尾対象が指定されたときに実行される。
他の実施形態の手順は、基本的には、図7に示すステップS1〜S13と同じである。ただし、他の実施形態では、図7に示すステップS5およびS7は実行されない。また、他の実施形態では、図7に示すステップS11の代わりにステップS20が実行される。ステップS20においては、ステップS11と同様に、注目領域が抽出されるが、詳しくは図9Bに示すステップS21〜S28が実行される。また、ステップS20は、抽出部32、サイズ決定部33、画像変換部34が連携して動作することにより実現される。
ステップS21においては、抽出部32は、領域カウンタを初期化する。すなわち、領域カウンタにゼロが書き込まれる。領域カウンタは、抽出部32により検出される画素の数をカウントする。
ステップS22において、抽出部32は、注目領域の抽出が完了したか判定する。ここで、抽出部32は、上述した手順(1)〜(4)で隣接画素を抽出する。したがって、ステップS22では、一例としては、注目点画素の特徴量との差分が閾値よりも小さい隣接画素が存在するか否かが判定される。そして、注目領域の抽出が完了していれば、ステップS20の処理は終了する。
注目領域の抽出が完了していなければ、ステップS23において、抽出部32は、注目領域内の画素を1つ抽出し、領域カウンタを1だけカウントアップする。続いて、ステップS24において、抽出部32は、領域カウンタが閾値2以上であるか否かを判定する。そして、領域カウンタが閾値2以上であれば、処理はステップS25に移行する。一方、領域カウンタが閾値2よりも小さければ、処理はステップS22に戻る。このように、抽出部32は、領域カウンタが閾値2に達するまで注目領域内の画素を1つずつ抽出してゆく。ただし、領域カウンタが閾値2に達することなく注目領域内のすべての画素が抽出されたときは、ステップS20の処理は終了する。
ステップS25において、サイズ決定部33は、縮小レベルを1段階引き上げる。ステップS26〜S27は、ステップS8〜S9と同じである。すなわち、縮小レベルの変更に応じて閾値1、2が更新され、また、注目点の座標がマッピングされる。
ステップS28において、画像変換部34は、ステップS25で新たに決定された縮小レベルに応じて、画像フレームをさらに縮小する。この後、動体追尾部13の処理はステップS21に戻る。したがって、動体追尾部13は、ステップS28で新たに生成された縮小画像フレームから注目領域を抽出する処理を開始する。
以下、図9A〜図9Bに示す手順で図8に示す画像フレームN+1を処理する実施例を説明する。ここでは、画像フレームN+1が入力されたとき、動体追尾部13は縮小レベル2で動作しているものとする。また、前回フレーム(すなわち、変換画像フレームn)の注目領域の大きさは「56」である。したがって、前回領域サイズデータは「56」である。
ステップS3において画像データN+1が読み込まれる。このとき、前回領域サイズデータは「56」であり、縮小レベル2の閾値1(=25)よりも大きいので、ステップS6、S8、S9は実行されることなく、ステップS10が実行される。
ステップS10において、画像フレームN+1は、縮小レベル2に従って変換され、変換画像フレームn+1が生成される。続いて、この変換画像フレームn+1に対してステップS20の処理が実行される。すなわち、図9Bに示すステップS21〜S28が実行される。
ステップS22〜S24では、変換画像フレームn+1において注目領域を形成する画素が抽出され、領域カウンタがカウントアップされる。そして、この領域カウンタが「100」に達すると、ステップS25において、縮小レベルが「2」から「3」に引き上げられる。さらに、ステップS27でマッピングされた注目点を利用して、ステップS28において、画像フレームN+1または変換画像フレームn+1から画像フレームXが生成される。
この後、画像フレームXに対してステップS22〜S24の処理が実行される。このとき、画像フレームXの注目領域の画素数は「30」であり、縮小レベル3の閾値2よりも少ない。したがって、ステップS22〜S24が繰り返し実行されたとき、ステップS24で「Yes」と判定されることなく、注目領域のすべての画素が抽出され、ステップS20の処理は終了する。さらに、図9AのステップS12〜S13が実行され、画像フレームN+1に対する画像処理は終了する。
なお、図8〜図9Bに示す方法では、領域カウンタが閾値2に達したことに伴って画像フレームが縮小されると(ステップS24〜S28)、縮小画像フレームにおいて注目領域が最初から抽出される。しかし、他の実施形態は、これに限定されるものではない。すなわち、例えば、領域カウンタが閾値2に達したときの状態情報を、縮小画像フレームに引き継ぐようにしてもよい。例えば、図8に示す例では、変換画像フレームN+1において注目領域内の画素として100個の画素が抽出されている。この場合、まず、変換画像フレームN+1において抽出された100個の画素に対応する領域を、画像フレームXにマッピングする。続いて、画像フレームXにおいて、変換画像フレームN+1からマッピングされた領域を注目領域の一部として設定する。そして、画像フレームXにおいて、残りの注目領域を抽出する。この方法によれば、図8〜図9Bに示す方法により、注目領域を抽出するための処理時間がさらに短縮される。
<その他>
図4〜図7に示す例では、ある画像フレームの注目領域の大きさに基づいてその次の画像フレームの画像サイズが決定される。また、図8〜図9Bに示す例では、ある画像フレームの注目領域の大きさに基づいてその画像フレームの画像サイズが決定される。しかしながら、発明に係る画像処理方法は、これらに限定されるものではない。すなわち、ある画像フレームの注目領域の大きさに基づいてその画像フレームから2フレーム以上後の画像フレームの画像サイズが決定されるようにしてもよい。或いは、リアルタイム処理が要求されないときは、ある画像フレームの注目領域の大きさに基づいてその画像フレームよりも前の画像フレームの画像サイズが決定されるようにしてもよい。
また、上述の実施例では、画素の特徴量(例えば、色成分)を利用して注目領域が抽出されるが、他の方法で注目領域を抽出してもよい。例えば、発明の画像処理方法は、追尾対象の輪郭の形状を利用して各画像フレームから注目領域を検出する場合にも適用可能である。
さらに、上述の実施例では、実施形態に係る画像処理装置は、デジタルカメラ内に設けられているが、デジタルカメラの外部に設けられてもよい。すなわち、実施形態に係る画像処理装置は、例えば、サーバコンピュータに設けられる。この場合、デジタルカメラから出力される画像データはサーバコンピュータへ送信される。そうすると、サーバコンピュータは、動体追尾処理を実行し、その結果をデジタルカメラへ返送する。そして、デジタルカメラは、サーバコンピュータから受信した追尾結果に応じて、例えば、焦点距離を制御する。
<ハードウェア構成>
図10は、各実施形態の画像処理装置のハードウェア構成を示す図である。図10において、CPU101は、メモリ103を利用して画像処理プログラムを実行する。記憶装置102は、画像処理プログラムを格納する。なお、記憶装置102は、外部記憶装置であってもよい。メモリ103は、例えば半導体メモリであり、RAM領域およびROM領域を含んで構成される。また、メモリ103は、例えば、画像フレームを一時的に格納するために使用されてもよい。このように、実施形態の画像処理装置は、プロセッサおよびメモリを含むコンピュータ(または、プロセッサシステム)により実現される。
読み取り装置104は、CPU101の指示に従って可搬型記録媒体105にアクセスする。可搬型記録媒体105は、例えば、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体を含むものとする。通信インタフェース106は、CPU101の指示に従って、ネットワークを介してデータを送受信する。入出力装置107は、この実施例では、表示装置、ユーザからの指示を受け付けるデバイス等に相当する。ただし、実施形態の画像処理装置は、通信インタフェース106および/または入出力装置107を含まなくてもよい。
実施形態に係わる画像処理プログラムは、例えば、下記の形態で提供される。
(1)記憶装置102に予めインストールされている。
(2)可搬型記録媒体105により提供される。
(3)プログラムサーバ110からダウンロードする。
そして、上記構成のコンピュータで画像処理プログラムを実行することにより、実施形態に係わる動体追尾部13(すなわち、抽出部32、サイズ決定部33、画像変換部34)の少なくとも一部が実現される。

Claims (10)

  1. 第1の画像フレームにおいて所定の条件を満たす注目領域を抽出する抽出部と、
    前記抽出部により抽出された注目領域の大きさに基づいて画像サイズを決定するサイズ決定部と、
    前記第1の画像フレームとは異なる処理対象画像フレームを前記サイズ決定部により決定された画像サイズに変換する画像変換部、を備え、
    前記抽出部は、前記画像変換部により変換された処理対象画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする画像処理装置。
  2. 記画像変換部は、前記第1の画像フレームよりも後の撮影時刻に得られた第2の画像フレームを前記サイズ決定部により決定された画像サイズに変換し、
    前記抽出部は、前記画像変換部により変換された前記第2の画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像変換部は、前記第1の画像フレームの次の撮影時刻に得られる第2の画像フレームを前記サイズ決定部により決定された画像サイズに変換し、
    前記抽出部は、前記画像変換部により変換された前記第2の画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 入力画像フレームにおいて所定の条件を満たす注目領域を抽出する抽出部と、
    前記抽出部により抽出された注目領域の大きさに基づいて画像サイズを決定するサイズ決定部と、
    前記入力画像フレームを前記サイズ決定部により決定された画像サイズに変換する画像変換部、を備え、
    前記サイズ決定部は、前記抽出部が前記入力画像フレームにおいて前記注目領域を抽出する抽出処理の途中で前記注目領域の大きさが閾値サイズを超えると判定したときは、前記抽出部による前記抽出処理が終了する前に前記画像サイズを決定し、
    前記画像変換部は、前記入力画像フレームを前記サイズ決定部により決定された画像サイズに変換し、
    前記抽出部は、前記画像変換部により変換された前記入力画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする画像処理装置。
  5. コンピュータに、
    第1の画像フレームにおいて所定の条件を満たす注目領域を抽出する工程、
    前記注目領域の大きさに基づいて画像サイズを決定する工程、
    前記第1の画像フレームとは異なる処理対象画像フレームを前記画像サイズに変換する工程、
    前記画像サイズに変換された処理対象画像フレームにおいて前記所定の条件を満たす注目領域を抽出する工程、
    を実行させることを特徴とする画像処理プログラム。
  6. 前記変換する工程は、前記第1の画像フレームの次の撮影時刻に得られる第2の画像フレームを前記決定する工程で決定された画像サイズに変換し、
    前記抽出する工程は、前記変換する工程で変換された前記第2の画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする請求項5に記載の画像処理プログラム。
  7. コンピュータに、
    入力画像フレームにおいて所定の条件を満たす注目領域を抽出する工程、
    前記注目領域の大きさに基づいて画像サイズを決定する工程、
    前記入力画像フレームを前記画像サイズに変換する工程、
    前記画像サイズに変換された入力画像フレームにおいて前記所定の条件を満たす注目領域を抽出する工程、を実行させるプログラムであり、
    前記決定する工程は、前記抽出する工程で前記入力画像フレームにおいて前記注目領域を抽出する抽出処理の途中で前記注目領域の大きさが閾値サイズを超えるか否か判定し、
    前記注目領域を抽出する抽出処理の途中で前記注目領域の大きさが前記閾値サイズを超えると判定される場合、
    前記決定する工程は、前記抽出処理が終了する前に前記画像サイズを決定し、
    前記変換する工程は、前記入力画像フレームを前記抽出処理が終了する前に決定された画像サイズに変換し、
    前記抽出する工程は、前記抽出処理が終了する前に決定された画像サイズに変換された前記入力画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする画像処理プログラム。
  8. 画像入力部と、
    前記画像入力部を制御する制御部と、
    前記画像入力部による生成された第1の画像フレームにおいて所定の条件を満たす注目領域を抽出する抽出部と、
    前記抽出部により抽出された注目領域の大きさに基づいて画像サイズを決定するサイズ決定部と、
    前記第1の画像フレームとは異なる処理対象画像フレームを前記サイズ決定部により決定された画像サイズに変換する画像変換部と、を備え、
    前記抽出部は、前記画像変換部により変換された処理対象画像フレームにおいて前記所定の条件を満たす注目領域を抽出し、
    前記制御部は、前記処理対象画像フレームにおいて抽出された注目領域に焦点を合わせるように前記画像入力部を制御する
    ことを特徴とするデジタルカメラ。
  9. 前記画像変換部は、前記第1の画像フレームの次の撮影時刻に得られる第2の画像フレームを前記サイズ決定部により決定された画像サイズに変換し、
    前記抽出部は、前記画像変換部により変換された前記第2の画像フレームにおいて前記所定の条件を満たす注目領域を抽出する
    ことを特徴とする請求項8に記載のデジタルカメラ。
  10. 画像入力部と、
    前記画像入力部を制御する制御部と、
    入力画像フレームにおいて所定の条件を満たす注目領域を抽出する抽出部と、
    前記抽出部により抽出された注目領域の大きさに基づいて画像サイズを決定するサイズ決定部と、
    前記入力画像フレームを前記サイズ決定部により決定された画像サイズに変換する画像変換部、を備え、
    前記サイズ決定部は、前記抽出部が前記入力画像フレームにおいて前記注目領域を抽出する抽出処理の途中で前記注目領域の大きさが閾値サイズを超えると判定したときは、前記抽出部による前記抽出処理が終了する前に前記画像サイズを決定し、
    前記画像変換部は、前記入力画像フレームを前記サイズ決定部により決定された画像サイズに変換し、
    前記抽出部は、前記画像変換部により変換された前記入力画像フレームにおいて前記所定の条件を満たす注目領域を抽出し、
    前記制御部は、前記入力画像フレームにおいて抽出された注目領域に焦点を合わせるように前記画像入力部を制御する
    ことを特徴とするデジタルカメラ。
JP2012514623A 2010-05-10 2010-05-10 画像処理装置および画像処理プログラム Active JP5553109B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/057904 WO2011141991A1 (ja) 2010-05-10 2010-05-10 画像処理装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2011141991A1 JPWO2011141991A1 (ja) 2013-07-22
JP5553109B2 true JP5553109B2 (ja) 2014-07-16

Family

ID=44914060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012514623A Active JP5553109B2 (ja) 2010-05-10 2010-05-10 画像処理装置および画像処理プログラム

Country Status (3)

Country Link
US (1) US8970723B2 (ja)
JP (1) JP5553109B2 (ja)
WO (1) WO2011141991A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10196088B2 (en) * 2011-04-19 2019-02-05 Ford Global Technologies, Llc Target monitoring system and method
US20150036880A1 (en) * 2012-03-29 2015-02-05 Nec Corporation Analysis system
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture
JP6866210B2 (ja) * 2017-03-31 2021-04-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
TWI786409B (zh) * 2020-06-01 2022-12-11 聚晶半導體股份有限公司 影像偵測裝置以及影像偵測方法
US11968353B2 (en) * 2021-04-05 2024-04-23 Acumera, Inc. Camera health determination based on local analysis of scene information content

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334335A (ja) * 2003-04-30 2004-11-25 Canon Inc 画像処理装置
JP2005348003A (ja) * 2004-06-02 2005-12-15 Koito Ind Ltd 指向装置及びこれを用いた光空間伝送装置
JP2007282188A (ja) * 2006-03-15 2007-10-25 Nikon Corp 被写体追尾装置、被写体追尾方法、被写体追尾プログラムおよび光学機器
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP2008191760A (ja) * 2007-02-01 2008-08-21 Toyota Central R&D Labs Inc 対象物検出装置、対象物検出方法、及びプログラム
WO2008114683A1 (ja) * 2007-03-16 2008-09-25 Nikon Corporation 被写体追跡用コンピュータプログラム製品、被写体追跡装置、およびカメラ
JP2009225236A (ja) * 2008-03-18 2009-10-01 Panasonic Corp 撮像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5979868A (ja) 1982-10-29 1984-05-09 Nec Corp 移動物体追跡装置
JP2003319386A (ja) 2002-04-22 2003-11-07 Gen Tec:Kk モバイル端末機への撮影画像伝送システム
JP4241742B2 (ja) 2006-01-31 2009-03-18 パナソニック株式会社 自動追尾装置及び自動追尾方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334335A (ja) * 2003-04-30 2004-11-25 Canon Inc 画像処理装置
JP2005348003A (ja) * 2004-06-02 2005-12-15 Koito Ind Ltd 指向装置及びこれを用いた光空間伝送装置
JP2007282188A (ja) * 2006-03-15 2007-10-25 Nikon Corp 被写体追尾装置、被写体追尾方法、被写体追尾プログラムおよび光学機器
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP2008191760A (ja) * 2007-02-01 2008-08-21 Toyota Central R&D Labs Inc 対象物検出装置、対象物検出方法、及びプログラム
WO2008114683A1 (ja) * 2007-03-16 2008-09-25 Nikon Corporation 被写体追跡用コンピュータプログラム製品、被写体追跡装置、およびカメラ
JP2009225236A (ja) * 2008-03-18 2009-10-01 Panasonic Corp 撮像装置

Also Published As

Publication number Publication date
US8970723B2 (en) 2015-03-03
JPWO2011141991A1 (ja) 2013-07-22
WO2011141991A1 (ja) 2011-11-17
US20130057728A1 (en) 2013-03-07

Similar Documents

Publication Publication Date Title
JP6271990B2 (ja) 画像処理装置、画像処理方法
US9710923B2 (en) Information processing system, information processing device, imaging device, and information processing method
JP5036599B2 (ja) 撮像装置
JP4623193B2 (ja) 撮像装置、撮像方法、及びプログラム
US8131014B2 (en) Object-tracking computer program product, object-tracking device, and camera
JP5553109B2 (ja) 画像処理装置および画像処理プログラム
JP2007072606A (ja) 画像処理装置及び方法
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
JP2010021698A (ja) 画像処理装置およびプログラム
JP2009193421A (ja) 画像処理装置、カメラ装置、画像処理方法、およびプログラム
JP2011040902A (ja) 撮像装置及び撮像装置用制御装置
US8295609B2 (en) Image processing apparatus, image processing method and computer readable-medium
US20170201665A1 (en) Image capturing apparatus and image capturing method
US8644555B2 (en) Device and method for detecting movement of object
US8269859B2 (en) Photographing apparatus that performs distortion correction in association with digital and optical zoom, method of controlling the same, and recording medium having recorded thereon computer program to implement the method
JP2007096437A (ja) 画像生成者の意図の判定
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
CN108737698A (zh) 图像稳定设备和方法、摄像设备、摄像系统和存储介质
CN114286011B (zh) 对焦方法和装置
JP6231816B2 (ja) 撮像装置およびその制御方法、プログラム並びに記憶媒体
CN112995498B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
JP2011182014A (ja) 撮像装置、撮像処理方法及びプログラム
CN113891018A (zh) 拍摄方法、装置及电子设备
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5322842B2 (ja) 自動合焦装置、自動合焦方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140513

R150 Certificate of patent or registration of utility model

Ref document number: 5553109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150