JP2010113513A - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP2010113513A
JP2010113513A JP2008285531A JP2008285531A JP2010113513A JP 2010113513 A JP2010113513 A JP 2010113513A JP 2008285531 A JP2008285531 A JP 2008285531A JP 2008285531 A JP2008285531 A JP 2008285531A JP 2010113513 A JP2010113513 A JP 2010113513A
Authority
JP
Japan
Prior art keywords
image
likelihood
pyramid
image data
lower layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008285531A
Other languages
English (en)
Other versions
JP4687772B2 (ja
Inventor
Yuyu Liu
玉宇 劉
Keisuke Yamaoka
啓介 山岡
Takayuki Ashigahara
隆之 芦ヶ原
Xi Chen
シ 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008285531A priority Critical patent/JP4687772B2/ja
Priority to US12/613,899 priority patent/US8160370B2/en
Priority to CN2009102208037A priority patent/CN101739658B/zh
Publication of JP2010113513A publication Critical patent/JP2010113513A/ja
Application granted granted Critical
Publication of JP4687772B2 publication Critical patent/JP4687772B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】物体検出・追跡処理などの画像処理として、これまでよりも有効なものを提供する。
【解決手段】入力した画像データに基づいて複数の異なるスケールの層画像データから成る画像ピラミッドを形成するとともに、対象物について固定スケールとしたテンプレートを用意する。これにより、テンプレートが該当する画像ピラミッド内位置を求める。次にこの画像ピラミッド内位置に基づいて特定された上側層画像データと下側層画像データごとにパーティクルとの照合により尤度を求める。次に、これらの尤度を用いて真の尤度を求める補間処理を行う。
【選択図】図3

Description

本発明は、特にピラミッド画像を利用した画像処理装置とその方法に関する。また、このような画像処理装置が実行するプログラムに関する。
特許文献1に記載されているように、画像処理において画像ピラミッドの手法を用いることが知られている。
処理対象の物体の撮像画像を得るために実際に撮像を行う場合においては、その物体と撮像装置との間の撮像距離の変化により、画像上での物体のスケール(スケール)が変化するが、画像処理によっては、このことが問題となる場合がある。
そこで、画像ピラミッドの手法を利用して、スケールにより階層化された画像を用いるようにすれば、上記したような画像上での物体のスケールの変化に関わらず画像処理を行うことができる。
E. Andelson, et al., "Pyramid methods in image processing", RCA Engineer, 29(6):22-41.
本願発明としても、画像ピラミッドを利用した画像処理として、例えば予め設定した対象物についての物体検出、追跡など行おうというものであり、その際において、画像ピラミッドの利用に関して、これまでよりも効率的、かつ高い処理能力が得られるようにすることを目的とする。
そこで本発明は上記した課題を考慮して、画像処理装置として次のように構成する。
つまり、入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手段と、固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手段と、上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手段と、上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手段と、上記上層対応尤度算出手段と下層対応尤度算出手段により求められた尤度から真尤度を求める真尤度算出手段とを備えることとした。
上記構成では、入力した画像データに基づいて複数の異なるスケールの層画像データから成る画像ピラミッドが形成されるとともに、対象物について固定スケールとしたテンプレートが用意され、テンプレートが該当する画像ピラミッド内位置(画像ピラミッドでの高さ位置)が求められる。そして、この画像ピラミッド内位置に基づいて特定された上側層画像データと下側層画像データごとに、状態予測値との照合により尤度が求められる。上記上側層画像データと下側層画像データのそれぞれに応じて求められた尤度は、それぞれが真の対象物のスケールよりも大きいスケール・小さいスケールに対応して得られた近似値となる。そこで、これらの尤度を用いて真の尤度を求めるようにしている。つまり、本願発明では、画像ピラミッドを形成する層画像データの数に対応して決まる分解能よりも高い分解能によって、より高い精度で尤度が求められるものである。
これにより本発明は、画像ピラミッドを利用した物体検出・追跡処理などの画像処理として、これまでよりも有効なものを提供できる。
本願発明を実施するための最良の形態(以下、実施形態という)としては、本願発明に基づく構成を、特定部位の追跡処理を実行する追跡処理システムに適用したものを挙げる。
以降の説明は下記の順により行う。

<1.画像ピラミッド>
<2.追跡処理システム構成例>
<3.頭部追跡処理システム構成例>
<4.コンピュータ装置の構成例>
<1.ピラミッド画像>

先ず、図1及び図2により、本実施形態の追跡処理システムが利用する画像ピラミッドについて説明しておく。
図1には、第0層画像P0、第1層画像P1、第2層画像P2、第3層画像P3、第4層画像P4、第5層画像P5の6枚の画像が示されている。
ここで、第0層画像P0〜第5層画像P5は、それぞれが同じ画像を内容を有したうえで、それぞれが異なるスケール(サイズ・解像度)を有する。
この場合には第0層画像P0〜第5層画像P5のうちで、最も大きなスケールの画像が第0層画像P0である。以降、第1層画像P1、第2層画像P2、第3層画像P3、第4層画像P4、第5層画像P5の順で、画像のスケールが小さくなっていく。
図2においては、図1における第0層画像P0、第1層画像P1、第2層画像P2を抜き出して示している。第0層画像P0の水平×垂直画素数=H×Vであるとすると、第1層画像P1は、予め定められた所定の縮小率rd1(rd1<1)により第0層画像P0を縮小して得られる、水平×垂直画素数=H・(1-rd1)×V・(1-rd1)により表されるスケールの画像となる。また、第2層画像P2は、予め定められた縮小率rd1よりも大きな所定の縮小率rd2により第0層画像P0を縮小して得られる、水平×垂直画素数=H・(1-rd2)×V・(1-rd2)のスケールによる画像となる。
このようにして、スケールは第0層画像P0〜第5層画像P5の順で小さくなっていく。そでこ、これらの層画像について、第0層画像P0を最下層として階層化するようにして上方向に順に積み上げていったとする。すると、その層画像の外周に接する面により、図1に示すようにして四角錐、即ちピラミッド形状が形成されるものとしてみることができる。このようにして、層画像を階層化して積み上げることに応じて形成されるピラミッド形状を、ここでは画像ピラミッド100という。このようにして形成される画像ピラミッド100では、1つの同じ画内容を有する画像のスケールが、ピラミッドにおける高さ位置により変化することになる。ちなみに、画像ピラミッド100において高い位置となるほど画像のスケールは小さくなっていく。
本実施形態において、上記のような画像ピラミッド100を形成するのにあたっては、第0層画像を基とする。つまり、入力したフレーム画像データ(原フレーム画像データ)を第0層画像とする。そのうえで、例えば、原フレーム画像データについて、それぞれ異なる所定の縮小率により縮小処理を行って得られる画像を、それぞれ、第1層画像P1〜第5層画像P5とするものである。
なお、ここでは、画像ピラミッド100を形成する層画像について、第0層画像P0〜第5層画像P5の6枚としているが、これはあくまでも一例である。つまり、画像ピラミッド100を形成する画像の階層数は2以上の範囲において特に限定されるべきものではなく、実際のシステムが対応する入力画像データ(原フレーム画像データ)のスケール、システムが有するハードウェア、ソフトウェアの処理能力、要求される追跡処理性能などに応じて設定すればよい。
<2.追跡処理システム構成例>

図3は、本実施形態の追跡処理システム1としての構成例を示している。この追跡処理システムは、動画としての画像データを入力して、この画像データの画像に基づいて、追跡対象として設定された特定の物体(対象物)を追跡するようにして構成される。
この図に示す追跡処理システム1において、動画としての画像データはピラミッド化処理部11が入力する。なお、この追跡処理システム1(ピラミッド化処理部11)が入力する動画の画像データは、例えばリアルタイムに実行する撮像により得ることができる。
ピラミッド化処理部11は、入力される画像データをフレーム画像単位で順次取り込む。そして、取り込んだフレーム画像について、図1、図2にて説明したようにして、所定枚数分の層画像データを生成する。つまり、画像ピラミッドを生成する。なお、このときには、ピラミッド化処理部11は、取り込んだフレーム画像データを第0層画像としたうえで、例えば第0層画像のデータを利用した画像縮小処理によって、第0層画像のデータより小さい所定のスケールによる必要枚数分の層画像を生成する。
また、図3においてはピラミッド化処理部11により形成された画像ピラミッド100として、図1と同様に、第0層画像P0〜第5層画像P5までの6層から成るものを例示している。しかし、先に述べたように、これはあくまでも一例であって、実際に形成される層数は、適宜、前述の条件等を考慮して決定されるべきものである。
ここで、図3に示されるテンプレート110は、追跡処理システム1に対して追跡処理の対象として設定された物体(対象物)を画内容として有する画像データとなる。テンプレート110は予め定められた規定のスケールの画像(画枠)内において対象物の画像部分が存在している。従って、テンプレートにおいて示される対象物も、或る決まった固定のスケールを有していることになる。
一方、追跡処理システム1(ピラミッド化処理部11)に対して入力される画像データ(入力画像データ)は、例えばリアルタイムの撮像により得られる画像データであり、従って、撮像されている現実の対象物の動きによっては、時間経過に応じて、対象物までの撮像距離が変化し得る。
このことは、入力画像データにおける対象物のスケールは、テンプレートにおける対象物のスケールと同じである保証はない、ということを意味している。
このようにして対象物のスケールが異なる画像を照合して現時刻における対象物の位置(尤度)を高い精度で求めることは非常に難しい。換言すれば、高い精度で尤度を求めようとすれば、テンプレートと入力画像データとの対象物のスケールが同じとなるようにしてやる必要がある。
このために本実施形態では、ピラミッド化処理部11により入力画像データを画像ピラミッド100として形成することとしている。そのうえで、画像ピラミッド100を形成する層画像のうちから、テンプレートにおける対象物のスケールに最も近いとされる層画像を特定する。そして、この特定した層画像とテンプレートの画像とを照合して対象物の位置についての尤度を求める。
ピラミッド内位置算出部12は、ピラミッド化処理部11により形成された画像ピラミッド100に対してテンプレート100を当てはめたとするときに、このテンプレート110における対象物のスケールが該当するものとされる高さ位置(ピラミッド内位置)を求める。
ここで、画像ピラミッド100は、層画像単位でみれば、その層画像数により離散化している、つまり、ピラミッドの高さとしては、層画像に応じた分解能による段階的な高さを持つものとしてみえる。
しかし、ピラミッド内位置算出部12は画像ピラミッド100の高さを連続したものとして扱い、この連続した高さのなかでピラミッド内位置を算出する。ただし、現実にはデジタル処理であるので、厳密には、算出されるピラミッド内位置は離散的なものとなり有限の分解能を有することにはなる。しかし、ピラミッド内位置の分解能は、層画像に応じた分解能と比較して遙かに高く、この点で、連続しているとみてよい。
ここで、テンプレート110としての画像における対象物のスケールは既知である。また、画像ピラミッド100における第0層画像P0は入力画像データであるから、この入力画像データの画像における対象物のスケールは容易に検出できる。また、第0層画像P0のスケールが既知となれば、これより上の階層の層画像における対象物のスケールも既知であることになる。これは、画像ピラミッド100が形成された時点で、画像ピラミッドの高さと、対象物のスケールとの対応関係も既知になっていることを意味する。従って、ピラミッド内位置算出部12としては、例えばテンプレート100における対象物のスケールと、第0層画像P0における対象物のスケールとの比率を求めることで、ピラミッド内位置が求められることになる。そして、先の説明から理解されるように、このようにして求められるピラミッド内位置としては、或る1つの層画像と、これより1階層上の層画像との間における或る高さを示し得るものとなる。図3においては、例として、一点鎖線により示すように、第2層画像P2と第3層画像P3との間においてピラミッド内位置が求められた結果を示している。
ピラミッド内位置算出部12が求めたピラミッド内位置の情報は、尤度算出部13に渡される。
尤度算出部13は、先ず、渡されたピラミッド内位置を挟むことになる、各1つの上側層画像と下側層画像とを特定する。図3の例であれば、ピラミッド内位置は、第2層画像P2と第3層画像P3の間であるとして求められているので、上側層画像として第3層画像P3を特定し、下側層画像として第2層画像P2を特定することになる。
なお、この上側層画像と下側層画像の特定をピラミッド内位置算出部12により行って、上側層画像及び下側層画像が、それぞれどの層画像であるのかを示すことのできる情報を、ピラミッド内位置算出部12から尤度算出部13に渡すようにしてもよい。
この尤度算出部13は、上層側尤度算出部21と下層側尤度算出部22との2つの尤度算出部を備えるものとしている。これらの尤度算出部は、例えばパーティクルフィルタなどとして形成される。上層側尤度算出部21は、観測値としての上側層画像と、生成したパーティクルとを照合することによってパーティクルごとの尤度を求める。同様に、下層側尤度算出部22は、観測値としての下側層画像と、テンプレートとを照合することによってパーティクルごとの尤度を求める。
つまり、本実施形態では、画像ピラミッド100を形成する層画像のうちから、テンプレート110における対象物のスケールが対応するピラミッド内位置に対して、直上となる層画像と、直下となる層画像との、2つの観測値ごとに尤度を求めるようにする。ここで、上記直上となる層画像は、テンプレート110より小さいスケールの対象物が存在する層画像のうちで、テンプレート110に最も近いスケールの対象物が存在する層画像となる。また、上記直下となる層画像は、テンプレート110より大きいスケールの対象物が存在する層画像のうちで、テンプレート110に最も近いスケールの対象物が存在する層画像となる。また、上層側尤度算出部21と下層側尤度算出部22は、それぞれパーティクルごとに個別の尤度を求めたうえで、これらの個別の尤度に基づいて最終的には、最尤推定値としての尤度を求めるものとする。
上記の説明から理解されるように、上層側尤度算出部21と下層側尤度算出部22のそれぞれにより求められた尤度は、それぞれ、テンプレート110における対象物のスケールを基準とすれば、これより小さなスケールの対象物との照合により求めることのできるもののうちで誤差が最小の近似値、また、これより大きなスケールの対象物との照合により求めることのできるもののうちで誤差が最小の近似値となる。このことは、テンプレート110における対象物スケールに一致する真の尤度は、上記2つの近似値の間において存在することを意味する。
そこで真尤度算出部14は、上層側尤度算出部21により求められた尤度(上層側尤度)と、下層側尤度算出部22により求められた尤度(下層側尤度)とを利用した処理により、上記真の尤度として扱うことのできる尤度(真尤度)を求めるための処理を実行する。
ここで、真尤度算出部14が真の尤度を求めるのにあたっては、例えば上記上層側尤度としての値と、下層側尤度としての値とについての補間に相当する処理を行うようにすればよい。また、この真尤度算出部14が実行する真の尤度を求めるためのアルゴリズムの具体例については後述する。
例えば画像ピラミッドを採用しない場合には、観測値である入力画像データにおける対象物のスケールなどの変化に対して、テンプレートの画像における対象物のスケールなどが入力画像データと一致させる必要がある。このために、入力画像データにおける対象物のスケールの変化に適応させてテンプレートの画像のスケール(及び対象物の中心位置、回転角度など)を変更するという処理を行うことが必要になる。しかし、このような処理のための演算は非常に重い。
そこで、本実施形態のようにして画像ピラミッドの手法を採用することとしている。これにより、テンプレート110については固定とできる。そのうえで、先の説明のようにして、選択した層画像とテンプレート110とを照合することとすれば、入力画像データのスケールに対応させてテンプレート110の画像のスケールを変化させてから照合を行っているのと同等の結果が得られることになる。
また、画像ピラミッドを用いた尤度算出の一般的な手法であるが、これは例えば、求められたピラミッド内位置に最も近い位置に存在する1枚の層画像を選択し、この選択した層画像を利用して照合処理を行う、というものになる。
しかし、画像ピラミッドを形成する層画像の数(階層数)は、むやみに多くすることは現実的ではなく、ピラミッド化処理の重さなどを考慮して適当な数に制限される。このために、上記の一般的な手法では、算出される尤度も、層画像の数に応じた離散したスケール(スケール)までしか反映されない。つまり、層画像の数に応じた粗い分解能のもとで、テンプレート110の対象物のスケールに最も近い層画像に基づいた近似値しか取り得ない。
この近似値をできるだけ真の尤度に近づけようとするのであれば、画像ピラミッドを形成する層画像の数を多くしていけばよい。しかし、上記もしたように、階層数を多くすれば、それだけピラミッド化処理などが重くなってしまい、画像ピラミッドを採用することによる処理負担軽減の利点が活かされなくなる。
そこで、本実施形態では、求められたピラミッド内位置を挟む上側層画像と下側層画像の2つの層画像を選択し、これらの層画像ごとに求めた尤度を基に、例えば補間処理などにより真の尤度を求めるようにしている。
これにより、本実施形態では、画像ピラミッドを形成する層画像の数を一定以下に抑えたうえで、テンプレート110と同じ対象物のスケールの入力画像データと照合を行ったのと同等の精度による尤度(真の尤度)を得ることが可能とされている。
ところで、先の説明のようにして、尤度算出部13における上層側尤度算出部21と下層側尤度算出部22は、パーティクルと層画像とを照合することにより尤度を求めるが、この際において採用可能なメジャー(照合手法:matching measure)としては複数が知られている。
本実施形態の上層側尤度算出部21と下層側尤度算出部22の最も基本的な構成としては、複数のメジャーのうちから、例えば実際の対象物などに対応して最適となる1つのメジャーを選定し、この選定したメジャーを上層側尤度算出部21と下層側尤度算出部22に適用する、というものを考えることができる。
しかし、本願発明者等は、単一のメジャーにより尤度を求めるのではなく、複数のメジャーにより尤度を求めたうえで、これらの尤度を統合することで、例えばロバスト性などの性能が向上することを確認した。
そこで、本実施形態では、層画像の上層側と下層側とのそれぞれについて、複数のメジャーを適用するという構成を取り得ることとした。このような複数のメジャーを適用した追跡処理システムの構成例を、図4に示す。なお、図3に示されているピラミッド化処理部11及びピラミッド内位置算出部12は、適用されるメジャーが単一、複数のいずれとされても特に構成が変更されることはない。このために、図4においては、図3におけるピラミッド化処理部11、及びピラミッド内位置算出部12についての図示は省略している。
図4において、先ず、上層側尤度算出部21は、第1照合部31−1〜第N照合部31−NまでのN個の照合部を備える。第1照合部31−1〜第N照合部31−Nは、それぞれが異なるメジャーが適用される。ここでは、第1照合部31−1〜第N照合部31−Nごとに適用されるメジャーについて、第1メジャー〜第Nメジャーということにする。
第1照合部31−1は、上側層画像を第1メジャーに対応する観測値として取り込み、パーティクルとの照合を行って尤度を得る。同様にして、第2照合部31−2〜第N照合部31−Nは、それぞれ、上側層画像を第2メジャー〜第Nメジャーに対応する観測値として取り込み、パーティクルとの照合を行って尤度を得る。
また、下層側尤度算出部22も、上層側尤度算出部21と同数の、第1照合部32−1〜第N照合部32−NまでのN個の照合部を備える。そのうえで、第1照合部32−1〜第N照合部32−Nについても、それぞれ異なる第1メジャー〜第Nメジャーを適用する。これにより、第1照合部32−1〜第N照合部32−Nは、それぞれ、下側層画像を第1〜第Nメジャーに対応する観測値として扱ってパーティクルとの照合処理を行って、尤度を算出する。
上記のようにして、上層側尤度算出部21における第1照合部31−1と下層側尤度算出部22における第1照合部32−1とは、互いに共通のメジャーが適用された構成を採る。同様に、上層側尤度算出部21における第2照合部31−1〜第N照合部31−Nと、下層側尤度算出部22における第2照合部32−1〜第N照合部32−Nとは、それぞれ、互いに共通のメジャーが適用された構成を採る。
上記の尤度算出部13の構成によれば、上層側尤度算出部21からは、第1照合部31−1〜第N照合部31−N(第1メジャー〜第Nメジャー)のそれぞれにより求められたN個の尤度が出力されることになる。同様にして、下層側尤度算出部22からは、第1照合部32−1〜第N照合部32−N(第1メジャー〜第Nメジャー)のそれぞれにより求められたN個の尤度が出力される。
この場合の真尤度算出部14は、照合部(メジャー)の数に対応して、同じくN個の第1算出部33−1〜第N算出部33−Nを備える。
第1算出部33−1は、共通の第1メジャーに基づいて得られた尤度、即ち、上層側尤度算出部21の第1照合部31−1と、下層側尤度算出部22の第1照合部32−1とから出力される尤度について、例えば補間に相当する処理を行って、第1メジャーに基づく真の尤度を求める。
同様にして、残る第2算出部33−2〜第N算出部33−Nは、それぞれ、共通の第2メジャー〜第Nメジャーに基づいて得られた尤度(上層側尤度算出部21の第2〜第N照合部31−2〜31−Nと、下層側尤度算出部22の第1〜第N照合部32−2〜32−Nとから出力される尤度)を利用した補間処理により、第2〜第Nメジャーに基づく真の尤度を求める。
この場合には、第1〜第Nメジャーごとに応じて求められた真の尤度がN個出力されることになる。そこで図4の構成においては、尤度統合部15により、これらの複数の尤度を統合して最終的な推定値(推定結果)出力することとしている。
なお、尤度統合部15が実行する尤度統合処理としての具体的なアルゴリズムについてはいくつか考えられるものであり、ここでは特に限定されるべきものではない。例えば最も簡単な例としては、取り込んだ複数の尤度のうちから最大値のものを統合された尤度として出力することが考えられる。また、第1〜第Nメジャーごとに対応させて重み付け計数を設定したうえで、取り込んだ複数の尤度についての重み付け平均値を求め、これを統合された尤度とすることも考えられる。
<3.頭部追跡処理システム構成例>

続いては、上記図3、図4により説明した本実施形態の追跡処理システムについて、人体の頭部追跡に適用した場合の具体的な構成例について説明していくこととする。
本実施形態の頭部追跡にあたっては、先ず、図6に示すようにして、人体頭部の画像を含む方形の画像部分を頭部画像エリアとして定義する。
この場合の頭部画像エリアは、水平スケール=垂直スケール=sによる正方形による画像領域とされ、この画像領域内において一定の比率により人体頭部としてのΩ形状が収まるようにされたものとなる。また、頭部画像エリアにおいては、その中心位置Cが定義される。この場合の中心位置Cは、例えば正方形による頭部画像エリアの対角線の交点であるとしている。本実施形態の頭部追跡システムは、このようにして頭部画像エリアにおいて存在するΩ形状としての頭部を追跡する。
次に、上記Ω形状としての人体頭部を追跡するために、尤度算出部13に適用すべき複数のメジャーとしては、下記の第1〜第4メジャーの4つを選定することとした。
・第1メジャー:「頭部マスク画像の輪郭に対するChamfer距離」
・第2メジャー:「頭部Ω形状内部におけるマスク画素の割合」
・第3メジャー:「頭部Ω形状外部におけるマスク画素の割合」
・第4メジャー:「頭部Ω形状のエッジに対するChamfer距離」
なお、本願発明者等は、検討の結果、上記の4つのメジャーを適用することにより、人体頭部追跡処理として高いロバスト性が得られることを確認している。
図5は、上記第1〜第4メジャーを採用した人体頭部追跡システムの構成例を示している。
なお、この図においては、人体頭部追跡システムとして、尤度算出部13と、人体頭部追跡のために新規に設けることとなった頭部マスク画像化部16−U,16−D、及び頭部エッジ画像化部17−U,17−Dとを抜き出して示している。ここでは図示していないピラミッド化処理部11、ピラミッド値算出部12、及び真尤度算出部14、尤度統合部15などは、例えば図3、図4により説明したのと同様の構成でよい。
上記した第1〜第4メジャーを採用する場合、第1〜第3のメジャーの3つのメジャーに対応した照合処理としては、観測値となる画像データとして、頭部のΩ形状をマスキングした画像(頭部マスク画像)を利用すべきことになる。また、残る第4メジャーに対応した照合処理に際しては、観測値となる画像データとして、頭部Ω形状のエッジを抽出した画像(頭部エッジ画像)を利用すべきことになる。
そこで、図5に示すように、ピラミッド化処理部11(ここでは図示せず)により形成された画像ピラミッド100から取り出した上側層画像に対応させては、頭部マスク画像化部16−U及び頭部エッジ画像化部17−Uを設けることとした。同じく、下側層画像にも対応させて、頭部マスク画像化部16−D及び頭部エッジ画像化部17−Dを設けることとした。
頭部マスク画像化部16−U,16−Dは、入力した層画像(上側層画像、下側層画像)の画像データについて、ここに存在する頭部Ω形状を検出し、この検出した頭部Ω形状の画像部分をマスキングした画像(頭部マスク画像)に変換する画像処理を実行する。
また、頭部エッジ画像化部17−U,17−Dは、入力した層画像(上側層画像、下側層画像)の画像データについて、ここに存在する頭部Ω形状のエッジを抽出し、このエッジにより頭部Ω形状が表現された画像(頭部エッジ画像)に変換する。
次に、尤度算出部13については、上記した第1〜第4メジャーを採用したことに応じて、上層側尤度算出部21において第1照合部31−1〜第4照合部31−4の4つの照合部を設けることとした。同様に、下層側尤度算出部22においても第1照合部32−1〜第4照合部32−4の4つの照合部を設けることとした。
ここで、尤度算出部13における8つの各照合部(31−1〜31−4,32−1〜32−4)は、先にも述べたように、例えばパーティクルフィルタが適用される。これらの照合部について共通となる、パーティクルフィルタを利用した処理としては次のようになる。
先ず、照合部の各々は、図6により頭部Ω形状の中心位置C、及びスケール(スケール)sの組み合わせ状態を多数予測する。つまり、中心位置C及びスケールsの組み合わせによる状態予測値を多数生成する。この状態予測値のそれぞれが、ここではパーティクルに相当する。ここで、頭部Ω形状の中心位置Cについては座標(u,v)により表現されるものとすると、パーティクルは、

Figure 2010113513

のようにして三次元のパラメータベクトルとして表すことができる。(数1)において変数iはパーティクルに付した番号を示し、tは現時刻を示す。
なお、パーティクルは、模式的には図7に示すものとなる。この図に示される個々のパーティクルは、自身に与えられた予測値に対応したピラミッド内での高さ(スケールに相当する)、及び中心位置Cに応じた空間位置に存在するものとなる。
そして、各照合部は、これらのパーティクルごとに、適用されたメジャーに従って観測値である層画像の画像データと照合し、その結果から、パーティクルiごとの尤度Wiを求める。
なお、各照合部の処理によりパーティクルごとに求めた尤度に基づいては、結果的に、現時刻tにおける最尤推定値を得ることができる。これは、例えば下記の(数2)で表される演算により求めることができる。

Figure 2010113513
次に、各照合部の処理としては次のようになる。
先ず、上層側尤度算出部21の第1照合部31−1は、第1メジャーに対応した処理として、頭部マスク画像化された上側層画像を観測値として入力する。そして、頭部マスク画像の輪郭に対するChamfer距離に基づいたパーティクルとの照合処理を行い、尤度を求める。
下層側尤度算出部22の第2照合部32−1も、同様に、第1メジャーに対応して、頭部マスク画像化された下側層画像を入力し、頭部マスク画像の輪郭に対するChamfer距離に基づいたパーティクルとの照合処理を行い、尤度を求める。
同様に、上層側尤度算出部21の第2照合部31−2及び下層側尤度算出部22の第2照合部32−2も、それぞれ、頭部マスク画像である上側層画像・下側層画像を観測値として入力する。そして、ここでは頭部Ω形状内部におけるマスク画素の割合に基づいた照合処理により尤度を求める。
また、上層側尤度算出部21の第3照合部31−3及び下層側尤度算出部22の第3照合部32−3は、それぞれ、頭部マスク画像である上側層画像・下側層画像を観測値として入力し、頭部Ω形状外部におけるマスク画素の割合に基づいた照合処理により尤度を求める。
上層側尤度算出部21の第4照合部31−4及び下層側尤度算出部22の第4照合部32−4は、それぞれ、頭部エッジ画像である上側層画像・下側層画像を観測値として入力し、頭部Ω形状のエッジに対するChamfer距離に基づいた照合処理により尤度を求める。
ここでの図示は省略しているが、この場合の真尤度算出部14は、第1〜第4メジャーの4つのメジャーが適用されたことに応じて、第1算出部33−1〜第4算出部33−4の4つの算出部を備えることになる。
第1算出部33−1は、同じ第1メジャーが対応する、上側層画像対応の第1照合部31−1,下側層画像対応の第1照合部32−1からの尤度を入力して補間処理を実行し、第1メジャーに対応した真の尤度を得る。
同様に、残る第2算出部33−2〜第4算出部33−4は、それぞれ、第1〜第3メジャーが対応する、上側層画像対応の第2照合部31−2〜第4照合部31−4、及び下側層画像対応の第2照合部32−2〜第4照合部31−4からの尤度を入力して補間処理を実行する。これにより、第2算出部33−2〜第4算出部33−4は、それぞれ、第2〜第4メジャーに対応した真の尤度を得ることができる。
ここで、補間処理の具体例として、第1メジャーもしくは第4メジャーのようにChamfer距離を利用したアルゴリズムに対応する演算を(数3)として示しておく。なお、この(数3)は説明を簡単で分かりやすいものとすることの便宜上、Chamfer距離についての補間を行うアルゴリズムを示している。

Figure 2010113513

上記(数3)において、dは照合対象とされているパーティクルが有しているとされる真のChamfer距離(尤度)を表す。d1は、上側層画像との照合処理(第1照合部31−1もしくは第4照合部31−4)によって求められたChamfer距離を表す。d2は下側層画像との照合処理(第1照合部32−1もしくは第4照合部32−4)によって求められたChamfer距離を表す。また、scaleは照合対象とされているパーティクルが示す対象物のスケール(図のスケールsに相当する)、scale1は上側層画像における対象物のスケール、scale2は下側層画像における対象物のスケールを示す。
Chamfer距離から尤度は一義的に求めることができる。従って、上記(数3)に基づけば、Chamfer距離に基づく尤度についても、補間処理によって真の尤度を算出可能であることが導かれる。
なお、真尤度算出部14における各算出部が実行する、真の尤度を算出するための補間処理としては、多様に考えられる。例えば最も単純なものでは線形補間も有効である。また、上記の例ではピラミッド内位置を基準とした直上・直下にある2つの層画像に基づいて2つの尤度を求め、これらを補間することとしている。しかし、ピラミッド内位置を基準として選択した3以上の層画像に基づいて得られる3以上の尤度を利用した補間処理により真の尤度を求めるようにすることも考えられる。この場合においては、例えばバイキュービック(bicubic)補間、スプライン(spline)補間などを採用できる。
また、追跡処理の学習によりパーティクルの拡散が或る範囲にまで収まってきた状態では、各パーティクルが示すスケールも或る範囲に収まってくることになる。これは、パーティクルが画像ピラミッド100において或る高さ位置の範囲に集中して存在することを意味する。
このような状態では、ピラミッド内位置も、パーティクルの高さ位置付近にて安定して求められるような状態となり、結果として、ピラミッド内位置に基づいて選択される上側層画像及び下側層画像の階層も或る程度特定できるようになる。
そこで、ピラミッド化処理部11について次のように構成することが考えられる。つまり、ピラミッド内位置に基づいて選択される上側層画像及び下側層画像の階層が一定以上の確率で特定されるようになった状態では、選択される可能性が無いとしてみることのできる層画像については生成しないようにして画像ピラミッドを生成するように構成する。このような構成とすれば、生成すべき層画像数を通常よりも少なくできるために、処理が軽くなる。
<4.コンピュータ装置の構成例>

これまでに説明してきた本実施形態としての追跡処理システムは、図3,図4,図5などに示した機能構成に対応して形成したハードウェアにより実現できる。また、図3,図4,図5などに示した機能構成に対応する処理を実行させるプログラムを記述したソフトウェアにより実現することもできる。また、このようなハードウェアとソフトウェアを組み合わせて併用することもできる。
そして、本実施形態の動態推定のために必要な処理の少なくとも一部をソフトウェアにより実現するのにあたっては、そのソフトウェアを構成するプログラムを、動態推定システムとしてのハードウェア資源であるコンピュータ装置(CPU)に実行させることになる。あるいは、汎用のパーソナルコンピュータなどのコンピュータ装置にプログラムを実行させることで、コンピュータ装置に対して、動態推定のために必要な処理を実行する機能を与えるようにされる。
ここで、図8により、本実施形態の動態推定システムに対応するプログラムを実行可能な装置として、コンピュータ装置(情報処理装置)についての構成例を示しておく。
このコンピュータ装置200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。
入出力インターフェース205には、入力部206、出力部207、記憶部208、通信部209、ドライブ210が接続されている。
入力部206は、キーボード、マウスなどの操作入力デバイスなどよりなる。
また、この場合の入力部20は、本実施形態の追跡処理システムとの対応で、例えば、撮像装置30から出力される画像信号(画像データ)を入力できるようになっている。
出力部207は、ディスプレイ、スピーカなどよりなる。
記憶部208は、ハードディスクや不揮発性メモリなどよりなる。
通信部209は、ネットワークインタフェースなどよりなる。
ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどとしての記録媒体211を駆動する。
以上のように構成されるコンピュータ装置200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インターフェース205およびバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
CPU201が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアである記録媒体211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、記録媒体211をドライブ210に装着することにより、入出力インターフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
また、コンピュータ装置200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、これまでの実施形態による説明では、本願発明を応用して、処理対象物の追跡処理を行うことを前提に説明してきたが、本願発明に基づく画像処理は、追跡処理のみに限定されるものではなく、他の各種画像処理において適用できるものである。
画像ピラミッドの概念を説明するための模式図である。 画像ピラミッドを形成する層画像を説明するための図である。 本実施形態の追跡処理システムの基本構成例を示す図である。 本実施形態の追跡処理システムとして、複数のメジャーを採用した場合の構成例を示す図である。 本実施形態の追跡処理システムとして、人体頭部追跡処理に対応させた構成例を示す図である。 頭部追跡処理システムのもとで定義される頭部画像エリアを模式的に示す図である。 パーティクルと画像ピラミッドとの対応を模式的に示す図である。 コンピュータ装置の構成例を示すブロック図である。
符号の説明
1 追跡処理システム、11 ピラミッド処理部、12 ピラミッド内位置算出部、13 尤度算出部、14 真尤度算出部、21 上層側尤度算出部、22 下層側尤度算出部、31−1〜31−N・32−1〜32−N 第1照合部〜第N照合部、33−1〜33−N 第1〜第N算出部、15 尤度統合部、30 撮像装置、100 画像ピラミッド、110 テンプレート、200 コンピュータ装置、201 CPU、202 ROM、203 RAM、204 バス、205 入出力インターフェース、206 入力部、207 出力部、208 記憶部、209 通信部、210 ドライブ、211 記録媒体

Claims (5)

  1. 入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手段と、
    固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手段と、
    上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手段と、
    上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手段と、
    上記上層対応尤度算出手段と下層対応尤度算出手段により求められた尤度から真尤度を求める真尤度算出手段と、
    を備える画像処理装置。
  2. 上記上層対応尤度算出手段及び上記下層対応尤度算出手段は、それぞれ、第1〜第N(Nは自然数)の照合手法を用いた照合して、これら第1〜第Nの照合手法ごとに対応した第1〜第Nの尤度を求め、
    上記真尤度算出手段は、上記上層対応尤度算出手段と上記下層対応尤度算出手段とのそれぞれにより求められた各2つの第1〜第Nの尤度ごとに対応して、第1〜第Nの真尤度を求める、
    請求項1に記載の画像処理装置。
  3. 上記層画像データについて、上記第1〜第Nの照合手法における特定の照合手法に適合する照合用画像データに変換する画像処理を行う画像変換手段を備え、
    上記上層対応尤度算出手段及び上記下層対応尤度算出手段は、上記第1〜第Nの照合手法における上記特定の照合手法による照合を行う際には、上記照合用画像データに変換された上側層画像及び下側層画像を用いる、
    請求項1又は請求項2に記載の画像処理装置。
  4. 入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手順と、
    固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手順と、
    上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手順と、
    上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手順と、
    上記上層対応尤度算出手順と下層対応尤度算出手順により求められた尤度から真尤度を求める真尤度算出手順と、
    を実行する画像処理方法。
  5. 入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手順と、
    固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手順と、
    上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手順と、
    上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手順と、
    上記上層対応尤度算出手順と下層対応尤度算出手順により求められた尤度から真尤度を求める真尤度算出手順と、
    を画像処理装置に実行させるプログラム。
JP2008285531A 2008-11-06 2008-11-06 画像処理装置、画像処理方法、プログラム Expired - Fee Related JP4687772B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008285531A JP4687772B2 (ja) 2008-11-06 2008-11-06 画像処理装置、画像処理方法、プログラム
US12/613,899 US8160370B2 (en) 2008-11-06 2009-11-06 Image processing apparatus, image processing method, and program
CN2009102208037A CN101739658B (zh) 2008-11-06 2009-11-06 图像处理装置、图像处理方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008285531A JP4687772B2 (ja) 2008-11-06 2008-11-06 画像処理装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2010113513A true JP2010113513A (ja) 2010-05-20
JP4687772B2 JP4687772B2 (ja) 2011-05-25

Family

ID=42165268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008285531A Expired - Fee Related JP4687772B2 (ja) 2008-11-06 2008-11-06 画像処理装置、画像処理方法、プログラム

Country Status (3)

Country Link
US (1) US8160370B2 (ja)
JP (1) JP4687772B2 (ja)
CN (1) CN101739658B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003720A (ja) * 2010-06-21 2012-01-05 Nippon Telegr & Teleph Corp <Ntt> 状態推定装置、状態推定方法、およびプログラム
KR101747220B1 (ko) 2012-08-30 2017-06-15 한화테크윈 주식회사 이미지 피라미드의 적응적 이미지 처리 장치 및 방법
CN108093153A (zh) * 2017-12-15 2018-05-29 深圳云天励飞技术有限公司 目标跟踪方法、装置、电子设备及存储介质
CN111583311A (zh) * 2020-05-14 2020-08-25 重庆理工大学 一种pcba快速图像匹配方法
JP7517733B2 (ja) 2022-03-15 2024-07-17 延世大学校 産学協力団 マルチスケールオブジェクト探知装置及び方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561919B2 (ja) * 2008-04-21 2010-10-13 ソニー株式会社 撮像装置、画像処理装置及び画像処理方法
JP4922472B1 (ja) * 2011-09-29 2012-04-25 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
WO2014207892A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
CN103729644B (zh) * 2013-12-11 2017-01-18 中国科学院长春光学精密机械与物理研究所 地基光测设备克服恒星穿越探测窗口干扰的卫星跟踪方法
EP2916290A1 (en) * 2014-03-07 2015-09-09 Thomson Licensing Method and apparatus for disparity estimation
US9646389B2 (en) 2014-08-26 2017-05-09 Qualcomm Incorporated Systems and methods for image scanning
CN104754311A (zh) * 2015-04-28 2015-07-01 刘凌霞 计算机视觉对物体进行识别的装置及其系统
JP6713185B2 (ja) * 2015-10-15 2020-06-24 株式会社日立ハイテク テンプレートマッチングを用いた検査装置および検査方法
CN107851196B (zh) * 2016-06-01 2020-02-14 深圳配天智能技术研究院有限公司 一种图像模式匹配的方法及装置
CN108010082B (zh) * 2017-12-28 2021-07-23 上海觉感视觉科技有限公司 一种几何匹配的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134750A (ja) * 1999-07-23 2001-05-18 Sarnoff Corp 画像の確率分布生成による画像処理のための方法及び装置
JP2004295775A (ja) * 2003-03-28 2004-10-21 Minolta Co Ltd 画像認識装置および画像認識プログラム
JP2007328746A (ja) * 2006-06-09 2007-12-20 Sony Computer Entertainment Inc 対象物追跡装置および対象物追跡方法
JP2008026974A (ja) * 2006-07-18 2008-02-07 Mitsubishi Electric Corp 人物追跡装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69836473T2 (de) * 1997-09-23 2007-09-20 Koninklijke Philips Electronics N.V. Bewegungsschätzung und bewegungskompensierte interpolation
US6741757B1 (en) * 2000-03-07 2004-05-25 Microsoft Corporation Feature correspondence between images using an image pyramid
CN1251145C (zh) * 2003-11-27 2006-04-12 上海交通大学 综合边缘和纹理信息的金字塔图像融合方法
US7382897B2 (en) * 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
JP4271115B2 (ja) * 2004-09-29 2009-06-03 株式会社東芝 画像マッチング装置、画像マッチング方法および画像マッチングプログラム
CN100349183C (zh) * 2004-11-18 2007-11-14 国家海洋局第一海洋研究所 具有多尺度信息的二维图像数据分离方法
CN101021867A (zh) * 2007-03-22 2007-08-22 成都电子机械高等专科学校 一种基于图像金字塔中间层分块的图像检索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134750A (ja) * 1999-07-23 2001-05-18 Sarnoff Corp 画像の確率分布生成による画像処理のための方法及び装置
JP2004295775A (ja) * 2003-03-28 2004-10-21 Minolta Co Ltd 画像認識装置および画像認識プログラム
JP2007328746A (ja) * 2006-06-09 2007-12-20 Sony Computer Entertainment Inc 対象物追跡装置および対象物追跡方法
JP2008026974A (ja) * 2006-07-18 2008-02-07 Mitsubishi Electric Corp 人物追跡装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003720A (ja) * 2010-06-21 2012-01-05 Nippon Telegr & Teleph Corp <Ntt> 状態推定装置、状態推定方法、およびプログラム
KR101747220B1 (ko) 2012-08-30 2017-06-15 한화테크윈 주식회사 이미지 피라미드의 적응적 이미지 처리 장치 및 방법
CN108093153A (zh) * 2017-12-15 2018-05-29 深圳云天励飞技术有限公司 目标跟踪方法、装置、电子设备及存储介质
CN111583311A (zh) * 2020-05-14 2020-08-25 重庆理工大学 一种pcba快速图像匹配方法
CN111583311B (zh) * 2020-05-14 2023-04-18 重庆理工大学 一种pcba快速图像匹配方法
JP7517733B2 (ja) 2022-03-15 2024-07-17 延世大学校 産学協力団 マルチスケールオブジェクト探知装置及び方法

Also Published As

Publication number Publication date
CN101739658B (zh) 2012-09-05
JP4687772B2 (ja) 2011-05-25
US20100119162A1 (en) 2010-05-13
US8160370B2 (en) 2012-04-17
CN101739658A (zh) 2010-06-16

Similar Documents

Publication Publication Date Title
JP4687772B2 (ja) 画像処理装置、画像処理方法、プログラム
JP4613994B2 (ja) 動態推定装置、動態推定方法、プログラム
Yang et al. Pixor: Real-time 3d object detection from point clouds
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN109558862B (zh) 基于空间感知的注意力细化框架的人群计数方法及系统
NL2016542B1 (en) Spatial data analysis.
CN110189255A (zh) 基于两级检测的人脸检测方法
CN100383813C (zh) 图像匹配装置、匹配图像方法及计算机程序产品
JP2022547288A (ja) 画像処理を使用したシーン表示
CN110646787A (zh) 自运动估计方法和设备以及模型训练方法和设备
CN110211046A (zh) 一种基于生成对抗网络的遥感图像融合方法、系统和终端
CN110246171B (zh) 一种实时单目视频深度估计方法
CN115457492A (zh) 目标检测方法、装置、计算机设备及存储介质
JP7072765B2 (ja) 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム
JP7165353B2 (ja) 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム
CN114548606A (zh) 一种气旋强度预测模型的构建方法及气旋强度预测方法
JP4398919B2 (ja) 画像マッチング装置、画像マッチング方法および画像マッチングプログラム
CN117315724A (zh) 面向开放场景的三维行人检测方法、系统、设备及介质
CN118089778A (zh) 一种融合交叉注意力机制的激光雷达里程计方法
CN114820755B (zh) 一种深度图估计方法及系统
CN116758212A (zh) 基于自适应去噪算法的3d重建方法、装置、设备及介质
CN112784828B (zh) 基于方向梯度直方图的图像检测方法、装置、计算机设备
CN114037731A (zh) 一种fpga实现的神经网络光流估计方法、装置及介质
JP4675368B2 (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体
JP4673241B2 (ja) 動体追跡装置、動体追跡方法及びその方法を実現したプログラムを格納した記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110131

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees