JP2010113513A - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- JP2010113513A JP2010113513A JP2008285531A JP2008285531A JP2010113513A JP 2010113513 A JP2010113513 A JP 2010113513A JP 2008285531 A JP2008285531 A JP 2008285531A JP 2008285531 A JP2008285531 A JP 2008285531A JP 2010113513 A JP2010113513 A JP 2010113513A
- Authority
- JP
- Japan
- Prior art keywords
- image
- likelihood
- pyramid
- image data
- lower layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【解決手段】入力した画像データに基づいて複数の異なるスケールの層画像データから成る画像ピラミッドを形成するとともに、対象物について固定スケールとしたテンプレートを用意する。これにより、テンプレートが該当する画像ピラミッド内位置を求める。次にこの画像ピラミッド内位置に基づいて特定された上側層画像データと下側層画像データごとにパーティクルとの照合により尤度を求める。次に、これらの尤度を用いて真の尤度を求める補間処理を行う。
【選択図】図3
Description
処理対象の物体の撮像画像を得るために実際に撮像を行う場合においては、その物体と撮像装置との間の撮像距離の変化により、画像上での物体のスケール(スケール)が変化するが、画像処理によっては、このことが問題となる場合がある。
そこで、画像ピラミッドの手法を利用して、スケールにより階層化された画像を用いるようにすれば、上記したような画像上での物体のスケールの変化に関わらず画像処理を行うことができる。
つまり、入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手段と、固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手段と、上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手段と、上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手段と、上記上層対応尤度算出手段と下層対応尤度算出手段により求められた尤度から真尤度を求める真尤度算出手段とを備えることとした。
以降の説明は下記の順により行う。
<1.画像ピラミッド>
<2.追跡処理システム構成例>
<3.頭部追跡処理システム構成例>
<4.コンピュータ装置の構成例>
先ず、図1及び図2により、本実施形態の追跡処理システムが利用する画像ピラミッドについて説明しておく。
図1には、第0層画像P0、第1層画像P1、第2層画像P2、第3層画像P3、第4層画像P4、第5層画像P5の6枚の画像が示されている。
ここで、第0層画像P0〜第5層画像P5は、それぞれが同じ画像を内容を有したうえで、それぞれが異なるスケール(サイズ・解像度)を有する。
この場合には第0層画像P0〜第5層画像P5のうちで、最も大きなスケールの画像が第0層画像P0である。以降、第1層画像P1、第2層画像P2、第3層画像P3、第4層画像P4、第5層画像P5の順で、画像のスケールが小さくなっていく。
このようにして、スケールは第0層画像P0〜第5層画像P5の順で小さくなっていく。そでこ、これらの層画像について、第0層画像P0を最下層として階層化するようにして上方向に順に積み上げていったとする。すると、その層画像の外周に接する面により、図1に示すようにして四角錐、即ちピラミッド形状が形成されるものとしてみることができる。このようにして、層画像を階層化して積み上げることに応じて形成されるピラミッド形状を、ここでは画像ピラミッド100という。このようにして形成される画像ピラミッド100では、1つの同じ画内容を有する画像のスケールが、ピラミッドにおける高さ位置により変化することになる。ちなみに、画像ピラミッド100において高い位置となるほど画像のスケールは小さくなっていく。
図3は、本実施形態の追跡処理システム1としての構成例を示している。この追跡処理システムは、動画としての画像データを入力して、この画像データの画像に基づいて、追跡対象として設定された特定の物体(対象物)を追跡するようにして構成される。
一方、追跡処理システム1(ピラミッド化処理部11)に対して入力される画像データ(入力画像データ)は、例えばリアルタイムの撮像により得られる画像データであり、従って、撮像されている現実の対象物の動きによっては、時間経過に応じて、対象物までの撮像距離が変化し得る。
このことは、入力画像データにおける対象物のスケールは、テンプレートにおける対象物のスケールと同じである保証はない、ということを意味している。
このようにして対象物のスケールが異なる画像を照合して現時刻における対象物の位置(尤度)を高い精度で求めることは非常に難しい。換言すれば、高い精度で尤度を求めようとすれば、テンプレートと入力画像データとの対象物のスケールが同じとなるようにしてやる必要がある。
ここで、画像ピラミッド100は、層画像単位でみれば、その層画像数により離散化している、つまり、ピラミッドの高さとしては、層画像に応じた分解能による段階的な高さを持つものとしてみえる。
しかし、ピラミッド内位置算出部12は画像ピラミッド100の高さを連続したものとして扱い、この連続した高さのなかでピラミッド内位置を算出する。ただし、現実にはデジタル処理であるので、厳密には、算出されるピラミッド内位置は離散的なものとなり有限の分解能を有することにはなる。しかし、ピラミッド内位置の分解能は、層画像に応じた分解能と比較して遙かに高く、この点で、連続しているとみてよい。
尤度算出部13は、先ず、渡されたピラミッド内位置を挟むことになる、各1つの上側層画像と下側層画像とを特定する。図3の例であれば、ピラミッド内位置は、第2層画像P2と第3層画像P3の間であるとして求められているので、上側層画像として第3層画像P3を特定し、下側層画像として第2層画像P2を特定することになる。
なお、この上側層画像と下側層画像の特定をピラミッド内位置算出部12により行って、上側層画像及び下側層画像が、それぞれどの層画像であるのかを示すことのできる情報を、ピラミッド内位置算出部12から尤度算出部13に渡すようにしてもよい。
つまり、本実施形態では、画像ピラミッド100を形成する層画像のうちから、テンプレート110における対象物のスケールが対応するピラミッド内位置に対して、直上となる層画像と、直下となる層画像との、2つの観測値ごとに尤度を求めるようにする。ここで、上記直上となる層画像は、テンプレート110より小さいスケールの対象物が存在する層画像のうちで、テンプレート110に最も近いスケールの対象物が存在する層画像となる。また、上記直下となる層画像は、テンプレート110より大きいスケールの対象物が存在する層画像のうちで、テンプレート110に最も近いスケールの対象物が存在する層画像となる。また、上層側尤度算出部21と下層側尤度算出部22は、それぞれパーティクルごとに個別の尤度を求めたうえで、これらの個別の尤度に基づいて最終的には、最尤推定値としての尤度を求めるものとする。
ここで、真尤度算出部14が真の尤度を求めるのにあたっては、例えば上記上層側尤度としての値と、下層側尤度としての値とについての補間に相当する処理を行うようにすればよい。また、この真尤度算出部14が実行する真の尤度を求めるためのアルゴリズムの具体例については後述する。
そこで、本実施形態のようにして画像ピラミッドの手法を採用することとしている。これにより、テンプレート110については固定とできる。そのうえで、先の説明のようにして、選択した層画像とテンプレート110とを照合することとすれば、入力画像データのスケールに対応させてテンプレート110の画像のスケールを変化させてから照合を行っているのと同等の結果が得られることになる。
しかし、画像ピラミッドを形成する層画像の数(階層数)は、むやみに多くすることは現実的ではなく、ピラミッド化処理の重さなどを考慮して適当な数に制限される。このために、上記の一般的な手法では、算出される尤度も、層画像の数に応じた離散したスケール(スケール)までしか反映されない。つまり、層画像の数に応じた粗い分解能のもとで、テンプレート110の対象物のスケールに最も近い層画像に基づいた近似値しか取り得ない。
この近似値をできるだけ真の尤度に近づけようとするのであれば、画像ピラミッドを形成する層画像の数を多くしていけばよい。しかし、上記もしたように、階層数を多くすれば、それだけピラミッド化処理などが重くなってしまい、画像ピラミッドを採用することによる処理負担軽減の利点が活かされなくなる。
これにより、本実施形態では、画像ピラミッドを形成する層画像の数を一定以下に抑えたうえで、テンプレート110と同じ対象物のスケールの入力画像データと照合を行ったのと同等の精度による尤度(真の尤度)を得ることが可能とされている。
そこで、本実施形態では、層画像の上層側と下層側とのそれぞれについて、複数のメジャーを適用するという構成を取り得ることとした。このような複数のメジャーを適用した追跡処理システムの構成例を、図4に示す。なお、図3に示されているピラミッド化処理部11及びピラミッド内位置算出部12は、適用されるメジャーが単一、複数のいずれとされても特に構成が変更されることはない。このために、図4においては、図3におけるピラミッド化処理部11、及びピラミッド内位置算出部12についての図示は省略している。
第1照合部31−1は、上側層画像を第1メジャーに対応する観測値として取り込み、パーティクルとの照合を行って尤度を得る。同様にして、第2照合部31−2〜第N照合部31−Nは、それぞれ、上側層画像を第2メジャー〜第Nメジャーに対応する観測値として取り込み、パーティクルとの照合を行って尤度を得る。
第1算出部33−1は、共通の第1メジャーに基づいて得られた尤度、即ち、上層側尤度算出部21の第1照合部31−1と、下層側尤度算出部22の第1照合部32−1とから出力される尤度について、例えば補間に相当する処理を行って、第1メジャーに基づく真の尤度を求める。
同様にして、残る第2算出部33−2〜第N算出部33−Nは、それぞれ、共通の第2メジャー〜第Nメジャーに基づいて得られた尤度(上層側尤度算出部21の第2〜第N照合部31−2〜31−Nと、下層側尤度算出部22の第1〜第N照合部32−2〜32−Nとから出力される尤度)を利用した補間処理により、第2〜第Nメジャーに基づく真の尤度を求める。
なお、尤度統合部15が実行する尤度統合処理としての具体的なアルゴリズムについてはいくつか考えられるものであり、ここでは特に限定されるべきものではない。例えば最も簡単な例としては、取り込んだ複数の尤度のうちから最大値のものを統合された尤度として出力することが考えられる。また、第1〜第Nメジャーごとに対応させて重み付け計数を設定したうえで、取り込んだ複数の尤度についての重み付け平均値を求め、これを統合された尤度とすることも考えられる。
続いては、上記図3、図4により説明した本実施形態の追跡処理システムについて、人体の頭部追跡に適用した場合の具体的な構成例について説明していくこととする。
本実施形態の頭部追跡にあたっては、先ず、図6に示すようにして、人体頭部の画像を含む方形の画像部分を頭部画像エリアとして定義する。
この場合の頭部画像エリアは、水平スケール=垂直スケール=sによる正方形による画像領域とされ、この画像領域内において一定の比率により人体頭部としてのΩ形状が収まるようにされたものとなる。また、頭部画像エリアにおいては、その中心位置Cが定義される。この場合の中心位置Cは、例えば正方形による頭部画像エリアの対角線の交点であるとしている。本実施形態の頭部追跡システムは、このようにして頭部画像エリアにおいて存在するΩ形状としての頭部を追跡する。
・第1メジャー:「頭部マスク画像の輪郭に対するChamfer距離」
・第2メジャー:「頭部Ω形状内部におけるマスク画素の割合」
・第3メジャー:「頭部Ω形状外部におけるマスク画素の割合」
・第4メジャー:「頭部Ω形状のエッジに対するChamfer距離」
なお、本願発明者等は、検討の結果、上記の4つのメジャーを適用することにより、人体頭部追跡処理として高いロバスト性が得られることを確認している。
なお、この図においては、人体頭部追跡システムとして、尤度算出部13と、人体頭部追跡のために新規に設けることとなった頭部マスク画像化部16−U,16−D、及び頭部エッジ画像化部17−U,17−Dとを抜き出して示している。ここでは図示していないピラミッド化処理部11、ピラミッド値算出部12、及び真尤度算出部14、尤度統合部15などは、例えば図3、図4により説明したのと同様の構成でよい。
そこで、図5に示すように、ピラミッド化処理部11(ここでは図示せず)により形成された画像ピラミッド100から取り出した上側層画像に対応させては、頭部マスク画像化部16−U及び頭部エッジ画像化部17−Uを設けることとした。同じく、下側層画像にも対応させて、頭部マスク画像化部16−D及び頭部エッジ画像化部17−Dを設けることとした。
頭部マスク画像化部16−U,16−Dは、入力した層画像(上側層画像、下側層画像)の画像データについて、ここに存在する頭部Ω形状を検出し、この検出した頭部Ω形状の画像部分をマスキングした画像(頭部マスク画像)に変換する画像処理を実行する。
また、頭部エッジ画像化部17−U,17−Dは、入力した層画像(上側層画像、下側層画像)の画像データについて、ここに存在する頭部Ω形状のエッジを抽出し、このエッジにより頭部Ω形状が表現された画像(頭部エッジ画像)に変換する。
先ず、照合部の各々は、図6により頭部Ω形状の中心位置C、及びスケール(スケール)sの組み合わせ状態を多数予測する。つまり、中心位置C及びスケールsの組み合わせによる状態予測値を多数生成する。この状態予測値のそれぞれが、ここではパーティクルに相当する。ここで、頭部Ω形状の中心位置Cについては座標(u,v)により表現されるものとすると、パーティクルは、
のようにして三次元のパラメータベクトルとして表すことができる。(数1)において変数iはパーティクルに付した番号を示し、tは現時刻を示す。
なお、パーティクルは、模式的には図7に示すものとなる。この図に示される個々のパーティクルは、自身に与えられた予測値に対応したピラミッド内での高さ(スケールに相当する)、及び中心位置Cに応じた空間位置に存在するものとなる。
そして、各照合部は、これらのパーティクルごとに、適用されたメジャーに従って観測値である層画像の画像データと照合し、その結果から、パーティクルiごとの尤度Wiを求める。
先ず、上層側尤度算出部21の第1照合部31−1は、第1メジャーに対応した処理として、頭部マスク画像化された上側層画像を観測値として入力する。そして、頭部マスク画像の輪郭に対するChamfer距離に基づいたパーティクルとの照合処理を行い、尤度を求める。
下層側尤度算出部22の第2照合部32−1も、同様に、第1メジャーに対応して、頭部マスク画像化された下側層画像を入力し、頭部マスク画像の輪郭に対するChamfer距離に基づいたパーティクルとの照合処理を行い、尤度を求める。
第1算出部33−1は、同じ第1メジャーが対応する、上側層画像対応の第1照合部31−1,下側層画像対応の第1照合部32−1からの尤度を入力して補間処理を実行し、第1メジャーに対応した真の尤度を得る。
同様に、残る第2算出部33−2〜第4算出部33−4は、それぞれ、第1〜第3メジャーが対応する、上側層画像対応の第2照合部31−2〜第4照合部31−4、及び下側層画像対応の第2照合部32−2〜第4照合部31−4からの尤度を入力して補間処理を実行する。これにより、第2算出部33−2〜第4算出部33−4は、それぞれ、第2〜第4メジャーに対応した真の尤度を得ることができる。
上記(数3)において、dは照合対象とされているパーティクルが有しているとされる真のChamfer距離(尤度)を表す。d1は、上側層画像との照合処理(第1照合部31−1もしくは第4照合部31−4)によって求められたChamfer距離を表す。d2は下側層画像との照合処理(第1照合部32−1もしくは第4照合部32−4)によって求められたChamfer距離を表す。また、scaleは照合対象とされているパーティクルが示す対象物のスケール(図のスケールsに相当する)、scale1は上側層画像における対象物のスケール、scale2は下側層画像における対象物のスケールを示す。
Chamfer距離から尤度は一義的に求めることができる。従って、上記(数3)に基づけば、Chamfer距離に基づく尤度についても、補間処理によって真の尤度を算出可能であることが導かれる。
このような状態では、ピラミッド内位置も、パーティクルの高さ位置付近にて安定して求められるような状態となり、結果として、ピラミッド内位置に基づいて選択される上側層画像及び下側層画像の階層も或る程度特定できるようになる。
そこで、ピラミッド化処理部11について次のように構成することが考えられる。つまり、ピラミッド内位置に基づいて選択される上側層画像及び下側層画像の階層が一定以上の確率で特定されるようになった状態では、選択される可能性が無いとしてみることのできる層画像については生成しないようにして画像ピラミッドを生成するように構成する。このような構成とすれば、生成すべき層画像数を通常よりも少なくできるために、処理が軽くなる。
これまでに説明してきた本実施形態としての追跡処理システムは、図3,図4,図5などに示した機能構成に対応して形成したハードウェアにより実現できる。また、図3,図4,図5などに示した機能構成に対応する処理を実行させるプログラムを記述したソフトウェアにより実現することもできる。また、このようなハードウェアとソフトウェアを組み合わせて併用することもできる。
そして、本実施形態の動態推定のために必要な処理の少なくとも一部をソフトウェアにより実現するのにあたっては、そのソフトウェアを構成するプログラムを、動態推定システムとしてのハードウェア資源であるコンピュータ装置(CPU)に実行させることになる。あるいは、汎用のパーソナルコンピュータなどのコンピュータ装置にプログラムを実行させることで、コンピュータ装置に対して、動態推定のために必要な処理を実行する機能を与えるようにされる。
このコンピュータ装置200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
入出力インターフェース205には、入力部206、出力部207、記憶部208、通信部209、ドライブ210が接続されている。
入力部206は、キーボード、マウスなどの操作入力デバイスなどよりなる。
また、この場合の入力部20は、本実施形態の追跡処理システムとの対応で、例えば、撮像装置30から出力される画像信号(画像データ)を入力できるようになっている。
出力部207は、ディスプレイ、スピーカなどよりなる。
記憶部208は、ハードディスクや不揮発性メモリなどよりなる。
通信部209は、ネットワークインタフェースなどよりなる。
ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどとしての記録媒体211を駆動する。
Claims (5)
- 入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手段と、
固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手段と、
上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手段と、
上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手段と、
上記上層対応尤度算出手段と下層対応尤度算出手段により求められた尤度から真尤度を求める真尤度算出手段と、
を備える画像処理装置。 - 上記上層対応尤度算出手段及び上記下層対応尤度算出手段は、それぞれ、第1〜第N(Nは自然数)の照合手法を用いた照合して、これら第1〜第Nの照合手法ごとに対応した第1〜第Nの尤度を求め、
上記真尤度算出手段は、上記上層対応尤度算出手段と上記下層対応尤度算出手段とのそれぞれにより求められた各2つの第1〜第Nの尤度ごとに対応して、第1〜第Nの真尤度を求める、
請求項1に記載の画像処理装置。 - 上記層画像データについて、上記第1〜第Nの照合手法における特定の照合手法に適合する照合用画像データに変換する画像処理を行う画像変換手段を備え、
上記上層対応尤度算出手段及び上記下層対応尤度算出手段は、上記第1〜第Nの照合手法における上記特定の照合手法による照合を行う際には、上記照合用画像データに変換された上側層画像及び下側層画像を用いる、
請求項1又は請求項2に記載の画像処理装置。 - 入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手順と、
固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手順と、
上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手順と、
上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手順と、
上記上層対応尤度算出手順と下層対応尤度算出手順により求められた尤度から真尤度を求める真尤度算出手順と、
を実行する画像処理方法。 - 入力した画像データから異なるスケールの画像である層画像データを生成して階層化することで画像ピラミッドを形成する画像ピラミッド形成手順と、
固定のスケールによる対象物の画像部分を有するテンプレート画像データが該当する上記画像ピラミッドにおける高さ位置である画像ピラミッド内位置を求める位置算出手順と、
上記画像ピラミッド内位置の直上に存在する上側層画像データと状態予測値とを照合して対象物についての尤度を求める上層対応尤度算出手順と、
上記画像ピラミッド内位置の直下に存在する下側層画像データと状態予測値とを照合して対象物についての尤度を求める下層対応尤度算出手順と、
上記上層対応尤度算出手順と下層対応尤度算出手順により求められた尤度から真尤度を求める真尤度算出手順と、
を画像処理装置に実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008285531A JP4687772B2 (ja) | 2008-11-06 | 2008-11-06 | 画像処理装置、画像処理方法、プログラム |
US12/613,899 US8160370B2 (en) | 2008-11-06 | 2009-11-06 | Image processing apparatus, image processing method, and program |
CN2009102208037A CN101739658B (zh) | 2008-11-06 | 2009-11-06 | 图像处理装置、图像处理方法及程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008285531A JP4687772B2 (ja) | 2008-11-06 | 2008-11-06 | 画像処理装置、画像処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010113513A true JP2010113513A (ja) | 2010-05-20 |
JP4687772B2 JP4687772B2 (ja) | 2011-05-25 |
Family
ID=42165268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008285531A Expired - Fee Related JP4687772B2 (ja) | 2008-11-06 | 2008-11-06 | 画像処理装置、画像処理方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8160370B2 (ja) |
JP (1) | JP4687772B2 (ja) |
CN (1) | CN101739658B (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003720A (ja) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | 状態推定装置、状態推定方法、およびプログラム |
KR101747220B1 (ko) | 2012-08-30 | 2017-06-15 | 한화테크윈 주식회사 | 이미지 피라미드의 적응적 이미지 처리 장치 및 방법 |
CN108093153A (zh) * | 2017-12-15 | 2018-05-29 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111583311A (zh) * | 2020-05-14 | 2020-08-25 | 重庆理工大学 | 一种pcba快速图像匹配方法 |
JP7517733B2 (ja) | 2022-03-15 | 2024-07-17 | 延世大学校 産学協力団 | マルチスケールオブジェクト探知装置及び方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4561919B2 (ja) * | 2008-04-21 | 2010-10-13 | ソニー株式会社 | 撮像装置、画像処理装置及び画像処理方法 |
JP4922472B1 (ja) * | 2011-09-29 | 2012-04-25 | 楽天株式会社 | 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体 |
WO2014207892A1 (ja) * | 2013-06-28 | 2014-12-31 | 楽天株式会社 | 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体 |
CN103729644B (zh) * | 2013-12-11 | 2017-01-18 | 中国科学院长春光学精密机械与物理研究所 | 地基光测设备克服恒星穿越探测窗口干扰的卫星跟踪方法 |
EP2916290A1 (en) * | 2014-03-07 | 2015-09-09 | Thomson Licensing | Method and apparatus for disparity estimation |
US9646389B2 (en) | 2014-08-26 | 2017-05-09 | Qualcomm Incorporated | Systems and methods for image scanning |
CN104754311A (zh) * | 2015-04-28 | 2015-07-01 | 刘凌霞 | 计算机视觉对物体进行识别的装置及其系统 |
JP6713185B2 (ja) * | 2015-10-15 | 2020-06-24 | 株式会社日立ハイテク | テンプレートマッチングを用いた検査装置および検査方法 |
CN107851196B (zh) * | 2016-06-01 | 2020-02-14 | 深圳配天智能技术研究院有限公司 | 一种图像模式匹配的方法及装置 |
CN108010082B (zh) * | 2017-12-28 | 2021-07-23 | 上海觉感视觉科技有限公司 | 一种几何匹配的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134750A (ja) * | 1999-07-23 | 2001-05-18 | Sarnoff Corp | 画像の確率分布生成による画像処理のための方法及び装置 |
JP2004295775A (ja) * | 2003-03-28 | 2004-10-21 | Minolta Co Ltd | 画像認識装置および画像認識プログラム |
JP2007328746A (ja) * | 2006-06-09 | 2007-12-20 | Sony Computer Entertainment Inc | 対象物追跡装置および対象物追跡方法 |
JP2008026974A (ja) * | 2006-07-18 | 2008-02-07 | Mitsubishi Electric Corp | 人物追跡装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69836473T2 (de) * | 1997-09-23 | 2007-09-20 | Koninklijke Philips Electronics N.V. | Bewegungsschätzung und bewegungskompensierte interpolation |
US6741757B1 (en) * | 2000-03-07 | 2004-05-25 | Microsoft Corporation | Feature correspondence between images using an image pyramid |
CN1251145C (zh) * | 2003-11-27 | 2006-04-12 | 上海交通大学 | 综合边缘和纹理信息的金字塔图像融合方法 |
US7382897B2 (en) * | 2004-04-27 | 2008-06-03 | Microsoft Corporation | Multi-image feature matching using multi-scale oriented patches |
JP4271115B2 (ja) * | 2004-09-29 | 2009-06-03 | 株式会社東芝 | 画像マッチング装置、画像マッチング方法および画像マッチングプログラム |
CN100349183C (zh) * | 2004-11-18 | 2007-11-14 | 国家海洋局第一海洋研究所 | 具有多尺度信息的二维图像数据分离方法 |
CN101021867A (zh) * | 2007-03-22 | 2007-08-22 | 成都电子机械高等专科学校 | 一种基于图像金字塔中间层分块的图像检索方法 |
-
2008
- 2008-11-06 JP JP2008285531A patent/JP4687772B2/ja not_active Expired - Fee Related
-
2009
- 2009-11-06 CN CN2009102208037A patent/CN101739658B/zh not_active Expired - Fee Related
- 2009-11-06 US US12/613,899 patent/US8160370B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134750A (ja) * | 1999-07-23 | 2001-05-18 | Sarnoff Corp | 画像の確率分布生成による画像処理のための方法及び装置 |
JP2004295775A (ja) * | 2003-03-28 | 2004-10-21 | Minolta Co Ltd | 画像認識装置および画像認識プログラム |
JP2007328746A (ja) * | 2006-06-09 | 2007-12-20 | Sony Computer Entertainment Inc | 対象物追跡装置および対象物追跡方法 |
JP2008026974A (ja) * | 2006-07-18 | 2008-02-07 | Mitsubishi Electric Corp | 人物追跡装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003720A (ja) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | 状態推定装置、状態推定方法、およびプログラム |
KR101747220B1 (ko) | 2012-08-30 | 2017-06-15 | 한화테크윈 주식회사 | 이미지 피라미드의 적응적 이미지 처리 장치 및 방법 |
CN108093153A (zh) * | 2017-12-15 | 2018-05-29 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111583311A (zh) * | 2020-05-14 | 2020-08-25 | 重庆理工大学 | 一种pcba快速图像匹配方法 |
CN111583311B (zh) * | 2020-05-14 | 2023-04-18 | 重庆理工大学 | 一种pcba快速图像匹配方法 |
JP7517733B2 (ja) | 2022-03-15 | 2024-07-17 | 延世大学校 産学協力団 | マルチスケールオブジェクト探知装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101739658B (zh) | 2012-09-05 |
JP4687772B2 (ja) | 2011-05-25 |
US20100119162A1 (en) | 2010-05-13 |
US8160370B2 (en) | 2012-04-17 |
CN101739658A (zh) | 2010-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4687772B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP4613994B2 (ja) | 動態推定装置、動態推定方法、プログラム | |
Yang et al. | Pixor: Real-time 3d object detection from point clouds | |
CN109685152B (zh) | 一种基于dc-spp-yolo的图像目标检测方法 | |
CN109558862B (zh) | 基于空间感知的注意力细化框架的人群计数方法及系统 | |
NL2016542B1 (en) | Spatial data analysis. | |
CN110189255A (zh) | 基于两级检测的人脸检测方法 | |
CN100383813C (zh) | 图像匹配装置、匹配图像方法及计算机程序产品 | |
JP2022547288A (ja) | 画像処理を使用したシーン表示 | |
CN110646787A (zh) | 自运动估计方法和设备以及模型训练方法和设备 | |
CN110211046A (zh) | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 | |
CN110246171B (zh) | 一种实时单目视频深度估计方法 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
JP7072765B2 (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
JP7165353B2 (ja) | 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム | |
CN114548606A (zh) | 一种气旋强度预测模型的构建方法及气旋强度预测方法 | |
JP4398919B2 (ja) | 画像マッチング装置、画像マッチング方法および画像マッチングプログラム | |
CN117315724A (zh) | 面向开放场景的三维行人检测方法、系统、设备及介质 | |
CN118089778A (zh) | 一种融合交叉注意力机制的激光雷达里程计方法 | |
CN114820755B (zh) | 一种深度图估计方法及系统 | |
CN116758212A (zh) | 基于自适应去噪算法的3d重建方法、装置、设备及介质 | |
CN112784828B (zh) | 基于方向梯度直方图的图像检测方法、装置、计算机设备 | |
CN114037731A (zh) | 一种fpga实现的神经网络光流估计方法、装置及介质 | |
JP4675368B2 (ja) | 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体 | |
JP4673241B2 (ja) | 動体追跡装置、動体追跡方法及びその方法を実現したプログラムを格納した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110131 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140225 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |