JP2005149509A - 標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2005149509A
JP2005149509A JP2004332258A JP2004332258A JP2005149509A JP 2005149509 A JP2005149509 A JP 2005149509A JP 2004332258 A JP2004332258 A JP 2004332258A JP 2004332258 A JP2004332258 A JP 2004332258A JP 2005149509 A JP2005149509 A JP 2005149509A
Authority
JP
Japan
Prior art keywords
frame image
sign
model
detection
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2004332258A
Other languages
English (en)
Inventor
Woo-Sup Han
宇 燮 韓
Kyoung-Sig Roh
慶 植 盧
Woong Kwon
雄 權
Young-Bo Shim
營 輔 沈
淵 宅 ▲呉▼
Yeon-Taek Oh
Ki-Cheol Park
基 ▲哲▼ 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2005149509A publication Critical patent/JP2005149509A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

【課題】標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
【解決手段】第1散布度に応じた加重サンプリングを利用してフレーム映像の全体領域に設定される第1サンプリング領域の中にN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して1次検出を行う1次検出部と、前記1次検出により得られる標識の概略的な位置を中心に設定される第2サンプリング領域の中に第2散布度に応じた加重サンプリング方式を利用してN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して2次検出を行う2次検出部と、を備える標識検出装置である。
【選択図】図3A

Description

本発明は、主として自律走行をしている知能型システムの現在位置を推定(同定)するために用いられる標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
最近、自律走行システム(例えば、無人航空機、無人車輌及びモバイルロボットなど)、無人監視システム、知能型交通システムといった知能型システムについての関心が高まるにつれて、知能型システムついての活発な研究が進められている。特に、知能型システムが自己位置を認識するのに役立つ多様な位置推定(ローカリゼーション)方法が提案されている。最近では、光学技術に基づく人工あるいは自然的な標識(ランドマーク)を利用した位置推定方法が多く提案されている。
標識を利用する方法のうち自然標識を利用した位置推定方式は、人工標識を利用する位置推定方式よりさらに一般的な位置推定方式で、室内と室外の双方に適した位置推定方式である。自然標識は、任意の場面に対して自然標識自体が有している幾何学的あるいは光学的な特性を考慮して選択され、知能型システムは、自然標識の特性や特徴量を利用して標識を認識する。しかし、自然標識を利用した位置推定方式は、実際の環境において最適の標識を抽出し難いという短所がある。
一方、人工標識を利用した位置推定方式は、室内環境において知能型システムが自己位置を推定するのに非常に簡単で効果的な方式である。知能型システムは、あらかじめ標識モデルや標識モデルの特徴量をモデリングし、走行中に映像の中から人工標識を探し出す。したがって、人工標識を利用する位置推定方式においては、標識の形態や特徴量、標識の検出方式を適切に選択することが重要である。多くの標識モデルが検出アルゴリズムと結合されて提案されたが、その例としては、バーコードのような特定形態を有する標識モデルや白黒の自己類似パターンが挙げられる。しかし、このように特定の形態情報を利用する位置推定方式の場合には、映像処理の結果に非常に依存的であるため、映像内のノイズや不正確な焦点によるブレ効果によって低い認識性能を表す。
一方、CONDENSATION(CONditional DENSity propagATION)アルゴリズムが標識検出のために使用される。CONDENSATIONアルゴリズムは、複雑な環境下でもリアルタイムで物体の追跡が可能であると知られている。この場合、各フレーム映像の全部がサンプリング領域として設定され、散布度も初期に設定された値が各フレーム映像に適用される。それ故に、CONDENSATIONアルゴリズムでは、標識の検出に長い時間を要するだけでなく、散布度を大きい値に設定した場合には、検出の精度も劣るという問題点がある。なお、CONDENSATIONアルゴリズムについては、非特許文献1に詳細に記載されている。
M.イサード(M.Isard)、A.ブレーク(A.Blake)著、「コンデンセーション−コンディショナル デンシティ プロパゲーション フォー ビジュアル トラッキング(CONDENSATION-conditional density propagation for visual tracking)」、J.コンピュータ ビジョン(Int.J.Computer Vision)、1998年
本発明が解決しようとする技術的課題は、フレーム映像の全体領域をサンプリング領域に設定し、散布度値を大きく設定して行う1次検出と、標識の概略的な位置を中心とする所定領域をサンプリング領域に設定し、散布度値を小さく設定して行う2次検出とを順次に行うことによって、ノイズに鈍感でありつつも正確性を向上させた標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することである。
また、本発明が解決しようとする他の技術的課題は、1次検出及び2次検出時に各フレーム映像で適用される散布度を現在のフレーム映像で得られる最大マッチング確率を利用して適応的に変化させることによって正確性を向上させた標識検出装置及び標識検出方法を提供することである。
また、本発明が解決しようとするさらに他の技術的課題は、現在のフレーム映像で得られるマッチング確率、現在のフレーム映像で使われたサンプルブロックのカラーヒストグラム及び現在のフレーム映像で使われた標識モデルのカラーヒストグラムを利用して標識モデルのカラーヒストグラムを更新することによって、輝度変化に対する抵抗性を向上させた標識検出装置及び標識検出方法を提供することである。
前記課題を達成するために本発明に係る標識検出装置は、第1散布度に応じた加重サンプリングを利用してフレーム映像の全体領域に設定される第1サンプリング領域の中にN個のサンプルブロックを生成し、各サンプルブロックの特徴量と標識モデルの特徴量とを比較して1次検出を行う1次検出部と、前記1次検出により得られる標識の概略的な位置を中心に設定される第2サンプリング領域の中に第2散布度に応じた加重サンプリングを利用してN個のサンプルブロックを生成し、各サンプルブロックの特徴量と標識モデルの特徴量とを比較して2次検出を行う2次検出部と、を含むことを特徴とする。
前記課題を達成するために本発明に係る標識検出方法は、(a)第1散布度に応じた加重サンプリングを利用してフレーム映像の全体領域に設定される第1サンプリング領域の中にN個のサンプルブロックを生成し、各サンプルブロックの特徴量と標識モデルの特徴量とを比較して1次検出を行う工程と、(b)前記1次検出により得られる標識の概略的な位置を中心に設定される第2サンプリング領域の中に第2散布度に応じた加重サンプリングを利用してN個のサンプルブロックを生成し、各サンプルブロックの特徴量と標識モデルの特徴量とを比較して2次検出を行う工程と、を含むことを特徴とする。
前記標識検出方法は、望ましくは、コンピュータで実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体に具現しうる。
本発明によれば、フレーム映像の全体領域をサンプリング領域に設定して散布度値を大きく設定し、1次検出を行って標識の概略的な位置を推定した後、標識の概略的な位置を中心とする所定領域をサンプリング領域に設定して散布度値を小さく設定し、2次検出を順次に行うことによって標識検出にかかる時間を短縮させうるだけでなく、同時に正確度を向上させうる。
また、1次検出及び2次検出時に各フレームで適用される散布度値を現在のフレーム映像で得られる累積確率(最大マッチング確率)を利用して適応的に変化させることによって検出の正確度を向上させうる。
また、現在のフレーム映像で得られるマッチング確率と、現在のフレーム映像で使われたサンプルブロックのカラーヒストグラムと、現在のフレーム映像で使われた標識モデルのカラーヒストグラムとを利用して標識モデルの特徴量(例えば、カラーヒストグラム)を更新することによって輝度変化に強い検出性能を保証しうる。
以下、添付された図面を参照して本発明の望ましい一実施例について詳細に説明する。
図1は、本発明に係る知能型システムにおける標識検出装置の構成を示すブロック図であって、映像入力部110と、スイッチング部130と、標識検出部150と、標識追跡部170と、制御部190とを備えており、標識検出部150は、図2に示されたように、1次検出部210と2次検出部230とを備えている。ここで、スイッチング部130、標識追跡部170及び制御部190は、オプションとして備わりうる構成要素である。図1及び図2を参照して、本発明に係る標識検出装置の動作を説明する。
図1及び図2を参照すれば、映像入力部110には、カメラによって撮像された映像がフレーム単位で入力される。
スイッチング部130は、制御部190からの切換え制御信号に応じて、すなわち、標識検出部150の検出結果または標識追跡部170の追跡結果に応じて、映像入力部110から提供される現在のフレーム映像を標識検出部150または標識追跡部170に提供する。先行のフレーム映像で標識(ランドマーク)が検出または追跡された場合には、現在のフレーム映像を標識追跡部170に提供し、標識が検出または追跡されたこともない場合には、現在のフレーム映像を標識検出部150に提供する。
標識検出部150は、入力された現在のフレーム映像の中から標識を検出するためのものである。標識の例としては、特定のカラーのみを使用することもあるが、本実施例では特定のカラーを反復的で対称的な形態に配列させたパターンを使用する。標識の検出には、CONDENSATIONアルゴリズムを使用する。1次検出部210は、第1散布度(例えば50の確率分布)を有し、2次検出部230は、第2散布度(例えば10の確率分布)を有する。すなわち、1次検出部210が2次検出部230よりも大きな散布度を有しているので、1次検出部210は2次検出部230に比べて検出の正確度が劣る。1次検出部210は、カラー映像のフレーム全体をサンプリング領域に設定し、散布度を大きい値に設定して粗い検出を行い、その結果、標識の概略的な位置を推定する。2次検出部230は、標識の概略的な位置を中心とする所定領域をサンプリング領域に設定し、散布度を小さな値に設定して詳細な検出を行う。
標識追跡部170は、先行のフレーム映像で標識が検出または追跡された場合に、制御部190から提供された先行のフレーム映像で検出された標識の位置を中心に現在のフレーム映像において所定のサンプリング領域を設定し、設定されたサンプリング領域に対して標識の追跡を行う。標識を追跡する場合も、標識の検出に使われたCONDENSATIONアルゴリズムを使用する。標識追跡部170は、標識検出部150の2次検出部230と類似した動作を行う。このように、標識が検出されたフレーム映像の次のフレーム映像に対して標識の追跡を適用すれば、標識が検出された部分に対して標識が存在する確率を高く算定するので、標識が隠蔽されたりまたは一時的に消える場合にも優れた検出性能を発揮しうる。
制御部190は、標識検出部150の検出結果または標識追跡部170の追跡結果を入手し、切換え制御信号をスイッチング部130に出力する。スイッチング部130は、標識検出の成功如何または標識追跡の成功如何に応じて、すなわち、切換え制御信号に応じて、映像入力部110から提供される現在のフレーム映像を標識検出部150及び標識追跡部170のうち一つに提供(出力)する。また、制御部190は、標識検出部150で標識の検出が成功した場合または標識追跡部170で標識の追跡が成功した場合に、検出または追跡された標識の位置座標値を標識追跡部170に提供する。
なお、スイッチング部130、標識追跡部170及び制御部190が備わっていない場合には、映像入力部110から提供される各フレーム映像は、標識検出部150に提供され、第1散布度を利用した加重サンプリング方式による1次標識検出工程と第2散布度を利用した加重サンプリング方式による2次標識検出工程とが順次に行われる。
図3Aおよび図3Bは、図2に示す標識検出部150の1次検出部210及び2次検出部230の動作を説明するフローチャートである。ここで、1次検出部210と2次検出部230とは適用される散布度が異なり(例えば1次検出部210の散布度を50、2次検出部230の散布度を10とする場合など)、さらには、サンプリング領域も異なるが、基本的な動作は同じである。
図3Aを参照すれば、工程311では散布度を所定値に設定する。1次検出部210の場合には散布度を大きい値に、2次検出部230の場合には散布度を小さな値、例えば第1検出部210の散布度の1/5ほどの値に設定する。
工程313では、サンプリング領域を設定する。1次検出部210の場合には入力されるフレーム映像全体を、2次検出部230の場合には1次検出部210によって推定された標識の概略的な位置を中心とする所定領域をサンプリング領域に設定する。
工程315では、カメラから撮像された現在のフレームのカラー映像が入力される。ここで、カラー映像は色度カラー空間に変換され、その結果、輝度成分が効果的かつ迅速に除去される。これにより、1次検出部210および2次検出部230は、暗い照明下でも良好に動作しうる。入力されるRGBカラー映像から色度カラー空間への変換は、次の数式1のようになされる。
一方、本実施例に適用される標識としては、図6のように、特定のカラーが反復的で対称的な形態に配列されたパターンのものを使用する。このパターンは、回転されているか、または部分的に識別されているか、または距離によってサイズが変わる場合にも全体的な特性を維持しうる。このようなカラーの配列は、実際の環境で発生する幾何学的で光学的な問題に対して強い性能を備えている。一つの標識をなすカラーの数は、色度カラー空間上で最も大きい距離を有する2ないし4個のカラーであることが望ましい。
工程317では、CONDENSATIONアルゴリズムに基づいて標識モデルの正常状態でのカラーヒストグラムを算出(取得)する。標識モデルは、初期段階、すなわち、最初のフレーム映像であらかじめ定義される。
工程319では、CONDENSATIONアルゴリズムに基づいて、初期段階、すなわち、最初のフレーム映像の中にN個のサンプルブロックを生成してフレーム映像の中にランダムに分布させる。ここでは、サンプルブロックの数Nを50に設定する。サンプルブロック及び標識モデルのサイズは、任意に設定しうる。
工程321では、全てのサンプルブロックの特徴量を算出(取得)する。定義された標識モデルを安定的に検出して追跡するためには、適切な標識の特徴量を選択することが重要である。標識の特定の外形やエッジに関する情報を利用すると、映像内のノイズやブレ効果によって標識の検出を失敗する恐れがあるので、本実施例では、映像の歪みに強く、かつ少ない計算量で抽出されうるカラーヒストグラムを特徴量として使用する。カラーヒストグラムには、標識の全域カラーヒストグラムと行または列の有する部分カラーヒストグラムとがある。全域カラーヒストグラムは、一定領域内の全体的なカラー類似度を測定しうる尺度として使用される。標識モデルが異なるパターンを有していても、類似した全域カラーヒストグラムを示すため、特定の映像の列や行に沿って定義された部分カラーヒストグラム(図7参照)を並行して使用する。
このようなヒストグラムは、計算が容易である。さらに、標識が有するカラーパターンの幾何学的な特性に起因して標識モデルが回転されているか、あるいは映像内でのサイズが変化しても、標識の全域カラーヒストグラムの特性および部分カラーヒストグラムの特性は、変化しない。また、ヒストグラムの特性は、非常に速く抽出することが可能であるため、これらカラーヒストグラムは、リアルタイムの実行に適し、また、映像処理の影響をほとんど受けないため、ノイズやブレのような現象にも強い。したがって、自律走行ロボットのような知能型システムは、このような特徴量を比較することによって、いかなる状況でも所望の標識モデルを検出しかつ追跡しうる。
工程323では、カラーヒストグラム間の類似度を表すヒストグラム交集合を使用して各サンプルブロックと標識モデルとの類似度を算出する。ヒストグラム交集合を使用すれば、サンプルブロック(i)と標識モデル(j)間の類似度(M(i,j))は、次の数式2のように表せる。
ここで、GHI及びLHIはそれぞれ全域ヒストグラム交集合と部分ヒストグラム交集合とを表し、次の数式3及び4のように表せる。
ここで、gh及びlhはそれぞれ全域ヒストグラムと部分ヒストグラムとを表す。そして、(r,g)は色度カラー空間でカラーヒストグラムのbinの座標を表し、w及びhは、部分ヒストグラムの行及び列の番号を表す。
工程325では、サンプルブロック(i)と標識モデル(j)間のマッチング確率(prob(i|j))を工程323で算出された類似度を利用して次の数式5により算出する。
ここで、Nは、サンプルブロックの数を表す。
工程327では、工程325で算出されたN個のマッチング確率(prob(i|j))の重心に基づいて現在のフレームにおける標識の位置を推定する。
図3Bに示すように、工程329では、工程327で推定された位置での標識のカラーヒストグラムとあらかじめ定義された標識モデルのカラーヒストグラムとを比較して標識の検出が成功したか否かを判断する。すなわち、二つのカラーヒストグラムの差が所定値と同じであるか、または所定値より少なければ、標識の検出に成功したと判断し、工程331に進んで検出された標識の位置を出力する。一方、二つのカラーヒストグラムの差が所定値より大きければ、工程333に進んで現在フレームが最後のフレームであるか否かを判断する。
工程333において、現在のフレームが最後の段階、すなわち、最後のフレームであると判断された場合には、工程335に進んで標識の検出が失敗したと決定し、現在のフレームが最後のフレームではないと判断された場合には、工程337に進んで(t+1)番目のフレームで使われる標識モデルのカラーヒストグラム(Ct+1 j)を、サンプルブロックが有するカラーヒストグラムとサンプルブロックとのマッチング確率を利用して、次の数式6のように更新する。
ここで、αは加重値であって、この値を大きく設定する場合、システムの適応性は向上するが、性能が低下する。ここで、Ct jはt番目のフレーム映像で標識モデル(j)のカラーヒストグラムを表し、Ckはk番目のサンプルブロックのカラーヒストグラムを表す。このように標識モデルのカラーヒストグラムを更新することにより、輝度が変わる場合にも優れた検出性能を示すことができる。
工程339では、散布度を調整する。散布度の調整については、図4及び図5を参照してさらに詳細に説明する。散布度の調整工程は、オプションとして備わりうる。
工程341では、工程339で調整された散布度を適用し、CONDENSATIONアルゴリズムに基づいた加重サンプリングを利用(実行)して次のフレームで使われるN個のサンプルブロックを生成する。その後、工程321に復帰する。
図4は、図3Aに示す散布度の調整工程(工程339)の第1実施例を示すフローチャートである。
図4を参照すれば、工程411では、i番目のフレームで得られた各サンプルブロック(i)と標識モデル(j)とのマッチング確率に対する最大マッチング確率を所定のしきい値と比較する。最大マッチング確率は、各サンプルブロックと標識モデル間のマッチング確率をすべて合算することによって得られる累積確率であって、この値をあらかじめ設定されたしきい値と比較したときに、しきい値より大きければ、正しく収斂されてマッチングされたことを意味し、そうでなければ、マッチングされていないことを意味する。
工程411での比較した結果、最大マッチング確率がしきい値より小さい場合には、工程413において、現在の散布度を所定単位、例えば0.5ほど増加させる。411段階での比較した結果、最大マッチング確率がしきい値と同じであるか、またはしきい値より大きい場合には、工程415において、現在の散布度を所定単位、例えば0.5ほど減少させる。そして、調整した散布度を(i+1)番目のフレームに適用する。
図5は、図3Aに示す散布度の調整工程(工程339)の第2実施例を示すフローチャートである。第1実施例では累積確率によって二つの段階に散布度を調整したが、第2実施例では関数によって漸進的に変化させる方法を使用する。すなわち、累積確率が高いほど、正確にマッチングされていることを意味するので、狭い領域においてより詳細に追跡するために散布度を低める、すなわち、累積確率に反比例する適切な関数を利用して散布度を決定する。
図5を参照すれば、工程511では、所定のスケールファクターを最大マッチング確率で除算することによって実際の散布度を再び算出する。
工程513では、実際の散布度を所定の最大散布度と比較する。その結果、実際の散布度が最大散布度と同じであるか、またはそれより大きい場合には、工程515において、(i+1)番目のフレーム映像に適用される散布度を最大散布度に設定し、実際の散布度が最大散布度より小さい場合には、工程517に進み、散布度を調整せずに工程341に進む。
本発明で適用されたCONDENSATIONアルゴリズムに基づいた加重サンプリングの例を図8A及び図8Bを参照して説明すれば、次の通りである。
図8Aは、全体サンプルブロックの数Nが10である場合で、i番目のフレーム映像においてフレーム映像の中に分布されたサンプルブロックB1ないしB10の例を示し、各サンプルブロックと標識モデルとのマッチング確率は、次の表1のように表せる。
図8Bは、前記のようなマッチング確率にしたがって加重サンプリングをすることにより(i+1)番目のフレーム映像に生成されるサンプルブロックの形態を表し、次の表2に示すように10個のサンプルブロックが生成される。
すなわち、(i+1)番目のフレーム映像ではi番目のフレーム映像でマッチング確率が最大であるサンプルブロックB3に対して3個のサンプルブロックB’3が生成されることが分かる。
図9Aないし図9Dは、本発明で提案された標識検出方法を実験した結果を示す図面である。この実験は、輝度変化が存在し、かつ、着色された物体が数多く存在する環境下において一つの標識を付して行われた。図面で白い四角形はサンプルブロックを表し、本実験では50個のサンプルブロックを使用した。
図9Aを参照すれば、サンプルブロックは全体映像に対して広範囲に散在しており、各サンプルブロックはそれぞれ標識モデルとの類似度を反映する確率値を有する。図9B及び図9Cを参照すれば、サンプルブロックは、フレーム数が増加するにつれて確率値に応じて次第に標識側に集中することが分かる。実際には、サンプルブロックが標識側に移動するのではなく、新たなサンプルブロックが標識の近くに形成される。標識検出の最終結果は、図9Dに示された通りであり、白い小さな四角形が標識の中心座標を表す。
前記した本発明は、コンピュータ読み取り可能な記録媒体にコンピュータ可読コードとして具現することが可能である。コンピュータ読み取り可能な記録媒体は、コンピュータシステムによって読み取ることが可能なデータが保存される全ての種類の記録装置を含む。コンピュータ読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク(登録商標)、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを通じた伝送)状に具現されるものも含む。また、コンピュータ読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散されて、分散方式でコンピュータ可読コードが保存されかつ実行されうる。そして、本発明を具現するための機能的なプログラム、コード及びコードセグメントは、当業者によって容易に推論されうる。
以上、図面及び明細書で最適の実施例が開示された。ここで、特定の用語が使われたが、これは単に本発明を説明するための目的で使われたものであり、意味限定や特許請求の範囲に記載された本発明の範囲を制限するために使われたものではない。したがって、当業者ならば、これから多様な変形及び均等な他の実施例が可能であることが分かる。したがって、本発明の真の技術的保護範囲は、特許請求の範囲の技術的思想によって決定されなければならない。
本発明の標識検出方法は、無人監視システムで人を追跡するか、ITSで車輌を追跡するか、IVSで自動車間の距離制御のために先行車輌を追跡するか、または知能制御のために特定目的物を追跡するなど多様な分野に適用可能である。
本発明に係る標識検出装置の構成を示すブロック図である。 図1において、標識検出部の細部的な構成を示すブロック図である。 図1及び図2に示す1次検出部及び2次検出部の動作を説明するフローチャートである。 図1及び図2に示す1次検出部及び2次検出部の動作を説明するフローチャートである。 図3Aに示す散布度調整工程の第1実施例を表すフローチャートである。 図3Aに示す散布度調整工程の第2実施例を表すフローチャートである。 本発明で使われる標識モデルの一例を示す図面である。 部分カラーヒストグラムを説明する図面である。 本発明で適用されるCONDENSATIONアルゴリズムの加重サンプリングを説明するための写真である。 本発明で適用されるCONDENSATIONアルゴリズムの加重サンプリングを説明するための写真である。 本発明による標識検出方法を適用した場合における、標識検出の過程を示す写真である。 図9Aに続くフレームにおける標識検出の過程を示す写真である。 図9Bに続くフレームにおける標識検出の過程を示す写真である。 標識検出の最終結果を示す写真である。
符号の説明
110 映像入力部
130 スイッチング部
150 標識検出部
170 標識追跡部
190 制御部
210 1次検出部
230 2次検出部

Claims (18)

  1. 第1散布度に応じた加重サンプリングを利用してフレーム映像の全体領域に設定される第1サンプリング領域の中にN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して1次検出を行う1次検出部と、
    前記1次検出により得られる標識の概略的な位置を中心に設定される第2サンプリング領域の中に第2散布度に応じた加重サンプリングを利用してN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して2次検出を行う2次検出部と、を含むことを特徴とする標識検出装置。
  2. 前記1次検出部は、フレーム映像ごとに、前記N個のサンプルブロックのカラーヒストグラムと前記標識モデルのカラーヒストグラムとを利用して算出される類似度から各サンプルブロックと前記標識モデルとのマッチング確率を算出して標識の位置を推定し、マッチング確率に応じた加重サンプリングを利用して次のフレーム映像で適用されるN個のサンプルブロックを生成することを特徴とする請求項1に記載の標識検出装置。
  3. 前記1次検出部は、現在のフレーム映像においてサンプルブロックが有するカラーヒストグラムと、サンプルブロックと標識モデルとのマッチング確率と、現在のフレーム映像で使われた標識モデルのカラーヒストグラムとを利用して前記標識モデルのカラーヒストグラムを更新することを特徴とする請求項1に記載の標識検出装置。
  4. 前記1次検出部は、現在のフレーム映像での累積確率を利用して第1散布度を調整することを特徴とする請求項1に記載の標識検出装置。
  5. 前記2次検出部は、フレーム映像ごとに、前記N個のサンプルブロックのカラーヒストグラムと前記標識モデルのカラーヒストグラムとを利用して算出される類似度から各サンプルブロックと前記標識モデルとのマッチング確率を算出して標識の位置を推定し、マッチング確率に応じた加重サンプリングを利用して次のフレーム映像で適用されるN個のサンプルブロックを生成することを特徴とする請求項1に記載の標識検出装置。
  6. 前記2次検出部は、現在のフレーム映像においてサンプルブロックが有するカラーヒストグラムと、サンプルブロックと標識モデルとのマッチング確率と、現在のフレーム映像で使われた標識モデルのカラーヒストグラムとを利用して前記標識モデルのカラーヒストグラムを更新することを特徴とする請求項1に記載の標識検出装置。
  7. 前記2次検出部は、現在のフレーム映像での累積確率を利用して第2散布度を調整することを特徴とする請求項1に記載の標識検出装置。
  8. 前記第1散布度は、前記第2散布度より大きい値であることを特徴とする請求項1に記載の標識検出装置。
  9. (a)第1散布度に応じた加重サンプリングを利用してフレーム映像の全体領域に設定される第1サンプリング領域の中にN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して1次検出を行う工程と、
    (b)前記1次検出により得られる標識の概略的な位置を中心に設定される第2サンプリング領域の中に第2散布度に応じた加重サンプリングを利用してN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して2次検出を行う工程と、を含むことを特徴とする標識検出方法。
  10. 前記第1散布度は、前記第2散布度より大きい値であることを特徴とする請求項9に記載の標識検出方法。
  11. 前記第1及び第2散布度を、現在のフレーム映像での累積確率に応じて適応的に変化させて次のフレーム映像に適用することを特徴とする請求項9に記載の標識検出方法。
  12. 前記第1及び第2散布度を、現在のフレーム映像での累積確率と所定のしきい値との比較結果に応じて増加または減少させて次のフレーム映像に適用することを特徴とする請求項9に記載の標識検出方法。
  13. 前記第1及び第2散布度を、現在のフレーム映像での実際の散布度と最大散布度との比較結果に応じて決定して次のフレーム映像に適用することを特徴とする請求項9に記載の標識検出方法。
  14. 前記(a)及び(b)工程では、現在のフレーム映像でサンプルブロックが有する特徴量と、サンプルブロックと標識モデルとのマッチング確率と、現在のフレーム映像で使われた標識モデルの特徴量とを利用して前記標識モデルの特徴量を更新することを特徴とする請求項9に記載の標識検出方法。
  15. 前記特徴量は、カラーヒストグラムであることを特徴とする請求項9に記載の標識検出方法。
  16. 前記(a)工程は、
    (a1)フレーム映像ごとに、前記第1サンプリング領域の中にN個のサンプルブロックを生成する工程と、
    (a2)フレーム映像ごとに、前記N個のサンプルブロックのカラーヒストグラム及び前記標識モデルのカラーヒストグラムを算出して前記N個のサンプルブロックと前記標識モデルとの類似度を算出する工程と、
    (a3)フレーム映像ごとに、前記N個のサンプルブロックと前記標識モデルとの類似度を利用して各サンプルブロックと前記標識モデルとのマッチング確率を算出して標識の位置を推定する工程と、
    (a4)現在のフレーム映像でサンプルブロックが有するカラーヒストグラムと、サンプルブロックと標識モデルとのマッチング確率と、現在のフレーム映像で使われた標識モデルのカラーヒストグラムとを利用して前記標識モデルのカラーヒストグラムを更新する工程と、
    (a5)現在のフレーム映像での累積確率を利用して第1散布度を調整する工程と、を含むことを特徴とする請求項9に記載の標識検出方法。
  17. 前記(b)工程は、
    (b1)フレーム映像ごとに、前記第2サンプリング領域の中にN個のサンプルブロックを生成する工程と、
    (b2)フレーム映像ごとに、前記N個のサンプルブロックのカラーヒストグラム及び前記標識モデルのカラーヒストグラムを算出して前記N個のサンプルブロックと前記標識モデルとの類似度を算出する工程と、
    (b3)フレーム映像ごとに、前記N個のサンプルブロックと前記標識モデルとの類似度を利用して各サンプルブロックと前記標識モデルとのマッチング確率を算出して標識の位置を推定する工程と、
    (b4)現在のフレーム映像でサンプルブロックが有するカラーヒストグラムと、サンプルブロックと標識モデルとのマッチング確率と、現在のフレーム映像で使われた標識モデルのカラーヒストグラムとを利用して前記標識モデルのカラーヒストグラムを更新する工程と、
    (b5)現在のフレーム映像での累積確率を利用して第2散布度を調整する工程と、を含むことを特徴とする請求項9に記載の標識検出方法。
  18. コンピュータに、
    (a)第1散布度に応じた加重サンプリングを利用してフレーム映像の全体領域に設定される第1サンプリング領域の中にN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して1次検出を行う工程と、
    (b)前記1次検出により得られる標識の概略的な位置を中心に設定される第2サンプリング領域の中に第2散布度に応じた加重サンプリングを利用してN個のサンプルブロックを生成し、当該各サンプルブロックの特徴量と標識モデルの特徴量とを比較して2次検出を行う工程とを実行させるための標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2004332258A 2003-11-17 2004-11-16 標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体 Ceased JP2005149509A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0081232A KR100506095B1 (ko) 2003-11-17 2003-11-17 지능형 시스템에 있어서 표식검출방법 및 장치

Publications (1)

Publication Number Publication Date
JP2005149509A true JP2005149509A (ja) 2005-06-09

Family

ID=34567782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004332258A Ceased JP2005149509A (ja) 2003-11-17 2004-11-16 標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US7606416B2 (ja)
JP (1) JP2005149509A (ja)
KR (1) KR100506095B1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009034709A1 (ja) 2007-09-11 2009-03-19 Panasonic Corporation 画像処理装置及び画像処理方法
JP2010033447A (ja) * 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
JP2010117946A (ja) * 2008-11-13 2010-05-27 Masafumi Hagiwara オブジェクト追尾方法および画像処理装置
JP2010117952A (ja) * 2008-11-13 2010-05-27 Masafumi Hagiwara 物体判別方法および物体判別装置
CN107102570A (zh) * 2016-02-19 2017-08-29 林信男 运输载具串接系统及其方法
JP2022133328A (ja) * 2016-12-27 2022-09-13 ソニーグループ株式会社 画像処理装置、及び、画像処理方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7353034B2 (en) 2005-04-04 2008-04-01 X One, Inc. Location sharing and tracking using mobile phones or other wireless devices
US7603212B2 (en) 2006-03-30 2009-10-13 Honeywell International, Inc. Real time planning and scheduling for a team of unmanned vehicles
JP2008160631A (ja) * 2006-12-26 2008-07-10 Funai Electric Co Ltd 携帯機器
US20080187213A1 (en) * 2007-02-06 2008-08-07 Microsoft Corporation Fast Landmark Detection Using Regression Methods
JP4769847B2 (ja) * 2008-06-25 2011-09-07 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに、コンピュータ読み取り可能な記憶媒体
KR101503904B1 (ko) * 2008-07-07 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
JP2010205067A (ja) * 2009-03-04 2010-09-16 Fujifilm Corp 領域抽出装置、領域抽出方法及び領域抽出プログラム
US8688377B1 (en) * 2012-02-17 2014-04-01 Google Inc. System and method of using automatically-identified prominent establishments in driving directions
CN103481842B (zh) * 2013-09-09 2015-12-02 华南理工大学 一种车辆检测与跟踪模式的切换方法
CN103810505B (zh) * 2014-02-19 2017-11-24 北京大学 基于多层描述子的车辆标识方法与系统
CN103905790A (zh) * 2014-03-14 2014-07-02 深圳市大疆创新科技有限公司 视频的处理方法、装置及系统
KR102349059B1 (ko) * 2014-11-07 2022-01-10 삼성전자주식회사 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법
CN105141895A (zh) * 2015-08-06 2015-12-09 广州飞米电子科技有限公司 视频处理方法及装置、系统、四轴飞行器
CN105867411A (zh) * 2016-04-14 2016-08-17 南方科技大学 一种无人机降落的方法及系统
US10679129B2 (en) * 2017-09-28 2020-06-09 D5Ai Llc Stochastic categorical autoencoder network
CN107992076B (zh) * 2017-12-13 2020-12-22 王俊梅 一种无人机搜寻隐匿背景躲避视线追踪的方法
WO2019133374A1 (en) * 2017-12-29 2019-07-04 Walmart Apollo, Llc System and method for determining autonomous vehicle location using incremental image analysis
US10802498B2 (en) * 2018-05-30 2020-10-13 Datalogic Ip Tech S.R.L. Target direction estimation using centroid follower
CN109101952A (zh) * 2018-09-04 2018-12-28 北京邮电大学 基于移动互联网的地物识别方法、装置、系统及服务器
US20210200237A1 (en) * 2019-12-31 2021-07-01 Lyft, Inc. Feature coverage analysis

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3376003B2 (ja) * 1992-03-05 2003-02-10 キヤノン株式会社 画像処理装置及び画像処理方法
JP2004044352A (ja) 2002-07-15 2004-02-12 Shigemi Tanaka 住宅の間取り構造

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009034709A1 (ja) 2007-09-11 2009-03-19 Panasonic Corporation 画像処理装置及び画像処理方法
JP2010033447A (ja) * 2008-07-30 2010-02-12 Toshiba Corp 画像処理装置および画像処理方法
JP2010117946A (ja) * 2008-11-13 2010-05-27 Masafumi Hagiwara オブジェクト追尾方法および画像処理装置
JP2010117952A (ja) * 2008-11-13 2010-05-27 Masafumi Hagiwara 物体判別方法および物体判別装置
CN107102570A (zh) * 2016-02-19 2017-08-29 林信男 运输载具串接系统及其方法
JP2022133328A (ja) * 2016-12-27 2022-09-13 ソニーグループ株式会社 画像処理装置、及び、画像処理方法

Also Published As

Publication number Publication date
US20050107947A1 (en) 2005-05-19
KR100506095B1 (ko) 2005-08-03
KR20050047410A (ko) 2005-05-20
US7606416B2 (en) 2009-10-20

Similar Documents

Publication Publication Date Title
JP2005149509A (ja) 標識検出装置、標識検出方法及び標識検出プログラムを記録したコンピュータ読み取り可能な記録媒体
US8446468B1 (en) Moving object detection using a mobile infrared camera
US8064639B2 (en) Multi-pose face tracking using multiple appearance models
Lookingbill et al. Reverse optical flow for self-supervised adaptive autonomous robot navigation
Borkar et al. A layered approach to robust lane detection at night
KR100612858B1 (ko) 로봇을 이용하여 사람을 추적하는 방법 및 장치
CN112926410B (zh) 目标跟踪方法、装置、存储介质及智能视频系统
KR102016549B1 (ko) 차량 및 차선 위치 검출 시스템 및 방법
US9275472B2 (en) Real-time player detection from a single calibrated camera
Liu et al. A novel distance estimation method leading a forward collision avoidance assist system for vehicles on highways
JP5919665B2 (ja) 情報処理装置、物体追跡方法および情報処理プログラム
KR100586893B1 (ko) 시변 잡음 환경에서의 화자 위치 추정 시스템 및 방법
US9280703B2 (en) Apparatus and method for tracking hand
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
CN105718872A (zh) 两侧车道快速定位及检测车辆偏转角度的辅助方法及系统
AU2021255130B2 (en) Artificial intelligence and computer vision powered driving-performance assessment
CN108446634A (zh) 基于视频分析和定位信息结合的航空器持续跟踪方法
US10032285B1 (en) Multi-hypothesis moving object detection system
Panev et al. Road curb detection and localization with monocular forward-view vehicle camera
CN110544268B (zh) 一种基于结构光及SiamMask网络的多目标跟踪方法
CN108681711A (zh) 一种面向移动机器人的自然路标提取方法
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
Hwang et al. A novel part-based approach to mean-shift algorithm for visual tracking
KR101146417B1 (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
KR20150081797A (ko) 객체 추적 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20090623