JP2013164832A - オブジェクト認識装置および方法 - Google Patents

オブジェクト認識装置および方法 Download PDF

Info

Publication number
JP2013164832A
JP2013164832A JP2012179459A JP2012179459A JP2013164832A JP 2013164832 A JP2013164832 A JP 2013164832A JP 2012179459 A JP2012179459 A JP 2012179459A JP 2012179459 A JP2012179459 A JP 2012179459A JP 2013164832 A JP2013164832 A JP 2013164832A
Authority
JP
Japan
Prior art keywords
feature point
video frame
unit
feature
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012179459A
Other languages
English (en)
Inventor
Kang Woo Lee
イ、カン、ウー
Hyun Kim
キム、ヒュン
Hyan Sun Kim
キム、ヒャン、スン
Joe Chang Son
ソーン、ジョー、チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2013164832A publication Critical patent/JP2013164832A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2323Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、映像の画素情報と距離情報を利用して映像内の各オブジェクトを認識するオブジェクト認識装置を提供する。
【解決手段】本発明のオブジェクト認識装置は、オブジェクトが含まれた映像フレームから特徴点を抽出する特徴点抽出部、抽出された特徴点を前記映像フレームから得た各画素の深さ値に応じてクラスタリングする特徴点クラスタリング部、およびクラスタリングされた特徴点に基づいて前記映像フレームに含まれた各オブジェクトを認識するオブジェクト認識部を含むことを特徴とする。本発明は、映像内に複数のオブジェクトが存在する場合、各オブジェクトの認識性能を既存よりもさらに向上させることができる。
【選択図】図4

Description

本発明は、オブジェクトを認識する装置および方法に関し、より詳細には、映像を基盤としてオブジェクトを認識する装置および方法に関する。
オブジェクト認識方法は、単純な物体の認識応用だけではなく、ロボットなどのような多様な分野で活発に用いられる技術である。オブジェクト認識方法に関して、従来には多様な形態のアルゴリズムが提案されている。映像を基盤としたオブジェクト認識方法もそのうちの1つである。
映像を基盤としたオブジェクト認識方法は、映像の特徴点に基づいてオブジェクトを認識する。すなわち、RGBイメージやYUVイメージからオブジェクトを適切に表現することができる複数の特徴点を抽出し、この特徴点を予め準備した認識対象オブジェクトの特徴点と比較し、類似する特徴点の個数を基準としてオブジェクト認識を実行する。
しかし、映像内に複数の距離に位置した多数のオブジェクトが存在する場合、特徴点が所望するオブジェクトだけではなく他の距離に存在するオブジェクトにマッチングする場合が頻繁に発生する。これにより、映像内に所望するオブジェクトが存在しても、該当するオブジェクトを認識することができなかったり、他のオブジェクトと誤認して認識したりするという問題点が発生する。
本発明は、上述したような問題点を解決するために案出されたものであって、映像の画素情報と距離情報を利用して映像内の各オブジェクトを認識するオブジェクト認識装置および方法を提案することを目的とする。
本発明は、上述したような目的を達成するために案出されたものであって、オブジェクトが含まれた映像フレームから特徴点を抽出する特徴点抽出部、抽出された特徴点を前記映像フレームから得た各画素の深さ値に応じてクラスタリングする特徴点クラスタリング部、およびクラスタリングされた特徴点に基づいて前記映像フレームに含まれた各オブジェクトを認識するオブジェクト認識部を含むことを特徴とするオブジェクト認識装置を提案する。
好ましくは、前記特徴点クラスタリング部は、K−平均群集化アルゴリズム(K−mean clustering algorithm)を利用し、前記映像フレームから区分された平面フレームごとに1つのオブジェクトだけが位置するように、前記抽出された特徴点をクラスタリングする。
一実施形態として、前記特徴点クラスタリング部は、前記深さ値の範囲を基準として前記映像フレームを平面フレームに区分する深さ値基盤フレーム区分部、および各平面フレームと関連する前記深さ値の範囲に基づき、前記抽出された特徴点のうちで同一平面フレームに位置する特徴点どうしをクラスタリングする深さ値基盤クラスタリング部を含む。
他の実施形態として、前記特徴点クラスタリング部は、前記映像フレームに含まれたオブジェクトの個数を基準として前記映像フレームを平面フレームに区分するオブジェクト基盤フレーム区分部、および1つの平面フレームと関連する前記深さ値の範囲に基づき、前記抽出された特徴点のうちで同一平面フレームに位置する特徴点どうしをクラスタリングするオブジェクト基盤クラスタリング部を含む。
好ましくは、前記オブジェクト認識装置は、前記映像フレームとして画素の色相値と画素の距離値がすべて含まれた映像フレームを獲得する映像フレーム獲得部をさらに含む。より好ましくは、前記特徴点抽出部は、SIFT(Scalar Invariant Feature Transform)アルゴリズムまたはSURF(Speeded Up Robust Features)アルゴリズムを利用し、前記画素の色相値に基づいて前記特徴点を抽出する。
好ましくは、前記オブジェクト認識部は、前記クラスタリングされた特徴点による特徴点集団のうちから1つの特徴点集団を選択する特徴点集団選択部、選択された特徴点集団に含まれた各特徴点と前記映像フレームから区分された各平面フレームの間に特徴点マッチングを実行する特徴点マッチング部、および前記特徴点マッチングによって各平面フレームから1つのオブジェクトを認識する特徴点マッチング基盤認識部を含む。
また、本発明は、オブジェクトが含まれた映像フレームから特徴点を抽出する特徴点抽出ステップ、抽出された特徴点を前記映像フレームから得た各画素の深さ値に応じてクラスタリングする特徴点クラスタリングステップ、およびクラスタリングされた特徴点に基づいて前記映像フレームに含まれた各オブジェクトを認識するオブジェクト認識ステップを含むことを特徴とするオブジェクト認識方法を提案する。
好ましくは、前記特徴点クラスタリングステップは、K−平均群集化アルゴリズム(K−mean clustering algorithm)を利用し、前記映像フレームから区分された平面フレームごとに1つのオブジェクトだけが位置するように、前記抽出された特徴点をクラスタリングする。
一実施形態として、前記特徴点クラスタリングステップは、前記深さ値の範囲を基準として前記映像フレームを平面フレームに区分する深さ値基盤フレーム区分ステップ、および各平面フレームと関連する前記深さ値の範囲に基づき、前記抽出された特徴点のうちで同一平面フレームに位置する特徴点どうしをクラスタリングする深さ値基盤クラスタリングステップを含む。
他の実施形態として、前記特徴点クラスタリングステップは、前記映像フレームに含まれたオブジェクトの個数を基準として前記映像フレームを平面フレームに区分するオブジェクト基盤フレーム区分ステップ、および1つの平面フレームと関連する前記深さ値の範囲に基づき、前記抽出された特徴点のうちから同一平面フレームに位置する特徴点どうしをクラスタリングするオブジェクト基盤クラスタリングステップを含む。
好ましくは、前記オブジェクト認識方法は、前記映像フレームとして画素の色相値と画素の距離値がすべて含まれた映像フレームを獲得する映像フレーム獲得ステップをさらに含む。より好ましくは、前記特徴点抽出ステップは、SIFT(Scalar Invariant Feature Transform)アルゴリズムまたはSURF(Speeded Up Robust Features)アルゴリズムを利用し、前記画素の色相値に基づいて前記特徴点を抽出する。
好ましくは、前記オブジェクト認識ステップは、前記クラスタリングされた特徴点による特徴点集団のうちから1つの特徴点集団を選択する特徴点集団選択ステップ、選択された特徴点集団に含まれた各特徴点と前記映像フレームから区分された各平面フレームの間に特徴点マッチングを実行する特徴点マッチングステップ、および前記特徴点マッチングによって各平面フレームから1つのオブジェクトを認識する特徴点マッチング基盤認識ステップを含む。
本発明は、映像の画素情報と距離情報を利用して映像内の各オブジェクトを認識することにより、次のような効果を得ることができる。第1に、映像内に多数のオブジェクトが存在しても、所望するオブジェクトを正確に認識することができ、オブジェクト認識性能を向上させることができる。第2に、距離情報を活用することにより、既存の特徴点基盤オブジェクト認識アルゴリズムを修正せずに用いることができる。
本発明の好ましい実施形態に係るオブジェクト認識装置を概略的に示すブロック図である。 図1に示すオブジェクト認識装置の内部構成を詳細的に示すブロック図である。 従来のオブジェクト認識過程を示す概念図である。 本発明に係るオブジェクト認識過程を示す概念図である。 本発明に係るオブジェクト認識過程を示すフローチャートである。 本発明の好ましい実施形態に係るオブジェクト認識方法を概略的に示すフローチャートである。
以下、本発明の好ましい実施形態について、添付の図面を参照しながら詳しく説明する。まず、各図面の構成要素に参照符号を付与することにおいて、同じ構成要素に対しては、たとえ他の図面上に表示されていても可能な限り同じ符号を付与するようにしていることに留意しなければならない。また、本発明を説明するにおいて、関連する公知構成または機能に対する具体的な説明が本発明の要旨を不明確にし得ると判断される場合には、その詳細な説明は省略する。さらに、以下で本発明の好ましい実施形態を説明するが、本発明の技術的思想はこれに限定されたり制限されたりすることはなく、当業者によって変形されて多様に実施されることができることは勿論である。
図1は、本発明の好ましい実施形態に係るオブジェクト認識装置を概略的に示すブロック図である。図2は、図1に示すオブジェクト認識装置の内部構成を詳細的に示すブロック図である。以下の説明は、図1と図2を参照する。
図1によれば、オブジェクト認識装置100は、特徴点抽出部110、特徴点クラスタリング部120、オブジェクト認識部130、電源部140、および主制御部150を含む。
オブジェクト認識装置100は、映像基盤オブジェクト認識装置であって、映像の画素情報と距離情報を利用してオブジェクトを認識する装置である。このオブジェクト認識装置100は、映像の画素情報を利用して特徴点を抽出し、この特徴点の距離情報を利用して特徴点が群集した複数の面に分類し、各面単位で客体の特徴点とマッチングさせることによってオブジェクトを認識する。
既存の映像基盤オブジェクト認識装置は、適切に準備されたテーブルのように制限された環境に位置したオブジェクトのみを効果的に認識することができる。これにより、ロボットが活用される環境では認識性能が低下し、その活用が極めて不備な実情にある。最近では、ステレオカメラ、マイクロソフト社のKinectカメラなどが導入されながら、カメラ映像から色相情報(例:RGB情報)だけでなく距離情報も共に提供できるようになった。オブジェクト認識装置100は、このようなイメージの距離情報を活用することにより、既存のように制限された環境だけではなく任意の環境でSIFT、SURFなどの特徴マッチング(feature matching)基盤のオブジェクト認識アルゴリズムを用い、改善されたオブジェクト認識性能を示すことができる。オブジェクト認識装置100は、既存のオブジェクト認識アルゴリズムをそのまま用いるという長所を有しながらも、より少ない追加費用でも緩和した環境で改善されたオブジェクト認識性能を示すことができる。
特徴点抽出部110は、オブジェクトが含まれた映像フレームから特徴点を抽出する機能を実行する。特徴点抽出部110は、SIFT(Scalar Invariant Feature Transform)アルゴリズムまたはSURF(Speeded Up Robust Features)アルゴリズムを利用し、映像に含まれた画素の色相値に基づいて特徴点を抽出することができる。
特徴点クラスタリング部120は、抽出された特徴点を映像フレームから得た各画素の深さ値に応じてクラスタリングする機能を実行する。特徴点クラスタリング部120は、K−平均群集化アルゴリズム(K−mean clustering algorithm)を利用し、映像フレームから区分された平面フレームごとに1つのオブジェクトのみが位置されるように、抽出された特徴点をクラスタリングする。
一例として、特徴点クラスタリング部120は、図2(a)に示すように、深さ値基盤フレーム区分部121と、深さ値基盤クラスタリング部122とを含むことができる。深さ値基盤フレーム区分部121は、深さ値の範囲を基準として映像フレームを平面フレームに区分する機能を実行する。深さ値基盤クラスタリング部122は、各平面フレームに関する深さ値の範囲に基づいて抽出された特徴点のうち、同一平面フレームに位置する特徴点どうしをクラスタリングする機能を実行する。
他の一例として、特徴点クラスタリング部120は、図2(b)に示すように、オブジェクト基盤フレーム区分部123と、オブジェクト基盤クラスタリング部124とを含むことができる。オブジェクト基盤フレーム区分部123は、映像フレームに含まれたオブジェクトの個数を基準として、映像フレームを平面フレームに区分する機能を実行する。オブジェクト基盤クラスタリング部124は、1つの平面フレームに関する深さ値の範囲に基づいて抽出された特徴点のうち、同一平面フレームに位置する特徴点どうしをクラスタリングする機能を実行する。
オブジェクト認識部130は、クラスタリングされた特徴点に基づいて映像フレームに含まれた各オブジェクトを認識する機能を実行する。
オブジェクト認識部130は、図2(c)に示すように、特徴点集団選択部131、特徴点マッチング部132、および特徴点マッチング基盤認識部133を含むことができる。特徴点集団選択部131は、クラスタリングされた特徴点による特徴点集団のうちから1つの特徴点集団を選択する機能を実行する。特徴点マッチング部132は、選択された特徴点集団に含まれた各特徴点と映像フレームから区分された各平面フレームの間に特徴点マッチングを実行する機能を実行する。特徴点マッチング基盤認識部133は、特徴点マッチングによって各平面フレームから1つのオブジェクトを認識する機能を実行する。
電源部140は、オブジェクト認識装置100を構成する各構成部に電源を供給する機能を実行する。
主制御部150は、オブジェクト認識装置100を構成する各構成部の全体作動を制御する機能を実行する。
オブジェクト認識装置100は、映像フレーム獲得部160をさらに含むことができる。映像フレーム獲得部160は、映像フレームとして画素の色相値と画素の距離値がすべて含まれた映像フレームを獲得する機能を実行する。映像フレーム獲得部160は、立体カメラ(stereoscopic camera)を利用して映像フレームを獲得することができる。
次に、オブジェクト認識装置100について、一実施形態を例示しながら説明する。
一実施形態に係るオブジェクト認識装置は、イメージ内の距離情報を活用した映像基盤オブジェクト認識装置である。この装置は、マイクロソフトKinect(Microsoft Kinect)のように、RGB映像だけではなく距離情報(depth information)を利用し、既存のテーブルのように制限された環境でだけではなく、任意の環境で獲得したイメージからオブジェクトを認識する装置である。
図3は、従来のオブジェクト認識過程を示す概念図である。図4は、本発明に係るオブジェクト認識過程を示す概念図である。以下の説明は、図3と図4を参照する。
既存のイメージを利用した特徴基盤オブジェクト認識方式は、大部分がRGBイメージやYUVイメージからオブジェクトを適切に表現することができる複数の特徴点を抽出し、予め準備された認識対象オブジェクトの特徴点と比較し、類似する特徴点の個数を基準としてオブジェクト認識を実行した。このようなオブジェクト認識方法は、単純なオブジェクトの認識応用だけではなく、ロボットなどのような多様な分野で活発に用いられる技術である。
しかし、この方法は、適切に準備されたテーブルのように制限された環境下に位置した物体のみが効果的に認識されるという限界点を有しており、特に、ロボット分野のようにロボットが運用される環境に予め定められない場合に、物体認識性能が急激に低下するという現象が発生する。すなわち、図3のように、映像内に複数の距離に位置した多数のオブジェクトが存在する場合、特徴点が所望するオブジェクトだけではなく他の距離に存在するオブジェクトにマッチングする場合が発生するようになり、映像内に所望するオブジェクトが存在しても、オブジェクトを認識できなかったり、他のオブジェクトとして認識されたりする場合が頻繁に発生する。図3の場合は、物体DBに存在する四角形オブジェクト310の特徴点のうちの一部が、映像内の四角形ではなく、三角形オブジェクト320と平行四辺形オブジェクト330の特徴点にマッチングする現象を示している。
しかし、大部分の既存の方法は、適切に準備されたテーブルのように制限された環境に位置したオブジェクトのみが効果的に認識されるという限界点を有しており、特に、ロボット分野のようにロボットが活用される環境に予め定められない場合に効果的な認識性能を発揮することができず、その活用が極めて不備な実情にある。
最近では、ステレオカメラやMS社のKinectカメラなどのように、カメラが単にRGB映像値だけではなくイメージ内の物体の距離情報も提供するカメラが普遍化し始めた。一実施形態に係るオブジェクト認識装置は、このようなカメラから提供される画素の距離情報値を利用し、映像内の特徴点を図4のように予め指定された個数に分類する(410〜430)。このとき、距離別に分類された特徴点集合を断面と呼ぶ。
映像内の特徴点を距離別に分類するときは、K−平均群集化アルゴリズム(K−mean clustering algorithm)を活用する。この方法を利用して特徴点を分類する場合は、映像内の特徴点を分布に応じて動的に分類できるという長所と、同一物体はほぼ類似した距離値を有するという仮定を用いれば、同一物体に付与された特徴点が同じ断面に含まれるという長所を有する。
図5は、本発明に係るオブジェクト認識過程を示すフローチャートである。以下の説明は、図5を参照する。
S510ステップでは、オブジェクト認識機がカメラからRGB−Dイメージを獲得する過程を示している。RGB−Dイメージは、画素の色相情報と距離情報をすべて得ることができるイメージを意味する。
S520ステップでは、オブジェクト認識機が獲得したRGB−Dイメージ情報からRGB情報のみを用いて映像内の特徴点を抽出する過程を示している。特徴点を抽出する方法として、SIFT(Scalar Invariant Feature Transform)方法またはSURF(Speeded Up Robust Features)方法を利用することができる。しかし、これに限定されることはない。
S530ステップでは、オブジェクト認識機が抽出された特徴点の映像内(x、y)値に該当する距離情報値を基準とし、K−平均群集化アルゴリズム(K−mean clustering algorithm)によって予め指定された個数に群集化させる。
S540ステップでは、オブジェクト認識機がK−平均群集化アルゴリズム(K−mean clustering algorithm)によって区分された各断面に対し、特徴点マッチングアルゴリズムを用いてイメージデータベース内の対象特徴点と比較する。特徴点マッチングアルゴリズムは、S520ステップで特徴点抽出のときに用いた方法と関連するアルゴリズムを用いる。
S540ステップの後、オブジェクト認識機の認識する平面が存在するか否かを判別する(S550)。認識する平面があればS540ステップを繰り返し実行し、認識する平面がこれ以上ないときにはS560ステップを実行する。
S560ステップでは、オブジェクト認識機がS540ステップを通じて分類されたすべての断面に含まれた特徴点とのマッチングによって認識された物体を集めてオブジェクト認識結果を出力する過程を示している。
次に、オブジェクト認識装置100のオブジェクト認識方法について説明する。図6は、本発明の好ましい実施形態に係るオブジェクト認識方法を概略的に示すフローチャートである。以下の説明は、図6を参照する。
まず、特徴点抽出部は、オブジェクトが含まれた映像フレームから特徴点を抽出する(S10)。S10ステップでは、特徴点抽出部がSIFT(Scalar Invariant Feature Transform)アルゴリズムまたはSURF(Speeded Up Robust Features)アルゴリズムを利用し、映像フレームに含まれた画素の色相値に基づいて特徴点を抽出することができる。
S10ステップの後、特徴点クラスタリング部が抽出された特徴点を映像フレームから得た各画素の深さ値に応じてクラスタリングする(S20)。S20ステップでは、特徴点クラスタリング部がK−平均群集化アルゴリズム(K−mean clustering algorithm)を利用し、映像フレームから区分された平面フレームごとに1つのオブジェクトのみが位置されるように、抽出された特徴点をクラスタリングすることができる。
一例として、S20ステップは、次のように具体的に実行することができる。まず、深さ値基盤フレーム区分部が深さ値の範囲を基準として映像フレームを平面フレームに区分する。この後、深さ値基盤クラスタリング部が各平面フレームに関する深さ値の範囲に基づいて抽出された特徴点のうち、同一平面フレームに位置する特徴点どうしをクラスタリングする。
他の一例として、S20ステップは、次のように具体的に実行することができる。まず、オブジェクト基盤フレーム区分部が映像フレームに含まれたオブジェクトの個数を基準として映像フレームを平面フレームに区分する。この後、オブジェクト基盤クラスタリング部が1つの平面フレームに関する深さ値の範囲に基づいて抽出された特徴点のうち、同一平面フレームに位置する特徴点どうしをクラスタリングする。
S20ステップの後、オブジェクト認識部がクラスタリングされた特徴点に基づき、映像フレームに含まれた各オブジェクトを認識する(S30)。
S30ステップは、次のように具体的に実行することができる。まず、特徴点集団選択部がクラスタリングされた特徴点による特徴点集団のうちから1つの特徴点集団を選択する。この後、特徴点マッチング部が選択された特徴点集団に含まれた各特徴点と映像フレームから区分された各平面フレームの間に特徴点マッチングを実行する。この後、特徴点マッチング基盤認識部が特徴点マッチングによって各平面フレームから1つのオブジェクトを認識する。
図6のオブジェクト認識方法は、S10ステップ以前に映像フレーム獲得部が映像フレームから画素の色相値と画素の距離値がすべて含まれた映像フレームを獲得するステップを実行することができる。
本発明は、RGB−Dカメラから獲得する映像画素(RGB)情報を利用し、既存の特徴基盤のオブジェクト認識アルゴリズムを利用して特徴点を抽出した後、この特徴点の距離情報を利用して複数の面に分類し、各面単位でオブジェクトデータベース内のオブジェクトの特徴点とマッチングする方法であって、さらに正確にオブジェクトを認識する方法を提案する。
本発明によれば、映像内の複数のオブジェクトが互いに異なる距離で混合している映像において距離情報を活用し、既存のオブジェクト認識アルゴリズムよりも優れた認識性能を示すという長所を有する。また、既存の特徴点基盤オブジェクト認識アルゴリズムをほぼ修正なく用いることができるという長所を有する。また、距離情報を利用して特徴点を分類する方法は、既存に優れた性能を示しながら容易に実現物を求めることができるK−平均群集化アルゴリズム(K−mean clustering algorithm)を用いるという長所を有する。また、本発明の分類された断面別に特徴点マッチングを実行し、マッチングアルゴリズム実行回数は断面の個数だけが増加するが、実際にマッチングする特徴点の個数は既存の方法と同じであるため、実行負荷が既存の方法に比べて小さいという長所を有する。
以上の説明は、本発明の技術思想を例示的に説明するものに過ぎず、本発明が属する技術分野において通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲内で多様な修正、変更、および置換が可能であろう。したがって、本発明に開示された実施形態および添付の図面は、本発明の技術思想を限定するためではなく説明するためのものであり、このような実施形態および添付の図面によって本発明の技術思想の範囲が限定されることはない。本発明の保護範囲は添付の請求範囲によって解釈されなければならず、これと同等な範囲内に存在するすべての技術思想は、本発明の権利範囲に含まれるものと解釈されなければならないであろう。
100 ・・・オブジェクト認識装置
110 ・・・特徴点抽出部
120 ・・・特徴点クラスタリング部
121 ・・・深さ値基盤フレーム区分部
122 ・・・深さ値基盤クラスタリング部
123 ・・・オブジェクト基盤フレーム区分部
124 ・・・オブジェクト基盤クラスタリング部
130 ・・・オブジェクト認識部
131 ・・・特徴点集団選択部
132 ・・・特徴点マッチング部
133 ・・・特徴点マッチング基盤認識部
140 ・・・電源部
150 ・・・主制御部
160 ・・・映像フレーム獲得部

Claims (9)

  1. オブジェクトが含まれた映像フレームから特徴点を抽出する特徴点抽出部、
    抽出された特徴点を前記映像フレームから得た各画素の深さ値に応じてクラスタリングする特徴点クラスタリング部、および
    クラスタリングされた特徴点に基づいて前記映像フレームに含まれた各オブジェクトを認識するオブジェクト認識部
    を含むことを特徴とする、オブジェクト認識装置。
  2. 前記特徴点クラスタリング部は、K−平均群集化アルゴリズム(K−mean clustering algorithm)を利用し、前記映像フレームから区分された平面フレームごとに1つのオブジェクトのみが位置するように、前記抽出された特徴点をクラスタリングすることを特徴とする、請求項1に記載のオブジェクト認識装置。
  3. 前記特徴点クラスタリング部は、
    前記深さ値の範囲を基準として前記映像フレームを平面フレームに区分する深さ値基盤フレーム区分部、および
    各平面フレームに関する前記深さ値の範囲に基づき、前記抽出された特徴点のうちで同一平面フレームに位置する特徴点どうしをクラスタリングする深さ値基盤クラスタリング部
    を含むことを特徴とする、請求項1に記載のオブジェクト認識装置。
  4. 前記特徴点クラスタリング部は、
    前記映像フレームに含まれたオブジェクトの個数を基準として前記映像フレームを平面フレームに区分するオブジェクト基盤フレーム区分部、および
    1つの平面フレームと関連する前記深さ値の範囲に基づき、前記抽出された特徴点のうちで同一平面フレームに位置する特徴点どうしをクラスタリングするオブジェクト基盤クラスタリング部、
    を含むことを特徴とする、請求項1に記載のオブジェクト認識装置。
  5. 前記映像フレームとして画素の色相値と画素の距離値がすべて含まれた映像フレームを獲得する映像フレーム獲得部
    をさらに含むことを特徴とする、請求項1に記載のオブジェクト認識装置。
  6. 前記特徴点抽出部は、SIFT(Scalar Invariant Feature Transform)アルゴリズムまたはSURF(Speeded Up Robust Features)アルゴリズムを利用し、前記画素の色相値に基づいて前記特徴点を抽出することを特徴とする、請求項5に記載のオブジェクト認識装置。
  7. 前記オブジェクト認識部は、
    前記クラスタリングされた特徴点による特徴点集団のうちから1つの特徴点集団を選択する特徴点集団選択部、
    選択された特徴点集団に含まれた各特徴点と前記映像フレームから区分された各平面フレームの間に特徴点マッチングを実行する特徴点マッチング部、および
    前記特徴点マッチングによって各平面フレームから1つのオブジェクトを認識する特徴点マッチング基盤認識部
    を含むことを特徴とする、請求項1に記載のオブジェクト認識装置。
  8. オブジェクトが含まれた映像フレームから特徴点を抽出する特徴点抽出ステップ、
    抽出された特徴点を前記映像フレームから得た各画素の深さ値に応じてクラスタリングする特徴点クラスタリングステップ、および
    クラスタリングされた特徴点に基づいて前記映像フレームに含まれた各オブジェクトを認識するオブジェクト認識ステップ
    を含むことを特徴とする、オブジェクト認識方法。
  9. 前記特徴点クラスタリングステップは、K−平均群集化アルゴリズム(K−mean clustering algorithm)を利用し、前記映像フレームから区分された平面フレームごとに1つのオブジェクトのみが位置するように、前記抽出された特徴点をクラスタリングすることを特徴とする、請求項8に記載のオブジェクト認識方法。
JP2012179459A 2012-02-09 2012-08-13 オブジェクト認識装置および方法 Withdrawn JP2013164832A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120013263A KR20130091918A (ko) 2012-02-09 2012-02-09 오브젝트 인식 장치 및 방법
KR10-2012-0013263 2012-02-09

Publications (1)

Publication Number Publication Date
JP2013164832A true JP2013164832A (ja) 2013-08-22

Family

ID=49176120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012179459A Withdrawn JP2013164832A (ja) 2012-02-09 2012-08-13 オブジェクト認識装置および方法

Country Status (2)

Country Link
JP (1) JP2013164832A (ja)
KR (1) KR20130091918A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181181A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101477051B1 (ko) * 2014-01-02 2014-12-30 연세대학교 산학협력단 객체 인식을 위한 이미지 코드화 방법
KR101705330B1 (ko) * 2015-09-30 2017-02-10 인하대학교 산학협력단 스테레오 카메라 이미지에서 물체의 기울어진 각도를 찾기 위한 특징점 선택 방법
US11967322B2 (en) 2021-05-06 2024-04-23 Samsung Electronics Co., Ltd. Server for identifying false wakeup and method for controlling the same
KR20220151504A (ko) * 2021-05-06 2022-11-15 삼성전자주식회사 오호출을 식별하는 서버 및 이의 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181181A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
KR20130091918A (ko) 2013-08-20

Similar Documents

Publication Publication Date Title
US9405993B2 (en) Method and system for near-duplicate image searching
CN103955660B (zh) 一种批量二维码图像识别方法
WO2018040756A1 (zh) 一种车身颜色识别的方法及装置
Ghazali et al. An innovative face detection based on YCgCr color space
US10430457B2 (en) Image processing apparatus, image processing method, search apparatus, search method, and non-transitory computer-readable storage medium
JP2013164832A (ja) オブジェクト認識装置および方法
US8538079B2 (en) Apparatus capable of detecting location of object contained in image data and detection method thereof
CN106446862A (zh) 一种人脸检测方法及系统
CN111612820A (zh) 多目标跟踪方法、特征提取模型的训练方法和装置
CN102592132A (zh) 超像素推进型自上而下图像识别方法和系统
GB2605723A (en) Video segmentation based on weighted knowledge graph
CN112329851A (zh) 一种图标检测方法、装置及计算机可读存储介质
CN104346630A (zh) 一种异构特征融合的云花卉识别方法
CN103995864B (zh) 一种图像检索方法和装置
JP2006099565A (ja) コンテンツ識別装置
JP2011013898A5 (ja)
JP2013105373A (ja) データ取得装置、方法及びプログラム
US9311523B1 (en) Method and apparatus for supporting object recognition
JP2016099980A (ja) 画像セグメンテーション方法、装置、及びプログラム
Ückermann et al. Realtime 3D segmentation for human-robot interaction
CN105120335B (zh) 一种处理电视节目图片的方法和装置
JP4967045B2 (ja) 背景判別装置、方法及びプログラム
CN106603888A (zh) 图像颜色提取处理结构
KR101611466B1 (ko) 고속 픽셀 세그멘테이션을 위한 서브샘플링 기반 영상 과분할 방법
US10089746B2 (en) Motion detection system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160225