JP2007241637A - 3次元物体認識方法および3次元画像処理装置 - Google Patents

3次元物体認識方法および3次元画像処理装置 Download PDF

Info

Publication number
JP2007241637A
JP2007241637A JP2006062925A JP2006062925A JP2007241637A JP 2007241637 A JP2007241637 A JP 2007241637A JP 2006062925 A JP2006062925 A JP 2006062925A JP 2006062925 A JP2006062925 A JP 2006062925A JP 2007241637 A JP2007241637 A JP 2007241637A
Authority
JP
Japan
Prior art keywords
camera
eigenspace
tilt
dictionary data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006062925A
Other languages
English (en)
Other versions
JP2007241637A5 (ja
JP4666638B2 (ja
Inventor
Shuji Ito
修司 伊藤
Masayuki Obata
昌之 小畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
YE Digital Co Ltd
Original Assignee
Yaskawa Electric Corp
Yaskawa Information Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp, Yaskawa Information Systems Co Ltd filed Critical Yaskawa Electric Corp
Priority to JP2006062925A priority Critical patent/JP4666638B2/ja
Publication of JP2007241637A publication Critical patent/JP2007241637A/ja
Publication of JP2007241637A5 publication Critical patent/JP2007241637A5/ja
Application granted granted Critical
Publication of JP4666638B2 publication Critical patent/JP4666638B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像処理による物体認識の高速化および認識率の向上を実現する。
【解決手段】カメラの傾き情報100aをコンピュータ102に取り込み、コンピュータ102に予め記憶されている辞書データ106の中から、辞書データ検索エンジン103によってカメラの傾き情報100aに対応する辞書データを検索する。一方、カメラ101から送られる画像データ100bをコンピュータ102に取り込み、固有空間表現処理ソフトウェア104によって、固有ベクトルとして圧縮する。固有空間表現された画像データ100dは、カメラの傾き情報100cに対応する辞書データと照合され、対象物かどうかの判別を行う。
【選択図】図1

Description

本発明は、3次元物体認識方法およびその装置に関するもので、特に1台のカメラから取得する画像データを固有空間表現して、固有空間表現されたテンプレートと比較し対象物を認識する3次元物体認識方法およびその装置に関する。
従来、対象物の3次元物体認識を行うための主な画像処理手法として、カメラを用いたパターンマッチング手法がある。
パターンマッチング手法には、学習段階として、対象物を異なる複数の視点からカメラで撮影して、大量のテンプレート画像を用意し、コンピュータに記憶させておき、認識段階では、カメラ画像と前記テンプレート画像とを比較して物体認識を行う手法がある。また、計算コストの削減と、複雑な背景や環境光の変化に対するある程度頑健な認識を行うためのパターンマッチング手法として、固有空間法がある。すなわち、カメラにより得られる画像データとテンプレート画像に対してK-L展開を施し、画像ベクトルの識別に最適な固有空間上で類似度計算を正規化相関によって行い、お互いを比較することで対象物の認識を行う手法であり、画像データを固有ベクトルとして圧縮するため、コンピュータが記憶しておくべき情報量を削減できるという特徴がある。
また、固有空間法を用いた物体認識手法の認識率の向上及び、計算コストの削減などを改善するための考案は多くの文献に記載され、例えば、対象物の全体画像と特徴的な局所画像とにより対象物を認識する方法が開示されている(例えば特許文献1参照)。
本従来技術に記載の画像認識システムは、対象物の全体的画像及び局所画像を解析する全体画像処理手段及び局所画像処理手段を備え、全体画像処理手段による認識対象の全体画像の解析処理と局所画像処理手段による全体画像の特徴的な局所の画像を解析処理とにより画像認識を行うことにより、複数の狭い画素領域である局所毎の画像情報の解析処理を並行して且つ順次探索的に行うことができ、全体画像と特徴的な局所画像とにより対象の認識を行う。複雑な形状の認識対象であっても従来の如く困難な演算を伴う確立的評価を必要とせず仮説推論が可能なシステムとなり、画像の解析処理に要するコンピュータ等の負荷が軽減でき、対象画像の認識に至る時間が短縮可能となる。
特開平10−232938
固有空間法による物体認識は、対象物を様々な方向から撮影したテンプレートを事前に用意する必要がある。実際の対象物の画像が事前に用意したパターンと異なる見え方で得られた場合には認識率が著しく低下する。また、この現象を避けるために、膨大な量のテンプレートを用意したとしても、計算量の爆発的増加や、テンプレートの増加に伴う部分空間の拡散により、認識率の低下を招く。
また、特許文献1に記載の物体認識手法は、対象物の局所画像から抽出された特徴と認識画像との整合性を評価する複数の局所モジュールを備え、整合性の評価を順次探索的に行う手法であり、相応のアルゴリズムを必要とする。また、テンプレートデータそのものを減らすものではなく、計算量、認識率の面においても大幅な改善効果は見込めない。
本発明はこのような問題点に鑑みてなされたものであり、テンプレートを削減できると共に、高速かつ、高い認識率で物体認識を行うことができる3次元物体認識方法およびその装置を提供することを目的とする。
上記問題を解決するため、請求項1に記載の発明は、水平面との距離が固定された1台のカメラと、前記カメラからの画像データを動画像処理するコンピュータで構成されたシステムにより、前記水平面上に存在する対象物の様々な方向から撮影した2次元画像データを、固有空間で圧縮したテンプレートとして前記コンピュータに予め記憶させておき、前記カメラから取得する画像データを前記固有空間表現して、前記テンプレートと比較し、対象物を認識する画像処理の方法であって、垂直方向のカメラの傾きごとに、部分的な固有空間を生成しておき、前記カメラの傾き情報を取得し、前記固有空間を用いて画像処理することを特徴としている。
また、請求項2に記載の発明は、前記固有空間が、カメラの傾きごとに、前記傾きに対する辞書データで構成された部分的な固有空間であることを特徴としている。
また、請求項3に記載の発明は、前記固有空間が、カメラの傾きごとに、垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間であることを特徴としている。
また、請求項4に記載の発明は、水平面との距離が固定され、パン、チルト機能を備えた1台のカメラと、前記カメラからの画像データを動画像処理すると共に前記カメラを操作するソフトウェアを備えたコンピュータで構成されたシステムにより、前記水平面上に存在する対象物の様々な方向から撮影した2次元画像データを、固有空間で圧縮したテンプレートとして前記コンピュータに予め記憶させておき、前記カメラから取得する画像データを前記固有空間表現して、前記テンプレートと比較し、対象物を認識する画像処理の方法であって、垂直方向のカメラの傾きごとに、部分的な固有空間を生成しておき、前記カメラの傾き情報を取得し、前記固有空間を用いて画像処理し、前記画像処理の結果を受けて前記カメラを対象物に追従させることを特徴としている。
また、請求項5に記載の発明は、前記固有空間が、カメラの傾きごとに、前記傾きに対する辞書データで構成された部分的な固有空間であることを特徴としている。
また、請求項6に記載の発明は、前記固有空間が、カメラの傾きごとに、垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間であることを特徴としている。
また、請求項7に記載の発明は、前記対象物の移動または前記カメラの移動に対して、前記カメラのパン角およびチルト角を制御し、前記カメラを対象物に追従させることを特徴としている。
また、請求項8に記載の発明は、水平面との距離が固定された1台のカメラと、前記カメラからの画像データを動画像処理するコンピュータとを備え、前記コンピュータは、水平面上に存在する対象物の様々な方向から撮影した2次元画像データを固有空間で圧縮したテンプレートとして記憶する辞書データ部と、前記カメラから取得する画像データを固有空間表現処理する固有空間表現処理部と、前記辞書データ部から得られる辞書データと前記固有空間表現処理部から得られる固有空間表現された画像データを比較するパターンマッチング処理部とを備えた3次元画像処理装置において、前記辞書データ部は、カメラの傾き情報に対応する辞書データで構成された前記部分的な固有空間で構成されていることを特徴としている。
また、請求項9に記載の発明は、水平面との距離が固定され、パン、チルト機能を備えた1台のカメラと、前記カメラからの画像データを動画像処理すると共に前記カメラを操作するカメラ制御ソフトウェアを有するコンピュータとを備え、前記コンピュータは、水平面上に存在する対象物の様々な方向から撮影した2次元画像データを固有空間で圧縮したテンプレートとして記憶する辞書データ部と、前記カメラから取得する画像データを固有空間表現処理する固有空間表現処理部と、前記辞書データ部から得られる辞書データと前記固有空間表現処理部から得られる固有空間表現された画像データを比較するパターンマッチング処理部とを備えた3次元画像処理装置において、前記辞書データ部は、カメラの傾き情報と垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間で構成されていることを特徴としている。
請求項1に記載の発明によると、限定された方向に対する固有空間に切り替えて対象物との照合を行っているため、物体を認識する段階において、辞書データとの照合にかかる計算量を削減することができる。また、余分なテンプレートを排除することになるため、認識率を向上させることができる。
請求項2に記載の発明によると、対象物を特定の方向からカメラで撮影し、物体認識を行う場合において、対象物の中心を垂直方向のカメラ画角の中心に設定し、カメラの傾き情報から、その傾き方向に対応する固有空間のみを用いて画像処理すれば、物体認識段階での照合時間を削減することができ、高速かつ、高い認識率で物体認識を行うことができる。
請求項3に記載の発明によると、対象物を特定の方向からカメラで撮影し、物体認識を行う場合において、カメラの傾き情報から、その傾き方向に対応するカメラの画角の範囲のデータを含んだ固有空間を用いて画像処理すれば、カメラ画角の範囲内にある対象物に対して、物体認識段階での照合時間を削減することができ、高速かつ、高い認識率で物体認識を行うことができる。
また、請求項4記載の発明によると、垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間を生成しておき、カメラの傾き情報に対応する前記部分的な固有空間を用いて画像処理し、この画像処理の結果を受けてカメラを対象物に追従させいるので、垂直方向のカメラ画角範囲にある対象物の認識に対して、辞書データとの照合にかかる計算量を削減することができると共に、余分なテンプレートを排除することになるため、認識率が向上する。
また、請求項5に記載の発明によると、対象物がカメラ画角の中心になったときの、カメラの傾き情報を検出し、この傾き方向に対応する固有空間のみを用いて画像処理を行えば、対象物またはカメラが移動する場合でも、物体認識段階での照合時間を削減することができ、高速かつ、高い認識率で物体認識を行うことができる。
また、請求項6に記載の発明によると、対象物がカメラ画角の範囲になったときの、カメラの傾き情報を検出し、その傾き方向に対応するカメラの画角の範囲のデータを含んだ固有空間を用いて画像処理を行えば、対象物またはカメラが移動する場合でも、物体認識段階での照合時間を削減することができ、高速かつ、高い認識率で物体認識を行うことができる。
また、請求項7に記載の発明によると、対象物の移動またはカメラの移動に対して、カメラのパン角およびチルト角を制御し、カメラを対象物に追従させれば、自律動作型ロボットシステムに搭載し、対象物に対するロボット動作を行うことができる。
また、請求項8に記載の発明によると、辞書データがカメラの傾き情報に対応する部分的な固有空間で構成されているので、テンプレートを削減できると共に、高速かつ、高い認識率で物体認識を行うことができる。
また、請求項9に記載の発明によると、辞書データが垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間で構成されているので、垂直方向のカメラ画角範囲にある対象物の認識に対して、辞書データとの照合にかかる計算量を削減することができると共に、余分なテンプレートを排除することになるため、認識率が向上する。
以下、本発明の実施の形態について図を参照して説明する。
図1は本発明の第1の実施形態である3次元物体認識方法の構成を示すブロック図である。
図において、101はカメラ、102はカメラ101から送られる画像データ100bをリアルタイムで取得するコンピュータである。例えば680×480ピクセルの画像データを30f/s の速度で取得する。コンピュータ内部は、辞書データ検索エンジン103、固有空間表現処理ソフトウェア104、パターンマッチング処理ソフトウェア105、辞書データ106で構成される。
次に、動作について説明する。
先ず、コンピュータ102は、カメラの傾き(θpi)情報100aを取得する。ただし、カメラの傾き(θpi)は、水平面を基準としたカメラの垂直方向の傾きを示すパラメータである。
次に、辞書データ検索エンジン103は、コンピュータ102に予め記憶されている辞書データ106の中から、カメラの傾き(θpi)情報100aに対応する辞書データを検索し、カメラの傾き情報に対応する辞書データ100cをパターンマッチング処理ソフトウェア105へ送る。
一方、固有空間表現処理ソフトウェア104は、カメラ101から取り込まれる画像データ100bを固有空間表現し、固有空間表現された画像データ100dをパターンマッチング処理ソフトウェア105へ送る。パターンマッチング処理ソフトウェア105は、カメラの傾き(θpi)情報に対応する辞書データ100cと、固有空間表現された画像データ100dを比較し、対象物かどうかの判別を行う。
図2は、対象物とカメラの位置関係を示す図である。
図において、座標系(x、y、z)は、x−y平面が水平面と平行であるような座標系である。図中のhは水平面とカメラとの距離を示す。
θは対象物を中心とした角度を示し、添え字“r”は、対象物を中心にしたz軸回りの角度で、角度θrは、カメラからx−y平面上に垂直に降ろした射影点と対象物の中心点とを結ぶ直線と、x軸とがなす角度であり、範囲は(0≦θr≦2π)である。また、添え字“p”は、x−y平面に対する角度を示し、角度θpは、カメラの中心点と対象物を結ぶ直線のx−y平面に対する角度であり、x−y平面上の物体を対象にする場合、範囲は(0≦θp≦π)である。なお、以降では、角度θpをカメラの傾き角度と言うことにする。
辞書データ106の作成において、テンプレート画像は、θr及び、θpに対して、一定の間隔ごとに撮影するものとし、θrに対してM通り(θr=θr0、θr1、・・・、θrM-1)、θpに対してN通り(θp=θp0、θp1、・・・、θpN-1)のテンプレートを用意するとすれば、テンプレート数はM×N個となる。
このとき、従来の固有空間法では、M×N個のテンプレートから、1つの固有空間を生成するが、本発明では、θpに対して別々の固有空間を生成する。すなわち、θp=θp0、θp1、・・・、θpN-1のそれぞれに対して、θrに対するM個のテンプレート集合を考え、N個の固有空間を生成する。
そのようにして作成した辞書データ106を用意しておき、物体認識の段階では、カメラの傾き(θpi)情報100aを取得し、傾きθpiに近いデータをN個の辞書データから抽出し、画像処理を行う。
図3は本実施例における物体認識処理の流れを示すフローチャートである。
図において、処理301は、カメラの傾き(θpi)情報100aをコンピュータ102に取り込む手続きであり、カメラの傾きθpiは、防犯カメラなど、カメラの姿勢が固定である用途の場合は、傾きを実測することによって予めコンピュータに記憶させておく。また、カメラがパン、チルト機能を備えており、カメラとコンピュータ間で通信が可能な場合は、カメラから傾き情報を取得する。
処理302は、カメラ101からの画像データ100bをコンピュータ102に取り込む手続きであり、取り込み装置(カメラの規格によるが、キャプチャボード、USB端子、FIREWIRE等)を介して取り込むことが可能である。
処理303は、取り込まれた画像データ100bの固有空間表現処理を実行するステップで、取り込まれた画像データ100bは固有空間表現処理ソフトウェア104によって、固有ベクトルとして圧縮される。
処理304は、カメラの傾きに対応する辞書データ郡の検索を行うステップで、コンピュータ102に予め記憶されている辞書データ106の中から、カメラの傾き(θpi)情報100aに対応する辞書データが検索される。
処理305はパターンマッチング処理を実行するステップで、処理303で得られた固有空間表現された画像データ100dは、処理304で得られたカメラの傾き情報に対応する辞書データ100cと照合され、対象物かどうかが判別される。
このように本実施例では、角度θp方向の制約条件を設けることによって、対象物の見え方を限定し、その傾き方向に対応する固有空間のみを用いて画像処理しているので、物体認識段階での照合時間を削減することができ、高速かつ、高い認識率で物体認識を行うことができる。
実際に、この制約条件を満たす用途は数多く存在し、例えば、防犯カメラで人物を特定するような場合、固定のカメラで撮影する人物の見え方は大きく制限される。また、カメラを搭載した自律移動型ロボットにおける物体認識においても、ロボットは地面上を走行し、地面上に存在する物体を認識して、その物体に対して特定の動作(物体への接近、障害物回避など)を行う場合も前記制約条件は満たされることになる。
すなわち、対象物の見え方が、地面から垂直な方向に対して限定されるため、テンプレートとして必要なデータは、角度θp方向の画像集合のみであり、その固有空間は、全方位のテンプレートを用いた固有空間に比べてはるかに小さくなり、物体認識段階における、照合時間を削減することができる。また、余分なテンプレートを排除することになるため、認識率を上げることができる。
図4は本発明の第2の実施形態である3次元物体認識方法の構成を示すブロック図である。
本実施例は、パン、チルト機能を備えた1台のカメラと画像処理用コンピュータを用いて対象物の自動探索及び、画像処理による物体認識、さらに、動いている対象物の場合、物体認識の結果を受けて、対象物のカメラ追従を行うものである。
図4において、406は辞書データで、第1実施例ではカメラの傾き角度θpに対する辞書データ106を用いたが、本実施例ではカメラの傾きと画角とによって作成される辞書データ406を用いる。また、407はカメラを制御するためのカメラ制御ソフトウェアである。カメラの画角は、使用するカメラによって固有の値をもつものであり、前記画角はその垂直方向の画角とし、以下パラメータθvで表す。
本実施例の構成が第1実施例と異なる点は、辞書データ406がカメラの傾きと画角とによって作成されている点と、コンピュータ102がカメラ制御ソフトウェア407を備えている点である。なお、カメラ101はパン、チルト機能を備え、コンピュータ102の指令信号によって、カメラ101を動作させることができるものとする。
図5は、対象物とカメラ及び、カメラの画角の関係を示した図である。
実施例1では、対象物はカメラ画角の中心にあるとしたが、カメラが対象物を自動的に探索するような場合、探索段階において、対象物は画角の中心にはなく、カメラが縦、横方向に動作することによって画角内に入る。したがって、実施例1のように特定のθpの角度に対する固有空間を用いた場合、対象物の認識率は低くなる。
そこで、画角θvを考慮した、より広範囲なテンプレート集合を用いて、固有空間を生成する。用意するテンプレートは実施例1と同様とし、θrに対してM通り(θr=θr0、θr1、・・・、θrM-1)、θpに対してN通り(θp=θp0、θp1、・・・、θpN-1)のM×N個のテンプレートを考える。各θpの値に対して、図5に示すような画角の範囲(θp−θv/2〜θp+θv/2)を考え、その範囲に含まれる全θpの集合に対する固有空間を生成する。例えば、各θpの角度が等間隔のとき、前記範囲の中にL通りのθpの値が含まれる場合、1つの固有空間を生成するためにはL×M個のテンプレートが必要であり、それぞれのθpに対して生成するため、N個の固有空間を生成することになる。
図6は本実施例における物体認識処理の流れを示すフローチャートである。
図において、処理601は対象物探索動作指令をカメラへ送信するステップで、先ず、対象物を探索するために、カメラ制御ソフトウェア407から、パン、チルト制御信号400fをカメラ101に送る。本ステップにおいてカメラ動作中は、カメラ101の傾き情報と、画像データはリアルタイムにコンピュータ102へ送られているものとする。
次に、コンピュータ102は、カメラの傾き情報100aと、画像データ100bを取り込み(処理301、処理302)、画像データ100bは、固有空間表現処理ソフトウェア104で固有空間表現処理され固有ベクトルに圧縮される(処理303)。
ここで、辞書データに関しては、辞書データ検索エンジン103によって、カメラの傾き情報100aを基に、カメラ画角範囲(θp−θv/2〜θp+θv/2)に対応するデータを、辞書データ406の中から抽出する(処理304)。
以上により得られた固有空間表現された画像データ100dは、パターンマッチング処理ソフトウェア105によって、カメラ画角範囲に対応する辞書データ400eと照合され(処理305)、もし対象物が存在しないと判断された場合(判断602、NOの場合)、処理601に戻り、カメラ101は、探索動作を行う。
一方、処理602で、対象物が存在すると判断された場合(判断602、YESの場合)は、対象物が画角の中心となるようにカメラ101を動作させる。すなわち、対象物が画角の中心にあるかどうかを判断し(判断603)、もし、中心にない場合(判断603、NOの場合)は、カメラ制御ソフトウェア407によって、対象物が画角の中心にくるようにカメラを動作させ(処理604)、処理301以降の動作を行う。また、カメラ101の動作によって、対象物が画角の中心となった場合(判断603、YESの場合)、実施例1で記載した物体認識手法を適用することができる(処理300)。
このように、本実施例では、カメラの傾き情報と、垂直方向のカメラ画角情報を用いて、画角の範囲に対応する固有空間から対象物の自動探索し、動画像処理の結果を受けて、カメラを対象物に追従させているので、対象物またはカメラが移動する場合でも、限定された方向に対する固有空間を用いて画像処理を行うことができ、高速かつ、高い認識率で物体認識を行うことができる。
本発明は、対象物に対するロボット動作を行う自律動作型ロボットシステムに適用できる。
本発明の第1の実施形態である3次元物体認識方法の構成を示すブロック図 本発明の第1実施例における対象物とカメラの位置関係を示す図 本発明の第1実施例における物体認識処理の流れを示すフローチャート 本発明の第2の実施形態である3次元物体認識方法の構成を示すブロック図 本発明の第2実施例における対象物とカメラ及び、カメラの画角の関係を示す説明図 本発明の第2実施例における物体認識処理の流れを示すフローチャート
符号の説明
101 カメラ
102 コンピュータ
103 辞書データ検索エンジン
104 固有空間表現処理ソフトウェア
105 パターンマッチング処理ソフトウェア
106 辞書データ
100a カメラの傾き情報
100b 画像データ
100c カメラの傾きに対応する辞書データ
100d 固有空間表現された画像データ
201 対象物
406 辞書データ
407 カメラ制御ソフトウェア
400e カメラの傾きと画角の範囲に対応する辞書データ
400f パン、チルト制御信号

Claims (9)

  1. 水平面との距離が固定された1台のカメラと、
    前記カメラからの画像データを動画像処理するコンピュータで構成されたシステムにより、
    前記水平面上に存在する対象物の様々な方向から撮影した2次元画像データを、固有空間で圧縮したテンプレートとして前記コンピュータに予め記憶させておき、前記カメラから取得する画像データを前記固有空間表現して、前記テンプレートと比較し、対象物を認識する画像処理の方法であって、
    垂直方向のカメラの傾きごとに、部分的な固有空間を生成しておき、
    前記カメラの傾き情報を取得し、前記固有空間を用いて画像処理することを特徴とした3次元物体認識方法。
  2. 前記固有空間が、カメラの傾きごとに、前記傾きに対する辞書データで構成された部分的な固有空間であることを特徴とした請求項1記載の3次元物体認識方法。
  3. 前記固有空間が、カメラの傾きごとに、垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間であることを特徴とした請求項1記載の3次元物体認識方法。
  4. 水平面との距離が固定され、パン、チルト機能を備えた1台のカメラと、
    前記カメラからの画像データを動画像処理すると共に前記カメラを操作するソフトウェアを備えたコンピュータで構成されたシステムにより、
    前記水平面上に存在する対象物の様々な方向から撮影した2次元画像データを、固有空間で圧縮したテンプレートとして前記コンピュータに予め記憶させておき、前記カメラから取得する画像データを前記固有空間表現して、前記テンプレートと比較し、対象物を認識する画像処理の方法であって、
    垂直方向のカメラの傾きごとに、部分的な固有空間を生成しておき、
    前記カメラの傾き情報を取得し、前記固有空間を用いて画像処理し、前記画像処理の結果を受けて前記カメラを対象物に追従させることを特徴とした3次元物体認識方法。
  5. 前記固有空間が、カメラの傾きごとに、前記傾きに対する辞書データで構成された部分的な固有空間であることを特徴とする請求項4記載の3次元物体認識方法。
  6. 前記固有空間が、カメラの傾きごとに、垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間であることを特徴とする請求項4記載の3次元物体認識方法。
  7. 前記対象物の移動または前記カメラの移動に対して、前記カメラのパン角およびチルト角を制御し、前記カメラを対象物に追従させることを特徴とした請求項4記載の3次元物体認識方法。
  8. 水平面との距離が固定された1台のカメラと、
    前記カメラからの画像データを動画像処理するコンピュータとを備え、
    前記コンピュータは、
    水平面上に存在する対象物の様々な方向から撮影した2次元画像データを固有空間で圧縮したテンプレートとして記憶する辞書データ部と、
    前記カメラから取得する画像データを固有空間表現処理する固有空間表現処理部と、
    前記辞書データ部から得られる辞書データと前記固有空間表現処理部から得られる固有空間表現された画像データを比較するパターンマッチング処理部とを備えた3次元画像処理装置において、
    前記辞書データ部は、カメラの傾き情報に対応する辞書データで構成された前記部分的な固有空間で構成されていることを特徴とする3次元画像処理装置。
  9. 水平面との距離が固定され、パン、チルト機能を備えた1台のカメラと、
    前記カメラからの画像データを動画像処理すると共に前記カメラを操作するカメラ制御ソフトウェアを有するコンピュータとを備え、
    前記コンピュータは、
    水平面上に存在する対象物の様々な方向から撮影した2次元画像データを固有空間で圧縮したテンプレートとして記憶する辞書データ部と、
    前記カメラから取得する画像データを固有空間表現処理する固有空間表現処理部と、
    前記辞書データ部から得られる辞書データと前記固有空間表現処理部から得られる固有空間表現された画像データを比較するパターンマッチング処理部とを備えた3次元画像処理装置において、
    前記辞書データ部は、カメラの傾き情報と垂直方向のカメラ画角範囲に対応した辞書データを備えた部分的な固有空間で構成されていることを特徴とする3次元画像処理装置。
JP2006062925A 2006-03-08 2006-03-08 3次元物体認識方法および3次元画像処理装置 Expired - Fee Related JP4666638B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006062925A JP4666638B2 (ja) 2006-03-08 2006-03-08 3次元物体認識方法および3次元画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006062925A JP4666638B2 (ja) 2006-03-08 2006-03-08 3次元物体認識方法および3次元画像処理装置

Publications (3)

Publication Number Publication Date
JP2007241637A true JP2007241637A (ja) 2007-09-20
JP2007241637A5 JP2007241637A5 (ja) 2009-04-09
JP4666638B2 JP4666638B2 (ja) 2011-04-06

Family

ID=38587122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006062925A Expired - Fee Related JP4666638B2 (ja) 2006-03-08 2006-03-08 3次元物体認識方法および3次元画像処理装置

Country Status (1)

Country Link
JP (1) JP4666638B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157766A (ja) * 2007-12-27 2009-07-16 Nippon Telegr & Teleph Corp <Ntt> 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP2009239871A (ja) * 2008-03-28 2009-10-15 Canon Inc 物体検知方法及びその装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123197A (ja) * 2001-10-16 2003-04-25 Alpine Electronics Inc 道路標示等認識装置
JP2003242486A (ja) * 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
JP2004220138A (ja) * 2003-01-10 2004-08-05 Mitsubishi Heavy Ind Ltd 画像認識装置、及び、画像学習装置
JP2004295223A (ja) * 2003-03-25 2004-10-21 Fanuc Ltd 画像処理装置及びロボットシステム
JP2005149167A (ja) * 2003-11-17 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 物体パラメータ推定装置、物体パラメータ推定方法、プログラムおよび記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123197A (ja) * 2001-10-16 2003-04-25 Alpine Electronics Inc 道路標示等認識装置
JP2003242486A (ja) * 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
JP2004220138A (ja) * 2003-01-10 2004-08-05 Mitsubishi Heavy Ind Ltd 画像認識装置、及び、画像学習装置
JP2004295223A (ja) * 2003-03-25 2004-10-21 Fanuc Ltd 画像処理装置及びロボットシステム
JP2005149167A (ja) * 2003-11-17 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 物体パラメータ推定装置、物体パラメータ推定方法、プログラムおよび記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157766A (ja) * 2007-12-27 2009-07-16 Nippon Telegr & Teleph Corp <Ntt> 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP2009239871A (ja) * 2008-03-28 2009-10-15 Canon Inc 物体検知方法及びその装置
US9154682B2 (en) 2008-03-28 2015-10-06 Canon Kabushiki Kaisha Method of detecting predetermined object from image and apparatus therefor

Also Published As

Publication number Publication date
JP4666638B2 (ja) 2011-04-06

Similar Documents

Publication Publication Date Title
CN111797650B (zh) 障碍物的识别方法、装置、计算机设备和存储介质
US7308112B2 (en) Sign based human-machine interaction
JP5631086B2 (ja) 情報処理装置及びその制御方法、プログラム
JP6074272B2 (ja) 画像処理装置および画像処理方法
US8655076B2 (en) Marker generating and marker detecting system, method and program
WO2020184207A1 (ja) 物体追跡装置および物体追跡方法
JP2006146626A (ja) パターン認識方法および装置
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
US10623629B2 (en) Imaging apparatus and imaging condition setting method and program
JP2011186576A (ja) 動作認識装置
JP2021174554A (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
KR101456172B1 (ko) 이동로봇의 위치인식 장치, 방법 및 이동로봇
Liu et al. A cloud infrastructure for target detection and tracking using audio and video fusion
JP2007025902A (ja) 画像処理装置、画像処理方法
JP2007025900A (ja) 画像処理装置、画像処理方法
WO2013024665A1 (ja) 特徴点対応付けシステム、特徴点対応付け方法、および記録媒体
Tobeta et al. E2pose: Fully convolutional networks for end-to-end multi-person pose estimation
JP4666638B2 (ja) 3次元物体認識方法および3次元画像処理装置
Martínez et al. Object recognition for manipulation tasks in real domestic settings: A comparative study
KR101035291B1 (ko) 관절모델db을 이용한 포즈인식 시스템
JP2007241637A5 (ja)
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Triantafyllidou et al. Lightweight two-stream convolutional face detection
KR20130051680A (ko) 로봇에서의 사용자 얼굴 인식 장치 및 방법
Thorsten et al. Semantic-Aware Environment Perception for Mobile Human-Robot Interaction

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110107

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees