JP7049983B2 - 物体認識装置および物体認識方法 - Google Patents

物体認識装置および物体認識方法 Download PDF

Info

Publication number
JP7049983B2
JP7049983B2 JP2018243432A JP2018243432A JP7049983B2 JP 7049983 B2 JP7049983 B2 JP 7049983B2 JP 2018243432 A JP2018243432 A JP 2018243432A JP 2018243432 A JP2018243432 A JP 2018243432A JP 7049983 B2 JP7049983 B2 JP 7049983B2
Authority
JP
Japan
Prior art keywords
feature
image
scene image
feature point
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018243432A
Other languages
English (en)
Other versions
JP2020106966A (ja
Inventor
泰樹 矢野
宣隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018243432A priority Critical patent/JP7049983B2/ja
Priority to US16/721,521 priority patent/US11232589B2/en
Priority to CN201911349283.XA priority patent/CN111382776A/zh
Publication of JP2020106966A publication Critical patent/JP2020106966A/ja
Application granted granted Critical
Publication of JP7049983B2 publication Critical patent/JP7049983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像中の物体を認識する物体認識装置および物体認識方法に関する。
製造分野および物流分野では、物体のピッキング作業および組立作業の自動化が望まれている。これらの作業を自動化するためにロボットが用いられる。ロボットを用いて作業対象物体を扱う場合、作業対象物体の位置および姿勢を計測する手段が必要となる。そのために視覚センサが用いられる。
物体を扱う作業をロボットに行わせるためには、視覚センサにより計測された物体の種別を認識する必要がある。
物体の認識は、例えば、カメラで作業エリアの物体を計測し、予め準備されている対象モデルと計測結果を照合することにより行われる。例えば、作業エリアにおいて物体を計測する際には、計測結果に照明の光や影が映り込んでしまう虞がある。このように、計測結果に照明や影が映り込んでしまうと、モデルと計測結果との差が大きくなり、物体の認識が失敗してしまう虞がある。
これに対して、特許文献1には、所定対象物の鮮明度が互いに異なる複数の基準画像のそれぞれについての基準データを予め用意しておき、部分領域画像の鮮明度に応じた基準データを選択し、部分領域画像中に所定対象物が示されているか否かを判定する技術が開示されている。
特開2005-346287号公報
特許文献1では、鮮明度に応じた画像を用いて比較することにより、所定対象物であるかを判定しているが、この技術を特徴点マッチングに適用する場合において、例えば、鮮明度が低い画像を用いるとすると、物体の認識精度が低下してしまう虞がある。
本発明は、上記事情に鑑みなされたものであり、その目的は、周囲の環境の影響によらず適切に物体を認識することのできる技術を提供することにある。
上記目的を達成するため、一観点に係る物体認識装置は、物体を認識するための物体認識装置であって、認識候補の物体の基準画像と、基準画像における特徴点と、各特徴点における特徴量とを記憶する記憶部と、認識処理対象の画像であるシーン画像を取得する画像取得部と、画像取得部が取得したシーン画像の各領域における、鮮明の度合いを示す鮮明度を検出する鮮明度計算部と、シーン画像における特徴点を検出し、特徴点のマッチングを行うマッチング計算部と、を備え、マッチング計算部は、鮮明度が第1範囲となるシーン画像の第1領域と、鮮明度が第1範囲よりも低い第2範囲となるシーン画像の第2領域と、における特徴点の検出方法、または、前記第1領域と前記第2領域とにおける特徴量の検出方法の少なくとも一方を異なる方法により実行する。
本発明によれば、周囲の環境の影響によらず適切に物体を認識することができる。
物体認識装置の機能構成を示すブロック図である。 物体認識装置の適用例を示す説明図である。 物体認識装置のハードウェア構成を示すブロック図である。 基準物体登録処理のフローチャートである。 物体認識処理のフローチャートである。 鮮明度に応じて異なる特徴量を用いて物体認識を行う処理の説明図である。
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態では、例えば、認識候補の物体の基準画像(モデル画像)と、モデル画像における各単位領域(1以上の画素の領域)の特徴量とを対応付けて記憶しておき、認識処理対象の画像であるシーン画像を取得し、取得したシーン画像の各単位領域における、鮮明の度合いを示す鮮明度を検出し、モデル画像とシーン画像とにおける特徴点を検出し、特徴点のマッチングを行い、鮮明度が第1範囲となるシーン画像の第1領域における特徴点の検出と、鮮明度が第1範囲よりも低い第2範囲となる前記シーン画像の第2領域における特徴点の検出とを異なる方法により実行する。
ここで、鮮明度とは、画像の鮮明の度合いを示し、例えば、以下の(1)~(4)に示すものであってよい。
(1)単位領域の鮮明度は、単位領域内の画素での輝度勾配の大きさ又はヘッセ行列の最大固有値としてもよい。また、単位領域の鮮明度は、単位領域とその周囲の画素を含む画素群における輝度勾配の大きさ又はヘッセ行列の最大固有値の最大値としてもよい。
(2)単位領域の鮮明度は、単位領域内の輝度の分散或いは標準偏差としてもよい。
(3)予め定められた単位領域(例えば、格子状の分割領域)の鮮明度は、単位領域を2次元フーリエ変換して得られる空間周波数分布から算出される値(特開2005-346287号公報参照)としてもよい。
(4)単位領域の鮮明では、単位領域内で特定の特徴点検出手法(ORB(Oriented FAST and Rotated BRIEF)等)によって検出される特徴点の数としてもよい。
また、特徴点の検出方法が異なるとは、例えば、特徴点を検出するための処理自体が異なることや、特徴点を検出する方法において利用する特徴量の種類が異なることが含まれてもよい。
このような本実施形態に係る物体認識装置は、例えば、物体を認識するための物体認識装置であって、認識候補の物体の基準画像と、基準画像の特徴点と、各特徴点における特徴量とを記憶する記憶部と、認識処理対象の画像であるシーン画像を取得する画像取得部と、画像取得部が取得したシーン画像の各領域における、鮮明の度合いを示す鮮明度を検出する鮮明度計算部と、シーン画像における特徴点を検出し、特徴点のマッチングを行うマッチング計算部と、を備え、マッチング計算部は、鮮明度が第1範囲となるシーン画像の第1領域と鮮明度が第1範囲よりも低い第2範囲となるシーン画像の第2領域とにおける特徴点の検出方法、または、第1領域と第2領域とにおける特徴量の検出方法の少なくとも一方を異なる方法により実行する物体認識装置、と表現することもできる。
本実施形態に係る物体認識装置によれば、画像の鮮明度に応じて、その領域に適した特徴点の検出を行って特徴点マッチングを行うこと、または、その領域に適した特徴量の検出を行って特徴点マッチングを行うことができ、特徴点マッチングによる物体認識の精度を向上することができる。したがって、シーン画像に照明が映り込んで白くなってしまっている領域や、影が映り込んで黒くなってしまっている領域についても、適切に特徴点マッチングを行うことができ、物体認識精度を向上することができる。
図1~図6を用いて第1実施例を説明する。図1は、物体認識装置の機能構成を示すブロック図である。物体認識装置1は、例えば、後述の計算処理を行う計算部11と、画像取得部12と、認識結果を出力する出力部13とを備える。画像取得部12は、認識候補の物体が存在するか否かを判定する処理の対象となる画像(シーン画像)のデータを取得する。シーン画像のデータとしては、複数種類の特徴量を特定可能な情報を含んでいる。例えば、シーン画像のデータは、各画素の輝度情報や、視点に対する各画素までの3次元座標情報(3次元位置情報の一例)を含んでいてもよい。このシーン画像には、判定候補の物体が含まれる場合がある。物体としては、例えば、各種製造業で扱われる部品、物流産業で扱われる商品などがある。
計算部11は、例えば、鮮明度計算部111、特徴選択部112、記憶部の一例としてのデータ保持部113、特徴取得部114、マッチング計算部115を備える。ここで、本実施例では、特許請求の範囲のマッチング計算部には、特徴取得部114が含まれる。
データ保持部113は、あらかじめ取得される複数種類の基準物体に関するデータ(基準物体の画像(モデル画像)のデータ)を記憶デバイス101(図3参照)に保持する。基準物体を教示物体と呼ぶこともできる。認識候補となる基準物体の画像は、物体認識装置1にあらかじめ登録されるためである。基準物体に関するデータとしては、基準物体に関する特徴点(特徴点の座標)や、その特徴点における複数種類の特徴量のデータが含まれる。基準物体に関する特徴点としては、複数種類の特徴点抽出方法のそれぞれにより抽出された特徴点であってもよい。特徴点抽出方法としては、例えば、SIFT(Scale Invariant Feature Transform)を用いてもよく、ORB等を用いてもよい。複数種類の特徴量としては、表現能力が高い特徴量(例えば、SIFT特徴量)や、頑健度合いが高い特徴量(例えば、局所バイナリパターン(LBP)や、照明条件に影響されない特徴量(例えば、画素位置や、法線)のうちのいずれか複数であってもよい。
鮮明度計算部111は、画像取得部12により取得されたシーン画像における各単位領域の鮮明度を計算する。本実施例では、各単位領域を1画素とし、鮮明度をその画素での輝度勾配の大きさとしている。本実施例では、鮮明度は、例えば、照明が映り込んでしまった領域や、影が映り込んでしまった領域については、低い値が算出される。
特徴選択部112は、鮮明度計算部111により計算された各単位領域の鮮明度に基づいて、シーン画像の各領域について。鮮明度が高い領域と、鮮明度が中の領域と、鮮明度が低い領域とのいずれであるかを特定し、鮮明度が高い領域について使用する特徴量を表現能力が高い特徴量(例えば、SIFT特徴量:高鮮明度用特徴量)とし、鮮明度が中間の領域について使用する特徴量を頑健度合いが高い特徴量(例えば、LBP:中鮮明度用特徴量)とし、鮮明度が低い領域について使用する特徴量を照明条件に影響されない特徴量(3次元座標位置、法線等:低鮮明度用特徴量)とする。なお、本実施例では、シーン画像の鮮明度を固定のしきい値で、高い領域と、中間の領域と、低い領域とのいずれであるかを特定するので、シーン画像中にいずれかの領域として特定される単位領域が存在しないこともあり得る。
特徴取得部114は、画像取得部12が取得したシーン画像のデータから、所定の特徴点抽出方法により特徴点を抽出(算出)し、各特徴点について選択された特徴量を取得(算出)する。これにより、シーン画像からは、各特徴点について、各単位領域の鮮明度に応じて選択された適切な特徴量が取得されることとなる。なお、特徴取得部114は、鮮明度計算部111により計算された各単位領域の鮮明度に基づいて、シーン画像から特徴点を抽出する特徴点抽出方法を切り替えるようにしてもよい。例えば、特徴取得部114は、鮮明度が高い領域においては、SIFTを用いて特徴点を抽出し、鮮明度が高くない領域においては、ORBを用いてもよい。このようにすると、シーン画像から各単位領域の鮮明度に応じて適切な特徴点を抽出することができる。
マッチング計算部15は、特徴取得部114により取得されたシーン画像の特徴量および特徴点と、データ保持部113のモデル画像の特徴量および特徴点とに基づいて、特徴点のマッチングを行い、シーン画像とモデル画像との類似度を算出し、類似度に基づいてマッチングの結果を判定し、判定結果を出力部13に渡す。本実施例では、マッチング計算部15は、シーン画像の特徴点の属する領域の鮮明度に応じて、比較するモデル画像の特徴量を切り替えている。具体的には、マッチング計算部15は、シーン画像の鮮明度の高い領域における特徴点については、モデル画像についての高鮮明度用特徴量に基づく特徴点とのマッチングを行い、シーン画像の鮮明度の中間の領域における特徴点については、モデル画像についての中鮮明度用特徴量に基づく特徴点とのマッチングを行い、シーン画像の鮮明度の低い領域における特徴点については、モデル画像についての低鮮明度用特徴量に基づく特徴点とのマッチングを行う。この場合、モデル画像の特徴点ごとに、その特徴点の特徴量と最も近い特徴量のシーン画像の特徴点を対応付けるようにしてもよい。このように、シーン画像における鮮明度に応じて、マッチングの対象とするモデル画像の特徴量を切り替えているので、各単位領域の状態に応じて適切に特徴点のマッチングを行うことができ、特徴点のマッチング精度を向上することができる。マッチングによる類似度は、例えば、正しくマッチングした特徴点の数やその割合であってもよい。
ここで、上記した特徴量が最も近い特徴点同士を対応付けるマッチングでは、誤対応が含まれる可能性があるため、マッチング計算部15において以下の処理(A)~(C)を実行することで、マッチングの精度を向上するようにしてもよい。
(A)特徴量に基づいて対応付けが行われた、モデル画像の特徴点(モデル特徴点)と、シーン画像の特徴点(シーン特徴点)との複数の組の中からランダムに数個の組を選択し、選択した組に基づいて、以下の式(1)に示す変換行列(候補変換行列)を取得する。
Xs=RXm+T ・・・(1)
ここで、Xsは、シーン画像の特徴点の座標を示し、Xmは、モデル画像の特徴点の座標を示し、Rは、回転行列を示し、Tは、並進行列を示す。
この変換行列は、モデル特徴点に対応するシーン特徴点の位置がどこにあるかを示す行列である。
(B)全てのモデル特徴点について(A)で得た変換行列により変換して、各モデル特徴点についてのシーン画像における対応位置を特定し、特定した対応位置と、各モデル特徴点と組になっているシーン特徴点の位置との幾何学的な距離を算出し、この距離が所定の閾値以下である場合に、モデル特徴点とシーン特徴点との組が、正しい対応付けがされている組として判定し、正しい対応付けがされている組の数をカウントする。
(C)(A)および(B)の処理を繰り返し実行し、正しい対応付けがされている組の数が最多となっている場合に取得されていた変換行列を、最適な変換行列として特定する。そして、正しい対応付けがされている組が最多となっている場合の総数が所定の閾値以上であれば、シーン画像中にモデル画像の物体が存在する(物体あり)と判定し、閾値未満であれば、シーン画像中にモデル画像の物体が存在しない(物体なし)と判定する。
図2は、物体認識装置1を自動仕分け機10に適用した場合の外観例を示す。認識対象(識別対象)の物体31は、パレットなどの容器3に収容されて運搬される。容器3の上方には、カメラ2がアーム20により取り付けられている。カメラ2は、例えば、CCD(Charge Coupled Device)カメラまたはCMOSカメラなどの撮像素子を有する撮像装置である。本実施例では、カメラ2は、例えば、カメラ2の視点から撮像される各部分までの3次元距離を測定する測距センサを備えている。カメラ2で撮影された画像データは、物体認識装置1へ送られる。なお、画像データには、測距センサにより測定された各部までの3次元距離のデータを含んでもよい。物体認識装置1の画像取得部12は、カメラ2からの画像データを取得し、計算部11へ送る。
物体認識装置1は、パーソナルコンピュータを用いて実現することができる。図3で後述するように、汎用のコンピュータに所定のコンピュータプログラムを記憶させ、実行させることにより、物体認識装置1を実現することができる。これに代えて、物体認識装置1を専用装置として構成してもよい。
物体認識装置1の認識結果は、例えば、図示せぬロボット制御装置へ送られ、特定の物体であると認識された物体は、ロボット等により取り出されて所定の場所に載置される。
図3は、物体認識装置1のハードウェア構成例を示す。物体認識装置1は、例えば、プロセッサ100と、記憶デバイス101と、入力デバイス102と、出力デバイス103と、通信インターフェース(通信IF104)と、を有する。プロセッサ100、記憶デバイス101、入力デバイス102、出力デバイス103、および通信IF104は、バス105を介して接続される。図3では、物体認識装置1の計算部11を実現するための構成を中心に示しているが、図3に示す構成に対してさらに、画像取得部12および出力部13を実現するための入出力インターフェース(不図示)を備えることもできる。
プロセッサ100は、物体認識装置1を統括制御する。プロセッサ100は、記憶デバイス101に記憶されている物体認識処理プログラムP1を実行することにより、図1に示す計算部11の各機能部を実現する。
記憶デバイス101は、プロセッサ100の作業エリアとなる。記憶デバイス101は、物体認識処理プログラムP1および画像データ等を記憶する。記憶デバイス101は、データ保持部113を実現する。通信IF104を介して取得されたデータは、記憶デバイス101に一時的に記憶される。記憶デバイス101としては、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等がある。
入力デバイス102は、データを入力するための装置である。入力デバイス102としては、例えば、キーボード、マウス、タッチパネル、テンキー、スキャナ、音声認識装置等がある。出力デバイス103は、データを出力する装置である。出力デバイス103としては、例えば、ディスプレイ、プリンタ、音声合成装置等がある。
図4は、基準物体を物体認識装置1へ登録する処理(基準物体登録処理)のフローチャートである。例えば、オペレータは、カメラ10の視野内に登録対象の基準物体を載置し、その基準物体をカメラ10により撮影させる。カメラ10により撮影された画像(画像データ)は、画像取得部12により取得され、データ保持部113へ記憶される(S1)。
物体認識装置1の情報取得部114は、基準物体の画像データから、特徴点と、特徴点における複数種類の特徴量のそれぞれに対応する画像特徴パターンを抽出し(S2)、抽出された全ての画像特徴パターンと基準物体の属性情報とを対応付けてデータ保持部113へ保存する(S3)。基準物体の属性情報としては、例えば、基準物体の品種番号、製造番号、製造元、特徴量の種類等がある。
物体認識装置1は、基準物体の登録処理を完了したか判定する(S4)。例えば、オペレータが入力デバイス102から登録作業の完了を指示すると、物体認識装置1は、基準物体の登録処理が完了したものと判断し、本処理を終了する(S4:YES)。
このように、本実施例では、データ保持部113に、あらかじめ、認識候補となる基準物体を撮像した画像データから得られる、特徴点における複数種類の特徴量のそれぞれに対応する画像特徴パターンとその基準物体の属性情報とを対応付けて保持しておく。
画像特徴パターンとしては、例えば、画像そのものを用いることもできる。この場合、画像特徴要素は画像中の各画素に対応する。あるいは、Cannyエッジ検出のようなエッジ検出により得たエッジを利用してもよい。この場合、画像特徴要素は検出された各エッジとなる。
図5は、物体認識処理を示すフローチャートである。
鮮明度計算部111は、画像取得部12により取得されたシーン画像における各単位領域の鮮明度を計算する(S10)。
次いで、特徴選択部112は、計算された各単位領域の鮮明度に基づいて、シーン画像を鮮明度が高い範囲(第1範囲)にある領域(第1領域)と、鮮明度が中間の範囲(第2範囲)にある領域(第2領域)と、鮮明度が低い範囲(第3範囲)にある領域(第3領域)とのいずれであるかを特定し、鮮明度が高い領域について使用する特徴量を表現能力が高い特徴量(例えば、SIFT特徴量:高鮮明度用特徴量:第1特徴量)とし、鮮明度が中間の領域について使用する特徴量を頑健度合いが高い特徴量(例えば、LBP:中鮮明度用特徴量:第2特徴量)とし、鮮明度が低い領域について使用する特徴量を照明条件に影響されない特徴量(3次元座標位置、法線等:低鮮明度用特徴量:第3特徴量)とする(S20)。
次いで、特徴取得部114は、画像取得部12が取得したシーン画像のデータから、特徴点を抽出し、各特徴点について選択された特徴量を取得(算出)する(S30)。
次いで、マッチング計算部15は、特徴取得部114により取得されたシーン画像の特徴量および特徴点と、データ保持部113のモデル画像の特徴量および特徴点とに基づいて、特徴点のマッチングを行い、シーン画像とモデル画像との類似度を算出する(S40)。本実施例では、マッチング計算部15は、シーン画像の特徴点の属する領域の鮮明度に応じて、比較するモデル画像の特徴量を切り替えている。具体的には、マッチング計算部15は、シーン画像の鮮明度の高い領域における特徴点については、モデル画像についての高鮮明度用特徴量に基づく特徴点とのマッチングを行い、シーン画像の鮮明度の中間の領域における特徴点については、モデル画像についての中鮮明度用特徴量に基づく特徴点とのマッチングを行い、シーン画像の鮮明度の低い領域における特徴点については、モデル画像についての低鮮明度用特徴量に基づく特徴点とのマッチングを行う。
次いで、マッチング計算部115は、算出した類似度が所定の閾値以上であるか否かを判定する(S50)。この結果、類似度が所定の閾値以上でない場合(S50:NO)には、シーン画像中には、認識候補の物体が存在しないことを示しているので、マッチング計算部115は、そのまま処理を終了する。
一方、類似度が所定の閾値以上である場合(S50:YES)には、シーン画像中に認識候補の物体が存在していることを示しているので、マッチング計算部115は、認識候補の物体を示す情報を出力部13に出力し、出力を受けた出力部13は、認識結果として、認識候補の物体を示す情報を出力し(S60)、処理を終了する。この認識結果の出力はディスプレイに表示させたり、図外のロボットまたは機械を操作するコントローラへ与えたりすることができる。
このように構成される本実施例によれば、シーン画像の領域の鮮明度に応じて、適切な特徴量の検出を行うことができ、適切に物体を認識することができる。したがって、物体認識装置は、シーン画像に照明や影が映り込んでしまっていた場合であっても、物体を適切に認識することができ、物体認識装置を利用する環境によらず、物体の認識精度を向上することができる。
次に、物体認識処理について具体的な例を挙げて説明する。
図6は、鮮明度に応じて異なる特徴量を用いて物体認識を行う処理の説明図である。
シーン画像61には、図6(a)に示すように、照明が映り込んで白色化した映り込み領域62が存在するものとする。このようなシーン画像61については、鮮明度計算部111は、映り込み領域62における鮮明度を中程度の値と算出し、それ以外の領域における鮮明度は高い値と算出することとなる。
このシーン画像61に対して鮮明度計算部111により鮮明度が算出されると、図6(b)に示すように、シーン画像61は、高い鮮明度の領域64と、中間の鮮明度の領域65とに区分される。この場合には、特徴選択部112は、領域64においては、高鮮明度用特徴量を使用するように選択し、領域65に対して、中鮮明度用特徴量を使用するように選択する。この結果、特徴取得部114は、領域64については、特徴点についての高鮮明度用特徴量を算出する一方、領域65については、特徴点についての中鮮明度用特徴量を算出する。このように、特徴取得部114は、領域の鮮明度に応じて適切な特徴量を算出することができる。
特徴取得部114により、シーン画像61の特徴量および特徴値が取得されると、マッチング計算部115は、図6(c)に示すように、シーン画像61の映り込み領域62についての特徴点67は、基準物体画像71の中鮮明度用特徴量に基づいて特徴点74との間でのマッチングを行い、白飛び領域62以外の領域の特徴点66は、基準物体画像71の高鮮明度用特徴量に基づいて特徴点73との間でのマッチングを行う。これにより、シーン画像と基準物体画像とで、シーン画像の鮮明度の状況に応じて、その鮮明度に適した特徴量に基づいて特徴点同士のマッチングを行うことができ、マッチングによる認識精度を向上することができる。
次に、第2実施例について説明する。なお、本実施例を含む以下の各実施例においては、第1実施例との差異を中心に説明する。
本実施例では、シーン画像は、照明や影が映り込んでいる領域(映り込み領域)はあるが、完全な白飛び領域や、黒つぶれ領域はないものとし、この映り込み領域は、中鮮明度の領域であると検出されるものとして説明する。
特徴量が最も近い特徴点同士を対応付けるマッチングにおいては、誤対応が含まれる可能性があるため、マッチング計算部15は、第1実施例における処理(A)~(C)に代えて、以下の処理(A2)~(C2)を実行することで、マッチングの精度を向上するようにしてもよい。
(A2)シーン画像における高鮮明度の領域から検出された特徴点(高鮮明度シーン特徴点)と、それに対応するモデル画像の特徴点との複数の組の中からランダムに数個の組を選択し、選択した組に基づいて、(1)に示す変換行列を取得する。
(B2)全てのモデル特徴点について(A2)で得た変換行列により変換して、各モデル特徴点についてのシーン画像における対応位置を特定し、モデル特徴点が高鮮明度シーン特徴点と組になっている場合には、特定した位置と、組になっているシーン特徴点の位置との幾何学的な距離(例えば、2次元距離)を算出し、この距離が所定の閾値以下である場合に、モデル特徴点とシーン特徴点との組が、正しい対応付けがされている組として判定する一方、モデル特徴点が高鮮明度シーン特徴点と組になっていない場合(例えば、中鮮明度のシーン特徴点との組となっている場合)には、モデル特徴点の中鮮明度用特徴量と、シーン画像の特定した位置における中鮮明度用特徴量との差が所定の閾値以下である場合に、この特定した位置をシーン特徴点と認識し、モデル特徴点と認識したシーン特徴点との組が正しい対応付けがされている組として判定する。そして、正しい対応付けがされている組の数をカウントする。
(C2)(A2)及び(B2)の処理を繰り返し実行し、正しい対応付けがされている組の数が最多となっている場合に取得されていた変換行列を、最適な変換行列として特定する。そして、正しい対応付けがされている組が最多となっている場合の総数が所定の閾値以上であれば、シーン画像中にモデル画像の物体が存在する(物体あり)と判定し、閾値未満であれば、シーン画像中にモデル画像の物体が存在しない(物体なし)と判定する。
第2実施例によると、物体認識装置は、シーン画像に照明や影が映り込んでしまっていた場合であっても、物体を適切に認識することができ、物体認識装置を利用する環境によらず、物体の認識精度を向上することができる。
次に、第3実施例について説明する。
本実施例では、シーン画像は、照明や影が映り込んでおり、完全な白飛び領域や、黒つぶれ領域(白飛び・黒つぶれ領域)が存在するものし、これら領域は、低鮮明度の領域であると検出されるものとして説明する。この白飛び・黒つぶれ領域においては、SIFT、LBP等の特徴量は、取得できない。
このような場合には、マッチング計算部15は、第1実施例における処理(A)~(C)に代えて、以下の処理(A3)~(C3)を実行することで、マッチングの精度を向上するようにしてもよい。
(A3)シーン画像における高鮮明度の領域から検出された特徴点(高鮮明度シーン特徴点)と、それに対応するモデル画像の特徴点との複数の組の中からランダムに数個の組を選択し、選択した組に基づいて、(1)に示す変換行列を取得する。
(B3)全てのモデル特徴点について(A3)で得た変換行列により変換して、各モデル特徴点についてのシーン画像における対応位置を特定し、モデル特徴点が高鮮明度シーン特徴点と組になっている場合には、特定した位置と、組になっているシーン特徴点の位置との3次元の幾何学的な距離(3次元幾何学距離)を算出し、この3次元幾何学距離が所定の閾値以下である場合に、モデル特徴点とシーン特徴点との組が、正しい対応付けがされている組として判定する一方、特定した位置が白飛び・黒つぶれ領域にある場合には、特定した位置と、シーン画像の点群のうちの特定した位置の最も近い位置にある点(最近傍点)との3次元幾何学距離を特定し、この3次元幾何学距離との差が所定の閾値以下である場合に、この最近傍点をシーン特徴点と認識し、モデル特徴点と認識したシーン特徴点との組が正しい対応付けがされている組として判定する。そして、正しい対応付けがされている組の数をカウントする。
(C3)(A3)および(B3)の処理を繰り返し実行し、正しい対応付けがされている組の数が最多となっている場合に取得されていた変換行列を、最適な変換行列として特定する。そして、正しい対応付けがされている組が最多となっている場合の総数が所定の閾値以上であれば、シーン画像中にモデル画像の物体が存在する(物体あり)と判定し、閾値未満であれば、シーン画像中にモデル画像の物体が存在しない(物体なし)と判定する。
第3実施例によると、物体認識装置は、一部の種類の特徴量が取得できないような白飛び・黒つぶれ領域があった場合であっても、その領域における特徴点を特定し、物体を適切に認識することができ、物体認識装置を利用する環境によらず、物体の認識精度を向上することができる。
次に、第4実施例について説明する。
マッチング計算部15は、第1実施例における処理(A)~(C)に代えて、以下の処理(A4)~(C4)を実行することで、マッチングの精度を向上するようにしてもよい。なお、処理(A)~(C)と、処理(A4)~(C4)とを状況に応じて切り替えて実行するようにしてもよい。
(A4)シーン画像から検出された特徴点(シーン特徴点)と、それに対応するモデル画像の特徴点との複数の組の中からランダムに数個の組を選択し、選択した組に基づいて、(1)に示す変換行列を取得する。なお、シーン画像からの特徴点については、全体を同一の特徴点抽出方法により検出してもよいし、鮮明度に応じて異なる特徴点抽出方法により、検出してもよい。
(B4)全てのモデル特徴点について(A4)で得た変換行列により変換して、各モデル特徴点についてのシーン画像における対応位置を特定し、特定した対応位置と、組になっているシーン特徴点の位置との幾何学的な距離を算出し、この距離が所定の閾値以下である場合に、モデル特徴点とシーン特徴点との組が、正しい対応付けがされている組として判定する。そして、正しい対応付けがされている組のシーン特徴点又はその点の付近の鮮明度の和を計算する。
(C4)(A4)および(B4)の処理を繰り返し実行し、正しい対応付けがされている組の鮮明度の和が最大となっている場合に取得されていた変換行列を、最適な変換行列として特定する。そして、正しい対応付けがされている組の鮮明度の和の最大値が所定の閾値以上であれば、シーン画像中にモデル画像の物体が存在する(物体あり)と判定し、閾値未満であれば、シーン画像中にモデル画像の物体が存在しない(物体なし)と判定する。
第4実施例によると、鮮明度の高い特徴点について正しい対応付けがされていることを重視して物体の認識を行うことができ、物体の認識精度を向上することができる。
次に、第5実施例について説明する。
マッチング計算部15は、第1実施例における処理(A)~(C)に代えて、以下の処理(A5)~(C5)を実行することで、マッチングの精度を向上するようにしてもよい。なお、処理(A)~(C)と、処理(A5)~(C5)とを状況に応じて切り替えて実行するようにしてもよい。
(A5)シーン画像から検出された特徴点(シーン特徴点)と、それに対応するモデル画像の特徴点との複数の組の中から、シーン特徴点又はその付近の鮮明度により重み付けられた選択確率に基づいて、数個の組を選択し、選択した組に基づいて、(1)に示す変換行列を取得する。ここで、シーン特徴点又はその付近の鮮明度により重み付けられた選択確率に基づいて、組を選択するので、より鮮明度の高いシーン特徴点を含む組がより選択されやすくなる。ここで、鮮明度の高いシーン特徴点を含む組のみが選択されないで、他の鮮明度のシーン特徴点を含む組も選択される可能性があるようにしているのは、全体的に鮮明度の低いシーン画像であっても、支障なく処理が実行されるようにするためである。
(B5)全てのモデル特徴点について(A5)で得た変換行列により変換して、各モデル特徴点についてのシーン画像における対応位置を特定し、特定した対応位置と、組になっているシーン特徴点の位置との幾何学的な距離を算出し、この距離が所定の閾値以下である場合に、モデル特徴点とシーン特徴点との組が、正しい対応付けがされている組として判定する。そして、正しい対応付けがされている組の数をカウントする。
(C5)(A5)および(B5)の処理を繰り返し実行し、正しい対応付けがされている組の数が最多となっている場合に取得されていた変換行列を、最適な変換行列として特定する。そして、正しい対応付けがされている組が最多となっている場合の総数が所定の閾値以上であれば、シーン画像中にモデル画像の物体が存在する(物体あり)と判定し、閾値未満であれば、シーン画像中にモデル画像の物体が存在しない(物体なし)と判定する。
第5実施例によると、鮮明度の高い特徴点について正しい対応付けがされていることを重視して特徴点の対応付けが行われることとなるので、物体の認識精度を向上することができる。
なお、本発明は上記実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
例えば、上記各実施例では、シーン画像を、各単位領域の鮮明度により、高鮮明度、中鮮明度、低鮮明度の3つのいずれかに分けるようにしていたが、本発明はこれに限られず、高鮮明度と、低鮮明度の2つに分けるようにしてもよく、鮮明度により4つ以上に分けるようにしてもよい。
また、上記第1実施例では、各単位領域の鮮明度により、選択する特徴量を替えるようにしていたが、本発明はこれに限られず、例えば、各単位領域の鮮明度により、特徴点抽出方法を切り替える場合には、抽出された各特徴点に対する特徴量を同一の種類の特徴量としてもよい。この場合においては、各鮮明度に応じて、適切に特徴点を検出することができ、これにより、特徴点のマッチングを高精度に行うことができる。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれる。さらに特許請求の範囲に記載された構成は、特許請求の範囲で明示している組合せ以外にも組み合わせることができる。
1:物体認識装置、2:カメラ、3:容器、10:自動仕分け機、11:計算部、12:画像取得部、13:出力部、111:鮮明度計算部、112:特徴選択部、113:データ保持部、114:特徴取得部、115:マッチング計算部

Claims (11)

  1. 物体を認識するための物体認識装置であって、
    認識候補の物体の基準画像と、前記基準画像における各特徴点と、各特徴点の特徴量とを記憶する記憶部と、
    認識処理対象の画像であるシーン画像を取得する画像取得部と、
    前記画像取得部が取得した前記シーン画像の各領域における、鮮明の度合いを示す鮮明度を検出する鮮明度計算部と、
    前記シーン画像における特徴点を検出し、前記特徴点のマッチングを行うマッチング計算部と、を備え、
    前記マッチング計算部は、前記鮮明度が第1範囲となる前記シーン画像の第1領域と、前記鮮明度が前記第1範囲よりも低い第2範囲となる前記シーン画像の第2領域と、における特徴点の抽出方法、または、前記第1領域と前記第2領域とにおける特徴量の検出方法の少なくとも一方を異なる方法により実行する
    物体認識装置。
  2. 前記記憶部は、前記基準画像の各特徴点について、表現能力が高い第1特徴量と、頑健度合いが高い第2特徴量とを記憶し、
    前記マッチング計算部は、
    前記シーン画像の前記第1領域については、前記第1特徴量を用いて特徴点のマッチングを行い、前記第2領域については、前記第2特徴量を用いて特徴点のマッチングを行う
    請求項1に記載の物体認識装置。
  3. 前記第1特徴量は、SIFT(Scale Invariant Feature Transform)特徴量であり、
    前記第2特徴量は、局所バイナリパターンである
    請求項2に記載の物体認識装置。
  4. 前記記憶部は、前記基準画像の各領域について、画像の3次元位置情報を示す第3特徴量をさらに記憶し、
    前記マッチング計算部は、
    鮮明度が前記第2範囲よりも低い第3範囲となる前記シーン画像の第3領域については、前記第3特徴量を用いて、前記基準画像の特徴点とのマッチングを行う
    請求項2又は請求項3のいずれか一項に記載の物体認識装置。
  5. 前記鮮明度は、
    所定の単位領域を構成する画素での輝度勾配の大きさ又はヘッセ行列の最大固有値、
    前記単位領域内の輝度分布又は標準偏差、
    前記単位領域を2次元フーリエ変換して得られる空間周波数分布、又は、
    前記単位領域内で、所定の特徴点検出手法により検出された特徴点の数の少なくともいずれか1つに基づく値である
    請求項1から請求項4のいずれか一項に記載の物体認識装置。
  6. 前記マッチング計算部は、
    前記シーン画像の前記第1領域内の特徴点については、前記基準画像に対してSIFTを用いた第1の特徴点抽出方法により特徴点を検出し、
    前記シーン画像の前記2領域内の特徴点については、前記第1の特徴点抽出方法と異なる第2の特徴点抽出方法により特徴点を抽出する
    請求項1から請求項5のいずれか一項に記載の物体認識装置。
  7. 前記マッチング計算部は、
    (A2)前記シーン画像の前記第1領域における特徴点と、それに対応する候補となる前記基準画像の特徴点との複数の組の中から任意に選択された一部の組に基づいて、基準画像の特徴点の位置と前記シーン画像の特徴点の位置との関係を示す候補変換行列を計算し、
    (B2)前記候補変換行列に基づいて、前記基準画像の特徴点の位置に対応するシーン画像の位置である対応位置を特定し、前記対応位置が前記シーン画像の前記第1領域に属する位置である場合には、前記対応位置と、前記基準画像の特徴点と組になっている前記シーン画像の特徴点の位置との幾何的距離が所定の閾値以下である場合に、これら特徴点の組の対応づけが正しく行われていると判定し、前記対応位置が前記シーン画像の前記第2領域に属する位置である場合には、前記基準画像の前記特徴点における前記第2特徴量と、前記対応位置における前記第2特徴量との差が所定の閾値以下である場合に、前記対応位置を前記シーン画像の特徴点と認識し、これら特徴点の組の対応付けが正しく行われていると判定し、対応付けが正しく行われている特徴点の組の数を計測し、
    (C2)(A2)および(B2)の処理を繰り返し実行し、対応付けが正しく行われている特徴点の組の総数が最多となる候補変換行列を、前記基準画像と前記シーン画像における変換行列であると決定する
    請求項2に記載の物体認識装置。
  8. 前記マッチング計算部は、
    (A3)前記シーン画像の前記第1領域における特徴点と、それに対応する候補となる前記基準画像の特徴点との複数の組の中から任意に選択された一部の組に基づいて、基準画像の特徴点の位置と前記シーン画像の特徴点の位置との関係を示す候補変換行列を計算し、
    (B3)前記候補変換行列に基づいて、前記基準画像の特徴点の位置に対応するシーン画像の位置である対応位置を特定し、前記対応位置が前記シーン画像の前記第1領域に属する位置である場合には、前記対応位置と、前記基準画像の特徴点と組になっている前記シーン画像の特徴点の位置との3次元の幾何的な距離である3次元幾何学距離が所定の閾値以下である場合に、これら特徴点の組の対応づけが正しく行われていると判定し、前記対応位置が前記シーン画像の前記第2領域に属する位置である場合には、前記対応位置と、前記シーン画像の点群のうちの前記位置に最も近い点である最近傍点との3次元幾何学距離が所定の閾値以下である場合に、この最近傍点を前記シーン画像の特徴点と認識し、これら特徴点の組の対応付けが正しく行われていると判定し、対応付けが正しく行われている特徴点の組の数を計測し、
    (C3)(A3)および(B3)の処理を繰り返し実行し、対応付けが正しく行われている特徴点の組の総数が最多となる候補変換行列を、前記基準画像と前記シーン画像における変換行列であると決定する
    請求項2に記載の物体認識装置。
  9. 前記マッチング計算部は、
    (A4)前記シーン画像の前記第1領域における特徴点と、それに対応する候補となる前記基準画像の特徴点との複数の組の中から任意に選択された一部の組に基づいて、基準画像の特徴点の位置と前記シーン画像の特徴点の位置との関係を示す候補変換行列を計算し、
    (B4)前記候補変換行列に基づいて、前記基準画像の特徴点の位置に対応するシーン画像の位置である対応位置を特定し、前記対応位置が前記シーン画像の前記第1領域に属する位置である場合には、前記対応位置と、前記基準画像と組になっている前記シーン画像の特徴点の位置との3次元の幾何的な距離である3次元幾何学距離が所定の閾値以下である場合に、これら特徴点の組の対応づけが正しく行われていると判定し、前記対応位置が前記シーン画像の前記第2領域に属する位置である場合には、前記対応位置と、前記基準画像と組になっている前記シーン画像の特徴点の位置との3次元の幾何的な距離である3次元幾何学距離が所定の閾値以下である場合に、これら特徴点の組の対応づけが正しく行われていると判定し、対応付けが正しく行われている特徴点の組のシーン画像の特徴点又はその点の付近の鮮明度の和を計測し、
    (C4)(A4)および(B4)の処理を繰り返し実行し、対応付けが正しく行われている特徴点の組のシーン画像の特徴点又はその点の付近の鮮明度の和が最大となる候補変換行列を、前記基準画像と前記シーン画像における変換行列であると決定する
    請求項2に記載の物体認識装置。
  10. 前記マッチング計算部は、
    (A5)前記シーン画像の前記第1領域における特徴点と、それに対応する候補となる前記基準画像の特徴点との複数の組の中からシーン特徴点又はその付近の鮮明度により重み付けられた選択確率に基づいて選択された一部の組に基づいて、基準画像の特徴点の位置と前記シーン画像の特徴点の位置との関係を示す候補変換行列を計算し、
    (B5)前記候補変換行列に基づいて、前記基準画像の特徴点の位置に対応するシーン画像の位置である対応位置を特定し、前記対応位置が前記シーン画像の前記第1領域に属する位置である場合には、前記対応位置と、前記基準画像の特徴点と組になっている前記シーン画像の特徴点の位置との3次元の幾何的な距離である3次元幾何学距離が所定の閾値以下である場合に、これら特徴点の組の対応づけが正しく行われていると判定し、前記対応位置が前記シーン画像の前記第2領域に属する位置である場合には、前記対応位置と、前記基準画像の特徴点と組になっている前記シーン画像の特徴点の位置との3次元の幾何的な距離である3次元幾何学距離が所定の閾値以下である場合に、これら特徴点の組の対応づけが正しく行われていると判定し、対応付けが正しく行われている特徴点の組の数を計測し、
    (C5)(A5)および(B5)の処理を繰り返し実行し、対応付けが正しく行われている特徴点の組の総数が最多となる候補変換行列を、前記基準画像と前記シーン画像における変換行列であると決定する
    請求項2に記載の物体認識装置。
  11. 物体を認識するための物体認識装置による物体認識方法であって、
    認識候補の物体の基準画像と、前記基準画像における各特徴点と、前記各特徴点の特徴量とを記憶部に記憶し、
    認識処理対象の画像であるシーン画像を取得し、
    取得した前記シーン画像の各領域における、鮮明の度合いを示す鮮明度を検出し、
    前記シーン画像における特徴点を検出し、前記特徴点のマッチングを行い、
    前記特徴点の検出および特徴点のマッチングにおいて、前記鮮明度が第1範囲となる前記シーン画像の第1領域と、前記鮮明度が前記第1範囲よりも低い第2範囲となる前記シーン画像の第2領域と、における特徴点の抽出方法、または、前記第1領域と前記第2領域とにおける特徴量の検出方法の少なくとも一方を異なる方法により実行する物体認識方法。
JP2018243432A 2018-12-26 2018-12-26 物体認識装置および物体認識方法 Active JP7049983B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018243432A JP7049983B2 (ja) 2018-12-26 2018-12-26 物体認識装置および物体認識方法
US16/721,521 US11232589B2 (en) 2018-12-26 2019-12-19 Object recognition device and object recognition method
CN201911349283.XA CN111382776A (zh) 2018-12-26 2019-12-24 物体识别装置以及物体识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243432A JP7049983B2 (ja) 2018-12-26 2018-12-26 物体認識装置および物体認識方法

Publications (2)

Publication Number Publication Date
JP2020106966A JP2020106966A (ja) 2020-07-09
JP7049983B2 true JP7049983B2 (ja) 2022-04-07

Family

ID=71123026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243432A Active JP7049983B2 (ja) 2018-12-26 2018-12-26 物体認識装置および物体認識方法

Country Status (3)

Country Link
US (1) US11232589B2 (ja)
JP (1) JP7049983B2 (ja)
CN (1) CN111382776A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6863946B2 (ja) * 2018-10-31 2021-04-21 ファナック株式会社 画像処理装置
CN114343478B (zh) * 2020-09-30 2023-04-14 宁波方太厨具有限公司 一种清洁机器人的场景识别方法及清洁机器人
CN112581666A (zh) * 2020-12-30 2021-03-30 重庆赤木科技有限公司 智慧社区服务管家平台
JP7193570B2 (ja) * 2021-03-25 2022-12-20 株式会社三井住友銀行 端末装置、方法、及びプログラム
JPWO2023149218A1 (ja) * 2022-02-03 2023-08-10
CN115457387A (zh) * 2022-08-29 2022-12-09 武汉理工光科股份有限公司 一种特殊场景预警屏蔽方法、装置、电子设备及存储介质
CN115861603B (zh) * 2022-12-29 2023-09-26 宁波星巡智能科技有限公司 婴幼儿看护场景下兴趣区域锁定方法、装置、设备及介质
CN116543135B (zh) * 2023-05-17 2023-09-29 北京博瑞翔伦科技发展有限公司 一种基于复杂场景图像数据采集方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346287A (ja) 2004-06-01 2005-12-15 Denso Corp 画像認識方法および装置
JP2012234497A (ja) 2011-05-09 2012-11-29 Canon Inc オブジェクト識別装置、オブジェクト識別方法、及びプログラム
JP2016136112A (ja) 2015-01-23 2016-07-28 シャープ株式会社 距離測定装置および距離測定方法
WO2016170655A1 (ja) 2015-04-23 2016-10-27 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2018124798A (ja) 2017-02-01 2018-08-09 東芝テック株式会社 画像探索装置および画像探索プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4762321B2 (ja) * 2009-02-24 2011-08-31 株式会社東芝 画像認識装置、画像認識方法
US8630456B2 (en) * 2009-05-12 2014-01-14 Toyota Jidosha Kabushiki Kaisha Object recognition method, object recognition apparatus, and autonomous mobile robot
JP5318664B2 (ja) * 2009-05-28 2013-10-16 セコム株式会社 対象物検知装置
JP5710940B2 (ja) * 2010-11-09 2015-04-30 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN102013094B (zh) * 2010-11-25 2013-01-02 上海合合信息科技发展有限公司 提高文本图像清晰度的方法及系统
CN103959308B (zh) * 2011-08-31 2017-09-19 Metaio有限公司 以参考特征匹配图像特征的方法
CN103189897B (zh) * 2011-11-02 2016-06-15 松下电器(美国)知识产权公司 图像识别装置、图像识别方法和集成电路
KR20140035712A (ko) * 2012-09-14 2014-03-24 한국전자통신연구원 객체 인식 방법 및 장치
JP2014199505A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP6415066B2 (ja) * 2014-03-20 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP6369131B2 (ja) * 2014-05-27 2018-08-08 村田機械株式会社 物体認識装置及び物体認識方法
JP6075888B2 (ja) * 2014-10-16 2017-02-08 キヤノン株式会社 画像処理方法、ロボットの制御方法
CN104778683B (zh) * 2015-01-27 2017-06-27 杭州电子科技大学 一种基于泛函映射的多模态图像分割方法
CN108668075A (zh) * 2018-03-29 2018-10-16 青岛海信移动通信技术股份有限公司 一种拍照方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346287A (ja) 2004-06-01 2005-12-15 Denso Corp 画像認識方法および装置
JP2012234497A (ja) 2011-05-09 2012-11-29 Canon Inc オブジェクト識別装置、オブジェクト識別方法、及びプログラム
JP2016136112A (ja) 2015-01-23 2016-07-28 シャープ株式会社 距離測定装置および距離測定方法
WO2016170655A1 (ja) 2015-04-23 2016-10-27 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2018124798A (ja) 2017-02-01 2018-08-09 東芝テック株式会社 画像探索装置および画像探索プログラム

Also Published As

Publication number Publication date
US20200211221A1 (en) 2020-07-02
US11232589B2 (en) 2022-01-25
JP2020106966A (ja) 2020-07-09
CN111382776A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
JP7049983B2 (ja) 物体認識装置および物体認識方法
US11854173B2 (en) System and method for finding lines in an image with a vision system
JP5699788B2 (ja) スクリーン領域検知方法及びシステム
US10679358B2 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
CN108108655B (zh) 物品识别装置及控制方法、终端设备
US10937168B2 (en) System and method for finding and classifying lines in an image with a vision system
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
JP6278276B2 (ja) 物体識別装置、物体識別方法、及びプログラム
JP2007508633A (ja) 物体輪郭画像を解析する方法および画像処理装置、物体を検出する方法および画像処理装置、産業用視覚装置、スマートカメラ、画像ディスプレイ、セキュリティシステム、ならびにコンピュータプログラム製品
JP6483168B2 (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
KR102153962B1 (ko) 비전 시스템으로 이미지에서 라인을 찾기 위한 시스템 및 방법
CN110599544A (zh) 一种基于机器视觉的工件定位方法及装置
US9286669B2 (en) Image processing apparatus, image processing method and program
US11094082B2 (en) Information processing apparatus, information processing method, robot system, and non-transitory computer-readable storage medium
US6993177B1 (en) Gauging based on global alignment and sub-models
JP2012027745A (ja) 情報処理方法及びその装置、プログラム
CN113420735B (zh) 一种轮廓提取方法、装置、设备及存储介质
CN113469971B (zh) 一种图像匹配方法及检测装置、存储介质
WO2024012463A1 (zh) 一种定位方法及装置
JP2020067308A (ja) 画像処理方法および画像処理装置
KR20240058827A (ko) 비전 시스템을 이용하여 이미지에서 라인들을 찾고 분류하기 위한 시스템 및 방법
JP6106808B2 (ja) 文書内バーコード配置特定
US20210042576A1 (en) Image processing system
CN116908185A (zh) 物品的外观缺陷检测方法、装置、电子设备及存储介质
JP2018109824A (ja) 電子制御装置、電子制御システムおよび電子制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R150 Certificate of patent or registration of utility model

Ref document number: 7049983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150