JP6542824B2 - 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法 - Google Patents

入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6542824B2
JP6542824B2 JP2017047444A JP2017047444A JP6542824B2 JP 6542824 B2 JP6542824 B2 JP 6542824B2 JP 2017047444 A JP2017047444 A JP 2017047444A JP 2017047444 A JP2017047444 A JP 2017047444A JP 6542824 B2 JP6542824 B2 JP 6542824B2
Authority
JP
Japan
Prior art keywords
image
learning
image processing
likelihood
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017047444A
Other languages
English (en)
Other versions
JP2018151843A (ja
Inventor
勇太 並木
勇太 並木
文和 藁科
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017047444A priority Critical patent/JP6542824B2/ja
Priority to US15/899,471 priority patent/US20180260628A1/en
Priority to DE102018105334.7A priority patent/DE102018105334B4/de
Priority to CN201810195662.7A priority patent/CN108573486A/zh
Publication of JP2018151843A publication Critical patent/JP2018151843A/ja
Application granted granted Critical
Publication of JP6542824B2 publication Critical patent/JP6542824B2/ja
Priority to US16/812,369 priority patent/US11741367B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Description

本発明は、入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法に関する。
従来、例えば、画像処理装置を用いて撮像装置の視野内の画像の中から特定の対象物の像を検出する場合、対象物を表す基準情報(一般に、モデルパターンとかテンプレートなどと呼称される)と撮像装置によって取得した入力画像の間で特徴量のマッチングを行う。そして、例えば、モデルパターンと対象物の像の一致度が指定したレベル(閾値)を越えたときに対象物の検出に成功したと判断することが一般的である。
ここで、使用される一致度の閾値が低すぎると、対象物としてふさわしくないものが検出され(誤検出)、逆に、一致度の閾値が高すぎると対象物として検出されてほしいものが検出されなくなる(未検出)。そのため、一致度の閾値を含めた検出パラメータの調整は、例えば、操作者が何度も検出を繰り返しながら試行錯誤により行われることになる。
ところで、従来、複数の学習用画像と領域教師データを使って領域分割を学習し、その学習した結果をもとに領域分割を行う。この領域分割した結果、正しく分割できた領域と正しく分割できなかった領域を組み合わせて、新たな学習用画像を生成し、それを使って、新たに領域分割を学習する画像処理装置が提案されている(例えば、特許文献1参照)。
また、従来、識別対象が映っているポジティブ画像と映っていないネガティブ画像を生成用画像とし、生成用画像から特徴点を抽出する。さらに、生成用画像を複数のフィルタでフィルタリング処理を行い、複数のフィルタ済み画像を取得し、フィルタ済み画像から特徴点周辺の小領域のそれぞれについて画素値の統計量を求める。そして、求めた統計量を特徴点の特徴量とし、識別対象を正しく識別できるように学習する学習装置も提案されている(例えば、特許文献2参照)。
さらに、従来、入力画像を複数の領域に分割し、分割した領域のそれぞれに教師ラベルを付け、領域内の画像を切り出した画像と教師ラベルを元に学習を行い、学習したモデルを元に画像から対象物を含む領域を検出するデータ処理システムも提案されている(例えば、特許文献3参照)。
また、従来、画像データから指定したキーワードに合致する表情の人の顔が映った領域を抽出し、その領域から取得した特徴量を学習器に入力することで学習を行い、それにより、人の顔の表情を識別する識別器を生成する表情認識装置も提案されている(例えば、特許文献4参照)。
そして、従来、入力画像を複数の領域に分割し、分割したサブ領域に対象物の一部が映っていなければ、マスクをかけ、マスクをかけた部分以外から特徴を抽出し、学習器に入力することで学習を行い、そして、学習してできた識別器で画像内の特定の領域に対象物が映っているか識別する対象物検知装置も提案されている(例えば、特許文献5参照)。
特開2016−057918号公報 特開2010−191772号公報 特開2016−062524号公報 特許第5234833号公報 国際公開第2014/084218号
前述したように、例えば、モデルパターンと対象物の像の一致度の閾値を含めた検出パラメータの調整は、例えば、操作者が何度も検出を繰り返しながら試行錯誤により行われている。ここで、一致度の定義は、例えば、検出アルゴリズムに依存する、換言すると、ある検出アルゴリズムで使用する画像の特徴のみが一致度に使用されている。例えば、一般化ハフ変換のように、画像中のエッジ点の特徴として対象物を検出するアルゴリズムを適用する場合、エッジ点の一致具合に基づいて一致度を計算することになるが、エッジ点は一致していても人が見ると明らかに間違っているところを検出してしまうことがある。
すなわち、例えば、操作者が意図したものだけが検出されるように検出パラメータを調整するのには手間がかかることになる。また、検出アルゴリズム内で計算された一致度では、操作者が意図したものだけが検出されるようにできないことがある。その場合には、検出アルゴリズムの検出結果に基づいて、新たに尤度(対象物の像が正解である確率や対象物の像の確からしさを示す度合、検出に成功する尤もらしさ)を計算し、その尤度を使って検出されたかどうかを判断することが考えられる。例えば、ある個所の特徴は重みを大きくし、別の個所は重みを小さくして尤度を計算した方が好ましい場合もある。さらに、検出アルゴリズムに使用している特徴以外の特徴を使って、尤度を計算(算出)した方が好ましいといった場合もあり得る。
本発明に係る第1実施形態によれば、入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理装置であって、前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から、検出した位置および姿勢で予め定められた領域の部分画像を切り抜いた後、サイズおよびひずみの少なくとも一方が揃うように規格化した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出する機械学習器を備え、前記機械学習器は、前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする画像処理装置が提供される。また、本発明に係る第1実施形態によれば、入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理装置であって、前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から切り出した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出する機械学習器を備え、前記機械学習器は、前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする画像処理装置も提供される。
本発明に係る第2実施形態によれば、入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理方法であって、前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から、検出した位置および姿勢で予め定められた領域の部分画像を切り抜いた後、サイズおよびひずみの少なくとも一方が揃うように規格化した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出し、前記機械学習を行って前記対象物の像の尤度を算出するのは、前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする画像処理方法が提供される。また、本発明に係る第2実施形態によれば、入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理方法であって、前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から切り出した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出し、前記機械学習を行って前記対象物の像の尤度を算出するのは、前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする画像処理方法も提供される。
本発明に係る画像処理装置および画像処理方法によれば、対象物の像の尤度を適切に算出して対象物を正しく検出することができるという効果を奏する。
図1は、本発明の画像処理装置が適用される視覚センサ制御装置を含む工作機械システムの一例を模式的に示す図である。 図2は、本発明の画像処理装置が適用される視覚センサ制御装置を含むロボットシステムの一例を模式的に示す図である。 図3は、画像処理装置の本実施形態を示すブロック図である。 図4は、本実施形態の画像処理装置に設けられる機械学習器の一例を模式的に示す図である。 図5は、図4に示す機械学習器の一例を示すブロック図である。 図6は、本実施形態に係る画像処理装置によるモデルパターンの作成処理の一例を示すフローチャートである。 図7は、撮像した画像におけるモデルパターン指定領域の例を示す図である。 図8は、本実施形態に係る画像処理装置による学習処理の一例を示すフローチャートである。 図9は、図8に示すフローチャートにおけるラベルの指定処理を説明するための図である。 図10は、図8に示すフローチャートにおける学習処理の一例を説明するためのフローチャートである。 図11は、図10に示すフローチャートにおける部分画像切抜き処理の一例を説明するための図である。 図12は、本実施形態の画像処理装置における処理の変形例を説明するための図である。 図13は、本実施形態の画像処理装置における処理のさらなる変形例を説明するための図である。
以下、本発明に係る画像処理装置および画像処理方法の実施形態を、添付図面を参照して詳述する。図1は、本発明の画像処理装置が適用される視覚センサ制御装置を含む工作機械システム100Aの一例を模式的に示す図であり、図2は、本発明の画像処理装置が適用される視覚センサ制御装置を含むロボットシステム100Bの一例を模式的に示す図である。
図1において、参照符号101は対象物、102は作業台、110は視覚センサ、120は視覚センサ制御装置、そして、121は画像処理装置を示す。ここで、対象物(ワーク)101としては、金属、木材、石材、樹脂等の様々な材質による様々な形状のものがあり得る。また、工作機械(工作機械自体は図示しない)としては、これらの対象物101に対して切断、穿孔、研削、研磨、圧延、鍛造、折り曲げ等の加工を施すための機械であり、例えば、旋盤、ボール盤、中ぐり盤、フライス盤、歯切り盤、研削盤等であり、CNC(Computer Numerical Control)工作機械も含まれるのはいうまでもない。
図1に示されるように、視覚センサ制御装置120は、画像処理装置121を含み、例えば、作業台102に載置された対象物101が撮像できる位置に固定して設置された視覚センサ110からの画像データ(入力画像)を受け取るようになっている。そして、工作機械は、視覚センサ制御装置120の出力、並びに、入力された所定のプログラムに基づいて、対象物101に対する所定の加工を行う。
ここで、視覚センサ110は、濃淡画像やカラー画像を撮像するCCD(Charge Coupled Device)等の撮像素子を有する電子カメラでもよいが、例えば、距離画像や三次元点群を取得できるステレオカメラや3次元センサ等であってもよい。なお、三次元点群は、対象物101の輪郭線上のものでも、対象物101の面上のものであってもよい。
図2において、参照符号111はロボット、112はハンド、そして、113はロボット制御装置を示す。図2に示されるように、視覚センサ制御装置120は、画像処理装置121を含み、例えば、ロボット111の手先等の所定位置に取り付けられた視覚センサ110により、作業台102上に載置された対象物101を撮像してその画像データ(入力画像)を受け取るようになっている。ロボット制御装置113は、視覚センサ制御装置120の出力、並びに、入力された所定のプログラムに基づいて、ロボット111およびハンド112等を制御して、対象物101に対する所定の動作を行う。
図3は、画像処理装置の本実施形態を示すブロック図である。図3に示されるように、画像処理装置121は、機械学習器2を含む画像処理部122、モデルパターン記憶部126および検出結果記憶部127を有する。画像処理装置121には、視覚センサ110、操作盤131および表示装置132等が接続されている。画像処理部122は、機械学習器2と共に、対象物検出部123、対応点選択部124およびモデルパターン修正部125を含む。ここで、対象物検出部123は、教示されたモデルパターンを使用して入力データ(入力画像)から対象物を検出し、対応点選択部124は、例えば、抽出された特徴点がその特徴点に対応する対応点として妥当であるかどうかを評価して選択する。また、モデルパターン修正部125は、例えば、モデルパターンの修正処理を行う。
モデルパターン記憶部126は、例えば、教示されたモデルパターンを記憶する。検出結果記憶部127は、教示されたモデルパターンを使用して入力データ(入力画像)から対象物を検出した検出結果を記憶する。画像処理装置121に含まれる各部分は、MPU(Micro-processing unit)、ROM(Read Only Memory)およびRAM(Random access memory)等を含むコンピュータ上でソフトウェアにより実現される。なお、機械学習器2に関しては、後に、図面を参照して詳述する。
視覚センサ110は、画像処理装置121に対して通信ケーブルで接続され、例えば、撮像した画像データを画像処理装置121に出力する。操作盤131は、画像処理装置121に通信ケーブルで接続され、例えば、画像処理装置121で対象物101を検出するための設定等に使用される。表示装置132は、画像処理装置121に通信ケーブルで接続され、例えば、視覚センサ110で撮像した画像や操作盤131で設定する設定内容を表示するようになっている。
なお、視覚センサ110、操作盤131および表示装置132は画像処理装置121と一体になっていてもよく、様々な変形および変更が可能なのはいうまでもない。また、機械学習器2(画像処理装置121)は、例えば、図2のロボットシステム100Bにおけるロボット制御装置113に内蔵してもよいが、視覚センサ制御装置120やロボット制御装置113とは別に、独立した装置として設けることもできる。
図4は、本実施形態の画像処理装置に設けられる機械学習器の一例を模式的に示す図である。図4に示されるように、機械学習器2は、状態観測部21、学習部22、出力利用部23およびラベル取得部24を含む。状態観測部21は、環境1から与えられる入力データとして、例えば、検出位置、姿勢、サイズおよび検出した個所の画像を受け取り、ラベル取得部24は、例えば、検出の成否を受け取る。出力利用部23は、例えば、尤度(対象物の像が正解である確率や対象物の像の確からしさを示す度合、検出に成功する尤もらしさ)を計算(算出)する。なお、出力利用部23は、尤度を計算する以外に、機械学習部22の出力を利用した様々な機能を持たせることもできる。
すなわち、ラベル取得部24は、ラベル(教師データ)を取得するもので、例えば、入力画像(画像データ)を使用し、その入力画像から切り抜いた少なくとも1つの部分画像のそれぞれに教師ラベル(OK/NG,正解/不正解,整数値,実数値)を付与したものを受け取る。なお、部分画像を切り抜く領域としては、例えば、モデルパターンを囲む領域でもよいが、予めモデルパターンに対して相対的に設定した領域を適用することもできる。学習部22は、領域内の画像を切り出した部分画像と教師ラベルを受け取って学習(機械学習:教師あり学習)を行って、学習モデルを作成し、その学習モデルに基づいて、部分画像から対象物101の像の尤度を計算する。
ここで、学習部22は、「教師あり学習」を行うもので、状態観測部21により観測された状態変数(検出位置、姿勢、サイズおよび検出した個所の部分画像)、並びに、ラベル取得部24により取得されたラベル(検出の成否:OK/NG)に基づいて、学習モデルを作成する。なお、図4では、環境1として、工作機械システム100Aに設けられた画像処理装置121(視覚センサ制御装置120)を例として説明したが、これに限定されないのはもちろんである。
図5は、図4に示す機械学習器の一例を示すブロック図であり、学習部22を誤差計算部221および学習モデル更新部222により構成したものである。図5に示されるように、学習部22は、状態観測部21の出力(状態変数)およびラベル(教師データ)を受け取って誤差を計算する誤差計算部221と、状態観測部の出力および誤差計算部221の出力を受け取って、学習モデルを更新する学習モデル更新部222と、を含む。ここで、機械学習器2(学習部22)は、教師あり学習を行うものに限定されず、例えば、正解(OK)を付けたものだけを使って学習を行い、その学習に使用した部分画像に対してどの程度違うかを尤度として出力する、若しくは、検出されたものはすべてOKだとしてしまい、それに基づいて学習(教師なし学習)を行うこともできる。すなわち、機械学習器2は、例えば、検出アリゴリズムで使用するパラメータを狭く(厳しく)することで、ほぼOKとなる画像データだけを使用して教師なし学習を行うことが可能になる。
なお、誤差計算部221に入力されるラベルは、図4のラベル取得部24の出力に相当する。尤度計算部25は、例えば、前述した図4における出力利用部23に相当し、学習部22(学習モデル更新部222)の出力に基づいて、尤度(対象物の像が正解である確率や対象物の像の確からしさを示す度合、検出に成功する尤もらしさ)を計算(算出)して出力する。このように、本実施形態の画像処理装置によれば、対象物の像の尤度を適切に算出して対象物を正しく検出することができる。
なお、機械学習器2は、汎用の計算機やプロセッサを適用することもできるが、例えば、GPGPU(General-Purpose computing on Graphics Processing Units)や大規模PCクラスター等を適用すると、より高速に処理することが可能になる。また、機械学習器2は、少なくとも1つの他の機械学習器と接続可能であり、少なくとも1つの他の機械学習器との間で、機械学習器2の学習部22で作成された学習モデルを相互に交換または共有することができる。ここで、機械学習器2(学習部22)は、例えば、上記GPGPU等で構成したニューラルネットワークを含むのはいうまでもない。
ここで、例えば、背景画像を対象物101の画像(Iw)として誤検出することを防ぐために、未検出の教師データとして、背景画像からランダムに取得した部位を追加してもよい。また、学習計算と学習後の尤度の計算に、検出位置姿勢に対して、予め定められた領域の画像として、検出結果のサイズによるスケーリングやせん断変形などによって変換した画像を適用することができる。具体的に、例えば、対象物が教示したモデルパターンの2倍で検出された場合、特定の領域の画像を2倍に拡大して使うことで、学習を速く進めることが可能になる。
また、学習計算と学習後の尤度の計算に、検出位置姿勢に対してして予め定められた領域の画像内から、検出アルゴリズムで使用した特徴の抽出方法と同じ方法で抽出された特徴(例えば、エッジ)、または、検出アルゴリズムで使用した特徴の抽出方法とは異なる方法で抽出された特徴(例えば、明るさや輝度勾配)を使用することで、画像そのものを使うよりも学習を速く進めることができる。
さらに、学習を段階的に行い、最初の段階では検出パラメータを広めに(誤差範囲を大きく)とって教師データを作成し、学習が進むにしたがって、徐々に検出パラメータを狭く(誤差範囲を小さく)していく。そして、最初の学習以降は、新たに学習した計算方法により尤度を計算し、その結果を利用する。これにより、誤検出が多くなり過ぎることなく、学習を進めることができる。
そして、学習した計算方法で計算した尤度により、検出または未検出を判定するための閾値を自動的に設定することができる。なお、尤度は、スカラ量であってもよいが、ベクトル量であってもよい。或いは、機械学習器2が尤度を出力するのではなく、例えば、機械学習器2内で、検出の成否(OK/NG)を判定し、直接ラベルを出力することもできる。以下、本実施形態に係る画像処理装置による処理を詳述する。
図6は、本実施形態に係る画像処理装置によるモデルパターンの作成処理の一例を示すフローチャートであり、図7は、撮像した画像におけるモデルパターン指定領域の例を示す図である。図6に示されるように、モデルパターンの作成処理が開始すると、ステップST11において、例えば、作業台102上のモデルパターンとして教示したい対象物101を視覚センサ(カメラ)110により撮像して、ステップST12に進む。なお、視覚センサ110と対象物101の位置関係は、実際の作業等において対象物101を検出するときと同じになるようにして行うのが好ましい。
ステップST12では、図7に示されるように、撮像した画像における対象物101の画像Iwが映った領域Iaを矩形でモデルパターン指定領域として指定する。なお、ステップST12におけるモデルパターン領域Iaの指定処理は、図7に示すような矩形領域に限定されるものではなく、例えば、円形や楕円形等であってもよいのはいうまでもない。すなわち、図7では、撮像した画像において、画像座標系を定義し、その画像座標系の中で対象物101の画像Iwを含むように、矩形状のモデルパターン指定領域Iaを指定するようになっている。なお、モデルパターン指定領域Iaの指定処理は、例えば、操作者(使用者)が表示装置132で画像を見ながら操作盤131により入力して行うこともできるが、例えば、画像処理部122が画像における輝度勾配の大きい個所を対象物101の画像Iwの輪郭として求め、その画像Iwが内部に含まれるように、モデルパターン指定領域Iaを自動的に指定することもできる。
さらに、ステップST13に進んで、例えば、モデルパターン指定領域Iaの範囲内におけるエッジ点を特徴点として抽出し、そのエッジ点の位置、姿勢(輝度勾配の方向)、および、輝度勾配の大きさ等の物理量を求める。また、例えば、指定された領域内にモデルパターン座標系を定義し、エッジ点の位置や姿勢を、画像座標系で表現された値から、モデルパターン座標系で表現された値に変換することも可能である。
そして、ステップST14に進んで、抽出されたエッジ点の物理量を、モデルパターンを構成する特徴点としてモデルパターン記憶部126に記憶する。なお、以上の説明では、特徴点としてエッジ点を用いたが、特徴点は、エッジ点に限定されないのはいうまでもない。また、対象物101の画像Iwからエッジ点やSIFT(Scale-Invariant Feature Transform)特徴点などを抽出して、モデルパターンを構成する特徴点とするのではなく、画像Iwに写った対象物101の輪郭線に合うように線分、矩形、円などの幾何図形を配置することでモデルパターンを作成することも可能である。その場合、例えば、輪郭線を構成する幾何図形上に適当な間隔で特徴点を設けることになる。
さらに、CADデータなどに基づいてモデルパターンを作成することもでき、2次元CADデータであれば、幾何図形を使った方法と同じ方法でモデルパターンを作成し、また、3次元CADデータであれば、CADデータで表現された対象物の形状を画像上に投影し、投影された像から特徴点を抽出して特徴点とすることもできる。
図8は、本実施形態に係る画像処理装置による学習処理の一例を示すフローチャートである。図8に示されるように、学習処理が開始すると、まず、ステップST21において、モデルパターンの作成(教示)を行い、ステップST22に進んで、入力画像の指定を行う。ここで、ステップST21におけるモデルパターンは、カメラ(視覚センサ)110で撮像した画像を使って教示し、また、ステップST21における入力画像は、例えば、対象物101の画像Iwを含む複数の画像を用意する。
次に、ステップST23に進んで、入力画像のそれぞれについて、対象物(101)の検出を行い、ステップST24に進む。ここで、正しい検出および誤検出のどちらも取得できることが望ましいので、検出パラメータの範囲を広めにとって(誤差範囲を大きくして)検出を行う。なお、ステップST23における対象物の検出処理は、例えば、画像枚数NI回だけ実行する。また、検出パラメータには、例えば、モデルパターンに対するサイズの範囲、剪断変形の範囲、検出する位置の範囲、角度の範囲、モデルパターンのエッジ点と画像のエッジ点の一致する割合、モデルパターンのエッジ点と画像のエッジ点が一致したと見なす距離の閾値、および、エッジ点のコントラストの閾値といった様々なものがある。
ステップST24では、例えば、検出結果を表示装置132に表示し、操作者が目視で確認し、正解(OK)または不正解(NG)のラベルを付ける。図9は、図8に示すフローチャートにおけるラベルの指定処理を説明するための図であり、この図9に示されるように、ステップST24におけるラベルの指定処理は、複数のモデルパターン指定領域Ia1,Ia2,Ia3,…に含まれる対象物101の画像Iw1,Iw21,Iw22,Iw31〜Iw33,…に対してOKまたはNGのラベルを付ける。ここで、例えば、検出パラメータを狭めに取って検出を行い、正しい検出結果のみで学習を行うこともできる。この場合には、例えば、操作者の目視による確認(OKまたはNGのラベル付け)は必要ない。なお、対象物101の画像Iw1,Iw21,Iw22,Iw31〜Iw33,…を個別に取り出し、取り出されたそれぞれの画像Iw1,Iw21,Iw22,Iw31〜Iw33,…に対してOKまたはNGのラベル付けを行うこともできるのはいうまでもない。
なお、図9では、モデルパターン指定領域Ia1,Ia2,Ia3では、含まれるすべての対象物101の画像Iw1,Iw21,Iw22,Iw31〜Iw33に対して、OK,NG,OKのラベルを付けているが、例えば、モデルパターン指定領域Ianのように、対象物101の画像Iwn1をOKとし、Iwn2をNGとしてもよいのはいうまでもない。ここで、OKまたはNGのラベル付けは、例えば、検出結果が所定の閾値以上であればOK(正解)、閾値よりも小さければNG(不正解)と自動で行うことができるが、例えば、自動でラベル付けを行った後、操作者がラベルを直すようにしてもよい。
さらに、ステップST25に進んで、学習(機械学習:例えば、教師あり学習)を行い、処理を終了する。このステップST25における学習は、例えば、図4および図5を参照して説明した機械学習器2により行う。また、ステップST25の学習処理は、例えば、モデルパターンの数NR回だけ、或いは、予め定められた回数だけ実行することができる。例えば、学習後に検出を行う場合、学習した学習モデルで尤度を計算し、正しい検出であるか否かを判定する。なお、学習を行う前の尤度の算出は、例えば、学習中に誤差逆伝搬で使う誤差を計算するために行うことができる。また、学習を行った後の尤度の算出は、例えば、実際に検出した対象物の像が正しいものであるか否かを判定するために行うことができる。ここで、学習を行う前後における対象物の像の尤度の算出は、検出された対象物の位置および姿勢に対して予め定められた領域の画像を処理して変換した画像を使用することができる。
図10は、図8に示すフローチャートにおける学習処理の一例を説明するためのフローチャートであり、ステップST25における学習(教師あり学習)を行う処理の一例を説明するためのものである。また、図11は、図10に示すフローチャートにおける部分画像切抜き処理の一例を説明するための図である。
図10に示されるように、学習処理が開始すると、ステップST31において、入力画像から、例えば、検出した位置、姿勢で予め定められた領域の部分画像を切り抜き、ステップST32に進む。すなわち、ステップST31では、図11に示されるように、例えば、入力画像(領域Iaの画像)に4つの対象物101の画像IwA〜IwDが含まれている場合、それぞれ1つの部分画像IwA,IwB,IwC,IwDを含む4つの領域IaA,IaB,IaC,IaDを切り抜く。
ステップST32では、学習モデルに部分画像の各画素値を入力し、尤度を計算する。ここで、スコアとしては、例えば、0〜1の値に設定することができる。さらに、ステップST33に進んで、例えば、検出結果のラベルが正解(OK)であれば1.0、逆に、不正解(NG)であれば0.0として、計算した尤度との誤差を計算し、ステップST34に進む。ステップST34では、学習モデル(学習モデルのパラメータ)を更新する。すなわち、ステップST34において、学習モデルで誤差を逆伝搬して、学習モデルのパラメータを更新する。なお、ステップST31〜ST34の処理は、例えば、学習に使用する検出結果の個数NR回だけ実行する。
ここで、例えば、学習処理が完了したら、学習した機械学習器2を用いて尤度の計算を行うことができる。すなわち、新たに取得した入力画像から既存の検出アルゴリズムを用いて対象物の検出を行い、さらに、入力画像から対象物の象が含まれる部分画像を切り抜く。そして、それぞれの部分画像を機械学習器2に入力し、尤度を計算する。この計算された尤度に基づいて、検出された対象物の象が正しい検出結果であるか否かを判定することができる。これにより、正しくない検出結果を使用しないこともでき、また、ある対象物を検出したときに、その対象物が良品か不良品かを判別することもできる。
図12は、本実施形態の画像処理装置における処理の変形例を説明するための図である。上述した入力画像から、検出した位置、姿勢で予め定められた領域の部分画像を切り抜いた後、例えば、位置、姿勢、サイズ、ひずみがモデルパターンと揃うように、部分画像を変換することができる。すなわち、図12に示されるように、入力画像(Ia)から、検出した位置、姿勢で予め定められた領域の部分画像を切り抜いた4つの対象物101の部分画像IwAA,IwBB,IwCC,IwDDに対して、位置、姿勢、サイズ、および、ひずみがモデルパターンと揃うように変換(規格化)すると、4つの領域IaAA,IaBB,IaCC,IaDDは、それぞれ規格化された部分画像IwAA',IwBB',IwCC',IwDD'を含むことになる。
これより、学習モデルの同じ入力個所には、同じ部位(対応する部位)の画素の値が入力されることになる。ここで、例えば、検出位置が1ピクセル(画素)よりも小さい単位で取得できる場合には、1ピクセルより小さい単位で部分画像をシフトすることもできる。
さらに、部分画像を切り抜いた後、部分画像から特徴量を抽出し、その特徴量を学習モデルに入力する。ここで、特徴量は、複数種類であってもよく、例えば、輝度勾配、輝度勾配の向き、および、エッジ点等であってもよい。また、部分画像から抽出した特徴量と部分画像を同時に学習モデルに入力することもできる。
また、学習を行うときに学習に使わない除外領域を指定してもよい。このように、モデルパターンに対して除外領域を指定すると、検出結果に合わせて除外領域をシフトすることができる。これにより、学習に使う部分画像で除外領域を指定することができ、例えば、部分画像が、回転や位置合わせが行われたものであれば、除外領域をそのまま使うことが可能になる。
さらに、他の変形例として、学習処理を段階的に行ってもよい。すなわち、始めは(最初の段階では)、検出パラメータを広めに(誤差範囲を大きく)とって、教師データを作成し、学習が進むにしたがって(後の段階に進むにしたがって)、徐々に検出パラメータを狭く(誤差範囲を小さく)し、さらに、学習を行うことができる。
具体的に、最初に教師データを生成するときには、例えば、サイズを0.9〜1.1とし、エッジが一致する割合を60%以上とする。そして、次の学習のための教師データを生成するときには、例えば、サイズを0.95〜1.05とし、エッジが一致する割合を80%とする。なお、これらの値は、単なる例であるのはいうまでもない。
図13は、本実施形態の画像処理装置における処理のさらなる変形例を説明するための図であり、図13(a)は、閾値Thaにより正解(OK)と不正解(NG)を分類する場合を示し、図13(b)は、閾値Thbにより正解を分類する場合を示す。本実施形態の画像処理装置における処理のさらなる変形例として、例えば、機械学習器2が出力する尤度で検出または未検出を判定するための閾値を自動的に設定することができる。これは、例えば、次の手順により行うことができる。
まず、学習データ内の部分画像を1つずつ機械学習器2に入力し、一致度を取得する。また、取得した一致度は、ラベルが正解であるか、或いは、不正解であるかにより分類して記憶する。さらに、ラベルが正解である一致度の集合とラベルが不正解である一致度の集合から、それぞれの確率分布を求める。ここで、確率分布には、例えば、正規混合分布を適用することができる。そして、求めた確率分布から、正解および不正解を分類する閾値を計算する。
ここで、図13(a)に示されるように、例えば、正解と不正解の2つの確率分布が交わる値Thaを閾値に設定してもよいが、正解の確率分布で予め定められた確率以上となる値を閾値Thbに設定することもできる。
さらに、入力画像における検出対象以外の領域を不正解の例として、教師データに追加することもできる。これは、例えば、次の手順により行うことができる。まず、ランダムに検出結果を生成する。次に、検出結果が正しい検出結果と一定範囲以上離れていることを確認する。例えば、検出結果が、位置、角度、スケールであれば、位置、角度、スケールの空間で一定距離以上離れていることを確認する。そして、検出結果を不正解のラベル付きで記憶する。
これにより、例えば、入力画像中の対象物以外の領域を正解として検出し難くなる。また、検出パラメータを狭めにして検出を行い、その検出結果を正解とし、自動的に追加された不正解と合わせて学習することにより、例えば、操作者がラベルを付けることなく学習(教師あり学習)を行うことができる。
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではない。また、明細書のそのような記載は、発明の利点および欠点を示すものでもない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。
1 環境
2 機械学習器
21 状態観測部
22 学習部
23 出力利用部
24 ラベル取得部
25 尤度計算部
100A 工作機械システム
100B ロボットシステム
101 対象物(ワーク)
102 作業台
110 視覚センサ
111 ロボット
112 ハンド
113 ロボット制御装置
120 視覚センサ制御装置
121 画像処理装置
122 画像処理部
123 対象物検出部
124 対応点選択部
125 モデルパターン修正部
126 モデルパターン記憶部
127 検出結果記憶部
131 操作盤
132 表示装置
221 誤差計算部
222 学習モデル更新部

Claims (16)

  1. 入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理装置であって、
    前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から、検出した位置および姿勢で予め定められた領域の部分画像を切り抜いた後、サイズおよびひずみの少なくとも一方が揃うように規格化した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出する機械学習器を備え、
    前記機械学習器は、
    前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする、
    ことを特徴とする画像処理装置。
  2. 前記機械学習器は、
    前記対象物に関連する、検出位置、姿勢、サイズおよび検出した個所の画像の少なくとも1つを状態変数として観測する状態観測部と、
    前記状態観測部により観測された前記状態変数に基づいて、前記対象物の像の尤度を算出するための学習モデルを作成する学習部と、を備え、教師なし学習を行う、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記機械学習器は、
    前記対象物に関連する、検出位置、姿勢、サイズおよび検出した個所の画像の少なくとも1つを状態変数として観測する状態観測部と、
    複数の前記部分画像のそれぞれに付加する正解または不正解のラベルを取得するラベル取得部と、
    前記状態観測部により観測された前記状態変数および前記ラベル取得部により取得された前記ラベルに基づいて、前記対象物の像の尤度を算出するための学習モデルを作成する学習部と、を備え、教師あり学習を行う、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記学習部は、
    前記状態観測部により観測された前記状態変数および前記ラベル取得部により取得された前記ラベルに基づいて、誤差を計算する誤差計算部と、
    前記状態観測部および前記誤差計算部の出力に基づいて、前記学習モデルを更新する学習モデル更新部と、を備える、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記学習部は、
    前記入力画像における前記対象物が映っていな領域から切り出した部分画像に対して、前記不正解のラベルを付加する、
    ことを特徴とする請求項3または請求項4に記載の画像処理装置。
  6. 前記機械学習器は、
    前記機械学習を行う前後における前記対象物の像の尤度の算出に、検出された前記対象物の位置および姿勢に対して予め定められた領域の画像を処理して変換した画像を使用する、
    ことを特徴とする請求項1乃至請求項5のいずれか1項に記載の画像処理装置。
  7. 前記機械学習器は、
    前記機械学習を行う前後における前記対象物の像の尤度の算出に、検出された前記対象物の位置および姿勢に対して予め定められた領域の画像内から、前記検出アルゴリズムで使用した特徴の抽出方法と同じ方法で抽出された特徴を受け取って、前記対象物の像の尤度を算出する、
    ことを特徴とする請求項1乃至請求項6のいずれか1項に記載の画像処理装置。
  8. 前記機械学習器は、
    前記機械学習を行う前後における前記対象物の像の尤度の算出に、検出された前記対象物の位置および姿勢に対して予め定められた領域の画像内から、前記検出アルゴリズムで使用した特徴の抽出方法とは異なる方法で抽出された特徴を受け取って、前記対象物の像の尤度を算出する、
    ことを特徴とする請求項1乃至請求項6のいずれか1項に記載の画像処理装置。
  9. 前記機械学習器が出力する尤度に基づいて、検出または未検出を判定するための閾値を自動的に設定する、
    ことを特徴とする請求項1乃至請求項のいずれか1項に記載の画像処理装置。
  10. 前記機械学習器は、少なくとも1つの他の機械学習器と接続可能であり、少なくとも1つの前記他の機械学習器との間で、前記機械学習器で作成された学習モデルを相互に交換または共有する、
    ことを特徴とする請求項1乃至請求項のいずれか1項に記載の画像処理装置。
  11. 入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理方法であって、
    前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から、検出した位置および姿勢で予め定められた領域の部分画像を切り抜いた後、サイズおよびひずみの少なくとも一方が揃うように規格化した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出し、
    前記機械学習を行って前記対象物の像の尤度を算出するのは、
    前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする、
    ことを特徴とする画像処理方法。
  12. 前記機械学習を行って前記対象物の像の尤度を算出するのは、
    前記対象物に関連する、検出位置、姿勢、サイズおよび検出した個所の画像の少なくとも1つを状態変数として観測し、
    前記状態変数に基づいて、前記対象物の像の尤度を算出するための学習モデルを作成し、教師なし学習を行う、
    ことを特徴とする請求項11に記載の画像処理方法。
  13. 前記機械学習を行って前記対象物の像の尤度を算出するのは、
    前記対象物に関連する、検出位置、姿勢、サイズおよび検出した個所の画像の少なくとも1つを状態変数として観測し、
    複数の前記部分画像のそれぞれに付加する正解または不正解のラベルを取得し、
    前記状態変数および前記ラベルに基づいて、前記対象物の像の尤度を算出するための学習モデルを作成し、教師あり学習を行う、
    ことを特徴とする請求項11に記載の画像処理方法。
  14. 前記学習モデルを作成するのは、
    前記状態変数および前記ラベルに基づいて誤差を計算し、
    前記状態変数および計算された前記誤差に基づいて前記学習モデルを更新する、
    ことを特徴とする請求項13に記載の画像処理方法。
  15. 入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理装置であって、
    前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から切り出した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出する機械学習器を備え、
    前記機械学習器は、
    前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする、
    ことを特徴とする画像処理装置。
  16. 入力画像を受け取り、検出アルゴリズムに基づいて対象物の像を検出する画像処理方法であって、
    前記対象物の像の検出結果に基づいて、少なくとも1つの前記入力画像から切り出した複数の部分画像を用いて機械学習を行い、前記対象物の像の尤度を算出し、
    前記機械学習を行って前記対象物の像の尤度を算出するのは、
    前記機械学習を段階的に行い、最初の段階では検出パラメータを広めにとり、後の段階に進むにしたがって徐々に前記検出パラメータを狭くする、
    ことを特徴とする画像処理方法。
JP2017047444A 2017-03-13 2017-03-13 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法 Active JP6542824B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017047444A JP6542824B2 (ja) 2017-03-13 2017-03-13 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
US15/899,471 US20180260628A1 (en) 2017-03-13 2018-02-20 Apparatus and method for image processing to calculate likelihood of image of target object detected from input image
DE102018105334.7A DE102018105334B4 (de) 2017-03-13 2018-03-08 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Berechnung der Bildwahrscheinlichkeit eines aus einem Eingangsbild erfassten Zielobjekts
CN201810195662.7A CN108573486A (zh) 2017-03-13 2018-03-09 图像处理装置以及图像处理方法
US16/812,369 US11741367B2 (en) 2017-03-13 2020-03-09 Apparatus and method for image processing to calculate likelihood of image of target object detected from input image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017047444A JP6542824B2 (ja) 2017-03-13 2017-03-13 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2018151843A JP2018151843A (ja) 2018-09-27
JP6542824B2 true JP6542824B2 (ja) 2019-07-10

Family

ID=63258750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017047444A Active JP6542824B2 (ja) 2017-03-13 2017-03-13 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法

Country Status (4)

Country Link
US (2) US20180260628A1 (ja)
JP (1) JP6542824B2 (ja)
CN (1) CN108573486A (ja)
DE (1) DE102018105334B4 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10676085B2 (en) 2018-04-11 2020-06-09 Aurora Innovation, Inc. Training machine learning model based on training instances with: training instance input based on autonomous vehicle sensor data, and training instance output based on additional vehicle sensor data
US11550061B2 (en) 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
JP7154823B2 (ja) * 2018-05-28 2022-10-18 キヤノン株式会社 情報処理装置、ロボット制御装置、情報処理方法及びプログラム
DE102019125117B4 (de) * 2018-09-18 2020-12-10 Kinova Inc. Sichtgeführter Roboterarm und Verfahren zum Betreiben desselben
EP3651163A1 (en) * 2018-11-06 2020-05-13 Koninklijke Philips N.V. Medical image device and operating method
JP6863946B2 (ja) * 2018-10-31 2021-04-21 ファナック株式会社 画像処理装置
US11256263B2 (en) 2018-11-02 2022-02-22 Aurora Operations, Inc. Generating targeted training instances for autonomous vehicles
US11086319B2 (en) 2018-11-02 2021-08-10 Aurora Operations, Inc. Generating testing instances for autonomous vehicles
US11209821B2 (en) 2018-11-02 2021-12-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11403492B2 (en) 2018-11-02 2022-08-02 Aurora Operations, Inc. Generating labeled training instances for autonomous vehicles
US11829143B2 (en) 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
JP6915605B2 (ja) * 2018-11-29 2021-08-04 オムロン株式会社 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム
CN109754003B (zh) * 2018-12-20 2023-05-19 上海裕芯电子科技有限公司 基于深度学习的智能机器人视觉技术应用检测系统和方法
US11544938B2 (en) * 2018-12-21 2023-01-03 Continental Autonomous Mobility US, LLC Systems and methods for automatic labeling of images for supervised machine learning
JP6756961B1 (ja) * 2019-03-29 2020-09-16 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6508797B1 (ja) * 2019-01-17 2019-05-08 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
WO2020149242A1 (ja) * 2019-01-17 2020-07-23 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6978454B2 (ja) * 2019-02-22 2021-12-08 ファナック株式会社 物体検出装置、制御装置及び物体検出用コンピュータプログラム
JP7229338B2 (ja) * 2019-03-29 2023-02-27 Musashi AI株式会社 検査装置及び検査方法
DE102019211557A1 (de) * 2019-08-01 2021-02-04 Siemens Mobility GmbH Bahnsignalerkennung für autonome Schienenfahrzeuge
JP7261306B2 (ja) * 2019-08-26 2023-04-19 川崎重工業株式会社 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法
US11475313B2 (en) 2020-02-13 2022-10-18 International Business Machines Corporation Unsupervised, semi-supervised, and supervised learning using deep learning based probabilistic generative models
DE112021001435T5 (de) 2020-03-05 2023-01-12 Fanuc Corporation Maschinen-Lern-Vorrichtung
WO2021220502A1 (ja) * 2020-05-01 2021-11-04 日本電信電話株式会社 3次元モデル生成装置、方法及びプログラム
CN115668283A (zh) 2020-05-18 2023-01-31 发那科株式会社 机器学习装置和机器学习系统
US11633862B2 (en) * 2020-11-25 2023-04-25 Metal Industries Research & Development Centre Automatic control method of mechanical arm and automatic control system
CN115205636B (zh) * 2022-09-15 2023-04-07 苏州浪潮智能科技有限公司 一种图像的目标检测方法、系统、设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62524A (ja) 1985-06-26 1987-01-06 Showa Highpolymer Co Ltd 硬化可能な不飽和アルキツドおよびその製造法
US20080172781A1 (en) * 2006-12-15 2008-07-24 Terrance Popowich System and method for obtaining and using advertising information
JP4720913B2 (ja) * 2009-02-19 2011-07-13 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、及び、プログラム
JP5126115B2 (ja) * 2009-02-25 2013-01-23 株式会社デンソー 検出対象判定装置,インテグラルイメージ生成装置。
JP5234833B2 (ja) 2010-01-19 2013-07-10 日本電信電話株式会社 表情識別器作成装置,表情識別器作成方法,表情認識装置,表情認識方法およびそれらのプログラム
JP5285748B2 (ja) * 2011-07-08 2013-09-11 富士フイルム株式会社 オブジェクト検出装置、方法およびプログラム
JP5801237B2 (ja) * 2012-03-29 2015-10-28 パナソニック株式会社 部位推定装置、部位推定方法、および部位推定プログラム
JP2014106685A (ja) 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
US8989442B2 (en) * 2013-04-12 2015-03-24 Toyota Motor Engineering & Manufacturing North America, Inc. Robust feature fusion for multi-view object tracking
JP6188400B2 (ja) 2013-04-26 2017-08-30 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
JP6395481B2 (ja) * 2014-07-11 2018-09-26 キヤノン株式会社 画像認識装置、方法及びプログラム
JP2016057918A (ja) 2014-09-10 2016-04-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6435740B2 (ja) 2014-09-22 2018-12-12 日本電気株式会社 データ処理システム、データ処理方法およびデータ処理プログラム
CN104573669B (zh) * 2015-01-27 2018-09-04 中国科学院自动化研究所 图像物体检测方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
CN105574527B (zh) * 2015-12-14 2019-03-29 北京工业大学 一种基于局部特征学习的快速物体检测方法
JP2017146840A (ja) * 2016-02-18 2017-08-24 富士ゼロックス株式会社 画像処理装置およびプログラム
WO2017171891A1 (en) * 2016-04-02 2017-10-05 Intel Corporation Systems, methods, and apparatuses for modeling reticle compensation for post lithography processing using machine learning algorithms
CN105976401B (zh) * 2016-05-20 2019-03-12 河北工业职业技术学院 基于分块多示例学习算法的目标跟踪方法和系统
CN106295636A (zh) * 2016-07-21 2017-01-04 重庆大学 基于多特征融合级联分类器的消防通道车辆检测方法
JP2018126799A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Also Published As

Publication number Publication date
DE102018105334A1 (de) 2018-09-13
US20200210702A1 (en) 2020-07-02
US11741367B2 (en) 2023-08-29
JP2018151843A (ja) 2018-09-27
DE102018105334B4 (de) 2024-01-25
US20180260628A1 (en) 2018-09-13
CN108573486A (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
JP6542824B2 (ja) 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
US10372228B2 (en) Method and system for 3D hand skeleton tracking
CN108961144B (zh) 图像处理系统
CN112560741A (zh) 一种基于人体关键点的安全穿戴检测方法
JP2019057250A (ja) ワーク情報処理装置およびワークの認識方法
CN107300100A (zh) 一种在线cad模型驱动的级联式机械臂视觉引导逼近方法
EP4044118A1 (en) A computer-implemented method, data processing apparatus and computer program for generating three-dimensional pose-estimation data
CN109255801A (zh) 视频中三维物体边缘追踪的方法、装置、设备及存储介质
CN112652071A (zh) 外轮廓点标注方法、装置、电子设备和可读存储介质
Drwięga Features matching based merging of 3D maps in multi-robot systems
JP7372076B2 (ja) 画像処理システム
CN112085223A (zh) 一种用于机械维修的诱导系统及方法
CN111275758A (zh) 混合型3d视觉定位方法、装置、计算机设备及存储介质
CN110598675B (zh) 一种超声胎儿姿态的识别方法、存储介质及电子设备
CN109934155B (zh) 一种基于深度视觉的协作机器人手势识别方法及装置
Rahman et al. Monitoring and alarming activity of islamic prayer (salat) posture using image processing
Hsu et al. A Chinese Calligraphy-Writing Robotic System Based on Image-to-Action Translations and a Hypothesis Generation Net
Wang et al. Automatic landmark placement for large 3D facial image dataset
Sileo Collaborative and Cooperative Robotics Applications using Visual Perception
JP7419993B2 (ja) 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置
Motai Salient feature extraction of industrial objects for an automated assembly system
EP4339908A2 (en) Information processing device and information processing method
Ogata et al. Automated design of image recognition process for picking system
EP3878368A1 (en) Method and apparatus for generating a combined three-dimensional ultrasound image
Santos et al. Deep Convolutional Neural Networks applied to Hand Keypoints Estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180412

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180817

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190613

R150 Certificate of patent or registration of utility model

Ref document number: 6542824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150