JP7148322B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7148322B2
JP7148322B2 JP2018156540A JP2018156540A JP7148322B2 JP 7148322 B2 JP7148322 B2 JP 7148322B2 JP 2018156540 A JP2018156540 A JP 2018156540A JP 2018156540 A JP2018156540 A JP 2018156540A JP 7148322 B2 JP7148322 B2 JP 7148322B2
Authority
JP
Japan
Prior art keywords
image
unit
partial
learning
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018156540A
Other languages
English (en)
Other versions
JP2020030681A (ja
Inventor
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018156540A priority Critical patent/JP7148322B2/ja
Publication of JP2020030681A publication Critical patent/JP2020030681A/ja
Application granted granted Critical
Publication of JP7148322B2 publication Critical patent/JP7148322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関し、特に入力画像から検出した対象物を判別する画像処理装置に関する。
製造現場等において、製品や部品等をカメラで識別して搬送等を行う場合、対象物周辺を撮像装置で撮像して得られた入力画像に対して画像処理を行い、該入力画像の中から対象物の像を検出している。このような場合に行われる画像処理の例としては、例えば図6に例示されるように、検出する対象物を表す基準情報(一般に、モデルパターンとかテンプレートなどと呼称される)と撮像装置によって取得した入力画像との間で特徴量のマッチングを行い、一致度が指定したレベル(閾値)を越えたときに対象物の検出に成功したと判断することが一般的である。
ここで検出された対象物の像に対して、更に判別を行いたい場合がある。例えば、検出した対象物の像が正しくない場合にそれをはじきたい場合や、検出した部位と相対位置関係が固定である部位の良否の判別を行いたい場合等である。このような判別を行うために、例えば図7に例示されるように、入力画像内の対象物の像の位置姿勢に対して予め決められた抽出領域から部分画像を抽出し、抽出した部分画像につけられたラベルを使って学習を行い、学習された学習器で判別を行うという方法が提案されている(例えば、特許文献1等)。
特願2017-047444号
この方法により抽出される部分画像は、対象物の像が撮像範囲の端に近い場合等において、対象物の像の位置姿勢に対して予め決められた抽出領域の一部が画像の撮像範囲の範囲外になることがあり、このような状態で抽出された部分画像では、撮像範囲の範囲外の部分(即ち、抽出領域の内で入力画像に含まれていない部分)が一般的に0等の決められた値で埋められることが多い。しかしながら、このように範囲外の領域を固定の値で埋めた場合、後の機械学習器による学習、推論に悪影響を与えることがある。
そこで本発明の目的は、対象物を撮像した撮像画像から抽出された部分画像に欠損部分がある場合であっても適切な学習及び判別を行うことが可能な画像処理装置を提供することである。
本発明は、入力画像から抽出された部分画像に撮像領域の範囲外の部分が含まれている場合、その部分の値が機械学習器による学習時及び判別時において、いずれの判別クラスに対しても影響を与えないような値で埋めることで、上記課題を解決する。本発明において、部分画像に含まれる撮像領域の範囲外の部分を埋める値は以下の手順で求める。
●手順1)部分画像に含まれる撮像領域の範囲外の部分を埋める値を決めるための参照画像を計算する。参照画像は以下のいずれかの計算方法で求めることができる。以下の計算方法を見ればわかるように参照画像は、学習時に計算しておくことができる。なお、(計算方法1-1)を用いる場合、学習前に計算することができるので、参照画像を学習中から使用することができる。
-(計算方法1-1)学習データセット中の各判別クラスの入力画像の平均画像を計算する。更に、各判別クラスの平均画像の平均画像を計算し、この各判別クラスの平均画像の平均画像を参照画像とする。これにより、各判別クラスの学習データ数が異なる場合にも平均画像の偏りがなくなる。
-(計算方法1-2)学習データセットで学習することで生成した学習済みモデルのパラメータから、判別に中立な画像を生成する。
●手順2)対象物の検出位置から抽出された部分画像の中に領域外がある場合には、その領域外の画素値を参照画像の同じ部分の画素値で埋める。
このように修正した後の部分画像を学習または推論に使うことで、部分画像の撮像領域の範囲外の部分が機械学習器により対象物の判別、推論に悪影響を与えないようにすることができる。
そして、本発明の一態様は、入力画像から検出した対象物が属するクラスを学習又は推論するためのデータを生成可能な画像処理装置であって、前記入力画像から対象物を検出する対象物検出部と、前記入力画像から前記対象物検出部が検出した前記対象物を表す部分画像を抽出する部分画像抽出部と、前記対象物が属するクラスの判別に中立な画素値の集合である参照画像を作成する参照画像作成部と、前記部分画像抽出部が抽出した前記対象物を表す部分画像に欠損部分がある場合、前記参照画像の画素値に基づいて、前記欠損部分の画素値を補完する前処理部と、を備えた画像処理装置である。
本発明により、撮像した画像データから対象物の部分画像を切り出した際に、該部分画像に欠損部分が生じたとしても機械学習器により対象物が属するクラスの判別、推論に悪影響を与えないようにすることができる。
一実施形態による機械学習装置を備えた画像処理装置の要部を示す概略的なハードウェア構成図である。 第1の実施形態による画像処理装置の概略的な機能ブロック図である。 平均画像を用いて参照画像を作る方法について説明する図である。 学習済みモデルのパラメータを用いて参照画像を作る方法について説明する図である。 第2の実施形態による画像処理装置の概略的な機能ブロック図である。 従来技術による入力画像から対象物を検出する方法について説明する図である。 従来技術による部分画像の抽出の問題について説明する図である。
以下、本発明の実施形態を図面と共に説明する。
図1は一実施形態による画像処理装置の要部を示す概略的なハードウェア構成図である。本実施形態の画像処理装置1は、工場に設置されているパソコンや、工場に設置される機械を管理するセルコンピュータ、ホストコンピュータ、エッジコンピュータ、クラウドサーバ等のコンピュータとして実装することが出来る。図1は、工場に設置されているパソコンとして画像処理装置1を実装した場合の例を示している。
本実施形態による画像処理装置1が備えるCPU11は、画像処理装置1を全体的に制御するプロセッサである。CPU11は、ROM12に格納されたシステム・プログラムをバス20を介して読み出し、該システム・プログラムに従って画像処理装置1全体を制御する。RAM13には一時的な計算データ、入力装置71を介して作業者が入力した各種データ等が一時的に格納される。
不揮発性メモリ14は、例えば図示しないバッテリでバックアップされたメモリやSSD等で構成され、画像処理装置1の電源がオフされても記憶状態が保持される。不揮発性メモリ14には、画像処理装置1の動作に係る設定情報が格納される設定領域や、入力装置71から入力されたプログラムやデータ等、図示しない外部記憶装置やネットワークを介して読み込まれたデータ、撮像センサ4により取得した対象物の画像データ等が記憶される。不揮発性メモリ14に記憶されたプログラムや各種データは、実行時/利用時にはRAM13に展開されても良い。また、ROM12には、学習データセットを解析するための公知の解析プログラムや後述する機械学習装置100とのやりとりを制御するためのシステム・プログラムなどを含むシステム・プログラムがあらかじめ書き込まれている。
撮像センサ4は、例えばCCD等の撮像素子を有する電子カメラであり、撮像により2次元画像や距離画像を撮像面(CCDアレイ面上)で検出する機能を持つ周知の受光デバイスである。撮像センサ4は、例えば図示しないロボットのハンドに取り付けられ、該ロボットにより判別対象となる対象物を撮像する撮像位置に移動され、該対象物を撮像して得られた画像データをインタフェース19を介してCPU11に渡す。撮像センサ4は、例えばいずれかの位置に固定的に設置されており、ロボットがハンドで把持した対象物を撮像センサ4で撮像可能な位置に移動させることで撮像センサ4が対象物の画像データを撮像できるようにしても良い。撮像センサ4による対象物の撮像に係る制御は、画像処理装置1がプログラムを実行することにより行うようにしても良いし、ロボットを制御するロボットコントローラや、他の装置からの制御により行うようにしても良い。
表示装置70には、メモリ上に読み込まれた各データ、プログラム等が実行された結果として得られたデータ、撮像センサ4が撮像して得られた対象物の画像データ、後述する機械学習装置100から出力されたデータ等がインタフェース17を介して出力されて表示される。また、キーボードやポインティングデバイス等から構成される入力装置71は、作業者による操作に基づく指令,データ等を受けて、インタフェース18を介してCPU11に渡す。
インタフェース21は、画像処理装置1と機械学習装置100とを接続するためのインタフェースである。機械学習装置100は、機械学習装置100全体を統御するプロセッサ101と、システム・プログラム等を記憶したROM102、機械学習に係る各処理における一時的な記憶を行うためのRAM103、及び学習モデル等の記憶に用いられる不揮発性メモリ104を備える。機械学習装置100は、インタフェース21を介して画像処理装置1で取得可能な各情報(例えば、画像データ等)を観測することができる。また、画像処理装置1は、機械学習装置100から出力される判別結果をインタフェース21を介して取得する。
図2は、第1の実施形態による画像処理装置1と機械学習装置100の学習モードにおける概略的な機能ブロック図である。図2に示した各機能ブロックは、図1に示した画像処理装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、画像処理装置1及び機械学習装置100の各部の動作を制御することにより実現される。
本実施形態の画像処理装置1は、データ取得部30、対象物検出部32、部分画像抽出部34、参照画像作成部36、前処理部38、学習部110を備え、不揮発性メモリ14上に設けられた基準情報記憶部50には、予め図示しない外部記憶装置又は有線/無線のネットワークを介して取得した、又は予め作業者が撮像センサ4から取得した対象物の画像データに基づいて作成した(モデルパターンの作成方法については、例えば特開2017-091079合公報等を参照されたい)、対象物を表すモデルパターンやテンプレート等の基準情報が記憶されている。
データ取得部30は、撮像センサ4から、又は図示しない外部記憶装置や有線/無線ネットワークを介して、対象物に係る画像データを取得する機能手段である。
対象物検出部32は、データ取得部30が取得した対象物に係る画像データから、該画像データ内の対象物の位置及び姿勢を検出する機能手段である。対象物検出部32は、例えば基準情報記憶部50に記憶されている基準情報としてのモデルパターンを用いて、該モデルパターンとデータ取得部30が取得した対象物に係る画像データとの間で公知のマッチング処理を実行し、該画像データ内の対象物の位置姿勢を特定すれば良い。対象物検出部32は、画像データ内の検出した対象物の位置姿勢を表示装置70に対して表示し、作業者に対して確認と、対象物が属するクラスのラベル(アノテーション)の付与を促すようにしても良い。この時、作業者が付与するラベルは、例えば対象物の検出が正しい(OK)か誤検出(NG)か、対象物が良品(OK)であるか不良品(NG)であるか、といった2つのラベルや、3つ以上のラベル(大/中/小、種類A/種類B/…、等)を付与するようにしても良い。また、検出結果がある閾値以上であればOK、閾値以下であればNGと自動的にラベルを付与するようにし、必要に応じて作業者がラベルを修正できるようにしても良い。
部分画像抽出部34は、対象物検出部32が検出した画像データ内の対象物について、該対象物の位置姿勢に対して予め決められた抽出領域で切り抜いた部分画像を抽出する機能手段である。部分画像抽出部34は、切り抜いた対象物を表す部分画像について、公知の画像処理技術を用いて、部分画像データ内の対象物の位置姿勢が所定の対象物の位置姿勢となるように画像変換を行う(例えば、図7に例示されるように、対象物の所定の位置が画像内の上方向となるように部分画像を回転する等)。部分画像抽出部34が抽出した部分画像は、対象物検出部32で付与されたラベルと共に学習データ記憶部52に記憶される。なお、部分画像抽出部34が抽出する部分画像は、画像データ内の対象物の位置姿勢に対して予め決められた抽出領域で切り抜いたものであるため、例えば図7に例示されるように、抽出領域の一部が画像データの撮像範囲外となる場合がある。このような場合、部分画像のうちの画像データの撮像範囲外となる欠損部分は、後述する画像処理により前処理部38において補完される。なお、欠損部分は、画像データ内に写っている対象物の位置姿勢と、該対象物の位置姿勢に対して予め決められた抽出領域との位置関係に基づいて容易に判断できる。
参照画像作成部36は、部分画像抽出部34が抽出した部分画像の欠損部分を補完するために用いる参照画像を作成する機能手段である。参照画像作成部36が作成する参照画像は、機械学習装置100が、対象物を表す部分画像に基づいて該対象物が属するクラスを判別する際に中立な画素値の集合である。より具体的には、参照画像作成部36が作成する参照画像は、機械学習装置100が対象物を表す部分画像に基づいて該対象物が属するクラスの判別に用いる学習済みモデルにおける判別境界面乃至判別境界面に近い画像であり、該画像に写っている対象物がいずれのクラスに属するのかが判別しにくい画像である。
参照画像作成部36は、例えば、学習データ記憶部52に記憶された複数の学習データから複数の部分画像を取得し、取得した部分画像の平均画像を作成して、作成した平均画像を判別に中立な参照画像としても良い。このようにする場合、図3に例示されるように、学習データ記憶部52に記憶された複数の学習データの内で、欠損部分がないものについて、それぞれの部分画像に写っている対象物が属するクラス(例えば、クラスOKに属する対象物が写っている部分画像、クラスNGに属する対象物が写っている部分画像等)毎に、該クラスに属する対象物が写っている部分画像の平均画像を作成し、作成したそれぞれのクラス毎の平均画像の更なる平均画像を作成することで、参照画像を作成すれば良い。平均画像の作成には、例えば部分画像を構成する同一位置の画素の画素値を平均する等の一般的な手法を取る。このようにして作成した参照画像は、それぞれクラスの平均画像を計算することで、クラスに中立な平均画像を参照画像となる。
また、参照画像作成部36は、例えば、機械学習装置100において作成された学習済みモデルのパラメータに基づいて、判別に中立な画像を作成し、作成した画像を参照画像とするようにしても良い。例えば、機械学習装置100において作成された学習済みモデルがロジスティック回帰モデルである場合には、図4に例示されるように以下に示す数1式で定められる超平面が判別境界の面となる。なお、数1式において、ベクトルxは入力データとしての部分画像の各画素の画素値を要素とするベクトル値であり、また、yをシグモイド関数に入力することで部分画像が属するクラスに対する一致度が得られ、ベクトルWは学習モデルのパラメータを要素とするベクトル値、bは係数である。例えば、数1式における判別境界面上の任意のベクトルxiを参照画像とする事ができる。
Figure 0007148322000001
更に、|W|が最小となるという条件を付けることで、以下に示す数2式で算出されるベクトルxsを参照画像としても良い。
Figure 0007148322000002
なお、画像処理装置1が他クラス分類を行う場合には、上記数1式におけるyが複数値の組となるベクトルとなる場合もある。この様に画像処理装置1が他クラス分類を行う場合、学習済みモデルにおける判別境界はそれぞれの隣接するクラス間に複数存在することになるので、この場合においては、参照画像は部分画像と各判別境界との距離が最小となる場所を参照画像として定義すれば良い。
また、例えば、機械学習装置100において作成された学習済みモデルがニューラルネットワークモデルである場合にも、ニューラルネットワークのパラメータを解析し、判別境界面上の任意の画像を算出して、算出した画像を参照画像とすることができる。なお、判別境界を解析的に求めることが難しい場合には、入力データに係る特徴空間内における格子状の各点に対応する入力データを学習済みモデルに入力して判別を行い、その判別結果(クラス)が切り替わる格子点間の位置を結んだ面を判別境界とする、といったように判別境界を幾何的に求めるようにしても良い。
前処理部38は、学習データ記憶部52に記憶された学習データに対して前処理を行い、機械学習装置100による学習に用いる教師データを作成する機能手段である。前処理部38は、教師データを作成するための前処理として、学習データに含まれる対象物を表す部分画像に欠損部分がある場合、参照画像作成部36が作成した参照画像を用いて該欠損部分の補完を行う。前処理部38は、例えば対象物を表す部分画像の欠損部分の画素値を、参照画像の同じ部分の画素値で置き換える(埋める)ことにより該欠損部分を補完する。
学習部110は、前処理部38が作成した教師データTを用いた教師あり学習を行い、対象物を表す部分画像から該対象物が属するクラスを判別するために用いられる学習済みモデルを生成する(学習する)機能手段である。本実施形態の学習部110は、例えばロジスティック回帰モデルを学習モデルとして用いた教師あり学習を行うように構成しても良い。このように構成する場合、学習部110は、前処理部38から入力された教師データTに含まれる部分画像の各画素値を学習モデルに入力して一致度(0.0~1.0)を計算し、一方で、教師データTに含まれる検出結果のラベルが正解であれば1.0、不正解であれば0.0を目標値として、該目標値と計算した一致度との誤差を計算する。そして、学習部110は、学習モデルで誤差を逆伝播することで学習モデルのパラメータを更新する(誤差逆伝播法)。また、本実施形態の学習部110は、例えばニューラルネットワークを学習モデルとして用いた教師あり学習を行うように構成しても良い。この様に構成する場合、学習モデルとしては入力層、中間層、出力層の三層を備えたニューラルネットワークを用いても良いが、三層以上の層を為すニューラルネットワークを用いた、いわゆるディープラーニングの手法を用いることで、より効果的な学習及び推論を行うように構成することも可能である。学習部110が生成した学習済みモデルは、不揮発性メモリ104上に設けられた学習モデル記憶部130に記憶され、判別部120による対象物に係る画像データから該対象物が属するクラスの判別処理に用いられる。
上記のように構成された本実施形態の画像処理装置1では、対象物が撮像範囲の端にあった場合等で、抽出された部分画像に欠損部分があった場合であっても、該欠損部分を機械学習に悪影響が出ない画素値で補完することができ、効果的な学習を行うことができるようになる。
図5は、第2の実施形態による画像処理装置1と機械学習装置100の判別モードにおける概略的な機能ブロック図である。図5に示した各機能ブロックは、図1に示した画像処理装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、画像処理装置1及び機械学習装置100の各部の動作を制御することにより実現される。
本実施形態の画像処理装置1は、判別モードにおいて、データ取得部30が取得した対象物に係る画像データに基づいて該対象物が属するクラスを判別する判別部120を備える。本実施形態による画像処理装置1において、データ取得部30、対象物検出部32、部分画像抽出部34、参照画像作成部36が備える機能は第1の実施形態のものと同様のものである。
前処理部38は、部分画像抽出部34により抽出された対象物を表す部分画像に基づいて、機械学習装置100による判別に用いる状態データSを作成する。前処理部38は、状態データSを作成するための前処理として、対象物を表す部分画像に欠損部分がある場合、参照画像作成部36が作成した参照画像を用いて該欠損部分の補完を行う。前処理部38が実行する欠損部分の補完処理は、第1の実施形態で説明したものと同様である。この前処理部38が実行する欠損部分の補完処理は、このように学習モードでも判別モードでも利用される。
判別部120は、前処理部38から入力された状態データSに基づいて、学習モデル記憶部130に記憶された学習済みモデルを用いた対象物を表す部分画像に基づく該対象物のクラスの判定を行う。本実施形態の判別部120では、学習部110による教師あり学習により生成された(パラメータが決定された)学習済みモデルに対して、前処理部38から入力された状態データS(対象物を表す部分画像)を入力データとして入力することで該対象物が属するクラスを判別(算出)する。判別部120が判別した対象物が属するクラスは、例えば表示装置70に表示出力したり、図示しない有線/無線ネットワークを介してホストコンピュータやクラウドコンピュータ等に送信出力して利用するようにしても良い。
上記のように構成された本実施形態の画像処理装置1では、様々な対象物を撮像して得られた撮像画像から抽出された、対象物を表す部分画像に欠損部分がある場合に、参照画像に基づく補完を行うことで、保管された部分画像に基づいて適切に対象物が属するクラスを判別することができるようになる。
以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
例えば、機械学習装置100が実行する学習アルゴリズム、機械学習装置100が実行する演算アルゴリズム、画像処理装置1が実行する制御アルゴリズム等は、前記したものに限定されず、様々なアルゴリズムを採用できる。
また、上記した実施形態では画像処理装置1と機械学習装置100が異なるCPU(プロセッサ)を有する装置として説明しているが、機械学習装置100は画像処理装置1が備えるCPU11と、ROM12に記憶されるシステム・プログラムにより実現するようにしても良い。
1 画像処理装置
4 撮像センサ
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
17,18,19 インタフェース
20 バス
21 インタフェース
30 データ取得部
32 対象物検出部
34 部分画像抽出部
36 参照画像作成部
38 前処理部
50 基準情報記憶部
52 学習データ記憶部
70 表示装置
71 入力装置
100 機械学習装置
101 プロセッサ
102 ROM
103 RAM
104 不揮発性メモリ
110 学習部
120 判別部
130 学習モデル記憶部

Claims (3)

  1. 入力画像から検出した対象物が属するクラスを学習又は推論するためのデータを生成可能な画像処理装置であって、
    前記入力画像から対象物を検出する対象物検出部と、
    前記入力画像から前記対象物検出部が検出した前記対象物を表す部分画像を抽出する部分画像抽出部と、
    前記対象物が属するクラスの判別に中立な画素値の集合である参照画像を作成する参照画像作成部と、
    前記部分画像抽出部が抽出した前記対象物を表す部分画像に欠損部分がある場合、前記参照画像の画素値に基づいて、前記欠損部分の画素値を補完する前処理部と、
    を備えた画像処理装置。
  2. 前記参照画像作成部は、部分画像に写っている対象物が属するクラスの判別に用いる学習済みモデルを生成するために使用する複数の学習データに含まれる部分画像を、該部分画像に付与されたラベル毎に平均画像を作成し、更にラベル毎に作成された前記平均画像の平均画像を参照画像として作成する、
    請求項1に記載の画像処理装置。
  3. 前記参照画像作成部は、部分画像に写っている対象物が属するクラスの判別に用いる学習済みモデルのパラメータに基づいて参照画像を作成する、
    請求項1に記載の画像処理装置。
JP2018156540A 2018-08-23 2018-08-23 画像処理装置 Active JP7148322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156540A JP7148322B2 (ja) 2018-08-23 2018-08-23 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156540A JP7148322B2 (ja) 2018-08-23 2018-08-23 画像処理装置

Publications (2)

Publication Number Publication Date
JP2020030681A JP2020030681A (ja) 2020-02-27
JP7148322B2 true JP7148322B2 (ja) 2022-10-05

Family

ID=69622902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156540A Active JP7148322B2 (ja) 2018-08-23 2018-08-23 画像処理装置

Country Status (1)

Country Link
JP (1) JP7148322B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021193779A1 (ja) * 2020-03-27 2021-09-30
WO2023127614A1 (ja) * 2021-12-28 2023-07-06 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム
JPWO2023127613A1 (ja) * 2021-12-28 2023-07-06

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151813A (ja) 2016-02-25 2017-08-31 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151813A (ja) 2016-02-25 2017-08-31 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Amirabbas Davari et al.,GMM-Based Synthetic Samples for Classification of Hyperspectral Images With Limited Training Data,IEEE Geoscience and Remote Sensing Letters,米国,2018,2018年06月,Vol.15, No.6,pp.942-946,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8333743
金子 拓也,データマイニングにおける新しい欠損値補完方法の提案,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2005年04月01日,第J88-D-II巻 第4号,pp.675~686

Also Published As

Publication number Publication date
JP2020030681A (ja) 2020-02-27

Similar Documents

Publication Publication Date Title
JP7148322B2 (ja) 画像処理装置
CN110462628B (zh) 估计作业车辆的动作的方法、系统、分类模型的制造方法以及学习数据及其制造方法
JP5787642B2 (ja) 対象物保持装置、対象物保持装置の制御方法、およびプログラム
US10430650B2 (en) Image processing system
CN111797650A (zh) 障碍物的识别方法、装置、计算机设备和存储介质
US10445868B2 (en) Method for detecting a defect on a surface of a tire
US10960550B2 (en) Identification code reading apparatus and machine learning device
JP6347589B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7299002B2 (ja) 判別装置及び機械学習方法
CN111814905A (zh) 目标检测方法、装置、计算机设备和存储介质
US20230201973A1 (en) System and method for automatic detection of welding tasks
CN110599441A (zh) 接缝检查装置
JP4978227B2 (ja) 画像検出装置
JP2015219868A (ja) 情報処理装置、情報処理方法、プログラム
JP7209657B2 (ja) 情報処理装置及び方法
CN110942083A (zh) 拍摄装置以及拍摄系统
US20210042576A1 (en) Image processing system
US20240013542A1 (en) Information processing system, information processing device, information processing method, and recording medium
CN110895719A (zh) 验证装置
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
CN113167568B (zh) 坐标计算装置、坐标计算方法和计算机可读记录介质
CN116724224A (zh) 加工面判定装置、加工面判定程序、加工面判定方法、加工系统、推论装置及机器学习装置
JP7347539B2 (ja) 前景抽出装置、前景抽出方法、及び、プログラム
WO2024184976A1 (ja) 画像処理装置
JP7502448B2 (ja) 検査装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150