JP6897100B2 - 判定装置、判定方法、および判定プログラム - Google Patents

判定装置、判定方法、および判定プログラム Download PDF

Info

Publication number
JP6897100B2
JP6897100B2 JP2017001363A JP2017001363A JP6897100B2 JP 6897100 B2 JP6897100 B2 JP 6897100B2 JP 2017001363 A JP2017001363 A JP 2017001363A JP 2017001363 A JP2017001363 A JP 2017001363A JP 6897100 B2 JP6897100 B2 JP 6897100B2
Authority
JP
Japan
Prior art keywords
image
determination
saliency map
visual attention
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017001363A
Other languages
English (en)
Other versions
JP2018112787A (ja
Inventor
智 雨宮
智 雨宮
秀城 阿部
秀城 阿部
鈴木 達也
達也 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017001363A priority Critical patent/JP6897100B2/ja
Publication of JP2018112787A publication Critical patent/JP2018112787A/ja
Application granted granted Critical
Publication of JP6897100B2 publication Critical patent/JP6897100B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本件は、判定装置、判定方法、および判定プログラムに関する。
工場の製造ラインなどにおいて、作業の異常判定に、カメラによる撮像結果が用いられている。
特開2002−319024号公報 特開2011−29763号公報
撮像装置を用いた異常判定において、観察するべき領域が撮像全体の一部である場合がある。この場合、撮像全体を異常判定に用いると、重要ではない領域が判定結果に影響を及ぼすことがある。そこで、異常判定の精度を向上させるため、関心領域(ROI:Region of Interest)を設定することが考えられる。この場合、重要ではない領域の影響が抑制されるため、異常判定の精度が向上することになる。
しかしながら、作業者が手動でROIを設定する必要があるため、工数が必要となってしまう。そこで、ROIを自動的に抽出する実用的な技術としてテンプレートマッチングを用いることが考えられる。この技術では、テンプレートとなる注目部材の画像を事前にデータベース等に保存しておき、画像内でテンプレート画像とマッチングする部材が撮像されている小領域を自動抽出し、その周辺がROIとして設定される。しかしながら、テンプレートマッチングは高精度ではあるものの、拡大縮小に弱い、回転に弱い、ノイズに弱い等といった欠点が知られている。したがって、ROIを自動設定するためには、様々な方向の同一部材、拡大縮小させた同一部材の大量画像が必要となり、これらの大量画像を収集するための工数が必要であった。さらに、環境が変化する、部品ロットが変化する、作業が変化するといった変化・変動が生じた場合には再びテンプレートとなる画像を追加しなければならないため、さらなる工数が必要となる。
テンプレートマッチングは、人間が意識的に重要と認識している対象に対しては、テンプレート画像を登録するという意味で有効である。しかしながら、人間が無意識的に重要と判断し、注意を向けそうな領域に対しては、テンプレートマッチングでは検出することが困難である。
1つの側面では、本発明は、高精度な異常判定を少ない工数で実現することができる判定装置、判定方法および判定プログラムを提供することを目的とする。
1つの態様では、判定装置は、作業対象物の画像を取得する撮像装置と、判定部と、を有し、前記判定部は、前記画像から複数の特徴成分を抽出し、抽出された前記複数の特徴成分を足し合わせて人間の受動的な視覚注意機能をモデル化した顕著性マップを作成し、データベースに格納された前記作業対象物の複数の部品の画像を用いて、前記複数の特徴成分を足し合わせる際の重み付けを修正することにより前記顕著性マップを修正し、修正された前記顕著性マップを用いて前記画像から視覚注意領域を抽出し、抽出された前記視覚注意領域を用いて異常判定の基準を作成する
高精度な異常判定を少ない工数で実現することができる。
実施例1に係る作業装置の全体構成を説明するための図である。 異常判定に用いる識別器の作成処理を表すフローチャートを例示する図である。 顕著性マップの作成を例示する図である。 (a)は顕著性マップ作成前の元画像を例示する図であり、(b)は輝度成分、色相成分、および方向成分の統合特徴マップを均等に統合した例である。 重み係数の修正を例示する図である。 異常検知処理を表すフローチャートを例示する図である。 顕著性マップの作成を例示する図である。 重み係数の修正を例示する図である。 (a)は判定装置のハードウェア構成を例示するブロック図であり、(b)は変形例2にかかる作業システムについて例示する図である。
以下、図面を参照しつつ、実施例について説明する。
図1は、実施例1に係る作業装置100の全体構成を説明するための図である。図1で例示するように、作業装置100は、作業ロボット10、コントローラ20、カメラ30、判定装置40などを備える。
作業ロボット10は、ロボットハンド11などを備える。ロボットハンド11は、作業対象物に対して所定の作業を行う装置である。センサ12は、ロボットハンド11の力、変位等を検出するセンサであり、一例として、歪ゲージ、力覚センサ、加速度センサなどである。コントローラ20は、所定のタイミングで作業ロボット10に作業指示を行う制御装置である。カメラ30は、作業ロボット10の作業画像を取得する装置であり、主として作業対象物(ワークなど)の画像を取得する。カメラ30は、複数備わっていてもよい。
判定装置40は、カメラ30が取得した作業画像に基づいて、作業ロボット10の作業状況の良否(正常/異常)を判定する。判定装置40は、データベース41、特徴抽出部42、マップ作成部43、マップ修正部44、学習部45、スコア算出部46、判定部47などを備える。
データベース41は、ロボットハンド11が作業を行う作業対象物の各部品の画像群を注目画像群として格納している。また、データベース41は、訓練用データ群(訓練用正常データ群および訓練用異常データ群)、およびテストデータ群を格納している。訓練用正常データ群には、予め作業ロボット10に作業を行わせ、目視等で作業状況が「正常」と判定された場合の各カメラ30の取得画像が含まれている。訓練用異常データ群には、予め作業ロボット10に作業を行わせ、目視で作業状況が「異常」と判定された場合の各カメラ30の取得画像が含まれている。訓練用正常データ群および訓練用異常データ群は、学習部45が機械学習により、測定データの異常判断を行うための基準(基準範囲)を作成するための訓練データ群である。機械学習とは、訓練データ群を基にして、未知の測定データのラベル(正常/異常)を推定することである。
テストデータ群は、学習部45が作成した基準範囲の性能を検査するために、予め作成しておいたデータ群である。テストデータ群は、「正常」のラベルが付いたテストデータ(正常テストデータ群)と、「異常」のラベルが付いたテストデータ(異常テストデータ群)とを含む。正常テストデータ群には、予め作業ロボット10に作業を行わせ、目視等で作業状況が「正常」と判定された場合の各カメラ30の取得画像が含まれている。異常テストデータ群には、予め作業ロボット10に作業を行わせ、目視で作業状況が「異常」と判定された場合の各カメラ30の取得画像が含まれている。訓練用正常データ群および訓練用異常データ群と、テストデータ群とは、一部が重複していてもよい。
続いて、図2を参照しつつ、異常判定に用いる識別器の作成処理について説明する。図2は、異常判定に用いる識別器の作成処理を表すフローチャートを例示する図である。
図2で例示するように、特徴抽出部42は、カメラ30から作業画像を取得する(ステップS1)。例えば、特徴抽出部42は、作業対象物(ワークなど)の画像を取得する。
次に、特徴抽出部42は、カメラ30が取得した画像から、人間の受動的な視覚注意機能に基づく特徴成分を抽出する(ステップS2)特徴成分として、例えば、輝度特徴、色相特徴、方向特徴、動き特徴等を用いることができる。本実施例においては、一例として、輝度特徴、色相特徴および方向特徴の3つの特徴成分を抽出する。図3で例示するように、特徴抽出部42は、カメラ30が取得した画像から、輝度特徴、色相特徴および方向特徴を抽出する。
次に、マップ作成部43は、特徴抽出部42が抽出した特徴成分から、それぞれ特徴マップを作成する(ステップS3)。特徴マップは、各特徴成分に基づいて抽出された視覚注意領域の分布のことである。具体的には、マップ作成部43は、画像ピラミッドにスケール(分散)の異なるガウシアンフィルタを適用することにより、ガウシアンピラミッドを作成する。画像ピラミッドとは、解像度が異なる同一の画像群のことである。マップ作成部43は、ガウシアンピラミッドの各画像から、スケールの異なるガウシアンピラミッドの各画像の差分処理(中心周辺差分処理)を実施することで、輝度成分、色相成分および方向成分の特徴マップを作成する。
例えば、マップ作成部43は、下記式(1)に従って、輝度成分の特徴マップIを作成する。「σ」は、スケール(分散値)を表す。「r」、「g」、「b」は、それぞれ赤色成分、緑色成分、青色成分を表す。r(σ)は、分散σにおける赤色成分である。g(σ)は、分散σにおける緑色成分である。b(σ)は、分散σにおける青色成分である。
Figure 0006897100
マップ作成部43は、下記式(2)に従って、輝度成分の中心周辺差分処理と総和とによって、輝度成分の統合特徴マップIを作成する。例えば、S={2,3,4}、N={3,4}とする。下記式(2)によれば、異なる分散値の輝度値の差分を求めることにより、中心成分(σの小さな画像)と周辺成分(σの大きな画像)との差分を取得することができる。それにより、輝度において中心視と周辺視との差異が大きなものを抽出することができる。なお、「δ」は、σ(標準偏差)における、0よりも大きな微小量を表す。
Figure 0006897100
次に、マップ作成部43は、下記式(3)〜(6)に従って、色相成分の特徴マップを作成する。R(σ)は、赤色成分の特徴マップである。G(σ)は、緑色成分の特徴マップである。B(σ)は、青色成分の特徴マップである。Y(σ)は、黄色成分の特徴マップである。
Figure 0006897100
Figure 0006897100
Figure 0006897100
Figure 0006897100
さらに、マップ作成部43は、下記式(7)、(8)に従って、赤色成分の特徴マップと緑色成分の特徴マップとの差分RG(σ)と、青色成分の特徴マップと黄色成分の特徴マップとの差分BY(σ)と、を作成する。
Figure 0006897100
Figure 0006897100
マップ作成部43は、下記式(9)に従って、色相成分の中心周辺差分処理と総和とによって、色相成分の統合特徴マップCを作成する。
Figure 0006897100
次に、マップ作成部43は、下記式(10)に従って、方向成分の特徴マップを作成する。Ψ(θ)は、ガボールフィルタである。θは、例えば、0°〜135°までの45°刻みの4方向である。マップ作成部43は、下記式(11)に従って、方向成分の中心周辺差分処理と総和とによって、方向成分の統合特徴マップOを作成する。ここで、Θは、{0°,45°,90°,135°}の集合である。
Figure 0006897100
Figure 0006897100
次に、マップ作成部43は、下記式(12)に従って、それぞれ計算した輝度成分、色相成分、方向成分の統合特徴マップを重み付け加算することで顕著性マップSを作成する(ステップS4)。例えば、重み係数ωは、3特徴であれば等分の1/3とし、4特徴であれば等分の1/4とする。本実施例は3特徴を用いているため、重み係数ωを1/3とする、マップ作成部43は、得られた顕著性マップを画像のメッシュごとに保持する。
Figure 0006897100
ところで、顕著性マップは、人間の受動的な視覚注意機能をモデル化したものである。すなわち、顕著性マップは、人間が能動的に注視したい(積極的に重要視したい)対象をモデル化しているわけではない。したがって、異常判定に必要な部材の画像領域を抽出することが難しくなる。例えば、様々な部材が取り付けられた複雑な基盤上を操作する場合には、人間が受動的に注意を向けてしまう箇所が多量となるため、重要な部品を選択的に抽出することが難しくなる。
例えば、図4(a)は、顕著性マップ作成前の元画像を例示する。図4(b)は、輝度成分、色相成分、および方向成分の統合特徴マップを均等に統合した例である。図4(b)で例示するように、顕著性マップにおいては、白色部分A,Bが重要な領域を表している。しかしながら、重要視したい部品以外の部分が白色として抽出されることがある。
そこで、マップ修正部44は、重要な部品を選択的に抽出するために、データベース41が格納している注目画像を用いて、顕著性マップを修正する(ステップS5)。例えば、テンプレートマッチングと異なる工程として、注目画像をそのまま利用するのではなく、顕著性マップの重み係数を修正する。
図5は、重み係数の修正を例示する図である。図5で例示するように、マップ修正部44は、注目画像の輝度成分、色相成分および方向成分の統合特徴マップを、顕著性マップを作成するのと同じ要領で作成した後に、それぞれの成分比率を基に下記式(13)〜(15)に従って、重み係数の修正を実施する。ここで注目画像の輝度成分の統合特徴マップをI、色相成分の統合特徴マップをC、方向成分の統合特徴マップをOとしている。また、統合特徴マップの画像ピクセルの集合をPとしている。図5の例では、ωが1/2に修正され、ω,ωが1/4に修正されている。ステップS5の実行によって、画像メッシュごとに、顕著性マップの値を重要度として算出することができる。
Figure 0006897100
Figure 0006897100
Figure 0006897100
次に、学習部45は、データベース41から、学習データ群(訓練データ群およびテストデータ群)を取得する(ステップS6)。次に、学習部45は、訓練データを用いて、異常検知のための識別器を作成する(ステップS7)。以上の工程により、異常検知のための識別器を作成することができる。識別器とは、作業状況の良否を判定する個別の主体のことであり、例えば、SVM(Support Vector Machine)識別器である。識別器を設けることは、作業良否を判定するための個別の基準(基準範囲)を作成することと同義である。例えば、識別器を用いることで、作業対象物における部品の位置や姿勢などが基準範囲に収まっているか否かを判定できるようになる。
なお、識別器は、所定の時刻における静止画像に基づいて作業の異常検知を行ってもよく、所定の時間範囲の動画像に基づいて異常検知を行ってもよい。動画像を用いる場合には、訓練データ群およびテストデータ群として、所定の時間範囲のデータ群を用いる。また、顕著性マップについては、カメラ30が取得する所定の時間範囲の動画像のフレームごとに顕著性マップを作成する。学習部45は、所定時間範囲の顕著性マップと、所定時間範囲の訓練データ群およびテストデータ群を用いて、識別器を作成すればよい。以下の異常検知処理については、所定の時間範囲の動画像に基づいて異常検知を行う場合の処理について説明する。
次に、図6を参照しつつ、異常検知処理について説明する。図6は、異常検知処理を表すフローチャートを例示する図である。図6で例示するように、判定部47は、ロボットハンド11が作業を開始した時刻に、カメラ30からの画像取得時間kにゼロを代入する(ステップS11)。その後、判定部47は、画像取得時間kをカウントする。次に、判定部47は、画像取得時間kがロボットハンド11の作業時間T未満であるか否かを判定する(ステップS12)。
ステップS12で「Yes」と判定された場合、スコア算出部46は、画像取得時間kにおける画像メッシュxjkを取得する(ステップS13)。「j」は、各メッシュの位置を表し、例えばメッシュの番号である。次に、スコア算出部46は、メッシュごとに、識別器を用いて異常スコアsjkを計算する(ステップS14)。異常スコアは、識別器が持つ基準からの乖離度合が大きければ大きい値となり、当該乖離度合が小さければ小さい値となるように設定されている。したがって、異常スコアが小さければ正常な作業が行われていることになり、異常スコアが大きければ異常が生じていることになる。
次に、判定部47は、係数αjkに修正顕著性マップのメッシュごとの平均値を代入し、異常スコアsjkに乗算し、各乗算値の全メッシュでの総和を計算する(ステップS15)。次に、判定部47は、当該総和が閾値を超えるか否かを判定することで、異常検知を行う(ステップS16)。ステップS16で異常が検知された場合、判定部47は、異常に係る信号を出力する。ステップS16の実行後、ステップS12から再度実行される。ステップS12で「No」と判定された場合、異常検知処理が終了する。
本実施例によれば、人間の視覚注意機能のモデルとして、複数の特徴成分を足し合わせる手法が採用されている。この構成によれば、人間が受動的に注意を向ける視覚注意領域を精度よく抽出することができる。一方、注目画像を用いて顕著性マップの重み係数を自動調整することで、当該モデルが修正されている。それにより、重要な部品が選択的に抽出されることになる。したがって、人間の感覚に近いROIの抽出を自動で実現することができる。自動でROIが抽出されることから、ROIを手動で設定する工数を省略することができる。また、ROIを抽出して識別器を作成することから、高精度な異常判定を実現することができる。以上のことから、高精度な異常判定を少ない工数で実現することができる。また、顕著性マップの重み係数を修正する手法を採用すれば、テンプレートマッチングとは異なり、拡大縮小や回転にも強く、学習数を多く必要としないため、工数を削減することができる。
(変形例1)
実施例1では、特徴成分として輝度特徴、色相特徴および方向特徴の3つの特徴成分を用いる場合について説明したが、それに限られない。2つの特徴成分や、4つ以上の特徴成分を用いてもよい。そこで、変形例1では、特徴成分として、輝度特徴、色相特徴、方向特徴、および動き特徴を用いる場合の例について説明する。主として、実施例1と異なる点について説明する。
マップ作成部43は、図7で例示するように、実施例1と同様に、輝度成分、色相成分、方向成分の統合特徴マップを作成する。次に、マップ作成部43は、下記式(16)に従って、動き成分の特徴マップを作成する。次に、マップ作成部43は、下記式(17)に従って、動き成分の中心周辺差分処理と総和とによって、動き成分の統合特徴マップMを作成する。次に、マップ作成部43は、これら4つの特徴マップの重み付けを等分の1/4とし、重み付け加算することで顕著性マップを作成する。なお、「n」はフレーム番号(時刻)を表す。L(σ,θ)は、例えばラプラシアンフィルタであって、がボールフィルタO(σ,θ)を空間シフトしたものである。これにより、時空間の動きのみを抽出することができる。
Figure 0006897100
Figure 0006897100
次に、マップ修正部44は、図8で例示するように、注目画像の輝度成分、色相成分、方向成分、および動き成分の統合特徴マップを、顕著性マップを作成するのと同じ要領で作成した後に、それぞれの成分比率を基に下記式(18)〜(21)に従って、重み係数の修正を実施する。学習部45は、訓練データを用いて、異常検知のための識別器を作成する。それにより、異常検知のための識別器を作成することができる。
Figure 0006897100
Figure 0006897100
Figure 0006897100
Figure 0006897100
本変形例によれば、特徴成分としてさらに動き特徴を用いることで、人間の感覚により近いROIの抽出を自動で実現することができる。
図9(a)は、判定装置40のハードウェア構成を例示するブロック図である。図9(a)を参照して、判定装置40は、CPU101、RAM102、記憶装置103、表示装置104等を備える。CPU(Central Processing Unit)101は、中央演算処理装置である。
CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。記憶装置103は、判定プログラムを記憶している。表示装置104は、液晶ディスプレイ、エレクトロルミネッセンスパネルなどであり、判定結果を表示する。なお、本実施例においては判定装置40の各部は、プログラムの実行によって実現されているが、専用の回路などのハードウェアを用いてもよい。
(変形例2)
図9(b)は、変形例2にかかる作業システムについて例示する図である。上記各例においては、判定装置40は、カメラ30から作業画像を取得している。これに対して、判定装置40の機能を有するサーバ202が、インターネットなどの電気通信回線201を通じてカメラ30から作業画像を取得してもよい。
上記各例において、カメラ30が、作業対象物の画像を取得する撮像装置の一例として機能する。特徴抽出部42およびマップ作成部43が、前記撮像装置が取得した画像から、人間の視覚注意機能のモデルを用いて視覚注意領域を抽出する抽出部の一例として機能する。マップ修正部44が、データベースに格納された前記作業対象物の部品の画像を用いて、前記モデルを修正する修正部の一例として機能する。学習部45が、前記修正部によって修正された前記モデルを用いて前記抽出部が抽出した前記視覚注意領域を用いて、異常判定の基準を作成する基準作成部の一例として機能する。判定部47が、作業ロボットが前記作業対象物に対して作業を行う際に前記撮像装置が取得した作業画像と、前記基準作成部が作成した前記基準との乖離度合いに応じて異常判定を行う判定部の一例として機能する。
以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 作業ロボット
11 ロボットハンド
20 コントローラ
30 カメラ
40 判定装置
41 データベース
42 特徴抽出部
43 マップ作成部
44 マップ修正部
45 学習部
46 スコア算出部
47 判定部
100 作業装置

Claims (6)

  1. 作業対象物の画像を取得する撮像装置と、
    判定部と、を有し、
    前記判定部は、前記画像から複数の特徴成分を抽出し、抽出された前記複数の特徴成分を足し合わせて人間の受動的な視覚注意機能をモデル化した顕著性マップを作成し、データベースに格納された前記作業対象物の複数の部品の画像を用いて、前記複数の特徴成分を足し合わせる際の重み付けを修正することにより前記顕著性マップを修正し、修正された前記顕著性マップを用いて前記画像から視覚注意領域を抽出し、抽出された前記視覚注意領域を用いて異常判定の基準を作成することを特徴とする判定装置。
  2. 前記複数の特徴成分は、輝度成分、色相成分および方向成分を含むことを特徴とする請求項1記載の判定装置。
  3. 前記判定部は、作業ロボットが前記作業対象物に対して作業を行う際に前記撮像装置が取得した作業画像と、前記基準との乖離度合いに応じて異常判定を行うことを特徴とする請求項1または2に記載の判定装置。
  4. 前記判定部は、前記画像の分割された小領域ごとに前記基準を作成し、前記作業画像の前記小領域ごとに、前記小領域と前記基準との乖離度合いを求め、当該結果を前記異常判定に反映させることを特徴とする請求項3記載の判定装置。
  5. コンピュータが、
    作業対象物の画像を取得する撮像装置が取得した画像から複数の特徴成分を抽出し、抽出された前記複数の特徴成分を足し合わせて人間の受動的な視覚注意機能をモデル化した顕著性マップを作成する処理と、
    データベースに格納された前記作業対象物の複数の部品の画像を用いて、前記複数の特徴成分を足し合わせる際の重み付けを修正することにより前記顕著性マップを修正する処理と、
    修正された前記顕著性マップを用いて前記画像から視覚注意領域を抽出する処理と、
    抽出された前記視覚注意領域を用いて異常判定の基準を作成する処理と、を実行することを特徴とする判定方法。
  6. コンピュータに、
    作業対象物の画像を取得する撮像装置が取得した画像から複数の特徴成分を抽出し、抽出された前記複数の特徴成分を足し合わせて人間の受動的な視覚注意機能をモデル化した顕著性マップを作成する処理と、
    データベースに格納された前記作業対象物の複数の部品の画像を用いて、前記複数の特徴成分を足し合わせる際の重み付けを修正することにより前記顕著性マップを修正する処理と、
    修正された前記顕著性マップを用いて前記画像から視覚注意領域を抽出する処理と、
    抽出された前記視覚注意領域を用いて異常判定の基準を作成する処理と、を実行させることを特徴とする判定プログラム。
JP2017001363A 2017-01-06 2017-01-06 判定装置、判定方法、および判定プログラム Active JP6897100B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017001363A JP6897100B2 (ja) 2017-01-06 2017-01-06 判定装置、判定方法、および判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017001363A JP6897100B2 (ja) 2017-01-06 2017-01-06 判定装置、判定方法、および判定プログラム

Publications (2)

Publication Number Publication Date
JP2018112787A JP2018112787A (ja) 2018-07-19
JP6897100B2 true JP6897100B2 (ja) 2021-06-30

Family

ID=62912289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017001363A Active JP6897100B2 (ja) 2017-01-06 2017-01-06 判定装置、判定方法、および判定プログラム

Country Status (1)

Country Link
JP (1) JP6897100B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038485A (ja) * 2018-09-04 2020-03-12 富士通株式会社 学習装置、判定装置、学習方法、判定方法、学習プログラムおよび判定プログラム
JP2022177613A (ja) * 2021-05-18 2022-12-01 株式会社日立製作所 ロボット制御システム、ロボット制御方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07332951A (ja) * 1994-06-13 1995-12-22 Hiyuu Burein:Kk 画像検査装置および画像検査方法
JP4840426B2 (ja) * 2008-09-24 2011-12-21 ソニー株式会社 電子機器、ぼけ画像選別方法及びプログラム
US8649606B2 (en) * 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
JP5803159B2 (ja) * 2011-03-08 2015-11-04 株式会社デンソーウェーブ ロボット監視システム、及びロボット監視システムの異常判定方法

Also Published As

Publication number Publication date
JP2018112787A (ja) 2018-07-19

Similar Documents

Publication Publication Date Title
US11227144B2 (en) Image processing device and method for detecting image of object to be detected from input data
US10699400B2 (en) Image processing apparatus, image processing method, and storage medium
US20170249766A1 (en) Image processing device for displaying object detected from input picture image
US10430650B2 (en) Image processing system
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
EP2740075A1 (en) System and method for remote full field three-dimensional displacement and strain measurements
JP6688962B2 (ja) 判定装置、判定方法、および判定プログラム
JP6483168B2 (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
JP6317725B2 (ja) 取得された画像内のクラッタを決定するためのシステム及び方法
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
WO2019053842A1 (ja) 変状検出装置
JP6897100B2 (ja) 判定装置、判定方法、および判定プログラム
JP5704909B2 (ja) 注目領域検出方法、注目領域検出装置、及びプログラム
JP7186128B2 (ja) 物品認識システムおよび物品認識方法
US20210042576A1 (en) Image processing system
CN117218633A (zh) 一种物品检测方法、装置、设备及存储介质
JP2021136555A5 (ja)
KR101575934B1 (ko) 관성 센서 및 광학 센서를 이용한 모션 캡쳐 장치 및 방법
JP7343336B2 (ja) 検査支援装置および検査支援方法
WO2015086076A1 (en) Method for determining a similarity value between a first image and a second image
JP2004240909A (ja) 画像処理装置及び画像処理方法
WO2020111139A1 (ja) 座標算出装置、座標算出方法、及びコンピュータ読み取り可能な記録媒体
US20230068692A1 (en) Image processing device
KR101491334B1 (ko) 영상에서 컬러차트 검출 방법 및 장치
TWI817124B (zh) 位置/姿勢推定裝置、位置/姿勢推定方法及記錄其程式之記錄媒體

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150