JP2024004619A - カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム - Google Patents
カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム Download PDFInfo
- Publication number
- JP2024004619A JP2024004619A JP2022104320A JP2022104320A JP2024004619A JP 2024004619 A JP2024004619 A JP 2024004619A JP 2022104320 A JP2022104320 A JP 2022104320A JP 2022104320 A JP2022104320 A JP 2022104320A JP 2024004619 A JP2024004619 A JP 2024004619A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- recognition
- orientation
- environment information
- cad data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000004590 computer program Methods 0.000 title claims description 11
- 238000004088 simulation Methods 0.000 claims abstract description 27
- 238000009434 installation Methods 0.000 claims abstract description 12
- 238000011156 evaluation Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】十分な精度や信頼度で物体認識を行えるカメラを選択できる技術を提供する。【解決手段】本開示の方法は、(a)認識対象となる物体のCADデータを取得する工程と、(b)物体の設置環境に対するカメラの位置と、カメラの性能と、を含む認識環境情報を取得する工程と、(c)CADデータと認識環境情報を用いてシミュレーションを行うことによって、物体を含むシーンをカメラで撮影した画像を模擬した模擬画像を作成する工程と、(d)模擬画像を用いて、物体の位置姿勢を認識して認識結果を求める工程と、(e)認識結果を表示する工程と、を含む。【選択図】図5
Description
本開示は、カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラムに関する。
カメラを用いた物体認識は、例えば、ロボットで物体のピッキング作業を行うシステムなどで利用されている。特許文献1には、カメラを利用したワークの取出工程をシミュレーションするロボットシミュレーション装置が開示されている。この装置では、特定のカメラを使用する前提でシミュレーションが行われている。
しかしながら、特定の物体を認識するシーンを想定する場合に、カメラによって対象となる物体の見え方が変化することがある。このため、カメラの性能や配置によっては、物体認識の精度や信頼度が不十分となる可能性があった。このような問題は、ロボットシステム以外の他のシステムにおいてカメラによる物体認識を行う場合にも共通する問題であった。
本開示の第1の形態によれば、カメラによる物体認識を評価する方法が提供される。この方法は、(a)認識対象となる物体のCADデータを取得する工程と、(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する工程と、(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する工程と、(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める工程と、(e)前記認識結果を表示する工程と、を含む。
本開示の第2の形態によれば、カメラによる物体認識を評価するシステムが提供される。このシステムは、前記カメラによる物体認識の評価を行う認識評価部と、表示部と、を備える。前記認識評価部は、(a)認識対象となる物体のCADデータを取得する処理と、(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する処理と、(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する処理と、(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める処理と、(e)前記認識結果を前記表示部に表示する処理と、を実行する。
本開示の第3の形態によれば、カメラによる物体認識を評価する処理をプロセッサーに実行させるコンピュータープログラムが提供される。このコンピュータープログラムは、(a)認識対象となる物体のCADデータを取得する処理と、(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する処理と、(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する処理と、(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める処理と、(e)前記認識結果を表示する処理と、を前記プロセッサーに実行させる。
図1は、一実施形態におけるカメラ利用システムの一例を示す説明図である。このシステムは、ロボット100と、ロボット100を制御する制御装置200と、情報処理装置300と、カメラ400と、作業台500とを備えるロボットシステムである。情報処理装置300は、カメラ400の物体認識を評価する評価装置としての機能を有しており、例えばパーソナルコンピューターで実現される。なお、カメラ400の物体認識に関する評価は情報処理装置300のみで実行可能であり、現実のカメラ400やロボット100は不要である。また、カメラ利用システムとしては、ロボットシステム以外の他のシステムを採用してもよい。
ロボット100は、基台110と、ロボットアーム120と、を備えている。ロボットアーム120の先端部であるアームエンド122には、エンドエフェクターとしてのロボットハンド150が装着されている。ロボットハンド150は、ワークWKを把持することが可能なグリッパーや吸着パッドとして実現可能である。ロボットハンド150の先端部には、ロボット100の制御点としてのTCP(Tool Center Point)が設定されている。なお、制御点TCPは、任意の位置に設定可能である。
ロボットアーム120は、6つの関節J1~J6で順次接続されている。これらの関節J1~J6のうち、3つの関節J2,J3,J5は曲げ関節であり、他の3つの関節J1,J4,J6はねじり関節である。本実施形態では6軸ロボットを例示しているが、複数の関節を有する任意のロボットアーム機構を有するロボットを用いることが可能である。また、本実施形態のロボット100は、垂直多関節ロボットであるが、水平多関節ロボットを使用してもよい。
作業台500には、第1トレイ510と第2トレイ520が設置されている。第1トレイ510には、複数のワークWKが収容される。第2トレイ520は、第1トレイ510から取り出されたワークWKを載置する場所として使用される。ロボット100は、第1トレイ510からワークWKを取り出して、第2トレイ520に載置する作業を実行する。この際、ワークWKは、第2トレイ520内の予め定められた位置に、予め定められた姿勢で載置される。この作業を正確に行うため、ワークWKの位置姿勢の認識が実行される。ワークWKを「物体」とも呼ぶ。本実施形態では、同一仕様の複数の物体の位置姿勢を認識するが、仕様が異なる複数の物体の位置姿勢を認識する場合も本開示の内容を適用可能である。
作業台500の上方には、第1トレイ510内のワークWKの画像を撮影するカメラ400が設置されている。カメラ400で撮影された画像は、ワークWKの3次元的な位置及び姿勢を求めるために使用される。ワークWKの3次元的な位置及び姿勢を、以下では「位置姿勢」又は「物体の位置姿勢」と呼ぶ。また、ワークWKの位置姿勢を認識することを、単に「物体認識」と呼ぶ。
カメラ400としては、例えば、RGBDカメラやステレオカメラを用いることができる。RGBDカメラは、RGB画像を撮影するRGBカメラと、深度画像(Depth image)を撮影するDカメラと、を有するカメラである。
図2は、情報処理装置300の機能を示すブロック図である。情報処理装置300は、プロセッサー310と、メモリー320と、インターフェイス回路330と、を有している。インターフェイス回路330には、入力デバイス340と表示デバイス350が接続されており、また、制御装置200とカメラ400も接続されている。
プロセッサー310は、認識評価部610及びロボット制御実行部620としての機能を有する。認識評価部610は、複数の異なる種類又は型式のカメラ400について物体認識を評価することが可能である。認識評価部610は、シミュレーター611と認識環境情報取得部612と位置姿勢認識部613と認識結果作成部614の機能を含む。シミュレーター611は、ワークWKのCADデータを用いたシミュレーションを行うことによって、ワークWKを含むシーンをカメラ400で撮影した画像を模擬した模擬画像を作成する。認識環境情報取得部612は、シミュレーションに使用する認識環境情報を取得する。位置姿勢認識部613は、模擬画像を用いて、ワークWKの位置姿勢を認識する。ロボット制御実行部620は、予め作成されたロボット制御プログラムに従ってロボット100の制御を行う。認識評価部610とロボット制御実行部620の機能は、メモリー320に格納されたコンピュータープログラムをプロセッサー310が実行することによってそれぞれ実現される。但し、認識評価部610とロボット制御実行部620の機能の一部又は全部をハードウェア回路で実現してもよい。
メモリー320には、ワークWKの外形を表すCADデータCDと、カメラ環境情報REと、カメラ属性情報CAと、ロボット制御プログラムRPが格納される。カメラ環境情報REは、カメラ400が利用される環境に関する情報であり、例えば、物体の設置環境に対するカメラ400の位置などのデータを含んでいる。カメラ属性情報CAは、複数の異なる種類又は型式のカメラ400について、解像度、画素数、ISO感度、撮像素子サイズ、焦点距離、F値などのカメラ性能に関するデータと、カメラ400の価格などの他のデータを含んでいる。但し、カメラ属性情報CAは、少なくともカメラ性能に関するデータを含むことが好ましい。ロボット制御プログラムRPは、ロボット100を動作させる複数の命令で構成される。
図3は、シミュレーター611と位置姿勢認識部613の機能を示す説明図である。シミュレーター611は、ワークWKのCADデータCDと、カメラ環境情報REと、カメラ属性情報CAを用いてシミュレーションを行うことによって、ワークWKを含むシーンをカメラ400で撮影した画像を模擬した模擬画像SMを作成する。カメラ環境情報REとカメラ属性情報CAとをまとめて「認識環境情報REI」と呼ぶ。なお、カメラ400としてRGBDカメラを想定する場合には、模擬画像SMはRGB画像とデプス画像とを含むものとなる。また、カメラ400としてステレオカメラを想定する場合には、模擬画像SMは左画像と右画像とを含むものとなる。
位置姿勢認識部613は、模擬画像SMを用いて、ワークWKの位置姿勢Pjを認識する。jは、位置姿勢が認識されたワークWKを区別する序数である。模擬画像SMのシーンに複数のワークWKが含まれている場合には、位置姿勢認識部613は、少なくとも1つのワークWKの位置姿勢Pjを認識することが好ましく、可能な限り多数のワークWKの位置姿勢Pjを認識することが更に好ましい。ワークWKの位置姿勢Pj(x, y, z, u, v, w)は、例えば、3次元カメラ座標系における位置(x, y, z)と姿勢(u, v, w)で表現される。姿勢(u, v, w)は、3軸廻りの回転角度で表される。なお、カメラ座標系の代わりに、ロボット座標系やワールド座標系などの他の座標系でワークWKの位置姿勢Pjを表現するようにしてもよい。ワークWKの位置姿勢Pjの算出処理は、例えばテンプレートマッチングを利用して行われる。すなわち、ワークWKのCADデータCDを用いて、ワークWKの位置姿勢をシミュレーションすることによって複数の位置姿勢毎にテンプレートを予め作成しておく。位置姿勢認識部613は、模擬画像SMから点群を算出し、点群に対してテンプレートマッチングを行うことによってワークWKを検出し、その位置姿勢Pjを認識又は推定する。点群とは、3次元座標値で表現される点の集合である。なお、テンプレートマッチングの代わりに、他の方法を用いて物体の位置姿勢Pjを認識してもよい。例えば、畳み込みニューラルネットワークなどの機械学習モデルを用いてワークWKの位置姿勢Pjを認識してもよい。
図3の例では、同一シーンについて3つのワークWK1~WK3の位置姿勢Pjが認識されている。図3の例では更に、位置姿勢Pjが認識されたワークWKjを他のワークから識別可能に表示した認識結果画像RRjが描かれている。認識結果画像RRjにおいて、位置姿勢Pjが認識されたワークWKjは、他のワークと視覚的に識別可能な態様で描かれている。例えば、位置姿勢Pjが認識されたワークWKjの外形は実線で描かれており、他のワークの外形は点線で描かれている。このような認識結果画像RRjを作成して表示すれば、ユーザーが、同一シーンに含まれる複数のワークWKのうちのどのワークが認識されたかを容易に理解できる。
図4は、カメラの物体認識評価処理の手順を示すフローチャートである。ステップS10では、認識環境情報取得部612が、認識対象となる物体のCADデータを取得する。本実施形態では、ワークWKのCADデータCDがメモリー320から読み込まれる。CADデータCDが予めメモリー320に格納されていない場合には、ユーザーによってCADデータが入力される。
ステップS20では、認識環境情報取得部612が、カメラ400の位置と性能を含む認識環境情報REIを取得する。図3で説明したように、認識環境情報REIは、カメラ環境情報REとカメラ属性情報CAとを含んでいる。本実施形態では、カメラ環境情報REとカメラ属性情報CAがメモリー320から読み込まれる。これらの情報RE,CAが予めメモリー320に格納されていない場合には、ユーザーによってこれらの情報が入力される。
図5は、カメラ環境情報REの一例を示す説明図である。ここでは、カメラ環境情報REとして、ワーキングディスタンスWDと、カメラ400の2次元的な相対位置Pc(X,Y)と、カメラ400の視野VAと、が示されている。ワーキングディスタンスWDは、カメラ400の撮像面と作業領域WAとの間の距離である。図1の例では、作業領域WAは作業台500の上面に相当する。カメラ400の相対位置Pc(X,Y)は、例えば、カメラ400の撮像面の中心が、作業領域WAの中央真上の位置から水平方向X,Yにどの程度ずれているかで実現される。ワーキングディスタンスWDとカメラ400の相対位置Pc(X,Y)は、物体の設置環境に対するカメラ400の位置に相当する。カメラ環境情報REとしては、これら以外の情報を使用してもよい。
カメラ属性情報CAは、複数の種類又は型式のカメラ400について、カメラ性能に関するデータと、カメラ400の価格などの他のデータを含んでいる。ステップS20では、カメラ属性情報CAとして、少なくともカメラ性能に関するデータが取得される。
ステップS30では、シミュレーター611が、CADデータCDと認識環境情報REIを用いてシミュレーションを行うことによって、ワークWKを含むシーンの模擬画像SMを作成する。本実施形態では、図3で説明したように、複数のワークWKがばら積みされているシーンについて、模擬画像SMが作成される。
なお、ステップS20で取得された認識環境情報REIに適合しないカメラについては、ステップS30におけるシミュレーションを行わないようにしてもよい。例えば、ワーキングディスタンスWDとカメラ400の視野VAのサイズの適用可能範囲を予めカメラ属性情報CA内に登録しておき、ステップS30で取得されたワーキングディスタンスWDとカメラ400の視野VAのサイズの少なくとも一方がその適用可能範囲を外れている場合には、シミュレーションを行わないことが好ましい。こうすれば、全体の処理時間を短縮することができる。
図3では、ワークWKが不規則に積まれているばら積み状態が想定されているが、実際の用途としては、コンベアに流れてくる同じ向きの物体を逐一ピッキングしていくようなケースも考えられる。このようなケースを考慮して、シミュレーションで想定するシーンにおける物体の個数や配置をユーザーが設定できるようにしてもよい。
ところで、シミュレーション上の環境と、実際のカメラ400で撮影する環境では、若干の相違がある可能性がある。これは、シミュレーションでは基本的に理論値を用いた結果を生成するのに対し、実際にカメラ400で撮影した場合には、画像や点群にノイズが発生するためである。ノイズの原因としては、RGBカメラのノイズについては、照明状態や動作中の温度上昇によるセンサノイズなどが考えられる。また、点群のノイズについては、外光の影響や投影パターンの読み取り精度の影響による深さ方向のノイズなどが考えられる。そこで、模擬画像SMや点群にノイズを付与することによって、現実的なカメラ400の撮影データに近づけることが好ましい。RGB画像については、一般的なガウシアンフィルターをかけることによってノイズが再現できる。点群については、カメラ属性情報CAに点群精度の項目をあらかじめ設定しておけば、点群に含まれる各点のそれぞれにランダムに誤差以内のオフセットをかけることによってノイズを再現できる。
ステップS40では、位置姿勢認識部613が、模擬画像SMを用いてワークWKの位置姿勢Pjを認識する。位置姿勢認識部613が模擬画像SMから点群を作成する場合には、ステップS40で点群に対するノイズの付加を実行するようにしてもよい。ステップS40では、位置姿勢認識部613が、更に、以下の項目のうちの1つ以上を求めるようにしてもよい。
(1)認識された位置姿勢Pjが正解か否かの判定
(2)認識されたワークWKの数
(3)認識の正解率
(4)認識の信頼度
(5)信頼度閾値に応じた残正解部品数
(1)認識された位置姿勢Pjが正解か否かの判定
(2)認識されたワークWKの数
(3)認識の正解率
(4)認識の信頼度
(5)信頼度閾値に応じた残正解部品数
認識された位置姿勢Pjが正解か否かの判定は、例えば以下のように行うことができる。ステップS30において作成した模擬画像SMにおける個々のワークWKの真の位置姿勢は、シミュレーション上で既知である。そこで、ステップS40で認識された位置姿勢Pjと真の位置姿勢との差分である認識ズレ量を算出し、認識ズレ量が予め定められた許容ズレ量以下であった場合に、認識された位置姿勢Pjを正解とすることができる。許容ズレ量は、位置(x,y,z)及び姿勢(u,v,w)のそれぞれに関して別個に設定することが好ましく、また、ワークWKの寸法に応じた適切な値に設定することが好ましい。この理由は、例えば、長さが100mmのワークと10mmのワークで同じ1mmの認識ズレ量が発生した場合に、前者と後者ではワークの位置が大きく異なるためである。なお、許容ズレ量を自動で設定する場合には、各軸から見た場合におけるワークWKの最大長さの数%を設定する、というように、ワークWKの大きさに対する許容ズレ量が一定の割合になるように設定するようにしてもよい。
認識されたワークWKの数は、認識された位置姿勢Pjが正解であるものと判定されたワークWKの数である。認識されたワークWKの数を、「ワークWKの認識数」又は「物体の認識数」とも呼ぶ。
認識の正解率Rcは、次式で与えられるように、正解と認識されたワークWKの数Nrを、そのシーンに含まれるワークWKの全数Ntで除した割合である。
Rc=Nr/Nt …(1)
認識の正解率Rcは、ワークWKの全数Ntに対する正解ワークの割合なので、単純な認識個数と異なり、誤認識の少ないカメラか否かを知ることができる。
Rc=Nr/Nt …(1)
認識の正解率Rcは、ワークWKの全数Ntに対する正解ワークの割合なので、単純な認識個数と異なり、誤認識の少ないカメラか否かを知ることができる。
認識の信頼度は、例えば、認識されたワークWKのエッジと真のワークのエッジとの間の一致度に応じて算出される値であり、認識自体の信頼度である。例えば、シミュレーションにより作成したシーンの明るさやワーク表面の白飛び、黒つぶれ等の要因によって、ワークWKのエッジが正確に認識できない場合も考えられるので、このような場合には認識の信頼度が低い値となる。また、他の物体に隠れているワークWKは、認識できるエッジが少ないので認識の信頼度は低下する。認識の信頼度は、このような場合を考慮した認識の正確さを示す指標である。
信頼度閾値に応じた残正解部品数は、信頼度が予め設定された信頼度閾値未満である位置姿勢Pjを、認識ズレ量が許容ズレ量以下である場合にも不正解と判定したときに、正解として認識された位置姿勢Pjの数である。このように、認識の信頼度が信頼度閾値以上であって、かつ、認識ズレ量が許容ズレ量以下の場合にのみ正解と判定すれば、認識の正誤をより厳しく判定することができる。
ステップS50では、認識結果作成部614が、ステップS40で得られた認識結果を作成する。なお、ステップS40が2回目以降に実行される場合には、ステップS40で新たに得られた認識結果が、それ以前に得られていた認識結果に追加されて、認識結果が更新される。
ステップS60では、認識評価部610が、検討対象となるすべてのカメラについてステップS20~S50の処理が終了したか否かを判定する。すべてのカメラについての処理が終了していない場合には、ステップS20に戻り、次のカメラについて上述したステップS20~S50の処理を実行する。一方、すべてのカメラについての処理が終了した場合には、ステップS70に進み、認識結果作成部614が、認識結果を表示デバイス350に表示する。
図6は、認識結果の表示ウィンドウW1の一例を示す説明図である。この例では、表示ウィンドウW1内に、種類又は型式の異なる複数のカメラC1~C4が一覧表示されており、個々のカメラについて、カメラタイプCTと、カメラ関連情報CRと、認識結果画像RRjと、認識可能ポーズRPjとが表示されている。この例では、カメラ関連情報CRは、解像度と、正解率と、価格とを含んでいる。正解率は、上述した認識の正解率Rcである。カメラ関連情報CRとしては、ワークWKの認識数や認識の信頼度などの他の情報を表示してもよい。表示されるカメラ関連情報CRに、ワークWKの認識数と認識率の少なくも一方を含めるようにすれば、カメラ400による認識の程度をユーザーが容易に判定できる。
認識結果画像RRjは、図3で説明したものと同じである。認識可能ポーズRPjは、認識結果画像RRjにおいて認識されているワークWKの位置姿勢Pjを示す画像である。表示ウィンドウW1の右上部分には、カメラのソートを行うためのプルダウンメニューPMが設けられている。プルダウンメニューPMは、カメラ関連情報CRに含まれている項目をユーザーが選択可能に構成されている。図6の例では、認識の正解率の順にソートすることが指定されている。なお、ユーザーの要望に合わせて、他の種々のソート機能や、絞り込み機能を表示ウィンドウW1に設けるようにしてもよい。また、認識結果としては、図6に示したもの以外の情報を表示するようにしてもよい。
表示ウィンドウW1の下部には、シミュレーション結果出力ボタンBTが設けられている。このボタンBTを押すと、シミュレーションで作成された模擬画像SMと点群とを含むシミュレーション結果ファイルが作成される。
ステップS80では、ユーザーが、複数のカメラの一覧表示の中から、使用に適したカメラを1つ選択する。この選択は、例えば、図6の表示ウィンドウW1において、カメラタイプCTの左側に設けられているチェックボックスCBをチェックすることによって行われる。
以上のように、上記実施形態では、CADデータCDと認識環境情報REIを用いてシミュレーションを行うことによって模擬画像SMを作成し、この模擬画像SMを用いて物体の認識を行った認識結果を表示するので、カメラで物体認識をうまく行えるか否かをユーザーが判定できる。なお、図4の手順では複数のカメラについて物体認識を評価していたが、本開示は、1つのカメラについて物体認識を評価する場合にも適用可能である。また、本開示の内容は、ロボット以外の装置で利用されるカメラを評価する処理にも適用可能である。
・他の形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本開示の第1の形態によれば、カメラによる物体認識を評価する方法が提供される。この方法は、(a)認識対象となる物体のCADデータを取得する工程と、(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する工程と、(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する工程と、(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める工程と、(e)前記認識結果を表示する工程と、を含む。
この方法によれば、CADデータと認識環境情報を用いてシミュレーションを行うことによって模擬画像を作成し、この模擬画像を用いて物体の認識を行った認識結果を表示するので、このカメラで物体認識をうまく行えるか否かをユーザーが容易に判定できる。
この方法によれば、CADデータと認識環境情報を用いてシミュレーションを行うことによって模擬画像を作成し、この模擬画像を用いて物体の認識を行った認識結果を表示するので、このカメラで物体認識をうまく行えるか否かをユーザーが容易に判定できる。
(2)上記方法において、前記カメラは、複数種類のカメラを含み、前記工程(e)は、前記複数種類のカメラについて、前記物体を含む同一シーンに関する前記認識結果を一覧表示する工程を含むものとしてもよい。
この方法によれば、複数種類のカメラのうちのいずれが物体認識に相応しいかをユーザーが判定できる。
この方法によれば、複数種類のカメラのうちのいずれが物体認識に相応しいかをユーザーが判定できる。
(3)上記方法において、前記シーンは、前記物体を複数含み、前記認識結果は、前記物体の認識数と認識率の少なくも一方を含むものとしてもよい。
この方法によれば、物体の認識数又は認識率から、カメラによる認識の程度をユーザーが判定できる。
この方法によれば、物体の認識数又は認識率から、カメラによる認識の程度をユーザーが判定できる。
(4)本開示の第2の形態によれば、カメラによる物体認識を評価するシステムが提供される。このシステムは、前記カメラによる物体認識の評価を行う認識評価部と、表示部と、を備える。前記認識評価部は、(a)認識対象となる物体のCADデータを取得する処理と、(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する処理と、(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する処理と、(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める処理と、(e)前記認識結果を前記表示部に表示する処理と、を実行する。
(5)本開示の第3の形態によれば、カメラによる物体認識を評価する処理をプロセッサーに実行させるコンピュータープログラムが提供される。このコンピュータープログラムは、(a)認識対象となる物体のCADデータを取得する処理と、(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する処理と、(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する処理と、(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める処理と、(e)前記認識結果を表示する処理と、を前記プロセッサーに実行させる。
本開示は、上記以外の種々の形態で実現することも可能である。例えば、ロボットとロボット制御装置とを備えたロボットシステム、ロボット制御装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
100…ロボット、110…基台、120…ロボットアーム、122…アームエンド、150…ロボットハンド、200…制御装置、300…情報処理装置、310…プロセッサー、320…メモリー、330…インターフェイス回路、340…入力デバイス、350…表示デバイス、400…カメラ、500…作業台、510…第1トレイ、520…第2トレイ、610…認識評価部、611…シミュレーター、612…認識環境情報取得部、613…位置姿勢認識部、614…認識結果作成部、620…ロボット制御実行部
Claims (5)
- カメラによる物体認識を評価する方法であって、
(a)認識対象となる物体のCADデータを取得する工程と、
(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する工程と、
(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する工程と、
(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める工程と、
(e)前記認識結果を表示する工程と、
を含む、方法。 - 請求項1に記載の方法であって、
前記カメラは、複数種類のカメラを含み、
前記工程(e)は、前記複数種類のカメラについて、前記物体を含む同一シーンに関する前記認識結果を一覧表示する工程を含む、方法。 - 請求項1に記載の方法であって、
前記シーンは、前記物体を複数含み、
前記認識結果は、前記物体の認識数と認識率の少なくも一方を含む、方法。 - カメラによる物体認識を評価するシステムであって、
前記カメラによる物体認識の評価を行う認識評価部と、
表示部と、
を備え、
前記認識評価部は、
(a)認識対象となる物体のCADデータを取得する処理と、
(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する処理と、
(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する処理と、
(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める処理と、
(e)前記認識結果を前記表示部に表示する処理と、
を実行する、システム。 - カメラによる物体認識を評価する処理をプロセッサーに実行させるコンピュータープログラムであって、
(a)認識対象となる物体のCADデータを取得する処理と、
(b)前記物体の設置環境に対する前記カメラの位置と、前記カメラの性能と、を含む認識環境情報を取得する処理と、
(c)前記CADデータと前記認識環境情報を用いてシミュレーションを行うことによって、前記物体を含むシーンを前記カメラで撮影した画像を模擬した模擬画像を作成する処理と、
(d)前記模擬画像を用いて、前記物体の位置姿勢を認識して認識結果を求める処理と、
(e)前記認識結果を表示する処理と、
を前記プロセッサーに実行させる、コンピュータープログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104320A JP2024004619A (ja) | 2022-06-29 | 2022-06-29 | カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104320A JP2024004619A (ja) | 2022-06-29 | 2022-06-29 | カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024004619A true JP2024004619A (ja) | 2024-01-17 |
Family
ID=89540034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104320A Pending JP2024004619A (ja) | 2022-06-29 | 2022-06-29 | カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024004619A (ja) |
-
2022
- 2022-06-29 JP JP2022104320A patent/JP2024004619A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11724400B2 (en) | Information processing apparatus for determining interference between object and grasping unit, information processing method, and storage medium | |
WO2019189661A1 (ja) | 学習データセット作製方法及び装置 | |
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
RU2700246C1 (ru) | Способ и система захвата объекта с помощью роботизированного устройства | |
JP7128933B2 (ja) | 画像処理装置 | |
JP5561384B2 (ja) | 認識プログラム評価装置および認識プログラム評価方法 | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
US11989928B2 (en) | Image processing system | |
CN113504063A (zh) | 一种基于多轴机械臂的立体空间触屏设备可视化测试方法 | |
CN113597362B (zh) | 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置 | |
JP2024004619A (ja) | カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム | |
CN115713547A (zh) | 运动轨迹的生成方法、装置及处理设备 | |
CN115464651A (zh) | 一种六组机器人物体抓取系统 | |
CN115082550A (zh) | 从对象的相机图像中定位对象的位置的设备和方法 | |
CN115213894A (zh) | 机器人图像的显示方法、显示系统以及记录介质 | |
JP2022055779A (ja) | 物体認識結果の良否判定に用いる閾値を設定する方法、及び、物体認識装置 | |
JP7404017B2 (ja) | 画像処理方法、画像処理装置、生産システム、物品の製造方法、プログラム、および記録媒体 | |
KR20220067719A (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
US20230154162A1 (en) | Method For Generating Training Data Used To Learn Machine Learning Model, System, And Non-Transitory Computer-Readable Storage Medium Storing Computer Program | |
WO2022172471A1 (ja) | 支援システム、画像処理装置、支援方法およびプログラム | |
WO2023171687A1 (ja) | ロボット制御装置及びロボット制御方法 | |
JP2023158273A (ja) | ロボットハンドに保持された対象物体の位置姿勢を認識する方法、システム、及び、コンピュータープログラム | |
JP7376446B2 (ja) | 作業分析プログラム、および、作業分析装置 | |
US20240123611A1 (en) | Robot simulation device |