JP7071054B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP7071054B2 JP7071054B2 JP2017008219A JP2017008219A JP7071054B2 JP 7071054 B2 JP7071054 B2 JP 7071054B2 JP 2017008219 A JP2017008219 A JP 2017008219A JP 2017008219 A JP2017008219 A JP 2017008219A JP 7071054 B2 JP7071054 B2 JP 7071054B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- target object
- information processing
- image pickup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Description
そこで、本発明は、対象物体の認識用途に応じた学習データを容易に生成することを目的としている。
(第一の実施形態)
図1は、本実施形態における情報処理装置100を備える物体認識装置1000の構成例を示す図である。情報処理装置100は、認識対象となる対象物体を複数の撮像位置姿勢から撮像した画像に基づいて、学習データ(ラベルを付与した画像)を生成する。物体認識装置1000は、情報処理装置100により生成された学習データを用いてモデルを機械学習し、学習したモデルを用いて画像中の対象物体を認識する。
図1は、本実施形態における情報処理装置100を備える物体認識装置1000の構成を示す図である。物体認識装置1000は、情報処理装置100と、学習装置200と、認識装置300と、マニピュレータ400と、撮像装置500と、を備える。
情報処理装置100は、マニピュレータ400に対して制御値を出力し、マニピュレータ400を制御する。マニピュレータ400は、対象物体を任意の位置姿勢から撮像するために、撮像装置500を移動可能に構成されている。マニピュレータ400は、例えば、6軸ロボットにより構成することができ、ロボットのエンドエフェクタ付近に装着された撮像装置500を移動させることができる。
学習情報取得部101は、ユーザが入力した学習情報を取得し、撮像位置姿勢生成部102および学習データ生成部105に出力する。本実施形態では、学習情報が、対象物体中の学習したい位置および許容するズレの距離に関する情報である場合について説明する。ここで、上記の学習したい位置は、対象物体中の中心位置であり、学習情報取得部101は、学習情報として3次元位置情報(3次元中心位置)を取得する。撮像位置姿勢生成部102は、学習情報取得部101から入力された学習情報に基づいて、6自由度の撮像位置姿勢を生成し、制御部103および学習データ生成部105に出力する。
なお、本実施形態では、情報処理装置100と、学習装置200と、認識装置300とが別々の装置である場合について説明するが、情報処理装置100が学習装置200および認識装置300の機能を有していてもよい。
情報処理装置100は、CPU11と、ROM12と、RAM13と、外部メモリ14と、表示部15と、入力部16と、通信I/F17と、システムバス18とを備える。
CPU11は、情報処理装置100における動作を統括的に制御するものであり、システムバス18を介して、各構成部(12~17)を制御する。ROM12は、CPU11が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ14や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM13は、CPU11の主メモリ、ワークエリア等として機能する。つまり、CPU11は、処理の実行に際してROM12から必要なプログラム等をRAM13にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ14は、CPU11がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶することができる。また、外部メモリ14は、CPU11がプログラムを用いた処理を行うことにより得られる各種データや各種情報等を記憶することができる。外部メモリ14は、上記の学習データを保存してもよい。
図1に示す情報処理装置100の各部の機能は、CPU11がプログラムを実行することで実現することができる。ただし、図1に示す情報処理装置100の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU11の制御に基づいて動作する。
以下、物体認識装置1000の動作について、図3(a)を参照しながら説明する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、情報処理装置100は、学習データを生成し保存する。学習データ生成処理の詳細については後述する。情報処理装置100が学習データを生成し終えたら、S2に移行する。S2では、学習装置200は、情報処理装置100によって保存された学習データを用いてCNNモデルの学習を行い、CNNモデルを保存する。
S3では、認識装置300は、撮像装置500から画像を取得し、学習装置200に保存されたCNNモデルを用いて画像中の対象物体を認識する。具体的には、認識装置300は、画像から対象物体の中心位置を認識する。そして、認識装置300は、認識結果を出力し、処理を終了する。認識結果は、例えば、エンドエフェクタに吸着装置を装着したロボットにおける、物体の吸着位置として使用することができる。
図3(b)は、図3(a)のS1において情報処理装置100が実行する学習データ生成処理の手順を示すフローチャートである。情報処理装置100は、CPU11が必要なプログラムを読み出して実行することにより、図3(b)に示す処理を実現することができる。ただし、上述したように、図1に示す情報処理装置100の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図3(b)の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、情報処理装置100のCPU11の制御に基づいて動作する。
入力画面20は、撮像装置500により撮像された画像を表示する画像表示部21と、入力する学習情報の種類を指定する指定部22と、入力終了を指示するための決定ボタン23と、を備える。ここで、学習情報の種類は、対象物体の位置、姿勢、大きさ、種類、向き、許容するズレの距離などを含む。ユーザは、マウス等の入力部16を操作し、ボタン操作や入力を行うことができる。
H=P・C ………(1)
図3(b)に戻って、S12では、撮像位置姿勢生成部102は、S11において取得された学習情報に基づいて撮像位置姿勢を生成する。対象物体の認識処理における認識能力を向上させるためには、バリエーションに富んだ学習データが必要である。このような学習データの生成には、異なる複数の位置姿勢から対象物体を撮像した画像が必要である。また、必要なバリエーションは、学習対象や認識用途によって異なる。
S13では、制御部103は、S12において撮像位置姿勢生成部102により生成された撮像位置姿勢に撮像装置500を移動するように、上記(1)式を用いてマニピュレータ400を制御する。S14では、制御部103は、撮像装置500に対して撮像トリガーを出力し、画像取得部104は、撮像装置500から画像を取得する。そして、画像取得部104は、取得した画像を学習データ生成部105に出力する。
図3(c)は、図3(b)のS15において学習データ生成部105が実行する学習データ生成処理の手順を示すフローチャートである。
S153では、学習データ生成部105は、S152において切り出された画像にラベルを付与する。ラベルとは、学習時に与える教師信号であり、画像の分類を表す符号である。本実施形態においては、対象物体の中心位置を認識するために、対象物体の中心を表す画像に正解ラベルを、中心を表していない画像に不正解ラベルを付与する。
このように、本実施形態では、学習情報に基づいた学習データを自動で大量に生成することができるので、認識用途に合ったCNNモデルの学習の手間を低減することができる。
本実施形態においては、学習情報として対象物体の中心位置と許容するズレの距離とを用いる場合について説明したが、学習情報は上記に限定されない。例えば、対象物体の中心位置ではなく、対象物体の特定位置を学習情報として取得してもよい。この場合、対象物体中の特定位置(特定部位)を認識するCNNモデルを構築することができる。
また別の例として、対象物体の向きを認識したい場合は、対象物体の基準となる方向を学習情報として取得してもよい。学習情報として方向を取得した場合、図3(b)のS15(図3(c)のS151)では、画像と画像中の対象物体の角度とが対応付けられる。そして、その角度からラベル(例えば、8方向のいずれに近いかの分類)を生成することができる。さらに別の例として、対象物体の種類を表す符号を学習情報として取得してもよい。その符号をラベルに使用することで、画像中にどの種類の物体が映っているのかを学習することができる。
本実施形態においては、ユーザがマウス等を用いて画像上の点や範囲を指定することで学習情報を入力し、学習情報取得部101がこれを取得する場合について説明したが、学習情報の取得方法は上記に限定されない。ユーザは、直接数値を入力することで画像上の点や範囲を指定してもよい。また、学習情報取得部101は、マニピュレータ400のエンドエフェクタを対象物体に接触させた際のエンドエフェクタの位置姿勢を学習情報として取得してもよい。
さらに、対象物体を撮像した画像を解析し、学習情報を取得してもよい。例えば、対象物体の中心位置を学習情報として取得する場合、画像解析により画像中の対象物体の領域を抽出した上で領域中心を取得してもよい。また、画像特徴量(例えば、色情報)から学習情報とする位置を決定してもよい。これにより、ユーザが学習情報を設定する手間を低減することができる。
本実施形態においては、撮像位置姿勢生成部102は、撮像位置姿勢を、学習情報である対象物体の中心位置を中心とした半球状にランダムに配置したが、撮像位置姿勢の生成方法は上記に限定されない。例えば、対象物体の回転を認識する学習モデルを構築する場合、ある撮像位置から対象物体の中心位置を注視した状態で、対象物体を所定の軸回りに回転させて複数の撮像位置姿勢を生成してもよい。また、周囲環境との衝突回避や、ロボットの可動範囲を考慮して撮像位置姿勢の範囲を調整してもよい。これにより、識別の目的を重視した学習データを効率良く生成することができる。
本実施形態においては、撮像位置姿勢生成部102は、学習情報のみに基づいて撮像位置姿勢を生成する場合について説明したが、撮像位置姿勢の生成方法は上記に限定されない。例えば、学習情報に加え対象物体を撮像した画像を用いてもよい。具体的には、画像から対象物体の形状を計測し、対象物体が左右対称型であれば片側のみの撮像位置姿勢を生成したり、複雑な部分ほど密に撮像位置姿勢を生成したりしてもよい。対象物体の形状に応じた撮像位置姿勢を生成することで、効率的に学習データを生成することができる。
図5は、撮像位置姿勢の指示画面30を示す図である。指示画面30は、情報処理装置100の表示部15に表示されて、ユーザに提示される。指示画面30は、仮想的な撮像画像を表示する画像表示部31と、入力する撮像装置500の動きを指定する指定部32と、を備える。さらに、指示画面30は、撮像装置500の動きの上限値を指定するための上限ボタン33と、撮像装置500の動きの下限値を指定するための下限ボタン34と、入力終了を指示するための決定ボタン35と、を備える。ここで、撮像装置500の動きは、ヨーイング、ローリング、ピッチング、平行移動などを含む。ユーザは、マウスやキーボード等の入力部16を操作し、ボタン操作や入力を行うことができる。
このように、ユーザは、画像表示部31に表示される画像を操作して、学習において重要な対象物体の写り方(見え方)を確認しながら、撮像位置姿勢の範囲を適切に指定することができる。なお、撮像装置500の動きの上限値および下限値は、ユーザが直接数値(角度など)を入力することで指定してもよい。
本実施形態においては、撮像位置姿勢生成部102は、撮像装置500の撮像位置姿勢のみを生成する場合について説明したが、その他の装置の状態も併せて生成してもよい。例えば、エンドエフェクタ付近に照明装置を取り付けた場合、制御部103が、対象物体の撮像時における照明の状態(照明のオン、オフや強弱の状態)を制御してもよい。また、照明装置を取り付けたロボットが別途存在する場合、撮像位置姿勢生成部102は、ロボットに取り付けた照明装置の位置姿勢も生成し、制御部103は、撮像装置500を取り付けたロボットと照明装置を取り付けたロボットとを制御してもよい。これにより、照明の影響を受けやすい対象物体の認識の頑健性を向上することができる。
本実施形態においては、マニピュレータ400が撮像装置500を移動する場合について説明したが、撮像装置500を移動せずに、対象物体を移動してもよい。例えば、エンドエフェクタに吸着装置を取り付けたロボットにおいて、対象物体を吸着して動かすことで、様々な位置姿勢の対象物体を据え置きのカメラで撮像してもよい。これにより、ロボットが吸着している状態の物体の認識器が実現できる。
本実施形態においては、撮像された画像から学習情報をもとに切り出した画像を学習データに使用したが、上記に限定されない。例えば、画像の切り出しを行わず、撮像された画像そのものを学習に用いる画像として学習データを生成してもよいし、見えのバリエーションを増やすために、拡大縮小または回転といった幾何変換、あるいはノイズの付与または明るさ(輝度値)や色の変更といった画像処理を行った画像に基づいて学習データを生成してもよい。また、1枚の撮像された画像から複数箇所を切り出し、それぞれを学習データに使用してもよい。この場合、1枚の撮像画像から複数の学習データを生成できるので、学習データの生成に用いる画像を撮像する時間を低減することができる。
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、対象物体を複数の撮像位置姿勢から撮像した画像を取得し、取得したすべての画像を学習データの生成に使用する場合について説明した。この第二の実施形態では、学習データの生成に使用するデータを限定する場合について説明する。
(装置の構成)
図6は、本実施形態における物体認識装置1000Aの構成を示すブロック図である。この図6において、図1と同様の構成を有する部分には図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
物体認識装置1000Aは、情報処理装置100Aを備える。情報処理装置100Aは、図1に示す情報処理装置100に、データセット蓄積部107とデータセット抽出部108とが追加されていることを除いては、図1に示す情報処理装置100と同様の構成を有する。
データセット抽出部108は、データセット蓄積部107により蓄積されたデータセットから、撮像位置姿勢および学習情報の少なくとも一方をキーとして必要なデータセットを抽出する。データセット抽出部108は、抽出したデータセットを学習データ生成部105に出力する。学習データ生成部105は、データセット抽出部108により抽出されたデータセットを学習データの生成に用いる。
本実施形態の物体認識装置1000Aによる認識処理の流れは、上述した第一の実施形態の認識処理(図3(a))と同様である。ただし、S1における学習データ生成処理の手順が異なる。
図7は、図3(a)のS1において情報処理装置100Aが実行する学習データ生成処理の手順を示すフローチャートである。この図7の処理は、図3(b)のS14の後にS18~S20の処理が追加され、S17の処理が削除されていることを除いては、図3(b)の処理と同様である。したがって、図3(b)と同一処理を実行する部分には図3(b)と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
S20では、データセット抽出部108は、ユーザからキーとなる学習情報および撮像位置姿勢のうち少なくとも一方を受け取り、データセット蓄積部107により蓄積されたデータセットから該当するデータセットを抽出する。キーとなる学習情報は、学習情報取得部101により取得した学習情報であってもよいし、撮像画像500により撮像された画像に対応付けられた(幾何的に投影された)学習情報であってもよい。画像と対応付けられた学習情報を用いた場合、より目的にあったデータ抽出が可能である。
別の例として、ある撮像位置姿勢から撮像すると、光沢により強い反射光が写るなど、限定的な状態で発生する見えを学習したい場合がある。このような場合、データセット抽出部108は、キーとなる所定の撮像位置姿勢を取得し、その撮像位置姿勢の周囲のデータセットを抽出してもよい。これにより、認識性能を向上することができる。
以上説明したように、本実施形態における情報処理装置100Aは、学習に使用するデータセットを適切に限定することができるので、認識性能の向上や、学習コストの省力化、CNNモデルの小型化を実現することができる。
本実施形態においては、データセット蓄積部107によるデータセットの生成の途中または終了後に、新たに学習情報を取得するようにしてもよい。この場合、データセット蓄積部107が新たに取得された学習情報を受け取り、全てのデータセットに対して学習情報を追加してもよい。これにより、既に撮像した画像を利用して、異なる学習データを生成することができるので、画像を再撮像する手間を低減することができる。
次に、本発明の第三の実施形態について説明する。
この第三の実施形態では、学習装置200による学習結果またはデータセット蓄積部107により蓄積されたデータセットのうち少なくとも一方に基づいて、追加の学習データを生成する場合について説明する。
(装置の構成)
図8は、本実施形態における物体認識装置1000Bの構成を示すブロック図である。この図8において、図6と同様の構成を有する部分には図6と同一符号を付し、以下、構成の異なる部分を中心に説明する。
物体認識装置1000Bは、情報処理装置100Bを備える。情報処理装置100Bは、図6に示す情報処理装置100Aに、追加撮像判断部109が追加され、撮像位置姿勢生成部102が撮像位置姿勢生成部110に置き換えられていることを除いては、図6に示す情報処理装置100Aと同様の構成を有する。
撮像位置姿勢生成部110は、追加撮像判断部109から入力された撮像位置姿勢の範囲内で、撮像位置姿勢を生成する。
図9は、本実施形態の物体認識装置1000Bによる認識処理の流れを示すフローチャートである。図9において、S1、S2およびS3の処理は、それぞれ第二の実施形態と同様である。
S2において学習装置200Bによる学習が行われた後、S4では、情報処理装置100Bの追加撮像判断部109は、対象物体の追加の撮像が必要であるか否かを判断する。具体的には、追加撮像判断部109は、学習装置200Bによる学習の結果、認識性能が不足している、もしくは認識が失敗する場合、学習データを追加するために対象物体の追加の撮像が必要であると判断する。追加撮像判断部109は、追加の撮像が必要であると判断した場合、追加の撮像が必要な撮像位置姿勢の範囲を判断してS1に戻る。
学習の結果、全体的に認識性能が不足している場合、改善策として全体的に学習データを増やすことが考えられる。そこで、この場合には、追加撮像判断部109は、追加の撮像が必要な撮像位置姿勢の範囲が全体であると判断し、撮像位置姿勢生成部110は、より密な撮像位置姿勢で撮像するよう全体的に追加の撮像位置姿勢を生成する。その際、撮像済みの撮像位置付近で重複して撮像しても効果は低いため、撮像位置姿勢生成部110は、最近傍の既撮像位置が最も遠い位置から撮像するよう、追加の撮像位置姿勢を生成する。これにより、効率的に追加の学習データを生成し、認識性能を全体的に改善することができる。
上記各実施形態においては、撮像装置500がRGBのカラー画像とデプス画像とを取得する場合について説明したが、撮像装置500は、モノクロ画像を取得する装置であってよい。また、撮像装置500は、赤外線画像を取得する装置であってもよい。
また、上記各実施形態においては、マニピュレータ400が6軸ロボットである場合について説明したが、マニピュレータ400は、撮像装置500および対象物体の少なくとも一方を移動可能であればよい。つまり、マニピュレータ400は、多関節ロボットやパラレルリンクロボットであってもよいし、直交ロボットであってもよい。また、マニピュレータ400は、ロボット以外の移動機構であってもよい。
また、上記各実施形態においては、ディープラーニングの一種であるCNNを学習して、認識器を構成する場合について説明したが、上記に限定されるものではない。特徴量としては、LBP(Local Binary Pattern)を用いてもよいし、BoF(Bag of Features)などを用いてもよい。また、識別器としては、決定木を用いてもよいし、SVM(Support Vector Machine)などを用いてもよい。
さらにまた、上記各実施形態においては、認識結果をロボットによる吸着位置に用いたが、治工具の誘導位置や方向などのロボット制御に用いてもよいし、検査などに用いてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (18)
- 所定の入力手段によって入力された、対象物体の表面における注目位置の3次元座標を取得する第一の取得手段と、
前記注目位置を含むように前記対象物体を撮像するための、複数の異なる撮像位置を決定する決定手段と、
前記決定手段により決定された撮像位置に、撮像装置を備えるマニピュレータを移動させて前記対象物体が前記撮像装置により撮像された画像を取得する第二の取得手段と、
前記第一の取得手段により取得された注目位置の3次元座標が、前記注目位置を取得した座標系から前記画像の2次元座標系に変換され、変換された座標に基づく前記注目位置を示す情報が、前記第二の取得手段により取得された画像に対応付けられた学習データを生成する生成手段と、を備え、
前記学習データは、前記対象物体を撮像した入力画像から該入力画像に含まれる前記対象物体の前記注目位置を出力するモデルを学習するためのデータであることを特徴とする情報処理装置。 - 前記第一の取得手段は、前記対象物体の前記注目位置として前記対象物体の表面における中心位置を取得し、
前記生成手段は、
前記決定手段により決定された撮像位置に基づいて、前記第一の取得手段により取得された中心位置を前記第二の取得手段により取得された画像に幾何的に射影し、
前記画像と当該画像に射影された前記中心位置とに基づいて前記学習データを生成することを特徴とする請求項1に記載の情報処理装置。 - 第一の取得手段は、前記対象物体の位置、向き、大きさおよび種類の少なくとも1つを取得することを特徴とする請求項1または2に記載の情報処理装置。
- 前記第一の取得手段は、前記対象物体の三次元情報における前記注目位置を取得することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
- 前記学習データは、学習に用いる画像と教師信号となるラベルとの組であり、前記ラベルは、前記学習に用いる画像の分類を表す情報であることを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
- 前記第一の取得手段は、
ユーザによって前記入力手段に指定された前記注目位置を取得することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記第一の取得手段は、
前記注目位置の周辺領域を許容する範囲として取得することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記決定手段は、
ユーザによって指定された前記撮像位置の範囲内で前記撮像位置を決定することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。 - 前記決定手段により決定された撮像位置となるように、前記対象物体を撮像する撮像装置および前記対象物体の少なくとも一方を移動させ、前記撮像装置に撮像を指示する制御手段をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
- 前記制御手段は、さらに前記撮像装置による前記対象物体の撮像時における照明の状態を制御することを特徴とする請求項9に記載の情報処理装置。
- 前記生成手段は、
前記第二の取得手段によって取得された画像に対して、幾何変換、輝度値の変更、色の変更のうちの少なくともいずれかの処理を行った画像に基づいて前記学習データを生成することを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 - 前記第一の取得手段により取得された注目位置と、前記決定手段により決定された撮像位置と、前記第二の取得手段により取得された画像との組をデータセットとして蓄積する蓄積手段と、
前記蓄積手段により蓄積されたデータセットから、前記注目位置および前記撮像位置の少なくとも一方をキーとしてデータセットを抽出する抽出手段と、をさらに備え、
前記生成手段は、前記抽出手段により抽出されたデータセットに基づいて学習データを生成することを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。 - 前記生成手段により生成された学習データを用いて前記モデルを学習する学習手段と、
前記学習手段により学習されたモデルに基づいて、入力画像中の前記対象物体における前記注目位置を認識する認識手段と、をさらに備えることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。 - 前記学習手段によって学習されたモデルに基づいて画像における前記対象物体の認識を行った結果に基づいて、前記学習データの追加生成が必要であるか否かを判断する判断手段をさらに備え、
前記判断手段は、前記認識の結果から認識に成功した確率である認識率が所定の値以下である場合は、前記学習データを追加で生成する必要があると判断し、前記認識率が所定の値より大きい場合は、前記学習データの生成を終了することを特徴とする請求項13に記載の情報処理装置。 - 前記対象物体を撮像する撮像装置と、
前記撮像装置を移動可能なマニピュレータと、をさらに備えることを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。 - 情報処理装置であって、
対象物体の3次元の注目位置を前記対象物体の3次元情報に対応付けた入力情報を取得する第一の取得手段と、
前記対象物体を複数の異なる撮像位置から撮像した画像を取得する第二の取得手段と、
前記第一の取得手段によって取得された前記入力情報に基づいて、撮像装置を備えるマニピュレータを移動させて複数の異なる撮像位置から前記撮像装置が撮像した画像における前記対象物体の前記注目位置を、前記入力情報を取得した座標系から前記画像の2次元座標系に前記3次元の注目位置の座標を変換し、変換された座標に基づく前記注目位置を示す情報を前記画像に射影することにより決定する決定手段と、
前記第二の取得手段によって取得された画像と、前記決定手段によって決定された撮像装置に対応した前記注目位置と、を組として、前記対象物体を撮像した入力画像から該対象物体における前記注目位置を出力する学習モデルの学習データを生成する生成手段と、を備えることを特徴とする情報処理装置。 - 所定の入力手段によって入力された、対象物体の表面における注目位置の3次元座標を取得する第一の取得ステップと、
前記注目位置を含むように前記対象物体を撮像するための、複数の異なる撮像位置を決定する決定ステップと、
前記決定ステップにより決定された撮像位置に、撮像装置を備えるマニピュレータを移動させて前記対象物体が前記撮像装置により撮像された画像を取得する第二の取得ステップと、
前記第一の取得ステップにより取得された注目位置の3次元座標が、前記注目位置を取得した座標系から前記画像の2次元座標系に変換され、変換された座標に基づく前記注目位置を示す情報が、前記第二の取得ステップにより取得された画像に対応付けられた学習データを生成する生成ステップと、を含み、
前記学習データは、前記対象物体を撮像した入力画像から該入力画像に含まれる前記対象物体の前記注目位置を出力するモデルを学習するためのデータであることを特徴とする情報処理方法。 - コンピュータを、請求項1から16のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017008219A JP7071054B2 (ja) | 2017-01-20 | 2017-01-20 | 情報処理装置、情報処理方法およびプログラム |
US15/873,813 US10997465B2 (en) | 2017-01-20 | 2018-01-17 | Information processing device, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017008219A JP7071054B2 (ja) | 2017-01-20 | 2017-01-20 | 情報処理装置、情報処理方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018116599A JP2018116599A (ja) | 2018-07-26 |
JP2018116599A5 JP2018116599A5 (ja) | 2020-02-13 |
JP7071054B2 true JP7071054B2 (ja) | 2022-05-18 |
Family
ID=62906546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017008219A Active JP7071054B2 (ja) | 2017-01-20 | 2017-01-20 | 情報処理装置、情報処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10997465B2 (ja) |
JP (1) | JP7071054B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190236360A1 (en) * | 2018-01-30 | 2019-08-01 | Mashgin Inc. | Feedback loop for image-based recognition |
JP6737824B2 (ja) * | 2018-03-13 | 2020-08-12 | ファナック株式会社 | 制御装置、制御方法及び制御プログラム |
JP7403834B2 (ja) * | 2018-07-17 | 2023-12-25 | 株式会社Synapse Gear | 撮像装置と撮像方法 |
JP6814775B2 (ja) * | 2018-10-04 | 2021-01-20 | 東芝インフォメーションシステムズ株式会社 | 収集装置、収集方法及び収集プログラム |
TWI684925B (zh) * | 2018-10-17 | 2020-02-11 | 新漢智能系統股份有限公司 | 自動建立物件辨識模型的方法 |
JP7200610B2 (ja) * | 2018-11-08 | 2023-01-10 | 富士通株式会社 | 位置検出プログラム、位置検出方法及び位置検出装置 |
JP7134260B2 (ja) * | 2019-01-15 | 2022-09-09 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JP7200713B2 (ja) * | 2019-02-04 | 2023-01-10 | 株式会社島津製作所 | 機械学習用教師データ作成支援方法、及び機械学習用教師データ作成支援プログラム |
JP2020149086A (ja) * | 2019-03-11 | 2020-09-17 | オムロン株式会社 | 学習用データ生成装置、学習用データ生成方法、および学習用データ生成プログラム |
JP2020166371A (ja) | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
CN112955928A (zh) * | 2019-04-04 | 2021-06-11 | 松下知识产权经营株式会社 | 信息处理方法以及信息处理系统 |
US11176429B2 (en) * | 2019-05-13 | 2021-11-16 | International Business Machines Corporation | Counter rare training date for artificial intelligence |
JP2020186082A (ja) * | 2019-05-13 | 2020-11-19 | Jfeアーバンリサイクル株式会社 | 洗濯機識別システム |
JP7266008B2 (ja) * | 2020-03-24 | 2023-04-27 | 株式会社 日立産業制御ソリューションズ | 学習画像判定装置、プログラムおよび学習画像判定方法 |
JP2022018905A (ja) * | 2020-07-16 | 2022-01-27 | キヤノン株式会社 | 情報処理装置及び方法、撮像装置、及び撮像システム |
US20240046622A1 (en) * | 2020-12-15 | 2024-02-08 | Sony Group Corporation | Information processing apparatus, information processing system, information processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218051A (ja) | 2009-03-13 | 2010-09-30 | Nec Corp | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム |
JP2012028949A (ja) | 2010-07-21 | 2012-02-09 | Canon Inc | 画像処理装置及びその制御方法 |
JP2013541775A (ja) | 2010-10-21 | 2013-11-14 | ゼンロボティクス オイ | ロボットシステムにおける対象物体画像のフィルタ方法 |
JP2014199584A (ja) | 2013-03-29 | 2014-10-23 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6228561B1 (en) * | 1996-02-01 | 2001-05-08 | Tokyo Electron Limited | Film forming method and film forming apparatus |
US6259960B1 (en) * | 1996-11-01 | 2001-07-10 | Joel Ltd. | Part-inspecting system |
US6980690B1 (en) * | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
US7065242B2 (en) * | 2000-03-28 | 2006-06-20 | Viewpoint Corporation | System and method of three-dimensional image capture and modeling |
JP4211292B2 (ja) * | 2002-06-03 | 2009-01-21 | ソニー株式会社 | 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体 |
US7711179B2 (en) * | 2004-04-21 | 2010-05-04 | Nextengine, Inc. | Hand held portable three dimensional scanner |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
DE602007013770D1 (de) * | 2006-08-11 | 2011-05-19 | Philips Intellectual Property | Auswahl von datensätzen aus 3d-darstellungen zur ansicht |
US7715606B2 (en) * | 2006-10-18 | 2010-05-11 | Varian Medical Systems, Inc. | Marker system and method of using the same |
EP2048599B1 (en) * | 2007-10-11 | 2009-12-16 | MVTec Software GmbH | System and method for 3D object recognition |
US8144954B2 (en) * | 2007-11-08 | 2012-03-27 | D4D Technologies, Llc | Lighting compensated dynamic texture mapping of 3-D models |
EP2071515A1 (en) * | 2007-12-11 | 2009-06-17 | Honda Research Institute Europe GmbH | Visually tracking an object in real world using 2D appearance and multicue depth estimations |
JP4941422B2 (ja) * | 2008-07-14 | 2012-05-30 | パナソニック株式会社 | 部品実装システム |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
FR2951565B1 (fr) * | 2009-10-20 | 2016-01-01 | Total Immersion | Procede, programme d'ordinateur et dispositif de suivi hybride de representations d'objets, en temps reel, dans une sequence d'images |
JP5588196B2 (ja) * | 2010-02-25 | 2014-09-10 | キヤノン株式会社 | 認識装置及びその制御方法、コンピュータプログラム |
US9400503B2 (en) * | 2010-05-20 | 2016-07-26 | Irobot Corporation | Mobile human interface robot |
US8115761B1 (en) * | 2010-10-12 | 2012-02-14 | Google Inc. | Locking geometric and camera parameters in image-based three-dimensional modeling, and applications thereof |
JP2012088787A (ja) | 2010-10-15 | 2012-05-10 | Canon Inc | 画像処理装置、画像処理方法 |
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US20120321134A1 (en) * | 2011-06-15 | 2012-12-20 | Samsung Electornics Co., Ltd | Face tracking method and device |
US8965580B2 (en) * | 2012-06-21 | 2015-02-24 | Rethink Robotics, Inc. | Training and operating industrial robots |
JP2014178957A (ja) | 2013-03-15 | 2014-09-25 | Nec Corp | 学習データ生成装置、学習データ作成システム、方法およびプログラム |
WO2015029982A1 (ja) * | 2013-08-29 | 2015-03-05 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US20150243031A1 (en) * | 2014-02-21 | 2015-08-27 | Metaio Gmbh | Method and device for determining at least one object feature of an object comprised in an image |
JP6357949B2 (ja) * | 2014-07-29 | 2018-07-18 | セイコーエプソン株式会社 | 制御システム、ロボットシステム、及び制御方法 |
KR102290392B1 (ko) * | 2014-12-02 | 2021-08-17 | 삼성전자주식회사 | 얼굴 등록 방법 및 장치, 얼굴 인식 방법 및 장치 |
US10143526B2 (en) * | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
US10055667B2 (en) * | 2016-08-03 | 2018-08-21 | X Development Llc | Generating a model for an object encountered by a robot |
-
2017
- 2017-01-20 JP JP2017008219A patent/JP7071054B2/ja active Active
-
2018
- 2018-01-17 US US15/873,813 patent/US10997465B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218051A (ja) | 2009-03-13 | 2010-09-30 | Nec Corp | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム |
JP2012028949A (ja) | 2010-07-21 | 2012-02-09 | Canon Inc | 画像処理装置及びその制御方法 |
JP2013541775A (ja) | 2010-10-21 | 2013-11-14 | ゼンロボティクス オイ | ロボットシステムにおける対象物体画像のフィルタ方法 |
JP2014199584A (ja) | 2013-03-29 | 2014-10-23 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180211138A1 (en) | 2018-07-26 |
US10997465B2 (en) | 2021-05-04 |
JP2018116599A (ja) | 2018-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7071054B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
Zimmermann et al. | Learning to estimate 3d hand pose from single rgb images | |
JP6546618B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
JP6970553B2 (ja) | 画像処理装置、画像処理方法 | |
CN109426835B (zh) | 信息处理装置、信息处理装置的控制方法和存储介质 | |
US10078796B2 (en) | Apparatus and method of hand gesture recognition based on depth image | |
US9002119B2 (en) | Device method and program for human hand posture estimation | |
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
CN108961144B (zh) | 图像处理系统 | |
CN106104198A (zh) | 信息处理设备、信息处理方法和程序 | |
KR20180130869A (ko) | 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템 | |
WO2013051681A1 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
US9595095B2 (en) | Robot system | |
JP7261306B2 (ja) | 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
JP2017037424A (ja) | 学習装置、認識装置、学習プログラム、及び認識プログラム | |
US20220346913A1 (en) | Apparatus and method for generating virtual model | |
CN114730407A (zh) | 使用神经网络对工作环境中的人类行为进行建模 | |
CN112109069A (zh) | 机器人示教装置以及机器人系统 | |
US20210042576A1 (en) | Image processing system | |
JP7209657B2 (ja) | 情報処理装置及び方法 | |
JP2003256850A (ja) | 動き認識装置および画像処理装置並びにプログラム | |
JP7051751B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
JP2007241833A (ja) | 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210329 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211130 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220119 |
|
C092 | Termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C092 Effective date: 20220125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220506 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7071054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |