JP7071054B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7071054B2
JP7071054B2 JP2017008219A JP2017008219A JP7071054B2 JP 7071054 B2 JP7071054 B2 JP 7071054B2 JP 2017008219 A JP2017008219 A JP 2017008219A JP 2017008219 A JP2017008219 A JP 2017008219A JP 7071054 B2 JP7071054 B2 JP 7071054B2
Authority
JP
Japan
Prior art keywords
image
learning
target object
information processing
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017008219A
Other languages
English (en)
Other versions
JP2018116599A5 (ja
JP2018116599A (ja
Inventor
貴之 山田
昭宏 片山
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017008219A priority Critical patent/JP7071054B2/ja
Priority to US15/873,813 priority patent/US10997465B2/en
Publication of JP2018116599A publication Critical patent/JP2018116599A/ja
Publication of JP2018116599A5 publication Critical patent/JP2018116599A5/ja
Application granted granted Critical
Publication of JP7071054B2 publication Critical patent/JP7071054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、対象物体を撮像した画像やデプス画像(距離画像)から、対象物体の特徴やパターンを学習し、対象物体を認識する手法がある。ここで、対象物体の認識能力を向上させるためには、対象物体を様々な向きや大きさで撮像し、各撮像画像に対して認識に適したラベルを教師信号として与えた学習データが必要である。例えば、対象物体の中心位置を認識するためには、対象物体を様々な位置姿勢から撮像し、各画像中の対象物体の中心位置を与えなければならない。このように、学習データの生成には大きな手間がかかる。
そこで、学習データの収集に関連する技術として、仮想的に見えのバリエーションを増やす方法が提案されている。特許文献1には、撮像した画像に拡大縮小や回転などの画像処理を加えることでバリエーションを増やす方法が開示されている。また、非特許文献1には、CG(コンピュータグラフィックス)を用いて仮想的な撮像画像を作成する方法が開示されている。
特開2012-88787号公報
土屋成光、外2名、「人検出のための生成型学習とNegative-Bag MILBoostによる学習の効率化」、画像の認識・理解シンポジウム(MIRU2012)、2012年8月
しかしながら、画像処理によって仮想的に見えのバリエーションを増やす方法では、画像処理を加える元となる学習データや、追加学習用の学習データが必要となるため、実物の画像から学習データを生成する必要がある。また、CGを利用して仮想的な撮像画像を作成する方法では、認識精度を上げるためには、対象物体の精緻なモデルデータが必要である。また、光源等を実際の撮像環境に合わせるには仮想環境の調整を十分に行う必要もある。
そこで、本発明は、対象物体の認識用途に応じた学習データを容易に生成することを目的としている。
上記課題を解決するために、本発明に係る情報処理装置の一態様は、所定の入力手段によって入力された、対象物体の表面における注目位置の3次元座標を取得する第一の取得手段と、前記注目位置を含むように前記対象物体を撮像するための、複数の異なる撮像位置を決定する決定手段と、前記決定手段により決定された撮像位置に、撮像装置を備えるマニピュレータを移動させて前記対象物体が前記撮像装置により撮像された画像を取得する第二の取得手段と、前記第一の取得手段により取得された注目位置の3次元座標が前記注目位置を取得した座標系から前記画像の2次元座標系に変換され、変換された座標に基づく前記注目位置を示す情報前記第二の取得手段により取得された画像に対応付けられた学習データを生成する生成手段と、を備え、前記学習データは、前記対象物体を撮像した入力画像から該入力画像に含まれる前記対象物体の前記注目位置を出力するモデルを学習するためのデータであることを特徴とする。
本発明によれば、対象物体の認識用途に応じた学習データを容易に生成することができる。
第一の実施形態における物体認識装置の構成を示す図である。 情報処理装置のハードウェア構成の一例である。 情報処理装置による処理を示すフローチャートである。 学習情報の入力画面の一例である。 撮像位置姿勢の指示画面の一例である。 第二の実施形態における物体認識装置の構成を示す図である。 第二の実施形態の情報処理装置による処理を示すフローチャートである。 第三の実施形態における物体認識装置の構成を示す図である。 第三の実施形態の情報処理装置による処理を示すフローチャートである。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における情報処理装置100を備える物体認識装置1000の構成例を示す図である。情報処理装置100は、認識対象となる対象物体を複数の撮像位置姿勢から撮像した画像に基づいて、学習データ(ラベルを付与した画像)を生成する。物体認識装置1000は、情報処理装置100により生成された学習データを用いてモデルを機械学習し、学習したモデルを用いて画像中の対象物体を認識する。
本実施形態では、物体認識装置1000は、ディープラーニングの一種であるCNN(Convolutional Neural Network)によってモデルを学習する。そして、物体認識装置1000は、学習したCNNモデルを用いて、画像中の物体を認識する。また、本実施形態では、情報処理装置100は、画像に対応付けられた学習情報を取得し、取得した学習情報をもとに学習データを生成することで、対象物体の認識用途に応じた学習データを生成する。
ここで、上記画像は、RGBのカラー画像、デプス画像(距離画像)およびモノクロ画像のうち少なくとも1つを含む。また、学習情報は、対象物体に関する、学習データの生成に必要となる情報であり、対象物体の認識用途に関連する情報である。具体的には、学習情報は、対象物体が有する学習に必要な属性情報であり、対象物体の位置、向きあるいは種類のうち少なくとも1つを含む。学習情報のうち、幾何情報は3次元情報であり、2次元情報として画像に対応付けられる。また、学習データは、学習に用いる画像とラベルとの組である。ラベルは、学習に用いる教師信号であり、画像の分類を表す符号である。
(装置の構成)
図1は、本実施形態における情報処理装置100を備える物体認識装置1000の構成を示す図である。物体認識装置1000は、情報処理装置100と、学習装置200と、認識装置300と、マニピュレータ400と、撮像装置500と、を備える。
情報処理装置100は、マニピュレータ400に対して制御値を出力し、マニピュレータ400を制御する。マニピュレータ400は、対象物体を任意の位置姿勢から撮像するために、撮像装置500を移動可能に構成されている。マニピュレータ400は、例えば、6軸ロボットにより構成することができ、ロボットのエンドエフェクタ付近に装着された撮像装置500を移動させることができる。
また、情報処理装置100は、撮像装置500に対して撮像トリガーを出力し、撮像トリガーを受け取った撮像装置500が撮像した画像を取得する。情報処理装置100は、撮像装置500から取得した画像を学習データの生成に用いる。撮像装置500は、対象物体のカラー画像およびデプス画像を撮像する装置(カメラ)とすることができる。撮像装置500は、情報処理装置100からの撮像トリガーを受け取ったタイミングで撮像を行い、情報処理装置100に画像信号を送信する。また、撮像装置500は、後述する認識装置300からの撮像トリガーを受け取ったタイミングでも撮像を行い、認識装置300に画像信号を送信する。
学習装置200は、情報処理装置100により生成された学習データを用いて、CNNモデルを学習し、保存する。認識装置300は、撮像装置500に対して撮像トリガーを出力し、撮像トリガーを受け取った撮像装置500が撮像した画像を取得する。認識装置300は、撮像装置500から取得した画像を対象物体の認識処理に用いる。認識装置300は、学習装置200が保存したCNNモデルと、撮像装置500から取得した画像とを用いて、画像中の対象物体を認識する。
情報処理装置100は、学習情報取得部101と、撮像位置姿勢生成部102と、制御部103と、画像取得部104と、学習データ生成部105と、学習データ蓄積部106と、を備える。
学習情報取得部101は、ユーザが入力した学習情報を取得し、撮像位置姿勢生成部102および学習データ生成部105に出力する。本実施形態では、学習情報が、対象物体中の学習したい位置および許容するズレの距離に関する情報である場合について説明する。ここで、上記の学習したい位置は、対象物体中の中心位置であり、学習情報取得部101は、学習情報として3次元位置情報(3次元中心位置)を取得する。撮像位置姿勢生成部102は、学習情報取得部101から入力された学習情報に基づいて、6自由度の撮像位置姿勢を生成し、制御部103および学習データ生成部105に出力する。
制御部103は、撮像位置姿勢生成部102から入力された撮像位置姿勢に撮像装置500を移動するようマニピュレータ400に対して制御値を出力し、マニピュレータ400を制御する。そして、撮像装置500が指示された撮像位置姿勢に移動したら、制御部103は、撮像装置500に対して撮像トリガーを出力する。画像取得部104は、撮像装置500から画像を取得し、取得した画像を学習データ生成部105に出力する。
学習データ生成部105は、撮像位置姿勢生成部102から入力された撮像位置姿勢に基づいて、画像取得部104から入力された画像に、学習情報取得部101から入力された学習情報を対応付ける。このとき、学習データ生成部105は、学習情報として取得した3次元中心位置を2次元点に変換して画像と対応付ける。そして、学習データ生成部105は、画像と当該画像に対応付けられた学習情報(2次元点および距離)とに基づいて学習データを生成し、生成した学習データを学習データ蓄積部106に出力する。学習データ蓄積部106は、学習データ生成部105から入力された学習データを保存する。学習データ蓄積部106は、メモリなどの記憶媒体に学習データを保存する。
なお、本実施形態では、情報処理装置100と、学習装置200と、認識装置300とが別々の装置である場合について説明するが、情報処理装置100が学習装置200および認識装置300の機能を有していてもよい。
図2は、情報処理装置100のハードウェア構成の一例を示す図である。
情報処理装置100は、CPU11と、ROM12と、RAM13と、外部メモリ14と、表示部15と、入力部16と、通信I/F17と、システムバス18とを備える。
CPU11は、情報処理装置100における動作を統括的に制御するものであり、システムバス18を介して、各構成部(12~17)を制御する。ROM12は、CPU11が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ14や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM13は、CPU11の主メモリ、ワークエリア等として機能する。つまり、CPU11は、処理の実行に際してROM12から必要なプログラム等をRAM13にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ14は、CPU11がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶することができる。また、外部メモリ14は、CPU11がプログラムを用いた処理を行うことにより得られる各種データや各種情報等を記憶することができる。外部メモリ14は、上記の学習データを保存してもよい。
表示部15は、液晶ディスプレイ(LCD)等のモニタにより構成される。入力部16は、キーボードやマウス等のポインティングデバイスにより構成され、情報処理装置100のユーザが情報処理装置100に対して指示を与えることができるように構成される。通信I/F17は、外部装置(本実施形態では、学習装置200、マニピュレータ400、撮像装置500)と通信するためのインタフェースである。通信I/F17は、例えばLANインタフェースとすることができる。システムバス18は、CPU11、ROM12、RAM13、外部メモリ14、表示部15、入力部16および通信I/F17を通信可能に接続する。
図1に示す情報処理装置100の各部の機能は、CPU11がプログラムを実行することで実現することができる。ただし、図1に示す情報処理装置100の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU11の制御に基づいて動作する。
(認識処理)
以下、物体認識装置1000の動作について、図3(a)を参照しながら説明する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、情報処理装置100は、学習データを生成し保存する。学習データ生成処理の詳細については後述する。情報処理装置100が学習データを生成し終えたら、S2に移行する。S2では、学習装置200は、情報処理装置100によって保存された学習データを用いてCNNモデルの学習を行い、CNNモデルを保存する。
S3では、認識装置300は、撮像装置500から画像を取得し、学習装置200に保存されたCNNモデルを用いて画像中の対象物体を認識する。具体的には、認識装置300は、画像から対象物体の中心位置を認識する。そして、認識装置300は、認識結果を出力し、処理を終了する。認識結果は、例えば、エンドエフェクタに吸着装置を装着したロボットにおける、物体の吸着位置として使用することができる。
(学習データ生成処理)
図3(b)は、図3(a)のS1において情報処理装置100が実行する学習データ生成処理の手順を示すフローチャートである。情報処理装置100は、CPU11が必要なプログラムを読み出して実行することにより、図3(b)に示す処理を実現することができる。ただし、上述したように、図1に示す情報処理装置100の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図3(b)の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、情報処理装置100のCPU11の制御に基づいて動作する。
S11では、学習情報取得部101は、ユーザが入力した学習情報を取得する。学習情報は、学習データの生成に必要となる対象物体に関する情報であり、学習したい項目を示す情報である。学習情報のうち、幾何情報は3次元情報を取得する。上述したように、本実施形態において、認識処理は、画像から対象物体の中心位置を認識する処理であり、学習情報は、対象物体の中心位置と、許容するズレの距離とに関する情報である。ユーザは、画像中の点や範囲を指定することで学習情報を入力してもよいし、数値により学習情報を入力してもよい。
本実施形態では、ユーザが情報処理装置100の入力部16を操作し、撮像装置500により事前に撮像された画像に対して、対象物体の中心位置(点)と許容するズレの距離(範囲)とを指定する場合について説明する。学習情報取得部101は、ロボット座標系における中心位置と許容するズレの距離との3次元情報を学習情報として取得し、取得した学習情報を撮像位置姿勢生成部102および学習データ生成部105に出力してS12に移行する。
以下、学習情報の入力方法について具体的に説明する。図4は、学習情報の入力画面20を示す図である。入力画面20は、情報処理装置100の表示部15に表示されて、ユーザに提示される。
入力画面20は、撮像装置500により撮像された画像を表示する画像表示部21と、入力する学習情報の種類を指定する指定部22と、入力終了を指示するための決定ボタン23と、を備える。ここで、学習情報の種類は、対象物体の位置、姿勢、大きさ、種類、向き、許容するズレの距離などを含む。ユーザは、マウス等の入力部16を操作し、ボタン操作や入力を行うことができる。
まず、ユーザは、プルダウン表示される指定部22のリスト中から学習情報の種類を選択する。次にユーザは、画像表示部21に表示された画像上において、指定部22で選択した学習情報の種類に対応する入力(マウスクリックやマウスドラッグ)を行う。例えば、対象物体の中心位置を指定する場合、ユーザは、指定部22から「位置」を選択した後、画像表示部21の画像上の点24を指定する。また、対象物体の中心位置の許容するズレの距離を指定する場合、ユーザは、指定部22から「許容するズレの距離」を選択した後、画像表示部21の画像上の範囲25を指定する。そして、ユーザは、必要な入力を終えたら決定ボタン23を押す。
すると、ユーザが入力画面20を用いて入力した学習情報に関する情報がロボット座標系における3次元情報に変換され、学習情報取得部101に出力される。具体的には、まず、ユーザが入力した画像上の中心位置および許容するズレに関する情報が、デプス画像を用いてカメラ座標系における中心位置および許容するズレに関する3次元情報に変換される。次に、以下の(1)式および(2)式により、カメラ座標系における位置がロボット座標系における位置に変換され、学習情報取得部101に出力される。
H=P・C ………(1)
Figure 0007071054000001
ここで、上記(1)式は、撮像位置姿勢、ロボットの位置姿勢、撮像装置500の取り付け位置姿勢の関係式である。Hは、ロボット座標系における撮像位置姿勢、Pは、ロボット座標系におけるエンドエフェクタの位置姿勢、Cは、エンドエフェクタに対する撮像装置500の位置姿勢を表す行列である。なお、行列Cは、事前にキャリブレーションを行い計算しておく。また、上記(2)式は、カメラ座標系からロボット座標系への変換式であり、x、yおよびzは、ロボット座標系における位置、x´、y´およびz´は、カメラ座標系における位置を表している。
図3(b)に戻って、S12では、撮像位置姿勢生成部102は、S11において取得された学習情報に基づいて撮像位置姿勢を生成する。対象物体の認識処理における認識能力を向上させるためには、バリエーションに富んだ学習データが必要である。このような学習データの生成には、異なる複数の位置姿勢から対象物体を撮像した画像が必要である。また、必要なバリエーションは、学習対象や認識用途によって異なる。
そこで、本実施形態では、撮像位置姿勢生成部102は、学習情報に基づいて、学習データ生成のための画像を撮像する位置姿勢を生成する。例えば、撮像位置姿勢生成部102は、対象物体の中心位置を中心とした半球状に位置し、対象物体の中心付近を注視点とする撮像位置姿勢をランダムに生成する。このS12では、撮像位置姿勢生成部102は、撮像位置姿勢として1視点を生成し、生成した撮像位置姿勢を制御部103および学習データ生成部105に出力する。
S13では、制御部103は、S12において撮像位置姿勢生成部102により生成された撮像位置姿勢に撮像装置500を移動するように、上記(1)式を用いてマニピュレータ400を制御する。S14では、制御部103は、撮像装置500に対して撮像トリガーを出力し、画像取得部104は、撮像装置500から画像を取得する。そして、画像取得部104は、取得した画像を学習データ生成部105に出力する。
S15では、学習データ生成部105は、S11において学習情報取得部により取得された学習情報と、S14において画像取得部104により取得された画像との対応付けを行い、学習データを生成する。そして、学習データ生成部105は、生成した学習データを学習データ蓄積部106に出力する。以下、学習データの生成方法について具体的に説明する。
図3(c)は、図3(b)のS15において学習データ生成部105が実行する学習データ生成処理の手順を示すフローチャートである。
まずS151において、学習データ生成部105は、S12において生成された撮像位置姿勢をもとに、S11において取得された学習情報を、S14において取得された画像に対応付ける。ここで、S11において取得された学習情報は、ロボット座標系における位置情報である。そこで、学習データ生成部105は、例えば以下の式を用いて、ロボット座標系における対象物体の3次元中心位置を、画像に投影した2次元点に変換する。
Figure 0007071054000002
ここで、x、yおよびzは、ロボット座標系における対象物体の中心位置、x´、y´およびz´は、カメラ座標系における対象物体の中心位置、Hは、ロボット座標系における撮像位置姿勢である。また、fxおよびfyはカメラの焦点距離、cxおよびcyはカメラの主点位置、uおよびvは、画像中の対象物体の中心位置を表している。同様に、許容するズレの距離を画像中の距離に変換する。これにより、学習情報が画像に対して幾何的に投影され、学習情報が画像に対応付けられる。このとき画像に対応付けられる学習情報は、2次元点および画像距離である。
つまり、このS151では、学習データ生成部105は、S11においてカメラ座標系からロボット座標系に変換された学習情報を、撮像位置姿勢を用いてロボット座標系からカメラ座標系に変換し、さらにカメラ座標系から画像座標系に変換している。このように、カメラ座標系において一度だけ学習情報を与え、その学習情報にロボット座標系での撮像位置姿勢を反映することで、複数の撮像画像それぞれについて容易にカメラ座標系における学習情報を生成することができる。もちろん学習情報を与えるのは一度だけに限らず、複数の撮像画像に対して複数回であってもよい。
S152では、学習データ生成部105は、S14において取得された画像と、当該画像に対応付けられた学習情報(2次元点および画像距離)とに基づき、CNNモデルの学習に用いる画像を切り出す。例えば、S14において取得された画像中の対象物体の中心位置からランダムにずらした位置を中心として画像を切り出す。
S153では、学習データ生成部105は、S152において切り出された画像にラベルを付与する。ラベルとは、学習時に与える教師信号であり、画像の分類を表す符号である。本実施形態においては、対象物体の中心位置を認識するために、対象物体の中心を表す画像に正解ラベルを、中心を表していない画像に不正解ラベルを付与する。
具体的には、学習データ生成部105は、画像に対応付けられた学習情報に基づいてラベルを生成する。例えば、切り出した画像の中心位置と画像中の対象物体の中心位置とのズレが許容するズレの距離以下であれば正解ラベル、それ以外は不正解ラベルとすることができる。これにより、学習時に必要な学習データ(画像+ラベル)が生成される。なお、ラベルは正解、不正解に限らない。例えば、画像中の対象物体の中心位置をそのままラベルとしてもよい。
図3(b)に戻って、S16では、学習データ蓄積部106は、S15において生成された学習データを保存する。S17では、情報処理装置100は、学習データを生成するための画像の撮像を終了するか否かを判定する。具体的には、情報処理装置100は、学習データが十分に蓄積されたか否かを判定する。例えば、学習データ生成部105がある一定数以上の学習データを生成したか否かによって判定してもよいし、隣接する撮像位置の距離が一定値以下となるように、撮像密度を元に判定してもよい。
そして、情報処理装置100は、学習データが十分に蓄積されたと判定した場合には処理を終了する。一方、情報処理装置100は、学習データが十分に蓄積されていないと判定した場合にはS12に戻る。つまり、S12において異なる1視点を生成した後、再度S13からS17までの処理を実行する。なお、本実施形態では、S12において1視点を生成する場合について説明したが、複数視点を生成してもよい。
以上説明したように、本実施形態における情報処理装置100は、認識対象となる対象物体に関する、学習データの生成に必要な学習情報を取得し、取得した学習情報に基づいて、対象物体を撮像する撮像位置姿勢を決定する。また、情報処理装置100は、学習情報に基づいて決定された撮像位置姿勢となるように、マニピュレータ400を制御して撮像装置500を移動し、撮像装置500に撮像を指示する。そして、情報処理装置100は、上記撮像位置姿勢にて対象物体が撮像された画像を取得し、取得された画像と学習情報とに基づいて学習データを生成する。
これにより、認識用途に応じた学習データを効率的に生成することができる。例えば、学習情報として対象物体の中心位置に関する情報を取得した場合、対象物体の中心位置を認識する用途において必要なバリエーションの学習データを適切に生成することができる。また、学習データの生成に用いる画像の撮像および学習データの生成は自動で行われるため、ユーザの学習データを生成する手間を低減することができる。したがって、用途に応じた認識器を低コストで実現することができる。
また、上記学習情報は対象物体の幾何情報を含み、情報処理装置100は、撮像位置姿勢に基づいて学習情報を画像に幾何的に投影することで、画像と学習情報とを対応付け、画像と当該画像に投影された学習情報とに基づいて学習データを生成する。これにより、一度だけ学習情報を与えるだけで、情報処理装置100は、その学習情報に撮像位置姿勢を反映し、各撮像位置姿勢にて撮像された画像それぞれに容易に学習情報を対応付けることができる。ここで、学習情報のうち幾何情報は3次元情報として取得することで、2次元情報として適切に画像に対応付けることができる。
さらに、情報処理装置100は、ユーザが指定した学習情報を取得するので、ユーザが意図した認識器を適切に実現することができる。また、ユーザは、図4に示すような入力画面20を操作して学習情報を入力することができる。つまり、ユーザは、対象物体を撮像した画像上で点や範囲を指定することで学習情報を入力することができ、学習情報の入力が容易である。また、情報処理装置100は、ユーザが画像上で指定した学習情報を、デプス画像を用いて3次元情報として容易に取得することができる。
このように、本実施形態では、学習情報に基づいた学習データを自動で大量に生成することができるので、認識用途に合ったCNNモデルの学習の手間を低減することができる。
(第一の実施形態の変形例1)
本実施形態においては、学習情報として対象物体の中心位置と許容するズレの距離とを用いる場合について説明したが、学習情報は上記に限定されない。例えば、対象物体の中心位置ではなく、対象物体の特定位置を学習情報として取得してもよい。この場合、対象物体中の特定位置(特定部位)を認識するCNNモデルを構築することができる。
また別の例として、対象物体の向きを認識したい場合は、対象物体の基準となる方向を学習情報として取得してもよい。学習情報として方向を取得した場合、図3(b)のS15(図3(c)のS151)では、画像と画像中の対象物体の角度とが対応付けられる。そして、その角度からラベル(例えば、8方向のいずれに近いかの分類)を生成することができる。さらに別の例として、対象物体の種類を表す符号を学習情報として取得してもよい。その符号をラベルに使用することで、画像中にどの種類の物体が映っているのかを学習することができる。
(第一の実施形態の変形例2)
本実施形態においては、ユーザがマウス等を用いて画像上の点や範囲を指定することで学習情報を入力し、学習情報取得部101がこれを取得する場合について説明したが、学習情報の取得方法は上記に限定されない。ユーザは、直接数値を入力することで画像上の点や範囲を指定してもよい。また、学習情報取得部101は、マニピュレータ400のエンドエフェクタを対象物体に接触させた際のエンドエフェクタの位置姿勢を学習情報として取得してもよい。
さらに、対象物体を撮像した画像を解析し、学習情報を取得してもよい。例えば、対象物体の中心位置を学習情報として取得する場合、画像解析により画像中の対象物体の領域を抽出した上で領域中心を取得してもよい。また、画像特徴量(例えば、色情報)から学習情報とする位置を決定してもよい。これにより、ユーザが学習情報を設定する手間を低減することができる。
(第一の実施形態の変形例3)
本実施形態においては、撮像位置姿勢生成部102は、撮像位置姿勢を、学習情報である対象物体の中心位置を中心とした半球状にランダムに配置したが、撮像位置姿勢の生成方法は上記に限定されない。例えば、対象物体の回転を認識する学習モデルを構築する場合、ある撮像位置から対象物体の中心位置を注視した状態で、対象物体を所定の軸回りに回転させて複数の撮像位置姿勢を生成してもよい。また、周囲環境との衝突回避や、ロボットの可動範囲を考慮して撮像位置姿勢の範囲を調整してもよい。これにより、識別の目的を重視した学習データを効率良く生成することができる。
(第一の実施形態の変形例4)
本実施形態においては、撮像位置姿勢生成部102は、学習情報のみに基づいて撮像位置姿勢を生成する場合について説明したが、撮像位置姿勢の生成方法は上記に限定されない。例えば、学習情報に加え対象物体を撮像した画像を用いてもよい。具体的には、画像から対象物体の形状を計測し、対象物体が左右対称型であれば片側のみの撮像位置姿勢を生成したり、複雑な部分ほど密に撮像位置姿勢を生成したりしてもよい。対象物体の形状に応じた撮像位置姿勢を生成することで、効率的に学習データを生成することができる。
また、撮像位置姿勢生成部102は、ユーザが指定した撮像位置姿勢の範囲内で撮像位置姿勢を決定してもよい。例えば、対象物体の認識時に写り得る見えが事前に分かっている場合、ユーザはその範囲に限定して撮像位置姿勢を指示してもよい。これにより、学習精度の向上が期待できる。以下、図5を用いてユーザによる撮像位置姿勢の指示方法について説明する。
図5は、撮像位置姿勢の指示画面30を示す図である。指示画面30は、情報処理装置100の表示部15に表示されて、ユーザに提示される。指示画面30は、仮想的な撮像画像を表示する画像表示部31と、入力する撮像装置500の動きを指定する指定部32と、を備える。さらに、指示画面30は、撮像装置500の動きの上限値を指定するための上限ボタン33と、撮像装置500の動きの下限値を指定するための下限ボタン34と、入力終了を指示するための決定ボタン35と、を備える。ここで、撮像装置500の動きは、ヨーイング、ローリング、ピッチング、平行移動などを含む。ユーザは、マウスやキーボード等の入力部16を操作し、ボタン操作や入力を行うことができる。
まず、ユーザは、プルダウン表示される指定部32のリスト中から撮像装置500の動きを選択する。このとき、ユーザが画像表示部31に表示された画像上において仮想的な撮像装置500の移動を指示(例えば、マウスドラッグ)すると、画像表示部31において仮想的な対象物体の見えがユーザに提示される。ユーザは、画像表示部31の画像上において撮像装置500の移動を指示し、撮像装置500の動きの上限に相当する見えが得られた位置で上限ボタン33を押し、撮像装置500の動きの上限値を決定する。同様に、ユーザは、画像表示部31の画像上において撮像装置500の移動を指示し、撮像装置500の動きの下限に相当する見えが得られた位置で下限ボタン34を押し、撮像装置500の動きの下限値を決定する。このようにして、撮像位置姿勢の範囲を決定する。そして、ユーザは、必要な入力を終えたら決定ボタン35を押す。
このように、ユーザは、画像表示部31に表示される画像を操作して、学習において重要な対象物体の写り方(見え方)を確認しながら、撮像位置姿勢の範囲を適切に指定することができる。なお、撮像装置500の動きの上限値および下限値は、ユーザが直接数値(角度など)を入力することで指定してもよい。
(第一の実施形態の変形例5)
本実施形態においては、撮像位置姿勢生成部102は、撮像装置500の撮像位置姿勢のみを生成する場合について説明したが、その他の装置の状態も併せて生成してもよい。例えば、エンドエフェクタ付近に照明装置を取り付けた場合、制御部103が、対象物体の撮像時における照明の状態(照明のオン、オフや強弱の状態)を制御してもよい。また、照明装置を取り付けたロボットが別途存在する場合、撮像位置姿勢生成部102は、ロボットに取り付けた照明装置の位置姿勢も生成し、制御部103は、撮像装置500を取り付けたロボットと照明装置を取り付けたロボットとを制御してもよい。これにより、照明の影響を受けやすい対象物体の認識の頑健性を向上することができる。
(第一の実施形態の変形例6)
本実施形態においては、マニピュレータ400が撮像装置500を移動する場合について説明したが、撮像装置500を移動せずに、対象物体を移動してもよい。例えば、エンドエフェクタに吸着装置を取り付けたロボットにおいて、対象物体を吸着して動かすことで、様々な位置姿勢の対象物体を据え置きのカメラで撮像してもよい。これにより、ロボットが吸着している状態の物体の認識器が実現できる。
(第一の実施形態の変形例7)
本実施形態においては、撮像された画像から学習情報をもとに切り出した画像を学習データに使用したが、上記に限定されない。例えば、画像の切り出しを行わず、撮像された画像そのものを学習に用いる画像として学習データを生成してもよいし、見えのバリエーションを増やすために、拡大縮小または回転といった幾何変換、あるいはノイズの付与または明るさ(輝度値)や色の変更といった画像処理を行った画像に基づいて学習データを生成してもよい。また、1枚の撮像された画像から複数箇所を切り出し、それぞれを学習データに使用してもよい。この場合、1枚の撮像画像から複数の学習データを生成できるので、学習データの生成に用いる画像を撮像する時間を低減することができる。
(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、対象物体を複数の撮像位置姿勢から撮像した画像を取得し、取得したすべての画像を学習データの生成に使用する場合について説明した。この第二の実施形態では、学習データの生成に使用するデータを限定する場合について説明する。
(装置の構成)
図6は、本実施形態における物体認識装置1000Aの構成を示すブロック図である。この図6において、図1と同様の構成を有する部分には図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
物体認識装置1000Aは、情報処理装置100Aを備える。情報処理装置100Aは、図1に示す情報処理装置100に、データセット蓄積部107とデータセット抽出部108とが追加されていることを除いては、図1に示す情報処理装置100と同様の構成を有する。
データセット蓄積部107は、撮像装置500により撮像され、画像取得部104によって取得された画像と、撮像位置姿勢生成部102により生成された撮像位置姿勢と、学習情報取得部101により取得された学習情報とを入力する。そして、データセット蓄積部107は、入力された画像と、撮像位置姿勢と、学習情報とを組にしたデータセットを生成し、保存する。
データセット抽出部108は、データセット蓄積部107により蓄積されたデータセットから、撮像位置姿勢および学習情報の少なくとも一方をキーとして必要なデータセットを抽出する。データセット抽出部108は、抽出したデータセットを学習データ生成部105に出力する。学習データ生成部105は、データセット抽出部108により抽出されたデータセットを学習データの生成に用いる。
(認識処理)
本実施形態の物体認識装置1000Aによる認識処理の流れは、上述した第一の実施形態の認識処理(図3(a))と同様である。ただし、S1における学習データ生成処理の手順が異なる。
図7は、図3(a)のS1において情報処理装置100Aが実行する学習データ生成処理の手順を示すフローチャートである。この図7の処理は、図3(b)のS14の後にS18~S20の処理が追加され、S17の処理が削除されていることを除いては、図3(b)の処理と同様である。したがって、図3(b)と同一処理を実行する部分には図3(b)と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
S18では、データセット蓄積部107は、学習情報取得部101、撮像位置姿勢生成部102および画像取得部104から、それぞれ学習情報、撮像位置姿勢および画像を受け取り、これらを組にしてデータセットとして保存する。S19では、情報処理装置100は、学習データを生成するための画像の撮像を終了するか否かを判定する。このS19の処理は、図3(b)のS17の処理と同様である。
S20では、データセット抽出部108は、ユーザからキーとなる学習情報および撮像位置姿勢のうち少なくとも一方を受け取り、データセット蓄積部107により蓄積されたデータセットから該当するデータセットを抽出する。キーとなる学習情報は、学習情報取得部101により取得した学習情報であってもよいし、撮像画像500により撮像された画像に対応付けられた(幾何的に投影された)学習情報であってもよい。画像と対応付けられた学習情報を用いた場合、より目的にあったデータ抽出が可能である。
例えば、データセット抽出部108は、キーとなる学習情報として対象物体の大きさを取得し、対象物体がある大きさ以上で写っている画像を含むデータセットと、対象物体がある大きさ以下で写っている画像を含むデータセットとを別々に抽出してもよい。この場合、スケールの異なる画像を別々のCNNモデルで学習し、統合することができ、スケール変化に強い認識器を実現することができる。
別の例として、ある撮像位置姿勢から撮像すると、光沢により強い反射光が写るなど、限定的な状態で発生する見えを学習したい場合がある。このような場合、データセット抽出部108は、キーとなる所定の撮像位置姿勢を取得し、その撮像位置姿勢の周囲のデータセットを抽出してもよい。これにより、認識性能を向上することができる。
また、データセットを抽出するためのキーは、ユーザが入力画面を操作して指定するようにしてもよい。この場合の入力画面には、学習情報、撮像位置姿勢および画像を表示し、ユーザは対象物体の見えを確認しながらキーを入力できるようにしてもよい。さらに、上記入力画面は、学習情報や撮像位置姿勢をキーとしたデータセットのソート機能を備えてもよい。入力画面がデータセットの閲覧機能を有することにより、ユーザは、大量に生成されたデータセットのうち抽出したいデータセットを効率的に選択することができる。また、ユーザは、収集されたデータセットが適切であるかを容易に確認することもできる。
以上説明したように、本実施形態における情報処理装置100Aは、学習に使用するデータセットを適切に限定することができるので、認識性能の向上や、学習コストの省力化、CNNモデルの小型化を実現することができる。
(第二の実施形態の変形例)
本実施形態においては、データセット蓄積部107によるデータセットの生成の途中または終了後に、新たに学習情報を取得するようにしてもよい。この場合、データセット蓄積部107が新たに取得された学習情報を受け取り、全てのデータセットに対して学習情報を追加してもよい。これにより、既に撮像した画像を利用して、異なる学習データを生成することができるので、画像を再撮像する手間を低減することができる。
(第三の実施形態)
次に、本発明の第三の実施形態について説明する。
この第三の実施形態では、学習装置200による学習結果またはデータセット蓄積部107により蓄積されたデータセットのうち少なくとも一方に基づいて、追加の学習データを生成する場合について説明する。
(装置の構成)
図8は、本実施形態における物体認識装置1000Bの構成を示すブロック図である。この図8において、図6と同様の構成を有する部分には図6と同一符号を付し、以下、構成の異なる部分を中心に説明する。
物体認識装置1000Bは、情報処理装置100Bを備える。情報処理装置100Bは、図6に示す情報処理装置100Aに、追加撮像判断部109が追加され、撮像位置姿勢生成部102が撮像位置姿勢生成部110に置き換えられていることを除いては、図6に示す情報処理装置100Aと同様の構成を有する。
学習装置200Bは、上述した学習装置200と同様に、学習データ蓄積部106に保存されている学習データを用いてCNNモデルを学習し、保存する。本実施形態では、学習装置200Bは、学習結果を示す認識性能情報を追加撮像判断部109に出力する。ここで、認識性能情報は、認識性能を示す情報であり、例えば、各学習データにおけるラベルと認識結果との相違に関する情報とすることができる。
追加撮像判断部109は、学習装置200Bから入力された認識性能情報またはデータセット蓄積部107により保存されたデータセットのうち少なくとも一方を用いて、学習データの追加生成、つまり対象物体の追加撮像が必要であるか否かを判断する。また、追加撮像判断部109は、対象物体の追加撮像が必要であると判断した場合、追加で撮像を行う撮像位置姿勢の範囲を判断する。そして、追加撮像判断部109は、判断結果を撮像位置姿勢生成部110に出力する。
撮像位置姿勢生成部110は、追加撮像判断部109から入力された撮像位置姿勢の範囲内で、撮像位置姿勢を生成する。
(認識処理)
図9は、本実施形態の物体認識装置1000Bによる認識処理の流れを示すフローチャートである。図9において、S1、S2およびS3の処理は、それぞれ第二の実施形態と同様である。
S2において学習装置200Bによる学習が行われた後、S4では、情報処理装置100Bの追加撮像判断部109は、対象物体の追加の撮像が必要であるか否かを判断する。具体的には、追加撮像判断部109は、学習装置200Bによる学習の結果、認識性能が不足している、もしくは認識が失敗する場合、学習データを追加するために対象物体の追加の撮像が必要であると判断する。追加撮像判断部109は、追加の撮像が必要であると判断した場合、追加の撮像が必要な撮像位置姿勢の範囲を判断してS1に戻る。
一方、追加撮像判断部109は、学習装置200Bにより十分な学習ができている(例えば、認識率が一定以上である)場合には、対象物体の追加の撮像は必要ないと判断し、S3に移行する。
学習の結果、全体的に認識性能が不足している場合、改善策として全体的に学習データを増やすことが考えられる。そこで、この場合には、追加撮像判断部109は、追加の撮像が必要な撮像位置姿勢の範囲が全体であると判断し、撮像位置姿勢生成部110は、より密な撮像位置姿勢で撮像するよう全体的に追加の撮像位置姿勢を生成する。その際、撮像済みの撮像位置付近で重複して撮像しても効果は低いため、撮像位置姿勢生成部110は、最近傍の既撮像位置が最も遠い位置から撮像するよう、追加の撮像位置姿勢を生成する。これにより、効率的に追加の学習データを生成し、認識性能を全体的に改善することができる。
また、学習の結果、ある撮像位置姿勢で撮像した画像から生成された学習データの認識が失敗する場合、その位置姿勢付近での学習データが不足していることが考えられる。そこで、その場合には、追加撮像判断部109は、認識が失敗する位置を中心とし、その位置と最も近い撮像位置までの距離を半径とする範囲内を、追加の撮像が必要な撮像位置姿勢の範囲として判断する。そして、撮像位置姿勢生成部110は、その範囲内でさらに学習データを生成するべく追加の撮像位置姿勢を生成する。これにより、認識が難しい見えと類似の学習データを生成することができるため、適切に認識性能を改善することができる。
以上説明したように、本実施形態における情報処理装置200Bは、学習時に認識性能がよくない撮像位置姿勢の周辺や、データ数が少ない撮像位置姿勢の周辺で、学習データの追加生成を行うことができ、認識性能の向上を実現することができる。その際、情報処理装置100Bは、学習結果やデータセットから学習に不足している撮像位置姿勢を判断し、自動で学習データの追加生成および再学習を繰り返すので、学習の手間を低減したまま認識性能の向上を実現することができる。
(変形例)
上記各実施形態においては、撮像装置500がRGBのカラー画像とデプス画像とを取得する場合について説明したが、撮像装置500は、モノクロ画像を取得する装置であってよい。また、撮像装置500は、赤外線画像を取得する装置であってもよい。
また、上記各実施形態においては、マニピュレータ400が6軸ロボットである場合について説明したが、マニピュレータ400は、撮像装置500および対象物体の少なくとも一方を移動可能であればよい。つまり、マニピュレータ400は、多関節ロボットやパラレルリンクロボットであってもよいし、直交ロボットであってもよい。また、マニピュレータ400は、ロボット以外の移動機構であってもよい。
さらに、上記各実施形態においては、学習データ蓄積部106により学習データを保存してから学習装置200(200B)によりCNNモデルの学習を行う場合について説明したが、上記に限定されるものではない。例えば、学習データを生成しつつCNNモデルに入力することで、学習を行うようにしてもよい。
また、上記各実施形態においては、ディープラーニングの一種であるCNNを学習して、認識器を構成する場合について説明したが、上記に限定されるものではない。特徴量としては、LBP(Local Binary Pattern)を用いてもよいし、BoF(Bag of Features)などを用いてもよい。また、識別器としては、決定木を用いてもよいし、SVM(Support Vector Machine)などを用いてもよい。
さらにまた、上記各実施形態においては、認識結果をロボットによる吸着位置に用いたが、治工具の誘導位置や方向などのロボット制御に用いてもよいし、検査などに用いてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…情報処理装置、200…学習装置、300…認識装置、101…学習情報取得部、102…撮像位置姿勢生成部、103…制御部、104…画像取得部、105…学習データ生成部、106…学習データ蓄積部、1000…物体認識装置

Claims (18)

  1. 所定の入力手段によって入力された、対象物体の表面における注目位置の3次元座標を取得する第一の取得手段と、
    前記注目位置を含むように前記対象物体を撮像するための、複数の異なる撮像位置を決定する決定手段と、
    前記決定手段により決定された撮像位置に、撮像装置を備えるマニピュレータを移動させて前記対象物体が前記撮像装置により撮像された画像を取得する第二の取得手段と、
    前記第一の取得手段により取得された注目位置の3次元座標が前記注目位置を取得した座標系から前記画像の2次元座標系に変換され、変換された座標に基づく前記注目位置を示す情報前記第二の取得手段により取得された画像に対応付けられた学習データを生成する生成手段と、を備え、
    前記学習データは、前記対象物体を撮像した入力画像から該入力画像に含まれる前記対象物体の前記注目位置を出力するモデルを学習するためのデータであることを特徴とする情報処理装置。
  2. 前記第一の取得手段は、前記対象物体の前記注目位置として前記対象物体の表面における中心位置を取得し、
    前記生成手段は、
    前記決定手段により決定された撮像位置に基づいて、前記第一の取得手段により取得された中心位置を前記第二の取得手段により取得された画像に幾何的に射影し、
    前記画像と当該画像に射影された前記中心位置とに基づいて前記学習データを生成することを特徴とする請求項1に記載の情報処理装置。
  3. 第一の取得手段は、前記対象物体の位置、向き、大きさおよび種類の少なくとも1つを取得することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第一の取得手段は、前記対象物体の三次元情報における前記注目位置を取得することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記学習データは、学習に用いる画像と教師信号となるラベルとの組であり、前記ラベルは、前記学習に用いる画像の分類を表す情報であることを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記第一の取得手段は、
    ユーザによって前記入力手段に指定された前記注目位置を取得することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記第一の取得手段は、
    前記注目位置の周辺領域を許容する範囲として取得することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  8. 前記決定手段は、
    ユーザによって指定された前記撮像位置の範囲内で前記撮像位置を決定することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  9. 前記決定手段により決定された撮像位置となるように、前記対象物体を撮像する撮像装置および前記対象物体の少なくとも一方を移動させ、前記撮像装置に撮像を指示する制御手段をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
  10. 前記制御手段は、さらに前記撮像装置による前記対象物体の撮像時における照明の状態を制御することを特徴とする請求項9に記載の情報処理装置。
  11. 前記生成手段は、
    前記第二の取得手段によって取得された画像に対して、幾何変換、輝度値の変更、色の変更のうちの少なくともいずれかの処理を行った画像に基づいて前記学習データを生成することを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  12. 前記第一の取得手段により取得された注目位置と、前記決定手段により決定された撮像位置と、前記第二の取得手段により取得された画像との組をデータセットとして蓄積する蓄積手段と、
    前記蓄積手段により蓄積されたデータセットから、前記注目位置および前記撮像位置の少なくとも一方をキーとしてデータセットを抽出する抽出手段と、をさらに備え、
    前記生成手段は、前記抽出手段により抽出されたデータセットに基づいて学習データを生成することを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。
  13. 前記生成手段により生成された学習データを用いて前記モデルを学習する学習手段と、
    前記学習手段により学習されたモデルに基づいて、入力画像中の前記対象物体における前記注目位置を認識する認識手段と、をさらに備えることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。
  14. 前記学習手段によって学習されたモデルに基づいて画像における前記対象物体の認識を行った結果に基づいて、前記学習データの追加生成が必要であるか否かを判断する判断手段をさらに備え、
    前記判断手段は、前記認識の結果から認識に成功した確率である認識率が所定の値以下である場合は、前記学習データを追加で生成する必要があると判断し、前記認識率が所定の値より大きい場合は、前記学習データの生成を終了することを特徴とする請求項13に記載の情報処理装置。
  15. 前記対象物体を撮像する撮像装置と、
    前記撮像装置を移動可能なマニピュレータと、をさらに備えることを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。
  16. 情報処理装置であって、
    対象物体の3次元の注目位置を前記対象物体の3次元情報に対応付けた入力情報を取得する第一の取得手段と、
    前記対象物体を複数の異なる撮像位置から撮像した画像を取得する第二の取得手段と、
    前記第一の取得手段によって取得された前記入力情報に基づいて、撮像装置を備えるマニピュレータを移動させて複数の異なる撮像位置から前記撮像装置が撮像した画像における前記対象物体の前記注目位置を、前記入力情報を取得した座標系から前記画像の2次元座標系に前記3次元の注目位置の座標を変換し、変換された座標に基づく記注目位置を示す情報を前記画像に射影することにより決定する決定手段と、
    前記第二の取得手段によって取得された画像と、前記決定手段によって決定された撮像装置に対応した前記注目位置と、を組として、前記対象物体を撮像した入力画像から該対象物体における前記注目位置を出力する学習モデルの学習データを生成する生成手段と、を備えることを特徴とする情報処理装置。
  17. 所定の入力手段によって入力された、対象物体の表面における注目位置の3次元座標を取得する第一の取得ステップと、
    前記注目位置を含むように前記対象物体を撮像するための、複数の異なる撮像位置を決定する決定ステップと、
    前記決定ステップにより決定された撮像位置に、撮像装置を備えるマニピュレータを移動させて前記対象物体が前記撮像装置により撮像された画像を取得する第二の取得ステップと、
    前記第一の取得ステップにより取得された注目位置の3次元座標が前記注目位置を取得した座標系から前記画像の2次元座標系に変換され、変換された座標に基づく前記注目位置を示す情報前記第二の取得ステップにより取得された画像に対応付けられた学習データを生成する生成ステップと、を含み、
    前記学習データは、前記対象物体を撮像した入力画像から該入力画像に含まれる前記対象物体の前記注目位置を出力するモデルを学習するためのデータであることを特徴とする情報処理方法。
  18. コンピュータを、請求項1から16のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017008219A 2017-01-20 2017-01-20 情報処理装置、情報処理方法およびプログラム Active JP7071054B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017008219A JP7071054B2 (ja) 2017-01-20 2017-01-20 情報処理装置、情報処理方法およびプログラム
US15/873,813 US10997465B2 (en) 2017-01-20 2018-01-17 Information processing device, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017008219A JP7071054B2 (ja) 2017-01-20 2017-01-20 情報処理装置、情報処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2018116599A JP2018116599A (ja) 2018-07-26
JP2018116599A5 JP2018116599A5 (ja) 2020-02-13
JP7071054B2 true JP7071054B2 (ja) 2022-05-18

Family

ID=62906546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017008219A Active JP7071054B2 (ja) 2017-01-20 2017-01-20 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10997465B2 (ja)
JP (1) JP7071054B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190236360A1 (en) * 2018-01-30 2019-08-01 Mashgin Inc. Feedback loop for image-based recognition
JP6737824B2 (ja) * 2018-03-13 2020-08-12 ファナック株式会社 制御装置、制御方法及び制御プログラム
JP7403834B2 (ja) * 2018-07-17 2023-12-25 株式会社Synapse Gear 撮像装置と撮像方法
JP6814775B2 (ja) * 2018-10-04 2021-01-20 東芝インフォメーションシステムズ株式会社 収集装置、収集方法及び収集プログラム
TWI684925B (zh) * 2018-10-17 2020-02-11 新漢智能系統股份有限公司 自動建立物件辨識模型的方法
JP7200610B2 (ja) * 2018-11-08 2023-01-10 富士通株式会社 位置検出プログラム、位置検出方法及び位置検出装置
JP7134260B2 (ja) * 2019-01-15 2022-09-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP7200713B2 (ja) * 2019-02-04 2023-01-10 株式会社島津製作所 機械学習用教師データ作成支援方法、及び機械学習用教師データ作成支援プログラム
JP2020149086A (ja) * 2019-03-11 2020-09-17 オムロン株式会社 学習用データ生成装置、学習用データ生成方法、および学習用データ生成プログラム
JP2020166371A (ja) 2019-03-28 2020-10-08 セイコーエプソン株式会社 情報処理方法、情報処理装置、物体検出装置およびロボットシステム
CN112955928A (zh) * 2019-04-04 2021-06-11 松下知识产权经营株式会社 信息处理方法以及信息处理系统
US11176429B2 (en) * 2019-05-13 2021-11-16 International Business Machines Corporation Counter rare training date for artificial intelligence
JP2020186082A (ja) * 2019-05-13 2020-11-19 Jfeアーバンリサイクル株式会社 洗濯機識別システム
JP7266008B2 (ja) * 2020-03-24 2023-04-27 株式会社 日立産業制御ソリューションズ 学習画像判定装置、プログラムおよび学習画像判定方法
JP2022018905A (ja) * 2020-07-16 2022-01-27 キヤノン株式会社 情報処理装置及び方法、撮像装置、及び撮像システム
US20240046622A1 (en) * 2020-12-15 2024-02-08 Sony Group Corporation Information processing apparatus, information processing system, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218051A (ja) 2009-03-13 2010-09-30 Nec Corp 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP2012028949A (ja) 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法
JP2013541775A (ja) 2010-10-21 2013-11-14 ゼンロボティクス オイ ロボットシステムにおける対象物体画像のフィルタ方法
JP2014199584A (ja) 2013-03-29 2014-10-23 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6228561B1 (en) * 1996-02-01 2001-05-08 Tokyo Electron Limited Film forming method and film forming apparatus
US6259960B1 (en) * 1996-11-01 2001-07-10 Joel Ltd. Part-inspecting system
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
JP4211292B2 (ja) * 2002-06-03 2009-01-21 ソニー株式会社 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体
US7711179B2 (en) * 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
DE602007013770D1 (de) * 2006-08-11 2011-05-19 Philips Intellectual Property Auswahl von datensätzen aus 3d-darstellungen zur ansicht
US7715606B2 (en) * 2006-10-18 2010-05-11 Varian Medical Systems, Inc. Marker system and method of using the same
EP2048599B1 (en) * 2007-10-11 2009-12-16 MVTec Software GmbH System and method for 3D object recognition
US8144954B2 (en) * 2007-11-08 2012-03-27 D4D Technologies, Llc Lighting compensated dynamic texture mapping of 3-D models
EP2071515A1 (en) * 2007-12-11 2009-06-17 Honda Research Institute Europe GmbH Visually tracking an object in real world using 2D appearance and multicue depth estimations
JP4941422B2 (ja) * 2008-07-14 2012-05-30 パナソニック株式会社 部品実装システム
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
FR2951565B1 (fr) * 2009-10-20 2016-01-01 Total Immersion Procede, programme d'ordinateur et dispositif de suivi hybride de representations d'objets, en temps reel, dans une sequence d'images
JP5588196B2 (ja) * 2010-02-25 2014-09-10 キヤノン株式会社 認識装置及びその制御方法、コンピュータプログラム
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US8115761B1 (en) * 2010-10-12 2012-02-14 Google Inc. Locking geometric and camera parameters in image-based three-dimensional modeling, and applications thereof
JP2012088787A (ja) 2010-10-15 2012-05-10 Canon Inc 画像処理装置、画像処理方法
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20120321134A1 (en) * 2011-06-15 2012-12-20 Samsung Electornics Co., Ltd Face tracking method and device
US8965580B2 (en) * 2012-06-21 2015-02-24 Rethink Robotics, Inc. Training and operating industrial robots
JP2014178957A (ja) 2013-03-15 2014-09-25 Nec Corp 学習データ生成装置、学習データ作成システム、方法およびプログラム
WO2015029982A1 (ja) * 2013-08-29 2015-03-05 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
US20150243031A1 (en) * 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining at least one object feature of an object comprised in an image
JP6357949B2 (ja) * 2014-07-29 2018-07-18 セイコーエプソン株式会社 制御システム、ロボットシステム、及び制御方法
KR102290392B1 (ko) * 2014-12-02 2021-08-17 삼성전자주식회사 얼굴 등록 방법 및 장치, 얼굴 인식 방법 및 장치
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10055667B2 (en) * 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218051A (ja) 2009-03-13 2010-09-30 Nec Corp 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP2012028949A (ja) 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法
JP2013541775A (ja) 2010-10-21 2013-11-14 ゼンロボティクス オイ ロボットシステムにおける対象物体画像のフィルタ方法
JP2014199584A (ja) 2013-03-29 2014-10-23 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20180211138A1 (en) 2018-07-26
US10997465B2 (en) 2021-05-04
JP2018116599A (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
JP7071054B2 (ja) 情報処理装置、情報処理方法およびプログラム
Zimmermann et al. Learning to estimate 3d hand pose from single rgb images
JP6546618B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP6970553B2 (ja) 画像処理装置、画像処理方法
CN109426835B (zh) 信息处理装置、信息处理装置的控制方法和存储介质
US10078796B2 (en) Apparatus and method of hand gesture recognition based on depth image
US9002119B2 (en) Device method and program for human hand posture estimation
JP6740033B2 (ja) 情報処理装置、計測システム、情報処理方法及びプログラム
CN108961144B (zh) 图像处理系统
CN106104198A (zh) 信息处理设备、信息处理方法和程序
KR20180130869A (ko) 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템
WO2013051681A1 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP6141108B2 (ja) 情報処理装置およびその方法
US9595095B2 (en) Robot system
JP7261306B2 (ja) 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2017037424A (ja) 学習装置、認識装置、学習プログラム、及び認識プログラム
US20220346913A1 (en) Apparatus and method for generating virtual model
CN114730407A (zh) 使用神经网络对工作环境中的人类行为进行建模
CN112109069A (zh) 机器人示教装置以及机器人系统
US20210042576A1 (en) Image processing system
JP7209657B2 (ja) 情報処理装置及び方法
JP2003256850A (ja) 動き認識装置および画像処理装置並びにプログラム
JP7051751B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP2007241833A (ja) 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220119

C092 Termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C092

Effective date: 20220125

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220506

R151 Written notification of patent or utility model registration

Ref document number: 7071054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151