JP2020052032A - 撮像装置及び撮像システム - Google Patents

撮像装置及び撮像システム Download PDF

Info

Publication number
JP2020052032A
JP2020052032A JP2019110661A JP2019110661A JP2020052032A JP 2020052032 A JP2020052032 A JP 2020052032A JP 2019110661 A JP2019110661 A JP 2019110661A JP 2019110661 A JP2019110661 A JP 2019110661A JP 2020052032 A JP2020052032 A JP 2020052032A
Authority
JP
Japan
Prior art keywords
distance image
image data
data
imaging device
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019110661A
Other languages
English (en)
Inventor
勇太 並木
Yuta Namiki
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to DE102019124809.4A priority Critical patent/DE102019124809A1/de
Priority to US16/575,390 priority patent/US11030767B2/en
Priority to CN201910900853.3A priority patent/CN110942083A/zh
Publication of JP2020052032A publication Critical patent/JP2020052032A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】形状が崩れた対象物の距離画像からより現実に近い対象物の距離画像を推定することが可能な撮像装置を提供すること。【解決手段】本発明の撮像装置1は、撮像センサにより撮像された対象物に係る距離画像から、該距離画像よりも現実に近い該対象物に係る距離画像を推定する撮像装置であって、対象物に係る距離画像データを取得するデータ取得部30と、対象物に係る距離画像データを入力データ、対象物に係る現実に近い距離画像データを出力データとする教師データを作成する前処理部34と、前記教師データに基づいた教師あり学習を行い、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定する学習済みモデルを生成する学習部110と、を備える。【選択図】図2

Description

本発明は、撮像装置及び撮像システムに関し、特に対象物の高さ情報を取得できる距離画像の撮像装置及び撮像システムに関する。
従来、対象物の3次元的な位置、姿勢、形状を検出することを目的としたシステムが開発されており、例えば、距離情報を画素値とする距離画像を撮像することのできる3次元ビジョンセンサが知られている。3次元ビジョンセンサは、例えば視差が出るように配置された2つのセンサ(カメラ)により取得した画像を解析して、視差を利用した三角測量の技術を用いてそれぞれの画素に対応する位置がセンサからどれだけ離れているかを求めることで、対象物の3次元形状を復元している(例えば、特許文献1等)。
特開2013−024653号公報
しかしながら、3次元ビジョンセンサで撮像される距離画像は、対象物の形状が崩れてしまうことがある。例えば、ステレオ方式の3次元ビジョンセンサを用いている場合、対象物の3次元ビジョンセンサとの距離が急激に変化する部分等において、2つのセンサで取得された画像の対応が正しく取れなくなり、3次元ビジョンセンサとの距離が同じ位置の画素であっても異なる距離が算出される場合があり、このようなことが原因で距離画像における対象物の形状が崩れてしまう。
そこで、形状が崩れた対象物の距離画像からより現実に近い対象物の距離画像を推定することが可能な撮像装置及び撮像システムが望まれている。
本発明の一態様は、以下の手順により対象物の形状がくずれた距離画像を、機械学習を用いて修復する。
手順1)対象物のCADデータを取得する。
手順2)対象物の距離画像を取得する。公知の解析方法を用いて距離画像上の対象物の位置姿勢を取得する。
手順3)距離画像上での対象物の位置姿勢を、3次元ビジョンセンサから見た対象物の位置姿勢に変換する。
手順4)対処物のCADデータと3次元ビジョンセンサを、検出した位置関係で仮想空間上に配置する。
手順5)仮想空間上で3次元ビジョンセンサに映る対象物の現実に近い距離画像を生成する。
手順6)実世界の距離画像を入力データ、仮想空間での距離画像をラベルとして、ペアにして、学習データとする。
手順7)手順1〜6を、対象物を変えて行う。異なる種類の対象物でもよい。
手順8)取得した学習データの集合を学習データセットとし、ニューラルネットワーク等の学習器を学習する。この学習器は、入力データとして実世界の距離画像を入れると、その距離画像を現実に近い距離画像に変換するものとなる。
そして、本発明の一態様は、撮像センサにより撮像された対象物に係る距離画像からの、該距離画像よりも現実に近い該対象物に係る距離画像の推定に係る機械学習の処理を行う撮像装置であって、対象物に係る距離画像データを取得するデータ取得部と、対象物に係る距離画像データから入力データを作成する前処理部と、を備え、前記入力データを用いて、対象物に係る距離画像データからの対象物に係る現実に近い距離画像データの推定に係る機械学習の処理を行う、撮像装置である。
本発明の他の態様は、撮像センサにより撮像された対象物に係る距離画像に基づくより現実に近い該対象物に係る距離画像の推定に係る機械学習の処理を行う撮像装置の機械学習処理方法であって、前記対象物に係る距離画像データを取得する第1ステップと、前記対象物に係る距離画像データから入力データを作成する第2ステップと、前記入力データを用いて、対象物に係る距離画像データからの対象物に係る現実に近い距離画像データの推定に係る機械学習の処理を行う第3ステップと、を実行する撮像装置の機械学習処理方法である。
本発明の他の態様は、複数の装置がネットワークを介して相互に接続されたシステムであって、前記複数の装置は、少なくとも学習部を備えた撮像装置を含む撮像システムである。
本発明の一態様により、対象物の形状が崩れた距離画像から、該距離画像よりも現実に近い対象物の距離画像を推定することが可能となる。
一実施形態による機械学習装置を備えた撮像装置の要部を示す概略的なハードウェア構成図である。 第1の実施形態による撮像装置の概略的な機能ブロック図である。 対象物の距離画像データと現実に近い距離画像データとを例示する図である。 第2の実施形態による撮像装置の概略的な機能ブロック図である。 クラウドサーバ、フォグコンピュータ、エッジコンピュータを含む3階層構造のシステムの例を示す図である。 コンピュータ上に実装した形態での撮像装置の概略的なハードウェア構成図である。 第3の実施形態による撮像システムの概略的な構成図である。 第4の実施形態による撮像システムの概略的な構成図である。 第5の実施形態による撮像システムの概略的な構成図である。
以下、本発明の実施形態を図面と共に説明する。
図1は一実施形態による機械学習装置を備えた撮像装置の要部を示す概略的なハードウェア構成図である。本実施形態の撮像装置1は、工場に設置されているパソコンや、工場に設置される機械を管理するセルコンピュータ、ホストコンピュータ、エッジコンピュータ、クラウドサーバ等のコンピュータとして実装することが出来る。図1は、工場に設置されているパソコンとして撮像装置1を実装した場合の例を示している。
本実施形態による撮像装置1が備えるCPU11は、撮像装置1を全体的に制御するプロセッサである。CPU11は、ROM12に格納されたシステム・プログラムをバス20を介して読み出し、該システム・プログラムに従って撮像装置1全体を制御する。RAM13には一時的な計算データ、入力装置71を介して作業者が入力した各種データ等が一時的に格納される。
不揮発性メモリ14は、例えば図示しないバッテリでバックアップされたメモリやSSD等で構成され、撮像装置1の電源がオフされても記憶状態が保持される。不揮発性メモリ14には、撮像装置1の動作に係る設定情報が格納される設定領域や、入力装置71から入力されたプログラムやデータ等、図示しない外部記憶装置やネットワークを介して読み込まれたCADデータ等が記憶される。不揮発性メモリ14に記憶されたプログラムや各種データは、実行時/利用時にはRAM13に展開されても良い。また、ROM12には、学習データセットを解析するための公知の解析プログラムや後述する機械学習装置100とのやりとりを制御するためのシステム・プログラムなどを含むシステム・プログラムがあらかじめ書き込まれている。
撮像センサ4は、例えば対象物を撮像することで該対象物の距離画像データ(距離情報を値として持つ2次元又は1次元配列のデータ)を生成する3次元ビジョンセンサである。撮像センサ4としての3次元ビジョンセンサは、複数のCCDセンサを備えた三角測量方式でも、タイムオブフライト方式のものでも、合焦点方式のものでも良い。撮像センサ4は、例えば図示しないロボットのハンドに取り付けられ、該ロボットにより判別対象となる対象物を撮像する撮像位置に移動され、該対象物を撮像して得られた距離画像データをインタフェース19を介してCPU11に渡す。撮像センサ4は、例えばいずれかの位置に固定的に設置されており、ロボットがハンドで把持した対象物を撮像センサ4で撮像可能な位置に移動させることで撮像センサ4が対象物の距離画像データを撮像できるようにしても良い。撮像センサ4による対象物の撮像に係る制御は、撮像装置1がプログラムを実行することにより行うようにしてもよいし、ロボットを制御するロボットコントローラや、他の装置からの制御により行うようにしても良い。
表示装置70には、メモリ上に読み込まれた各データ、プログラム等が実行された結果として得られたデータ、撮像センサ4が撮像して得られた対象物の距離画像データ、後述する機械学習装置100から出力されたデータ等がインタフェース17を介して出力されて表示される。また、キーボードやポインティングデバイス等から構成される入力装置71は、作業者による操作に基づく指令,データ等を受けて、インタフェース18を介してCPU11に渡す。
インタフェース21は、撮像装置1と機械学習装置100とを接続するためのインタフェースである。機械学習装置100は、機械学習装置100全体を統御するプロセッサ101と、システム・プログラム等を記憶したROM102、機械学習に係る各処理における一時的な記憶を行うためのRAM103、及び学習モデル等の記憶に用いられる不揮発性メモリ104を備える。機械学習装置100は、インタフェース21を介して撮像装置1で取得可能な各情報(例えば、距離画像データ、CADデータ等)を観測することができる。また、撮像装置1は、機械学習装置100から出力される処理結果をインタフェース21を介して取得する。
図2は、第1の実施形態による撮像装置1と機械学習装置100の学習モードにおける概略的な機能ブロック図である。図2に示した各機能ブロックは、図1に示した撮像装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、撮像装置1及び機械学習装置100の各部の動作を制御することにより実現される。
本実施形態の撮像装置1は、データ取得部30、対象物検出部32、前処理部34を備え、また、撮像装置1が備える機械学習装置100は、学習部110を備え、また、不揮発性メモリ14上に設けられたCADデータ記憶部50には、予め図示しない外部記憶装置又は有線/無線のネットワークを介して、学習に用いる対象物(複数の対象物があり得る)に係るCADデータが記憶されている。
データ取得部30は、撮像センサ4から、又は図示しない外部記憶装置や有線/無線ネットワークを介して、対象物に係る距離画像データを取得する機能手段である。データ取得部30が取得する距離画像データは、2次元の撮像面の画素毎に撮像センサ4からの距離が設定されているデータであり、例えば撮像センサ4の撮像範囲において、予め指定した距離の範囲を等分割して画素値としたものであっても良い。
対象物検出部32は、データ取得部30が取得した対象物に係る距離画像データから、該距離画像データ内の対象物の位置及び姿勢を取得する機能手段である。対象物検出部32は、例えばCADデータ記憶部50から読み出した対象物に係るCADデータにより対象物の形状を特定し、該CADデータの位置及び姿勢を変更しながら距離画像データとの間で公知のマッチング処理を行うことにより、距離画像データの中から対象物の位置及び姿勢を特定するようにすれば良い。
前処理部34は、対象物に係る距離画像データ及び対象物に係るCADデータに基づいて、機械学習装置100による学習に用いる教師データを作成する。前処理部34は、対象物に係る距離画像データを入力データとし、対象物に係るCADデータから生成した対象物に係る現実に近い距離画像データ(データ取得部30が取得した対象物に係る距離画像よりも現実に近い距離画像のデータ、対象物に係る理想的な距離画像のデータ)を出力データとした教師データTを作成する。図4は、対象物に係る距離画像と、対象物に係る現実に近い距離画像の例を示す図である。対象物の距離画像は、上記でも説明したように、距離画像の生成アルゴリズムに応じて撮像センサ4との距離が変化する部分において距離の検出誤差が出るため、その部分に崩れが生じやすい。前処理部34は、対象物に係る現実に近い距離画像データを、例えば仮想空間上の視点位置に対して、撮像センサ4に対する対象物の位置及び姿勢と同じ位置及び姿勢でCADデータを配置し、その時の視点位置から見えるCADデータの形状から対象物に係る現実に近い画像データを生成する。このようにして生成された対象物に係る現実に近い距離画像は、視点との距離が変化する部分においても誤差が生じないため、画像に崩れが生じることがない。なお、対象物に係る距離画像データに対象物以外に該対象物を固定する治具等が一緒に写り込んでいる場合には、予め治具に係るCADデータも取得しておき、対象物に係るCADデータと同様に仮想空間に配置して、対象物の現実に近い距離画像データに含めるようにしても良い。
学習部110は、前処理部34が作成した教師データTを用いた教師あり学習を行い、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定するために用いられる学習済みモデルを生成する(学習する)機能手段である。本実施形態の学習部110は、例えばニューラルネットワークを学習モデルとして用いた教師あり学習を行うように構成しても良い。この様に構成する場合、学習モデルとしては入力層、中間層、出力層の三層を備えたニューラルネットワークを用いても良いが、三層以上の層を為すニューラルネットワークを用いた、いわゆるディープラーニングの手法を用いることで、より効果的な学習及び推論を行うように構成することも可能である。学習部110が生成した学習済みモデルは、不揮発性メモリ104上に設けられた学習モデル記憶部130に記憶され、推定部120による対象物に係る現実に近い距離画像データの推定処理に用いられる。
学習部110は、データ取得部30が取得した様々な対象物(異なる対象物)に係る距離画像データ、撮像条件(照明位置等)を変更して撮像された対象物に係る距離画像データを用いて上記した学習を繰り返し行うことにより、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定するために用いられる学習済みモデルを生成する。このような学習を繰り返すことにより、対象物や撮像条件によらず撮像センサ4で得られた対象物に係る距離画像の崩れ方に対するより現実に近い距離画像を学習した学習済みモデルが構築される。
本実施形態の撮像装置1の一変形例として、データ取得部30が対象物に係る距離画像データを取得するだけでなく、同じ位置関係で撮像した対象物に係る輝度画像データ等の別の形式の画像データを取得するように構成し、取得した別の形式の画像データを距離画像データを補助する補助画像データとして用いた学習を行うようにしても良い。この場合、前処理部34は、対象物に係る距離画像データと補助画像データとを入力データとして教師データTを作成し、学習部110は作成された教師データTを用いた教師あり学習を行う。このようにすることで、対象物に係るより豊富な情報に基づいて対象物に係る現実に近い距離画像データを推定するための学習済みモデルを構築することができ、この学習済みモデルを用いることで推定部120による現実に近い距離画像データの推定の精度が向上する。
本実施形態の撮像装置1の他の変形例として、前処理部34が教師データTを作成する際に用いる対象物に係る現実に近い距離画像データは、例えば高精度な撮像センサを用いて得られた画像に基づいて作成するようにしても良い。高精度な撮像センサとしては、解像度の高い撮像センサや、距離画像を撮像する以外に輝度やその他の物理量を検出し、これらの情報に基づいてより精度高くセンサからの距離を検出できるものが例示される。このような撮像センサは高価なものとなるが、学習済みモデルの構築段階でのみ必要とされる構成であり、また、対象物のCADデータが入手できない場合にも学習済みモデルの構築が行えるというメリットがある。
図4は、第2の実施形態による撮像装置1と機械学習装置100の推定モードにおける概略的な機能ブロック図である。図4に示した各機能ブロックは、図1に示した撮像装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、撮像装置1及び機械学習装置100の各部の動作を制御することにより実現される。
本実施形態の撮像装置1は、推定モードにおいて、データ取得部30が取得した対象物に係る距離画像データに基づいて該対象物に係る距離画像よりも現実に近い距離画像データを推定する。本実施形態による撮像装置1において、データ取得部30,対象物検出部32が備える機能は第1の実施形態のものと同様のものである。
前処理部34は、対象物に係る距離画像データに基づいて、機械学習装置100による推定に用いる入力データを作成する。
推定部120は、前処理部34から入力された入力データに基づいて、学習モデル記憶部130に記憶された学習済みモデルを用いた対象物に係る現実に近い画像の推定を行う。本実施形態の推定部120では、学習部110による教師あり学習により生成された(パラメータが決定された)学習済みモデルに対して、前処理部34から入力された入力データ(対象物に係る距離画像データ)を入力することで対象物に係る現実に近い距離画像データを推定(算出)する。推定部120が推定した対象物に係る現実に近い距離画像データは、例えば表示装置70に表示出力したり、図示しない有線/無線ネットワークを介してホストコンピュータやクラウドコンピュータ等に送信出力して利用するようにしても良い。
上記のように構成された本実施形態の撮像装置1では、様々な対象物、撮像条件で撮像することで得られた複数の教師データに基づいて学習を行った結果として得られた学習済みデータを用いて対象物に係る現実に近い距離画像データを推定することができるようになる。
以下の、第3〜5の実施形態では、第1の実施形態による撮像装置1が、クラウドサーバやホストコンピュータ、フォグコンピュータ、エッジコンピュータ(ロボットコントローラ、制御装置等)を含む複数の装置と有線/無線のネットワークを介して相互に接続したシステムの一部として実装されている実施形態について説明する。図5に例示されるように、以下の第3〜5の実施形態では、複数の装置のそれぞれがネットワークに接続された状態でクラウドサーバ6等を含む層、フォグコンピュータ7等を含む層、エッジコンピュータ8(セル9に含まれるロボットコントローラ、制御装置等)等を含む層の、3つの階層に論理的に分けて構成されているシステムを想定する。この様なシステムに於いて、本発明による一態様による撮像装置1は、クラウドサーバ6、フォグコンピュータ7、エッジコンピュータ8のいずれの上にも実装することが可能であり、それぞれの複数の装置との間でネットワークを介して相互に機械学習に係る処理で用いるデータを共有して分散学習をしたり、生成した学習モデルをフォグコンピュータ7やクラウドサーバ6に収集して大規模な解析を行ったり、更に、生成した学習モデルの相互再利用等をしたりすることができる。図5に例示されるシステムにおいて、セル9は各地の工場にそれぞれ複数設けられ、それぞれのセル9を所定の単位(工場単位、同じ製造業者の複数の工場単位等)で上位層のフォグコンピュータ7が管理する。そして、これらフォグコンピュータ7が収集、解析したデータを、更に上位層のクラウドサーバ6で収集、解析等を行い、その結果として得られた情報を各々のエッジコンピュータ8における制御等に活用することができる。
図6はクラウドサーバ、フォグコンピュータ等のコンピュータ上に撮像装置を実装した場合の概略的なハードウェア構成図である。
本実施形態によるコンピュータ上に実装された撮像装置1’が備えるCPU311は、撮像装置1’を全体的に制御するプロセッサである。CPU311は、ROM312に格納されたシステム・プログラムをバス320を介して読み出し、該システム・プログラムに従って撮像装置1’の全体を制御する。RAM313には一時的な計算データや表示データ、図示しない入力部を介してオペレータが入力した各種データ等が一時的に格納される。
不揮発性メモリ314は、例えば図示しないバッテリでバックアップされるなどして、撮像装置1’の電源がオフされても記憶状態が保持されるメモリとして構成される。不揮発性メモリ314には、入力装置371を介して入力されたプログラム、撮像装置1’の各部やネットワーク5を介して撮像センサ4等から取得された各種データが記憶されている。不揮発性メモリ314に記憶されたプログラムや各種データは、実行時/利用時にはRAM313に展開されても良い。また、ROM312には、公知の解析プログラムなどの各種のシステム・プログラム(後述する機械学習装置100とのやりとりを制御するためのシステム・プログラムを含む)があらかじめ書き込まれている。
撮像装置1’は、インタフェース319を介して有線/無線のネットワーク5と接続されている。ネットワーク5には、少なくとも1つの撮像センサや、他の撮像装置1、エッジコンピュータ8、フォグコンピュータ7、クラウドサーバ6等が接続され、撮像装置1’との間で相互にデータのやり取りを行っている。
表示装置370には、メモリ上に読み込まれた各データ、プログラム等が実行された結果として得られたデータ等がインタフェース317を介して出力されて表示される。また、キーボードやポインティングデバイス等から構成される入力装置371は、作業者による操作に基づく指令,データ等をインタフェース318を介してCPU311に渡す。
インタフェース321は、撮像装置1’と機械学習装置100とを接続するためのインタフェースである。機械学習装置100については、図1で説明したものと同様の構成を備える。
この様に、クラウドサーバ、フォグコンピュータ等のコンピュータ上に撮像装置1’を実装する場合、撮像センサ4からの情報の取得等が、ネットワーク5を介してやり取りされる点を除けば、撮像装置1’が備える機能については第1,2の実施形態で説明したものと同様のものとなる。
図7は、撮像装置1’を備えた第3の実施形態による撮像システムの概略的な構成図である。撮像システム500は、複数の撮像装置1,1’、複数の撮像センサ4、及びそれら撮像装置1,1’、撮像センサ4を互いに接続するネットワーク5とを備える。
撮像システム500では、機械学習装置100を備える撮像装置1’は、学習部110の学習結果を用いて、撮像センサ4が撮像した対象物に係る現実に近い距離画像を推定する。また、少なくとも1つの撮像装置1’が、他の複数の撮像装置1、1’のそれぞれが得た教師データTに基づき、全ての撮像装置1、1’に共通する撮像センサ4が撮像した対象物に係る現実に近い距離画像を学習し、その学習結果を全ての撮像装置1、1’が共有するように構成できる。したがって撮像システム500によれば、より多様なデータ集合(教師データTを含む)を入力として、学習の速度や信頼性を向上させることができる。
図8は、機械学習装置と撮像装置とを異なる装置上に実装した第4の実施形態によるシステムの概略的な構成図である。撮像システム500’は、クラウドサーバ、ホストコンピュータ、フォグコンピュータ等のコンピュータの一部として実装された少なくとも1台の機械学習装置100(図8では、フォグコンピュータ7の一部として実装された例を示している)と、複数の撮像装置1”と、それら撮像装置1”とコンピュータとを互いに接続するネットワーク5とを備える。なお、コンピュータのハードウェア構成は、図6に示した撮像装置1’の概略的なハードウェア構成と同様に、CPU311、RAM313,不揮発性メモリ314等の一般的なコンピュータが備えるハードウェアがバス320を介して接続して構成される。
上記構成を有する撮像システム500’は、機械学習装置100が、複数の撮像装置1”のそれぞれについて得られた教師データTに基づき、全ての撮像装置1”に共通する撮像センサ4が撮像した対象物に係る現実に近い距離画像を学習し、その学習結果を用いて、それぞれの撮像センサ4が撮像した対象物に係る現実に近い距離画像の推定を行うことができるようになる。撮像システム500’の構成によれば、複数の撮像装置1”のそれぞれが、存在する場所や時期に関わらず、必要なときに必要な数の撮像装置1”を機械学習装置100に接続することができる。
図9は、機械学習装置100’と撮像装置1とを備えた第5の実施形態による撮像システム500”の概略的な構成図である。撮像システム500”は、エッジコンピュータやフォグコンピュータ、ホストコンピュータ、クラウドサーバ等のコンピュータの上に実装された少なくとも1台の機械学習装置100’(図9では、フォグコンピュータ7の一部として実装された例を示している)と、複数の撮像装置1と、それら撮像装置1とコンピュータとを互いに接続する有線/無線のネットワーク5とを備える。
上記構成を有する撮像システム500”では、機械学習装置100’を備えるフォグコンピュータ7が、各々の撮像装置1から、該撮像装置1が備える機械学習装置100による機械学習の結果として得られた学習モデルを取得する。そして、フォグコンピュータ7が備える機械学習装置100’は、これら複数の学習モデルに基づく知識の最適化や効率化の処理を行うことで、新たに最適化乃至効率化された学習モデルを生成し、生成した学習モデルを各々の撮像装置1に対して配布する。
機械学習装置100’が行う学習モデルの最適化乃至効率化の例としては、各撮像装置1から取得した複数の学習モデルに基づいた蒸留モデルの生成が挙げられる。この場合、本実施例による機械学習装置100’は、学習モデルに対して入力する入力データを作成し、該入力データを各々の学習モデルに対して入力した結果として得られる出力を用いて、1から学習を行うことで新たに学習モデル(蒸留モデル)を生成する。このようにして生成された蒸留モデルは、上記でも説明したように、外部記憶媒体やネットワーク5を介して撮像装置1や他のコンピュータに対して配布して活用される。
機械学習装置100’が行う学習モデルの最適化乃至効率化の他の例としては、各撮像装置1から取得した複数の学習モデルに対して蒸留を行う過程において、入力データに対する各学習モデルの出力データの分布を一般的な統計的手法(例えば、外れ値検定等)で解析し、入力データと出力データの組の外れ値を抽出し、該外れ値を除外した入力データと出力データの組を用いて蒸留を行うことも考えられる。このような過程を経ることで、それぞれの学習モデルから得られる入力データと出力データの組から例外的な推定結果を除外し、例外的な推定結果を除外した入力データと出力データの組を用いて蒸留モデルを生成することができる。このようにして生成された蒸留モデルは、複数の撮像装置1で生成された学習モデルと比べてより汎用的な学習モデルとして活用することが可能となる。
なお、他の一般的な学習モデルの最適化乃至効率化の手法(各学習モデルを解析し、その解析結果に基づいて学習モデルのハイパパラメータを最適化する等)も適宜導入することが可能である。
本実施例による撮像システム500”では、例えばエッジコンピュータとしての複数の撮像装置1に対して設置されたフォグコンピュータ7の上に機械学習装置100’を配置し、各々の撮像装置1で生成された学習モデルをフォグコンピュータ7上に集約して記憶しておき、記憶した複数の学習モデルに基づいた最適化乃至効率化を行った上で、最適化乃至効率化された学習モデルを必要に応じて各撮像装置1に対して再配布するという運用を行うことができる。
また、本実施例による撮像システム500”では、例えばフォグコンピュータ7の上に集約して記憶された学習モデルや、フォグコンピュータ7上で最適化乃至効率化された学習モデルを、更に上位のホストコンピュータやクラウドサーバ上に集め、これら学習モデルを用いて工場や撮像装置1のメーカでの知的作業への応用(上位サーバでの更なる汎用的な学習モデルの構築及び再配布、学習モデルの解析結果に基づく保守作業の支援、各々の撮像装置1の性能等の分析、新しい機械の開発への応用等)を行うことができる。
以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
例えば、機械学習装置100が実行する学習アルゴリズム、機械学習装置100が実行する演算アルゴリズム、撮像装置1が実行する制御アルゴリズム等は、前記したものに限定されず、様々なアルゴリズムを採用できる。
また、上記した実施形態では撮像装置1と機械学習装置100が異なるCPU(プロセッサ)を有する装置として説明しているが、機械学習装置100は撮像装置1が備えるCPU11と、ROM12に記憶されるシステム・プログラムにより実現するようにしても良い。
1 撮像装置
4 撮像センサ
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
17,18,19 インタフェース
20 バス
21 インタフェース
30 データ取得部
32 対象物検出部
34 前処理部
42 正誤検出部
50 CADデータ記憶部
70 表示装置
71 入力装置
100 機械学習装置
101 プロセッサ
102 ROM
103 RAM
104 不揮発性メモリ
110 学習部
120 推定部
130 学習モデル記憶部

Claims (15)

  1. 撮像センサにより撮像された対象物に係る距離画像からの、該距離画像よりも現実に近い該対象物に係る距離画像の推定に係る機械学習の処理を行う撮像装置であって、
    対象物に係る距離画像データを取得するデータ取得部と、
    対象物に係る距離画像データから入力データを作成する前処理部と、
    を備え、
    前記入力データを用いて、対象物に係る距離画像データからの対象物に係る現実に近い距離画像データの推定に係る機械学習の処理を行う、
    撮像装置。
  2. 前記前処理部は、対象物に係る距離画像データを入力データ、対象物に係る現実に近い距離画像データを出力データとする教師データを作成し、前記撮像装置は、
    前記教師データに基づいた前記機械学習の処理に係る教師あり学習を行い、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定するための学習済みモデルを生成する学習部を更に備える、
    請求項1に記載の撮像装置。
  3. 前記データ取得部が取得した前記対象物に係る距離画像データから、前記対象物の位置及び姿勢を検出する対象物検出部を更に備える、
    請求項2に記載の撮像装置。
  4. 前記対象物に係るCADデータを記憶するCADデータ記憶部を更に備え、
    前記前処理部は、前記CADデータ記憶部に記憶された前記対象物に係るCADデータに基づいて、前記対象物の現実に近い距離画像データを生成する、
    請求項2又は3に記載の撮像装置。
  5. 前記データ取得部が取得した前記対象物に係る距離画像データから、前記対象物の位置及び姿勢を検出する対象物検出部と、
    前記対象物に係るCADデータを記憶するCADデータ記憶部とを更に備え、
    前記前処理部は、前記CADデータ記憶部に記憶された前記対象物に係るCADデータ及び前記対象物検出部が検出した前記対象物の位置及び姿勢に基づいて、前記対象物の現実に近い距離画像データを生成する、
    請求項2に記載の撮像装置。
  6. 前記前処理部は、前記撮像センサよりも高精度な撮像センサで撮像された前記対象物に係る距離画像に基づいて、前記対象物の現実に近い距離画像データを生成する、
    請求項2又は3に記載の撮像装置。
  7. 前記データ取得部は、前記対象物に係る距離画像データに加えて、前記対象物の輝度画像データを取得し、
    前記前処理部は、前記対象物に係る距離画像データ及び輝度画像データを入力データとする、
    請求項2〜6のいずれか1つに記載の撮像装置。
  8. 対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定する学習済みモデルを記憶した学習モデル記憶部と、
    前記機械学習の処理として、前記入力データ及び前記学習済みモデルを用いて、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定する推定部とを更に備える、
    請求項1に記載の撮像装置。
  9. 撮像センサにより撮像された対象物に係る距離画像に基づくより現実に近い該対象物に係る距離画像の推定に係る機械学習の処理を行う撮像装置の機械学習処理方法であって、
    前記対象物に係る距離画像データを取得する第1ステップと、
    前記対象物に係る距離画像データから入力データを作成する第2ステップと、
    前記入力データを用いて、対象物に係る距離画像データからの対象物に係る現実に近い距離画像データの推定に係る機械学習の処理を行う第3ステップと、
    を実行する撮像装置の機械学習処理方法。
  10. 前記第2ステップは、前記対象物に係る距離画像データを入力データ、前記対象物に係る現実に近い距離画像データを出力データとする教師データを作成するステップであり、前記第3ステップは、前記機械学習の処理として、前記教師データに基づいた教師あり学習を行い、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定するための学習済みモデルを生成する、
    請求項9に記載の撮像装置の機械学習処理方法。
  11. 前記第3ステップは、前記機械学習の処理として、前記入力データと、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定するための学習済みモデルとを用いて、対象物に係る距離画像データから対象物に係る現実に近い距離画像データを推定する、
    請求項9に記載の撮像装置の機械学習処理方法。
  12. 複数の装置がネットワークを介して相互に接続されたシステムであって、
    前記複数の装置は、少なくとも請求項2〜5のいずれかに記載された撮像装置である第1の撮像装置を含む
    撮像システム。
  13. 前記複数の装置は、機械学習装置を備えたコンピュータを含み、
    前記コンピュータは、前記第1の撮像装置の少なくとも1つの前記学習の結果としての学習モデルを取得し、
    前記コンピュータが備える機械学習装置は、取得した前記学習モデルに基づく最適化乃至効率化を行う、
    請求項12に記載の撮像システム。
  14. 前記複数の装置は、前記第1の撮像装置とは異なる第2の撮像装置を含み、
    前記第1の撮像装置による学習結果は、前記第2の撮像装置と共有される、
    請求項12に記載の撮像システム。
  15. 前記複数の装置は、前記第1の撮像装置とは異なる第2の撮像装置を含み、
    前記第2の撮像装置において観測されたデータは、前記ネットワークを介して前記第1の撮像装置による学習に利用可能である、
    請求項12に記載の撮像システム。
JP2019110661A 2018-09-21 2019-06-13 撮像装置及び撮像システム Pending JP2020052032A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019124809.4A DE102019124809A1 (de) 2018-09-21 2019-09-16 Bildgebungsvorrichtung und Bildgebungssystem
US16/575,390 US11030767B2 (en) 2018-09-21 2019-09-19 Imaging apparatus and imaging system
CN201910900853.3A CN110942083A (zh) 2018-09-21 2019-09-23 拍摄装置以及拍摄系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018177328 2018-09-21
JP2018177328 2018-09-21

Publications (1)

Publication Number Publication Date
JP2020052032A true JP2020052032A (ja) 2020-04-02

Family

ID=69996842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110661A Pending JP2020052032A (ja) 2018-09-21 2019-06-13 撮像装置及び撮像システム

Country Status (1)

Country Link
JP (1) JP2020052032A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7459452B2 (ja) 2020-11-23 2024-04-02 ソニーグループ株式会社 ニューラルネットワークモデルベースの深度推定
WO2024076169A1 (ko) * 2022-10-07 2024-04-11 삼성전자 주식회사 공간정보를 이용한 객체 인식 모델의 학습 방법 및 이를 수행하기 위한 컴퓨팅 장치
JP7560040B2 (ja) 2020-07-28 2024-10-02 華為技術有限公司 ターゲットとした総合相違損失を用いるセマンティック・セグメンテーション

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296697A (ja) * 1998-04-10 1999-10-29 Toyota Motor Corp 曲面生成方法
JP2014115915A (ja) * 2012-12-11 2014-06-26 Hitachi Ltd 3次元モデル生成装置、3次元モデル生成方法及び3次元モデル生成プログラム
US20180257225A1 (en) * 2017-03-13 2018-09-13 Fanuc Corporation Robot system, measurement data processing device and measurement data processing method for picking out workpiece using measurement data corrected by means of machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296697A (ja) * 1998-04-10 1999-10-29 Toyota Motor Corp 曲面生成方法
JP2014115915A (ja) * 2012-12-11 2014-06-26 Hitachi Ltd 3次元モデル生成装置、3次元モデル生成方法及び3次元モデル生成プログラム
US20180257225A1 (en) * 2017-03-13 2018-09-13 Fanuc Corporation Robot system, measurement data processing device and measurement data processing method for picking out workpiece using measurement data corrected by means of machine learning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7560040B2 (ja) 2020-07-28 2024-10-02 華為技術有限公司 ターゲットとした総合相違損失を用いるセマンティック・セグメンテーション
JP7459452B2 (ja) 2020-11-23 2024-04-02 ソニーグループ株式会社 ニューラルネットワークモデルベースの深度推定
WO2024076169A1 (ko) * 2022-10-07 2024-04-11 삼성전자 주식회사 공간정보를 이용한 객체 인식 모델의 학습 방법 및 이를 수행하기 위한 컴퓨팅 장치

Similar Documents

Publication Publication Date Title
JP7410499B2 (ja) 組立ロボットの遠隔操作環境のデジタルツインモデリング方法及びシステム
US11498220B2 (en) Control system and control method
JP6551184B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
CN106780608B (zh) 位姿信息估计方法、装置和可移动设备
US9727053B2 (en) Information processing apparatus, control method for information processing apparatus, and recording medium
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
RU2700246C1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
US11030767B2 (en) Imaging apparatus and imaging system
JP2020052032A (ja) 撮像装置及び撮像システム
WO2021218542A1 (zh) 基于视觉感知设备的机器人本体坐标系的空间标定方法、装置和存储介质
US11971709B2 (en) Learning device, control device, learning method, and recording medium
JP2020024484A (ja) 制御システムおよび制御装置
TW202238449A (zh) 室內定位系統及室內定位方法
CN115461199A (zh) 用于自主机器人操作的面向任务的3d重构
KR20120033414A (ko) 자기 위치 인식을 수행하는 로봇 및 그의 운용 방법
CN113601510B (zh) 基于双目视觉的机器人移动控制方法、装置、系统及设备
CN116823954B (zh) 铰接式车辆的位姿估计方法、装置、车辆及存储介质
JP5762099B2 (ja) 姿勢認識装置、作業ロボット、姿勢認識方法、プログラム及び記録媒体
US11559888B2 (en) Annotation device
US20210042576A1 (en) Image processing system
Scheuermann et al. Mobile augmented reality based annotation system: A cyber-physical human system
TWI788253B (zh) 適應性移動操作設備及方法
JP2012165135A (ja) 撮像装置、撮像条件設定方法、プログラム
CN117218171A (zh) 深度估计模型优化与物体距离检测方法及相关设备
US20230005175A1 (en) Position analysis device and method, and camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102