JP7341079B2 - 距離画像推定装置及び操縦装置 - Google Patents

距離画像推定装置及び操縦装置 Download PDF

Info

Publication number
JP7341079B2
JP7341079B2 JP2020020266A JP2020020266A JP7341079B2 JP 7341079 B2 JP7341079 B2 JP 7341079B2 JP 2020020266 A JP2020020266 A JP 2020020266A JP 2020020266 A JP2020020266 A JP 2020020266A JP 7341079 B2 JP7341079 B2 JP 7341079B2
Authority
JP
Japan
Prior art keywords
distance
image
distance image
acquired
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020020266A
Other languages
English (en)
Other versions
JP2021125157A (ja
Inventor
孝介 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2020020266A priority Critical patent/JP7341079B2/ja
Publication of JP2021125157A publication Critical patent/JP2021125157A/ja
Application granted granted Critical
Publication of JP7341079B2 publication Critical patent/JP7341079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、距離画像推定装置及び操縦装置に関する。
従来、機械学習モデルを用いて撮影画像から距離画像を推定する方法が知られている。特許文献1には、計測により得られた第1距離画像と、機械学習モデルを用いて推定された第2距離画像とを用いて、信頼度の高い第3距離画像を生成するシステムが示されている。非特許文献1には、ニューラルネットワークを用いて推定された距離画像を補正する方法が示されている。
特開2019-87229号公報
従来の距離画像の推定技術では、推定された距離画像と真の距離画像との差は比較的に大きい。一方、距離画像を利用する際には、幾つかの点で距離の真値が得られる場合がある。
本発明は、1つ又は複数の点の距離が取得された場合に、撮影画像から精度の高い距離画像を得ることのできる距離画像推定装置、並びに、このような距離画像推定装置を有する操縦装置を提供することを目的とする。
(1)
本発明に係る一態様の距離画像推定装置は、
撮影部から送られた撮影画像に基づき前記撮影画像に対応した距離画像を推定する距離画像推定部と、
撮影領域に含まれる少なくとも一つの点までの距離を取得可能な距離取得部と、
を備え、
前記距離画像推定部は、前記距離取得部が距離を取得した場合に、取得された距離と距離が取得された距離取得点との情報に基づいて、前記距離取得点以外の点を含めて、前記距離画像を補正し、
前記距離画像推定部は、機械学習されたニューラルネットワークを用いて前記距離画像を推定し、前記距離取得部が取得した距離に基づいて、前記ニューラルネットワークの中間層に入力される情報を補正する。
(2)
本発明に係るもう一つの態様の距離画像推定装置は、
撮影部から送られた撮影画像に基づき前記撮影画像に対応した距離画像を推定する距離画像推定部と、
撮影領域に含まれる少なくとも一つの点までの距離を取得可能な距離取得部と、
前記距離取得部が距離を取得した場合に、取得した距離及び距離取得点の情報を記憶するデータベースと、
を備え、
前記距離画像推定部は、前記距離取得部が距離を取得した場合に、取得された距離と距離が取得された距離取得点との情報に基づいて、前記距離取得点以外の点を含めて、前記距離画像を補正し、
前記距離画像推定部は、前記距離取得部が距離を取得した場合に、取得された距離及び距離取得点の情報と、前記データベースに記憶されている過去に取得された情報とに基づいて、前記距離画像を補正する。
(3)
本発明に係るもう一つの態様の距離画像推定装置は、
撮影部から送られた撮影画像に基づき前記撮影画像に対応した距離画像を推定する距離画像推定部と、
撮影領域に含まれる少なくとも一つの点までの距離を取得可能な距離取得部と、
精度向上要求領域を設定する第1設定部と、
前記精度向上要求領域の距離の推定精度を向上させる距離取得点を推定し、推定された距離取得点を表示出力する制御部と、
を備え、
前記距離画像推定部は、
前記距離取得部が距離を取得した場合に、取得された距離と距離が取得された距離取得点との情報に基づいて、前記距離取得点以外の点を含めて、前記距離画像を補正する。
本発明に係る操縦装置は、
上記の距離画像推定装置を備え、
前記距離取得部が、可動部に設けられた接触センサを含み、前記接触センサにより接触が検出された際の前記可動部の移動量から距離を取得し、
更に、
前記撮影部と、
前記可動部と、
前記可動部を操作する操作部と、
を備える。
本発明によれば、1つ又は複数の点の距離が取得された場合に、撮影画像から精度の高い距離画像を得ることができるという効果がある。
本発明の実施形態1に係る操縦装置を示すブロック図である。 距離画像推定部に含まれるニューラルネットワークを示す構成図である。 実施形態1の制御部20が実行する距離画像表示処理の手順を示すフローチャートである。 本発明の実施形態2に係る操縦装置を示すブロック図である。 精度向上要求領域と接触可能領域の一例を説明する図である。 実施形態2のニューラルネットワークを示す構成図である。 実施形態2に係る距離画像推定部が実行する距離画像生成処理の手順を示すフローチャートである。 効果的な接触点が示された撮影画像の表示例を示す図である。
以下、本発明の各実施形態について図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明の実施形態1に係る操縦装置を示すブロック図である。図2は、距離画像推定部に含まれるニューラルネットワークを示す構成図である。
実施形態1に係る操縦装置1は、ロボットハンドなどの可動部2と、運転者が可動部2を操作する操作レバーなどを含んだ操作部3と、処理対象物が含まれる領域を撮影する撮影部5と、距離画像を推定する距離画像推定装置1Aと、推定された距離画像を出力する表示部4とを備える。撮影部5は、例えばグレースケール画像又はRGB画像を出力する単眼カメラでよい。
距離画像推定装置1Aは、撮影部5の撮影画像から距離画像を推定する距離画像推定部10と、可動部2に取り付けられた接触センサ31が接触を検出したときに可動部2の移動量に基づいて接触部までの距離を取得する距離取得部30と、距離取得部30により取得された距離と距離取得点の情報とを蓄積する取得距離データベース40と、各部を統括する制御部20とを備える。
距離画像とは、撮影画像中の各被写点までの距離の情報を撮影画像にマッピングした画像であり、距離が輝度又は色の濃淡等で表わされた画像を意味する。情報を撮影画像にマッピングするとは、マッピングされた画像の或る座標に示される情報が、撮影画像の対応する座標に写った被写点の情報を示すように、各情報と画像の座標とを対応づけることを意味する。
距離画像推定部10は、機械学習されたニューラルネットワーク11と、ニューラルネットワーク11の補正演算を行う補正部12と、を有する。距離画像推定部10は、撮影画像をニューラルネットワーク11に送ることで、即時に推定された距離画像を求めることができる。
ニューラルネットワーク11は、図2に示すように、目標距離画像Ddを入力して中間コードcを出力する第1ネットワーク部N1と、撮影画像I、又は、撮影画像I及び中間コードcを入力して距離画像Dを出力する第2ネットワーク部N2とを有する。中間コードcは、多成分を有するベクトルである。第2ネットワーク部N2は、距離画像Dに加えて、不確実性マップBを出力してもよい。不確実性マップBとは、距離画像の不確実さの情報が撮影画像にマッピングされた画像である。ニューラルネットワーク11の各層n1~n40は、機械学習により最適化される多数のパラメータを含み、入力された情報と多数のパラメータとで所定の計算を行って、計算された情報を、図2中の右隣の層、及び、図2中の矢印で示す別の層へ出力する。ニューラルネットワーク11は、非特許文献1に示されるニューラルネットワークと同様の構造を有する。
機械学習時において、第1ネットワーク部N1の入力層n21には目標距離画像Ddが入力され、第2ネットワーク部N2の入力層n1には訓練用撮影画像Iが入力される。さらに、第1ネットワーク部N1は出力層n30から中間コードcを出力し、第2ネットワーク部N2の中間層n31に送る。目標距離画像Ddは、訓練用撮影画像Iに対応する距離画像の目標値(例えば真値)である。機械学習時においては、第2ネットワーク部N2の第2出力層n40から出力される距離画像Dが、目標距離画像に近づくように、第1ネットワーク部N1及び第2ネットワーク部N2の各層n1~n40のパラメータが最適化される。各パラメータは、目標距離画像に対してラプラス分布の対数尤度を最大化するように最適化されてもよい(非特許文献1を参照)。
距離画像の推定時において、ニューラルネットワーク11の第1ネットワーク部N1は利用されない。よって、第1ネットワーク部N1から出力される中間コードcはゼロ(情報無し)となる。距離画像の推定時には、第2ネットワーク部N2の入力層n1に撮影画像が入力されると、第2出力層n40から推定された距離画像Dが出力され、第1出力層n20から不確実性マップBが出力される。上記の機械学習の各層n1~n40のパラメータの最適化により、真値の距離画像及び不確実性マップを反映した距離画像D及び不確実性マップBが得られる。
距離取得部30は、可動部2に取り付けられた接触センサ31を含み、接触センサ31から接触の検出結果を受けると、可動部2の移動量に基づいて、予め設定された基準点から接触点までの距離と、距離取得点の情報とを計算により取得する。距離及び距離取得点の情報を、以下、「距離情報」と記す。上記の基準点は任意な点でよく、例えば操縦席又は撮影部5の近傍の所定点などであってもよいし、操縦席又は撮影部5が基台上を回動する場合等には、基台に固定された所定点であってもよい。距離取得部30は、求められた距離情報を、取得距離データベース40に登録する。
補正部12は、距離取得部30が距離を取得した場合に、取得された距離情報と、取得距離データベース40に蓄積された距離情報とを用いて、ニューラルネットワーク11の中間コードcを補正する。補正された中間コードcは、第2ネットワーク部N2に対して、距離取得点以外の点の距離の推定結果にも影響を及ぼす。その結果、補正された、距離画像Dは、距離取得点の距離だけでなく、距離取得点以外の点についても真値に近くなるように補正される。
制御部20は、制御プログラムを格納したROM(Read Only Memory)と、制御プログラムを実行するCPU(Central Processing Unit)と、各部に信号を出力し又は各部から信号を入力するI/Oとを備える。ROMには、運転者が可動部2を操縦する際に、操作対象領域を撮影し、撮影画像と推定された距離画像とを表示部4から出力する距離画像表示処理のプログラムが格納されている。
<距離画像表示処理>
図3は、実施形態1の制御部20が実行する距離画像表示処理の手順を示すフローチャートである。制御部20は、可動部2の操縦が行われている期間に、距離画像表示処理を実行する。距離画像表示処理が開始されると、制御部20は、撮影部5が撮影した撮影画像を取得し(ステップS1)、ニューラルネットワーク11に撮影画像Iを入力して距離画像Dを推定させ(ステップS2)、距離画像Dを表示部4から出力する(ステップS3)。さらに、制御部20は、距離取得部30が新たに距離情報を取得したか否かを判別する(ステップS4)。そして、新たな距離の取得がなければ、制御部20は、処理をステップS1に戻し、ステップS1~S4のループ処理を繰り返す。
ループ処理の繰り返し中、ステップS4で新たな距離情報の取得があったと判別されたら、制御部20は、距離画像推定部10の補正部12に、新たに取得された距離情報と過去に取得された距離情報があれば取得距離データベース40に記憶された距離情報とを渡す(ステップS5)。距離情報が渡されることで、補正部12が、中間コードcの補正演算を実行する。補正された中間コードcが演算されたら、制御部20は、中間コードcをニューラルネットワーク11に適用する(ステップS6)。そして、制御部20は、処理をステップS1に戻す。
ステップS6で、補正された中間コードcがニューラルネットワーク11に適用されると、その後のステップS2では、ニューラルネットワーク11の中間層n31に中間コードcが入力されて距離画像Dの推定が行われる。したがって、その後に推定された距離画像Dは精度が向上し、ステップS3で精度の向上された距離画像Dが表示部4から出力される。また、距離情報の取得回数が増えるごとに、ステップS5、S6が実行される。そこでは、より多くの距離情報に基づいて中間コードcが補正され、その後、この中間コードcが使用されるので、その後に得られる距離画像Dは更に精度が向上する。
なお、撮影部5の移動等により、撮影対象領域が変化したときには、制御部20が、中間コードcをゼロにリセットする処理を実行してもよい。また、撮影画像中の一部の物体が移動したことで、以前に取得された距離情報が妥当でなくなった場合には、制御部20は、取得距離データベース40からこの距離情報を削除する処理を実行してもよい。
<距離画像の変化と操作例>
上記のような距離画像表示処理によれば、距離取得部30が距離情報を取得していないときに推定される距離画像は、中間コードcがゼロとして計算される。このため、距離画像は比較的に不確実性が大きく、例えば物のエッジがぼやけたような距離画像となる。例えば、テーブルの上に複数の物体が配置された撮影画像であれば、表示部4から、テーブルと複数の物体の各エッジがぼやけた距離画像が出力される。
距離画像表示処理中、可動部2の操作により接触センサ31がどこかに触れ、その点までの距離が取得されると、ステップS5、S6の中間コードcの補正処理により、新たに計算された距離画像の精度が向上し、例えばぼやけた物のエッジが鮮明になるような距離画像の補正が行われる。補正された中間コードcは、取得された距離情報の距離取得点以外にも作用するため、距離取得点から離れた物のエッジも鮮明になるように距離画像が補正される。さらに、エッジが鮮明になるとともに、距離画像中の多くの点の距離の値が真値に近くなる。例えばテーブルの上に複数の物体が配置された撮影画像であれば、テーブル又は1つの物体に接触して距離情報が取得されると、接触したテーブル又は物体の加え、接触していな物体についてもエッジが鮮明となり距離の値が真値に近づくような距離画像の変化が生じる。距離情報の取得数が増すたびに、距離画像の精度が段階的に向上していく。
操縦者は、撮影画像と距離画像とを見ながら、撮影画像に写っている物の距離を認識し、可動部2を操縦することができる。例えば、操縦者は、可動部2を処理対象物に近づけ、処理対象物に何らかの処理(例えば可動部2により物をつかむなど)を行うことができる。操縦者は、コンピュータであってもよく、この場合、コンピュータは、撮影画像から画像認識処理を行って処理対象物を判別し、距離画像から処理対象物及びその周辺の3次元空間上の位置を判別する。そして、コンピュータは、これらの判別結果から、他の物を除けて処理対象物まで可動部2を移動させる移動経路を計算し、可動部2を処理対象物まで近づけることができる。そして、コンピュータは、可動部2を動かして処理対象物に何らかの処理(例えば可動部2により物をつかむなど)を行うことができる。このような可動部2の操縦の過程で、可動部2の接触センサ31が、いずれかの箇所に接触し、当該箇所までの距離情報が取得されると、距離画像の精度が向上し、処理対象物についての三次元空間上の位置認識の精度が高まる。よって、可動部2による処理対象物への処理の精度が向上される。また、可動部2の操縦の過程で、距離画像の精度を向上させたい場合、意図的に可動部2の接触センサ31を接触が許容される箇所に接触させることで、接触した箇所以外を含めて距離画像の精度が向上し、処理対象物に対する可動部2の処理の精度を向上できる。
<ニューラルネットワーク>
図2のニューラルネットワーク11は、次式(1)、(2)のように表わすことができる。
Figure 0007341079000001
ここで、fは、ニューラルネットワーク11の第2ネットワーク部N2により実装される関数である。gはニューラルネットワーク11の第1ネットワーク部N1により実装される関数である。Iは撮影画像、Ddは目標距離画像、Dは距離画像、Bは不確実性画像、cは中間コードである。中間コードcは、多成分を有するベクトルである。目標距離画像Ddは、訓練用の撮影画像Iに対応した距離画像の目標値(例えば真値)である。不確実性マップBは、距離画像の不確実さの情報が撮影画像にマッピングされた画像である。関数f、gは、機械学習により最適化される多くのパラメータを含んでいる。
ニューラルネットワーク11の機械学習では、次式(3)に示すような学習データセットSetが用意される。
Figure 0007341079000002
ここで、Iは訓練用撮影画像、Dは訓練用撮影画像に対応した目標距離画像である。学習データセットSetには、訓練用撮影画像Iと目標距離画像DとがM組含まれる。
ニューラルネットワーク11の各層n1~n40の各パラメータは、学習データセットSetの全要素について、式(1)、(2)の計算を実行したときに、距離画像Dが目標距離画像Dに近づくように、バックプロパゲーション(誤差逆伝播法)等により、最適化することで計算される。
<補正された中間コードの演算>
補正された中間コードcの演算には、取得された距離情報が使用される。距離情報の集合Pを次式(4)のように表わす。
Figure 0007341079000003
ここで、pは、距離情報を表わす三次元空間上の位置ベクトルである。位置ベクトルpには、撮影画像中の位置取得点の情報と、基準点から位置取得点までの距離の情報とが含まれる。すなわち、位置ベクトルpが示す空間位置を撮影部5の撮影領域に射影することで、撮影画像中の位置取得点が求められる。また、三次元空間ベクトルで表わされる基準点とベクトルpとの差から基準点からの距離が求められる。
補正された中間コードc~は、次式(5)のように、中間コードcを最適化することにより求められる。式(5)において、argmin以降の項は、集合Pに含まれるN個の距離取得点についての誤差εの二乗和を示す。argminは、argmin以降の項を最小にする引数(中間コードc)を表わす。
Figure 0007341079000004
は、或る中間コードcを用いて推定された距離画像である。φは、推定された距離画像Dからベクトルpが示す撮影画像中の点の距離を抽出し、その点を表わす三次元空間ベクトルqを出力する関数である。εは、距離取得点の距離を表わすベクトルpと、距離画像D中の対応する点の距離を表わすベクトルqとの誤差を表わす。
式(8)に示すように、距離画像Dは中間コードcの関数である。さらに、ベクトルqは、距離画像Dを用いて得られるので(式(7))、中間コードcの関数である。それゆえ、誤差εは中間コードcの関数となる。したがって、式(5)のargmin以降の項(誤差の総和項)は、中間コードcを引数に持ち、中間コードcが変化することで、値が増減する。したがって、式(5)のように、誤差の総和項を最も小さくする中間コードcの最適化演算を行うことで、最適化された中間コードc~を求めることができる。なお、最適化とは、完全な最適化を意味するのみでなく、最適に近い解を求めることを含む概念である。
このように求められた最適化された中間コードc~と撮影画像Iとがニューラルネットワーク11の第2ネットワーク部N2に入力されることで、精度の高い距離画像Dが求められる。距離画像Dは、式(5)の誤差εを小さくする中間コードc~が使われている。よって、距離情報の集合Pに含まれる距離取得点の距離の精度が高まる。さらに、機械学習されたニューラルネットワーク11により、異なる複数点間の距離の相対関係などが妥当なレベルで推定されている。したがって、複数の距離取得点の距離の精度が高まることで、距離取得点以外の点の距離の精度も高まり、結果として、全体の精度が向上した距離画像Dが求められる。
以上のように、実施形態1の操縦装置1及び距離画像推定装置1Aによれば、距離画像推定部10が撮影画像から距離画像を推定するので、複眼カメラ又は走査型の距離測定器等の高コストな装置を用いなくても、推定された距離画像から撮影対象の距離を認識できる。さらに、1点又は複数点の距離が取得された場合に、距離取得点と距離取得点以外の部分を含めて距離画像が補正されるので、可動部2の操作を少し追加するだけで、距離画像の精度を向上し、撮影対象の距離の認識精度を高めることができる。
さらに、実施形態1の操縦装置1及び距離画像推定装置1Aによれば、ニューラルネットワーク11を用いて距離画像を推定する。さらに、距離が取得された場合には、ニューラルネットワーク11の中間層n31に入力される中間コードcが補正される。したがって、現実的な計算量で有効な距離画像の補正が可能となる。
さらに、実施形態1の操縦装置1及び距離画像推定装置1Aによれば取得距離データベース40を備え、過去に取得された距離情報も用いて距離画像が補正される。したがって、異なるタイミングで取得された距離を用いて距離画像の精度をより向上できる。任意なタイミングで距離が取得される場合に有用である。
さらに、実施形態1の操縦装置1によれば、接触センサ31を有する可動部2と操作部3を有するので、可動部2の操作により接触センサ31が撮影対象物に接触することで距離が取得され、距離画像の精度を向上することができる。距離画像の精度を向上することを目的とした測距デバイスを設ける場合と比較して、距離を取得するためのコストを低減できる。
さらに、実施形態1の操縦装置1によれば、距離画像推定装置1Aにより推定された距離画像が表示部4に出力されるので、操縦者は距離画像により処理対象物の距離を認識しながら可動部2を操作して、処理対象物の操作ができる。さらに、操作過程で、処理対象物の距離の認識精度を向上させたいときなど、可動部2の接触センサ31を何かに接触させることで、距離画像の精度が向上し、要求に応じることができる。
(実施形態2)
実施形態2の操縦装置は、距離画像の精度向上を効率的に図れる接触点を推測する機能が追加されている点が主に異なり、他の要素は実施形態1と略同様である。以下、実施形態1と異なる要素について詳細に説明する。
図4は、本発明の実施形態2に係る操縦装置を示すブロック図である。
実施形態2の操縦装置1は、実施形態1の構成要素に加えて、距離画像の精度を向上させたい領域(「精度向上要求領域」と呼ぶ)の設定と、接触が可能な領域(「接触可能領域」と呼ぶ)の設定とが可能な設定処理部50を備える。設定処理部50には、設定された精度向上要求領域のデータが登録される設定部51と、設定された接触可能領域のデータが登録される設定部52とを有する。設定部51は、本発明に係る第1設定部に相当する。設定部52は、本発明に係る第2設定部に相当する。接触可能領域は、本発明に係る距離取得可能領域の一例に相当する。
設定処理部50は、表示部4に設定画面を出力し、ユーザが設定画面へ設定情報を入力することで、上記の領域の設定が行われる構成としてもよいし、記憶媒体に記録されたデータを読み込ませることで、上記の領域の設定が行われる構成としてもよい。領域の指定は、撮影画像中の二次元領域の指定、あるいは、三次元空間上の領域の指定により行われてもよいし、物の指定により行われてもよい。物の指定により領域の設定が行われる場合、設定処理部50は、撮影画像から画像認識により物の位置を特定し、指定された物が配置された領域を、該当の領域として登録すればよい。
図5は、精度向上要求領域と接触可能領域の一例を説明する図であり、(A)は撮影画像I、(B)は精度向上要求領域U、(C)は接触可能領域Sを示す。図5の例では、テーブル上の円筒を精度向上要求領域Uに設定し、テーブル上とテーブルの足を接触可能領域Sに設定している。例えば、可動部2によってテーブル上の円筒に何らかの処理を行う予定であり、円筒の距離認識を正確に行いたい場合に、上記のような精度向上要求領域Uを設定することが想定される。また、接触可能な距離でない領域、並びに、接触して動かしたくない物の領域を除いて、上記のように接触可能領域Sを設定することができる。
図6は、実施形態2のニューラルネットワークを示す構成図である。実施形態2のニューラルネットワーク11は、実施形態1の構成に加え、中間コードcが、中間層n31に加え、不確実性マップBを計算する第2ネットワーク部N2のいずれかの層(例えば中間層n12)にも入力される。中間コードcが第2ネットワーク部N2の中間層n12に入力されることで、不確実性マップBが中間コードcの関数となる。
図7は、実施形態2の制御部20が実行する距離画像表示処理のフローチャートである。距離画像表示処理が開始されると、制御部20は、先ず、設定処理部50を介して設定された精度向上要求領域U及び接触可能領域Sの設定データを読み込む(ステップS11、S12)。そして、撮影画像を取得し(ステップS13)、距離画像推定部10に1回目の距離画像の推定を行わせる(ステップS14)。さらに、制御部20は、精度向上要求領域Uの距離の精度を効率的に向上するのに効果的な接触点(効果的な距離取得点)を、ニューラルネットワーク11を用いて計算し(ステップS15)、求められた効果的な接触点を示すマークを表示部4の撮影画像上に重ねて表示出力する(ステップS16)。
その後は、実施形態1の距離画像表示処理と同様の処理を行う。図7では、ステップS1~S6中の幾つかのステップを省略している。
なお、距離画像表示処理の途中、撮影部5の撮影領域が変化することがある場合には、制御部20がこの変化の有無を判別し、変化が有った場合に、制御部20は、ステップS15、S16の処理を再度行うようにしてもよい。また、ステップS4で距離情報が取得された場合にも、制御部20は、ステップS15、S16の処理を再度行うようにしてもよい。
図8は、効果的な接触点が示された撮影画像の表示例を示す図である。操縦装置1の運転者は、距離画像の精度を向上したい場合に、ステップS16で表示された効率的な接触点を示すマークM1を頼りに、可動部2を接触させてマークM1の位置の距離情報を取得する。そして、この点の距離情報が使用されて中間コードcが補正されることで、距離画像中の精度向上要求領域Uの精度を効率的に向上することができる。例えば、テーブル上の複数の円筒の部分に正確な距離認識が要求され、テーブル上にマークM1が表示されていれば、可動部2を操作してマークM1の位置の距離情報を取得することで、円筒に触れる前に、円筒の部分の精度が向上した距離画像を得ることができる。そして、この距離画像を頼りに、高い精度で円筒に対する操作(例えばつかむ等の処理)を実現できる。
<効果的な接触点の推定>
制御部20は、次のような演算を行って、精度向上要求領域Uの距離精度を効率的に向上できる接触点を推定する。まず、演算方法を説明するために、距離情報が取得された場合の不確実性マップBの計算式と、演算に使用する不確実性抽出値τの計算式について説明する。
或る距離取得点で距離情報(ベクトルp)が得られたとする。距離情報は三次元空間ベクトルであり、撮影画像中の距離取得点と、基準点から距離取得点までの距離とが表される。実施形態1の補正処理で説明したように、距離情報であるベクトルpが取得されると、ベクトルpを用いて最適化された中間コードcを求めることができる。そして、最適化された中間コードcと撮影画像Iとをニューラルネットワーク11の第2ネットワーク部N2に入力することで、推定された距離画像Dと不確実性マップBとが、次式(9)のように得られる。
Figure 0007341079000005
不確実性マップBは、撮影画像Iの全領域の不確実性の値が含まれているので、不確実性マップBと精度向上要求領域Uの設定データとから、精度向上要求領域Uの不確実性を抽出した値(不確実性抽出値τ)を求めることができる。不確実性抽出値τは、次式(10)のような関数となる。
Figure 0007341079000006
maskは、不確実性マップBの精度向上要求領域Uを除く部分をマスクする(ゼロにする)ことを意味する。
不確実性抽出値τは、式(10)に示すように、不確実性マップBの関数である。さらに、不確実性マップBは、図6に示したように、中間コードcを受けて計算されるため、中間コードcの関数である。さらに、中間コードcは、距離情報(ベクトルp)の関数である。したがって、不確実性抽出値τは、距離情報(ベクトルp)の関数であり、ベクトルpが変化すると、不確実性抽出値τが増減する。したがって、次式(11)のように、不確実性抽出値τを最も小さくするpの最適化演算を行うことで、不確実性抽出値τを最も小さくする、すなわち、精度向上要求領域Uの精度を最も向上するベクトルp~を求めることができる。ただし、ベクトルp~は接触可能領域Sに含まれる位置に制限されるので、式(11)の最適化演算では、ベクトルpは接触可能領域Sに含まれるという条件が付加される。
Figure 0007341079000007
ベクトルp~は、撮影画像中の距離取得点の情報に加え、距離取得点までの距離の情報が含まれる。しかし、ベクトルp~に含まれる距離の情報は、距離画像の全体的な距離の値をシフトさせるように寄与することが多く、距離画像の不確実性に影響を与える度合は、距離取得点の情報に比べて低いことが多い。したがって、最適化されたベクトルp~のうち、距離の情報を除外し、距離取得点の情報を、不確実性抽出値τを小さくできる接触点として求めることができる。距離取得点は、撮影部5の撮影領域にベクトルp~を射影して得ることができる。
制御部20は、図7のステップS15において、式(11)の最適化の演算を行って、精度向上要求領域Uの不確実性を効率的に低くする距離取得点を求める。最適化とは、完全な最適化を意味するのみでなく、最適に近い解を求めることを含む概念である。最適化の演算において、制御部20は、例えば、接触可能領域Sの中に複数の代表点を設け、代表点の距離が与えられたと仮定して補正された中間コードcを演算する。さらに、制御部20は、補正された中間コードcと撮影画像Iとを用いて不確実性抽出値τを計算する。そして、制御部20は、このような計算を、複数の代表点について行い、各代表点について計算された不確実性抽出値τを比較して、最も低い不確実性抽出値τが計算された代表点を求める。そして、制御部20は、この代表点に基づいて精度向上要求領域Uの不確実性を効率的に低くする距離取得点を求めてもよい。
以上のように、実施形態2の操縦装置1及び距離画像推定装置1Aによれば、精度向上要求領域Uを設定することで、距離画像においてこの領域の精度を効果的に向上できる接触点が示される。したがって、この点を指針に、可動部2を動かして距離情報を取得することで、所望の距離画像の精度向上を図ることができる。さらに、実施形態2の操縦装置1及び距離画像推定装置1Aによれば、接触可能領域Sを設定することで、制御部20から提供される効率的な接触点が、接触可能領域Sの点に絞られるので、距離情報の取得により距離画像の精度向上を図る際の利便性がより向上する。なお、実施形態2では、接触により距離を取得していたため、本発明に係る距離取得可能領域を接触可能領域として説明した。しかし、例えば光の照射により距離を取得する場合には、光の照射が可能な領域を距離取得可能領域として、同様に扱うことができる。
以上、本発明の各実施形態について説明した。しかし、本発明は上記の実施形態に限られない。例えば、上記実施形態では、距離取得部30は接触により距離を取得する構成を示したが、例えばLiDAR(light detection and ranging)など、様々な距離測定器により距離を取得する構成が適用されてもよい。また、上記実施形態では、操縦装置としてロボットハンドを操作する構成を示したが、操縦装置は、例えば、パワーショベル、クレーン、アンローダなどの重機であってよいし、自動車などの車両であってもよい。このような操縦装置においては、距離画像を周囲の危険予知に利用することができる。また、アンローダなどの重機においては、距離画像で荷の高さを認識し、グラブバケットなどの吊り具を動かす制御に利用することができる。その他、実施の形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
1 操縦装置
1A 距離画像推定装置
2 可動部
3 操作部
4 表示部
5 撮影部
10 距離画像推定部
11 ニューラルネットワーク
12 補正部
20 制御部
30 距離取得部
40 取得距離データベース
50 設定処理部
51 設定部(第1設定部)
52 設定部(第2設定部)
N1 第1ネットワーク部
N2 第2ネットワーク部
n31 中間層
c 中間コード
I 撮影画像
B 不確実性マップ
D 距離画像
Dd 目標距離画像

Claims (8)

  1. 撮影部から送られた撮影画像に基づき前記撮影画像に対応した距離画像を推定する距離画像推定部と、
    撮影領域に含まれる少なくとも一つの点までの距離を取得可能な距離取得部と、
    を備え、
    前記距離画像推定部は、前記距離取得部が距離を取得した場合に、取得された距離と距離が取得された距離取得点との情報に基づいて、前記距離取得点以外の点を含めて、前記距離画像を補正し、
    前記距離画像推定部は、機械学習されたニューラルネットワークを用いて前記距離画像を推定し、前記距離取得部が取得した距離に基づいて、前記ニューラルネットワークの中間層に入力される情報を補正する、
    距離画像推定装置。
  2. 前記ニューラルネットワークは、学習時において、目標距離画像から中間コードを求める第1ネットワーク部と、前記目標距離画像に対応する訓練用撮影画像と前記中間コードとから前記距離画像を求める第2ネットワーク部とを有し、前記距離画像と前記目標距離画像との差が小さくなるように学習され、
    前記距離画像推定部は、前記中間コードを補正する、
    請求項記載の距離画像推定装置。
  3. 撮影部から送られた撮影画像に基づき前記撮影画像に対応した距離画像を推定する距離画像推定部と、
    撮影領域に含まれる少なくとも一つの点までの距離を取得可能な距離取得部と、
    前記距離取得部が距離を取得した場合に、取得した距離及び距離取得点の情報を記憶するデータベースと、
    を備え、
    前記距離画像推定部は、前記距離取得部が距離を取得した場合に、取得された距離と距離が取得された距離取得点との情報に基づいて、前記距離取得点以外の点を含めて、前記距離画像を補正し、
    前記距離画像推定部は、前記距離取得部が距離を取得した場合に、取得された距離及び距離取得点の情報と、前記データベースに記憶されている過去に取得された情報とに基づいて、前記距離画像を補正する、
    距離画像推定装置。
  4. 撮影部から送られた撮影画像に基づき前記撮影画像に対応した距離画像を推定する距離画像推定部と、
    撮影領域に含まれる少なくとも一つの点までの距離を取得可能な距離取得部と、
    精度向上要求領域を設定する第1設定部と、
    前記精度向上要求領域の距離の推定精度を向上させる距離取得点を推定し、推定された距離取得点を表示出力する制御部と、
    を備え、
    前記距離画像推定部は、
    前記距離取得部が距離を取得した場合に、取得された距離と距離が取得された距離取得点との情報に基づいて、前記距離取得点以外の点を含めて、前記距離画像を補正する、
    距離画像推定装置。
  5. 距離取得可能領域を設定する第2設定部を備え、
    前記制御部は、前記距離取得可能領域の中から、前記精度向上要求領域の距離の推定精度を向上させる距離取得点を推定する、
    請求項記載の距離画像推定装置。
  6. 前記距離取得部は、可動部に設けられた接触センサを含み、前記接触センサにより接触が検出された際の前記可動部の移動量から距離を取得する、
    請求項1から請求項のいずれか一項に記載の距離画像推定装置。
  7. 請求項に記載の距離画像推定装置と、
    前記撮影部と、
    前記可動部と、
    前記可動部を操作する操作部と、
    を備える操縦装置。
  8. 前記推定された距離画像を表示する表示部と、
    を更に備える請求項に記載の操縦装置。

JP2020020266A 2020-02-10 2020-02-10 距離画像推定装置及び操縦装置 Active JP7341079B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020020266A JP7341079B2 (ja) 2020-02-10 2020-02-10 距離画像推定装置及び操縦装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020020266A JP7341079B2 (ja) 2020-02-10 2020-02-10 距離画像推定装置及び操縦装置

Publications (2)

Publication Number Publication Date
JP2021125157A JP2021125157A (ja) 2021-08-30
JP7341079B2 true JP7341079B2 (ja) 2023-09-08

Family

ID=77459277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020020266A Active JP7341079B2 (ja) 2020-02-10 2020-02-10 距離画像推定装置及び操縦装置

Country Status (1)

Country Link
JP (1) JP7341079B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256237A (ja) 2009-04-27 2010-11-11 Haruta Kensetsu:Kk 埋設管形状算出装置、埋設管形状算出システム、埋設管修理システム
US20120285761A1 (en) 2010-12-28 2012-11-15 Agency For Defense Development Wheel drive vehicle and wheel contact sensing method of the same
JP2020016628A (ja) 2018-07-27 2020-01-30 日立オートモティブシステムズ株式会社 距離算出装置
CN113256512A (zh) 2021-04-30 2021-08-13 北京京东乾石科技有限公司 深度图像的补全方法、装置及巡检机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256237A (ja) 2009-04-27 2010-11-11 Haruta Kensetsu:Kk 埋設管形状算出装置、埋設管形状算出システム、埋設管修理システム
US20120285761A1 (en) 2010-12-28 2012-11-15 Agency For Defense Development Wheel drive vehicle and wheel contact sensing method of the same
JP2020016628A (ja) 2018-07-27 2020-01-30 日立オートモティブシステムズ株式会社 距離算出装置
CN113256512A (zh) 2021-04-30 2021-08-13 北京京东乾石科技有限公司 深度图像的补全方法、装置及巡检机器人

Also Published As

Publication number Publication date
JP2021125157A (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
JP4984650B2 (ja) 移動装置及び移動装置の自己位置推定方法
US10430650B2 (en) Image processing system
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
EP1329850A2 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
US11062475B2 (en) Location estimating apparatus and method, learning apparatus and method, and computer program products
JP2020087407A (ja) 地図構築装置及びその地図構築方法
JP2016186469A (ja) 情報処理装置、情報処理方法、プログラム
CN114556268B (zh) 一种姿势识别方法及装置、存储介质
CN113052907B (zh) 一种动态环境移动机器人的定位方法
EP3306529A1 (en) Machine control measurements device
JP2020122754A (ja) 3次元位置推定装置及びプログラム
JP2022039719A (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
US11989928B2 (en) Image processing system
JP2019045989A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5614118B2 (ja) ランドマーク検知方法、ロボット及びプログラム
JP7341079B2 (ja) 距離画像推定装置及び操縦装置
JP6393409B2 (ja) 画像認識システム、カメラ状態推定装置及びプログラム
US10572753B2 (en) Outside recognition device for vehicle
CN110880003A (zh) 一种图像匹配方法、装置、存储介质及汽车
JP2020113202A (ja) パラメータ選定装置、パラメータ選定方法、およびパラメータ選定プログラム
WO2021085560A1 (ja) 画像処理装置及び画像処理方法
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
JP2004240909A (ja) 画像処理装置及び画像処理方法
CN112967399A (zh) 三维时序图像生成方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230829

R150 Certificate of patent or registration of utility model

Ref document number: 7341079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150