JP7133927B2 - 情報処理装置及びその制御方法及びプログラム - Google Patents

情報処理装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP7133927B2
JP7133927B2 JP2018004470A JP2018004470A JP7133927B2 JP 7133927 B2 JP7133927 B2 JP 7133927B2 JP 2018004470 A JP2018004470 A JP 2018004470A JP 2018004470 A JP2018004470 A JP 2018004470A JP 7133927 B2 JP7133927 B2 JP 7133927B2
Authority
JP
Japan
Prior art keywords
information
time
imaging
predicted
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018004470A
Other languages
English (en)
Other versions
JP2019124539A5 (ja
JP2019124539A (ja
Inventor
誠 冨岡
一彦 小林
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018004470A priority Critical patent/JP7133927B2/ja
Publication of JP2019124539A publication Critical patent/JP2019124539A/ja
Publication of JP2019124539A5 publication Critical patent/JP2019124539A5/ja
Application granted granted Critical
Publication of JP7133927B2 publication Critical patent/JP7133927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は情報処理装置及びその制御方法及びプログラムに関する。
画像情報に基づく撮像装置の位置及び姿勢の計測は、複合現実感/拡張現実感における現実空間と仮想物体の位置合わせ、ロボットや自動車の自己位置推定、物体や空間の三次元モデリングなど様々な目的で利用される。
非特許文献1には、事前に学習した学習モデルを用いて画像から位置姿勢を算出するための指標である幾何情報(奥行き情報)を推定し、推定した奥行き情報をもとに位置姿勢を算出する方法が開示されている。
K. Tateno, F. Tombari, I. Laina and N. Navab, "CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction", In Proc. CVPR, 2017. Z.Zhang,"A flexible new technique for camera calibration," Trans. Pattern Analysis and Machine Intelligence, vol.22, no.11, pp.1330-1334, 2000. X. Shi, Z. Chen, H. Wang, and D. Yeung, "Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting", In Proc. NIPS, 2015. I. Laina, C. Rupprecht, V. Belagiannis, F. Tombari, and N. Navab. "Deeper depth prediction with fully convolutional residual networks". In Proc. 3DV, 2016. K. He, G. Gkioxari, P. Dollar, and R. Girshick, "Mask R-CNN", In Proc. ICCV, 2017.
非特許文献1においては、撮像装置が撮像した入力画像をもとに、その入力画像が撮像された時点の幾何情報(奥行き情報)を推定した後に撮像装置の位置姿勢を算出する。幾何情報の推定および位置姿勢の算出には多くの時間を要する。非特許文献1は、その算出中に、撮像装置が大きくは移動しないことを前提としていた。つまり、幾何情報の推定中や位置姿勢算出中に撮像装置が移動する状況下での、高速に且つ高精度に位置姿勢を算出するための解決策が求められている。
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
撮像装置が第1の時刻に撮像した撮像情報を入力する入力手段と、
前記入力手段が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と、
前記予測手段が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出手段とを備える。
本発明によれば、撮像装置が移動していても高速に、高精度に位置姿勢を算出することができる。
第1の実施形態における運転制御システムの構成例を示す構成図。 第1の実施形態における情報処理装置の構成を示す図。 第1の実施形態における保持部のデータ構造を示す図。 第1の実施形態における情報処理装置のハードウェア構成を示す図。 第1の実施形態における処理手順を示すフローチャート。 第2の実施形態における位置姿勢算出の処理手順を示すフローチャート。 第3の実施形態における処理手順を示すフローチャート。 第3の実施形態における物体情報算出の処理手順を示すフローチャート。 第3の実施形態における表示情報を提示するGUIの一例を示す図。
以下図面に従って本発明に係る実施形態を詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[第1の実施形態]
本実施形態における情報処理装置は、自動車等の移動体に搭載する例を説明する。この情報処理装置は、自動車の位置及び姿勢(以降位置姿勢と記す)を算出し、算出結果を基に自動車のステアリング、アクセル、ブレーキ等の自動車の制御、すなわち自動運転を行うものである。また、本実施形態における撮像装置は、単眼であって1画素につきR、G、Bの3成分の画像データを撮像するカメラであり、自動車のフロントガラスの近傍に、且つ、その光軸方向は自動車の直進方向と一致するように取り付けられているものとする。そして、自動車の重心位置に対する撮像装置の自動車への相対的な取り付け位置情報は既知であって、不揮発性のメモリ等に事前に記憶保持されているものとする。故に、撮像装置が撮像した画像をもとに算出した撮像装置の位置姿勢を、記憶保持していた情報に基づく幾何変換を行うことで、自動車の位置姿勢が算出できる。つまり、撮像装置の位置姿勢を求めることは、自動車の位置姿勢を求めることと等価である。なお、撮像装置の位置姿勢の算出は後述する。そして、自動車の制御には、算出した自動車の位置姿勢と、あらかじめカーナビゲーションシステムにより算出しておいた自動車の目的地までの予定経路とが一致するように自動車を制御することになる。
撮像装置の位置姿勢の算出には、撮像装置が撮像した入力画像をもとに機械学習による推定器が推定した幾何情報が用いられる。本実施形態における機械学習による推定器が推定する幾何情報とは、入力画像のピクセルごとに推定した奥行き情報であるデプスマップのことである。具体的には、まず、撮像装置がある時刻tに撮像した入力画像に、時刻t以外のある時刻t’に撮像した入力画像を入力として推定器が推定したデプスマップの各点を時刻tの入力画像に射影する。ここでいう射影とは、時刻t’におけるデプスマップの各奥行き値から求める三次元点(空間中のX,Y,Zの位置を表す)が時刻tの画像上のどの画素に写るのか算出することである。次に、射影元のデプスマップの各画素と対応する時刻tの入力画像の画素の輝度と射影先の時刻t’の入力画像の画素の輝度との差が最小となるように位置姿勢を算出する。なお、これらの方法は非特許文献1に詳細な記述があり、これを援用できるものとする。
このとき、位置姿勢が算出される時刻は、t+Δtである。ここでいうΔtとはCNN(Convolutional Neural Network)が奥行きを推定し、さらにそれらを基に位置姿勢を算出し終えるまでにかかる処理時間である。自動車が走行している場合にはΔt時間だけ自動車が移動することになる。しかしながら位置姿勢が算出され制御する時刻t+Δtにおいては、時刻tにおける位置姿勢を用いて自動車を制御することになり、制御が遅れてしまう。そこで、本実施形態では、Δt時刻分だけ未来の画像およびデプスマップを予測することのできる学習モデルを用いて予測した画像およびデプスマップを基にt+Δt時刻の位置姿勢を算出する方法について説明する。
本実施形態における撮像装置の位置姿勢とは、現実空間中に規定された世界座標におけるカメラの位置を表す3パラメータ、及びカメラの姿勢を表す3パラメータを合わせた6パラメータのことである。また、カメラの光軸をZ軸、画像の水平方向をX軸、垂直方向をY軸とするカメラ上に規定される三次元の座標系をカメラ座標系と呼ぶ。
図1は、本第1の実施形態における情報処理装置10を搭載する自動車1の構成概略図である。自動車1は、カメラである撮像装置11、タイヤの回転数を変えることで自動車の速度を変化させることができるアクセル・ブレーキ機器やタイヤの向きを変えることで方向転換することができるステアリング装置の制御を行う制御装置12が備え付けられている。
図2は、本実施形態における情報処理装置10の機能構成図である。情報処理装置10は、入力部110、予測部120、保持部130、算出部140、制御部150から構成されている。入力部110は、自動車に搭載した撮像装置11と接続されている。制御部150は、自動車のステアリング、アクセル、ブレーキ機器である制御装置12と接続されている。なお、図1は、機器構成の一例であり、本発明の適用範囲を限定するものではない。
入力部110は、撮像装置11が撮像したシーンの二次元画像を入力画像として時系列(例えば毎秒60フレーム)に入力し、予測部120および保持部130に出力する。
予測部120は、保持部130が保持する学習モデルに従って、入力部110から入力した画像から、予め設定された時間後の画像及びその幾何情報を予測する。以降、予測した画像を予測画像、予測した幾何情報を予測幾何情報と呼ぶ。
保持部130は、学習モデルを保持する。学習モデルは、画像を入力すると、Δt時刻分だけ未来の画像およびデプスマップを予測することができる。なお、この学習モデルは内部的に予測に用いた情報の履歴を保持しており、画像が入力されるごとに内部状態を更新する。つまり、過去の入力に対して最新の画像における各画素の移動量を考慮して予測するため、車速が変わる場合においても適用可能である。この学習モデルの詳細については後述する。さらに、保持部130は、事前に撮影したシーンの画像と位置姿勢を関連付けてキーフレームとし、キーフレーム群をマップとして保持する。保持部130におけるデータ構造、および学習モデルの詳細については後述する。
算出部140は、予測部120が予測した予測画像、予測幾何情報と、保持部130が保持するマップをもとに撮像装置11の位置姿勢を算出する。そして、算出部140は、算出した撮像装置の位置姿勢を基に自動車の位置姿勢を求め、制御部150に供給する。
制御部150は、算出部140から入力した自動車の位置姿勢をもとに、自動車の制御値を算出し、制御装置12に供給する。
制御装置12は、制御部150が算出した制御値を基に、自動車1の制御を行う。
図3は、保持部130が保持するデータ構造を示す図である。本実施形態においては、保持部130は、予測部120が予測画像、および幾何情報を予測するための学習モデルを保持する。学習モデルは、例えばCNNの識別器をバイナリ形式で保存したデータファイルであるものとする。また、保持部130は、位置姿勢算出の指標となるマップを保持する。マップはシーンの画像と位置姿勢を関連付けてキーフレームとし、キーフレームを複数保持する構成とした。なお、ここでいう位置姿勢とは該当キーフレームを撮像した撮像装置11の位置姿勢の6パラメータのことである。
図4は、情報処理装置10のハードウェア構成を示す図である。情報処理装置10は、CPU311、ROM312、RAM313、外部メモリ314、入力部315、表示部316、通信I/F317、I/O318を有する。
CPU11は、システムバス321に接続された各種デバイスの制御を行うことで、情報処理装置10の全体の制御を司るも。ROM312は、BIOSのプログラムやブートプログラムを記憶する。RAM313は、CPU311の主記憶装置として使用されるメモリであり、情報処理装置10として機能するOS(オペレーティングシステム)やアプリケーションプログラムを格納する。外部メモリ314は、典型的にはハードディスク等の大容量の記憶装置であって、OS,実施形態で説明する運転支援用のアプリケーションプログラム、各種データを格納している。入力部315はタッチパネルディスプレイ、各種入力ボタンであり情報等の入力に係る処理を行う。表示部316は、CPU311からの指示に従って情報処理装置10の演算結果を表示装置に出力する。なお、表示装置は液晶表示装置やプロジェクタ、LEDインジケーターなど、種類は問わない。通信I/F(インターフェイス)317は、ネットワークを介して情報通信を行うものであり、例えばイーサネットI/Fでもよく、USBやシリアル通信、無線通信等種類は問わない。I/O18は、撮像装置11が有する319、および制御装置12と接続されている。
上記構成において、本装置に電源が投入されると、CPU311はROM312に格納されたブートプログラムを実行することで、外部メモリ314からOSをRAM313にロードし実行する。そして、CPU311はOSの制御下で、外部メモリ314から自動車1の運転に係るアプリケーションプログラムをRAM313にロードし、実行することで図2に示す機能構成を実現することになる。なお、図2における保持部130はRAM313により実現することになる。また、実施形態では、図2の構成要素をCPU311が実行するソフトウェアで実現するとしているが、その一部をCPU311とは独立したハードウェアで実現させても構わない。
次に、本実施形態における情報処理装置10の処理手順を図5のフローチャートに従って説明する。この処理を構成するステップは、初期化S110、画像撮像S120、画像入力S130、幾何情報予測S140、位置姿勢算出S150、制御値算出S160、制御S170、システム終了判定S180である。
ステップS110にて、CPU311はシステムの初期化を行う。すなわち、外部メモリ14からOS,プログラムを読み込み、情報処理装置10を動作可能な状態にする。また、情報処理装置10に接続された各機器(撮像装置11など)のパラメータや、撮像装置11の初期位置姿勢を読み込む。撮像装置11の内部パラメータ(焦点距離fx(画像の水平方向)、fy(画像の垂直方向)、画像中心位置cx(画像の水平方向)、cy(画像の垂直方向)、レンズ歪みパラメータ)は、Zhangの方法(非特許文献2参)によって事前に校正されているものとする、また、自動車1の各制御装置を起動し、動作・制御可能な状態とする。
ステップS120にて、撮像装置11がシーンの撮像を行い、入力部110に撮像して得た画像を供給する。
ステップS130にて、入力部110は、撮像装置11が撮像した画像を入力画像として取得する。なお、本実施形態においては、入力画像とは1画素がR、G、Bの3成分で構成されるRGB画像である。
ステップS140にて、予測部120は、保持部130が保持する学習モデルを参照して、入力画像から予測画像および予測幾何情報を推定する。なお、本実施形態における機械学習による推定器とはCNN(Convolutional Neural Network)のことである。このCNNはある時刻tの画像を入力すると、Δt時間後の時刻t+Δtの予測画像、および予測幾何情報を予測することができるよう学習されているものとする。なお、CNNのネットワーク構成、学習方法については後述する。
ステップS150にて、算出部140は、予測部120が予測した予測画像および予測幾何情報と、保持部130が保持するマップとをもとに撮像装置11の位置姿勢を算出する。具体的には、算出部140は、前述した位置姿勢算出方法によって、予測幾何情報をマップ中の最近傍のキーフレームに射影する。そして、算出部140は、予測画像の各画素値と、射影によって対応付けられたキーフレームの各画素値との輝度差が最小となるようにして、時刻t+Δtの撮像装置11の位置姿勢を算出する。
ステップS160にて、制御部150は、ステップS150の算出で得られた位置姿勢と、事前に自動車の目的地と出発地の情報から算出しておいたルート情報との距離が最小となるように自動車のステアリングを制御する制御値を算出する。ここでいうルート情報とは、事前にカーナビゲーションシステムにより出発地と目的地から算出しておいたルート上の位置を表す三次元の位置(アンカーポイントと呼ぶ)を格納したリストのことである。そして、制御部150は、算出した撮像装置11の位置とアンカーポイントとの二乗距離が最小となるアンカーポイントを選び、さらにアンカーポイントと撮像装置11の距離が小さくなる方向ベクトルを算出し、制御装置12に供給する。
制御装置12は、ステップS170にて、与えられた情報に従って自動車1を算出した方向ベクトル方向へのステアリングを制御する。
そして、ステップS180にて、CPU311はシステムの終了(ユーザによる運転支援の中止指示、或いは目的地への到着)するまで、ステップS120以降の処理を繰り返す。
次に、前述した、予測画像および予測幾何情報を推定するためのCNNのネットワーク構成および学習方法について説明する。本実施形態におけるCNNは、過去の入力画像の情報を保持することのできるネットワーク構造であるConvLSTM(Convolutional Long short-term memory)と、画像からデプスマップを推定することのできるネットワーク構造であるFCN(Fully Convolutional Network)をベースとした構成とした。ConvLSTMによって過去に入力した画像から未来の画像である予測画像を推定するとともに、FCNにより予測画像から予測幾何情報を推定できるようにした。具体的な構成としては、まず、ConvLSTMの出力層を2つに分岐する。一方を第一の出力とし予測画像を出力するよう構成する。また、もう一方の出力層をFCNの入力層としてFCNに接続し、FCNの出力を第二の出力として予測幾何情報を出力するようにする。そして、精度よく予測できるように次のような学習手順を行う。
具体的には、まずConvLSTMとFCNを別々に学習し、次にそれらを結合して学習する。最初にConvLSTMが時刻tの画像を入力すると時刻t+Δtの予測画像を推定できるように学習する。あらかじめ車載カメラでΔt時間毎に撮影した学習用画像のうち時刻t以前の所定のM枚の画像をConvLSTMに順次入力する。このとき、時刻tの画像を入力し終えた時にConvLSTMが予測した予測画像と、t+Δtの画像との誤差が最小となるようにConvLSTMのみ学習する。このように学習しておくことで、ConvLSTM層は、撮像装置11が画像を入力すると内部的には過去に入力した画像情報を保持し、それら過去の画像情報の変化量を考慮してΔt時刻後の画像を予測することができる。特に、車速を変えて撮影した学習画像を用いて学習しておくことで、推定時には、異なる車速の画像が入力されても、車速に応じてΔt時刻後の画像を予測することができるようになる。次に、FCN層が画像から幾何情報を予測できるように、あらかじめ撮影した時刻tの学習画像をFCNに入力して推定した予測幾何情報と、あらかじめ同時刻tに奥行きカメラで撮影したデプスマップとの奥行き値の誤差が最小となるようにFCNを学習する。このようにすることで、FCNは画像を入力するとデプスマップを推定できるようになる。最後に、ConvLSTMとFCNの予測結果の不整合を低減させるため、ConvLSTMとFCNを接続して学習する。あらかじめ撮影したΔt時間毎に撮影した時刻tの学習用画像を入力として、ConvLSTMの第一の出力と時刻t+Δtの画像、FCNの出力と時刻t+Δtのデプスマップとの誤差が減少するようにネットワークを学習する。以上のようにして学習したCNNを学習モデルとして用いた。
なお、ConvLSTMについては、非特許文献3に詳細が開示されている。そして、デプスマップを推定するFCNについては、非特許文献4に詳細が開示されており、これらを援用することができる。
<効果>
第1の実施形態では、予測部が、撮像装置が入力画像を撮像した時刻以降の予測画像と予測幾何情報を予測し、算出部が予測結果を基に撮像装置の位置姿勢を算出する。以上のように予測結果を基に位置姿勢を算出することで、処理に時間のかかる幾何情報の推定や位置姿勢の算出による遅延の影響を受けずに済み、高速に位置姿勢を算出することができる。
<変形例>
第1の実施形態における算出部140は、予測幾何情報と予測画像、およびマップをもとに位置姿勢を算出していた。しかしながら、予測部120が予測した予測幾何情報または予測画像の少なくとも一方または両方を利用し、撮像装置11が入力画像を撮像した時刻よりも後の撮像装置11の位置姿勢を算出することができる構成であれば第1の実施形態で説明した方法に限るものではない。
具体的には、予測画像とマップ中のキーフレームに保持される画像から画像特徴を算出し、同じ特性をもつ特徴量の位置関係から位置姿勢を算出する5点アルゴリズムを用いて位置姿勢を算出することもできる。ここでいう画像特徴とは、画像中の角など特異的な特徴をもつ点のことで、特徴量とはそれぞれの画像特徴を一意に記述するための特徴点周りの小領域の画像パッチから算出する識別子のことである。なお、特徴量についてはSIFT(Scale Invariant Feature Transform)特徴量やAKAZE(Accelerated-KAZE)特徴量を用いることができる。このような構成とした場合には、学習モデルは予測画像さえ予測できればよく、予測幾何情報を予測しなくてもよい。なお、このような構成における学習モデルの構成方法については後述する。
また、キーフレームがデプスマップをさらに保持する構成とした場合には、キーフレームのデプスマップを予測幾何情報であるデプスマップに射影し、それぞれの三次元点の最近傍の点同士の距離が最小となるように位置姿勢を算出するICP(Iterative Closest Point)アルゴリズムを用いて位置姿勢を算出してもよい。このような構成とした場合には、学習モデルは予測幾何情報さえ予測できればよく、予測画像を予測しなくてもよい。このような構成における学習モデルの構成方法についても後述する。
第1の実施形態においては、学習モデルにConvLSTMとFCNを組み合わせた学習モデルを用いていた。しかしながら、撮像装置11が撮像した時刻tよりも後の時刻の位置姿勢を算出するための情報を予測することができる構成であればよい。具体的には、第1の実施形態ではConvLSTMやFCNなど画像の局所的な位置関係を考慮するニューラルネットワークを用いていたが、それらの代わりにLSTMやDense Networkを用いて画像全体を考慮するようなネットワーク構成としてもよい。また、本実施形態ではConvLSTMの出力を二つに分割し、片方の出力によって予測画像を、もう一方の出力を入力としてFCNによりデプスマップを推定する構成としていた。しかしながら、予測画像のみ推定する学習モデルと、予測幾何情報を算出する学習モデルというようにそれぞれ別々の学習モデルを用意して予測してもよい。さらに言えば、前記変形例にて述べたように予測画像のみ予測すればよいときにはConvLSTMのみ用いる構成としてもよいし、予測幾何情報のみ予測すればよいときには第1の実施形態で述べたようなConvLSTMの出力を二つに分割する構成とせず、1つの出力層をFCNの入力層と接続するような構成としてもよい。
第1の実施形態においては、画像を撮像する撮像装置11がRGBカメラである構成について説明した。ただし、RGBカメラに限るものではなく、現実空間の画像を撮像するカメラであれば特に制限はなく、たとえば濃淡画像を撮像するカメラでもあってもよい。また、単眼カメラであってもよいし、二台以上の複数のカメラやセンサを備えるカメラであってもよい。さらには、奥行き情報や距離画像、三次元点群データなどの幾何情報を取得することのできる装置であってもよい。具体的にはTOF(Time Of Flight)カメラやLiDAR(Laser Imaging Detection and Ranging)、ソナーセンサ等が該当する。これらRGBカメラ以外を用いる場合には、学習モデルは使用するカメラや計測装置が取得する画像や幾何情報を入力として、それらの取得時刻より先の時刻の幾何情報を予測することができるように構成する。このような構成とする場合には、あらかじめ各種センサに合わせて学習モデルを用意しておけばよい。例えばTOFカメラによって取得した時刻tの入力幾何情報(デプスマップ)から時刻t+Δtの予測幾何情報を予測して位置姿勢を算出する場合には、学習モデルはあらかじめ、時刻tの入力幾何情報を入力としたときに、予測幾何情報と時刻t+Δtの入力幾何情報との奥行き値の誤差が減少するように学習しておけばよい。
第1の実施形態においては、予測結果をもとに算出した位置姿勢を基に自動車を制御していた。一方で、予測画像ではなく、実際の入力画像をもとに位置姿勢を算出する場合の処理時間を短縮する場合にも用いることができる。具体的には、位置姿勢算出における最適化計算の初期値を、過去に予測画像から算出した位置姿勢とする。あらかじめ予測により求めた位置姿勢を初期値とすることで収束までの位置姿勢算出の繰り返し計算におけるループ回数を減らすことができ、さらに、不確実な予測を用いるのではなく実際の計測値に合わせて位置姿勢を算出することができ、高速に高精度に位置姿勢を算出することができる。
第1の実施形態では、予測部120が予測した予測画像や予測幾何情報を使って、算出部140が撮像装置11の位置姿勢(結果的に自動車1の位置姿勢)を算出した。一方で、これら予測画像や予測幾何情報を、予測を用いないSLAM(Simultaneous Localization and Mapping)の算出値と併用して用いる構成としてもよい。具体的には、まず時刻t以前の複数の入力画像を用いて非特許文献1の方法でシーン中の三次元空間の点群を表す三次元点を算出しておく。次に、算出した三次元点を予測幾何情報に射影する。次に射影した三次元点と予測幾何情報の奥行きとを重み付和によって統合して高精度化した幾何情報を予測幾何情報として用いる。本変形例においては非特許文献1に記載の信頼度を重みとして用いることができる。非特許文献1の方法では、複数時刻の入力画像からモーションステレオによって三次元点を算出する。各点の信頼度とは、奥行き値の分散の逆数である。以上のような構成として、SLAMによって求めた三次元点の信頼度が高い点を予測部120が予測した幾何情報のデプスマップの各点の代わりに用いる、またはそれらを統合することで、予測幾何情報を高精度化することができ、高精度に位置姿勢を算出する。
第1の実施形態においては、撮像装置11が撮像した時刻tの入力画像をもとに、予測部120がある一時刻であるt+Δt時刻の予測画像および予測幾何情報を推定し、算出部140がt+Δt時刻後の撮像装置11の位置姿勢を算出した。しかしながら、予測部120が予測するのは撮像装置11が撮像した時刻t以降の予測画像や幾何情報であれば、さらに先の複数の時刻の予測画像や予測幾何情報を推定する構成としてもよい。具体的には、予測部120が、時刻t+nΔτの予測画像を学習モデルに入力し、時刻t+(n+1)Δτの予測画像を予測する。こうすることで学習モデルの変更なしに時刻t+Δt以降のさらに先の時刻の予測画像や予測幾何情報が予測でき、それらの時刻の位置姿勢を算出することができる。このようにして算出した複数時刻の未来の位置姿勢と算出しておいたルートとの距離が最小となるように自動車を制御することで、直近のルートとの位置姿勢の誤差が大きくともさらに先の時刻での誤差が小さくなるように自動車を制御することができ、急制動しなくてもよく、安定して自動車を制御することができるようになる。
第1の実施形態においては、予測結果をもとに算出した位置姿勢を基に自動車を制御していた。一方で、予測性能に応じて予測を利用するか否か決めることもできる。具体的には、算出部140が、時刻tの入力画像を基に予測したt+Δt時刻の予測画像と、実際にt+Δt付近の時刻に撮像装置11が撮像した入力画像との各画素の輝度差の平均、最大、最小、中央値が所定の閾値以内であれば予測性能が高いと判定し、位置姿勢算出に予測画像、予測幾何情報を利用する。一方、閾値以上となった場合には予測性能が低いとして位置姿勢算出に予測画像や予測幾何情報を利用せず、入力画像を基に位置姿勢を算出する構成である。また、予測性能が低い場合には予測を停止することもできる。このような構成とすることで、予測精度が低いときに位置姿勢推定精度が低下することを避けることができる。
前記変形例においては、予測画像と入力画像の一致度合に基づいて予測の利用の有無を判断していた。ところで、予測画像と入力画像の一致度合に基づいて制御値を変える構成としてもよい。例えば、前記予測精度が高いときには自動車の速度の上限を上げ、逆に予測精度が低いときには自動車の速度の上限を下げるよう自動車を制御する。このようにすることで、予測性能が悪いときには速度を下げることで安全に自動車を制御することができる。また、予測性能が悪いときには運転手に自動車の制御を要請してもよい。また、ネットワーク経由で管理センターに自動車の制御を要請してもよい。
前記変形例においては、予測画像と入力画像の一致度合に基づいて制御値を変える構成とした。ところで、予測画像と入力画像の一致度合に基づいて予測パラメータを動的に調整してもよい。ここでいう予測パラメータとは、予測する時刻を表すt+Δtにおける予測時間Δt、前記複数時刻の予測を行う場合における予測時刻t+nΔτにおけるどの時刻まで予測をするかを表す予測個数N(nの最大値)、予測間隔を表すΔτのことである。具体的な予測パラメータの調整例としては、算出部140が、予測精度が低いと判定した場合には予測時間Δtを短くする、予測個数Nの値を小さくする、予測間隔Δτを小さくするという調整を行ってもよい。一般に、予測期間が長くなるほど予測精度が低下するが、このような調整をすることで予測部120の予測値の予測精度を担保できるようになる。なお、予測時間や予測間隔であるΔt、Δτを予測器において反映させるために、予測器に入力画像に加えて1つの時間情報を入力する入力層を加えた構成とする。また、このようなネットワーク構成とする場合には、時刻tの入力画像と任意のΔtの値を入力し、時刻t+Δtの画像と予測器の予測値が一致するように学習させる。また、予測を行う領域を表すROI(region of interest)を予測パラメータとしてもよい。つまり、入力画像のうち一部の領域のみ予測を行うという構成としてもよい。この場合、入力画像と予測画像をそれぞれ既定の小領域に分割し、算出部140が小領域毎に予測精度を算出する。この時、予測精度が所定の閾値以上の小領域のみその後の時刻の予測に利用する。
前記変形例では、予測パラメータの調整には予測画像と入力画像の一致度合を用いていた。しかしながら、情報処理装置10への入力、予測部120の予測値、算出部140の算出値、制御部150の制御値、または情報処理装置1を搭載する自動車の状態をもとに予測パラメータを調整するもので特に制約はない。具体的には、算出部140が予測画像、予測幾何情報を基に算出したt+Δt時刻の予測位置姿勢と、撮像装置11がt+Δt時刻付近に撮像した入力画像を基に算出した算出位置姿勢との誤差の二乗誤差が大きい程、予測時刻Δtや予測間隔Δτ、予測個数Nの値を小さくする。
また、自動車の状態を基に予測パラメータを調整してもよい。ここでは一例として、事前に計測しておいた自動車の制動距離で予測パラメータを調整する構成について述べる。制動距離が大きい自動車の場合には、制御してから自動車が所望の動作を完遂するまでに時間がかかるため、より先の予測を用い制御すること所望の動作を行うまでの時間を短くすることが望まれる。このために、自動車の重量が大きい程、予測時間Δtを大きくする、予測個数Nの値を大きくする、予測間隔Δτを大きくする。制動距離以外にも、重量が大きい程、タイヤの接地面積が小さい程、自動車の速度が速い程、自動車の乗車人数が大きい程それぞれのパラメータを大きくする構成としてもよい。また、自動車の速度やステアリングに応じて予測を行う画像の範囲のことである予測範囲を調節してもよい。具体的には自動車の速度が速いときには予測範囲を小さく、速度が遅いときには予測範囲を大きくする。このように予測範囲を調節することで、予測時間間隔や予測時間が長くなる場合、予測個数が増大する場合においても、予測に係る時間を一定時間にすることができる。
第1の実施形態においては、保持部130が保持するマップは、事前に撮影したシーンの画像とその時の位置姿勢を関連付けたキーフレーム群のことであった。しかしながら、マップは以上の構成に限るものではなく、予測部120が予測した予測画像または予測幾何情報との間の位置姿勢を算出できるものであれば何でもよい。具体的には、LiDARで取得した三次元空間の点群を表す三次元点群を全天周カメラで撮影した画像に射影し一致する点を求め、各三次元点に一致する画像の輝度パラメータを加えた4パラメータを持つ四次元点群をマップとして保持してもよい。この構成とした場合には、四次元点群を予測画像に射影し、予測画像と射影した点群との輝度差が減少するように予測画像の視点位置を算出できる。また、3Dマップとして、LiDARで取得した三次元点群のみ保持する構成としてもよい。この場合には、三次元点群を予測幾何情報であるデプスマップに射影し、ICPアルゴリズムにより三次元点群と予測したデプスマップとの距離が最小となるように位置姿勢を算出してもよい。このような構成とすることで、保持部130が保持するマップが変わる構成に対しても本情報処理装置を適用することができる。
第1の実施形態においては、保持部130が事前に作成したマップを保持していた。しかしながら、算出部140が位置姿勢を算出する際に、事前に作成したマップを用いるのではなく、予測した位置姿勢をもとにマップを作成しつつ位置姿勢推定を行うSLAMの構成としてもよい。マップの生成方法に関しては、CNN-SLAMを援用することができる。なおCNN-SLAMについては非特許文献1に詳細に開示されており、これを援用できるものとする。ただし、CNN-SLAMでは撮像装置11が撮像した入力画像を用いていたが、本構成に適応する場合には入力画像の代わりに予測画像を用いることもできる。このような構成にすることで、事前にマップを作成しない場所においても、予測を行いつつ自動車の自己位置推定および制御を行うことができる。
第1の実施形態においては、保持部130はマップを保持していた。しかしながら、保持部130がマップを保持しない構成としてもよい。具体的には、予測部120が時刻tより一時刻前のt’’の入力画像をもとに予測した予測画像と算出部140が算出した位置姿勢、および予測部120が時刻tの入力画像に対して予測したt+Δt時刻の予測画像とを用いて、算出部140が時刻t’’に対する時刻t+Δtの位置姿勢変化量を算出する。以上の処理を入力部110が画像を入力するごとに行い、毎時刻算出される位置姿勢変化量を積算することで、撮像装置11の位置姿勢を算出することができる。
第1の実施形態においては、学習モデルが内部的に入力画像の履歴を保持する構成としたため、自動車の速度に応じた予測を行うことができる。しかしながら、車速に応じた複数の学習モデルを用意し、車速に応じて切り替えて用いてもよい。つまり、保持部130は、複数の学習モデルを保持する。保持する学習モデルの数は、車速に応じた数分望ましいが、例えば10km/、20km/h、…と10km/hごとの学習モデルとし、利用する学習モデルはその時の自動車1の車速に最も近いものが選択されるものとする。車速は、制御装置12から取得するものとする。このような構成とすることもできる。
第1の実施形態においては、算出部140が算出した位置姿勢をもとに自動車を制御する構成としていた。しかしながら、制御する対象は自動車に限らず、自律移動する装置であれば特に制限はない。例えば実施形態における情報処理装置10を、工場や倉庫、商店において物資の搬送を行うAGV(automated guided vehicle)をはじめとする自律移動型ロボットやAMR(autonomous mobile robot)に適用してもよい。
また、自動走行に限らず、人が運転する操作をアシストする構成として用いてもよい。具体的には、予測により高速に算出した制御値と人の操作が乖離した場合にはアラートを鳴らすことで、素早く人に注意を喚起することができる。さらに、このような場合には、人が操作を誤ったとして算出した制御値で自動車を制御してもよい。
さらには、本情報処理装置を、位置姿勢を算出する装置として用いてもよい。具体的には、複合現実感システムにおける現実空間と仮想物体との位置合わせ、すなわち、仮想物体の描画に利用するための現実空間における撮像装置11の位置及び姿勢の計測に本発明の方法を適用してもよい。このような構成とした場合には図1における制御部150、および制御装置12は必要ではなく、算出部140が予測画像と予測幾何情報を基に算出した位置姿勢を基づいて描画された仮想物体のCG像が重畳され、モバイル端末やヘッドマウントディスプレイのディスプレイを通してユーザに提示する。このような構成とすると、従来位置姿勢算出やCGの描画における計算時間による映像の提示までの遅延を低減することができる。
[第2の実施形態]
上記第1の実施形態では、予測画像、予測幾何情報および、過去の入力画像をもとに作成した位置姿勢の算出指標であるマップを用いて、撮像装置11の位置姿勢を算出し自動車1の制御を行うものであった。本第2の実施形態では、過去の入力画像をもとに作成したマップだけでなく、予測画像、予測幾何情報を用いてマップを作成するとともに、作成したマップを用いて撮像装置の位置姿勢を算出する例を説明する。
事前に作成したマップが無くとも、入力画像を基にマップを作成しつつ自己位置推定をするVisual SLAM(Simultaneous Localization and Mapping)を用いることで撮像装置11の位置姿勢を算出することが可能である。Visual SLAMでは入力画像と、入力画像に基づいて算出した位置姿勢を関連付けてキーフレームとして保持する。従来のVisual SLAMは、過去に通過した位置(入力画像を撮像した位置)にのみキーフレームを作成するものである。そこで第2の実施形態では、過去に通過した地点にのみキーフレームを作成するのでなく、予測画像、予測幾何情報を用いて、自動車がこれから進むと予測される地点付近のキーフレームを生成する。また、作成したキーフレームを、入力画像を用いて更新し高精度化する。本第2の実施形態においては、キーフレームの生成方法、および更新方法について説明し、これらを用いた自動車の位置姿勢算出および制御方法について説明する。
本第2の実施形態における装置の構成は、第1の実施形態で説明した情報処理装置1の構成を示す図1と同一であるため、その説明は省略する。本第2の実施形態では、算出部140が、撮像装置11が入力画像を撮像した時刻tよりも後の時刻t’のキーフレームを算出する。
また、算出部140は、保持部130が保持するキーフレームを更新する。そして、作成または更新したキーフレームを保持部130に出力し、保持する点が第1の実施形態と異なる。なお、本第2の実施形態においては、撮像装置11が撮影したシーンのRGB画像または予測部120が予測した予測画像であるRGB画像と、幾何情報としてのデプスマップ、およびそれらの視点の位置姿勢を関連付けたデータ構造をキーフレームとする。さらに、キーフレーム群をマップとして保持部130に保持する。
第2の実施形態における全体の処理手順は、第1の実施形態で説明した情報処理装置1の処理手順を示す図5と同一であるため、説明を省略する。第1の実施形態と異なるのは、ステップS150において算出部140が位置姿勢を算出するのに加え、さらに時刻tよりも後の時刻t’のキーフレームを算出し、更新する点である。
図6は、第2の実施形態における情報処理装置10の算出部140におけるステップS150の処理手順の詳細を示すフローチャートである。
ステップS2110にて、算出部140は、予測部120からの予測画像、保持部130が保持するキーフレームを用いて撮像装置11の位置姿勢を算出する。具体的には、まずキーフレームのデプスマップを予測画像上に射影する。次に、予測画像の各画素値と、射影によって対応付けられたキーフレームが保持する画像の各画素値との輝度差が最小となるようにt+Δtの位置姿勢を算出する。
ステップS2120にて、算出部140は、キーフレームを算出し、保持部130に出力する。まず算出部140がキーフレームを追加するかどうか判定する。具体的には、算出部140が、ステップS2110で算出した位置姿勢との二乗距離が最小となるキーフレームを選択し、当該キーフレームとの二乗距離が所定の距離以上でありかつ視線方向が所定の角度以上離れていればキーフレームを追加すると判断する。キーフレームを追加すると判断された場合には、算出部140が、予測部120が予測した予測画像、予測幾何情報、および算出部140がステップS2110で算出した位置姿勢をキーフレームとして保持部130に出力し、保持部130がこれを保持する。
ステップS2130にて、算出部140は、予測幾何情報とステップS2110で算出部140が算出した位置姿勢に基づきキーフレームが保持するデプスマップの奥行き値を更新する。まず算出部140は、保持部130が保持するマップから、ステップS2110において算出した位置姿勢との距離および視線方向が所定の閾値未満のキーフレームを選択する。次に選択したキーフレームに予測幾何情報であるデプスマップを射影する。そしてキーフレームが保持する幾何情報であるデプスマップと射影した予測幾何情報のデプスマップとを時系列フィルタリング(平滑化)により更新する。時系列フィルタリングとしては、まずICPアルゴリズムによって二つのデプスマップから算出できる三次元点のうち同一の三次元点とみなす対応関係を算出する。次に、同一であるとみなした2つの三次元点の重み付平均位置を算出する。算出した重み付き平均位置をデプスマップの当該画素の奥行き値として保持部130のキーフレームのデプスマップを更新する。
<効果>
以上のように、第2の実施形態では、予測画像、予測幾何情報を用いてキーフレームを作成する。さらに作成したキーフレームを予測画像、予測幾何情報を用いて時系列に更新する。そして、作成したマップを用いて位置姿勢を算出する。このような構成とすることで、従来のVisual SLAMにおいて、撮像装置11が通過した地点にしか作成できなかったキーフレームを、今後通過する地点付近に作成することができる。そして、あらかじめ作成したキーフレームをさらに時系列に更新することで精度良い幾何情報としてのデプスマップを算出することができる。以上により作成した精度良いマップを用いることで、高精度に位置姿勢を算出することができる。
<変形例>
第2の実施形態では、算出部140が、予測画像が予測される毎に時系列フィルタリングにより保持部130が保持するマップのキーフレームのデプスマップの奥行き値を更新した。しかしながら、マップの更新方法は、マップを高精度化することができる方法であれば特に制約はない。具体的には、入力画像や予測画像を用いてモーションステレオ法によって算出した奥行き値を用いて時系列フィルタリングによりキーフレームのデプスマップを更新する非特許文献1の方法で更新することもできる。また、過去に作成した複数のキーフレームを統合して更新してもよい。ここでいう統合とは、まず複数のキーフレームの位置姿勢に矛盾が無いように、ポーズグラフ最適化を用いてキーフレームの位置姿勢を算出する。次に、得られた位置姿勢を用いてさらに複数のキーフレームのデプスマップを平滑化することである。平滑化においては、前述の時系列フィルタリングと同様の方法を用いることができる。このように複数時刻の入力画像、予測画像を用いてマップを更新することで、高精度なマップが生成でき、位置姿勢の算出精度が向上する。
第2の実施形態では、予測部120が算出した予測値を基に生成したマップを基に位置姿勢を算出していた。一方、算出したマップを基に自動車の制御値を変更してもよい。具体的には、まず算出部140が、予測したキーフレームのデプスマップからシーンの三次元形状を算出する。この時、自動車の進行方向に三次元の構造物が存在する場合には、制御装置12が自動車の速度を低下させるように制御値を算出する。また、予測したマップから三次元形状を算出し、路面の凹凸度合を算出し、凹凸が大きいと予想された位置を避けるような制御を行うための制御値を算出してもよい。このように、予測値を基に作成したマップを用いて自動車を制御することで、センサで計測する以前からあらかじめ制御することができ、自動車の急制動を減少させることができる。
また、第2の実施形態においても、第1の実施形態で述べたように事前に作成したマップを保持している場合には、予測したキーフレームと事前に作成したマップとの差分を基に、事前に作成したマップを用いて位置姿勢を算出するか否かを切り替えることもできる。ここでいう差分は、算出部140が算出する、予測したキーフレームとマップとの一致度合を表す値のことである。具体的には、事前に作成したマップを予測したキーフレームのデプスマップに射影し、それらの差の平均値、中央値、最大値、最小値や、デプスマップを小領域に区切り領域毎に算出した奥行き値の差の平均値、中央値、最大値、最小値を用いることができる。前述の差分値が所定の閾値を超えていれば事前に作成しマップとシーンが変わっているとして第2の実施形態の方法で位置姿勢を算出する。一方、閾値以下であれば第1の実施形態に示したように事前に作成したマップを用いて位置姿勢を算出する。以上のように、予測したマップと事前に作成したマップの一致度合を基に事前に作成したマップを利用するか否か判断することで、例えば工事により事前にマップを作成した時点と景観が変わった場合にも安定して高精度に位置姿勢を算出することができる。
[第3の実施形態]
第1の実施形態では、予測画像、予測幾何情報を用いて、事前に作成したマップを基に、撮像装置11の位置姿勢を算出し自動車の制御を行う方法について説明した。第2の実施形態では、予測画像、予測幾何情報を用いてマップを生成、および更新する方法について説明した。第3の実施形態では、予測画像、予測幾何情報を用いて、それらに写る物体情報である物体種、それら物体の位置、移動量を算出し、それらをもとに自動車の制御を行う方法について説明する。
自動車制御においては、自己位置推定だけでなく、周囲の物体の位置姿勢や移動量の予測が重要である。具体的事例として、走行中に自動車の前方右よりに自転車が直進して走行しており、さらに自転車の前方に駐車している自動車があった場面を挙げる。この時、自転車は駐車している車を避けるために左方向に蛇行し、衝突することが予測される。このため、あらかじめ自動車の速度を減少させることで衝突を回避することができる。また別の具体的事例として、駐車している自動車の前方から不明瞭な物体が飛び出してくる場面を挙げる。この時、不明瞭な物体は人であって、衝突することが予想される。このため、衝突が予想された時点であらかじめ自動車の速度を低下させることで衝突を回避することができる。本第3の実施形態ではこのように、周囲の状況、周囲の物体の物体種や、それらの将来の位置や移動量を予測して、障害物と衝突しないように自動車を制御する方法について述べる。
第3の実施形態における装置の構成は、第1の実施形態で説明した情報処理装置1の構成を示す図1と同一であるため省略する。第3の実施形態では、算出部140が、撮像装置11が入力画像を撮像した時刻tよりも後の時刻t’における物体情報として物体種とそれらの位置を算出する。また、各物体との衝突確率を表す衝突可能性情報を算出する。また、衝突可能性情報を制御部150に出力する。制御部150は算出部140が算出した衝突可能性情報に基づき、自動車を制御する制御値を算出し、制御装置12に出力する。
図7は、第2の実施形態における情報処理装置のフローチャートである。第1の実施形態におけるステップS150の位置姿勢算出の代わりに、ステップS310の物体情報算出が追加されている点が第1の実施形態と異なる。
ステップS310にて、算出部140は、予測部120が予測した予測画像、予測幾何情報に含まれる物体種とその位置、移動量を算出する。また、それらに基づき、自動車と物体との衝突可能性情報として、自動車と物体ごとの衝突確率値(0から1の範囲の実数であり、1となるほど衝突確率が高いとする)、衝突予測時刻、衝突予測時刻の物体の予測位置を算出する。なお、ステップS310の処理の詳細については後述する。
ステップS160においては、算出部140は、ステップS310において算出した衝突可能性情報に基づいて、制御部150が衝突を回避するよう自動車の制御値を算出する。具体的には、衝突可能性が所定の閾値以上の物体がある場合には速度を低下させるためのブレーキを制御し、かつ衝突予測時刻における物体の予測位置を避けるようステアリングを制御する。なお、本実施形態において、予測部120は、複数時刻(t+nΔt:n=1,…,N)の画像と幾何情報を予測するものとした。
図8は、第2の実施形態における情報処理装置のステップS310の物体情報算出処理の詳細を示すフローチャートである。本処理は、予測画像から物体種が何であるか検出するステップS2110、各物体の位置を算出するステップS2120、およびそれら物体と自動車の衝突可能性を算出するステップS2130で構成される。
ステップS2110にて、算出部140は、入力画像から物体種を検出する。本実施形態において画像からの物体種の検出には、画像から物体候補領域を算出し、それぞれの候補領域の物体種を推定し、さらに画像の画素毎に物体のラベルを算出するディープニューラルネットワークであるMask R-CNNを用いる構成とした。なお、Mask R-CNNについては非特許文献5に詳細な記述があり、これを援用できる。ただし、画像から物体種を検出することができる方法であれば、上記方法に限るものではない。
ステップS2120にて、算出部140は、予測部120が予測した各時刻t+nΔtの予測画像と入力画像との各画素の同一点を表す対応関係を求めることで、ステップS2110で検出した物体が予測画像中のどの位置するか算出する。具体的には、入力画像と予測画像との間でオプティカルフローを算出することで、入力画像の画素が予測画像のどの画素に対応するか求める。次に、算出部140は、ステップS2110で算出した各画素の物体種ラベルを対応する予測画像の各画素に割り振る。そして、予測画像の各画素と一致する予測幾何情報における各画素にも同様に物体種ラベルを割り振る。以上により予測幾何情報の各三次元点に物体種が割り当てられることになる。物体が各予測時刻t+nΔtにおいて三次元空間中のどこに位置するかを表す三次元情報である予測位置を導出する。
ステップS2130にて、算出部140は、算出した各物体の予測位置をもとに各時刻t+nΔtごとの自動車が物体との衝突可能性を算出する。この衝突可能性とは、自動車1の前方の所定の領域に、ステップS2120に物体種ラベルが割り振られた予測幾何情報の三次元点が位置している場合には大きく、所定の領域から離れるほど小さくなる値のことである。具体的な衝突可能性の値の算出方法を次に述べる。まず、自動車の制動距離から求めることのできる自動車が停止するまでに進む空間を制動距離空間として、各クラスの三次元点と制動距離空間との最小距離dを算出する。次に、自然対数の底の-d乗根の値(0から1となる)を衝突可能性の値とする。なお、あらかじめステップS2110において検出した物体ごとに0から1の実数を格納するメモリを割り当てておき、当該メモリに衝突可能性の値を格納する。
<効果>
以上のように、第3の実施形態では、予測画像、予測幾何情報を用いて周囲の物体情報である物体の種類、物体の予測位置を算出し、自動車と各物体との将来の衝突可能性を算出する。そして、将来の衝突可能性が高ければ物体と自動車が衝突しないように自動車を制御する。このようにして実際に入力画像が取得されるより前に早期に物体位置を算出することができる。また、予測した物体位置をもとに物体と自動車との衝突可能性を求め、衝突可能性に基づき衝突を回避するように自動車を制御することで、安全に自動車を制御することができる。
<変形例>
第3の実施形態では、予測部120が予測した予測画像と入力画像とのオプティカルフローを算出し物体の予測位置を算出していた。しかしながら、予測部120が学習モデルを用いて、幾何情報として物体の移動量を算出する構成としてもよい。このとき、学習モデルは時刻tにおける入力画像を入力するとその画像における各画素が時刻t+Δtにおいてどこの画素に写っているかを表す二次元(x、y)の移動量を画素毎に出力する。この学習モデルは、時系列画像(t=0,…,m)を学習モデルに入力した際の出力と、t=mからt=m+1の画像のオプティカルフローとの誤差を最小化するように学習しておけばよい。なお、この学習モデルとしては例えば第1の実施形態で述べたようなConvLSTMを用いることができる。また、学習モデルは画像の各画素の二次元の移動量を算出するのではなく、三次元空間上の移動量(x、y、z)を画素毎に出力するように構成してもよい。具体的には、時系列画像(t=0,…,m)を学習モデルに入力した際の出力と、t=mからt=m+1のデプスマップの各ピクセルの対応関係を表す三次元ベクトルの三値を格納した三次元オプティカルフローとの誤差が最小化するように学習して置けばよい。なお、このときの学習モデルとしては例えば第1の実施形態で述べたConvLSTMとFCNを接続した構成を利用することができる。以上のように、予測部120があらかじめ学習モデルを用いて予測幾何情報として二次元、または三次元のオプティカルフローを予測することで、算出部140がオプティカルフロー算出を行う必要が無く、高速に物体位置を算出することができ、迅速に衝突可能性情報を算出できる。
第3の実施形態では、物体種を検出し、物体種ごとに衝突可能性を算出していた。しかしながら、衝突可能性を算出できれば物体種を明示的に算出しない構成としてもよい。この場合には、予測した幾何情報を基に、各三次元点と制動距離空間との距離を算出し、三次元点群毎に衝突可能性を算出すればよい。また、前述した変形例のように予測部120が幾何情報としてオプティカルフローを予測する場合においても、算出部140が物体種を算出せず衝突可能性を算出してもよい。このような構成とすることで、物体種が明確にわからない場合においても、衝突回避を行うことができるようになり、安全に自動車を制御することができる。
第3の実施形態では、撮像装置11が時刻tに撮像した入力画像を基に予測部120が予測した予測画像と予測幾何情報を予測していた。しかしながら、過去に予測した予測画像や予測幾何情報を用いて時系列的に予測結果を統合することもできる。具体的には、保持部130が保持するマップ中のキーフレームのデプスマップと時刻tの入力画像により予測した時刻t+Δtの予測幾何情報であるデプスマップとを時系列フィルタリングにより統合する。このときさらに、時系列フィルタリングにより統合した各三次元点群の位置の分散の逆数を信頼度として、信頼度をもとに衝突可能性を算出することもできる。具体的には、各三次元点の信頼度と第3の実施形態における衝突可能性の値の積を信頼度付き衝突可能性値とする。そして、制御部150が、信頼度付き衝突可能性値が所定の閾値以上となった場合に当該物体と衝突を回避するように自動車を制御する。
第3の実施形態では、予測部120の予測を基に物体の予測位置を推定していた。一方、SLAMによって求めた周囲の三次元点群と予測結果を統合することでよりさらに高精度に物体の予測位置を算出することができる。具体的には、まず過去の入力画像を基にSLAMによりシーンの三次元点群を算出する。なお、SLAMの方式は入力画像から三次元点群を求めることができれば何を使ってもよく、例えば非特許文献1の方法が利用できる。次に、入力画像から物体検出を行い、物体ごとに三次元点群をセグメンテーションする。その後、時刻t+Δtにおける予測幾何情報と物体ごとにセグメンテーションした三次元点群とをICPアルゴリズムによりマッチングする。以上のようにして、SLAMで算出したそれぞれの物体が時刻t+Δtにおいてどこに位置するのか算出する。以上の構成とすることで、予測精度が低いときにも大域的な物体の移動量を算出することができるため、物体の位置算出性能が向上する。
第3の実施形態では、算出部140は、入力画像からあらかじめ物体検出を行い予測画像に射影することで、物体の位置の予測を行った。しかしながら、物体が予測画像や予測幾何情報中のどこにあるのか算出することができれば、物体検出は入力画像から行うのに限らない。例えば予測画像に対して物体検出を行ってもよい。
また、複数時刻の予測画像に対して物体検出を行い、各時刻の予測画像の物体検出における尤度の変化を考慮して物体種判別を行ってもよい。具体的には、まず各時刻の予測画像に対して物体検出を行う。次に、物体の尤度の時系列変化を算出する。ここでいう尤度とは、物体検出器が出力する、各物体種別らしさを表す0から1の確率値のことである。
位置姿勢算出においては、動く物体などを外れ値として位置姿勢算出計算から除外することで高精度に位置姿勢を算出することができる。そこで、予測結果から物体の移動量を算出し、移動していない物体のみ用いて位置姿勢算出する構成としてもよい。具体的には、予測結果と入力画像との間のオプティカルフローを算出し、物体が移動しているかいないかを判定する。このとき静止物体と判定された物体上の三次元点群のみ用いて位置姿勢を算出する。このような構成とすることで、従来は位置姿勢を算出しつつ、RANSACやM推定などを用いて外れ値除去をしていたのに対し、あらかじめ動く物体上の三次元点群を判別できるため高精度に位置姿勢を算出することができる。
第1乃至第3の実施形態では、予測部120の予測結果や、それらを用いた位置姿勢算出結果、物体の位置といった情報をユーザが確認することができなかった。そこで、それらの情報を液晶ディスプレイやHUD(Head-Up Display)に表示情報として提示する。図9は本変形例における表示装置の表示の一例を示す図である。本変形例においては表示情報を液晶画面に提示するものとする。なお、表示に係る処理は、制御部150(CPU311が行うものとし、表示情報は表示部316に表示されるものとする。
GUI100は、表示情報を提示するためのウィンドウであり、G120は第1の実施形態における制御情報や第3の実施形態における物体の予測位置や衝突可能性情報を提示するためのウィンドウであり、G140は予測画像や予測幾何情報、第1の実施形態における位置姿勢算出結果を表示するためのウィンドウである。G121、G123は、算出部140が算出した物体の予測位置を入力画像に重畳表示した例である。このとき、実際の計測値と予測値との一致度合を基にしてG121、G123の色や枠の太さ、形状を変更してもよい。また、G122、G124はそれぞれの物体との衝突可能性値を表示した例である。ここでは、G121は対向車であり衝突可能性が低いと判定された例を挙げている。また、G123は自転車であり、自転車の先に駐車している自動車を避けるために道路に飛び出し手来ることを予測し、衝突可能性の値が大きくなった例を示している。G125は、衝突可能性が所定の閾値より大きくなった場合にアラートを提示した例である。同様に衝突可能性の値に応じてG121やG123の色や枠の太さ、形状を変更してもよい。また、衝突可能性の値をヒートマップとして可視化してもよい。G126は制御値を提示した例であり、現在の自動車の速度とステアリング角が矢印左側に提示されている。なお、制御方向を自動車の外部にいる人に提示するために、自動車前方に取り付けたディスプレイに矢印として提示する構成としてもよい。また、衝突可能性の上昇を受けて制御値の変更結果が矢印の右側に提示されている。また、G127は第1の実施形態で説明した予測位置姿勢を提示した。G128は、衝突可能性の上昇を受けて制御値を変更した場合の予測位置姿勢を提示した結果である。また、G129は第2の実施形態で説明した、予測結果を基に作成したマップを可視化した図である。具体的には、予測により作成したマップ中のキーフレームを入力画像に射影し重畳した。G140は一番下が入力画像であり、上の画像ほど先の未来を予測した予測画像を提示している。G141は各予測画像の時刻であり、G142にその時刻による予測位置姿勢が提示されている。本変形例では、予測画像を提示する方法を例示したが、予測幾何情報としてデプスマップから算出した三次元点群を提示する構成としてもよい。このとき、三次元点群の大きさや色を実際の計測値と予測値の一致度合や衝突可能性の値を基に変えてもよい。
<効果のまとめ>
第1の実施形態では、予測部が、撮像装置が入力画像を撮像した時刻以降の予測画像と予測幾何情報を予測し、算出部が予測結果を基に撮像装置の位置姿勢を算出する。以上のように予測結果を基に位置姿勢を算出することで、処理に時間のかかる幾何情報の推定や位置姿勢の算出による遅延の影響を受けずに済み、高速に位置姿勢を算出することができる。
第2の実施形態では、予測画像、予測幾何情報を用いて、位置姿勢算出の指標となるマップのキーフレームを撮像装置が今後通過すると予測される地点付近に作成する。さらに作成したキーフレームを予測画像、予測幾何情報を用いて時系列に更新する。そして、作成したマップを用いて位置姿勢を算出する。このような構成とすることで、従来のVisual SLAMにおいて、撮像装置が通過した地点にしか作成できなかったキーフレームを、今後撮像装置が通過すると予測される地点にも作成することができる。そして、あらかじめ作成したキーフレームをさらに時系列に更新することで精度良い幾何情報としてのデプスマップを算出することができる。以上により作成した精度良いマップを用いることで、高精度に位置姿勢を算出することができる。
第3の実施形態では、予測画像、予測幾何情報を用いて周囲の物体情報である物体の種類、物体の予測位置を算出し、自動車と各物体との将来の衝突可能性を算出する。そして、将来の衝突可能性が高ければ物体と自動車が衝突しないように自動車を制御する。このようにして、実際に入力画像が取得されるより前に早期に物体位置を算出することができる。また、予測した物体位置をもとに物体と自動車との衝突可能性を求め、衝突可能性に基づき衝突を回避するように自動車を制御することで、安全に自動車を制御することができる。
<定義のまとめ>
本発明における画像入力部110は、現実空間を撮像した視覚情報である画像を入力するものであれば特にその種類は問わない。たとえば濃淡画像(モノクロ画像)を撮像するカメラの画像を入力してもよいし、RGB画像を入力するカメラの画像を入力してもよい。奥行き情報や距離画像、三次元点群データを撮像できるカメラの画像を入力してもよい。また、単眼カメラであってもよいし、二台以上の複数のカメラやセンサを備えるカメラが撮像した画像を入力してもよい。さらに、カメラが撮像した画像を直接入力してもよいし、ネットワークを介して入力してもよい。
予測部120は、撮像装置が視覚情報を撮像した時刻以降の予測画像または予測幾何情報を予測するものである。ここでいう視覚情報とは、撮像装置が撮像した画像やデプスマップのことである。また、予測画像は、予測部が予測した画像のことである。予測幾何情報とは予測部が予測するデプスマップやオプティカルフローのことである。予測部が予測のために用いる学習モデルとは、CNN(Convolutional Neural Network)のことである。このCNNはある時刻tの画像を入力するとΔt時間後の時刻t+Δtの予測画像、予測幾何情報のどちらか一方または両方を予測することができるよう学習されているものである。
保持部130は、前述した学習モデルを保持するものである。保持部130はさらに、位置姿勢算出の指標となるマップを保持しておいてもよい。マップとは、シーンの画像と位置姿勢を関連付けてキーフレームとし、キーフレームを複数保持する構成としてよい。シーンの画像とは、撮像装置が撮像した画像または予測部が予測した予測画像のどちらか一方、または両方のことである。また、マップは幾何情報を保持する構成としてもよく、さらにはシーンの画像と幾何情報の双方を保持する構成としてもよい。
算出部140は、予測部が予測した予測画像または予測幾何情報の少なくとも一方または両方を用いて、撮像装置の位置姿勢を算出するものである。また、算出部は、予測部が予測した予測画像または予測幾何情報の少なくとも一方または両方を用いて、位置姿勢算出の指標となるマップを算出するものであってもよい。さらに、算出部は、予測部が予測した予測画像、予測幾何情報に含まれる物体情報である物体種またはその移動量を算出するものであってもよい。算出部はさらに、物体との衝突確率である衝突可能性情報を算出してもよい。
制御部150は、入力画像、予測部が予測した予測画像、予測幾何情報や、算出部が算出した位置姿勢、マップ、物体情報、衝突可能性情報の少なくとも一つまたは複数を基に、本情報処理装置を搭載する装置を制御する制御値を算出するものである。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1…自動車、10…情報処理装置、11…撮像装置、12…制御装置、110…入力部、120…予測部、130…保持部、140…算出部、150…制御部

Claims (24)

  1. 撮像装置が第1の時刻に撮像した撮像情報を入力する入力手段と、
    前記入力手段が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
    前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と、
    前記予測手段が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出手段と、
    を備えることを特徴とする情報処理装置。
  2. 撮像装置が第1の時刻に撮像した撮像情報を入力する入力手段と、
    前記入力手段が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
    前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と、
    前記予測手段が予測した撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出手段と、
    を備えることを特徴とする情報処理装置。
  3. 前記予測手段は、前記予測手段が予測した前記第2の時刻の撮像情報または幾何情報の少なくとも一方をもとに前記第2の時刻以降の第3の時刻の撮像情報または幾何情報を予測することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記第1の算出手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方、および、撮像装置がさらに第2の時刻の近傍の時刻に取得した撮像情報に基づいて、前記撮像装置の位置姿勢を算出することを特徴とする請求項1に記載の情報処理装置。
  5. 前記第2の算出手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方、および、撮像装置がさらに第2の時刻の近傍の時刻に取得した撮像情報に基づいて、前記撮像装置の位置姿勢を算出することを特徴とする請求項2に記載の情報処理装置。
  6. 前記物体情報は、前記入力した撮像情報、前記予測した撮像情報または幾何情報の少なくとも一つに含まれる物体の物体種であることを特徴とする請求項2に記載の情報処理装置。
  7. 前記物体情報は、前記入力した撮像情報、前記予測した撮像情報または幾何情報の少なくとも一つに含まれる物体の位置を示す情報または移動量を示す情報の少なくとも一方であることを特徴とする請求項2または6に記載の情報処理装置。
  8. 撮像装置が撮像した撮像情報を入力する入力手段と、
    前記入力手段が入力した撮像情報に基づいて、前記撮像情報に関連づいた第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
    前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と
    前記予測手段が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出手段と、
    前記予測手段が予測し撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出手段と、
    を有することを特徴とする情報処理装置。
  9. 前記予測手段が予測した撮像情報または幾何情報の少なくとも一方を基に、前記撮像装置を搭載した移動体を制御するための制御値を算出し、制御を行う制御手段をさらに備えることを特徴とする請求項1又は8のいずれか1項に記載の情報処理装置。
  10. 前記制御手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方と、撮像装置が第2の時刻の近傍の時刻にさらに取得した撮像情報との一致度合をもとに、前記制御値を算出することを特徴とする請求項9に記載の情報処理装置。
  11. 前記第1の算出手段が第2の時刻の前記撮像装置の位置姿勢を算出し、
    前記制御手段が、前記第2の時刻の撮像装置の位置姿勢に前記撮像装置の位置姿勢が一致するよう前記移動体を制御する制御値を算出する
    ことを特徴とする請求項9に記載の情報処理装置。
  12. 前記予測手段が予測し撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出手段を更に有し、
    前記制御手段は、前記第2の算出手段が算出した前記物体情報に基づいて、前記移動体を制御する制御値を算出する
    ことを特徴とする請求項9乃至11のいずれか1項に記載の情報処理装置。
  13. 前記予測手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方、および、撮像装置が第2の時刻の近傍の時刻にさらに取得した撮像情報の一致度合に基づいて、予測パラメータを調節する
    ことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  14. 前記予測手段は、前記第1の算出手段が算出した第2の時刻の前記撮像装置の位置姿勢に基づいて予測パラメータを調節する
    ことを特徴とする請求項1又は8のいずれか1項に記載の情報処理装置。
  15. 前記予測手段は、前記第2の算出手段が算出した前記物体情報に基づいて予測パラメータを調節する
    ことを特徴とする請求項2、5、6、7、8のいずれか1項に記載の情報処理装置。
  16. 前記移動体の状態または前記移動体の周囲の状況の少なくとも一方の計測値を計測する計測手段を更に備え、
    前記予測手段は、前記計測値をもとに予測パラメータを調節する
    ことを特徴とする請求項9乃至12のいずれか1項に記載の情報処理装置。
  17. 前記予測パラメータとは、前記予測手段が予測する時刻の時点、予測個数、予測時間間隔、予測に係る時間範囲のうち少なくとも一つである
    ことを特徴とする請求項13乃至16のいずれか1項に記載の情報処理装置。
  18. 前記撮像装置が撮像した撮像情報、前記予測手段が予測した第2の時刻の幾何情報、前記予測手段が予測した第2の時刻の撮像情報、前記第1の算出手段が算出した位置姿勢、のうち少なく一つをもとに表示情報を生成する生成手段と、
    前記生成手段が生成した前記表示情報を提示する表示手段と、
    を更に備えることを特徴とする請求項1、4、8乃至12、14,16のいずれか1項に記載の情報処理装置。
  19. 前記撮像装置が撮像した撮像情報、前記予測手段が予測した第2の時刻の幾何情報、前記予測手段が予測した第2の時刻の撮像情報、前記第2の算出手段が算出した情報、のうち少なく一つをもとに表示情報を生成する生成手段と、
    前記生成手段が生成した前記表示情報を提示する表示手段と、
    を更に備えることを特徴とする請求項2、5乃至8、15のいずれか1項に記載の情報処理装置。
  20. 前記撮像情報は、濃淡画像、RGB画像、奥行き情報、距離画像、三次元点群データを撮像した画像のいずれか1つを含むことを特徴とする請求項1乃至19のいずれか1項に記載の情報処理装置。
  21. 前記幾何情報は、前記撮像情報のピクセルごとに推定した奥行き情報のデプスマップであることを特徴とする請求項1乃至20のいずれか1項に記載の情報処理装置。
  22. 撮像装置が第1の時刻に撮像した撮像情報を入力する入力工程と、
    前記入力工程が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測工程と、
    前記予測工程が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  23. 撮像装置が第1の時刻に撮像した撮像情報を入力する入力工程と、
    前記入力工程が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測工程と、
    前記予測工程が予測し撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  24. コンピュータが読み込み実行することで、前記コンピュータに、請求項22又は23に記載の方法が備える各工程を実行させるためのプログラム。
JP2018004470A 2018-01-15 2018-01-15 情報処理装置及びその制御方法及びプログラム Active JP7133927B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018004470A JP7133927B2 (ja) 2018-01-15 2018-01-15 情報処理装置及びその制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018004470A JP7133927B2 (ja) 2018-01-15 2018-01-15 情報処理装置及びその制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2019124539A JP2019124539A (ja) 2019-07-25
JP2019124539A5 JP2019124539A5 (ja) 2021-02-04
JP7133927B2 true JP7133927B2 (ja) 2022-09-09

Family

ID=67398506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018004470A Active JP7133927B2 (ja) 2018-01-15 2018-01-15 情報処理装置及びその制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7133927B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7218186B2 (ja) 2019-01-16 2023-02-06 東京瓦斯株式会社 燃焼設備の診断情報の提供方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401246B2 (ja) * 2019-10-08 2023-12-19 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
CN113065650B (zh) * 2021-04-02 2023-11-17 中山大学 一种基于长期记忆学习的多通道神经网络实例分隔方法
JP7076867B1 (ja) 2021-12-21 2022-05-30 メック株式会社 物性値予測方法、物性値予測システム及びプログラム
JP7078944B1 (ja) 2021-12-21 2022-06-01 メック株式会社 物性値予測方法、物性値予測システム及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017118907A1 (en) 2016-01-05 2017-07-13 Mobileye Vision Technologies Ltd. Systems and methods for estimating future paths

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2585080B2 (ja) * 1988-10-21 1997-02-26 情報制御システム株式会社 水中浮遊物検知装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017118907A1 (en) 2016-01-05 2017-07-13 Mobileye Vision Technologies Ltd. Systems and methods for estimating future paths
JP2019509534A (ja) 2016-01-05 2019-04-04 モービルアイ ビジョン テクノロジーズ リミテッド 将来経路を推定するシステム及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7218186B2 (ja) 2019-01-16 2023-02-06 東京瓦斯株式会社 燃焼設備の診断情報の提供方法

Also Published As

Publication number Publication date
JP2019124539A (ja) 2019-07-25

Similar Documents

Publication Publication Date Title
JP7133927B2 (ja) 情報処理装置及びその制御方法及びプログラム
CN112105890B (zh) 用于自动驾驶车辆的基于rgb点云的地图生成系统
CN111771206B (zh) 用于自动驾驶车辆的地图分区系统
CN112105893B (zh) 用于自动驾驶车辆的实时地图生成系统
CN111771229B (zh) 用于自动驾驶车辆的点云重影效果检测系统
US11042157B2 (en) Lane/object detection and tracking perception system for autonomous vehicles
US20230054914A1 (en) Vehicle localization
JP7204326B2 (ja) 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム
JP7341652B2 (ja) 情報処理装置、情報処理方法、プログラム、およびシステム
US11436743B2 (en) Systems and methods for semi-supervised depth estimation according to an arbitrary camera
CN111788102B (zh) 用于跟踪交通灯的里程计系统和方法
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR102472767B1 (ko) 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
CN112055805A (zh) 用于自动驾驶车辆的点云登记系统
US11748998B1 (en) Three-dimensional object estimation using two-dimensional annotations
JP6743171B2 (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
CN112540593B (zh) 用于自动驾驶车辆的用于配准点云的方法和装置
WO2020168464A1 (en) Local sensing based autonomous navigation, and associated systems and methods
CN113012219A (zh) 信息处理装置、信息处理方法及计算机可读介质
EP4068205A1 (en) Method for tracking object within video frame sequence, automatic parking method, and apparatus therefor
CN113496201A (zh) 物体状态识别装置、方法、物体状态识别用计算机程序及控制装置
KR20200016627A (ko) 자체 운동 추정 방법 및 장치
JP7278740B2 (ja) 移動体制御装置
JP2021099384A (ja) 情報処理装置、情報処理方法およびプログラム
JP2021099383A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220830

R151 Written notification of patent or utility model registration

Ref document number: 7133927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151