JP2024062340A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP2024062340A JP2024062340A JP2023036977A JP2023036977A JP2024062340A JP 2024062340 A JP2024062340 A JP 2024062340A JP 2023036977 A JP2023036977 A JP 2023036977A JP 2023036977 A JP2023036977 A JP 2023036977A JP 2024062340 A JP2024062340 A JP 2024062340A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- information
- image
- point
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 161
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 20
- 210000004556 brain Anatomy 0.000 abstract description 112
- 238000001816 cooling Methods 0.000 description 77
- 238000001514 detection method Methods 0.000 description 47
- 238000010586 diagram Methods 0.000 description 38
- 230000033001 locomotion Effects 0.000 description 33
- 238000000034 method Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 15
- 230000015654 memory Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000013136 deep learning model Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 7
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 229910052757 nitrogen Inorganic materials 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 239000000725 suspension Substances 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000017525 heat dissipation Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000491 multivariate analysis Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 208000018883 loss of balance Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- -1 weather Substances 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
【課題】イベントカメラにより撮影された物体の画像から物体の存在位置を把握する情報処理装置、情報処理方法及び情報処理プログラムを提供する。
【解決手段】情報処理装置は、イベントカメラ30Cにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサMoPU12と、前記イベントカメラと対応する方向を向いた超高解像度カメラに内蔵され、超高解像度カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサIPUと、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサCentral Brain15と、を備える。
【選択図】図13
【解決手段】情報処理装置は、イベントカメラ30Cにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサMoPU12と、前記イベントカメラと対応する方向を向いた超高解像度カメラに内蔵され、超高解像度カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサIPUと、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサCentral Brain15と、を備える。
【選択図】図13
Description
本開示は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
特許文献1には、自動運転機能を有する車両について記載されている。
ところで、特許文献1のように車両を自動運転する場合は、カメラによって車両の周囲が撮影された複数の画像を用いて自動運転の制御が行われる。ここで、自動運転の制御では、可視光カメラにより撮影された可視光画像から、車両の走行に影響を及ぼす物体(例:歩行者)の存在位置を把握することが適さない状況が存在する。
そこで、本開示は、イベントカメラにより撮影された物体の画像から物体の存在位置を把握することができる情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本開示の情報処理装置は、イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、を備える。
また、本開示の情報処理装置は、前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する。
また、本開示の情報処理装置は、前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む。
また、本開示の情報処理装置は、前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである。
本開示の情報処理方法は、イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、前記点情報及び前記識別情報を対応付ける、処理をコンピュータが実行する。
本開示の情報処理プログラムは、コンピュータに、イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、前記点情報及び前記識別情報を対応付ける、処理を実行させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、本開示の実施形態を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
(第1の実施形態)
まず、本実施形態に係る第1の実施形態について説明する。本開示に係る情報処理装置は、一例として、少なくとも一部が車両100に搭載されて、車両100の自動運転制御を行う。また、当該情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。車両100は「対象物」の一例である。
まず、本実施形態に係る第1の実施形態について説明する。本開示に係る情報処理装置は、一例として、少なくとも一部が車両100に搭載されて、車両100の自動運転制御を行う。また、当該情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。車両100は「対象物」の一例である。
ここで、「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。
Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。
図1は、Central Brain15を搭載した車両100の一例を示す概略図である。Central Brain15には、複数のGate Wayが通信可能に接続されている。Central Brain15は、Gate Wayを介して外部のクラウドサーバに接続されている。Central Brain15は、Gate Wayを介して外部のクラウドサーバへアクセスすることができるように構成されている。その一方で、Gate Wayの存在により、外部からCentral Brain15へ直接アクセスすることはできないように構成されている。
Central Brain15は、所定時間が経過する毎に、要求信号をクラウドサーバへ出力する。具体的には、Central Brain15は、10億分の1秒毎に、問い合わせを表す要求信号をクラウドサーバへ出力する。一例として、Central Brain15は、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を制御する。
図2は、情報処理装置10の構成の一例を示す第1のブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。
IPU11は、車両100に設置された超高解像度カメラ(図示せず)に内蔵されている。IPU11は、超高解像度カメラにより撮影された車両100の周囲に存在する物体の画像について、ベイヤ変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレートかつ1200万画素の解像度で出力する。また、IPU11は、超高解像度カメラにより撮影された物体の画像から、撮影された物体を識別した識別情報を出力する。識別情報は、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報である。本実施形態では、IPU11は、識別情報として、撮影された物体の種別を示すラベル情報(例えば、撮影された物体が犬なのか、猫なのか、又はクマなのかを示す情報)を出力する。さらに、IPU11は、撮影された物体の超高解像度カメラのカメラ座標系における位置を示す位置情報を出力する。IPU11から出力された画像、ラベル情報、及び位置情報は、Central Brain15及びメモリ16に供給される。IPU11は「第2プロセッサ」の一例であり、超高解像度カメラは「第2カメラ」の一例である。
MoPU12は、車両100に設置された超高解像度カメラとは別の別カメラ(図示せず)に内蔵されている。MoPU12は、超高解像度カメラと対応する方向を向いた別カメラにより100フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体を点として捉えた点情報を、例えば100フレーム/秒以上のフレームレートで出力する。MoPU12から出力された点情報は、Central Brain15及びメモリ16に供給される。このように、MoPU12が点情報を出力するために用いる画像と、IPU11が識別情報を出力するために用いる画像とは、別カメラ及び超高解像度カメラが対応する方向を向いて撮影した画像である。ここで、「対応する方向」とは、別カメラの撮影範囲と超高解像度カメラの撮影範囲とが重複する方向である。上記の場合だと、別カメラは、超高解像度カメラの撮影範囲と重複する方向を向いて物体を撮影する。なお、超高解像度カメラ及び別カメラが対応する方向を向いて物体を撮影することは、例えば、超高解像度カメラ及び別カメラ間のカメラ座標系の対応関係を予め求めておくことにより実現される。
例えば、MoPU12は、点情報として、物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力する。当該座標値は、一例として、物体の中心点(又は重心点)を示している。また、MoPU12は、2つの座標軸の座標値として、当該3次元直交座標系における幅方向に沿った軸(x軸)の座標値(以下、「x座標値」とする)及び高さ方向に沿った軸(y軸)の座標値(以下、「y座標値」とする)を出力する。なお、x軸は、車両100の車幅方向に沿った軸であり、y軸は、車両100の高さ方向に沿った軸である。
以上の構成により、MoPU12が出力する1秒間の点情報は100フレーム以上のx座標値及びy座標値を含むため、当該点情報に基づくと、上記3次元直交座標系におけるx軸及びy軸上の物体の動き(移動方向及び移動速度)を把握することができる。つまり、MoPU12が出力する点情報は、物体の上記3次元直交座標系における位置を示す位置情報及び物体の動きを示す動き情報を含んでいる。
以上のように、MoPU12から出力される点情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)のx軸及びy軸上の動き(移動方向及び移動速度)を示す情報のみが含まれている。そして、MoPU12から出力される点情報は、画像情報を含まないため、Central Brain15及びメモリ16に出力するデータ量を画期的に削減することができる。MoPU12は「第1プロセッサ」の一例であり、別カメラは「第1カメラ」の一例である。
上述の通り、本実施形態では、MoPU12が内蔵された別カメラのフレームレートは、IPU11が内蔵された超高解像度カメラのフレームレートより大きい。具体的には、別カメラのフレームレートは100フレーム/秒以上であり、超高解像度カメラのフレームレートは10フレーム/秒である。つまり、別カメラのフレームレートは、超高解像度カメラのフレームレートの10倍以上である。
Central Brain15は、MoPU12から出力された点情報及びIPU11から出力されたラベル情報を対応付ける。例えば、上記別カメラと超高解像度カメラとのフレームレート差に起因して、Central Brain15は、物体についての点情報を取得しているが、ラベル情報を取得していない状態がある。この状態では、Central Brain15は、点情報に基づいて物体のx座標値及びy座標値を認識するが、その物体が何であるかは認識していない。
その後、上記物体についてのラベル情報を取得した場合、Central Brain15は、当該ラベル情報の種別(例:PERSON)を導出する。そして、Central Brain15は、当該ラベル情報と上記で取得している点情報とを対応付ける。これにより、Central Brain15は、点情報に基づいて物体のx座標値及びy座標値を認識するとともに、その物体が何であるかを認識する。Central Brain15は「第3プロセッサ」の一例である。
ここで、Central Brain15は、超高解像度カメラ及び別カメラにより撮影された物体が、例えば、物体A及び物体Bのように複数存在する場合、次のようにして各物体についての点情報及びラベル情報を対応付ける。上記の別カメラと超高解像度カメラとのフレームレート差に起因して、Central Brain15は、物体A及び物体Bについての点情報(以下、「点情報A」及び「点情報B」とする)を取得しているが、ラベル情報を取得していない状態がある。この状態では、Central Brain15は、点情報Aに基づいて物体Aのx座標値及びy座標値を認識し、点情報Bに基づいて物体Bのx座標値及びy座標値を認識するが、それらの物体が何であるかは認識していない。
その後、一のラベル情報を取得した場合、Central Brain15は、当該一のラベル情報の種別(例:PERSON)を導出する。そして、Central Brain15は、当該一のラベル情報と共にIPU11から出力された位置情報と、取得している点情報A及び点情報Bに含まれる位置情報とに基づいて、当該一のラベル情報と対応付ける点情報を特定する。例えば、Central Brain15は、IPU11から出力された位置情報が示す物体の位置に最も近い位置を示す位置情報を含む点情報を特定し、当該点情報を当該一のラベル情報に対応付ける。上記で特定された点情報が点情報Aである場合、Central Brain15は、当該一のラベル情報と点情報Aとを対応付け、点情報Aに基づいて物体Aのx座標値及びy座標値を認識するとともに、物体Aが何であるかを認識する。
以上説明したように、Central Brain15は、超高解像度カメラ及び別カメラにより撮影された物体が複数存在する場合、IPU11から出力された位置情報と、MoPU12から出力された点情報に含まれる位置情報とに基づいて、点情報及びラベル情報の対応付けを行う。
また、Central Brain15は、IPU11から出力された画像及びラベル情報に基づいて、車両100の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された点情報に基づいて、車両100の周囲に存在する、何であるか認識された物体の位置及び動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行い、車両100の自動運転を制御する。例えば、Central Brain15は、MoPU12から出力された点情報に含まれる位置情報及び動き情報から、物体との衝突を回避するように車両100の自動運転を制御する。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。
一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。ここで、超高解像度カメラによって撮影された画像から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両100が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、超高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば100フレーム/秒の高フレームレートでの出力が可能である。
そこで、第1の実施形態に係る情報処理装置10は、IPU11及びMoPU12の2つの独立したプロセッサを備える。情報処理装置10は、超高解像度カメラに内蔵されたIPU11には、撮影した物体が何であるかを識別するために必要な情報を取得する役割を与え、別カメラに内蔵されたMoPU12には、物体の位置及び動きを検出する役割を与えている。MoPU12は、撮影した物体を点として捉え、その点の座標が上記3次元直交座標系における少なくともx軸及びy軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、超高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。
物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Central Brain15に出力するデータ量を大幅に抑制し、Central Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCentral Brain15に出力する場合、色情報を含めると、40億ビット/秒のデータをCentral Brain15に出力することになる。MoPU12が、物体の中心点の動きを示す点情報のみを出力することで、Central Brain15に出力するデータ量を2万ビット/秒に圧縮することができる。すなわち、Central Brain15に出力するデータ量が20万分の1に圧縮される。
このように、IPU11から出力される低フレームレートかつ高解像度の画像及びラベル情報と、MoPU12から出力される高フレームレートかつ軽量の点情報とを組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。
また、情報処理装置10では、Central Brain15がMoPU12から出力された点情報及びIPU11から出力されたラベル情報を対応付けることにより、どのような物体がどのような動きをしているのかに関する情報を把握することができる。
(第2の実施形態)
次に、本実施形態に係る第2の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
次に、本実施形態に係る第2の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図3は、情報処理装置10の構成の一例を示す第2のブロック図である。図3に示すように、車両100に搭載される情報処理装置10は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、Central Brain15とを備えている。
MoPU12Lは、カメラ30Lと、レーダー32Lと、赤外線カメラ34Lと、コア17Lを備えている。また、MoPU12Rは、カメラ30Rと、レーダー32Rと、赤外線カメラ34Rと、コア17Rを備えている。なお、以下では、MoPU12LとMoPU12Rとを区別しない場合には「MoPU12」、カメラ30Lとカメラ30Rとを区別しない場合には「カメラ30」、レーダー32Lとレーダー32Rとを区別しない場合には「レーダー32」、赤外線カメラ34Lと赤外線カメラ34Rとを区別しない場合には「赤外線カメラ34」、コア17Lとコア17Rとを区別しない場合には「コア17」と記載する。
MoPU12が備えるカメラ30は、IPU11が備える超高解像度カメラ(例えば、10フレーム/秒)よりも大きいフレーム数(120,240,480,960,又は1920フレーム/秒)で物体を撮影する。カメラ30のフレームレートは可変である。カメラ30は「第1カメラ」の一例である。
MoPU12が備えるレーダー32は、物体に照射した電磁波の当該物体からの反射波に基づく信号であるレーダー信号を取得する。MoPU12が備える赤外線カメラ34は、赤外線画像を撮影するカメラである。
MoPU12が備えるコア17(例えば、1つ以上のCPUにより構成される)は、カメラ30が撮影した1フレームの画像毎に特徴点を抽出し、点情報として、上記3次元直交座標系における物体のx座標値及びy座標値を出力する。コア17は、例えば、画像から抽出した物体の中心点(重心点)を特徴点とする。なお、コア17が出力する点情報は、上記実施形態と同様に、位置情報及び動き情報を含む。
IPU11は、超高解像度カメラ(図示せず)を備えており、超高解像度カメラにより撮影された物体の画像、当該物体の種別を示すラベル情報、及び当該物体の超高解像度カメラのカメラ座標系における位置を示す位置情報を出力する。
Central Brain15は、MoPU12から出力された点情報と、IPU11から出力された画像、ラベル情報、及び位置情報とを取得する。そして、Central Brain15は、MoPU12から出力された点情報に含まれる位置情報とIPU11から出力された位置情報とが対応する位置に存在する物体についてのラベル情報を当該点情報に対応付ける。これにより、情報処理装置10では、ラベル情報が示す物体が何であるかという情報と、点情報が示す物体の位置及び動きとを対応付けることが可能になる。
ここで、MoPU12は、所定要因に応じてカメラ30のフレームレートを変更する。本実施形態では、MoPU12は、所定要因の一例として外部環境に関するスコアに応じてカメラ30のフレームレートを変更する。この場合、MoPU12は、車両100に対する外部環境に関するスコアを算出し、算出したスコアに応じて、カメラ30のフレームレートを変更する。そして、MoPU12は、変更したフレームレートで画像を撮影させるための制御信号をカメラ30に対して出力する。これにより、カメラ30は、制御信号が示すフレームレートで画像を撮影する。この構成により、情報処理装置10によれば、外部環境に適したフレームレートで物体の画像を撮影することができる。
なお、車両100に搭載される情報処理装置10は、図示しない複数種類のセンサを備えている。MoPU12は、複数種類のセンサから取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)及び点情報に基づいて、車両100に対する外部環境に関するスコアとして、車両100の移動に関する危険度を算出する。危険度は、車両100が今後どの程度の危険な場所を走行するかの度合を示している。この場合、MoPU12は、算出した危険度に応じてカメラ30のフレームレートを変更する。車両100は「移動体」の一例である。この構成により、情報処理装置10によれば、車両100の移動に関する危険度に応じてカメラ30のフレームレートを変更することができる。センサは「検知部」の一例であり、センサ情報は「検知情報」の一例である。
例えば、MoPU12は、算出した危険度が高いほどカメラ30のフレームレートを高くする。MoPU12は、算出した危険度が第1閾値未満の場合、カメラ30のフレームレートを120フレーム/秒に変更する。また、MoPU12は、算出した危険度が第1閾値以上かつ第2閾値未満の場合、カメラ30のフレームレートを240,480,960フレーム/秒の何れかに変更する。また、MoPU12は、算出した危険度が第2閾値以上の場合、カメラ30のフレームレートを1920フレーム/秒に変更する。なお、MoPU12は、危険度が上記の何れかである場合において、選択したフレームレートでカメラ30に画像を撮影させることに加え、当該フレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
例えば、MoPU12は、算出した危険度が低いほどカメラ30のフレームレートを低くする。MoPU12は、カメラ30のフレームレートを1920フレーム/秒に設定した状態で、算出した危険度が第1閾値以上かつ第2閾値未満の場合、カメラ30のフレームレートを240,480,960フレーム/秒の何れかに変更する。また、MoPU12は、カメラ30のフレームレートを1920フレーム/秒に設定した状態で、算出した危険度が第1閾値未満の場合、カメラ30のフレームレートを120フレーム/秒に変更する。さらに、MoPU12は、カメラ30のフレームレートを240,480,960フレーム/秒の何れかに設定した状態で、算出した危険度が第1閾値未満の場合、カメラ30のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ30のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
また、MoPU12は、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両100が走行する前から既知である走行に関するビッグデータを利用して、危険度を算出してもよい。
上記では、外部環境に関するスコアとして危険度を算出したが、外部環境に関するスコアとなる指標は危険度に限定されない。例えば、MoPU12は、カメラ30に写る物体の移動方向又は速さ等に基づいて、危険度とは別の外部環境に関するスコアを算出し、そのスコアに応じて、カメラ30のフレームレートを変更してもよい。以下、MoPU12がカメラ30に写る物体の速さに関するスコアである速さスコアを算出し、速さスコアに応じて、カメラ30のフレームレートを変更する場合について説明する。一例として、速さスコアは、物体の速度が速いほど高くなり、遅いほど低くなるよう設定されている。そして、MoPU12は、算出した速さスコアが高いほどカメラ30のフレームレートを高くし、低いほどカメラ30のフレームレートを低くする。このため、MoPU12は、物体の速度が速いために算出した速さスコアが閾値以上となった場合、カメラ30のフレームレートを1920フレーム/秒に変更する。また、MoPU12は、物体の速度が遅いために算出した速さスコアが閾値未満となった場合、カメラ30のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ30のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
次に、MoPU12がカメラ30に写る物体の移動方向に関するスコアである方向スコアを算出し、方向スコアに応じて、カメラ30のフレームレートを変更する場合について説明する。一例として、方向スコアは、物体の移動方向が道路に近づく方向であると高くなり、道路から離れる方向であると低くなるよう設定されている。そして、MoPU12は、算出した方向スコアが高いほどカメラ30のフレームレートを高くし、低いほどカメラ30のフレームレートを低くする。具体的には、MoPU12は、AIを利用することなどにより物体の移動方向を特定し、特定した移動方向に基づいて方向スコアを算出する。そして、MoPU12は、物体の移動方向が道路に近づく方向であったために算出した方向スコアが閾値以上となった場合、カメラ30のフレームレートを1920フレーム/秒に変更する。また、MoPU12は、物体の移動方向が道路から離れる方向であったために算出した方向スコアが閾値未満となった場合、カメラ30のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ30のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
また、MoPU12は、算出した外部環境に関するスコアが所定の閾値以上の物体についてのみ点情報を出力してもよい。この場合、例えば、MoPU12は、カメラ30に写る物体の移動方向に応じてその物体についての点情報を出力するか否かを判定してもよい。例えば、MoPU12は、車両100の走行に対する影響が低い物体についての点情報は出力しなくてもよい。具体的には、MoPU12は、カメラ30に写る物体の移動方向を算出し、道路から遠ざかっていく歩行者等の物体についての点情報は出力しない。一方、MoPU12は、道路に近づく物体(例えば、道路に飛び出しそうな歩行者等の物体)についての点情報は出力する。この構成により、情報処理装置10によれば、車両100の走行に対する影響が低い物体についての点情報を出力せずに済む。
また、以上の説明では、MoPU12が危険度を算出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が危険度を算出してもよい。この場合、Central Brain15は、複数種類のセンサから取り入れられたセンサ情報及びMoPU12から出力された点情報に基づいて、車両100に対する外部環境に関するスコアとして、車両100の移動に関する危険度を算出する。そして、Central Brain15は、算出した危険度に応じてカメラ30のフレームレートを変更する指示をMoPU12に出力する。
また、以上の説明では、MoPU12が、カメラ30が撮影した画像に基づいて点情報を出力する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12は、カメラ30が撮影した画像に代えて、レーダー信号及び赤外線画像に基づいて点情報を出力してもよい。MoPU12は、赤外線カメラ34が撮影した物体の赤外線画像からは、カメラ30が撮影した画像と同様に物体のx座標値及びy座標値を導出することが可能である。レーダー32は、レーダー信号に基づく物体の3次元点群データを取得することが可能である。つまり、レーダー32は、上記3次元直交座標系におけるz軸の座標を検出することが可能である。ここで、z軸は、物体の奥行き方向及び車両100の進行方向に沿った軸であり、以下では、z軸の座標値を「z座標値」と記載する。この場合、MoPU12は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングで赤外線カメラ34により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。そして、MoPU12は、導出した点情報をCentral Brain15に出力する。
また、以上の説明では、MoPU12が点情報を導出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が点情報を導出してもよい。Central Brain15が点情報を導出することは、例えば、カメラ30L、カメラ30R、レーダー32、及び赤外線カメラ34が検出した情報を組み合わせることで実現される。具体例として、Central Brain15は、カメラ30Lにより撮影された物体のx座標値及びy座標値と、カメラ30Rにより撮影された物体のx座標値及びy座標値とに基づいて三点測量を行うことにより、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。
また、以上の説明では、Central Brain15が、IPU11から出力された画像及びラベル情報と、MoPU12から出力された点情報とに基づいて車両100の自動運転を制御する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、Central Brain15は、IPU11及びMoPU12から出力された上記情報に基づいて、ロボットの動作制御を行ってもよい。ロボットは、人間の代わりに作業を行う人型のスマートロボットであってもよい。この場合、Central Brain15は、IPU11及びMoPU12から出力された上記情報に基づいて、ロボットの腕、手のひら、指、及び足等の動作制御を行って、物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、及び避ける等の動作を行わせる。Central Brain15がロボットの動作制御を行う場合、IPU11及びMoPU12は、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。
(第3の実施形態)
次に、本実施形態に係る第3の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第3の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
次に、本実施形態に係る第3の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第3の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
第3の実施形態に係るMoPU12は、点情報として、別カメラにより撮影された画像から認識した物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の座標値を出力する。当該座標値は、第1の実施形態と同様、上記3次元直交座標系における物体のx座標値及びy座標値である。
図4は、MoPU12が出力する点情報の例を示す説明図である。図4では、MoPU12が、別カメラにより撮影された画像に含まれる4つの物体のそれぞれについて、当該物体の輪郭を四角形で囲んだバウンディングボックス21、22、23、24が示されている。そして、図4は、MoPU12が、物体の輪郭を囲む四角形のバウンディングボックス21、22、23、24の頂点の対角となる2点の座標値を点情報として出力した態様を例示している。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。
また、物体を一定の大きさを持つオブジェクトとして捉える場合、MoPU12は、別カメラにより撮影された画像から認識した物体の輪郭を囲む多角形の頂点の対角となる2点の座標値ではなく、物体の輪郭を囲む多角形の複数の頂点の座標値を点情報として出力してもよい。例えば、図4を例にすると、MoPU12は、当該物体の輪郭を四角形で囲んだバウンディングボックス21、22、23、24の4つの頂点全ての座標値を点情報として出力してもよい。
(第4の実施形態)
次に、本実施形態に係る第4の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第4の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
次に、本実施形態に係る第4の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第4の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
第4の実施形態に係る情報処理装置10が搭載される車両100は、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョンセンサ、音センサ、超音波センサ、振動センサ、赤外線センサ、紫外線センサ、電波センサ、温度センサ、及び湿度センサの少なくとも1つから構成されるセンサを備えている。情報処理装置10がセンサから取り入れるセンサ情報として、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、周囲の状況(鳥、動物、サッカーボール、事故車、地震、火事、風、台風、大雨、小雨、吹雪、霧、など)等が挙げられる。センサは「検知部」の一例であり、センサ情報は「検知情報」の一例である。
第4の実施形態に係るCentral Brain15は、センサが検知したセンサ情報に基づいて、車両100の自動運転を制御するための制御変数を算出する。Central Brain15は、10億分の1秒毎にセンサ情報を取得する。具体的には、Central Brain15は、車両100の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する。なお、車輪の傾きは、道路に対して水平な軸に対する車輪の傾き、及び道路に対して垂直な軸に対する車輪の傾きの双方を含む。この場合、Central Brain15は、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出する。
そして、Central Brain15は、上記で算出した制御変数と、MoPU12から出力された点情報及びIPU11から出力されたラベル情報とに基づいて、車両100の自動運転を制御する。具体的には、Central Brain15は、上記16の制御変数に基づいて、4つの車輪にそれぞれ搭載されたインホイールモータを制御することで、車両100の4つの車輪それぞれの車輪速、傾き、及び4つの車輪それぞれを支持するサスペンションを制御して自動運転を行う。また、Central Brain15は、点情報及びラベル情報に基づいて、車両100の周囲に存在する何であるか認識された物体の位置及び動きを認識し、この認識した情報に基づいて、例えば、物体との衝突を回避するように車両100の自動運転を制御する。このようにCentral Brain15が車両100の自動運転を制御することで、例えば、車両100が山道を走行する場合には当該山道に合わせた最適なステアリングを行うことができ、車両100を駐車場に駐車する場合には当該駐車場に合わせた最適なアングルで走行することができる。
ここで、Central Brain15は、機械学習、より詳しくは深層学習(Deep Learning)を用いて、上記センサ情報及び図示しないサーバ等からネットワークを介して取得可能な情報から制御変数を推論することが可能なものであってよい。換言すると、Central Brain15はAIで構成することができる。
Central Brain15は、10億分の1秒毎の上記センサ情報及びロングテールインシデントAI dataの計算力であって、Level6を実現する上で用いられる計算力(以下、「Level6の計算力」とも称する)を用い、下記式(1)に示すような積分法による多変量解析(例えば式(2)参照)を行うことで、制御変数を求め得る。より詳しくは、Level6の計算力で各種Ultra High Resolutionのデルタ値の積分値を求めながら、エッジレベルでかつリアルタイムで各制御変数を求め、次の10億分の1秒に発生する結果(すなわち、各制御変数)を最も高い確率論値で取得し得る。これを実現するためには、例えば、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数(例えば、上記センサ情報及びネットワークを介して取得可能な情報)を特定可能な関数(換言すると、各変数の挙動を示す関数)のデルタ値(例えば、微小時間の変化値)を時間積分することにより得られる積分値をCentral Brain15の深層学習モデル(例えば、ニューラルネットワークに対して深層学習が行われることによって得られた学習済みモデル)に入力する。Central Brain15の深層学習モデルは、入力された積分値に対応する制御変数(例えば、最も高い確信度(すなわち、評価値)の制御変数)を出力する。制御変数の出力は10億分の1秒単位で行われる。
なお、一例として、式(1)において、“f(A)”は、例えば、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数の挙動を示す関数が簡略化されて表現された式である。また、一例として、式(1)は、“f(A)”の時刻aから時刻bまでの時間積分vを示す式である。式(2)中のDLは深層学習(例えば、ニューラルネットワークに対して深層学習が行われることによって最適化された深層学習モデル)を示し、dAn/dtは、f(A,B,C,D,・・・,N)のデルタ値を示し、A,B,C,D,…,Nは、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数を示し、f(A,B,C,D,・・・,N)は、A,B,C,D,…,Nの挙動を示す関数を示し、Vnは、ニューラルネットワークに対して深層学習が行われることによって最適化された深層学習モデルから出力される値(制御変数)を示す。
なお、ここでは、関数のデルタ値を時間積分することにより得られる積分値をCentral Brain15の深層学習モデルに入力する形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、空気抵抗、道路抵抗、道路要素、及び滑り係数等の各変数の挙動を示す関数のデルタ値を時間積分することにより得られる積分値(例えば、次の10億分の1秒に発生する結果)がCentral Brain15の深層学習モデルによって推論され、推論結果として、最も高い確信度(すなわち、評価値)の積分値が10億分の1秒毎にCentral Brain15によって取得されるようにしてもよい。
また、ここでは、深層学習モデルに積分値を入力したり、深層学習モデルから積分値を出力したりする形態例を挙げているが、これは、あくまでも一例に過ぎず、積分値を用いなくても本開示の技術は成立する。例えば、A,B,C,D,…,Nに相当する値を例題データとし、少なくとも1つの制御変数(例えば、次の10億分の1秒に発生する結果)に相当する値を正解データとした教師データを用いた深層学習がニューラルネットワークに対して行われることで最適化された深層学習モデルによって少なくとも1つの制御変数が推論されるようにしてもよい。
Central Brain15にて得られた制御変数は、Deep Learningの回数を増加させることによりさらに精緻化させ得る。例えば、タイヤや、モータの回転、ステアリング角度や、道路の材質、天気、ごみや二次曲線的減速時における影響、スリップ、バランス崩壊や再獲得のためのステアリングやスピードコントロールの仕方等の膨大なデータやロングテールインシデントAI dataを用いてより正確な制御変数を算出することができる。
(第5の実施形態)
次に、本実施形態に係る第5の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図5は、情報処理装置10の構成の一例を示す第3のブロック図である。なお、図5は、情報処理装置10の一部の構成のみを示している。
次に、本実施形態に係る第5の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図5は、情報処理装置10の構成の一例を示す第3のブロック図である。なお、図5は、情報処理装置10の一部の構成のみを示している。
図5に示すように、MoPU12では、カメラ30により撮影された物体の可視光画像及び赤外線画像が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。当該カメラ30は、物体の可視光画像を撮影可能な可視光カメラ30A及び物体の赤外線画像を撮影可能な赤外線カメラ30Bを含んで構成されている。そして、コア17は、入力された可視光画像及び赤外線画像の少なくとも一方に基づいて、点情報をCentral Brain15に出力する。
ここで、コア17は、可視光カメラ30Aにより撮影された物体の可視光画像から物体を識別できる場合には、当該可視光画像に基づいて点情報を出力する。一方、コア17は、所定要因により当該可視光画像から物体を捉えられない場合、赤外線カメラ30Bにより撮影された物体の赤外線画像に基づいて点情報を出力する。例えば、所定要因として暗闇の影響により、コア17が可視光画像から物体を捉えられない場合が想定される。この場合には、コア17は、赤外線カメラ30Bを用いて物体の熱を検知し、その検知結果である赤外線画像に基づいて、物体の点情報を出力する。なお、これに限らず、コア17は、可視光画像及び赤外線画像に基づいて点情報を出力してもよい。
また、MoPU12は、可視光カメラ30Aにより可視光画像を撮影するタイミングと、赤外線カメラ30Bにより赤外線画像を撮影するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで可視光画像及び赤外線画像を撮影するように、カメラ30へ制御信号を出力する。これにより、可視光カメラ30Aによって撮影される1秒あたりの画像数と、赤外線カメラ30Bによって撮影される1秒あたりの画像数とが同期する(例えば、1920フレーム/秒)。
(第6の実施形態)
次に、本実施形態に係る第6の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図6は、情報処理装置10の構成の一例を示す第4のブロック図である。なお、図6は、情報処理装置10の一部の構成のみを示している。
次に、本実施形態に係る第6の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図6は、情報処理装置10の構成の一例を示す第4のブロック図である。なお、図6は、情報処理装置10の一部の構成のみを示している。
図6に示すように、MoPU12では、カメラ30により撮影された物体の画像及びレーダー32により物体に照射された電磁波の物体からの反射波に基づくレーダー信号が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。そして、コア17は、入力された物体の画像及びレーダー信号に基づいて、点情報をCentral Brain15に出力する。コア17は、入力された物体の画像からは、物体のx座標値及びy座標値を導出することが可能である。上述の通り、レーダー32は、レーダー信号に基づく物体の3次元点群データを取得し、上記3次元直交座標系におけるz軸の座標を検出することが可能である。この場合、コア17は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。なお、上記でコア17に入力された物体の画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。
また、MoPU12は、カメラ30により画像を撮影するタイミングと、レーダー32がレーダー信号に基づく物体の3次元点群データを取得するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで画像を撮影し、物体の3次元点群データを取得するように、カメラ30及びレーダー32へ制御信号を出力する。これにより、カメラ30によって撮影される1秒あたりの画像数と、レーダー32によって取得される1秒あたりの3次元点群データの数とが同期する(例えば、1920フレーム/秒)。このように、カメラ30によって撮影される1秒あたりの画像数及びレーダー32によって取得される1秒あたりの3次元点群データの数は、IPU11が備える超高解像度カメラのフレームレート、すなわち、超高解像度カメラによって撮影される1秒あたりの画像数より多い。
(第7の実施形態)
次に、本実施形態に係る第7の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第7の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
次に、本実施形態に係る第7の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第7の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
第7の実施形態に係るCentral Brain15は、IPU11がラベル情報を出力したタイミングと同じタイミングでMoPU12から出力された点情報を、当該ラベル情報に対応付ける。また、Central Brain15は、点情報及びラベル情報を対応付けた後にMoPU12から新たな点情報が出力された場合、新たな点情報についても当該ラベル情報と対応付ける。新たな点情報は、ラベル情報と対応付けた点情報が示す物体と同一の物体の点情報であって、当該対応付けが行われてから次のラベル情報が出力されるまでの間の一又は複数の点情報である。第7の実施形態では、上記実施形態と同様、MoPU12が内蔵された別カメラのフレームレートは100フレーム/秒以上(例えば、1920フレーム/秒)であり、IPU11が内蔵された超高解像度カメラのフレームレートは10フレーム/秒である。
図7は、点情報とラベル情報との対応付けの一例を示す説明図である。以下の説明では、MoPU12から出力される1秒あたりの点情報の数を「点情報の出力レート」と称し、IPU11から出力される1秒あたりのラベル情報の数を「ラベル情報の出力レート」と称する。
図7には、物体B14の点情報P4の出力レートの時系列が示されている。物体B14についての点情報P4の出力レートは1920フレーム/秒である。また、点情報P4は、図中右から左へ移動している。物体B14についてのラベル情報の出力レートは10フレーム/秒であり、点情報P4の出力レートよりも低い。
まず、時刻t0の時点では、物体B14についてのラベル情報はIPU11から出力されていない。そのため、時刻t0の時点では、Central Brain15は、点情報P4に基づいて物体B14の座標値(位置情報)を認識するが、物体B14が何であるかは認識していない。
次に、時刻t1の時点では、物体B14についてのラベル情報がIPU11から出力されている。そのため、Central Brain15は、当該ラベル情報に基づいて、物体B14についてラベル情報「PERSON」を導出する。そして、Central Brain15は、時刻t1において導出したラベル情報「PERSON」と、時刻t1においてMoPU12から出力された点情報P4の座標値(位置情報)とを対応付ける。これにより、時刻t1の時点では、Central Brain15は、点情報P4に基づいて物体B14の座標値(位置情報)を認識するとともに、その物体B14が何であるかを認識する。
図7では、物体B14についての次のラベル情報がIPU11から出力されるタイミングを時刻t2としている。そのため、時刻t2の時点では、Central Brain15は、IPU11から出力された当該ラベル情報に基づいて、物体B14についてラベル情報「PERSON」を導出する。そして、Central Brain15は、時刻t2において導出したラベル情報「PERSON」と、時刻t2においてMoPU12から出力された点情報P4の座標値(位置情報)とを対応付ける。
ここで、MoPU12が内蔵された別カメラとIPU11が内蔵された超高解像度カメラとのフレームレート差に起因して、時刻t1から時刻t2までの期間は、Central Brain15により物体B14についての点情報P4は取得される一方、ラベル情報は取得されない。この場合、Central Brain15は、時刻t1から時刻t2までの期間に取得した点情報P4については、点情報P4について直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。ここで、Central Brain15が時刻t1から時刻t2までの期間に取得した点情報P4は「新たな点情報」の一例である。図7に示す例では、時刻t1から時刻t2までの期間にMoPU12から複数の点情報P4が出力されたため、Central Brain15は、複数の点情報P4を取得している。そのため、図7に示す例では、Central Brain15は、時刻t1から時刻t2までの期間に取得した複数の点情報P4の何れについても直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。なお、図7に示す例と異なり、時刻t1から時刻t2までの期間にMoPU12から1つの点情報P4が出力された場合には、Central Brain15は、当該1つの点情報P4について直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。
ここで、Central Brain15は、動きを追跡している物体の種別が不確定な期間が生じても、その物体の点情報が高フレームレートで継続的に出力されるため、当該物体の座標値(位置情報)を見失うリスクは低い。このため、Central Brain15は、点情報とラベル情報との対応付けを1度行った場合、次のラベル情報を取得するまでの間に取得した点情報については、直前のラベル情報を推定的に付与することが可能となる。
(第8の実施形態)
次に、本実施形態に係る第8の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
車両100の自動運転を制御する情報処理装置10が高度な演算処理を行う際に、発熱が課題となる。そこで、第8の実施形態は、情報処理装置10に対する冷却機能を有する車両100を提供する。
次に、本実施形態に係る第8の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
車両100の自動運転を制御する情報処理装置10が高度な演算処理を行う際に、発熱が課題となる。そこで、第8の実施形態は、情報処理装置10に対する冷却機能を有する車両100を提供する。
図8は、車両100の概略構成を示す説明図である。図8に示すように、車両100には、情報処理装置10、冷却実行装置110、及び冷却部120が搭載されている。
第8の実施形態に係る情報処理装置10は、車両100の自動運転を制御する装置であって、一例として、第1の実施形態と同様の図2に示す構成を備えている。冷却実行装置110は、情報処理装置10による物体の検出結果を取得し、当該検出結果に基づいて、情報処理装置10に対する冷却を冷却部120に実行させる。冷却部120は、空冷手段、水冷手段、及び液体窒素冷却手段等の少なくとも1つの冷却手段を用いて情報処理装置10を冷却する。以下では、情報処理装置10における冷却対象を、車両100の自動運転を制御するCentral Brain15(詳しくは、Central Brain15を構成するCPU14)として説明するが、これに限定はされない。
情報処理装置10及び冷却実行装置110は、図示しないネットワークを介して通信可能に接続されている。当該ネットワークは、車両ネットワーク、インターネット、LAN(Local Area Network)、及び移動体通信ネットワークの何れであってもよい。移動体通信ネットワークは、5G(5th Generation)通信方式、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式の何れに準拠していてもよい。
図9は、冷却実行装置110の機能構成の例を示すブロック図である。図9に示すように、冷却実行装置110は、機能構成として、取得部112、実行部114、及び予測部116を有する。
取得部112は、情報処理装置10による物体の検出結果を取得する。例えば、当該検出結果として、取得部112は、MoPU12から出力される物体の点情報を取得する。
実行部114は、取得部112が取得した物体の検出結果に基づいて、Central Brain15に対する冷却を実行させる。例えば、実行部114は、MoPU12から出力された物体の点情報に基づいて、当該物体が移動していることを認識した場合、冷却部120によるCentral Brain15に対する冷却を開始させる。
なお、実行部114は、物体の検出結果に基づいてCentral Brain15に対する冷却を実行させることに限らず、情報処理装置10の作動状況の予測結果に基づいてCentral Brain15に対する冷却を実行させてもよい。
ここで、予測部116は、取得部112が取得した物体の検出結果に基づいて、情報処理装置10、具体的には、Central Brain15の作動状況を予測する。例えば、予測部116は、所定の記憶領域に記憶されている学習モデルを取得する。そして、予測部116は、取得部112が取得したMoPU12から出力された物体の点情報を学習モデルに入力することによって、Central Brain15の作動状況を予測する。ここで、学習モデルは、当該作動状況として、Central Brain15のコンピューティングパワーの状況及び変化量を出力する。また、予測部116は、当該作動状況と共に情報処理装置10、具体的には、Central Brain15の温度変化を予測して出力してもよい。例えば、予測部116は、取得部112が取得したMoPU12から出力された物体の点情報の数に基づいて、Central Brain15の温度変化を予測する。この場合、予測部116は、点情報の数が多いほど温度変化が大きくなると予測し、点情報の数が少ないほど温度変化が小さくなると予測する。
上記の場合、実行部114は、予測部116によるCentral Brain15の作動状況の予測結果に基づいて、冷却部120によるCentral Brain15に対する冷却を開始させる。例えば、実行部114は、当該作動状況として予測されたCentral Brain15のコンピューティングパワーの状況及び変化量が所定の閾値を超えた場合、冷却部120による冷却を開始させる。また、実行部114は、当該作動状況として予測されたCentral Brain15の温度変化に基づく温度が所定の閾値を超えた場合、冷却部120による冷却を開始させる。
また、実行部114は、予測部116によるCentral Brain15の温度変化の予測結果に応じた冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、予測されたCentral Brain15の温度が高いほど、多数の冷却手段を用いて冷却部120に冷却を実行させてもよい。具体例として、実行部114は、Central Brain15の温度が第1閾値を超えることが予測された場合、1つの冷却手段を用いて冷却部120に冷却を実行させる。一方、実行部114は、Central Brain15の温度が第1閾値よりも高い第2閾値を超えることが予測された場合、複数の冷却手段を用いて冷却部120に冷却を実行させる。
また、実行部114は、予測されたCentral Brain15の温度が高いほど、強力な冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、Central Brain15の温度が第1閾値を超えることが予測された場合、空冷手段を用いて冷却部120に冷却を実行させる。また、実行部114は、Central Brain15の温度が第1閾値よりも高い第2閾値を超えることが予測された場合、水冷手段を用いて冷却部120に冷却を実行させる。さらに、実行部114は、Central Brain15の温度が第2閾値よりも高い第3閾値を超えることが予測された場合、液体窒素冷却手段を用いて冷却部120に冷却を実行させる。
さらに、実行部114は、取得部112が取得したMoPU12から出力された物体の点情報の数に基づいて、冷却に用いる冷却手段を決定してもよい。この場合、実行部114は、点情報の数が多いほど強力な冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、点情報の数が第1閾値を超える場合、空冷手段を用いて冷却部120に冷却を実行させる。また、実行部114は、点情報の数が第1閾値よりも高い第2閾値を超える場合、水冷手段を用いて冷却部120に冷却を実行させる。さらに、実行部114は、点情報の数が第2閾値よりも高い第3閾値を超える場合、液体窒素冷却手段を用いて冷却部120に冷却を実行させる。
ところで、Central Brain15が作動する契機として、車道に存在する動く物体を検出した場合がある。例えば、車両100が自動運転を行っている際に車道に存在する動く物体が検出された場合、Central Brain15は、当該物体に対して車両100を制御するための演算処理を行うことがある。上述のように、車両100の自動運転を制御するCentral Brain15が高度な演算処理を行う際の発熱が課題となる。そこで、第8の実施形態に係る冷却実行装置110は、情報処理装置10による物体の検出結果に基づいてCentral Brain15の放熱を予測し、放熱の開始前又は放熱の開始と同時にCentral Brain15に対する冷却を実行させる。これにより、Central Brain15は、車両100の自動運転中に高温となることが抑制され、当該自動運転中における高度な演算が可能となる。
(第9の実施形態)
次に、本実施形態に係る第9の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
第9の実施形態に係る情報処理装置10が備えるMoPU12は、カメラ30により撮影された物体の画像から、点情報として物体のz座標値を導出する。以下、第9の実施形態に係る情報処理装置10の各態様について順に説明する。
次に、本実施形態に係る第9の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
第9の実施形態に係る情報処理装置10が備えるMoPU12は、カメラ30により撮影された物体の画像から、点情報として物体のz座標値を導出する。以下、第9の実施形態に係る情報処理装置10の各態様について順に説明する。
第1態様に係る情報処理装置10は、第2の実施形態と同様の図3に示す構成を備えている。
上記第1態様において、MoPU12は、複数のカメラ30、具体的には、カメラ30L及びカメラ30Rにより撮影された物体の画像から、点情報として物体のz座標値を導出する。上述の通り、1つのMoPU12を用いた場合は、点情報として物体のx座標値及びy座標値を導出することが可能である。ここで、2つのMoPU12を用いた場合は、ステレオカメラの原理を利用して、2つのカメラ30により撮影された物体の画像に基づいて点情報として物体のz座標値を導出することが可能である。そのため、当該第1態様は、ステレオカメラの原理を利用して、MoPU12Lのカメラ30L及びMoPU12Rのカメラ30Rによりそれぞれ撮影された物体の画像に基づいて、点情報として物体のz座標値を導出する。
第2態様に係る情報処理装置10は、第2の実施形態と同様の図3に示す構成を備えている。
上記第2態様において、MoPU12は、カメラ30により撮影された物体の画像及びレーダー32により物体に照射された電磁波の物体からの反射波に基づくレーダー信号から、点情報として物体のx座標値、y座標値、及びz座標値を導出する。上述の通り、レーダー32は、レーダー信号に基づく物体の3次元点群データを取得することが可能である。つまり、レーダー32は、上記3次元直交座標系におけるz軸の座標を検出することが可能である。この場合、MoPU12は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸の座標値を導出する。
第3態様に係る情報処理装置10は、図10に示す構成を備えている。図10は、情報処理装置10の構成の一例を示す第5のブロック図である。なお、図10は、情報処理装置10の一部の構成のみを示している。
上記第3態様において、MoPU12は、カメラ30により撮影された物体の画像及び照射装置130により物体に照射されたストラクチャードライトを撮影した結果から、点情報として物体のz座標値を導出する。
図10に示すように、MoPU12では、カメラ30により撮影された物体の画像及び照射装置130により物体に照射されたストラクチャードライトをカメラ140が撮影した結果であるストラクチャードライトのパターンの歪みを示す歪み情報が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。そして、コア17は、入力された物体の画像及び歪み情報に基づいて、点情報をCentral Brain15に出力する。
ここで、物体の3次元位置又は形状を識別する方式の1つとして、ストラクチャードライト方式がある。ストラクチャードライト方式は、ドット状にパターニングされたストラクチャードライトを物体に照射し、そのパターンの歪みから奥行き情報を取得するものである。ストラクチャードライト方式は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。
図10に示す照射装置130は、物体にストラクチャードライトを照射する。また、カメラ140は、照射装置130により物体に照射されたストラクチャードライトを撮影する。そして、カメラ140は、撮影したストラクチャードライトのパターンの歪みに基づく歪み情報をコア17に出力する。
ここで、MoPU12は、カメラ30により画像を撮影するタイミングと、カメラ140によりストラクチャードライトを撮影するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで画像を撮影するように、カメラ30及びカメラ140へ制御信号を出力する。これにより、カメラ30によって撮影される1秒あたりの画像数と、カメラ140によって撮影される1秒あたりの画像数とが同期する(例えば、1920フレーム/秒)。このように、カメラ30によって撮影される1秒あたりの画像数及びカメラ140によって撮影される1秒あたりの画像数は、IPU11が備える超高解像度カメラのフレームレート、すなわち、超高解像度カメラによって撮影される1秒あたりの画像数より多い。
そして、コア17は、カメラ140によりストラクチャードライトが撮影されたタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該ストラクチャードライトのパターンの歪みに基づく歪み情報とを組み合わせて、点情報として物体のz座標値を導出する。
第4態様に係る情報処理装置10は、図11に示す構成を備えている。図11は、情報処理装置10の構成の一例を示す第6のブロック図である。なお、図11は、情報処理装置10の一部の構成のみを示している。
図11に示すブロック図は、図2に示すブロック図の構成にLidarセンサ18を加えたものである。Lidarセンサ18は、3次元空間に存在する物体及び車両100が走行中の路面を含む点群データを取得するセンサである。情報処理装置10は、Lidarセンサ18により取得した点群データを用いることで、物体の奥行き方向における位置情報、すなわち、物体のz座標値を導出することができる。なお、Lidarセンサ18により取得される点群データは、MoPU12から出力される物体のx座標値及びy座標値より長い間隔で取得されることを想定する。また、MoPU12は、第9の実施形態の上記態様と同様にカメラ30を備えている。
第4態様では、MoPU12は、ステレオカメラの原理を利用して、Lidarセンサ18が物体の点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸の座標値を導出する。
ここで、上記第4態様において、MoPU12は、時刻tの物体のx座標値、y座標値、及びz座標値と、時刻tの次の時点である(例えば時刻t+1)における物体のx座標値及びy座標値とから、点情報として時刻t+1における物体のz座標値を導出する。時刻tは「第1時点」の一例であり、時刻t+1は「第2時点」の一例である。第4態様では、時刻t+1における物体のz座標値は、形状情報、すなわち、ジオメトリを用いて導出する。以下、この詳細について説明する。
図12は、物体の時系列における座標検出を模式的に示す図である。図12においてJは矩形で表された物体の位置を示し、物体の位置はJ1からJ2に時系列に移動している。図12において、物体がJ1に位置する時刻tにおける物体の座標値が(x1、y1、z1)であり、物体がJ2に位置する時刻t+1における物体の座標値が(x2、y2、z2)である。
まず、時刻tについて説明する。
MoPU12は、カメラ30により撮影された物体の画像から、当該物体のx座標値及びy座標値を導出する。続いて、MoPU12は、Lidarセンサ18から取得した点群データが示す当該物体のz座標値と上記x座標値及びy座標値とを統合して、時刻tにおける当該物体の3次元座標値(x1、y1、z1)を導出する。
MoPU12は、カメラ30により撮影された物体の画像から、当該物体のx座標値及びy座標値を導出する。続いて、MoPU12は、Lidarセンサ18から取得した点群データが示す当該物体のz座標値と上記x座標値及びy座標値とを統合して、時刻tにおける当該物体の3次元座標値(x1、y1、z1)を導出する。
次に、時刻t+1について説明する。
MoPU12は、空間のジオメトリと、時刻tから時刻t+1への物体のx座標値及びy座標値の変化とに基づいて、時刻t+1における当該物体のz座標値を導出する。空間のジオメトリには、IPU11が備える超高解像度カメラにより撮影された画像及びLidarセンサ18の点群データから得られる路面の形状と、車両100の形状とが含まれる。
MoPU12は、空間のジオメトリと、時刻tから時刻t+1への物体のx座標値及びy座標値の変化とに基づいて、時刻t+1における当該物体のz座標値を導出する。空間のジオメトリには、IPU11が備える超高解像度カメラにより撮影された画像及びLidarセンサ18の点群データから得られる路面の形状と、車両100の形状とが含まれる。
路面の形状を示すジオメトリは、時刻tの時点であらかじめ生成しておく。MoPU12は、路面の形状を示すジオメトリと合わせて車両100の形状を示すジオメトリを利用することで、路面上を車両100が走行する場合をシミュレーションでき、x軸、y軸、及びz軸の各軸の移動量を推定できる。
そのため、MoPU12は、カメラ30により撮影された物体の画像から、時刻t+1における当該物体のx座標値及びy座標値を導出する。MoPU12は、当該物体が時刻tのx座標値及びy座標値(x1、y1)から時刻t+1のx座標値及びy座標値(x2、y2)に変化したときのz軸の移動量をシミュレーションから算出することで、時刻t+1における当該物体のz座標値を導出することができる。そして、MoPU12は、上記x座標値及びy座標値とz座標値とを統合して、時刻t+1における当該物体の3次元座標値(x2、y2、z2)を導出する。
図12に示すように、物体は、平面座標の移動(すなわち、x軸及びy軸)と共に奥行き方向に移動しているため、車両100の自動運転を高精度に制御するためにはz軸方向の移動も検知する必要がある。ここで、MoPU12は、Lidarセンサ18の点群データから導出可能な物体のz座標値を、当該物体のx座標値及びy座標値ほど高速に取得できない場合もある。そのため、上記第4態様では、MoPU12は、時刻tの物体のx座標値、y座標値、及びz座標値と時刻t+1における物体のx座標値及びy座標値とから、時刻t+1における物体のz座標値を導出することとしている。これにより、上記第4態様に係る情報処理装置10によれば、MoPU12により、高速フレームショットによる2次元の動き検知と共に3次元の動き検知が、高性能かつ低用量のデータで実現できる。
また、以上の説明では、MoPU12がカメラ30により撮影された物体の画像から、点情報として物体のz座標値を導出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が点情報として物体のz座標値を導出してもよい。この場合、Central Brain15は、カメラ30により撮影された物体の画像に対して、以上の説明でMoPU12が実行していた処理を行うことにより、点情報として物体のz座標値を導出する。一例として、Central Brain15は、複数のカメラ30、具体的には、カメラ30L及びカメラ30Rにより撮影された物体の画像から、点情報として物体のz座標値を導出する。この場合、Central Brain15は、ステレオカメラの原理を利用して、MoPU12Lのカメラ30L及びMoPU12Rのカメラ30Rによりそれぞれ撮影された物体の画像に基づいて、点情報として物体のz座標値を導出する。
(第10の実施形態)
次に、本実施形態に係る第10の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図13は、情報処理装置10の構成の一例を示す第7のブロック図である。なお、図13は、情報処理装置10の一部の構成のみを示している。
次に、本実施形態に係る第10の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図13は、情報処理装置10の構成の一例を示す第7のブロック図である。なお、図13は、情報処理装置10の一部の構成のみを示している。
図13に示すように、MoPU12では、イベントカメラ30Cにより撮影された物体の画像(以下、「イベント画像」と記載することもある)がコア17に入力される。そして、コア17は、入力されたイベント画像に基づいて、点情報をCentral Brain15に出力する。なお、イベントカメラは、例えば、参考文献(https://dendenblog.xyz/event-based-camera/)に開示されている。
図14は、イベントカメラ30Cにより撮影された物体の画像(イベント画像)を説明するための説明図である。図14(A)は、イベントカメラ30Cによる撮影対象となる物体を示す図である。図14(B)は、イベント画像の一例を示す図である。図14(C)は、イベント画像が表す、現時刻に撮影された画像と前時刻に撮影された画像との差異部分の重心を点情報として算出した例を示す図である。イベント画像は、現時刻に撮影された画像と前時刻に撮影された画像との差異部分が点として抽出される。このため、イベントカメラ30Cを利用した場合には、例えば、図14(B)に示されるように、図14(A)に示される人物領域のうちの移動している各箇所の点が抽出されてしまう。
これに対し、コア17は、図14(C)に示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送されるデータ量を抑制させることできる。イベント画像は、物体である人物を任意のフレームレートで抽出できるため、イベントカメラ30Cの場合は、上記実施形態でMoPU12に搭載されたカメラ30の最大フレームレート(例:1920フレーム/秒)以上のフレームレートで抽出することもでき、物体の点情報を精度良く捉えることができる。
なお、第10の実施形態に係る情報処理装置10は、上記実施形態と同様に、MoPU12がイベントカメラ30Cに加えて、可視光カメラ30Aを備えてもよい。この場合、MoPU12では、可視光カメラ30Aにより撮影された物体の可視光画像及びイベント画像が、それぞれコア17に入力される。そして、コア17は、入力された可視光画像及びイベント画像の少なくとも一方に基づいて、点情報をCentral Brain15に出力する。
例えば、コア17は、可視光カメラ30Aにより撮影された物体の可視光画像から物体を識別できる場合には、当該可視光画像に基づいて点情報を出力する。一方、コア17は、所定要因により当該可視光画像から物体を捉えられない場合、イベント画像に基づいて点情報を出力する。所定要因は、物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む。例えば、物体の動作が高速で当該可視光画像から物体を捉えられない場合、コア17は、イベント画像に基づいて物体を識別して、点情報として当該物体のx座標値及びy座標値を出力する。また、逆光等の急激な環境光の光量変化により当該可視光画像から物体を捉えられない場合、コア17は、イベント画像に基づいて物体を識別して、点情報として当該物体のx座標値及びy座標値を出力する。この構成により、情報処理装置10によれば、所定要因に応じて、物体を撮影するカメラ30を使い分けることができる。
図15は、情報処理装置10又は冷却実行装置110として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装
置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
上記実施形態において、各プロセッサ(例:IPU11、MoPU12、及びCentral Brain15)が実行するとした処理はあくまで例示であり、各処理を実行するプロセッサは限定されない。例えば、上記実施形態でMoPU12が実行するとした処理を、MoPU12に代えて、Central Brain15が実行してもよいし、IPU11、MoPU12、及びCentral Brain15以外の他のプロセッサが実行してもよい。
<付記1>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
を備える、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
を備える、
情報処理装置。
(2)
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
(1)に記載の情報処理装置。
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
(1)に記載の情報処理装置。
(3)
前記第1カメラのフレームレートは可変であり、
前記第1プロセッサは、所定要因に応じて前記第1カメラのフレームレートを変更する、
(1)又は(2)に記載の情報処理装置。
前記第1カメラのフレームレートは可変であり、
前記第1プロセッサは、所定要因に応じて前記第1カメラのフレームレートを変更する、
(1)又は(2)に記載の情報処理装置。
(4)
前記第1プロセッサは、所定の対象物に対する外部環境に関するスコアを算出する、
(3)に記載の情報処理装置。
前記第1プロセッサは、所定の対象物に対する外部環境に関するスコアを算出する、
(3)に記載の情報処理装置。
(5)
前記第1プロセッサは、算出した前記外部環境に関するスコアに応じて、前記第1カメラのフレームレートを変更する、
(4)に記載の情報処理装置。
前記第1プロセッサは、算出した前記外部環境に関するスコアに応じて、前記第1カメラのフレームレートを変更する、
(4)に記載の情報処理装置。
(6)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
処理をコンピュータが実行する情報処理方法。
(7)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
処理を実行させるための情報処理プログラム。
<付記2>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記座標値及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記座標値及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(2)
前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の前記座標値を出力する、
(1)に記載の情報処理装置。
前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の前記座標値を出力する、
(1)に記載の情報処理装置。
(3)
前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の複数の頂点の前記座標値を出力する、
(2)に記載の情報処理装置。
前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の複数の頂点の前記座標値を出力する、
(2)に記載の情報処理装置。
(4)
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記座標値及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記座標値及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(5)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記座標値及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記座標値及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
<付記3>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する第3プロセッサと、
を備える、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する第3プロセッサと、
を備える、
情報処理装置。
(2)
前記第3プロセッサは、
検知部が検知した検知情報に基づいて、前記移動体の自動運転を制御するための制御変数を算出し、
算出した前記制御変数と、前記点情報及び前記識別情報とに基づいて、前記移動体の自動運転を制御する、
(1)に記載の情報処理装置。
前記第3プロセッサは、
検知部が検知した検知情報に基づいて、前記移動体の自動運転を制御するための制御変数を算出し、
算出した前記制御変数と、前記点情報及び前記識別情報とに基づいて、前記移動体の自動運転を制御する、
(1)に記載の情報処理装置。
(3)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
処理をコンピュータが実行する情報処理方法。
(4)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
処理を実行させるための情報処理プログラム。
<付記4>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1カメラのフレームレートは、前記第2カメラのフレームレートより大きい、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1カメラのフレームレートは、前記第2カメラのフレームレートより大きい、
情報処理装置。
(2)
前記第1カメラのフレームレートは、前記第2カメラのフレームレートの10倍以上である、
(1)に記載の情報処理装置。
前記第1カメラのフレームレートは、前記第2カメラのフレームレートの10倍以上である、
(1)に記載の情報処理装置。
(3)
前記第1カメラのフレームレートは100フレーム/秒以上であり、前記第2カメラのフレームレートは10フレーム/秒である、
(2)に記載の情報処理装置。
前記第1カメラのフレームレートは100フレーム/秒以上であり、前記第2カメラのフレームレートは10フレーム/秒である、
(2)に記載の情報処理装置。
(4)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラよりフレームレートが小さく、かつ前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラよりフレームレートが小さく、かつ前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(5)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラよりフレームレートが小さく、かつ前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラよりフレームレートが小さく、かつ前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
<付記5>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1プロセッサは、検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1プロセッサは、検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
情報処理装置。
(2)
前記第1カメラのフレームレートは可変であり、
前記第1プロセッサは、算出した前記危険度に応じて前記第1カメラのフレームレートを変更する、
(1)に記載の情報処理装置。
前記第1カメラのフレームレートは可変であり、
前記第1プロセッサは、算出した前記危険度に応じて前記第1カメラのフレームレートを変更する、
(1)に記載の情報処理装置。
(3)
前記危険度は、前記移動体が今後どの程度の危険な場所を走行するかの度合を示す、
(1)又は(2)に記載の情報処理装置。
前記危険度は、前記移動体が今後どの程度の危険な場所を走行するかの度合を示す、
(1)又は(2)に記載の情報処理装置。
(4)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第3プロセッサは、検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
情報処理装置。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第3プロセッサは、検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
情報処理装置。
(5)
前記第1カメラのフレームレートは可変であり、
前記第3プロセッサは、算出した前記危険度に応じて前記第1カメラのフレームレートを変更する指示を前記第1プロセッサに出力する、
(4)に記載の情報処理装置。
前記第1カメラのフレームレートは可変であり、
前記第3プロセッサは、算出した前記危険度に応じて前記第1カメラのフレームレートを変更する指示を前記第1プロセッサに出力する、
(4)に記載の情報処理装置。
(6)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
処理をコンピュータが実行する情報処理方法。
(7)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
処理を実行させるための情報処理プログラム。
<付記6>
(1)
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(1)
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(2)
前記第1プロセッサは、所定要因により前記第1カメラに含まれる可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記第1カメラに含まれる赤外線カメラにより撮影された前記物体の赤外線画像に基づいて前記点情報を出力する、
(1)に記載の情報処理装置。
前記第1プロセッサは、所定要因により前記第1カメラに含まれる可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記第1カメラに含まれる赤外線カメラにより撮影された前記物体の赤外線画像に基づいて前記点情報を出力する、
(1)に記載の情報処理装置。
(3)
前記第1プロセッサは、前記可視光カメラにより前記可視光画像を撮影するタイミングと、前記赤外線カメラにより前記赤外線画像を撮影するタイミングとを同期させる、
(2)に記載の情報処理装置。
前記第1プロセッサは、前記可視光カメラにより前記可視光画像を撮影するタイミングと、前記赤外線カメラにより前記赤外線画像を撮影するタイミングとを同期させる、
(2)に記載の情報処理装置。
(4)
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(5)
コンピュータに、
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
<付記7>
(1)
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(2)
前記第1プロセッサは、前記第1カメラにより前記画像を撮影するタイミングと、前記レーダーが前記レーダー信号に基づく前記物体の3次元点群データを取得するタイミングとを同期させる、
(1)に記載の情報処理装置。
前記第1プロセッサは、前記第1カメラにより前記画像を撮影するタイミングと、前記レーダーが前記レーダー信号に基づく前記物体の3次元点群データを取得するタイミングとを同期させる、
(1)に記載の情報処理装置。
(3)
前記第1カメラによって撮影される単位時間あたりの画像数及び前記レーダーによって取得される単位時間あたりの3次元点群データの数は、前記第2カメラによって撮影される単位時間あたりの画像数より多い、
(1)又は(2)に記載の情報処理装置。
前記第1カメラによって撮影される単位時間あたりの画像数及び前記レーダーによって取得される単位時間あたりの3次元点群データの数は、前記第2カメラによって撮影される単位時間あたりの画像数より多い、
(1)又は(2)に記載の情報処理装置。
(4)
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(5)
コンピュータに、
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
<付記8>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記ラベル情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記ラベル情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(2)
前記第3プロセッサは、前記点情報が示す前記物体の位置情報と、前記位置情報が示す位置に存在する前記物体についての前記ラベル情報とを対応付ける、
(1)に記載の情報処理装置。
前記第3プロセッサは、前記点情報が示す前記物体の位置情報と、前記位置情報が示す位置に存在する前記物体についての前記ラベル情報とを対応付ける、
(1)に記載の情報処理装置。
(3)
前記第3プロセッサは、前記第2プロセッサが前記ラベル情報を出力したタイミングと同じタイミングで前記第1プロセッサから出力された前記点情報を前記ラベル情報に対応付ける、
(2)に記載の情報処理装置。
前記第3プロセッサは、前記第2プロセッサが前記ラベル情報を出力したタイミングと同じタイミングで前記第1プロセッサから出力された前記点情報を前記ラベル情報に対応付ける、
(2)に記載の情報処理装置。
(4)
前記第3プロセッサは、前記点情報及び前記ラベル情報を対応付けた後に前記第1プロセッサから新たな前記点情報が出力された場合、新たな前記点情報についても前記ラベル情報と対応付ける、
(2)又は(3)に記載の情報処理装置。
前記第3プロセッサは、前記点情報及び前記ラベル情報を対応付けた後に前記第1プロセッサから新たな前記点情報が出力された場合、新たな前記点情報についても前記ラベル情報と対応付ける、
(2)又は(3)に記載の情報処理装置。
(5)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
前記点情報及び前記ラベル情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
前記点情報及び前記ラベル情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(6)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
前記点情報及び前記ラベル情報を対応付ける、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
前記点情報及び前記ラベル情報を対応付ける、
処理を実行させるための情報処理プログラム。
<付記9>
(1)
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得する取得部と、
前記取得部が取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる実行部と、
を備える、
冷却実行装置。
(1)
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得する取得部と、
前記取得部が取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる実行部と、
を備える、
冷却実行装置。
(2)
前記取得部が取得した前記検出結果に基づいて、前記情報処理装置の作動状況を予測する予測部を備え、
前記実行部は、前記予測部による前記情報処理装置の作動状況の予測結果に基づいて、前記情報処理装置に対する冷却を実行させる、
(1)に記載の冷却実行装置。
前記取得部が取得した前記検出結果に基づいて、前記情報処理装置の作動状況を予測する予測部を備え、
前記実行部は、前記予測部による前記情報処理装置の作動状況の予測結果に基づいて、前記情報処理装置に対する冷却を実行させる、
(1)に記載の冷却実行装置。
(3)
前記予測部は、前記情報処理装置の温度変化を予測し、
前記実行部は、前記予測部による前記情報処理装置の温度変化の予測結果に応じた冷却手段を用いて、前記情報処理装置に対する冷却を実行させる、
(2)に記載の冷却実行装置。
前記予測部は、前記情報処理装置の温度変化を予測し、
前記実行部は、前記予測部による前記情報処理装置の温度変化の予測結果に応じた冷却手段を用いて、前記情報処理装置に対する冷却を実行させる、
(2)に記載の冷却実行装置。
(4)
前記取得部が取得する前記検出結果は、前記点情報である、
(1)から(3)の何れか1つに記載の冷却実行装置。
前記取得部が取得する前記検出結果は、前記点情報である、
(1)から(3)の何れか1つに記載の冷却実行装置。
(5)
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得し、
取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる、
処理をコンピュータが実行する冷却実行方法。
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得し、
取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる、
処理をコンピュータが実行する冷却実行方法。
(6)
コンピュータに、
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得し、
取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる、
処理を実行させるための冷却実行プログラム。
コンピュータに、
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得し、
取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる、
処理を実行させるための冷却実行プログラム。
<付記10>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
情報処理装置。
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
情報処理装置。
(2)
前記第1プロセッサは、複数の前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記奥行き方向の座標値を導出する、
(1)に記載の情報処理装置。
前記第1プロセッサは、複数の前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記奥行き方向の座標値を導出する、
(1)に記載の情報処理装置。
(3)
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
(1)又は(2)に記載の情報処理装置。
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
(1)又は(2)に記載の情報処理装置。
(4)
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及び照射装置により前記物体に照射されたストラクチャードライトを撮影した結果から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
(1)から(3)の何れか1つに記載の情報処理装置。
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及び照射装置により前記物体に照射されたストラクチャードライトを撮影した結果から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
(1)から(3)の何れか1つに記載の情報処理装置。
(5)
前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する、
(1)から(4)の何れか1つに記載の情報処理装置。
前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する、
(1)から(4)の何れか1つに記載の情報処理装置。
(6)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第3プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
情報処理装置。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第3プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
情報処理装置。
(7)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
処理をコンピュータが実行する情報処理方法。
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
処理をコンピュータが実行する情報処理方法。
(8)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
処理を実行させるための情報処理プログラム。
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
処理を実行させるための情報処理プログラム。
<付記11>
(1)
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(1)
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
(2)
前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する、
(1)に記載の情報処理装置。
前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する、
(1)に記載の情報処理装置。
(3)
前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む、
(2)に記載の情報処理装置。
前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む、
(2)に記載の情報処理装置。
(4)
前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである、
(1)から(3)の何れか1つに記載の情報処理装置。
前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである、
(1)から(3)の何れか1つに記載の情報処理装置。
(5)
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(6)
コンピュータに、
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
コンピュータに、
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
10 情報処理装置
11 IPU(第2プロセッサ)
12 MoPU(第1プロセッサ)
15 Central Brain(第3プロセッサ)
110 冷却実行装置
11 IPU(第2プロセッサ)
12 MoPU(第1プロセッサ)
15 Central Brain(第3プロセッサ)
110 冷却実行装置
Claims (6)
- イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。 - 前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する、
請求項1に記載の情報処理装置。 - 前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む、
請求項2に記載の情報処理装置。 - 前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである、
請求項1に記載の情報処理装置。 - イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。 - コンピュータに、
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/038227 WO2024090390A1 (ja) | 2022-10-24 | 2023-10-23 | 情報処理装置、車両、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (18)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022170165 | 2022-10-24 | ||
JP2022170165 | 2022-10-24 | ||
JP2022172777 | 2022-10-27 | ||
JP2022172777 | 2022-10-27 | ||
JP2022175679 | 2022-11-01 | ||
JP2022175679 | 2022-11-01 | ||
JP2022181362 | 2022-11-11 | ||
JP2022181362 | 2022-11-11 | ||
JP2022182131 | 2022-11-14 | ||
JP2022182131 | 2022-11-14 | ||
JP2022186040 | 2022-11-21 | ||
JP2022186040 | 2022-11-21 | ||
JP2022187648 | 2022-11-24 | ||
JP2022187648 | 2022-11-24 | ||
JP2022187649 | 2022-11-24 | ||
JP2022187649 | 2022-11-24 | ||
JP2022189546 | 2022-11-28 | ||
JP2022189546 | 2022-11-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024062340A true JP2024062340A (ja) | 2024-05-09 |
Family
ID=90970455
Family Applications (10)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023036974A Pending JP2024062337A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036968A Pending JP2024062331A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036975A Pending JP2024062338A (ja) | 2022-10-24 | 2023-03-09 | 冷却実行装置、冷却実行方法、及び冷却実行プログラム |
JP2023036970A Pending JP2024062333A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036972A Pending JP2024062335A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036977A Pending JP2024062340A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036971A Pending JP2024062334A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036969A Pending JP2024062332A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036976A Pending JP2024062339A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036973A Pending JP2024062336A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Family Applications Before (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023036974A Pending JP2024062337A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036968A Pending JP2024062331A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036975A Pending JP2024062338A (ja) | 2022-10-24 | 2023-03-09 | 冷却実行装置、冷却実行方法、及び冷却実行プログラム |
JP2023036970A Pending JP2024062333A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036972A Pending JP2024062335A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023036971A Pending JP2024062334A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036969A Pending JP2024062332A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036976A Pending JP2024062339A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023036973A Pending JP2024062336A (ja) | 2022-10-24 | 2023-03-09 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (10) | JP2024062337A (ja) |
-
2023
- 2023-03-09 JP JP2023036974A patent/JP2024062337A/ja active Pending
- 2023-03-09 JP JP2023036968A patent/JP2024062331A/ja active Pending
- 2023-03-09 JP JP2023036975A patent/JP2024062338A/ja active Pending
- 2023-03-09 JP JP2023036970A patent/JP2024062333A/ja active Pending
- 2023-03-09 JP JP2023036972A patent/JP2024062335A/ja active Pending
- 2023-03-09 JP JP2023036977A patent/JP2024062340A/ja active Pending
- 2023-03-09 JP JP2023036971A patent/JP2024062334A/ja active Pending
- 2023-03-09 JP JP2023036969A patent/JP2024062332A/ja active Pending
- 2023-03-09 JP JP2023036976A patent/JP2024062339A/ja active Pending
- 2023-03-09 JP JP2023036973A patent/JP2024062336A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2024062338A (ja) | 2024-05-09 |
JP2024062331A (ja) | 2024-05-09 |
JP2024062335A (ja) | 2024-05-09 |
JP2024062336A (ja) | 2024-05-09 |
JP2024062332A (ja) | 2024-05-09 |
JP2024062337A (ja) | 2024-05-09 |
JP2024062339A (ja) | 2024-05-09 |
JP2024062333A (ja) | 2024-05-09 |
JP2024062334A (ja) | 2024-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2024090389A1 (ja) | 冷却実行装置、冷却実行方法、冷却実行プログラム、及び車両 | |
JP2024062340A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2024062344A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
WO2024090328A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2024066382A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
WO2024090444A1 (ja) | 情報処理装置、車両、情報処理方法及びプログラム | |
JP2024062325A (ja) | 情報処理装置及びプログラム | |
JP2024062318A (ja) | 情報処理装置及び車両 |