JP2024066379A - 車両 - Google Patents
車両 Download PDFInfo
- Publication number
- JP2024066379A JP2024066379A JP2022209070A JP2022209070A JP2024066379A JP 2024066379 A JP2024066379 A JP 2024066379A JP 2022209070 A JP2022209070 A JP 2022209070A JP 2022209070 A JP2022209070 A JP 2022209070A JP 2024066379 A JP2024066379 A JP 2024066379A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- mopu
- vehicle
- unit
- frame rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000000284 extract Substances 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims description 16
- 230000010365 information processing Effects 0.000 description 59
- 210000004556 brain Anatomy 0.000 description 34
- 238000000034 method Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 230000001360 synchronised effect Effects 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- VJFLMYRRJUWADI-UHFFFAOYSA-N (3alpha,16beta)-12-Ursene-3,16-diol Natural products C1CC(O)C(C)(C)C2CCC3(C)C4(C)CC(O)C5(C)CCC(C)C(C)C5C4=CCC3C21C VJFLMYRRJUWADI-UHFFFAOYSA-N 0.000 description 1
- VJFLMYRRJUWADI-DBHRHCOISA-N (3s,4ar,6ar,6bs,8r,8as,11r,12s,12as,14ar,14br)-4,4,6a,6b,8a,11,12,14b-octamethyl-2,3,4a,5,6,7,8,9,10,11,12,12a,14,14a-tetradecahydro-1h-picene-3,8-diol Chemical compound C1C[C@H](O)C(C)(C)[C@@H]2CC[C@@]3(C)[C@]4(C)C[C@@H](O)[C@@]5(C)CC[C@@H](C)[C@H](C)[C@H]5C4=CC[C@@H]3[C@]21C VJFLMYRRJUWADI-DBHRHCOISA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 244000022203 blackseeded proso millet Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- ZPUCINDJVBIVPJ-LJISPDSOSA-N cocaine Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Television Systems (AREA)
Abstract
【課題】自動運転機能を有する車両において、車両後方から接近する物体に対する回避動作を改善させる。【解決手段】車両は、カメラを含む一対のカメラユニットと、プロセッサとを備えた車両であって、第1のカメラユニットは、車両前方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、第2のカメラユニットは、車両後方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、前記プロセッサは、前記第1のカメラユニット及び前記第2のカメラユニットから出力された物体の存在位置に基づいて前記車両の走行を制御する。【選択図】図13
Description
開示の技術は、移動する物体を検出して走行を行う車両に関する。
特許文献1には、自動運転機能を有する車両について記載されている。
本発明は、自動運転機能を有する車両において、車両後方から接近する物体に対する回避動作を改善させることを目的とする。
第1の態様の車両は、カメラを含む一対のカメラユニットと、プロセッサとを備えた車両であって、第1のカメラユニットは、車両前方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、第2のカメラユニットは、車両後方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、前記プロセッサは、前記第1のカメラユニット及び前記第2のカメラユニットから出力された物体の存在位置に基づいて前記車両の走行を制御する。
第2の態様の車両は、第1の態様の車両であって、前記各カメラユニットが有する前記カメラは、フレームレートを変更することが可能であり、前記第1のカメラユニット及び前記第2のカメラユニットの一方は、前記第1のカメラユニット及び前記第2のカメラユニットの他方における物体の検知状況に応じて、前記カメラのフレームレートを設定し、設定された前記フレームレートにより撮像された前記カメラの画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
第3の態様の車両は、第1又は第2の態様の車両であって、前記カメラよりも高解像度の高解像度カメラを備え、かつ前記各カメラユニットのそれぞれに接続される他のカメラユニットをさらに備え、前記各カメラユニットは、前記高解像度カメラの情報に基づいて特定された物体の情報を取得可能であって、前記第1のカメラユニット及び前記第2のカメラユニットの一方は、前記第1のカメラユニット及び前記第2のカメラユニットの他方が有する物体の情報を取得する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
開示の技術の実施形態に係る情報処理装置は、車両の制御に関連する多くの情報に基づいて、運転制御に必要なインデックス値を高精度に求めるものであってよい。したがって、本開示の情報処理装置は、少なくとも一部が車両に搭載されて、車両の制御を実現するものであってよい。
<第1実施形態>
また、開示の技術の実施形態に係る情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。
また、開示の技術の実施形態に係る情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。
図1は、Central Brainを搭載した車両の一例を示す概略図である。Central Brainは、図1に示すように、複数のGate Wayが通信可能に接続されていてよい。本実施の形態に係るCentral Brainは、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を実現し得るものである。
「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。
Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。
図2は、開示の技術の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。
IPU11は、車両に設置された超高解像度カメラ(図示せず)に内蔵され得る。IPU11は、車両の周囲に存在する物体の画像について、ベイヤ―変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレート且つ1200万画素の解像度で出力する。IPU11から出力された画像は、Central Brain15及びメモリ16に供給される。IPU11は、開示の技術における「他のカメラユニット」の一例である。
MoPU12は、車両に設置された超高解像度カメラとは別のカメラに内蔵され得る。MoPU12は、1000フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体の動きを示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。すなわち、MoPU12の出力のフレームレートは、IPU11の出力のフレームレートの100倍である。MoPU12は、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPU12から出力される動き情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。MoPU12から出力された情報は、Central Brain15及びメモリ16に供給される。動き情報が画像情報を含まないことで、Central Brain15及びメモリ16に転送される情報量を画期的に抑制することできる。
Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、車両の運転制御を実行する。例えば、Central Brain15は、IPU11から出力された画像に基づいて、車両の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された動き情報に基づいて、車両の周囲に存在する、何であるか認識された物体の動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行う。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。Central Brain15は、開示の技術における「プロセッサ」の一例である。
一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。高解像度カメラによって撮影された画像から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば1000フレーム/秒の高フレームレートでの出力が可能である。
そこで、本開示の技術では、IPU11及びMoPU12の2つの独立したプロセッサを用いる。高解像度カメラ(IPU11)には、捉えた物体が何なのかを認識するために必要な画像情報を取得する役割を与え、MoPU12には、物体の動きを検出する役割を与えている。MoPU12は、物体を点としてとらえ、その点の座標がx軸、y軸、z軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。
物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Central Brain15に転送する情報量を大幅に抑制し、Central Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCentral Brain15に送信する場合、色情報を含めると、40億ビット/秒のデータをCentral Brain15に送信することになる。MoPU12が、物体の中心点の動きを示す動き情報のみを送信することで、Central Brain15に転送されるデータの量を2万ビット/秒に圧縮することができる。すなわち、Central Brain15に転送されるデータの量が20万分の1に圧縮される。
このように、IPU11から出力される低フレームレート且つ高解像度の画像と、MoPU12から出力される高フレームレート且つ軽量の動き情報を組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。
なお、1つのMoPU12を用いた場合には、物体の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。
また、図3に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、MoPU12のコア12Aに入力してもよい。これらの画像は、それぞれ、例えば1000ピクセル×1000ピクセルの色情報を含む画像であり、1000フレーム/秒のフレームレートでコア12Aに入力されてもよい。MoPU12のコア12Aは、これらの画像に基づいて、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を1000フレーム/秒のフレームレートでCentral Brain15に転送してもよい。また、図4に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、それぞれ、別々のコア12A1及び12A2を用いて処理してもよい。
また、以上の説明では、MoPU12が、物体の中心点の動きを示す動き情報を出力する形態を例示した。しかしながら、開示の技術はこの態様に限定されない。MoPU12は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点について動き情報を出力してもよい。図5には、MoPU12が、画像に含まれる4つの物体のそれぞれについて、当該物体の輪郭を囲むバウンディングボックス21、22、23、24を設定し、バウンディングボックス21、22、23、24の頂点の対角となる2つの座標点について動き情報を出力する態様が例示されている。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。
また、図6に示すように、MoPU12は、可視光画像及び赤外線画像の少なくとも一方に基づいて動き情報を出力してもよい。可視光画像は可視光カメラによって撮影された画像であり、赤外線画像は赤外線カメラによって撮影された画像である。可視光画像及び赤外線画像は、それぞれ、1000フレーム/秒以上のフレームレートでコア12Aに入力される。可視光画像及び赤外線画像は、互いに同期していることが好ましい。MoPU12による物体検出において赤外線画像を用いることで、例えば夜間等の可視光画像による物体検出が困難である場合でも物体検出が可能となる。MoPU12は、可視光画像及び赤外線画像うち、赤外線画像のみに基づいて動き情報を出力してもよいし、可視光画像及び赤外線画像の双方に基づいて動き情報を出力してもよい。
また、図7に示すように、MoPU12は、画像及びレーダー信号に基づいて動き情報を出力してもよい。レーダー信号は、物体に照射された電磁波の当該物体からの反射波に基づく信号である。MoPU12は、画像及びレーダー信号に基づいて、物体までの距離を導出し、当該物体の存在位置を示す点の、三次元直交座標系における3つの軸の各々に沿った動きのベクトル情報を動き情報として出力してもよい。画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。画像及びレーダー信号は、1000フレーム/秒以上のフレームレートでコア12Aに入力される。
また、以上の説明では、Central Brain15が、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて車両の運転制御を実行する場合を例示したが、開示の技術は、この態様に限定されるものではない。Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、ロボットの動作制御を行ってもよい。ロボットは例えば、人間の代わりに作業を行う人型のスマートロボットであってもよい。例えば、Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、ロボットの腕、手のひら、指、足の動作制御を行って、当該物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、避ける等の動作制御を行ってもよい。IPU11及びMoPU12は、例えば、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、画像を撮像する際のフレームレートが可変である点等が第1実施形態と異なる。
次に、第2実施形態について説明する。第2実施形態は、画像を撮像する際のフレームレートが可変である点等が第1実施形態と異なる。
(車両に搭載される情報処理装置:Smart Car)
図8は、車両に搭載される、第2実施形態に係る情報処理装置210のブロック図である。図8に示されているように、車両に搭載される情報処理装置210は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、コア12Xと、Central Brain15とを備えている。
図8は、車両に搭載される、第2実施形態に係る情報処理装置210のブロック図である。図8に示されているように、車両に搭載される情報処理装置210は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、コア12Xと、Central Brain15とを備えている。
MoPU12Lは、カメラ30Lと、レーダー32Lと、赤外線カメラ34Lと、専用のコア12ALと、を備えている。また、MoPU12Rは、カメラ30Rと、レーダー32Rと、赤外線カメラ34R、専用のコア12ARと、とを備えている。レーダー32L,32Rは、上述したレーダー信号を検知する。赤外線カメラ34L,34Rは、上述した赤外線画像を取得する。
IPU11は、上述したような高解像度カメラ(図示省略)を備えており、高解像度カメラによって撮像された高解像度画像から物体を検知し、物体の種別を表す情報(以下、単に「ラベル情報」と称する。)を出力する。
なお、以下では、左側の目に相当するMoPU12Lの処理についてのみ説明する。
MoPU12Lが備えるカメラ30Lは、IPU11が備える高解像度カメラ(例えば、10フレーム/秒で撮像)よりも高いフレーム数(120,240,480,960,又は1920フレーム/秒)で画像を撮像する。カメラ30Lは、フレームレートを変更することが可能なカメラである。
MoPU12Lのコア12AL(例えば、1つ以上のCPUにより構成される)は、30Lが撮像した1フレームの画像毎に特徴点を抽出し、その座標値(X,Y)を出力する。MoPU12Lは、例えば、画像から抽出した物体の中心点(重心点)を特徴点として出力する。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。また一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。
具体的には、MoPU12Lは、1つの物体から抽出された特徴点の座標値(X,Y)を出力する。なお、例えば、複数の物体(例えば、物体A、物体B、及び物体C等)が1つの画像に写っている場合には、MoPU12Lは、それら複数の物体の各々から抽出された特徴点の座標値(Xn,Yn)を出力するようにしてもよい。各時刻に撮像された画像の特徴点の系列は、物体の動き情報に相当する。
また、例えば、暗闇の影響によって、MoPU12Lが物体を識別できない場合が想定される。この場合には、MoPU12Lは、赤外線カメラ34Lを用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力するようにしてもよい。また、カメラ30Lによる画像の撮像と赤外線カメラ34Lによる赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
また、MoPU12Lは、レーダー32Lによって取得された3次元点群データに基づいて、物体のZ軸の座標値を取得してもよい。なお、この場合には、カメラ30Lによる画像の撮像とレーダー32Lによる3次元点群データの取得とを同期させるようにしてもよい。例えば、レーダー32Lによって取得される1秒当たりの3次元点群データの数と、カメラ30Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
また、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数と、レーダー32Lによって取得される1秒当たりの3次元点群データの数とを同一にし、データ取得のタイミングを同期させるようにしてもよい。
コア12Xは、MoPU12Lから出力された特徴点の座標と、IPU11から出力された対象物のラベル情報(物体が犬なのか、猫なのか、又はクマなのかを表す情報)とを取得する。そして、コア12Xは、ラベル情報と特徴点に対応する座標とを対応付けて出力する。これにより、特徴点が表す物体が何を表しているのかという情報と、特徴点が表す物体の動き情報とを対応付けることが可能になる。
以上が左側の目に相当するMoPU12Lの処理である。右側の目に相当するMoPU12Rは、左側の目に相当するMoPU12Lと同様の処理を実行する。
なお、MoPU12Lのカメラ30Lによって撮像された画像と、MoPU12Rの30Rによって撮像された画像とに基づいて、ステレオカメラの原理を利用して、特徴点の奥行き方向の座標値Znを更に算出してもよい。
(ロボットに搭載される情報処理装置:Smart Robot)
図9は、ロボットに搭載される、第2実施形態に係る情報処理装置310のブロック図である。図9に示されているように、ロボットに搭載される情報処理装置310は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、赤外線カメラ34と、ストラクチャードライト36と、コア12Xと、Central Brain15とを備えている。ロボットに搭載される情報処理装置310は、車両に搭載される情報処理装置210と同様の機能を有している。
図9は、ロボットに搭載される、第2実施形態に係る情報処理装置310のブロック図である。図9に示されているように、ロボットに搭載される情報処理装置310は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、赤外線カメラ34と、ストラクチャードライト36と、コア12Xと、Central Brain15とを備えている。ロボットに搭載される情報処理装置310は、車両に搭載される情報処理装置210と同様の機能を有している。
例えば、暗闇の影響によって、MoPU12Lが物体を識別できない場合には、MoPU12Lは、赤外線カメラ34を用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力する。また、カメラ30Lによる画像の撮像と赤外線カメラ34による赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34によって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
また、コア12Xは、物体の奥行き方向の座標Znを取得するために、ストラクチャードライト36を使用してもよい。ストラクチャードライト36は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。この場合には、カメラ30L,30Rによる画像の撮像とストラクチャードライト36による3次元データとの計測とを同期させるようにしてもよい。例えば、カメラ30L,30Rによって撮像される1秒当たりの画像数と、ストラクチャードライト36によって計測される1秒当たりの3次元データとを同期させるようにしてもよい(例えば、1920フレーム/秒)。
更に、赤外線カメラ34によって撮像された赤外線画像とストラクチャードライト36によって計測された3次元データとの両方を併用してもよい。
(外部環境に応じたフレームレートの変更)
情報処理装置210,310は、外部環境に応じてカメラのフレームレートを変更するようにしてもよい。例えば、情報処理装置210,310は、外部環境に関するスコアを計算し、スコアに応じて、カメラ30L,30Rのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力する。カメラ30L,30Rは、決定されたフレームレートで画像を撮像する。そして、情報処理装置210,310は、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。
情報処理装置210,310は、外部環境に応じてカメラのフレームレートを変更するようにしてもよい。例えば、情報処理装置210,310は、外部環境に関するスコアを計算し、スコアに応じて、カメラ30L,30Rのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力する。カメラ30L,30Rは、決定されたフレームレートで画像を撮像する。そして、情報処理装置210,310は、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。
なお、車両に搭載される情報処理装置210は、図示しない複数種類のセンサを備えている。車両に搭載される情報処理装置210が備える1つ以上のプロセッサは、複数種類のセンサ(図示省略)から取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)に基づいて、外部環境に関するスコアとして、自車両が今後どの程度の危険な場所を走行するかの危険度を計算する。
そして、情報処理装置210が備える1つ以上のプロセッサは、計算した危険度と閾値とに基づいて、1秒当たりに撮像される画像数(フレームレート)を切り替える。
例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値より低い場合は、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。
また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第4閾値より低い場合は、240,480,960フレーム/秒の何れかを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第4閾値以上である場合は、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
また、情報処理装置210が備える1つ以上のプロセッサは、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両が走行する前から既知である走行に関するビッグデータを利用し、危険度を予測するようにしてもよい。
また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、例えば、カメラ30L,30Rに写る物体の速度等に基づいて、外部環境に関するスコアを計算し、そのスコアに応じてフレームレートを変更するようにしてもよい。例えば、外部環境に関するスコアは、物体の速度が速いほど大きくなるように計算される。このため、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが大きい場合には、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが小さい場合には、120フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。その他の制御は、上記の車両に搭載される情報処理装置210と同様である。
(物体が検出された領域に応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体の存在位置が所定領域である場合に、物体の存在位置を示す点をするようにしてもよい。この場合、情報処理装置210,310は、物体が検出された領域に応じてその物体の特徴点を出力するか否かを判定する。例えば、車両に搭載される情報処理装置210のコア12AL,12ARは、車両が走行する道路領域において検出された物体とは異なる物体(例えば、歩道上に存在している物体)からは特徴点を抽出しないようにする。図10に、例えば、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための図を示す。
情報処理装置210,310は、画像に写る物体の存在位置が所定領域である場合に、物体の存在位置を示す点をするようにしてもよい。この場合、情報処理装置210,310は、物体が検出された領域に応じてその物体の特徴点を出力するか否かを判定する。例えば、車両に搭載される情報処理装置210のコア12AL,12ARは、車両が走行する道路領域において検出された物体とは異なる物体(例えば、歩道上に存在している物体)からは特徴点を抽出しないようにする。図10に、例えば、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための図を示す。
図10(A)では、物体B1~B4が抽出されている。本来であれば、物体B1~B4の各々について特徴点を表す座標が抽出される。
この場合、例えば、図10(B)に示されているように、車両に搭載される情報処理装置210が備えるコア12AL,12ARは、既知の技術を用いて、車両前方の画像から道路境界Lを逐次検出する。そして、情報処理装置210が備えるコア12AL,12ARは、道路境界Lによって特定される道路上に位置する物体B1~B3からのみ特徴点を表す座標を抽出する。
また、例えば、情報処理装置210が備えるコア12AL,12ARは、道路上に位置する物体B1~B3とは異なる物体B4についてはその物体領域自体を抽出せずに、物体B1~B3からのみ特徴点を表す座標を抽出するようにしてもよい。
(物体の動きに応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出するようにしてもよい。この場合、例えば、情報処理装置210,310は、物体の動きに応じてその物体の特徴点を出力するか否かを判定するようにしてもよい。例えば、情報処理装置210のコア12AL,12ARは、車両の走行に影響の無い物体からは特徴点を抽出しないようにしてもよい。具体的には、情報処理装置210のコア12AL,12ARは、AIを利用することなどにより、画像に写る物体の移動方向又は速さ等を計算する。そして、例えば、情報処理装置210のコア12AL,12ARは、道路から遠ざかっていく歩行者等からは特徴点を抽出しない。一方、情報処理装置210のコア12AL,12ARは、道路に近づく物体(例えば、道路に飛び出しそうな子供)からは特徴点を抽出する。
情報処理装置210,310は、画像に写る物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出するようにしてもよい。この場合、例えば、情報処理装置210,310は、物体の動きに応じてその物体の特徴点を出力するか否かを判定するようにしてもよい。例えば、情報処理装置210のコア12AL,12ARは、車両の走行に影響の無い物体からは特徴点を抽出しないようにしてもよい。具体的には、情報処理装置210のコア12AL,12ARは、AIを利用することなどにより、画像に写る物体の移動方向又は速さ等を計算する。そして、例えば、情報処理装置210のコア12AL,12ARは、道路から遠ざかっていく歩行者等からは特徴点を抽出しない。一方、情報処理装置210のコア12AL,12ARは、道路に近づく物体(例えば、道路に飛び出しそうな子供)からは特徴点を抽出する。
また、情報処理装置210が備える1つ以上のプロセッサは、例えば、イベントカメラ(https://dendenblog.xyz/event-based-camera/)によって撮像された画像からも特徴点を抽出することが可能である。図11に、イベントカメラによって撮像された画像を説明するための図を示す。
図11に示されているように、イベントカメラによって撮像された画像は、現時刻に撮像された画像と前時刻に撮像された画像との差異部分が点として抽出される。このため、イベントカメラを利用した場合には、例えば、図11(B)に示されるように、図11(A)に示される人物領域のうちの移動している各箇所の点が抽出されてしまう。
これに対し、情報処理装置210が備える1つ以上のプロセッサは、図11(C)に示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送される情報量を抑制させることできる。イベントカメラによって撮像された画像は、物体である人物を任意のフレームレートで抽出できるため、MoPU12L,12Rに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像するが、イベントカメラの場合は1920フレーム/秒に限らず、それ以上のフレームレートで抽出することもでき、より物体の動き情報を精度良く捉えることができる。
以上説明したように、第2実施形態の情報処理装置210,310は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、コア12X、Central Brain15、及びメモリ16に転送される情報量を抑制させることできる。また、物体の存在位置を示す点とIPU11から出力されたラベル情報とを対応付けることにより、どのような物体がどのような動きをしているのかに関する情報が把握される。特に、MoPU12L,12Rに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像することが可能であるため、物体の動き情報を精度良く捉えることができる。
また、情報処理装置210,310は、フレームレートを変更することが可能なカメラ30L,30Rを備え、外部環境に関するスコアを計算し、当該スコアに応じてカメラのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、外部環境に適したフレームレートで画像を撮像することができる。
また、情報処理装置210は、外部環境に関するスコアとして、車両の走行に関する危険度を計算し、危険度に応じて、カメラ30L,30Rのフレームレートを決定し、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30R対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出する。これにより、車両の走行に関する危険度に応じてフレームレートを変更することができる。
また、情報処理装置210,310は、画像から物体を抽出し、物体の存在位置が所定領域である場合に、物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12AL,12ARは、制御処理にとって重要度が低い領域の点を取得せずに済む。
また、情報処理装置210,310は、画像から物体を抽出し、物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12AL,12ARは、制御処理にとって重要度が低い物体の点を取得せずに済む。
<第3実施形態>
続いて、第3実施形態について説明する。第3実施形態は、車両の前後にIPU11及びMoPU12を設けた点で、第2実施形態のSmart Carと異なる。以下、第2実施形態との相違点について説明する。なお、同一の構成には同一の符号を付しており、詳細な説明については割愛する。
続いて、第3実施形態について説明する。第3実施形態は、車両の前後にIPU11及びMoPU12を設けた点で、第2実施形態のSmart Carと異なる。以下、第2実施形態との相違点について説明する。なお、同一の構成には同一の符号を付しており、詳細な説明については割愛する。
図12に示されるように、車両1には、車両前方を監視する前方IPU11Fr及び前方MoPUユニット12Frと、車両後方を監視する後方IPU11Rr及び後方MoPUユニット12Rrと、が設けられている。前方MoPUユニット12Frは、開示の技術における「第1のカメラユニット」の一例であり、後方MoPUユニット12Rrは、開示の技術における「第2のカメラユニット」の一例である。
前方IPU11Frでは高解像度カメラ(図示省略)が車両前方に向けられており、後方IPU11Rrでは高解像度カメラ(図示省略)が車両後方に向けられている。また、前方MoPUユニット12Frでは、カメラ30L、レーダー32L及び赤外線カメラ34Lが車両前方に向けられており、後方MoPUユニット12Rrでは、カメラ30L、レーダー32L及び赤外線カメラ34Lが車両後方に向けられている。
図13は、車両1に搭載される、第3実施形態に係る情報処理装置220のブロック図である。図13に示されるように、前方MoPUユニット12Fr及び後方MoPUユニット12Rrは、それぞれ左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、を備えている。また、前方MoPUユニット12Frのコア12Xと、後方MoPUユニット12Rrのコア12Xとは、互いに通信可能に接続されている。さらに、前方MoPUユニット12Frのコア12X、及び、後方MoPUユニット12Rrのコア12Xは、それぞれ、Central Brain15に対して接続されている。
本実施形態の情報処理装置220では、前方IPU11Fr及び前方MoPUユニット12Frにより車両前方の特徴点の座標及び対象物のラベル情報を取得し、後方IPU11Rr及び後方MoPUユニット12Rrにより車両後方の特徴点の座標及び対象物のラベル情報を取得する。これにより、Central Brain15は車両1を制御する。なお、前方MoPUユニット12Fr及び後方MoPUユニット12Rrでは共通の座標軸(x軸、y軸、z軸)に基づいて特徴点の座標値(Xn,Yn,Zn)が得られるように構成されている。これにより、本実施形態のCentral Brain15は、車両1の停車中や走行中において、後方から接近する物体に対しても、精度よく車両制御を行うことができる。つまり、自動運転機能を有する車両において、車両前方のみを監視する場合に比べて、車両後方から接近する物体に対する回避動作が改善される。
(警戒状態に応じたフレームレートの変更)
情報処理装置220は、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方の検知状況に基づいて、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方のカメラのフレームレートが変更される。
情報処理装置220は、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方の検知状況に基づいて、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方のカメラのフレームレートが変更される。
具体的に、前方MoPUユニット12Fr及び後方MoPUユニット12Rrは、車両1に対して所定値以上の速度で接近する物体があり、警戒状態と判定した場合、通常は240フレーム/秒以下であるカメラ30L,30Rのフレームレートを、960フレーム/秒以上に上げる。つまり、前方MoPUユニット12Fr及び後方MoPUユニット12Rrは、車両1に対する前方又は後方の物体の相対的な速度が予め設定した閾値を超えた場合にフレームレートを変更するように構成されている。以下、本実施形態のフレームレートを変更するレート変更処理を、図14を用いて説明する。なお、図14は前方MoPUユニット12Frにおける処理の例である。
図14のステップS100において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおける特徴点の座標及び対象物のラベル情報を取得する。
ステップS102において、前方MoPUユニット12Frのコア12Xは、後方MoPUユニット12Rrにおける特徴点のベクトル情報及び対象物のラベル情報を取得する。
ステップS104において、前方MoPUユニット12Frのコア12Xは、取得した情報に基づいて警戒状態についての判定処理を実行する。例えば、車両1に対する後方の物体の相対的な速度が予め設定した閾値を超えた場合に警戒状態が開始される。また例えば、前方や後方に存在している警戒対象の物体が車両1から遠ざかる、居なくなる等した場合に警戒状態が終了される。
ステップS106において、前方MoPUユニット12Frのコア12Xは、警戒状態が開始したか否かを判定する。コア12Xは、警戒状態が開始したと判定した場合(ステップS106でYESの場合)、ステップS108に進む。一方、コア12Xは、警戒状態が開始していないと判定した場合(ステップS106でNOの場合)、ステップS100に戻る。
ステップS108において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおけるカメラ30L,30Rのフレームレートを高い状態に設定する。
ステップS110において、前方MoPUユニット12Frのコア12Xは、警戒状態が終了したか否かを判定する。コア12Xは、警戒状態が終了したと判定した場合(ステップS110でYESの場合)、ステップS112に進む。一方、コア12Xは、警戒状態が終了していないと判定した場合(ステップS110でNOの場合)、ステップS100に戻る。
ステップS112において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおけるカメラ30L,30Rのフレームレートを低い状態に設定する。そして、ステップS100に戻る。
以上、本実施形態のレート変更処理によれば、以下の態様に対応することができる。例えば、車両前方においては車両1に接近する物体が存在せず、車両後方から車両1をふらつきながら追い越すような二輪車や動物等が現れたとする。この場合、前方MoPUユニット12Frでは、処理負荷軽減のためにフレームレートを下げていたとしても、後方MoPUユニット12Rrにおける物体の接近検知に基づいて、フレームレートを上げることができる。これにより、物体が車両1を追い越してからは、前方MoPUユニット12Frにより、精度のよい監視が可能となる。
なお、上記の実施形態では、警戒状態が開始されると、フレームレートが低い状態から高い状態に変更されるが、一気に変更されるのではなく、段階的にフレームレートが高くなるように構成してもよい。例えば、通常は240フレーム/秒の場合に、警戒状態が開始されると、まずは、フレームレートを960フレーム/秒にし、警戒状態が所定時間(例えば1秒間)継続するとフレームレートを1920フレーム/秒にするように構成してもよい。このような、フレームレートの段階的な上昇は2段階に限らず、カメラ30L,30Rが有するフレームレートの数に合わせて、設定することができる。また、フレームレートを上げる場合に限らず、下げる場合においても警戒状態に応じて段階的に下げてもよい。
(対象物ラベルの引継ぎ)
本実施形態の情報処理装置220は、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方において、生成された対象物のラベル情報を前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に提供することができる。
本実施形態の情報処理装置220は、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方において、生成された対象物のラベル情報を前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に提供することができる。
例えば、図15に示されるように、前方MoPUユニット12Fr及び後方MoPUユニット12Rrのカメラ30L,30Rの視野角Mがそれぞれ180度であるとする。これに対して、前方IPU11Fr及び後方IPU11Rrの高解像度カメラの視野角Vがカメラ30L,30Rの視野角Mよりも狭いとする。この場合、IPU11の高解像度カメラが撮像できない視野外周部の物体については、MoPU12により座標値が取得できたとしても対象物のラベル情報が付与されない。そこで、図16の引継ぎ処理により、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方において、すでに生成されている対象物のラベル情報を前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に提供することができる。なお、図16は前方MoPUユニット12Frにおける処理の例である。
図16のステップS200において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおける特徴点の座標及び対象物のラベル情報を取得する。
ステップS202において、前方MoPUユニット12Frのコア12Xは、後方MoPUユニット12Rrにおける特徴点のベクトル情報及び対象物のラベル情報を取得する。
ステップS204において、前方MoPUユニット12Frのコア12Xは、ステップS200においてラベル情報を取得できなかったか否かを判定する。コア12Xは、ラベル情報を取得できなかったと判定した場合(ステップS204でYESの場合)、ステップS206に進む。一方、コア12Xは、ラベル情報を取得できたと判定した場合(ステップS204でNOの場合)、ステップS200に戻る。
ステップS206において、前方MoPUユニット12Frのコア12Xは、ベクトル情報に基づく予想座標と現在の座標が一致したか否かを判定する。すなわち、後方MoPUユニット12Rrから取得したベクトル情報に基づいて予想された特徴点の座標と、前方MoPUユニット12Frにおいて取得した現在の特徴点とが一致したか否かを判定する。コア12Xは、ベクトル情報に基づく予想座標と現在の座標が一致したと判定した場合(ステップS206でYESの場合)、ステップS208に進む。一方、コア12Xは、ベクトル情報に基づく予想座標と現在の座標が一致していないと判定した場合(ステップS206でNOの場合)、ステップS200に戻る。
ステップS208において、前方MoPUユニット12Frのコア12Xは、後方MoPUユニット12Rrにおける対象物のラベルを、前方MoPUユニット12Frにおいて検知された特徴点に対して付与する。そして、ステップS200に戻る。
以上、本実施形態の引継ぎ処理によれば、前方IPU11Fr及び後方IPU11Rrの高解像度カメラの視野角Vが狭く、視野角Vの外で特徴点が検出された場合であっても以下の効果を有する。すなわち、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの何れか一方で既に検知され付与さている対象物のラベルを前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に適用することができる。これにより、例えば、物体が車両1を追い越すようなシチュエーションにおいて、前方MoPUユニット12Frは後方MoPUユニット12Rrが特徴点を抽出した直後から対象物を特定することができる。
<備考>
本実施の形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
本実施の形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 情報処理装置
11 IPU
12 MoPU
13 GNPU
14 CPU
15 Central Brein
11 IPU
12 MoPU
13 GNPU
14 CPU
15 Central Brein
Claims (3)
- カメラを含む一対のカメラユニットと、プロセッサとを備えた車両であって、
第1のカメラユニットは、車両前方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、
第2のカメラユニットは、車両後方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、
前記プロセッサは、前記第1のカメラユニット及び前記第2のカメラユニットから出力された物体の存在位置に基づいて前記車両の走行を制御する
車両。 - 前記各カメラユニットが有する前記カメラは、フレームレートを変更することが可能であり、
前記第1のカメラユニット及び前記第2のカメラユニットの一方は、
前記第1のカメラユニット及び前記第2のカメラユニットの他方における物体の検知状況に応じて、前記カメラのフレームレートを設定し、
設定された前記フレームレートにより撮像された前記カメラの画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
請求項1に記載の車両。 - 前記カメラよりも高解像度の高解像度カメラを備え、かつ前記各カメラユニットのそれぞれに接続される他のカメラユニットをさらに備え、
前記各カメラユニットは、前記高解像度カメラの情報に基づいて特定された物体の情報を取得可能であって、
前記第1のカメラユニット及び前記第2のカメラユニットの一方は、
前記第1のカメラユニット及び前記第2のカメラユニットの他方が有する物体の情報を取得する、
請求項1又は2に記載の車両。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/038227 WO2024090390A1 (ja) | 2022-10-24 | 2023-10-23 | 情報処理装置、車両、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022175679 | 2022-11-01 | ||
JP2022175679 | 2022-11-01 | ||
JP2022187648 | 2022-11-24 | ||
JP2022187648 | 2022-11-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024066379A true JP2024066379A (ja) | 2024-05-15 |
Family
ID=91064391
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022209070A Pending JP2024066379A (ja) | 2022-10-24 | 2022-12-26 | 車両 |
JP2023000320A Pending JP2024066382A (ja) | 2022-10-24 | 2023-01-04 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023000321A Pending JP2024066383A (ja) | 2022-10-24 | 2023-01-04 | 情報処理装置 |
JP2023004742A Pending JP2024066386A (ja) | 2022-10-24 | 2023-01-16 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023000320A Pending JP2024066382A (ja) | 2022-10-24 | 2023-01-04 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2023000321A Pending JP2024066383A (ja) | 2022-10-24 | 2023-01-04 | 情報処理装置 |
JP2023004742A Pending JP2024066386A (ja) | 2022-10-24 | 2023-01-16 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP2024066379A (ja) |
-
2022
- 2022-12-26 JP JP2022209070A patent/JP2024066379A/ja active Pending
-
2023
- 2023-01-04 JP JP2023000320A patent/JP2024066382A/ja active Pending
- 2023-01-04 JP JP2023000321A patent/JP2024066383A/ja active Pending
- 2023-01-16 JP JP2023004742A patent/JP2024066386A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2024066386A (ja) | 2024-05-15 |
JP2024066382A (ja) | 2024-05-15 |
JP2024066383A (ja) | 2024-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101963422B1 (ko) | 자율 주행 가능 차량용 충돌-회피 시스템 | |
CN111986128A (zh) | 偏心图像融合 | |
JP2024066379A (ja) | 車両 | |
JP2024062348A (ja) | 情報処理装置 | |
JP2024062333A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
WO2024090389A1 (ja) | 冷却実行装置、冷却実行方法、冷却実行プログラム、及び車両 | |
JP2024062325A (ja) | 情報処理装置及びプログラム | |
CN116153056A (zh) | 基于物件交互关系的路径预测方法及电子装置 | |
JP2024064911A (ja) | 情報処理装置 |