JP2024062349A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2024062349A
JP2024062349A JP2023070394A JP2023070394A JP2024062349A JP 2024062349 A JP2024062349 A JP 2024062349A JP 2023070394 A JP2023070394 A JP 2023070394A JP 2023070394 A JP2023070394 A JP 2023070394A JP 2024062349 A JP2024062349 A JP 2024062349A
Authority
JP
Japan
Prior art keywords
information
camera
image
processing device
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023070394A
Other languages
English (en)
Inventor
正義 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Group Corp
Original Assignee
SoftBank Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Group Corp filed Critical SoftBank Group Corp
Priority to PCT/JP2023/038227 priority Critical patent/WO2024090390A1/ja
Publication of JP2024062349A publication Critical patent/JP2024062349A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】移動する物体を検出する情報処理装置を提供する。【解決手段】情報処理装置410は、画像から抽出した物体の動きを示す動き情報を出力する第1のプロセッサMoPU12と、画像から抽出した物体の種別を示す種別情報を出力する第2のプロセッサIPU11と、動き情報及び種別情報に基づいて、物体に対する応答制御を行う第3のプロセッサCentral Brain15と、を備える。第2のプロセッサは、自装置が搭載された移動体の外部に設置された外部カメラが取得した画像及び当該外部カメラの位置情報を取得する取得部を備え、外部カメラが取得した画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する。【選択図】図12

Description

開示の技術は、移動する物体を検出する情報処理装置に関する。
特許文献1には、自動運転機能を有する車両について記載されている。
特開2022-035198号公報
開示の技術に係る情報処理装置は、第1のプロセッサを備える。前記第1のプロセッサは、物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する。
前記第1のプロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力してもよい。前記第1のプロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について前記ベクトル情報を出力してもよい。
前記画像は、赤外線画像を含んでいてもよい。前記画像は、互いに同期した可視光画像及び赤外線画像を含んでいてもよい。
2つの前記第1のプロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力してもよい。
前記第1のプロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力してもよい。
情報処理装置は、前記物体の画像を1000フレーム/秒未満のフレームレートで出力する第2のプロセッサと、前記動き情報と、前記第2のプロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3のプロセッサと、を更に含んでいてもよい。
開示の技術に係る情報処理装置は、第1のプロセッサを備える。前記第1のプロセッサは、物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、前記第1プロセッサは、外部環境に関するスコアを計算し、前記スコアに応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力してもよい。
前記情報処理装置は車両に搭載され、前記第1プロセッサは、前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、前記危険度に応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラ対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力してもよい。
前記第1プロセッサは、前記画像から物体を抽出し、前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力してもよい。
前記第1プロセッサは、前記画像から物体を抽出し、前記物体毎にスコアを計算し、前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力してもよい。
開示の技術に係る情報処理装置は、画像から抽出した物体の動きを示す動き情報を出力する第1のプロセッサと、画像から抽出した物体の種別を示す種別情報を出力する第2のプロセッサと、前記動き情報及び前記種別情報に基づいて、物体に対する応答制御を行う第3のプロセッサと、自装置が搭載された移動体の外部に設置された外部カメラにより取得された画像及び当該外部カメラの位置情報を取得する取得部と、を備え、前記第2のプロセッサは、外部カメラにより取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する。
前記第2のプロセッサは、外部カメラにより取得された画像から抽出した物体が、前記移動体の進行に影響を及ぼす可能性がある物体である場合に、進行に影響を及ぼす可能性がある物体であることを示す識別情報を付して、当該物体の種別情報を出力してもよい。
前記移動体の進行に影響を及ぼす可能性がある物体は、人又は動物であってもよい。
前記取得部は、前記移動体の進行ルートの前方に位置する外部カメラから画像及び位置情報を取得してもよい。
前記取得部は、前記移動体の進行ルートの前方において、自装置から最も近い外部カメラのみから画像及び位置情報を取得してもよい。
前記取得部は、前記移動体の進行ルートを案内するナビゲーションシステムのルート情報に基づいて、前記移動体の進行ルートの前方に位置する外部カメラを特定してもよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
Central Brainを搭載した車両の一例を示す概略図である。 開示の技術の第1実施形態に係る情報処理装置の構成の一例を示すブロック図である。 開示の技術の第1実施形態に係るMoPUからCentral Brainへのデータ転送の態様の一例を示す図である。 開示の技術の第1実施形態に係るMoPUからCentral Brainへのデータ転送の態様の一例を示す図である。 開示の技術の第1実施形態に係るMoPUによる物体の座標検出の態様の一例を示す図である。 開示の技術の第1実施形態に係るMoPUの処理の一例を示す図である。 開示の技術の第1実施形態に係るMoPUの処理の一例を示す図である。 開示の技術の第2実施形態に係る情報処理装置の構成の一例を示すブロック図である。 開示の技術の第2実施形態に係る情報処理装置の構成の一例を示すブロック図である。 開示の技術の第2実施形態を説明するための図である。 開示の技術の第2実施形態を説明するための図である。 開示の技術の第3実施形態に係る情報処理装置の構成の一例を示すブロック図である。 開示の技術の第3実施形態におけるカメラ管理データベースの一例を示す図である。 開示の技術の第3実施形態を説明するための図である。 開示の技術の第3実施形態において外部カメラから取得した画像の一例を示す図である。 開示の技術の第3実施形態におけるオブジェクト管理データベースの一例を示す図である。 開示の技術の第3実施形態を説明するための図である。 開示の技術の第3実施形態を説明するための図である。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
開示の技術の実施形態に係る情報処理装置は、車両の制御に関連する多くの情報に基づいて、運転制御に必要なインデックス値を高精度に求めるものであってよい。したがって、本開示の情報処理装置は、少なくとも一部が車両に搭載されて、車両の制御を実現するものであってよい。
<第1実施形態>
開示の技術の実施形態に係る情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。
図1は、Central Brainを搭載した車両の一例を示す概略図である。Central Brainは、図1に示すように、複数のGate Wayが通信可能に接続されていてよい。本実施の形態に係るCentral Brainは、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を実現し得るものである。
「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。
Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。
図2は、開示の技術の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。
IPU11は、車両に設置された超高解像度カメラ(図示せず)に内蔵され得る。IPU11は、車両の周囲に存在する物体の画像について、ベイヤ―変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレート且つ1200万画素の解像度で出力する。IPU11から出力された画像は、Central Brain15及びメモリ16に供給される。IPU11は、開示の技術における「第2のプロセッサ」の一例である。
MoPU12は、車両に設置された超高解像度カメラとは別のカメラに内蔵され得る。MoPU12は、1000フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体の動きを示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。すなわち、MoPU12の出力のフレームレートは、IPU11の出力のフレームレートの100倍である。MoPU12は、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPU12から出力される動き情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。MoPU12から出力された情報は、Central Brain15及びメモリ16に供給される。動き情報が画像情報を含まないことで、Central Brain15及びメモリ16に転送される情報量を画期的に抑制することできる。MoPU12は、開示の技術における「第1のプロセッサ」の一例である。
Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、車両の運転制御を実行する。例えば、Central Brain15は、IPU11から出力された画像に基づいて、車両の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された動き情報に基づいて、車両の周囲に存在する、何であるか認識された物体の動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行う。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。Central Brain15は、開示の技術における「第3のプロセッサ」の一例である。
一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。高解像度カメラによって撮影された画像から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば1000フレーム/秒の高フレームレートでの出力が可能である。
そこで、本開示の技術では、IPU11及びMoPU12の2つの独立したプロセッサを用いる。IPU11には、捉えた物体が何なのかを認識するために必要な画像情報を取得する役割を与え、MoPU12には、物体の動きを検出する役割を与えている。MoPU12は、物体を点としてとらえ、その点の座標がx軸、y軸、z軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。
物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Cetral Brain15に転送する情報量を大幅に抑制し、Cetral Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCetral Brain15に送信する場合、色情報を含めると、40億ビット/秒のデータをCetral Brain15に送信することになる。MoPU12が、物体の中心点の動きを示す動き情報のみを送信することで、Cetral Brain15に転送されるデータの量を2万ビット/秒に圧縮することができる。すなわち、Cetral Brain15に転送されるデータの量が20万分の1に圧縮される。
このように、IPU11から出力される低フレームレート且つ高解像度の画像と、MoPU12から出力される高フレームレート且つ軽量の動き情報を組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。
なお、1つのMoPU12を用いた場合には、物体の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。
また、図3に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、MoPU12のコア12A(例えば、1つ以上のCPUにより構成される)に入力してもよい。これらの画像は、それぞれ、例えば1000ピクセル×1000ピクセルの色情報を含む画像であり、1000フレーム/秒のフレームレートでコア12Aに入力されてもよい。MoPU12のコア12Aは、これらの画像に基づいて、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を1000フレーム/秒のフレームレートでCentral Brain15に転送してもよい。また、図4に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、それぞれ、別々のコア12A及び12Aを用いて処理してもよい。
また、以上の説明では、MoPU12が、物体の中心点の動きを示す動き情報を出力する形態を例示した。しかしながら、開示の技術はこの態様に限定されない。MoPU12は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点について動き情報を出力してもよい。図5には、MoPU12が、画像に含まれる4つの物体のそれぞれについて、当該物体の輪郭を囲むバウンディングボックス21、22、23、24を設定し、バウンディングボックス21、22、23、24の頂点の対角となる2つの座標点について動き情報を出力する態様が例示されている。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。
また、図6に示すように、MoPU12は、可視光画像及び赤外線画像の少なくとも一方に基づいて動き情報を出力してもよい。可視光画像は可視光カメラによって撮影された画像であり、赤外線画像は赤外線カメラによって撮影された画像である。可視光画像及び赤外線画像は、それぞれ、1000フレーム/秒以上のフレームレートでコア12Aに入力される。可視光画像及び赤外線画像は、互いに同期していることが好ましい。MoPU12による物体検出において赤外線画像を用いることで、例えば夜間等の可視光画像による物体検出が困難である場合でも物体検出が可能となる。MoPU12は、可視光画像及び赤外線画像うち、赤外線画像のみに基づいて動き情報を出力してもよいし、可視光画像及び赤外線画像の双方に基づいて動き情報を出力してもよい。
また、図7に示すように、MoPU12は、画像及びレーダー信号に基づいて動き情報を出力してもよい。レーダー信号は、物体に照射された電磁波の当該物体からの反射波に基づく信号である。MoPU12は、画像及びレーダー信号に基づいて、物体までの距離を導出し、当該物体の存在位置を示す点の、三次元直交座標系における3つの軸の各々に沿った動きのベクトル情報を動き情報として出力してもよい。画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。画像及びレーダー信号は、1000フレーム/秒以上のフレームレートでコア12Aに入力される。
また、以上の説明では、Cetral Brain15が、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて車両の運転制御を実行する場合を例示したが、開示の技術は、この態様に限定されるものではない。Cetral Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、ロボットの動作制御を行ってもよい。ロボットは例えば、人間の代わりに作業を行う人型のスマートロボットであってもよい。例えば、Cetral Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、ロボットの腕、手のひら、指、足の動作制御を行って、当該物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、避ける等の動作制御を行ってもよい。IPU11及びMoPU12は、例えば、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、画像を撮像する際のフレームレートが可変である点等が第1実施形態と異なる。
(車両に搭載される情報処理装置:Smart Car)
図8は、車両に搭載される、第2実施形態に係る情報処理装置210のブロック図である。図8に示されているように、車両に搭載される情報処理装置210は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、Central Brain15とを備えている。
MoPU12Lは、カメラ30Lと、レーダー32Lと、赤外線カメラ34Lと、コア12Lとを備えている。また、MoPU12Rは、カメラ30Rと、レーダー32Rと、赤外線カメラ34Rと、コア12Rとを備えている。レーダー32L,32Rは、上述したレーダー信号を検知する。赤外線カメラ34L,34Rは、上述した赤外線画像を取得する。
IPU11は、上述したような高解像度カメラ(図示省略)を備えており、高解像度カメラによって撮像された高解像度画像から物体を検知し、物体の種別を表す情報(以下、単に「ラベル情報」と称する。)を出力する。
なお、以下では、左側の目に相当するMoPU12Lの処理についてのみ説明する。
MoPU12Lが備えるカメラ30Lは、IPU11が備える高解像度カメラ(例えば、10フレーム/秒で撮像)よりも高いフレーム数(120,240,480,960,又は1920フレーム/秒)で画像を撮像する。カメラ30Lは、フレームレートを変更することが可能なカメラである。
MoPU12Lのコア12L(例えば、1つ以上のCPUにより構成される)は、30Lが撮像した1フレームの画像毎に特徴点を抽出し、その座標値(X,Y)を出力する。MoPU12Lは、例えば、画像から抽出した物体の中心点(重心点)を特徴点として出力する。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。
具体的には、MoPU12Lは、1つの物体から抽出された特徴点の座標値(X,Y)を出力する。なお、例えば、複数の物体(例えば、物体A、物体B、及び物体C等)が1つの画像に写っている場合には、MoPU12Lは、それら複数の物体の各々から抽出された特徴点の座標値(Xn,Yn)を出力するようにしてもよい。各時刻に撮像された画像の特徴点の系列は、物体の動き情報に相当する。
また、例えば、暗闇の影響によって、MoPU12Lが物体を識別できない場合が想定される。この場合には、MoPU12Lは、赤外線カメラ34Lを用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力するようにしてもよい。また、カメラ30Lによる画像の撮像と赤外線カメラ34Lによる赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
また、MoPU12Lは、レーダー32Lによって取得された3次元点群データに基づいて、物体のZ軸の座標値を取得してもよい。なお、この場合には、カメラ30Lによる画像の撮像とレーダー32Lによる3次元点群データの取得とを同期させるようにしてもよい。例えば、レーダー32Lによって取得される1秒当たりの3次元点群データの数と、カメラ30Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
また、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数と、レーダー32Lによって取得される1秒当たりの3次元点群データの数とを同一にし、データ取得のタイミングを同期させるようにしてもよい。
コア12Xは、MoPU12Lから出力された特徴点の座標と、IPU11から出力された対象物のラベル情報(物体が犬なのか、猫なのか、又はクマなのかを表す情報)とを取得する。そして、コア12Xは、ラベル情報と特徴点に対応する座標とを対応付けて出力する。これにより、特徴点が表す物体が何を表しているのかという情報と、特徴点が表す物体の動き情報とを対応付けることが可能になる。
以上が左側の目に相当するMoPU12Lの処理である。右側の目に相当するMoPU12Rは、左側の目に相当するMoPU12Lと同様の処理を実行する。
なお、MoPU12Lのカメラ30Lによって撮像された画像と、MoPU12Rの30Rによって撮像された画像とに基づいて、ステレオカメラの原理を利用して、特徴点の奥行き方向の座標値Znを更に算出してもよい。
(ロボットに搭載される情報処理装置:Smart Robot)
図9は、ロボットに搭載される、第2実施形態に係る情報処理装置310のブロック図である。図9に示されているように、ロボットに搭載される情報処理装置310は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、赤外線カメラ34と、ストラクチャードライト36と、コア12Xと、Central Brain15とを備えている。ロボットに搭載される情報処理装置310は、車両に搭載される情報処理装置210と同様の機能を有している。
例えば、暗闇の影響によって、MoPU12Lが物体を識別できない場合には、MoPU12Lは、赤外線カメラ34を用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力する。また、カメラ30Lによる画像の撮像と赤外線カメラ34による赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34によって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
また、コア12Xは、物体の奥行き方向の座標Znを取得するために、ストラクチャードライト36を使用してもよい。ストラクチャードライト36は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。この場合には、カメラ30L,30Rによる画像の撮像とストラクチャードライト36による3次元データとの計測とを同期させるようにしてもよい。例えば、カメラ30L,30Rによって撮像される1秒当たりの画像数と、ストラクチャードライト36によって計測される1秒当たりの3次元データとを同期させるようにしてもよい(例えば、1920フレーム/秒)。
更に、赤外線カメラ34によって撮像された赤外線画像とストラクチャードライト36によって計測された3次元データとの両方を併用してもよい。
(外部環境に応じたフレームレートの変更)
情報処理装置210,310は、外部環境に応じてカメラのフレームレートを変更するようにしてもよい。例えば、情報処理装置210,310は、外部環境に関するスコアを計算し、スコアに応じて、カメラ30L,30Rのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力する。カメラ30L,30Rは、決定されたフレームレートで画像を撮像する。そして、情報処理装置210,310は、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。
なお、車両に搭載される情報処理装置210は、図示しない複数種類のセンサを備えている。車両に搭載される情報処理装置210が備える1つ以上のプロセッサは、複数種類のセンサ(図示省略)から取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)に基づいて、外部環境に関するスコアとして、自車両が今後どの程度の危険な場所を走行するかの危険度を計算する。
そして、情報処理装置210が備える1つ以上のプロセッサは、計算した危険度と閾値とに基づいて、1秒当たりに撮像される画像数(フレームレート)を切り替える。
例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値より低い場合は、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。
また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第4閾値より低い場合は、240,480,960フレーム/秒の何れかを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第4閾値以上である場合は、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
また、情報処理装置210が備える1つ以上のプロセッサは、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両が走行する前から既知である走行に関するビッグデータを利用し、危険度を予測するようにしてもよい。
また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、例えば、カメラ30L,30Rに写る物体の速度等に基づいて、外部環境に関するスコアを計算し、そのスコアに応じてフレームレートを変更するようにしてもよい。例えば、外部環境に関するスコアは、物体の速度が速いほど大きくなるように計算される。このため、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが大きい場合には、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが小さい場合には、120フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。その他の制御は、上記の車両に搭載される情報処理装置210と同様である。
(物体が検出された領域に応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体の存在位置が所定領域である場合に、物体の存在位置を示す点をするようにしてもよい。この場合、情報処理装置210,310は、物体が検出された領域に応じてその物体の特徴点を出力するか否かを判定する。例えば、車両に搭載される情報処理装置210のコア12L,12Rは、車両が走行する道路領域において検出された物体とは異なる物体(例えば、歩道上に存在している物体)からは特徴点を抽出しないようにする。図10に、例えば、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための図を示す。
図10(A)では、物体B1~B4が抽出されている。本来であれば、物体B1~B4の各々について特徴点を表す座標が抽出される。
この場合、例えば、図10(B)に示されているように、車両に搭載される情報処理装置210が備えるコア12L,12Rは、既知の技術を用いて、車両前方の画像から道路境界Lを逐次検出する。そして、情報処理装置210が備えるコア12L,12Rは、道路境界Lによって特定される道路上に位置する物体B1~B3からのみ特徴点を表す座標を抽出する。
また、例えば、情報処理装置210が備えるコア12L,12Rは、道路上に位置する物体B1~B3とは異なる物体B4についてはその物体領域自体を抽出せずに、物体B1~B3からのみ特徴点を表す座標を抽出するようにしてもよい。
(物体の動きに応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出するようにしてもよい。この場合、例えば、情報処理装置210,310は、物体の動きに応じてその物体の特徴点を出力するか否かを判定するようにしてもよい。例えば、情報処理装置210のコア12L,12Rは、車両の走行に影響の無い物体からは特徴点を抽出しないようにしてもよい。具体的には、情報処理装置210のコア12L,12Rは、AIを利用することなどにより、画像に写る物体の移動方向又は速さ等を計算する。そして、例えば、情報処理装置210のコア12L,12Rは、道路から遠ざかっていく歩行者等からは特徴点を抽出しない。一方、情報処理装置210のコア12L,12Rは、道路に近づく物体(例えば、道路に飛び出しそうな子供)からは特徴点を抽出する。
また、情報処理装置210が備える1つ以上のプロセッサは、例えば、イベントカメラ(https://dendenblog.xyz/event-based-camera/)によって撮像された画像からも特徴点を抽出することが可能である。図11に、イベントカメラによって撮像された画像を説明するための図を示す。
図11に示されているように、イベントカメラによって撮像された画像は、現時刻に撮像された画像と前時刻に撮像された画像との差異部分が点として抽出される。このため、イベントカメラを利用した場合には、例えば、図11(B)に示されるように、図11(A)に示される人物領域のうちの移動している各箇所の点が抽出されてしまう。
これに対し、情報処理装置210が備える1つ以上のプロセッサは、図11(C)に示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送される情報量を抑制させることできる。
以上説明したように、第2実施形態の情報処理装置210,310は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、コア12X、Central Brain15、及びメモリ16に転送される情報量を抑制させることできる。また、物体の存在位置を示す点とIPU11から出力されたラベル情報とを対応付けることにより、どのような物体がどのような動きをしているのかに関する情報が把握される。特に、MoPU12L,12Rに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像することが可能であるため、物体の動き情報を精度良く捉えることができる。
また、情報処理装置210,310は、フレームレートを変更することが可能なカメラ30L,30Rを備え、外部環境に関するスコアを計算し、当該スコアに応じてカメラのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、外部環境に適したフレームレートで画像を撮像することができる。
また、情報処理装置210は、外部環境に関するスコアとして、車両の走行に関する危険度を計算し、危険度に応じて、カメラ30L,30Rのフレームレートを決定し、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30R対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出する。これにより、車両の走行に関する危険度に応じてフレームレートを変更することができる。
また、情報処理装置210,310は、画像から物体を抽出し、物体の存在位置が所定領域である場合に、物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12L,12Rは、制御処理にとって重要度が低い領域の点を取得せずに済む。
また、情報処理装置210,310は、画像から物体を抽出し、物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12L,12Rは、制御処理にとって重要度が低い物体の点を取得せずに済む。
<第3実施形態>
次に、第3実施形態について説明する。第3実施形態は、IPU11が外部カメラにより取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する点等が第1実施形態と異なる。
(車両に搭載される情報処理装置:Smart Car)
図12は、車両50(図13参照)に搭載される、第3実施形態に係る情報処理装置410のブロック図である。
図12に示されているように、車両50(図13参照)に搭載される情報処理装置410は、IPU11と、MoPU12と、Central Brain15と、ナビゲーションシステム45とを備えている。
IPU11は、カメラ30Aと、コア11A(例えば、1つ以上のCPUにより構成される)と、取得部40とを備えており、カメラ30Aによって撮像された画像、及び、車両50の外部に設置された外部カメラ60によって撮像された画像から物体(以下、「オブジェクト」と称する。)を検知し、オブジェクトの種別を表す情報を出力する。
取得部40は、車両50の外部に設置された外部カメラ60により取得された画像及び当該外部カメラ60の位置情報を取得するものであり、例えば、1つ以上のCPUと、外部の装置に無線で接続するための無線通信部とにより構成される。
なお、車両50の外部には複数台の外部カメラ60A、60B、60C…が設置されている。これらの外部カメラ60A、60B、60Cは、ネットワークを介して管理サーバ70に接続されている。ここで、ネットワークは、例えば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等、どのようなネットワークでもよい。
MoPU12は、カメラ30Bと、コア12A(例えば、1つ以上のCPUにより構成される)とを備えており、カメラ30Bによって撮像された画像からオブジェクトを検知し、オブジェクトの動きを示す動き情報を出力する。
ナビゲーションシステム45は、車両50の移動案内をおこなうためのシステムであり、例えば、公知のカーナビゲーションシステムと同等のシステムを用いることができる。
(IPU11の処理の詳細説明)
次に、本実施形態におけるIPU11の処理について詳細に説明する。
最初に、車両50の外部に設置されている複数台の外部カメラ60A、60B、60Cを管理する管理サーバ70について説明する。管理サーバ70は、カメラ管理データベースを備えている。
図13は、管理サーバ70において管理されるカメラ管理データベースの一例を示す図である。図13に示すように、カメラ管理データベースは、カメラIDと、アドレスと、設置位置とを関連付けて記憶している。カメラIDは、外部カメラ60の各々に対して付与される固有のIDである。アドレスは、外部カメラ60の各々に対してネットワークを介して接続する際のアドレスを示す情報であり、例えば、IP(Internet Protocol)アドレス等の情報である。なお、IPアドレスのバージョンに制限はなく、例えば、IPv4(Internet Protocol version 4)又はIPv6(Internet Protocol version 6)等、種々のバージョンとすることができる。設置位置は、外部カメラ60の各々が設置されている位置を示す情報であり、例えば、GPS(Global Positioning System)座標(例えば、緯度、経度等)等の情報である。
外部カメラ60は、例えば、道路沿いのビル、信号機、又は、中央分離帯等に設置されたカメラである。
管理サーバ70は、カメラ管理データベースを参照することにより、任意の外部カメラ60に接続することができる。また、カメラ管理データベースは、管理サーバ70に接続された外部の装置からも参照することができる。IPU11の取得部40は、無線を介して管理サーバ70と接続可能に構成されている。
車両50の移動時において、取得部40は、管理サーバ70に接続し、管理サーバ70に記憶されているカメラ管理データベースと、ナビゲーションシステム45から取得した車両50の位置情報及び進行方向の情報とに基づいて、車両50の進行ルートの前方に位置する外部カメラ60の中で、最も車両50に近い外部カメラ60を特定する。
本実施形態では、車両50の進行ルートの前方に位置する外部カメラ60は、一例として、車両50の車体の前方において車体の前後方向の中心軸を基準として所定の幅の範囲に位置する外部カメラ60とする。
なお、車両50の進行ルートの前方に位置する外部カメラ60は、上記の態様に限らず、車両50の進行ルートの前方に位置していればどのような外部カメラ60でもよい。例えば、車両50がナビゲーションシステム45によりルート案内されている状況下では、ナビゲーションシステム45により設定されたルートから所定の範囲に位置する外部カメラ60としてもよい。
そして、取得部40は、特定した外部カメラ60において取得された現在の画像及び当該外部カメラ60の位置情報を取得する。
本実施形態では、取得部40は、特定した外部カメラ60から、車両50が特定した外部カメラ60の付近を通過するまでの間、1秒毎に画像を取得する。ここで、画像を取得する時間の間隔は、1秒毎に限らず、例えば、10秒毎、5秒毎、又は、0.1秒毎等、どのような態様としてもよい。
なお、取得部40における画像の取得は、上記の態様に限らず、車両50が特定した外部カメラ60の付近を通過するまでの間、車両50の走行距離が一定距離毎に画像を取得するようにしてもよいし、特定した外部カメラ60から1回のみ画像を取得する等、どのような態様としてもよい。
例えば、図14に示すように、車両50の周囲に複数の外部カメラ60A~60Nが存在する場合、取得部40は、車両50の進行ルートの前方に位置する外部カメラ60の中で、最も車両50に近い外部カメラ60Gを特定し、特定した外部カメラ60Gにおいて取得された現在の画像及び当該外部カメラ60Gの位置情報を取得する。
なお、特定した外部カメラ60Gにおいて取得された現在の画像の取得については、管理サーバ70を介して取得してもよいし、直接外部カメラ60Gに接続して取得してもよい。
IPU11のコア11Aは、外部カメラ60により取得された画像から抽出したオブジェクトの種別を示す種別情報を、当該外部カメラ60の位置情報と関連付けて出力する。
図14に示す例では、取得部40は、外部カメラ60Gから画像を取得している。図15は、外部カメラ60Gから取得した画像の一例を示す図である。図15に示すように、外部カメラ60Gから取得した画像GEx中には、2台の車と人が写っている。
IPU11のコア11Aは、画像GEx中から、2台の車と人をオブジェクトB1~B3として抽出する。次に、コア11Aは、オブジェクトB1~B3の各々について、オブジェクトの種別を判別する。そして、コア11Aは、オブジェクトB1~B3の各々について、オブジェクトの種別を示す種別情報を、外部カメラ60Gの位置情報と関連付けて出力し、オブジェクト管理データベースDBに登録する。オブジェクト管理データベースDBは、例えば、メモリ16(図2参照)に記憶されている。
このとき、コア11Aは、抽出したオブジェクトが、車両50の進行に影響を及ぼす可能性があるオブジェクトである場合に、進行に影響を及ぼす可能性があるオブジェクトであることを示す識別情報(以下、「要注意フラグ」と称する。)を付して、当該オブジェクトの種別情報を出力する。
なお、車両50の進行に影響を及ぼす可能性があるオブジェクトは、例えば、人又は動物等が挙げられる。本実施形態では、一例として、コア11Aは、抽出したオブジェクトが、人又は動物である場合に、要注意フラグを付して、当該オブジェクトの種別情報を出力する。
図16は、情報処理装置410において管理されるオブジェクト管理データベースDBの一例を示す図である。図16に示すように、オブジェクト管理データベースDBは、オブジェクトIDと、登録日時と、オブジェクト位置と、オブジェクト種別と、要注意フラグの有無とを関連付けて記憶している。
オブジェクトIDは、コア11Aにより検出されたオブジェクトの各々に対して付与される固有のIDである。登録日時は、当該オブジェクトをオブジェクト管理データベースDBに登録した際の日時の情報である。オブジェクト位置は、当該オブジェクトを撮影した外部カメラ60の位置を示す情報であり、取得部40により取得された外部カメラ60の位置情報である。オブジェクト種別は、当該オブジェクトの種別を示す情報であり、例えば、人、動物、車、バイク、自転車、信号等の情報である。要注意フラグの有無は、当該オブジェクトに対して上記の要注意フラグが付与されているか否かを示す情報である。
上記第1実施形態で説明したように、Cetral Brain15は、IPU11が備えるカメラ30Aにより取得された画像に基づきIPU11から出力された画像及び識別情報と、MoPU12が備えるカメラ30Bにより取得された画像に基づきMoPU12から出力された動き情報に基づいて、車両50の運転制御を実行する。
それに加えて、本実施形態のCetral Brain15は、オブジェクト管理データベースDBを参照して、車両50の前方に位置し、車両50の進行に影響を及ぼす可能性があるオブジェクトを事前に把握することができる。そのため、車両50の運転制御をより適切に行うことができる。
例えば、図14に示すように、車両50が外部カメラ60Gの手前に位置する段階で、外部カメラ60Gの周辺に位置し、車両50の進行に影響を及ぼす可能性があるオブジェクトを事前に把握することができる。本例では、図15に示すように、外部カメラ60Gの周辺に人(図中、オブジェクトB3)が存在することが把握できる。
これにより、Cetral Brain15は、外部カメラ60Gの周辺において人が飛び出してくる可能性を考慮して、例えば、車両50が外部カメラ60Gの周辺に到達する前に減速したり、人が飛び出してきた場合に即座にブレーキを掛けることができるように準備したりする等の事前制御を行うことができる。
その結果、図17に示すように、車両50が外部カメラ60Gの周辺に到達した際に、人が飛び出してきたとしても、事前制御を行っているため、余裕を持って対処することができる。
以上説明したように、第3実施形態の情報処理装置410において、IPU11は、外部カメラ60により取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラ60の位置情報と関連付けて出力するようにしている。これにより、Cetral Brain15は、情報処理装置410が搭載された車両50の外部に設置された外部カメラ60により取得された画像まで考慮して、車両50の運転制御を実行することができる。
また、IPU11は、外部カメラ60により取得された画像から抽出した物体が、人又は動物等の、車両50の進行に影響を及ぼす可能性がある物体である場合に、進行に影響を及ぼす可能性がある物体であることを示す識別情報を付して、当該物体の種別情報を出力するようにしている。これにより、Cetral Brain15は、進行に影響を及ぼす可能性がある物体を考慮して、車両50の運転制御を実行することができる。
また、取得部40は、車両50の進行ルートの前方に位置する外部カメラ60から画像及び位置情報を取得するようにしている。これにより、Cetral Brain15は、外部カメラ60の設置位置に到達する前に、進行に影響を及ぼす可能性がある物体に対する事前制御を行うことができる。
また、取得部40は、車両50の進行ルートの前方において、自装置から最も近い外部カメラのみから画像及び位置情報を取得するようにしている。これにより、取得部40にける通信データ量を抑えることができる。
なお、取得部40が画像及び位置情報を取得する外部カメラ60の特定方法については、上記の態様に限らず、どのような態様としてもよい。例えば、取得部40は、車両50の進行ルートを案内するナビゲーションシステム45のルート情報に基づいて、車両50の進行ルートの前方に位置する外部カメラ60を特定し、特定した外部カメラ60から画像及び位置情報を取得するようにしてもよい。
例えば、図18に示すように、ナビゲーションシステム45により、車両50の進行ルートRが設定されていたとする。この場合、取得部40は、進行ルートR沿いに設置されている外部カメラ60A、60B、60C、60E、60F、60Gを、車両50の進行ルートの前方に位置する外部カメラ60として特定し、特定した外部カメラ60から画像及び位置情報を取得するようにしてもよい。
この場合、画像及び位置情報の取得について、取得部40は、必ずしも、進行ルートR沿いに設置されている全ての外部カメラ60から画像及び位置情報を取得する必要はなく、例えば、車両50から所定の距離範囲内に位置する外部カメラ60のみから画像及び位置情報を取得してもよい。
また、カメラ管理データベースが、カメラID、アドレス、及び、設置位置に加えて、カメラの撮像方向及び/又は撮像範囲の情報を管理している場合、取得部40は、進行ルートR沿いに設置されている外部カメラ60の中で、車両50が進行ルートRを走行中に車両50を撮影可能な外部カメラ60を特定し、特定した外部カメラ60から画像及び位置情報を取得するようにしてもよい。このような態様とすることにより、進行ルートR沿いに設置されている外部カメラ60であっても、車両50の撮像ができない外部カメラ60からの画像及び位置情報の取得は行われなくなり、走行制御に用いることができないデータの取得が行われなくなるため、通信データ量の低減及び取得部40における処理量の低減に寄与する。
本実施の形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
(付記1)
第1のプロセッサを備えた情報処理装置であって、
前記第1のプロセッサは、物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する
情報処理装置。
(付記2)
前記第1のプロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
(付記3)
前記第1のプロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
(付記4)
前記画像は、赤外線画像を含む
付記1に記載の情報処理装置。
(付記5)
前記画像は、互いに同期した可視光画像及び赤外線画像を含む
付記1に記載の情報処理装置。
(付記6)
2つの前記第1のプロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
(付記7)
前記第1のプロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する
付記7に記載の情報処理装置。
(付記8)
前記物体の画像を1000フレーム/秒未満のフレームレートで出力する第2のプロセッサと、
前記動き情報と、前記第2のプロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3のプロセッサと、
を更に含む付記1に記載の情報処理装置。
(付記9)
第1のプロセッサを備えた情報処理装置であって、
前記第1のプロセッサは、物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
情報処理装置。
(付記10)
前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、
前記第1のプロセッサは、
外部環境に関するスコアを計算し、
前記スコアに応じて、前記カメラのフレームレートを決定し、
決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、
前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
付記9に記載の情報処理装置。
(付記11)
前記情報処理装置は車両に搭載され、
前記第1のプロセッサは、
前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、
前記危険度に応じて、前記カメラのフレームレートを決定し、
決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、
前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
付記10に記載の情報処理装置。
(付記12)
前記第1のプロセッサは、
前記画像から物体を抽出し、
前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
付記9に記載の情報処理装置。
(付記13)
前記第1のプロセッサは、
前記画像から物体を抽出し、
前記物体毎にスコアを計算し、
前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
付記9に記載の情報処理装置。
10 情報処理装置
11 IPU
12 MoPU
13 GNPU
14 CPU
15 Central Brein
40 取得部
45 ナビゲーションシステム
60 外部カメラ

Claims (6)

  1. 画像から抽出した物体の動きを示す動き情報を出力する第1のプロセッサと、
    画像から抽出した物体の種別を示す種別情報を出力する第2のプロセッサと、
    前記動き情報及び前記種別情報に基づいて、物体に対する応答制御を行う第3のプロセッサと、
    自装置が搭載された移動体の外部に設置された外部カメラにより取得された画像及び当該外部カメラの位置情報を取得する取得部と、を備え、
    前記第2のプロセッサは、外部カメラにより取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する
    情報処理装置。
  2. 前記第2のプロセッサは、外部カメラにより取得された画像から抽出した物体が、前記移動体の進行に影響を及ぼす可能性がある物体である場合に、進行に影響を及ぼす可能性がある物体であることを示す識別情報を付して、当該物体の種別情報を出力する
    請求項1に記載の情報処理装置。
  3. 前記移動体の進行に影響を及ぼす可能性がある物体は、人又は動物である
    請求項2に記載の情報処理装置。
  4. 前記取得部は、前記移動体の進行ルートの前方に位置する外部カメラから画像及び位置情報を取得する
    請求項1に記載の情報処理装置。
  5. 前記取得部は、前記移動体の進行ルートの前方において、自装置から最も近い外部カメラのみから画像及び位置情報を取得する
    請求項4に記載の情報処理装置。
  6. 前記取得部は、前記移動体の進行ルートを案内するナビゲーションシステムのルート情報に基づいて、前記移動体の進行ルートの前方に位置する外部カメラを特定する
    請求項4に記載の情報処理装置。
JP2023070394A 2022-10-24 2023-04-21 情報処理装置 Pending JP2024062349A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/038227 WO2024090390A1 (ja) 2022-10-24 2023-10-23 情報処理装置、車両、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (20)

Application Number Priority Date Filing Date Title
JP2022170165 2022-10-24
JP2022170165 2022-10-24
JP2022172777 2022-10-27
JP2022172777 2022-10-27
JP2022175679 2022-11-01
JP2022175679 2022-11-01
JP2022181362 2022-11-11
JP2022181362 2022-11-11
JP2022182131 2022-11-14
JP2022182131 2022-11-14
JP2022186040 2022-11-21
JP2022186040 2022-11-21
JP2022187648 2022-11-24
JP2022187649 2022-11-24
JP2022187648 2022-11-24
JP2022187649 2022-11-24
JP2022189546 2022-11-28
JP2022189546 2022-11-28
JP2023036967 2023-03-09
JP2023036967 2023-03-09

Publications (1)

Publication Number Publication Date
JP2024062349A true JP2024062349A (ja) 2024-05-09

Family

ID=90970450

Family Applications (26)

Application Number Title Priority Date Filing Date
JP2023059411A Pending JP2024062342A (ja) 2022-10-24 2023-03-31 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023066685A Pending JP2024062345A (ja) 2022-10-24 2023-04-14 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023066683A Pending JP2024062343A (ja) 2022-10-24 2023-04-14 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023066684A Pending JP2024062344A (ja) 2022-10-24 2023-04-14 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023068062A Pending JP2024062347A (ja) 2022-10-24 2023-04-18 情報処理装置、情報処理方法及び情報処理プログラム
JP2023069618A Pending JP2024062348A (ja) 2022-10-24 2023-04-20 情報処理装置
JP2023070394A Pending JP2024062349A (ja) 2022-10-24 2023-04-21 情報処理装置
JP2023075259A Pending JP2024062351A (ja) 2022-10-24 2023-04-28 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076261A Pending JP2024062353A (ja) 2022-10-24 2023-05-02 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076253A Pending JP2024062352A (ja) 2022-10-24 2023-05-02 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076944A Pending JP2024062355A (ja) 2022-10-24 2023-05-08 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076943A Pending JP2024062354A (ja) 2022-10-24 2023-05-08 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023078024A Pending JP2024062356A (ja) 2022-10-24 2023-05-10 冷却実行装置、冷却実行方法、及び冷却実行プログラム
JP2023078139A Pending JP2024062357A (ja) 2022-10-24 2023-05-10 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080353A Pending JP2024062358A (ja) 2022-10-24 2023-05-15 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080410A Pending JP2024062360A (ja) 2022-10-24 2023-05-15 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080388A Pending JP2024062359A (ja) 2022-10-24 2023-05-15 冷却実行装置、冷却実行方法、及び冷却実行プログラム
JP2023082445A Pending JP2024062361A (ja) 2022-10-24 2023-05-18 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023084121A Pending JP2024062362A (ja) 2022-10-24 2023-05-22 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023084860A Pending JP2024062363A (ja) 2022-10-24 2023-05-23 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023087263A Pending JP2024062365A (ja) 2022-10-24 2023-05-26 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023088201A Pending JP2024062366A (ja) 2022-10-24 2023-05-29 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023088202A Pending JP2024062367A (ja) 2022-10-24 2023-05-29 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023090418A Pending JP2024062369A (ja) 2022-10-24 2023-05-31 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023093420A Pending JP2024062372A (ja) 2022-10-24 2023-06-06 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023104424A Pending JP2024062374A (ja) 2022-10-24 2023-06-26 情報処理装置、情報処理方法、及び情報処理プログラム

Family Applications Before (6)

Application Number Title Priority Date Filing Date
JP2023059411A Pending JP2024062342A (ja) 2022-10-24 2023-03-31 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023066685A Pending JP2024062345A (ja) 2022-10-24 2023-04-14 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023066683A Pending JP2024062343A (ja) 2022-10-24 2023-04-14 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023066684A Pending JP2024062344A (ja) 2022-10-24 2023-04-14 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023068062A Pending JP2024062347A (ja) 2022-10-24 2023-04-18 情報処理装置、情報処理方法及び情報処理プログラム
JP2023069618A Pending JP2024062348A (ja) 2022-10-24 2023-04-20 情報処理装置

Family Applications After (19)

Application Number Title Priority Date Filing Date
JP2023075259A Pending JP2024062351A (ja) 2022-10-24 2023-04-28 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076261A Pending JP2024062353A (ja) 2022-10-24 2023-05-02 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076253A Pending JP2024062352A (ja) 2022-10-24 2023-05-02 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076944A Pending JP2024062355A (ja) 2022-10-24 2023-05-08 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076943A Pending JP2024062354A (ja) 2022-10-24 2023-05-08 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023078024A Pending JP2024062356A (ja) 2022-10-24 2023-05-10 冷却実行装置、冷却実行方法、及び冷却実行プログラム
JP2023078139A Pending JP2024062357A (ja) 2022-10-24 2023-05-10 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080353A Pending JP2024062358A (ja) 2022-10-24 2023-05-15 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080410A Pending JP2024062360A (ja) 2022-10-24 2023-05-15 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080388A Pending JP2024062359A (ja) 2022-10-24 2023-05-15 冷却実行装置、冷却実行方法、及び冷却実行プログラム
JP2023082445A Pending JP2024062361A (ja) 2022-10-24 2023-05-18 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023084121A Pending JP2024062362A (ja) 2022-10-24 2023-05-22 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023084860A Pending JP2024062363A (ja) 2022-10-24 2023-05-23 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023087263A Pending JP2024062365A (ja) 2022-10-24 2023-05-26 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023088201A Pending JP2024062366A (ja) 2022-10-24 2023-05-29 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023088202A Pending JP2024062367A (ja) 2022-10-24 2023-05-29 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023090418A Pending JP2024062369A (ja) 2022-10-24 2023-05-31 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023093420A Pending JP2024062372A (ja) 2022-10-24 2023-06-06 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023104424A Pending JP2024062374A (ja) 2022-10-24 2023-06-26 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (26) JP2024062342A (ja)

Also Published As

Publication number Publication date
JP2024062347A (ja) 2024-05-09
JP2024062362A (ja) 2024-05-09
JP2024062365A (ja) 2024-05-09
JP2024062361A (ja) 2024-05-09
JP2024062344A (ja) 2024-05-09
JP2024062354A (ja) 2024-05-09
JP2024062374A (ja) 2024-05-09
JP2024062352A (ja) 2024-05-09
JP2024062359A (ja) 2024-05-09
JP2024062363A (ja) 2024-05-09
JP2024062367A (ja) 2024-05-09
JP2024062372A (ja) 2024-05-09
JP2024062345A (ja) 2024-05-09
JP2024062348A (ja) 2024-05-09
JP2024062360A (ja) 2024-05-09
JP2024062353A (ja) 2024-05-09
JP2024062358A (ja) 2024-05-09
JP2024062343A (ja) 2024-05-09
JP2024062356A (ja) 2024-05-09
JP2024062342A (ja) 2024-05-09
JP2024062351A (ja) 2024-05-09
JP2024062357A (ja) 2024-05-09
JP2024062355A (ja) 2024-05-09
JP2024062369A (ja) 2024-05-09
JP2024062366A (ja) 2024-05-09

Similar Documents

Publication Publication Date Title
US20200026282A1 (en) Lane/object detection and tracking perception system for autonomous vehicles
US11195033B2 (en) Multi-modal, multi-technique vehicle signal detection
CN111986128A (zh) 偏心图像融合
JP2024062349A (ja) 情報処理装置
JP2024066383A (ja) 情報処理装置
US11780471B1 (en) System for determining a state of an object using thermal data
JP2024062332A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2024062325A (ja) 情報処理装置及びプログラム