JP2019175423A - 情報処理システムおよび情報処理方法 - Google Patents

情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP2019175423A
JP2019175423A JP2018218862A JP2018218862A JP2019175423A JP 2019175423 A JP2019175423 A JP 2019175423A JP 2018218862 A JP2018218862 A JP 2018218862A JP 2018218862 A JP2018218862 A JP 2018218862A JP 2019175423 A JP2019175423 A JP 2019175423A
Authority
JP
Japan
Prior art keywords
recognition result
recognition
sensor
result
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018218862A
Other languages
English (en)
Other versions
JP7117566B2 (ja
Inventor
育規 石井
Yasunori Ishii
育規 石井
弘章 浦部
Hiroaki Urabe
弘章 浦部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to EP19162724.9A priority Critical patent/EP3547213A1/en
Priority to US16/360,428 priority patent/US11017274B2/en
Priority to CN201910226467.0A priority patent/CN110309845A/zh
Publication of JP2019175423A publication Critical patent/JP2019175423A/ja
Application granted granted Critical
Publication of JP7117566B2 publication Critical patent/JP7117566B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】認識結果のフュージョンによる物体の認識結果の悪化を抑制できる情報処理システムおよび情報処理方法を提供する。【解決手段】第1センサ201からのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部120と、第1センサ201と異なる第2センサ202からのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部130と、第1認識結果および第2認識結果の類似度を判定する第1判定を行う第1判定部140と、第1判定の結果に応じて、第1認識結果および第2認識結果のフュージョン処理を制御するフュージョン制御部160と、第1判定の結果に応じて、第1認識結果と、第2認識結果と、第1認識結果および第2認識結果がフュージョン処理された第3認識結果との少なくとも1つを出力する出力部180と、を備える。【選択図】図3

Description

本開示は、情報処理システムおよび情報処理方法に関する。
特許文献1には、第一のセンサの出力データと、第二のセンサの出力データとを用いてセンサフュージョンにより物体の認識を実行する構成のシステムが開示されている。
特開2017−102838号公報
しかし、従来技術では、センサフュージョンを用いた物体の認識結果が個別のセンサを用いた物体の認識結果よりも悪化する場合があった。本開示は、認識結果のフュージョンによる物体の認識結果の悪化を抑制できる情報処理システムおよび情報処理方法を提供する。
本開示の一態様に係る情報処理システムは、第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部と、前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部と、前記第1認識結果および前記第2認識結果の類似度を判定する第1判定を行う第1判定部と、前記第1判定の結果に応じて、前記第1認識結果および前記第2認識結果のフュージョン処理を制御するフュージョン制御部と、前記第1判定の結果に応じて、前記第1認識結果と、前記第2認識結果と、前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果との少なくとも1つを出力する出力部と、を備える。
また、本開示の一態様に係る情報処理システムは、第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部と、前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部と、前記第1認識結果および前記第2認識結果をフュージョン処理するフュージョン処理部と、前記第1認識結果および前記第2認識結果がフュージョン処理された第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う第2判定部と、前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力する出力部と、を備える。
なお、これらの全般的または具体的な態様は、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示に係る情報処理システムおよび情報処理方法は、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
図1は、実施の形態1に係る情報処理システムの外観図を示す図である。 図2は、実施の形態1に係る情報処理装置を備える情報処理システムのハードウェア構成の一例を示すブロック図である。 図3は、実施の形態1に係る情報処理システムの機能構成の一例を示すブロック図である。 図4は、類似度および認識精度に応じた複数の場合において第3認識結果が精度向上するか否かを示す表である。 図5は、実施の形態1に係る情報処理システムにおける情報処理方法の一例を示すフローチャートである。 図6は、実施の形態2に係る情報処理システムの機能構成の一例を示すブロック図である。 図7は、類似度および認識精度に応じた複数の場合において第3認識結果が性能向上するか否かを示す表である。 図8は、実施の形態2に係る情報処理システムにおける情報処理方法の一例を示すフローチャートである。 図9は、実施の形態3に係る情報処理システムの機能構成の一例を示すブロック図である。 図10は、類似度および認識精度に応じた複数の場合において第3認識結果が性能向上するか否かを示す表である。 図11は、実施の形態3に係る情報処理システムにおける情報処理方法の一例を示すフローチャートである。
(本発明の基礎となった知見)
本発明者は、上述した従来技術に関し、以下の問題が生じることを見出した。
特許文献1に記載の技術のように、第一のセンサの出力データと、第二のセンサの出力データとを用いて物体の認識を実行しても認識の精度が向上しない場合がある。この場合、精度が低い認識結果を出力するおそれがある。
複数種類のセンサのそれぞれから得られたセンサデータに基づく認識結果をフュージョンして利用する場合、複数種類のセンサのうちの第1センサに対応する認識結果が正解からほど遠い場合、つまり、第1センサに対応する認識結果の精度が低い場合、全体の認識結果に悪影響を及ぼすおそれがある。例えば、第1センサのセンシングデータにノイズが多く含まれる場合、大きなノイズが含まれる場合、第1センサが故障している場合などに、第1センサに対応する認識結果に大きな誤差が含まれることとなる。
また、第1センサのセンシングデータが精度のよいセンシングデータであるか否かを判断することは難しい。例えば、センシングデータが画像である場合、夜間において撮像された画像であれば、ザラザラしたノイズが含まれる画像であるのか、ザラザラした材質の物体が撮像された画像であるのかを、当該画像の画素値から区別することは難しい。
このような問題を解決するために、本開示の一態様に係る情報処理システムは、第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部と、前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部と、前記第1認識結果および前記第2認識結果の類似度を判定する第1判定を行う第1判定部と、前記第1判定の結果に応じて、前記第1認識結果および前記第2認識結果のフュージョン処理を制御するフュージョン制御部と、前記第1判定の結果に応じて、前記第1認識結果と、前記第2認識結果と、前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果との少なくとも1つを出力する出力部と、を備える。
これによれば、第1認識結果および第2認識結果の類似度の判定結果に応じて、第1認識結果および第2認識結果のフュージョン処理を制御し、かつ、第1認識結果、第2認識結果、および、フュージョン処理により得られた第3認識結果の少なくとも1つを出力する。このため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、前記第1認識結果および前記第2認識結果は、物体の位置の認識結果であり、前記類似度は、前記物体の位置に関する類似度であってもよい。
これによれば、認識した物体の位置の類似度の判定結果に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力するため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、前記第1認識結果および前記第2認識結果は、物体の属性の認識結果であり、前記類似度は、前記物体の属性の類似度であってもよい。
これによれば、認識した物体の属性の類似度の判定結果に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力するため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、前記第1認識結果および前記第2認識結果は、物体の存在の認識結果であり、前記類似度は、前記物体の数の類似度であってもよい。
これによれば、認識した物体の数の類似度の判定結果に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力するため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、さらに、前記第1認識結果の第1評価値と相関がある第1相関情報と、前記第2認識結果の第2評価値と相関がある第2相関情報とを取得する第3取得部を備え、前記フュージョン制御部は、前記第1判定の結果と、取得された前記第1相関情報および前記第2相関情報と、に応じて、フュージョン処理を制御してもよい。
これによれば、第1相関情報および第2相関情報を取得することで、第1認識結果の第1評価値と第2認識結果の第2評価値とを考慮したフュージョン処理を行うことができる。つまり、第1認識結果および第2認識結果の類似度の判定結果と、第1相関情報および第2相関情報とに応じて、フュージョン処理を制御することで、良好な物体の認識結果を得ることができる。
また、前記第1相関情報および前記第2相関情報のそれぞれは、センシング時の前記第1センサおよび前記第2センサが配置されている空間の環境、センシング時の前記第1センサおよび前記第2センサの状態、並びに前記第1センサおよび前記第2センサの仕様の少なくとも1つであってもよい。
これによれば、センシング時の第1センサおよび第2センサが配置されている空間の環境、センシング時の第1センサおよび第2センサの状態、および第1センサおよび第2センサの仕様の少なくとも1つを取得することで、第1評価値および第2評価値を考慮したフュージョン処理を容易に行うことができる。
また、さらに、前記第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う第2判定部を備え、前記出力部は、前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力してもよい。
これによれば、第1類似度および第2類似度に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力するため、良好な物体の認識結果を得ることができる。
また、前記フュージョン制御部は、前記第1認識結果および前記第2認識結果をフュージョン処理するか否かにより、前記フュージョン処理を制御してもよい。
これによれば、第1判定の結果に応じてフュージョン処理するか否かが制御されるこのため、例えば、第1判定の結果に応じて、フュージョン処理を実行しても認識結果が向上しないと予測される場合に、フュージョン処理をしないことで、認識結果のフュージョンによる物体の認識結果の悪化を確実に防止することができる。
また、前記フュージョン制御部は、フュージョン処理するフュージョン処理部へ前記第1認識結果又は前記第2認識結果を入力するか否かにより、前記第1認識結果及び前記第2認識結果をフュージョン処理するか否かを制御してもよい。
これによれば、第1判定の結果に応じてフュージョン処理部への第1認識結果及び第2認識結果の入力が制御される。このため、フュージョン処理部の動作を直接制御できない場合であってもフュージョン処理するか否かを制御することができる。
また、前記フュージョン制御部は、前記第1認識結果および前記第2認識結果のフュージョン処理のパラメータを調整することにより、前記フュージョン処理を制御してもよい。
これによれば、第1判定の結果に応じてフュージョン処理のパラメータが調整される。このため、例えば、第1判定の結果に応じて、フュージョン処理を実行しても認識結果が向上しないと予測される場合に、フュージョン処理における重みを小さくすることで、フュージョン処理しつつも認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、本開示の一態様に係る情報処理システムは、第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部と、前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部と、前記第1認識結果および前記第2認識結果をフュージョン処理するフュージョン処理部と、前記第1認識結果および前記第2認識結果がフュージョン処理された第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う第2判定部と、前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力する出力部と、を備える。
これによれば、第1類似度および第2類似度に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力するため、より良好な物体の認識結果を得ることができる。
また、さらに、前記第1センサからのセンシングデータおよび前記第2センサからのセンシングデータのそれぞれに基づいて物体の認識処理を実行し、前記第1認識結果および前記第2認識結果を出力する認識部を備えてもよい。
これによれば、第1センサからのセンシングデータおよび第2センサからのセンシングデータを取得すれば、第1認識結果および第2認識結果を得ることができる。
なお、これらの全般的または具体的な態様は、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る情報処理システムおよび情報処理方法について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
以下、図1〜図5を用いて、実施の形態1を説明する。
[1−1.構成]
図1は、実施の形態1に係る情報処理システムの外観図を示す図である。
実施の形態1に係る情報処理システム10は、車両200に配置されているシステムである。情報処理システム10は、図1に示すように、情報処理装置100と、第1センサ201と、第2センサ202とを備える。つまり、車両200には、情報処理装置100と、第1センサ201および第2センサ202とが配置されている。
第1センサ201は、例えば、車両200の前方を撮像する撮像装置である。第1センサ201は、車両200の前方に限らずに、車両200の周囲を撮像すればよく、車両200の左方向、右方向、後方向などを撮像してもよい。第1センサ201により得られたセンシングデータとしての画像は、例えば、車両200の周囲の物体を認識するために利用される。認識された結果は、例えば、車両200の自動運転または運転支援に利用される。
第2センサ202は、車両200の周囲の物体までの距離を検出する距離センサである。第2センサ202により検出された距離を示す距離情報は、例えば、自動運転または自動運転支援における当該車両200の位置の推定に用いられる。
情報処理装置100は、例えば、第1センサ201により得られたセンシングデータと、第2センサ202により得られたセンシングデータとを用いて、それぞれのセンシングデータに対して認識処理を実行する。そして、情報処理装置100は、第1センサ201により得られたセンシングデータに基づく認識結果である第1認識結果と、第2センサ202により得られたセンシングデータに基づく認識結果である第2認識結果とを用いて、より精度が高い認識結果を出力する。
次に、情報処理装置100を備える情報処理システム10のハードウェア構成の具体例について図2を用いて説明する。
図2は、実施の形態1に係る情報処理装置を備える情報処理システムのハードウェア構成の一例を示すブロック図である。
図2に示すように、情報処理システム10は、ハードウェア構成として、情報処理装置100と、第1センサ201と、第2センサ202とを備える。情報処理システム10は、さらに、第3センサ203と、運転制御装置300とを備えていてもよい。
情報処理装置100は、ハードウェア構成として、プロセッサ101と、メインメモリ102と、ストレージ103と、通信IF(Interface)104とを備える。また、情報処理装置100は、例えば、ECU(Electronic Control Unit)であってもよい。
プロセッサ101は、ストレージ103等に記憶された制御プログラムを実行するプロセッサである。
メインメモリ102は、プロセッサ101が制御プログラムを実行するときに使用するワークエリアとして用いられる揮発性の記憶領域である。
ストレージ103は、制御プログラム、コンテンツなどを保持する不揮発性の記憶領域である。
通信IF104は、CAN(Controller Area Network)などの通信ネットワークを介して第1〜第3センサ201〜203および運転制御装置300と通信する通信インタフェースである。なお、通信IF104は、有線通信の通信インタフェースに限らずに無線通信の通信インタフェースであってもよい。また、通信IF104は、第1〜第3センサ201〜203、運転制御装置300などとの通信接続を確立できる通信インタフェースであれば、どのような通信インタフェースであってもよい。また、通信IF104は、インターネットなどの汎用ネットワークまたは専用ネットワークに通信接続可能な通信インタフェースであってもよい。
第1センサ201は、レンズなどの光学系およびイメージセンサを有する撮像装置、つまり、カメラである。第1センサ201は、情報処理装置100と相互に通信可能に接続されている。第1センサ201は、異なる複数のタイミング、例えば、60fpsで、画像を撮像し、撮像した画像をセンシングデータとして出力する。
第2センサ202は、車両200の周囲の物体との距離を検出する距離センサである。第2センサ202は、具体的には、車両200の水平方向において360度全方位、および、垂直方向において所定の角度(例えば30度)の角度範囲の検出範囲にある物体との間の距離を検出する。第2センサ202により検出された距離は、例えば、車両200の周囲の物体を含む地形の3次元形状を生成することに用いられる。第2センサ202は、例えば、LIDAR(Light Detection and Ranging)などのレーザセンサである。第2センサ202は、異なる複数のタイミングでセンシングすることで得られたセンシングデータを出力する。
第3センサ203は、例えば、第1センサ201および第2センサ202が配置されている空間に配置され、当該空間の照度を検出する照度センサである。第3センサ203は、例えば、車両200の車内に配置されてもよいし、車両200の車外に配置されていてもよい。第3センサ203は、異なる複数のタイミングでセンシングすることで得られたセンシングデータを出力する。
運転制御装置300は、車両200の運転を制御する情報処理装置である。運転制御装置300は、例えば、プロセッサ、メインメモリ、ストレージ、通信IFなどを有する。運転制御装置300は、情報処理装置100と共通の構成で実現されてもよい。つまり、運転制御装置300は、プロセッサ101、メインメモリ102、ストレージ103、および通信IF104で実現されていてもよい。また、運転制御装置300は、例えば、ECUで実現されていてもよく、情報処理装置100がECUで実現されている場合、情報処理装置100を実現するECUで実現されていてもよいし、情報処理装置100を実現するECUとは異なるECUで実現されていてもよい。
情報処理システム10は、第1〜第3センサ201〜203の他にも、車両200の3軸方向のそれぞれにおける加速度を検出する加速度センサ、車両200の回転角速度を検出するジャイロセンサなどの各種センサを有していてもよい。また、情報処理システム10は、車両200の現在位置を検出するGNSS(Global Navigation
Satellite System)の受信機を有していてもよい。
運転制御装置300は、車両200の運転を制御する情報処理装置である。具体的には、運転制御装置300は、車輪の操舵を行うステアリング、車輪を回転駆動させるエンジン、モータなどの動力源、車輪の制動するブレーキなどを制御することで、車両200の自動運転または運転支援を行う。運転制御装置300は、例えば、プロセッサ、メインメモリ、ストレージ、通信IFなどを有する。運転制御装置300は、情報処理装置100と共通の構成で実現されてもよい。つまり、運転制御装置300は、プロセッサ101、メインメモリ102、ストレージ103、および通信IF104で実現されていてもよい。また、運転制御装置300は、例えば、ECUで実現されていてもよく、情報処理装置100がECUで実現されている場合、情報処理装置100を実現するECUで実現されていてもよいし、情報処理装置100を実現するECUとは異なるECUで実現されていてもよい。
次に、情報処理システム10の機能構成について図3を用いて説明する。
図3は、実施の形態1に係る情報処理システムの機能構成の一例を示すブロック図である。
情報処理システム10は、第1取得部120と、第2取得部130と、第1判定部140と、フュージョン制御部160と、第2判定部170と、出力部180とを備える。情報処理システム10は、さらに第1センサ201を備えていてもよいし、さらに第2センサ202を備えていてもよいし、さらに第3センサ203を備えていてもよいし、さらに認識部110を備えていてもよいし、第3取得部150を備えていてもよい。なお、ここでは、第1〜第3センサ201〜203の構成の説明は、上述と同様であるので省略する。
認識部110は、第1認識部111および第2認識部112を有する。第1認識部111は、第1センサ201からのセンシングデータに基づいて、物体の認識処理(以下、単に認識処理とも称する。)を実行し、当該認識処理の結果として第1認識結果を出力する。ここで、物体の認識は、物体の存在の認識、物体までの距離の認識、物体の属性の認識、物体の大きさの認識、など物体に関する様々な認識を含む。第1認識部111は、第1センサ201が異なる複数のタイミングでセンシングすることにより得られた複数のセンシングデータを取得し、取得した複数のセンシングデータに基づいて認識処理を行う。第1認識部111は、複数のセンシングデータのそれぞれについて認識処理を行ってもよいし、複数のセンシングデータのうちの2以上のセンシングデータからなる複数の組み合わせのそれぞれについて認識処理を行ってもよい。
第2認識部112は、第2センサ202からのセンシングデータに基づいて、認識処理を実行し、当該認識処理の結果として第2認識結果を出力する。第2認識部112は、第2センサ202が異なる複数のタイミングでセンシングすることにより得られた複数のセンシングデータを取得し、取得した複数のセンシングデータのそれぞれについて認識処理を行ってもよいし、複数のセンシングデータのうちの2以上のセンシングデータからなる複数の組み合わせのそれぞれについて認識処理を行ってもよい。
認識部110により実行される認識処理は、例えば、機械学習モデルを用いた認識処理である。第1認識結果および第2認識結果は、具体的には、物体の認識結果である。また、第1認識結果および第2認識結果は、例えば、物体の位置を認識した結果であってもよいし、物体の属性を認識した結果であってもよいし、物体の数を認識した結果であってもよい。認識部110は、情報処理装置100により実現されていてもよいし、情報処理装置100と通信可能に接続されている情報処理装置100とは異なる情報処理装置により実現されていてもよい。
第1取得部120は、第1認識部111から第1認識結果を取得する。第1取得部120は、例えば、プロセッサ101、メインメモリ102、ストレージ103および通信IF104などにより実現される。
第2取得部130は、第2認識部112から第2認識結果を取得する。第2取得部130は、例えば、プロセッサ101、メインメモリ102、ストレージ103および通信IF104などにより実現される。
第1判定部140は、第1認識結果および第2認識結果の類似度を判定する第1判定を行う。第1判定部140により第1判定の対象となる第1認識結果および第2認識結果は、例えば、第1センサ201および第2センサ202のそれぞれが同一の空間、または、共通する空間を含む空間をセンシングすることにより得られたセンシングデータに基づく認識結果である。つまり、第1判定の対象となる第1認識結果の基になるセンシングデータと、第2認識結果の基になるセンシングデータとは、例えば、互いに同じタイミングで第1センサ201および第2センサ202によりセンシングされたデータである。なお、同じタイミングとは、同じタイミングと見なせるほどの時間差が小さい異なるタイミングであってもよい。第1判定部140は、例えば、プロセッサ101、メインメモリ102およびストレージ103などにより実現される。
なお、車両200が移動していない場合には、第1センサ201および第2センサ202がセンシングする空間は変化しないため、第1判定には、互いに同じタイミングで第1センサ201および第2センサ202により得られた2つのセンシングデータに基づく第1認識結果および第2認識結果が用いられなくてもよい。つまり、この場合の第1判定には、互いに異なるタイミングで第1センサ201および第2センサ202により得られた2つのセンシングデータに基づく第1認識結果および第2認識結果が第1判定に用いられてもよい。
類似度の第1の例は、認識した物体の位置に関する類似度であり、より具体的には、認識した物体の位置の類似度、第1センサ201または第2センサ202から認識した物体までの距離の類似度、認識した物体の位置の単位時間当たりの変化量である。なお、認識した物体の位置の単位時間当たりの変化量は、認識した物体の位置の移動速度である。第1判定部140は、例えば、第1認識結果において認識した物体の位置、および、第2認識結果において認識した物体の位置の平均値または中央値と、認識したそれぞれの位置との差が所定の閾値未満であれば、類似度大と判定し、所定の閾値以上であれば類似度小と判定してもよい。同様に、第1判定部140は、物体までの距離の平均値もしくは中央値と、認識したそれぞれの距離との差、または、単位時間当たりの変化量の平均値もしくは中央値と、認識したそれぞれの変化量との差について、所定の閾値未満であるか否かに応じて、類似度の大小を判定してもよい。
類似度の第2の例は、認識した物体の属性の類似度であり、より具体的には、認識した物体の種類、色、大きさ、形状などである。第1判定部140は、例えば、第1認識結果において認識した物体の種類と、第2認識結果において認識した物体の種類とが、予め定められた分類において、同じ分類に属していれば類似度大と判定し、それぞれが異なる分類に属していれば類似度小と判定してもよい。同様に、第1判定部140は、物体の色、または、物体の形状について、予め定められた分類において、同じ分類に属しているか否かに応じて、類似度の大小を判定してもよい。また、第1判定部140は、物体の色を数値化した指標における数値の平均値もしくは中央値と、認識したそれぞれの色の指標における数値との差、または、大きさの平均値もしくは中央値と、認識したそれぞれの大きさとの差について、所定の閾値未満であるか否かに応じて、類似度の大小を判定してもよい。
類似度の第3の例は、認識した物体の数の類似度である。つまり、認識した物体の数の類似度とは、第1センサ201がセンシングの対象とした空間において認識した物体の数と、第2センサ202がセンシングの対象とした空間において認識した物体の数との類似度である。第1判定部140は、例えば、第1認識結果において認識した物体の数、および、第2認識結果において認識した物体の数の平均値または中央値と、認識したそれぞれの物体の数との差が所定の閾値未満であれば、類似度大と判定し、所定の閾値以上であれば類似度小と判定してもよい。
なお、所定の閾値は、それぞれの類似度に応じて異なる値が設定されていてもよい。
第3取得部150は、第1認識結果の第1評価値と相関がある第1相関情報と、第2認識結果の第2評価値と相関がある第2相関情報とを取得する。第3取得部150は、第3センサ203から第1相関情報および第2相関情報を取得してもよいし、図示しない外部機器から第1相関情報および第2相関情報を取得してもよい。
ここで、第1評価値および第2評価値とは、例えば、正解率、適合率、再現率、F値、誤差、不正解率などである。以下では、第1評価値および第2評価値を含む評価値を認識の精度ともいう。第1相関情報および第2相関情報のそれぞれは、センシング時の第1センサ201および第2センサ202が配置されている空間の環境、センシング時の第1センサ201および第2センサ202の状態、並びに第1センサ201および第2センサ202の仕様の少なくとも1つである。
空間の環境とは、例えば、当該空間の照度に関する。空間の照度は、第3センサ203により検出される照度であってもよいし、外部機器から得られる天候情報に基づいて予測される照度であってもよいし、現在時刻に基づいて予測される照度であってもよい。空間の照度が第1の照度よりも低い場合、第1センサ201の一例であるカメラにより撮像された画像は、カメラのイメージセンサのノイズレベル以下の画素値の画素が多くなるため、当該画像から物体を精度よく認識することが難しくなる。一方で、空間の照度が第1の照度よりも高い第2の照度より高い場合、カメラにより撮像された画像は、カメラのイメージセンサにより撮像可能な最大値を超えた画素値が多くなるため、当該画像から物体を精度よく認識することが難しくなる。このように、空間の照度は、カメラにより得られるセンシングデータである画像を用いた認識処理の評価値と相関関係にある。このため、空間の照度を、第1認識結果の精度が高いか低いかを判定するために用いてもよい。
また、空間の照度は、第2センサ202の一例である距離センサにも影響を与える場合がある。例えば、距離センサに太陽光または太陽光の反射光が入射する場合、つまり、第3の照度よりも高い照度が距離センサの周辺において検出される場合、距離センサにより得られるセンシングデータから物体を精度よく認識することが難しくなる。このため、空間の照度を、第2認識結果の精度が高いか低いかを判定するために用いてもよい。
第1センサ201および第2センサ202の状態とは、それぞれのセンサにおける送信部または受信部の汚れ具合、それぞれのセンサが故障しているか否かの状態などである。ここで、送信部とは、距離センサの場合にはレーザなどの光、電波、音波などを照射または発信する部分である。受信部とは、カメラの場合にはカメラの受光部であり、距離センサの場合には照射または発信した光、電波、音波などの反射波を受信する部分である。第1センサ201および第2センサ202の状態が、送信部または受信部が汚れていることを示す場合、汚れている送信部または受信部に対応するセンサによるセンシングデータから得られた認識結果の精度が低いと推測することができる。
また、図示していないが、第3取得部150は、第1センサ201から第1センサ201によるセンシングデータに基づく値を第1相関情報として取得してもよい。
この場合、例えば、第1相関情報は、カメラにおいて撮像された画像の全画素値の分散である。画像の画素値の分散が第1の分散より大きい場合、ノイズが多い画像であると推測できるため、当該画像から物体を精度よく認識することが難しくなる。一方で、画像の画素値の分散が第1の分散より小さい第2の分散より小さい場合、エッジを検出できない、暗すぎて画素値が小さい、霧、雨を撮像していて画素値が一様になると推測できるため、当該画像から物体を精度よく認識することが難しくなる。このように、画像の画素値の分散は、カメラにより得られるセンシングデータである画像を用いた認識処理の評価値と相関関係にある。このため、画像の画素値の分散を、第1認識結果の精度が高いか低いかを判定するために用いてもよい。
第1センサ201および第2センサ202の仕様とは、第1センサ201および第2センサ202のそれぞれの性能を示す仕様である。
第3取得部150は、例えば、プロセッサ101、メインメモリ102、ストレージ103および通信IF104などにより実現される。
フュージョン制御部160は、第1判定の結果と、取得された第1相関情報および第2相関情報とに応じて、フュージョン処理を制御する。フュージョン制御部160は、具体的には、(1)第1認識結果および第2認識結果をフュージョン処理する、(2)第1認識結果および第2認識結果をフュージョン処理しない、並びに、(3)第1認識結果および第2認識結果のフュージョン処理のパラメータを調整する、のいずれか1つを行うことで、フュージョン処理を制御する。なお、フュージョン処理のパラメータとは、第1認識結果および第2認識結果のフュージョン処理における重みである。
フュージョン制御部160は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の少なくとも1つの精度が高いと推定される場合、第1認識結果および第2認識結果をフュージョン処理する。例えば、フュージョン制御部160は、第1認識結果及び第2認識結果をフュージョン処理モジュールに入力し、出力として第3認識結果を得る。また、フュージョン制御部160は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の精度が低いと推定される場合、第1認識結果および第2認識結果をフュージョン処理しない。例えば、フュージョン制御部160は、第1認識結果及び第2認識結果をフュージョン処理モジュールに入力しない。なお、フュージョン制御部160は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果のうちの1つの精度が低いと推定される場合、精度が低いと推定される認識結果の重みを、精度が高いと推定される認識結果の重みより小さくするフュージョン処理を行ってもよい。
フュージョン制御部160は、第1認識結果および第2認識結果のフュージョン処理を行うことで得られる第3認識結果を出力する。フュージョン制御部160は、例えば、プロセッサ101、メインメモリ102およびストレージ103などにより実現される。なお、フュージョン制御部160は、自身がフュージョン処理を実行してもよく、フュージョン処理を実行するフュージョン処理モジュールにフュージョン処理を実行させてもよい。フュージョン処理モジュールは、フュージョン制御部160が備えてもよく、フュージョン制御部160の外部に備えられてもよい。
ここで、フュージョン制御部160により得られる第3認識結果が第1認識結果または第2認識結果よりも認識精度を向上させる場合がどのような場合であるのかを図4を用いて考える。
図4は、類似度および認識精度に応じた複数の場合において第3認識結果が精度向上するか否かを示す表である。図4は、第1認識結果および第2認識結果の類似度が大きいか小さいか、第1認識結果および第2認識結果のそれぞれと第3認識結果との2つの類似度の両方が大きいか否か、第1認識結果の認識精度が高いか低いか、並びに、第2認識結果の認識精度が高いか低いかに応じて場合分けしている。
図4における認識精度の組み合わせは、第1認識結果の精度、および、第2認識結果の精度の組み合わせを示している。「高・高」は、第1認識結果の精度、および、第2認識結果の精度が共に高い場合を示し、「高・低」は、第1認識結果の精度、および、第2認識結果の精度の一方が高く他方が低い場合を示し、「低・低」は、第1認識結果の精度、および、第2認識結果の精度が判断できない場合を示す。また、図4のおける「類似度大」および「類似度小」は、それぞれ、第1認識結果および第2認識結果の類似度が大である場合、および、当該類似度が小である場合を示す。「類似度大」における「第3認識結果との類似度大」および「第3認識結果との類似度小」は、それぞれ、「類似度大」において、第1認識結果および第2認識結果のそれぞれと第3認識結果との2つの類似度が両方とも大である場合、および、当該2つの類似度の少なくとも1つが小である場合を示す。同様に、「類似度小」における「第3認識結果との類似度大」および「第3認識結果との類似度小」は、それぞれ、「類似度小」において、第1認識結果および第2認識結果のそれぞれと第3認識結果との2つの類似度が両方とも大である場合、および、当該2つの類似度が小である場合を示す。なお、ここでいう2つの類似度は、後述する第1類似度および第2類似度に相当する。
図4に示すように、認識精度の組み合わせが「高・高」である場合には、類似度の大小に関わらず第3認識結果の精度が向上する。例えば、認識精度の組み合わせが「高・高」である場合において、「類似度大」の場合には、第1認識結果および第2認識結果の精度が共に高く、かつ、認識結果の類似度が大きいため、類似する認識結果の精度が互いに高いこととなる。このため、この場合は、互いの認識結果の精度向上に寄与する。また、認識精度の組み合わせが「高・高」である場合において、「類似度小」の場合には、第1認識結果および第2認識結果の精度が共に高く、かつ、認識結果の類似度が小さいため、類似しない、つまり、異なる認識対象の認識結果の精度が互いに高いこととなる。このため、この場合は、互いの認識結果を補完し合う精度向上に寄与する。
反対に、認識精度の組合せが「低・低」である場合には、類似度の大小に関わらず第3認識結果の精度が向上したり低下したりする。これは、認識精度の組み合わせが「低・低」である場合においては、第1認識結果の精度も第2認識結果の精度も低いため、組み合わせても必ずしも精度向上または性能補完には寄与しないからである。
そして、認識精度の組合せが「高・低」である場合には、「類似度大」であれば第3認識結果の精度が向上するが、「類似度小」であれば第3認識結果との類似度の大小に応じて第3認識結果の精度が向上または低下する。具体的には、認識精度の組合せが「高・低」である場合、第1認識結果および第2認識結果の類似度が小であっても、フュージョン処理した結果である第3認識結果との間の類似度が大きければ、フュージョン処理した結果との間にずれが小さいためフュージョン処理が効果的に実行されたと考えられる。このため、この場合は、互いの認識結果を補完し合う性能向上に寄与する。一方で、フュージョン処理した結果である第3認識結果との間の類似度が小さければ、フュージョン処理した結果との間にずれが大きいためフュージョン処理が効果的には実行されていないと考えられる。このため、この場合は、フュージョン処理することで精度低下を引き起こす。
このように、第1認識結果および第2認識結果の認識精度の高低の組み合わせ、第1認識結果および第2認識結果の類似度の大小、並びに、第1認識結果および第2認識結果のそれぞれと第3認識結果との類似度の大小に応じて、フュージョン処理の結果である第3認識結果の精度または精度を向上させる効果がある場合と、精度または性能を低下させる場合とに分類できる。よって、図4に示した場合を考慮することにより、より効果的にフュージョン処理することができ、精度または性能が低い認識結果を出力することを低減することができる。
第2判定部170は、第3認識結果と、第1認識結果および第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う。つまり、第2判定部170は、第2判定において、第3認識結果と第1認識結果との類似度である第1類似度を判定し、かつ、第3認識結果と第2認識結果との類似度である第2類似度を判定する。第2判定部170は、例えば、プロセッサ101、メインメモリ102およびストレージ103などにより実現される。
出力部180は、第2判定の結果に応じて、第1認識結果、第2認識結果、および第3認識結果の少なくとも1つを出力する。また、出力部180は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の精度が高いと推定される場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。
また、出力部180は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果および第2認識結果の類似度が大きい場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。また、出力部180は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果および第2認識結果の類似度が小さく、かつ、第3認識結果と第1認識結果および第2認識結果のそれぞれとの2つの類似度が両方とも大きい場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。また、出力部180は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果および第2認識結果の類似度が小さく、かつ、第3認識結果と第1認識結果および第2認識結果のそれぞれとの2つの類似度の少なくとも一方が小さい場合、第3認識結果を出力しなくてもよい。なお、出力部180は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力する場合、第3認識結果と共に、第1認識結果および第2認識結果のうちの精度が高いと推定される認識結果を出力してもよい。
また、出力部180は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が低いと推定される場合において、第1認識結果および第2認識結果の少なくとも一方を出力してもよい。
出力部180は、例えば、プロセッサ101、メインメモリ102、ストレージ103および通信IF104などにより実現される。
[1−2.動作]
次に、実施の形態1に係る情報処理システム10の動作について説明する。
図5は、実施の形態1に係る情報処理システムにおける情報処理方法の一例を示すフローチャートである。
まず、情報処理システム10では、認識部110の第1認識部111は、第1センサ201からのセンシングデータに基づいて、認識処理を実行し、当該認識処理の結果として第1認識結果を出力する(S11)。
そして、第1取得部120は、第1認識部111から第1認識結果を取得する(S12)。
一方で、認識部110の第2認識部112は、第2センサ202からのセンシングデータに基づいて、認識処理を実行し、当該認識処理の結果として第2認識結果を出力する(S13)。
そして、第2取得部130は、第2認識部112から第2認識結果を取得する(S14)。
ステップS11およびS12と、ステップS13およびS14との一方の処理は、他方の処理を実行しているか否かに関わらずに処理を実行する。
次に、第1判定部140は、第1認識結果および第2認識結果の類似度を判定する第1判定を行う(S15)。
第3取得部150は、第1相関情報および第2相関情報を取得する(S16)。なお、ステップS16は、ステップS17より前に行われればよく、ステップS15の後に行われることに限定されるものではない。
フュージョン制御部160は、第1判定の結果と、第1相関情報および第2相関情報とに応じて、フュージョン処理を制御する(S17)。
第2判定部170は、第3認識結果と、第1認識結果および第2認識結果それぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う(S18)。
出力部180は、第2判定の結果に応じて、第1認識結果、第2認識結果、および第3認識結果の少なくとも1つを出力する(S19)。
[1−3.効果など]
本実施の形態に係る情報処理システム10によれば、第1認識結果および第2認識結果の類似度の判定結果に応じて、第1認識結果および第2認識結果のフュージョン処理を制御し、かつ、第1認識結果、第2認識結果、および、フュージョン処理により得られた第3認識結果の少なくとも1つを出力する。このため、精度が低い認識結果を出力することを低減することができる。
また、情報処理システム10において、第1認識結果および第2認識結果は、物体の認識結果であり、類似度は、物体の位置に関する類似度である。つまり、情報処理システム10は、認識した物体の位置の類似度の判定結果に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力する。このため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、情報処理システム10において、第1認識結果および第2認識結果は、物体の認識結果であり、類似度は、物体の属性の類似度である。つまり、情報処理システム10は、認識した物体の属性の類似度の判定結果に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力する。このため、認識結果による物体の認識結果の悪化を抑制することができる。
また、情報処理システム10において、第1認識結果および第2認識結果は、物体の認識結果であり、類似度は、物体の数の類似度である。つまり、情報処理システム10は、認識した物体の数の類似度の判定結果に応じて、第1認識結果、第2認識結果および第3認識結果の少なくとも1つを出力する。このため、物体の認識結果の悪化を抑制することができる。
また、情報処理システム10は、第1相関情報および第2相関情報を取得することで、第1認識結果の第1評価値と第2認識結果の第2評価値とを考慮したフュージョン処理を行う。つまり、情報処理システム10は、第1認識結果および第2認識結果の類似度の判定結果と、第1相関情報および第2相関情報とに応じて、フュージョン処理を制御することで、良好な物体の認識結果を得ることができる。
また、情報処理システム10は、センシング時の第1センサ201および第2センサ202が配置されている空間の環境、センシング時の第1センサ201および第2センサ202の状態、および第1センサ201および第2センサ202の仕様の少なくとも1つを取得するため、第1評価値および第2評価値を考慮したフュージョン処理を容易に行うことができる。
また、情報処理システム10は、第3認識結果と、第1認識結果および第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行い、第2判定の結果に応じて、第1認識結果、第2認識結果、および第3認識結果の少なくとも1つを出力する。このため、良好な物体の認識結果を得ることができる。
また、情報処理システム10は、フュージョン処理の制御として、フュージョン処理をする、フュージョン処理をしない、およびフュージョン処理のパラメータを調整する、のいずれか1つを実行する。このため、例えば、第1判定の結果に応じて、フュージョン処理を実行しても認識結果が向上しないと予測される場合に、フュージョン処理をしないまたはフュージョン処理のパラメータを調整することで、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
また、情報処理システム10は、第1センサ201からのセンシングデータおよび第2センサ202からのセンシングデータのそれぞれに基づいて認識処理を実行し、第1認識結果および第2認識結果を出力する。このため、情報処理システム10は、第1センサ201からのセンシングデータおよび第2センサ202からのセンシングデータを取得すれば、第1認識結果および第2認識結果を得ることができる。
[1−4.変形例]
[1−4−1.変形例1]
上記実施の形態1において、第1相関情報および第2相関情報を取得することで、第1センサ201によるセンシングデータに基づく第1認識結果の精度と、第2センサ202よるセンシングデータに基づく第2認識結果の精度とを推定するとしたが、これに限らない。例えば、認識部110は、第1センサ201および第2センサ202からのそれぞれから複数の異なるタイミングでセンシングされた複数のセンシングデータを取得し、取得した複数のセンシングデータのそれぞれについて、認識処理を行うため、第1認識結果は複数得られ、第2認識結果は複数得られることになる。このため、認識部110は、現在の第1認識結果と前のタイミングでのセンシングデータに基づく第1認識結果とを比較して得られた差が、所定の閾値よりも大きければ、現在の第1認識結果の認識精度が低いと推定してもよい。同様に、認識部110は、現在の第2認識結果と前のタイミングでのセンシングデータに基づく第2認識結果とを比較して得られた差が、所定の閾値よりも大きければ、現在の第2認識結果の認識精度が低いと推定してもよい。この場合、フュージョン制御部160は、第1認識結果の精度、および、第2認識結果の精度を、認識部110から取得して、取得した第1認識結果の精度、および、第2認識結果の精度に応じてフュージョン処理を制御してもよい。
また、例えば、認識部110は、第2センサ202から得られたセンシングデータに基づいて生成したSLAM(Simultaneous Localization and Mapping)と、予め記憶している、または、予め外部機器から取得したADAS(Advanced driver−assistance systems)マップと比較することで、生成したSLAMがADASマップと形状が大きく異なる場合に、第2認識結果の精度が低いと推定してもよい。
[1−4−2.変形例2]
上記実施の形態1に係る情報処理システム10では、第2判定部170は、フュージョン処理の後に実行されることとしたが、これに限らない。例えば、第2判定部170は、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合であって、第1認識結果および第2認識結果の類似度が小さい場合のみに第2判定を行ってもよい。
(実施の形態2)
次に、実施の形態2を説明する。
図6は、実施の形態2に係る情報処理システムの機能構成の一例を示すブロック図である。
情報処理システム10Aは、実施の形態1に係る情報処理システム10と比較して、第2判定部170を備えていない点、および出力部180aの機能が異なる。情報処理システム10Aのその他の構成は、実施の形態1に係る情報処理システム10と同様であるため説明を省略する。
出力部180aは、第1相関情報および第2相関情報に応じて、第1認識結果、第2認識結果、および第3認識結果の少なくとも1つを出力する。出力部180aは、例えば、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の精度が高いと推定される場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。
また、出力部180aは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果および第2認識結果の類似度が大きい場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。また、出力部180aは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果および第2認識結果の類似度が小さい場合、第3認識結果を出力しなくてもよい。なお、出力部180aは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力する場合、第3認識結果と共に、第1認識結果および第2認識結果のうちの精度が高いと推定される認識結果を出力してもよい。
また、出力部180aは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が低いと推定される場合において、第1認識結果および第2認識結果の少なくとも一方を出力してもよい。
図7は、類似度および認識精度に応じた複数の場合において第3認識結果が性能向上するか否かを示す表である。図7は、第1認識結果および第2認識結果の類似度が大きいか小さいか、第1認識結果の認識精度が高いか低いか、並びに、第2認識結果の認識精度が高いか低いか、に応じて場合分けしている。実施の形態2では、第2判定を行わないため、図7は、図4における第1認識結果および第3認識結果の類似度が大きいか小さいか、第2認識結果および第3認識結果の類似度が大きいか小さいか、が考慮されていない表となる。
よって、図7に示す表の場合、認識精度の組合せが「高・低」である場合には、「類似度大」であれば第3認識結果の性能が向上するが、「類似度小」であれば第3認識結果の性能が低下する。認識精度の組合せが「高・高」である場合、および、「低・低」である場合は、図4の場合と同様であるので説明を省略する。
図8は、実施の形態2に係る情報処理システムにおける情報処理方法の一例を示すフローチャートである。
実施の形態2に係る情報処理方法は、実施の形態1に係る情報処理方法と比較して、ステップS18が行われない点、および、出力するステップS19aが異なるため、ステップS19aについて説明する。
ステップS17が終了すると、出力部180aは、第1相関情報および第2相関情報に応じて、第1認識結果、第2認識結果、および第3認識結果の少なくとも1つを出力する(S19a)。
実施の形態2のように第2判定を行わない場合であっても、情報処理システム10Aは、第1判定の結果、および、第1相関情報および第2相関情報に応じて、出力する認識結果を選択する。具体的には、情報処理システム10Aは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果および第2認識結果の類似度が小さい場合、第3認識結果を出力しない。このため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
(実施の形態3)
次に、実施の形態3を説明する。
図9は、実施の形態3に係る情報処理システムの機能構成の一例を示すブロック図である。
情報処理システム10Bは、実施の形態1の情報処理システム10と比較して、第1判定部140を備えていない点と、フュージョン制御部160bおよび出力部180bの機能とが異なる。情報処理システム10Bのその他の構成は、実施の形態1に係る情報処理システム10と同様であるため説明を省略する。
フュージョン制御部160bは、認識部110から第1認識結果および第2認識結果を取得し、取得した第1認識結果および第2認識結果をフュージョン処理する。つまり、実施の形態2に係るフュージョン制御部160bは、実施の形態1に係るフュージョン制御部160と比較して、第1判定の結果を考慮せずに、第1認識結果および第2認識結果をフュージョン処理する。
出力部180bは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の精度が高いと推定される場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。
また、出力部180bは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第3認識結果と第1認識結果および第2認識結果のそれぞれとの類似度が大きい場合、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力してもよい。一方で、出力部180bは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第3認識結果と第1認識結果および第2認識結果のそれぞれとの類似度が小さい場合、第3認識結果を出力しなくてもよい。なお、出力部180bは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第1認識結果、第2認識結果、および第3認識結果のうち少なくとも第3認識結果を出力する場合、第3認識結果と共に、第1認識結果および第2認識結果のうちの精度が高いと推定される認識結果を出力してもよい。
また、出力部180bは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が低いと推定される場合において、第1認識結果および第2認識結果の少なくとも一方を出力してもよい。
図10は、類似度および認識精度に応じた複数の場合において第3認識結果が性能向上するか否かを示す表である。図10は、第1認識結果および第2認識結果のそれぞれと第3認識結果との2つの類似度が両方とも大きいか否か、第1認識結果の認識精度が高いか低いか、並びに、第2認識結果の認識精度が高いか低いか、に応じて場合分けしている。実施の形態3では、第1判定を行わないため、図10は、図4における第1認識結果および第2認識結果の類似度が大きいか小さいかが考慮されていない表となる。
よって、図10に示す表の場合、認識精度の組合せが「高・低」である場合には、「第3認識結果との類似度大」であれば第3認識結果の性能が向上するが、「第3認識結果との類似度小」であれば第3認識結果の性能が低下する。認識精度の組合せが「高・高」である場合、および、「低・低」である場合は、図4の場合と同様であるので説明を省略する。
図11は、実施の形態3に係る情報処理システムにおける情報処理方法の一例を示すフローチャートである。
実施の形態3に係る情報処理方法は、実施の形態1に係る情報処理方法と比較して、ステップS15が行われない点、および、ステップS17bのフュージョン処理が異なるため、ステップS17bについて説明する。
ステップS16が終了すると、フュージョン制御部160bは、第1認識結果および第2認識結果をフュージョン処理する(S17b)。
そして、ステップS18が行われ、その後、出力部180bは、第2判定の結果に応じて、第1認識結果、第2認識結果、および第3認識結果の少なくとも1つを出力する(S19b)。
実施の形態3のように第1判定を行わない場合であっても、情報処理システム10Bは、第2判定の結果、および、第1相関情報および第2相関情報に応じて、出力する認識結果を選択する。具体的には、情報処理システム10Bは、第1相関情報および第2相関情報に応じて、第1認識結果および第2認識結果の一方の精度が高いと推定される場合において、第3認識結果と第1認識結果および第2認識結果のそれぞれとの第1類似度および第2類似度が小さい場合、第3認識結果を出力しない。このため、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる。
(その他の実施の形態)
上記実施の形態1〜3で説明した情報処理システム10、10A、10Bは、車両200に搭載される情報処理システムとしたが、車両200に搭載されることに限らずに、2以上のセンサからのセンシングデータに基づく2種類以上の認識結果をフュージョン処理する構成のあらゆる情報処理システムに適用することができる。
また、上記実施の形態1〜3で説明した情報処理システム10、10A、10Bは、センシングデータからの認識処理の認識結果を出力すると説明したが、これに限らない。例えば、第3認識結果を出力する、つまり、性能が向上すると判断された第3認識結果を得ることができる場合と、そのときのセンサデータとを対応付けたもの、および、性能が低下すると判断された第3認識結果を得ることができる場合と、そのときのセンサデータとを対応付けたものを学習データとして利用してもよい。
また、例えば、第3認識結果を出力する、つまり、性能が向上すると判断された第3認識結果を得ることができる場合、当該第3認識結果を、アノテーションを付与することに利用してもよい。アノテーションの付与とは、例えば、画像中の認識結果であれば、物体の種類毎に、あるいは特定の種類の物体に、当該画像における当該物体のサイズまたは位置を示す枠などのグラフィックを対応付けることである。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の情報処理方法などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得し、前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得し、前記第1認識結果および前記第2認識結果の類似度を判定する第1判定を行い、前記第1判定の結果に応じて、前記第1認識結果および前記第2認識結果のフュージョン処理を制御し、前記第1判定の結果に応じて、前記第1認識結果と、前記第2認識結果と、前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果との少なくとも1つを出力する情報処理方法を実行させる。
また、このプログラムは、コンピュータに、第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得し、前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得し、前記第1認識結果および前記第2認識結果をフュージョンし、前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行い、前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力する情報処理方法を実行させてもよい。
以上、本発明の一つまたは複数の態様に係る情報処理システムおよび情報処理方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、認識結果のフュージョンによる物体の認識結果の悪化を抑制することができる情報処理システム、情報処理方法などとして有用である。
10、10A、10B 情報処理システム
100 情報処理装置
101 プロセッサ
102 メインメモリ
103 ストレージ
104 通信IF
110 認識部
111 第1認識部
112 第2認識部
120 第1取得部
130 第2取得部
140 第1判定部
150 第3取得部
160、160b フュージョン制御部
170 第2判定部
180、180a、180b 出力部
200 車両
201 第1センサ
202 第2センサ
203 第3センサ
300 運転制御装置

Claims (14)

  1. 第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部と、
    前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部と、
    前記第1認識結果および前記第2認識結果の類似度を判定する第1判定を行う第1判定部と、
    前記第1判定の結果に応じて、前記第1認識結果および前記第2認識結果のフュージョン処理を制御するフュージョン制御部と、
    前記第1判定の結果に応じて、前記第1認識結果と、前記第2認識結果と、前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果との少なくとも1つを出力する出力部と、
    を備える情報処理システム。
  2. 前記第1認識結果および前記第2認識結果は、物体の位置の認識結果であり、
    前記類似度は、前記物体の位置に関する類似度である
    請求項1に記載の情報処理システム。
  3. 前記第1認識結果および前記第2認識結果は、物体の属性の認識結果であり、
    前記類似度は、前記物体の属性の類似度である
    請求項1または2に記載の情報処理システム。
  4. 前記第1認識結果および前記第2認識結果は、物体の存在の認識結果であり、
    前記類似度は、前記物体の数の類似度である
    請求項1から3のいずれか1項に記載の情報処理システム。
  5. さらに、
    前記第1認識結果の第1評価値と相関がある第1相関情報と、前記第2認識結果の第2評価値と相関がある第2相関情報とを取得する第3取得部を備え、
    前記フュージョン制御部は、前記第1判定の結果と、取得された前記第1相関情報および前記第2相関情報と、に応じて、フュージョン処理を制御する
    請求項1から4のいずれか1項に記載の情報処理システム。
  6. 前記第1相関情報および前記第2相関情報のそれぞれは、センシング時の前記第1センサおよび前記第2センサが配置されている空間の環境、センシング時の前記第1センサおよび前記第2センサの状態、並びに前記第1センサおよび前記第2センサの仕様の少なくとも1つである
    請求項5に記載の情報処理システム。
  7. さらに、
    前記第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う第2判定部を備え、
    前記出力部は、前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力する
    請求項1から6のいずれか1項に記載の情報処理システム。
  8. 前記フュージョン制御部は、前記第1認識結果および前記第2認識結果をフュージョン処理するか否かにより、前記フュージョン処理を制御する
    請求項1から7のいずれか1項に記載の情報処理システム。
  9. 前記フュージョン制御部は、フュージョン処理するフュージョン処理部へ前記第1認識結果又は前記第2認識結果を入力するか否かにより、前記第1認識結果及び前記第2認識結果をフュージョン処理するか否かを制御する
    請求項8に記載の情報処理システム。
  10. 前記フュージョン制御部は、前記第1認識結果および前記第2認識結果のフュージョン処理のパラメータを調整することにより、前記フュージョン処理を制御する
    請求項1から7のいずれか1項に記載の情報処理システム。
  11. 第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得する第1取得部と、
    前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得する第2取得部と、
    前記第1認識結果および前記第2認識結果をフュージョン処理するフュージョン処理部と、
    前記第1認識結果および前記第2認識結果がフュージョン処理された第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行う第2判定部と、
    前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力する出力部と、
    を備える情報処理システム。
  12. さらに、
    前記第1センサからのセンシングデータおよび前記第2センサからのセンシングデータのそれぞれに基づいて物体の認識処理を実行し、前記第1認識結果および前記第2認識結果を出力する認識部を備える
    請求項1から8のいずれか1項に記載の情報処理システム。
  13. 第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得し、
    前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得し、
    前記第1認識結果および前記第2認識結果の類似度を判定する第1判定を行い、
    前記第1判定の結果に応じて、前記第1認識結果および前記第2認識結果のフュージョン処理を制御し、
    前記第1判定の結果に応じて、前記第1認識結果と、前記第2認識結果と、前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果との少なくとも1つを出力する
    情報処理方法。
  14. 第1センサからのセンシングデータに基づく物体の認識結果である第1認識結果を取得し、
    前記第1センサと異なる第2センサからのセンシングデータに基づく物体の認識結果である第2認識結果を取得し、
    前記第1認識結果および前記第2認識結果をフュージョンし、
    前記第1認識結果および前記第2認識結果がフュージョンされた第3認識結果と、前記第1認識結果および前記第2認識結果のそれぞれとの類似度である第1類似度および第2類似度を判定する第2判定を行い、
    前記第2判定の結果に応じて、前記第1認識結果、前記第2認識結果、および前記第3認識結果の少なくとも1つを出力する
    情報処理方法。
JP2018218862A 2018-03-27 2018-11-22 情報処理システムおよび情報処理方法 Active JP7117566B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19162724.9A EP3547213A1 (en) 2018-03-27 2019-03-14 Information processing system and information processing method
US16/360,428 US11017274B2 (en) 2018-03-27 2019-03-21 Information processing system and information processing method
CN201910226467.0A CN110309845A (zh) 2018-03-27 2019-03-25 信息处理系统以及信息处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018060087 2018-03-27
JP2018060087 2018-03-27

Publications (2)

Publication Number Publication Date
JP2019175423A true JP2019175423A (ja) 2019-10-10
JP7117566B2 JP7117566B2 (ja) 2022-08-15

Family

ID=68167034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218862A Active JP7117566B2 (ja) 2018-03-27 2018-11-22 情報処理システムおよび情報処理方法

Country Status (1)

Country Link
JP (1) JP7117566B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021215116A1 (ja) * 2020-04-22 2021-10-28 ソニーセミコンダクタソリューションズ株式会社 画像認識装置及び画像認識方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102596310B1 (ko) * 2021-04-14 2023-11-01 한국해양대학교 산학협력단 히팅케이블의 상태 감시 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JP2009019914A (ja) * 2007-07-10 2009-01-29 Toyota Motor Corp 物体検出装置
JP2014006123A (ja) * 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2015224928A (ja) * 2014-05-27 2015-12-14 株式会社デンソー 物標検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JP2009019914A (ja) * 2007-07-10 2009-01-29 Toyota Motor Corp 物体検出装置
JP2014006123A (ja) * 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2015224928A (ja) * 2014-05-27 2015-12-14 株式会社デンソー 物標検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021215116A1 (ja) * 2020-04-22 2021-10-28 ソニーセミコンダクタソリューションズ株式会社 画像認識装置及び画像認識方法

Also Published As

Publication number Publication date
JP7117566B2 (ja) 2022-08-15

Similar Documents

Publication Publication Date Title
US11042723B2 (en) Systems and methods for depth map sampling
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
CN107016705B (zh) 计算机视觉系统中的地平面估计
JP6477882B2 (ja) 自己位置推定装置及び自己位置推定方法
CN110988912A (zh) 自动驾驶车辆的道路目标与距离检测方法、系统、装置
US20110304746A1 (en) Image capturing device, operator monitoring device, method for measuring distance to face, and program
TWI604980B (zh) 載具控制系統及載具控制方法
JP2019175423A (ja) 情報処理システムおよび情報処理方法
JP6462557B2 (ja) 車両ピッチ角推定装置
JP2016042226A (ja) 信号機検出装置及び信号機検出方法
US11017274B2 (en) Information processing system and information processing method
JP2018073275A (ja) 画像認識装置
US20180336695A1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
KR20170106823A (ko) 부분적인 깊이 맵에 기초하여 관심 객체를 식별하는 영상 처리 장치
US20230089616A1 (en) Monocular camera activation for localization based on data from depth sensor
US10536646B2 (en) Imaging control device and imaging control method
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
JP2016139389A (ja) 自律走行制御システムとこれを用いる自律走行装置及び自律走行制御方法と制御プログラムと記録媒体
JP7283268B2 (ja) 情報処理装置及び車載システム
CN113534805A (zh) 机器人回充控制方法、装置和存储介质
EP3879810A1 (en) Imaging device
CN113189601B (zh) 混合型深度估算系统
US11308637B2 (en) Distance detection method, distance detection system and computer program product
US11538252B2 (en) Object recognition device
JPWO2018180104A1 (ja) 判定装置、判定方法並びに判定用プログラム及びデータ構造

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220616

R151 Written notification of patent or utility model registration

Ref document number: 7117566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151