JP7015665B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7015665B2
JP7015665B2 JP2017186131A JP2017186131A JP7015665B2 JP 7015665 B2 JP7015665 B2 JP 7015665B2 JP 2017186131 A JP2017186131 A JP 2017186131A JP 2017186131 A JP2017186131 A JP 2017186131A JP 7015665 B2 JP7015665 B2 JP 7015665B2
Authority
JP
Japan
Prior art keywords
vehicle
sensor
sensing result
moving body
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017186131A
Other languages
English (en)
Other versions
JP2018136917A (ja
Inventor
育規 石井
弘章 浦部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US15/883,468 priority Critical patent/US10569768B2/en
Priority to CN201810105266.0A priority patent/CN108454631B/zh
Priority to EP18156237.2A priority patent/EP3366539B1/en
Publication of JP2018136917A publication Critical patent/JP2018136917A/ja
Application granted granted Critical
Publication of JP7015665B2 publication Critical patent/JP7015665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、センサによる移動体の進路のセンシング結果に基づいて移動体の移動を支援する技術に関する。
自動車は、例えば、各種センサ、各種アクチュエータ、各種電子制御ユニット(ECU:Electronic Control Unit)等の装置を備える。アクチュエータ、車載センサ等と接続された各種ECUは、相互に車載ネットワークで接続されており、各種の情報処理(データ入出力、演算等)を担う。各種ECUは、車載ネットワークによりデータの授受を行って連携することで、例えば自動車等の車両を制御する車両制御装置として機能し、或いは、その制御に必要な情報処理を行う情報処理装置として機能し得る。例えば、複数のECUは、連携することで先進運転者支援システム(ADAS:Advanced Driver Assistance System)の各機能(例えば、駐車支援機能、車線維持支援機能、衝突回避支援機能等)を実現する。例えば、衝突回避支援機能では、車載センサと接続されて進路上の障害物の検知を行うECU、障害物に衝突する可能性を判断して緊急ブレーキの制御指示を出す情報処理装置として働くECU、緊急ブレーキの制御指示に応じてブレーキを制御する車両制御装置として働くECU等が連携する。
先進運転者支援システム等では、車載センサ(例えばレーダー、イメージセンサ等)によるセンシング(観測等)の結果を用いて障害物の検知等を行って車両の走行支援のための機能(衝突回避支援機能等)を作動させるので、例えば車載センサによるセンシングの結果が、低い精度の場合、或いは、誤っている場合には、車両の走行支援を適切に行うことができなくなる。例えば車両の進行方向前方を撮像するイメージセンサにより生成される画像に基づく画像処理によって車両の前方の障害物のサイズ、位置等を検知することで走行支援を行うシステムでは、車両がトンネルに入った直後等に、障害物の検知を適切に行えないことがある。トンネルの外側の明るさに対して、トンネルの内側が極めて暗い状況(例えば晴天の昼間等)において、車両がある程度速い速度でトンネルに入ると、車両に搭載されたイメージセンサは、自動感度調整機能によっても感度の調整が間に合わず、トンネルに入った直後には不明瞭な画像を生成してしまう。これにより障害物の検知が適切に行えなくなる。
従来、自車両と前方障害物との接触を回避する走行安全装置において、自車両がトンネル内への進入直後の所定時間の間は危険回避処置が他のときよりも早期に取られるよう制御ロジックを変更する技術が知られている(特許文献1参照)。これは、トンネルへの車両の進入直後に運転者の視覚が明るさの急変に対応できず運転操作が鈍くなるので、早期に危険回避処置を行う技術である。
特開平6-44499号公報
特許文献1の技術は、障害物への接近に対して早期に対処するものであるが、この技術を用いても、もしも車載センサによるセンシングの精度又は正確性の低下が生じてしまうと、適切に対処できない。
そこで、本開示は、移動体に搭載されたセンサ(例えば車載センサ)によるその移動体の進路のセンシングが適切に行えないような状況においても適切にその移動体の移動(走行)を支援するための情報処理装置を提供する。この移動体の走行を支援する情報処理装置は、例えばその移動体(車両等)に搭載される情報処理装置或いはその移動体とは別の移動体(別の車両等)に搭載される情報処理装置である。また、本開示は、車両等の移動体に搭載されたセンサによるその移動体の進路のセンシングが適切に行えないような状況においてもその移動体の走行に係る制御を適切に行うための情報処理方法、及び、その情報処理を、移動体に搭載されたコンピュータ(例えばECU等の車載コンピュータ)に行わせるためのプログラムを提供する。
上記課題を解決するために本発明の一態様に係る情報処理装置は、移動体に搭載される情報処理装置であって、前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、前記第1情報を出力する出力部とを備える。
また、上記課題を解決するために本発明の一態様に係る情報処理方法は、移動体において前記移動体の移動を支援するための情報処理方法であって、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。
また、上記課題を解決するために本発明の一態様に係るプログラムは、移動体に搭載されるコンピュータに所定情報処理を行わせるためのプログラムであって、所定情報処理は、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。
また、上記課題を解決するために本発明の一態様に係る情報処理装置は、第1移動体に搭載される情報処理装置であって、前記第1移動体における第1センサ又は前記第1移動体の周辺の第2センサから前記第1移動体の外部についてのセンシング結果を取得する取得部と、前記第2移動体の特定の時点の状況が、前記第2移動体に搭載されて前記第2移動体の進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、前記特定の時点の前記第2移動体の状況が前記第1状況でないと判定されることに応じて、前記取得部が取得する前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する通信部とを備える。
本発明によれば、例えば車載センサによる車両の進路のセンシングが適切に行えないような状況においても適切にその車両の走行を支援することができる。
トンネルの出入口付近を走行中の車両等を示す図である。 相互に通信する情報処理装置を搭載した各車両の構成図である。 トンネルに進入する車両に搭載されたイメージセンサにより撮像された画像の例を示す図である。 実施の形態1に係る車両に搭載された情報処理装置によるその車両の走行支援のための情報処理の一例を示すフローチャートである。 実施の形態2に係る車両の走行支援のための情報処理の一例を示すフローチャートである。 実施の形態3に係る車両の走行支援のための情報処理の一例を示すフローチャートである。 車両に搭載された情報処理装置による他の車両の走行支援のための処理の一例を示すフローチャートである。
車両の走行の支援のためには、車両に搭載されたセンサ(車載センサ)によるその車両の進路のセンシング結果に基づいて、車両の走行を支援するための走行支援情報(進路上の障害物、路面状態等に関連した情報等)を生成し、その走行支援情報を、ディスプレイへの表示等により車両のユーザ(運転者)に提示する、或いは、その走行支援情報を制御信号として車両制御装置(エンジン、ブレーキ、ステアリング等を制御するECU等)に送信することが有用となる。しかし、車載センサによる車両の進路のセンシングの精度が低下する状況では、進路上の障害物(例えば歩行者、他の車両、落石、車両からの落下物その他の物品等)、路面状態(例えば凹凸、水たまり、凍結部分)、進路上での火災等の検知が適切に行えず、適切に車両の走行支援を行うことができない。例えば、車両の前方等の進路を撮像するイメージセンサ(カメラ)が生成する画像に基づく画像処理により障害物等の検知を行う先進運転者支援システムを備える車両が、時速60kmで晴天の昼間等においてトンネルへと進入する際には、トンネルに入った直後に急に暗くなることから、イメージセンサの感度調整が遅れて一時的に画質の悪い画像を生成してしまう。その車両がトンネルから出た直後にも、明るさが急に明るくなることから、イメージセンサは、また一時的に画質の悪い画像を生成してしまう。そこで、トンネルの出入り口付近の通過時等といった、車載センサによるセンシング結果の質が低下する際に、車両外部からセンシング結果を受信して車両の走行支援に用いる制御方法等である情報処理方法に想到した。
本発明の一態様に係る情報処理装置等では、その方法により、車両の進路をセンシングする車載センサから所定基準を満たすセンシング結果が取得される状況(正常状況)か否かを判定し、正常状況でない場合には、車外(例えば対向車、先行車、路側機等)から、その車両の進路についてのセンシング結果を受信して走行支援に利用する。これにより、トンネルの出入り口等の車載センサのセンシング結果の質が低下する際に、不適切な走行支援情報の生成によって事故が生じる可能性を低減し得る。なお、ここでは主として車両の走行支援について説明するが、車載センサによるセンシング結果の質が低下する際に、車両外部からセンシング結果を受信して車両の走行支援に用いる情報処理方法は、車両以外の移動体(例えば、移動するロボット等)にも応用可能である。
本発明の一態様に係る情報処理装置は、移動体に搭載される情報処理装置であって、前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、前記第1情報を出力する出力部とを備える。所定条件は、センシング結果が、実際のセンシングの対象の状態を適切に表した情報となっているか否かを区別する基準であり、適切であれば満たされ、適切でなければ満たされないように定めればよい。判定部による判定は、取得部が取得したセンシング結果に基づいて(例えば移動体が車両の場合において車載イメージセンサによるセンシング結果としての画像の解析等により)なされてもよいし、他の方法(例えば明るさの急変によりイメージセンサのセンシング精度が一時的に低下するトンネルの出入り口付近を車両が通過することを測位情報、地図情報等に基づいて検知する等)によって推定的になされてもよい。これにより、第1状況、すなわち正常状況においては、車載センサ等のセンサのセンシング結果が適切であるのでそのセンシング結果を用いて適切な移動支援が行え、第1状況でない場合、すなわち正常状況でない場合には、外部からのセンシング結果を、センサのセンシング結果の代わりとして或いは優先して用いること等によって、適切な移動支援が行える。
また、前記センサは、イメージセンサを含み、前記センシング結果は、画像情報を含んでいてもよい。
また、前記第1状況の判定は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動するかを判定することを含んでもよい。例えば、前記2領域間を前記移動体が移動するかを判定することは、前記移動体の位置の測定結果と、前記2領域の所在位置を示す位置情報とに基づいて、前記移動体が前記2領域の境界に接近しているかを判定することを含んでもよい。
これにより、移動体がトンネルの出入り口付近等の明るさの差が大きな部分を走行しているか否かを、位置を用いて比較的容易に判定できるので、情報処理装置は、その判定の結果に応じて、第1情報の生成の基礎とすべき情報(センシング結果)を適切に選択できる。
あるいは、前記2領域間を前記移動体が移動するかを判定することは、前記イメージセンサから取得される画像情報の示す画像に前記2領域の境界が映っているかを判定することを含んでもよい。
これにより、移動体が2領域の境界を移動することを、既存の構成であるイメージセンサを用いて判定することができる。したがって、コストの増加を抑制することができる。また、各領域内の明るさの差異が所定程度以上に大きな連続した2領域間を移動体が移動する際(例えば移動体がトンネルの内外領域間を移動する際)に、移動体の情報処理装置は、センサのセンシングが一時的に適切に行えなくても外部装置から受信したセンシング結果に基づいて第1情報の生成を行うので、適切な移動支援が可能となる。つまり、情報処理装置は、移動体の状況が第1の状況でなくても、外部装置のセンシング結果に基づいて第1情報の生成を行うため、適切な移動支援が可能となる。
また、例えば、前記第1状況の判定は、前記イメージセンサから前記所定条件を満たすセンシング結果が取得されたか否かを判定することを含むこととしてもよい。これにより、イメージセンサによる実際のセンシング結果に基づいて判定するので、第1情報の生成のために外部装置から受信した情報を用いるべきか否かを適切に区別できる。
また、例えば、前記第1状況の判定は、前記イメージセンサによるセンシング結果として生成された画像の画素値についての統計処理の結果と閾値との比較を含むこととしてもよい。これにより、移動体に搭載されたイメージセンサで撮像された画像が、移動体の進路上の障害物等を検出するために十分な質(精度等)を有するか否かを区別できる。
また、例えば、前記所定条件は、前記イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、当該所定範囲を超える場合に満たされることとしてもよい。これにより、例えば、十分な分解能を有する画像が撮像で得られないような場合には前記移動体の状況が第1状況ではないとして、第1状況とは異なるようにして(例えば外部装置から受信したセンシング結果に基づいて)、第1情報の生成を行うこととなる。このため、状況に応じて適切な移動支援が可能となる。
また、例えば、前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果に基づかずに前記第1情報を生成することとしてもよい。これにより、特定の時点の移動体の状況が第1状況(例えば正常状況)であればセンサのセンシング結果に基づいて移動体の移動支援がなされ、その状況が第1状況でなければセンサのセンシング結果が第1情報の生成に用いられないので、第1状況でない場合のセンサのセンシング結果に基づく進路上の障害物、路面状態等の誤検知、検知漏れ等による弊害の発生が防止される。
また、例えば、前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果にも基づいて、前記センサからの当該センシング結果が前記第1情報に与える影響を、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合より抑制することとしてもよい。これにより、特定の時点の移動体の状況が第1状況(例えば正常状況)でない場合に、センサのセンシング結果と外部装置から受信したセンシング結果とを併用して第1情報の生成をするときにおいて、進路上の障害物、路面状態等の誤検知、検知漏れ等といった弊害の発生が低減され得る。
また、例えば、前記通信部は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動する前又は移動中に、前記外部装置に前記移動体の進路についてのセンシング結果の送信要求を送信することとしてもよい。これにより、情報処理装置が必要に応じて外部装置にセンシング結果の送信の契機を与えることができる。このため、外部装置では、常時センシング結果の送信を繰り返す必要がなく、主体的に送信すべきタイミングを決定するための構成を備えなくてもよい。
また、本発明の一態様に係る情報処理方法は、移動体において前記移動体の移動を支援するための情報処理方法であって、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。これにより、センサのセンシング結果が所定条件を満たす第1状況、すなわち適切である状況では、そのセンシング結果を用い、所定条件を満たさない状況、すなわち適切でない状況では、外部から受信したセンシング結果を用いることで、適切に移動体の移動支援を行うことが可能となる。
また、本発明の一態様に係るプログラムは、移動体に搭載されるコンピュータに所定情報処理を行わせるためのプログラムであって、所定情報処理は、前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含む。このプログラムを、移動体に搭載されたコンピュータ等(プロセッサを備える装置)にインストールすることにより、そのプロセッサ(マイクロプロセッサ)がプログラムを実行することで、移動体への適切な移動支援が実現される。
また、本発明の一態様に係る情報処理装置は、第1移動体に搭載される情報処理装置であって、前記第1移動体における第1センサ又は前記第1移動体の周辺の第2センサから前記第1移動体の外部についてのセンシング結果を取得する取得部と、前記第2移動体の特定の時点の状況が、前記第2移動体に搭載されて前記第2移動体の進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、前記特定の時点の前記第2移動体の状況が前記第1状況でないと判定されることに応じて、前記取得部によって前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する通信部とを備える。これにより、第2移動体に搭載された第3センサでのセンシングが適切に行えない状況、すなわち第3センサのセンシング結果が所定条件を満たさない第1状況において、第2移動体(第2移動体の情報処理装置等)は、第1移動体からセンシング結果を受信し得るので、受信したセンシング結果を利用することで適切に第2移動体の移動支援を行うことが可能となる。
また、例えば、前記取得部は、前記第1センサ又は前記第2センサから前記第2移動体の進路についてのセンシング結果を取得し、前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、各領域内の明るさの差異が所定程度以上である連続した2領域を前記第2移動体が移動するかを判定することを含み、前記通信部は、前記第1移動体が前記2領域の境界に接近したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信することとしてもよい。これにより、第2移動体は、要求しなくても必要時に第1移動体からセンシング結果を受信できるようになる。
また、例えば、前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、前記通信部が前記第2移動体からセンシング結果の送信要求を受信したかを判定することを含み、前記通信部は、前記第2移動体から前記送信要求を受信したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信することとしてもよい。これにより、第1移動体の情報処理装置は、効率的に第2移動体の走行を支援することが可能となる。
なお、これらの全般的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態に係る情報処理方法を用いる情報処理装置等について、図面を参照しながら説明する。ここで示す実施の形態は、いずれも本発明の一具体例を示すものである。従って、以下の実施の形態で示される数値、構成要素、構成要素の配置及び接続形態、並びに、ステップ(工程)及びステップの順序等は、一例であって本発明を限定するものではない。以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
(実施の形態1)
以下、本発明の実施の一態様として、車両に搭載され、先進運転者支援システムを構成する情報処理装置等について図面を用いて説明する。
[1.1 車両の走行による状況変化]
まず、車両が走行により正常状況(車載センサから所定基準を満たすセンシング結果が取得される状況)から正常状況でない状況へ変化する例について図1を用いて説明する。図1は、トンネルの天井を透視して上から見た模式図であり、トンネルの出入り口付近を走行中の車両等を示す。なお、上述の所定基準は所定条件ともいい、正常状況は、センサから取得されるセンシング結果が所定条件を満たす第1状況である。
図1では、車両1Aが、トンネル10の外部を走行し、トンネル10へと進入しようとして出入り口に接近している。晴天の昼間を想定すると、トンネル10の外部は明るく、トンネル10の内部は暗い。トンネル10内には、対向車である車両1Bが、車両1Aと逆方向に走行している。また、車両1Aの前方のトンネル10内には故障等で停止した車両(例えばトレーラー)等といった障害物11が存在する。車両1Aは、先進運転者支援システムを備え、車載センサであるイメージセンサ(カメラ)を用いて車両の進路を撮像して得られた画像に基づく画像処理によって進路上の障害物、路面状態等を検知し、その検知結果に応じた走行支援情報を生成する。走行支援情報は、車両の制御、ユーザ(運転者)への報知等に用いられる。車両1Aのイメージセンサでは、車両1Aがトンネル10の外部を走行している場合においては通常感度で撮像が行われ、車両1Aがトンネル10の内部等といった暗い場所を走行している場合においては自動感度調整機能により高感度で撮像が行われる。なお、上述の走行支援情報は、車両などの移動体の移動を制御するための情報であって、移動支援情報または第1情報ともいう。
車両1Aがトンネル10に進入した直後は、車両1Aのイメージセンサの自動感度調整機能の調整が遅延し、イメージセンサが生成する画像は、一時的に、例えば各画素の輝度が非常に低い等といった画質の悪い画像となり得る。画質の悪い画像に基づくと進路上の障害物等を適切に検知できない可能性がある。図1の例の場合では、車両1Aの車速がある程度速いと、トンネル10へと進入した直後の明るさの急激な変化によって車両1Aのイメージセンサのセンシング結果に基づく障害物11の検知が遅れてしまい、事故が発生しかねない。しかし、車両1A及び車両1Bは、車車間通信機能を備え、車両1Aは、車両1Bとの通信等によりこの事故の発生を未然に防ぐ機能を有している。
[1.2 車両のシステム構成]
以下、車両1A及び車両1Bの構成について、主として車両1Aの走行支援(車両1Aの進路についてのセンシング等)に関連する構成に着目して説明する。
図2は、相互に通信する情報処理装置を搭載した車両1A及び車両1Bの構成を示す。
同図に示すように、車両1Aは、情報処理装置100Aと車載センサ200Aと車両制御装置210とを備える。
車載センサ200Aは、車両1Aの進路をセンシングする1つ又は複数のセンサであり、センサの数はいくつでもよい。進路のセンシングには、例えば、イメージセンサ、レーダー、ライダー(LIDAR)等が用いられる。ここでは、一例として車載センサ200Aが、イメージセンサ(カメラ)を含むものとして説明する。車載センサ200Aは、車両1Aの進路(例えば前方)をセンシング(イメージセンサでは撮像して画像を生成)することでセンシング結果(画像等)を情報処理装置100Aに伝達する。
情報処理装置100Aは、1台の電子制御ユニット(ECU)又は車載ネットワーク(バス等)で接続された複数台のECUで構成され、車載センサ200Aから得たセンシング結果等に基づいて走行支援情報を生成して出力する機能を有する。
車両制御装置210は、1台又は複数台のECU(例えば車両のエンジン、ブレーキ、ステアリング等を制御するECU)で構成され、情報処理装置100Aから制御信号を伝えられると、制御信号に応じて、一部のECUに接続されたアクチュエータを駆動すること等により車両を制御する。
ECUは、例えば、プロセッサ(マイクロプロセッサ)、メモリ等のデジタル回路、アナログ回路、通信回路、入出力インタフェース等を含む装置である。メモリは、ROM、RAM等であり、プロセッサにより実行されるプログラム(ソフトウェアとしてのコンピュータプログラム)を記憶することができる。例えばプロセッサが、プログラム(コンピュータプログラム)に従って動作することにより、ECUは、情報処理装置100A或いは車両制御装置210としての機能等といった各種機能を実現することになる。なお、コンピュータプログラムは、所定の機能を達成するために、プロセッサに対する指令を示す命令コードが複数個組み合わされて構成されたものである。ECUは、バス等の車載ネットワークを介して同一車両内の他のECUと情報の授受を行い得る。情報処理装置100Aを構成する一部のECUは、車両1Aの車外の装置(外部装置)と通信する機能(車車間通信機能、路車間通信機能等)を有する。また、情報処理装置100Aを構成する一部のECUは、ディスプレイ等といったユーザに情報を提示する装置を備える。
情報処理装置100Aは、走行支援情報を生成して出力する機能を実現するための構成として、図2に示すように、取得部110Aと、通信部120Aと、判定部130と、生成部140と、出力部150とを備える。
取得部110Aは、ECUにおける、車載センサ200Aからセンシング結果を受け取る入力インタフェース、プログラムを実行するプロセッサ等で実現され、車載センサ200Aからセンシング結果を取得する。取得部110Aが取得するセンシング結果には、イメージセンサにより生成された画像が含まれる。取得部110Aが取得した画像に基づいて画像処理を行うことで、車両1Aの進路上の障害物、路面状態等の検知が可能となり得る。
通信部120Aは、ECUにおけるプログラムを実行するプロセッサ、通信回路等で実現され、車両1Aの外部の外部装置と通信して、車両1Aの進路についてのセンシング結果を受信する。例えば、通信部120Aは、車両1Aの周囲に所在する外部装置に対して近距離無線通信技術等によりセンシング結果(車両1Aの進路についてのセンシング結果)の送信要求を送信し、この送信要求を受けて外部装置(例えば車両1Aの対向車である車両1Bの情報処理装置100B)から送信されるセンシング結果を受信する。送信要求には、例えば、車両1Aの識別情報と、車両1Aの位置情報(例えば車載センサ200Aにおける車両位置の測定用の測位センサ等が生成した情報)等が含まれる。測位センサは、例えばGPS(Global Positioning System)受信機、ジャイロセンサ等である。通信部120Aは、各領域内の明るさの差異が所定程度以上に大きな連続した2領域間を車両1Aが移動する際(例えばトンネル10の外部の領域からトンネル10の内部の領域へと明暗の境界を越えて進入する際)に、車両1Aの近くに所在する外部装置に対して送信要求を送信する。外部装置は、移動する装置(例えば対向車である車両1Bの情報処理装置100B、同じ方向に進む先行車の車載装置)でもよいし、移動しない装置(例えば明暗の境界付近に設置された路側機等)でもよいが、ここでは、車両1Bの情報処理装置100Bが送信要求を受信した場合に車両1Bの前方であって車両1Aの進路についてのセンシング結果を車両1Aの情報処理装置100Aに送信するものとして説明する。なお、車両1Aの先行車等、車両1B、車両1Bの後続車その他周囲の車両(つまり車両の車載装置)は、車両1Aからの送信要求を他の車両に転送してもよく、転送された送信要求を受けた車両が、車両1Aの進路についてのセンシング結果を車両1Aに、直接、或いは転送機能を有する他車両を介して間接的に、送信してもよい。通信部120Aによる送信要求の送信は、明るさの差異が大きな領域間の境界を超える前後に亘る期間内に行われることが有用である。ここでは、例えば、車両1Aがトンネル10の出入り口等の明暗の境界を越えた直後に送信する例を用いて説明するが、例えば、車両1Aがトンネル10の出入り口を通過する直前(例えば通過の数秒前、数十秒前等)であってもよい。このように、本実施の形態では、通信部120Aは、各領域内の明るさの差異が所定程度以上である連続した2領域間を車両1Aが移動する前又は移動中に、外部装置に車両1Aの進路についてのセンシング結果の送信要求を送信する。
判定部130は、ECUにおけるプログラムを実行するプロセッサ等で実現され、車両1Aの状況が、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況であるか否かを、判定する。言い換えれば、判定部130は、特定の時点の車両1Aの状況が、センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する。判定部130は、例えば、各領域内の明るさの差異が所定程度以上に大きな連続した2領域間の境界を車両1Aが超えて領域間を移動する際に、車両1Aが正常状況にないと判定し得る。つまり、第1状況の判定は、各領域内の明るさの差異が所定程度以上である連続した2領域間を車両1Aが移動するかを判定することを含む。所定基準は、センシング結果が、実際のセンシング対象の状態を適切に表した情報となっているか否かを区別する基準であり、適切であれば満たされ、適切でなければ満たされない。所定基準は、例えば正確性、精度、信頼性等の評価基準等であり、その評価手法はいかなるものでもよい。ここでは、一例として、車載センサ200Aとしてのイメージセンサのセンシング結果である画像の各画素の輝度分布が全体的に明る過ぎる(例えば表現可能な輝度範囲を0から100%とした場合に全画素の輝度が90%以上である)又は暗過ぎる(例えば表現可能な輝度範囲を0から100%とした場合に例えば全画素の輝度が10%以下である)場合に所定基準を満たさず、その他の場合に所定基準を満たすものとする。
判定部130は、取得部110Aが実際に取得した車載センサ200A(例えばイメージセンサ)からのセンシング結果(例えば画像)に基づいて、例えば画像解析等によって正常状況であるか否かを判定することとしてもよいし、他の方法(車両1Aがトンネル10の出入り口に接近しているか否かの検知等)によって推定的に正常状況であるか否かを判定することとしてもよい。ここでは、判定部130が、取得部110Aが取得した、イメージセンサが生成した画像を解析することで、所定基準を満たすセンシング結果(画像)が取得されたか否かに基づいて、正常状況であるか否かの判定を行うものとして説明を続ける。例えば、判定部130は、取得部110Aがイメージセンサから取得した画像の各画素値についての統計処理の結果と閾値との比較によって、所定基準を満たすセンシング結果が取得されたか否かを区別する。一例として所定基準は、イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、その所定範囲を超える場合に満たされる。より具体的な一例として、所定基準は、イメージセンサにより生成される画像の略全て(例えば95%以上、或いは、90%程度以上等)の画素の画素値としての輝度値が、所定狭範囲(輝度値を0~255で表すときに0~20、或いは、235~255といった狭い範囲)に収まる場合に満たされず、その所定狭範囲を超えて広く分布している場合に満たされる。この場合において、その略全ての画素の輝度値がいずれも20以下や、いずれも250以上であれば所定基準は満たされない。なお、例えば輝度値を0~255で表す場合において、統計処理として、各画素についての画素値(輝度値)の平均値の算出、中央値の算出等を行って、その算出結果が、20以下或いは250以上であれば所定基準が満たされず、それ以外であれば所定基準が満たされる等と規定してもよい。イメージセンサは、自動感度調整機能を有するが、明暗の変化への追随が遅れる等によって、明る過ぎる又は暗過ぎるという画像の画質の低下が一時的に生じ得る。そこで、判定部130では、例えば画素値と閾値との比較等によって画像について所定基準が満たされたか否かを判定することで、車両1Aが正常状況か否かを判定する。
このように、本実施の形態では、第1状況の判定は、イメージセンサから所定条件を満たすセンシング結果が取得されたか否かを判定することを含む。具体的には、第1状況の判定は、イメージセンサによるセンシング結果として生成された画像の画素値についての統計処理の結果と閾値との比較を含む。また、所定条件は、イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、その所定範囲を超える場合に満たされる。
生成部140は、ECUにおけるプログラムを実行するプロセッサ等で実現され、車両1Aが正常状況にあると判定部130が判定した場合には車載センサ200Aから取得部110Aを介して取得したセンシング結果に基づいて走行支援情報を生成し、車両1Aが正常状況にないと判定部130が判定した場合にはその車載センサ200Aから取得したセンシング結果に基づかずに、外部装置(例えば車両1Bの情報処理装置100B)から受信したセンシング結果に基づいて走行支援情報を生成する。具体例としては、車両1Aが、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況にない場合、例えばトンネル10に進入した直後等には、車載センサ200Aによるセンシング結果としての画像の精度が低いので走行支援情報の生成にそのセンシング結果を利用せずに、送信要求に応じて車両1B等から送信されるセンシング結果を受信して利用する。これにより車載センサ200Aのセンシング結果の精度が低い場合においても、車両1Aの進路上の障害物、路面状態等の誤検知、検知漏れ等が防止され得る。なお、生成部140は、車両1Aが正常状況にある場合には、走行支援情報の生成に、外部装置から受信したセンシング結果を利用してもよいし、しなくてもよい。車両1Aが正常状況にある場合において、外部装置から受信したセンシング結果を利用するときには、車載センサ200Aでのセンシング結果が所定基準を満たす限り車載センサ200Aでのセンシング結果を優先して利用することが有用である。
このように、本実施の形態では、生成部140は、特定の時点の車両1Aの状況が第1状況であると判定部130が判定した場合にはセンサから取得したセンシング結果に基づいて、車両1Aの移動を制御するための第1情報を生成し、特定の時点の車両1Aの状況が第1状況でないと判定部130が判定した場合には外部装置から受信したセンシング結果に基づいて第1情報を生成する。
出力部150は、ECUにおける出力インタフェース等により実現され、生成部140により生成された走行支援情報を情報処理装置100Aから出力する。例えば、出力部150は、ディスプレイ等のユーザインタフェース装置を介して走行支援情報(例えば進路上の障害物までの距離、障害物の種類等の情報)を出力することで、ユーザに情報を提示(表示等)する。また、例えば、出力部150は、車両制御装置210に対して、その走行支援情報を制御信号として伝達(つまり送信)することで、車両制御装置210に車両1Aの走行に係る制御(エンジン、ブレーキ、ステアリング等の制御)を行わせる。
また、図2に示すように、車両1Bは、情報処理装置100Bと車載センサ200Bとを備える。ここでは、車両1Aの走行支援に着目しているので、車両1Bにおいて車両制御装置等を省略しているが、車両1Bは、上述した車両1Aと同様の構成を備えるものであってもよく、逆に車両1Aも、この車両1Bと同様の構成を備えることとしてもよい。
車両1Bの車載センサ200Bは、例えば車両1Bの外部(前方等)であって対向車(車両1A)の進路まで包含する範囲についてセンシングするセンサ(例えばイメージセンサ、レーダー、ライダー等)である。車載センサ200Bは、車両1Aの進路をセンシングすることでセンシング結果を情報処理装置100Bに伝達する。
情報処理装置100Bは、車両1B内の1台の電子制御ユニット(ECU)又は車載ネットワーク(バス等)で接続された複数台のECUで構成され、機能面において取得部110B及び通信部120Bを有する。なお、情報処理装置100Bは、上述した情報処理装置100Aと同様の構成を包含するものであってもよいし、逆に情報処理装置100Aも、この情報処理装置100Bと同様の構成を備えることとしてもよい。
取得部110Bは、ECUにおける入力インタフェース等により実現され、車載センサ200Bから得たセンシング結果を取得する。
通信部120Bは、ECUにおける通信回路、プログラムを実行するプロセッサ等により実現され、車両1Bから所定近距離範囲内(例えば数十m以内等)を走行する他の車両(ここでは車両1A)において進路のセンシングが適切に行えなくなる状況が発生する際に、車載センサ200Bからのセンシング結果を当該他の車両(車両1A)に送信する。具体的には、通信部120Bは、車両1Aから送信要求を受信した際を、車両1Aにおいて進路のセンシングが適切に行えなくなる状況が発生する際であるとして、取得部110Bにより取得された車載センサ200Bからのセンシング結果の車両1Aへの送信を行う。
[1.3 車両1Aの車載センサ200Aが撮像する画像の例]
図3は、トンネル10に進入する車両1Aのイメージセンサ(車載センサ200A)により撮像された画像の例を示す。図3の(a)、(b)、(c)は、車両1Aのイメージセンサによりこの順に撮像された画像の例である。なお、これら3つの各画像間の時間にもイメージセンサは繰り返し画像を撮像している。
図3の(a)は、トンネル10の外部から出入り口に車両1Aが近付いている際に車載センサ200Aが撮像した画像(つまり撮像により生成された画像)を示す。晴天の昼間等においてトンネル10の外部に対して内部は極めて暗く、トンネル10の外部から撮像した画像では内部の様子を十分に表せない。図3の(b)は、車両1Aがトンネル10の出入り口を通過して内部へ入った直後に車載センサ200Aが撮像した画像を示す。トンネル10内に入った直後では、イメージセンサの自動感度調整が明るさの急激な変化のために遅れ、このため撮像した画像の各画素の輝度値が極めて低い、暗い画像が生成される。この画像からは画像解析によって車両1Aの進路上の障害物等を適切に検知することが困難となる。図3の(c)は、車両1Aがトンネル10の出入り口を通過して内部へ入って十数秒等が経過した際に撮像された画像を示す。この画像では、感度が適切に調整されており、画像解析により車両1Aの進路上の障害物等(例えば故障車両等)を適切に検知でき、障害物等の位置、サイズ等の検知が可能となる。なお、画像からの障害物等の検知に、いかなる画像解析技術を用いてもよい。
車載センサ200Aにより図3の(b)の画像が生成されるような場合には、この画像に基づいて車両1Aの走行の支援のための走行支援情報を生成することが適切ではない。そのため、このような場合には、車両1Aの情報処理装置100Aは、その画像の各画素の輝度値等に基づいて、車両1Aが、所定基準を満たす画像が取得される正常状況にないと判定して、車両1B等に車両1Aの進路についてのセンシング結果の送信要求を送信し、例えば車両1Bからセンシング結果を受信して、走行支援情報の生成のために用いる。これにより、情報処理装置100Aは、図3の(b)のような画像が撮像される時間においても適切に車両1Aの走行支援を行うことができる。
[1.4 情報処理装置100Aの動作]
図4は、情報処理装置100Aによる車両1Aの走行支援のための情報処理の一例を示すフローチャートである。以下、車両1Aが晴天の昼間にトンネル10に進入する場合(図1参照)を例として、図4に即して、情報処理装置100Aの動作について説明する。
車両1Aの情報処理装置100Aは、取得部110Aにより、車両1Aの進路をセンシングする車載センサ200A(イメージセンサ等)からセンシング結果(画像等)を取得する(ステップS11)。
次に、情報処理装置100Aは、判定部130により、車載センサ200Aから所定基準を満たすセンシング結果としての画像(例えば暗過ぎなく明る過ぎない適切な画像)が取得される正常状況であるか否かを判定する(ステップS12)。
車両1Aがトンネル10に到達する前は、或いはトンネル10の出入り口を通過して十分な時間(例えば十数秒等)が経過した後は、車載センサ200Aから所定基準を満たす画像(適切な画像)が得られ、車両1Aは正常状況にあると判定される。
ステップS12で正常状況であると判定した場合には、情報処理装置100Aは、生成部140により、取得部110Aが取得した車載センサ200Aからのセンシング結果としての画像に基づいて画像処理により障害物等を検知し、その検知結果に基づいて走行支援情報を生成する(ステップS13)。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力(例えば、車両制御装置210へ送出、ディスプレイに表示等)して(ステップS14)、ステップS11での処理に戻る。
車両1Aがトンネル10の出入り口を通過して明るい領域から暗い領域へと入った直後には、車載センサ200Aから所定基準を満たす画像が得られず、車両1Aは正常状況にないと判定される。
ステップS12で正常状況でないと判定した場合には、情報処理装置100Aは、通信部120Aにより、外部装置(例えば対向車である車両1Bの情報処理装置100B)に車両1Aの進路についてのセンシング結果の送信要求を送信する(ステップS15)。車両1Bでは、情報処理装置100Bが送信要求に対応して車載センサ200Bにより取得したセンシング結果を送信するので、通信部120Aは、車両1Bから送信されるセンシング結果を受信する(ステップS16)。次に、生成部140が、車両1B(情報処理装置100B)から受信したセンシング結果に基づいて、車両1Aの進路上の障害物等の検知を行ってその検知結果等を示す走行支援情報を生成する(ステップS17)。つまり、生成部140は、特定の時点の車両1Aの状況が第1状況でないと判定部130が判定した場合には、センサから取得したセンシング結果に基づかずに第1情報を生成する。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力して(ステップS14)、ステップS11での処理に戻る。
このように、情報処理装置100Aは、車両1Aが、正常状況(車載センサ200Aから所定基準を満たすセンシング結果としての画像が取得される状況)にない場合、つまり車載センサ200Aによるセンシング結果の精度が極めて低下する場合においても、外部装置からセンシング結果を受信することで適切に走行支援情報を生成することができる。
(実施の形態2)
以下、上述した実施の形態1に係る情報処理装置100Aの動作を一部変形した実施の形態について説明する。
[2.1 車両のシステム構成]
本実施の形態では、情報処理装置100Aを搭載する車両1A、及び、車両1Aの近くを走行する車両1Bのシステム構成は、実施の形態1で示したもの(図2参照)と概ね同様であるので、各車両の構成等について図2で示す符号を用い、説明を適宜省略する。即ち、車両1A及び車両1Bの構成は、ここで特に示さない点については、実施の形態1と同様である。
実施の形態1では、情報処理装置100Aが、車載センサ200Aに含まれるイメージセンサが撮像した画像の各画素の輝度に基づいて、車両1Aが、所定基準を満たすセンシング結果が取得できる正常状況にあるか否かを、判定して、正常状況にない場合に外部装置にセンシング結果の送信要求を送信する例を示した。これに対して、本実施の形態では、イメージセンサが撮像した画像の各画素の輝度に基づく判定を行うより前に、情報処理装置100Aが、別の方法で、所定基準を満たすセンシング結果が取得困難な状況であるか否かを判定し、その困難な状況であれば外部装置にセンシング結果の送信要求を送信する。
[2.2 情報処理装置100Aの動作]
図5は、本実施の形態における情報処理装置100Aによる車両1Aの走行支援のための情報処理の一例を示すフローチャートである。以下、車両1Aが晴天の昼間にトンネル10に進入する場合(図1参照)を例として、図5に即して、情報処理装置100Aの動作について説明する。
車両1Aの情報処理装置100Aは、取得部110Aにより、車両1Aの進路をセンシングする車載センサ200A(イメージセンサ等)からセンシング結果(画像等)を取得する(ステップS21)。
情報処理装置100Aは、車載センサ200Aから所定基準を満たすセンシング結果としての画像の取得が困難な状況(例えば車両1Aが、明るさの大きく異なる連続した2領域の境界付近を走行している状況)か否かを判定する(ステップS22)。具体的には、情報処理装置100Aは、例えば、トンネル10の出入り口付近を車両1Aが走行している状況を、車載センサ200Aから所定基準を満たす画像の取得が困難な状況であると判定する。トンネル10の出入り口付近を車両1Aが走行しているか否かは、例えば、予め定められたトンネル10の出入り口の画像の特徴(図3の(a)に示すようなトンネルの外部から見たトンネルの出入り口の外観に係る特徴等)とイメージセンサにより生成された画像から抽出された特徴等とを比較する画像処理等によって判別可能である。また、トンネル10の出入り口に設置された路側機が近距離無線通信技術によって発信するビーコン等を受信できるか否かによって判別してもよい。また、測位センサによる車両1Aの位置の測定結果と、トンネル10の出入り口の所在位置を示す位置情報(地図情報)とを比較することによって判別してもよい。つまり、上述の2領域間を車両1Aが移動するかを判定することは、車両1Aの位置の測定結果と、その2領域の所在位置を示す位置情報とに基づいて、車両1Aがその2領域の境界に接近しているかを判定することを含む。これらにより、後述するステップS25で、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況でないと判定した場合に必要となる、外部装置から受信されたセンシング結果が得られることになる。
なお、上述の2領域間を車両1Aが移動するかを判定することは、イメージセンサから取得される画像情報の示す画像に2領域の境界が映っているかを判定することを含んでもよい。例えば、情報処理装置100Aは、画像にトンネルが映っていれば、2領域間を車両1Aが移動すると判定し、トンネルが映っていなければ、2領域間を車両1Aが移動しないと判定する。これにより、車両1Aが2領域の境界を移動することを、既存の構成であるイメージセンサを用いて判定することができる。したがって、コストの増加を抑制することができる。
ステップS22で、車載センサ200Aから所定基準を満たす画像の取得が困難な状況であると判定した場合には、情報処理装置100Aは、通信部120Aにより、外部装置(例えば車両1Bの情報処理装置100B)に、車両1Aの進路についてのセンシング結果の送信要求を、送信する(ステップS23)。そして通信部120Aは、車両1Bから送信されるセンシング結果を受信する(ステップS24)。情報処理装置100Aは、ステップS22で、車載センサ200Aから所定基準を満たす画像の取得が困難な状況でないと判定した場合(例えばトンネル10に向かって走行中の車両1Aがまだトンネル10の出入口付近まで到達していない場合等)には、ステップS23、S24での処理をスキップする。
情報処理装置100Aは、判定部130により、車載センサ200Aから所定基準を満たすセンシング結果としての画像(例えば暗過ぎなく明る過ぎない適切な画像)が取得される正常状況であるか否かを判定する(ステップS25)。この判定は、実施の形態1で示したステップS12での判定と同様である。但し、ステップS25では、情報処理装置100Aは、車両1Aのイメージセンサにより撮像された画像の輝度が明る過ぎる或いは暗過ぎる等を判別することなく、上述のステップS22での判定と同様の方法で、正常状況であるか否かの判定を行うこととしてもよい。即ち、情報処理装置100Aは、所定基準を満たす画像の取得が困難な状況であると判定した場合に正常状況でない見做し、その困難な状況でないと判定した場合には正常状況であると見做すことにより、ステップS25での正常状況であるか否かの判定を行ってもよい。
ステップS25での判定の結果として、車両1Aが正常状況にある場合には、情報処理装置100Aは、生成部140により、車載センサ200Aから得られた画像に基づいて走行支援情報を生成して(ステップS26)、出力部150により、その走行支援情報を出力する(ステップS27)。また、車両1Aが正常状況にない場合には、情報処理装置100Aは、ステップS24で外部装置(例えば車両1Bの情報処理装置100B)から受信したセンシング結果に基づいて、生成部140により走行支援情報を生成して(ステップS28)、出力部150により走行支援情報を出力する(ステップS27)。また、情報処理装置100Aは、ステップS27での出力の後に、ステップS21での処理に戻る。
このように、情報処理装置100Aは、車両1Aが、明るさの差異が大きな領域の間を移動する際等(つまり車載センサ200Aから所定基準を満たすセンシング結果としての画像の取得が困難となると推定される状況)において、外部装置(車両1B等の車両或いは路側機等)に車両1Aの進路についてのセンシング結果の送信要求を送信しておき、外部装置からセンシング結果を受信する。これにより、車載センサ200Aから所定基準を満たすセンシング結果としての画像が取得されなくなっても、情報処理装置100Aは、受信したセンシング結果を用いて適切に走行支援情報を生成することができる。また、外部装置にとっては、送信要求を待つことで、必要時にのみセンシング結果を送信することが可能となり、不要な通信を抑制し得る。
(実施の形態3)
以下、上述した実施の形態1に係る情報処理装置100Aの動作を一部変形した、また別の実施の形態について説明する。
[3.1 車両のシステム構成]
本実施の形態でも、情報処理装置100Aを搭載する車両1A、及び、車両1Aの近くを走行する車両1Bのシステム構成は、実施の形態1で示したもの(図2参照)と概ね同様であるので、各車両の構成等について図2で示す符号を用い、説明を適宜省略する。即ち、車両1A及び車両1Bの構成は、ここで特に示さない点については、実施の形態1と同様である。
実施の形態1では、情報処理装置100Aが、車載センサ200Aに含まれるイメージセンサが撮像した画像の各画素の輝度に基づいて、車両1Aが、所定基準を満たすセンシング結果が取得できる正常状況にあるか否かを、判定して、正常状況にない場合に外部装置にセンシング結果の送信要求を送信する例を示した。これに対して、本実施の形態では、外部装置がセンシング結果を自発的に送信し、情報処理装置100Aは送信要求の送信を行わずに、外部装置からセンシング結果を受信する。
[3.2 情報処理装置100Aの動作]
図6は、本実施の形態における情報処理装置100Aによる車両1Aの走行支援のための情報処理の一例を示すフローチャートである。以下、車両1Aが晴天の昼間にトンネル10に進入する場合(図1参照)を例として、図6に即して、情報処理装置100Aの動作について説明する。
車両1Aの情報処理装置100Aは、取得部110Aにより、車両1Aの進路をセンシングする車載センサ200A(イメージセンサ等)からセンシング結果(画像等)を取得する(ステップS31)。
また、情報処理装置100Aは、通信部120Aにより、近距離無線通信技術によって外部装置(車両、路側機等の装置)から、車両1Aの進路についてのセンシング結果が送信されている場合にそのセンシング結果を受信する(ステップS32)。ここでは、外部装置は、トンネル10の出入り口付近においてセンシングして得られたセンシング結果を送信するものとする。外部装置の1つとしての車両1Bの情報処理装置100Bによるセンシング結果の送信については図7を用いて後述する。なお、外部装置は、送信するセンシング結果には、そのセンシングした位置等の付加情報を付して送信してもよい。
次に、情報処理装置100Aは、判定部130により、車載センサ200Aから所定基準を満たすセンシング結果としての画像(例えば暗過ぎなく明る過ぎない適切な画像)が取得される正常状況であるか否かを判定する(ステップS33)。
車両1Aがトンネル10に到達する前は、或いはトンネル10の出入り口を通過して十分な時間(例えば十数秒等)が経過した後は、車載センサ200Aから所定基準を満たす画像(適切な画像)が得られ、車両1Aは正常状況にあると判定される。
ステップS33で正常状況であると判定した場合には、情報処理装置100Aは、生成部140により、取得部110Aが取得した車載センサ200Aからのセンシング結果としての画像に基づいて画像処理により障害物等を検知し、その検知結果に基づいて走行支援情報を生成する(ステップS34)。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力(例えば、車両制御装置210へ送出、ディスプレイに表示等)して(ステップS35)、ステップS31での処理に戻る。
車両1Aがトンネル10の出入り口を通過して明るい領域から暗い領域へと入った直後には、車載センサ200Aから所定基準を満たす画像が得られず、車両1Aは正常状況にないと判定される。
ステップS33で正常状況でないと判定した場合には、情報処理装置100Aは、ステップS32で通信部120Aが受信した外部装置(例えば対向車である車両1Bの情報処理装置100B)からの車両1Aの進路についてのセンシング結果に基づいて、車両1Aの進路上の障害物等の検知を行ってその検知結果等を示す走行支援情報を生成する(ステップS36)。続いて、情報処理装置100Aは、生成された走行支援情報を出力部150により出力して(ステップS35)、ステップS31での処理に戻る。
なお、トンネル10に向かって走行中の車両1Aがまだトンネル10の出入口付近まで到達していない場合には、情報処理装置100Aは、ステップS32でのセンシング結果の受信に失敗してもよい。この場合において、イメージセンサ等の車載センサ200Aによるセンシング結果としての画像等が適切に取得できるはずであり、ステップS34に進み、車両1Aの走行支援のためにその車載センサ200Aからの適切な画像(つまり所定基準を満たすセンシング結果)に基づいて走行支援情報を適切に生成できるからである。車両1Aにとっては、車載センサ200Aから所定基準を満たすセンシング結果(例えばイメージセンサで撮像される画像)が得られる限りにおいて優先的に車載センサ200Aからのセンシング結果(画像等)に基づいて走行支援情報を生成することが有用となる。
[3.3 情報処理装置100Bの動作等]
以下、車両1Aの対向車(図1参照)となる車両1Bの情報処理装置100Bについて説明する。
車両1Bの情報処理装置100Bの通信部120Bは、近距離(例えば数十m等の所定近距離範囲内)を走行する他の車両(例えば車両1A)において進路のセンシングが適切に行えなくなる状況が発生する際に、車載センサ200Bからのセンシング結果の、他の車両への送信を行う。実施の形態1では、通信部120Bは、車両1A(つまり車両1Aの情報処理装置100A)から送信要求を受信した際を、車両1Aにおいて進路のセンシングが適切に行えなくなる状況が発生する際であるとして、取得部110Bにより取得された車載センサ200Bからのセンシング結果の車両1Aへの送信を行うこととした。しかし、本実施の形態では、車両1Bの通信部120Bは、各領域内の明るさの差異が所定程度以上に大きな連続した2領域に接近した際(ここでは一例としてトンネル10の出入り口付近に接近した際)を、車両1Aにおいて進路のセンシングが適切に行えなくなる状況が発生する際であるとして、車載センサ200Bからのセンシング結果を送信する。なお、センシング結果は、車両1Bの周辺または車両1Aの進路上に異常が発生した場合にのみ送信されるとしてもよい。例えば、車両1Bの通信部120Bは、車両1Bの周辺または車両1Aの進路上において事故、崩落または渋滞が発生した場合にのみ、センシング結果を送信する。また、センシングの有無が当該異常の発生に応じて制御されてもよい。
情報処理装置100Bが、トンネル10内を走行中の車両1Bがトンネル10の出入り口付近に接近したか否かを判定する方法としていかなる方法を用いてもよい。車両1Bがトンネル10の出入り口付近に接近したか否かは、例えば、予め定められたトンネル10の出入り口の画像の特徴(トンネルの内部から見たトンネルの出入り口に係る特徴等)とイメージセンサにより生成された画像から抽出された特徴等とを比較する画像処理等によって判別可能である。また、情報処理装置100Bは、車両1Bがトンネル10の出入り口付近に接近したか否かを、トンネル10の出入り口に設置された路側機が近距離無線通信技術によって発信するビーコン等を受信できるか否かによって判別してもよい。また、車両1Bの位置の測定結果と、トンネル10の出入り口の所在位置を示す位置情報(地図情報)とを比較することによって判別してもよい。
図7は、車両1Bの情報処理装置100Bによる他の車両の走行支援のための処理の一例を示すフローチャートである。以下、トンネル10内を走行中の車両1Bがトンネル10の出入り口付近に近づいた場合(図1参照)を例として、図7に即して、情報処理装置100Bの動作について説明する。
車両1Bの情報処理装置100Bは、近距離を走行する車両が進路のセンシングを適切に行えなくなる状況であるかを繰り返し判定する(ステップS41)。例えば、トンネル10の出入り口付近では、明るさの大きく異なる領域間の境界が生じ、その境界を通過した車両のイメージセンサでは、その通過直後において適切な画像(明る過ぎなく暗過ぎない画像)が一時的に生成できないことがある。このため、一例としては、情報処理装置100Bは、トンネル10内を走行中の車両1Bがトンネル10の出入り口付近に接近した際に、車両1Bから近距離の車両(例えば車両1A)が進路のセンシングを適切に行えなくなる状況であると判定する。
ステップS41で、近距離を走行する車両(例えば車両1A)が進路のセンシングを適切に行えなくなる状況であると判定した場合に、情報処理装置100Bは、取得部110Bにより、車載センサ200Bからその近距離の車両(例えば車両1A)の進路を包含する範囲のセンシング結果を取得する(ステップS42)。
続いて、情報処理装置100Bは、通信部120Bにより、ステップS42で取得したセンシング結果をその近距離の車両に、近距離無線通信技術によって送信する(ステップS43)。
このように、本実施の形態では、情報処理装置100Bは、車両1Bにおける第1センサ又は車両1Bの周辺の第2センサから車両1Bの外部についてのセンシング結果を取得する取得部110Bと、車両1Aの特定の時点の状況が、車両1Aに搭載されて車両1Aの進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、特定の時点の車両1Aの状況が第1状況でないと判定されることに応じて、取得部110Bによって第1センサ又は第2センサから取得されるセンシング結果を送信する通信部120Bとを備える。具体的には、取得部110Bは、第1センサ又は第2センサから車両1Bの進路についてのセンシング結果を取得し、特定の時点の車両1Aの状況が第1状況であるかの判定は、各領域内の明るさの差異が所定程度以上である連続した2領域を車両1Aが移動するかを判定することを含み、通信部120Bは、車両1Bが2領域の境界に接近したことに応じて第1センサ又は第2センサから取得されるセンシング結果を送信する。なお、車両1Aの状況が第1状況であるかの判定は、通信部120Bが車両1Aからセンシング結果の送信要求を受信したかを判定することを含み、通信部120Bは、車両1Aから送信要求を受信したことに応じて第1センサ又は第2センサから取得されるセンシング結果を送信してもよい。
これにより、トンネル10の内部を走行する車両1Bがトンネル10の出入り口に接近した際に、車両1Bでセンシングした結果(センシング結果)が車両1Bから送信され、このセンシング結果を、トンネル10の外部からトンネル10の内部へと移動しているところの車両1Aが受信することになる。このため、車両1Aの情報処理装置100Aにおいて、図6で示したステップS32でのセンシング結果の受信が可能となり、車両1Aがトンネル10の内部に入った直後においても適切な走行支援が実現される。
(変形例等)
以上のように、本発明に係る技術の例示として実施の形態1~3を説明した。しかしながら、本発明に係る技術は、これに限定されず、適宜、変更、置き換え、付加、省略等を行った実施の形態にも適用可能である。例えば、以下のような変形例も本発明の一実施態様に含まれる。
(1)上記実施の形態では、情報処理装置100Aは、車両1Aが、正常状況(車載センサ200Aから所定基準を満たすセンシング結果としての画像が取得される状況)であるか否かの判定を、車載センサ200Aにおけるイメージセンサが生成した画像の各輝度値に基づいて行う例を示した。また、その判定を、トンネルの出入り口付近に接近したか否かに基づいて推定的に行う例を示した。これは、イメージセンサが生成した画像の精度(例えば被写体の解像度等)が、明るさの急な変化により低下することに、対処するための一例である。しかし、明るさの急な変化が生じ得る状況は、トンネルの出入り口の付近を走行する場合には限られない。即ち、車両1Aは、トンネル10、地下駐車場或いは屋内駐車場等の出入り口を通過する場合(トンネル10等に入る場合及びトンネル10等から出る場合)、或いは、夜間に暗い領域から照明で照らされた明るい領域に進入するような場合、或いは、夜間に急に照明(例えば対向車の前照灯)で照らされるような場合等においても、車両1Aは、正常状況でない状況となる。従って、情報処理装置100Aは、正常状況であるか否かの判定を、地下駐車場或いは屋内駐車場の出入り口に接近したか否か等に基づいて行ってもよい。また、同様に、実施の形態3で示した車両1Bは、車載センサ200Bによるセンシング結果を、他の車両が正常状況でないと推定される場合において他の車両に送信すればよく、地下駐車場等の出入り口に接近した際、夜間に他の車両である対向車に対して前照灯で強い光(ハイビーム)を照射した際等において、そのセンシング結果の送信を行うこととしてもよい。また、車両1Bが黒い車体等の暗所で視認されにくい車体を有するのであれば、車両1Bが暗い場所を走行中に車両1Bが自車両の所在位置等を含むセンシング結果の、近距離の車両への送信を行い、車両1Bが白い車体等の光を反射し易い車体を有するのであれば、車両1Bが明るい場所を走行中に車両1Bが自車両の所在位置等を含むセンシング結果の、近距離の車両への送信を行うこととしてもよい。これにより、周囲を走行中の対向車等である車両1Aから車両1Bが観測しにくい場合において、車両1Aの情報処理装置100Aは、車両1Bから送信されるセンシング結果に基づいて車両1Bと衝突しないように適切に車両1Aの走行を支援することが可能となる。
(2)上記実施の形態では、情報処理装置100Aの生成部140は、車両1Aが正常状況にないと判定部130が判定した場合には、車載センサ200Aからのセンシング結果としての画像に基づかずに外部装置から受信したセンシング結果に基づいて走行支援情報を生成することとした。しかし、車両1Aが正常状況にない場合においても、車載センサ200Aからのセンシング結果としての画像と外部装置から受信したセンシング結果との両方に基づいて走行支援情報を生成することとしてもよい。但し、この正常状況にない場合においては、車載センサ200Aから取得したセンシング結果が走行支援情報に与える影響を、車両1Aが正常状況にあると判定部130が判定した場合より抑制して、走行支援情報の生成を行うことが有用である。具体例としては、情報処理装置100Aは、正常状況においては車載センサ200Aからのセンシング結果(画像)を100%利用する或いは外部装置から受信したセンシング結果と併用するが両方のセンシング結果が相反するとき等において車載センサ200Aのセンシング結果の方を優先して利用し、正常状況でない状況下では、外部装置から受信したセンシング結果と車載センサ200Aのセンシング結果とを例えば加重平均で車載センサの方を低く重み付けて利用し、或いは、両方の結果が相反する場合に外部装置から受信したセンシング結果を優先して利用することとしてもよい。このように、生成部140は、特定の時点の車両1Aの状況が第1状況でないと判定部130が判定した場合には、センサから取得したセンシング結果にも基づいて、センサからのセンシング結果が第1情報に与える影響を、特定の時点の車両1Aの状況が第1状況であると判定部130が判定した場合より抑制してもよい。
(3)上記実施の形態では、車両1Aに搭載される情報処理装置100Aが、車両1Aに搭載されたセンサによるセンシング結果が適切でない場合に外部装置から受信したセンシング結果に基づいて車両1Aの走行を支援する例、或いは、車両1Bに搭載される情報処理装置100Bが、車両1Bに搭載されたセンサによるセンシングを車両1Aに送信することで車両1Aの走行を支援する例等を示した。しかし、このような情報処理装置は、車両以外の移動体(例えば移動するロボット等)に搭載される装置であってもよい。例えば一の移動体に搭載される情報処理装置100Aは、その移動体に搭載されたセンサ(移動体搭載センサ)から所定基準を満たすセンシング結果(例えばイメージセンサが撮像した画像)が取得される正常状況においては、そのセンシング結果に基づいてその移動体の移動(走行等)を支援する移動支援情報(走行支援情報等)を生成し、その正常状況でない状況においては、外部装置から受信したセンシング結果に基づいてその移動体の移動(走行等)を支援する移動支援情報(走行支援情報等)を生成することとしてもよい。また、例えば第1移動体に搭載される情報処理装置100Bが、その第1移動体における移動体搭載センサによるセンシング結果(或いはその第1移動体の周辺の路側機等から取得したその路側機等のセンサによるセンシング結果)を、近距離を走行する第2移動体において進路のセンシングが適切に行えなくなる状況が発生する際に、その第2移動体に送信することとしてもよい。第2移動体への送信は、宛先を特定しない情報の送信(所謂ブロードキャスト)であってもよい。即ち、上記実施の形態で示した車両1Bを、車両以外の移動体(第1移動体)としてもよく、また、車両1Aを、車両以外の移動体(第2移動体)としてもよい。
(4)上記実施の形態で示した各種処理の手順(例えば図4~図7に示した処理手順等)の実行順序は、必ずしも、上述した通りの順序に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えたり、複数の手順を並列に行ったり、その手順の一部を省略したりすることができる。また、情報処理装置100A、100Bは、外部のサーバ装置等と通信することによって、車両等に係る情報処理方法の一部の処理(例えば図4~図7における一部のステップ等)をそのサーバ装置等に分担させてもよい。また、車両1Bと同様に路側機が車両1Aの進路についてのセンシング結果を送信する場合において、外部のサーバ装置等を経由して車両1Aにセンシング結果を送信することとしてもよい。
(5)上記実施の形態では、情報処理装置100Aは、車両1Aが、正常状況(車載センサ200Aから所定基準を満たすセンシング結果が取得される状況)にあるか否かを判定する例として、イメージセンサが撮像により生成した画像の各画素の画素値に基づく判定、或いは、明るさの差の大きな領域間の境界(例えばトンネル10の出入り口等)の付近か否かによる判定等の例を示した。これは、車載センサ200Aとしてのイメージセンサが撮像により生成する画像の精度が、急に明るさの変化する際に一時的に低下する点に着目した例である。しかし、同様に車載センサ200Aとしてのイメージセンサのセンシング結果の精度が低下する例としては、車両1Aの進路に霧、豪雨が発生している場合等が挙げられる。霧、豪雨等の場合に対応するために、情報処理装置100Aを、例えば、イメージセンサが撮像により生成した画像の解析により、被写体の解像度が低く、ぼけた状態である場合には、車両1Aが正常状況にないと判定し、その他の場合に正常状況にあると判定するように、構成してもよい。また、車載センサ200Aとしてイメージセンサ以外のセンサ(例えばレーダー、ライダー等)によるセンシング(観測)の精度が低下するような場合を、所定基準を満たさないと規定してもよい。即ち、車両1Aの走行環境によって車載センサ200Aによるセンシングの精度が低下する際に、情報処理装置100Aは、車両1Aが正常状況にないと判定して、外部装置からセンシング(観測)による情報(センシング結果)を受信して、その受信したセンシング結果に基づいて車両1Aの走行支援のための走行支援情報を生成することとしてもよい。
(6)上記実施の形態における情報処理装置100A、100Bは、メモリ、プロセッサ等を含むECUを備え、メモリに記憶されたプログラム(ソフトウェア)を実行するプロセッサ等によって各種機能を実現する例を示したが、ソフトウェアを用いずに、専用のハードウェア(デジタル回路等)によりその機能を実現することとしてもよい。
(7)上記実施の形態における各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとして
もよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記録されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。また、上記各装置を構成する構成要素の各部は、個別に1チップ化されていてもよいし、一部又は全部を含むように1チップ化されてもよい。また、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や
、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
(8)上記各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(9)本発明の一態様としては、例えば図4~図7等に示す処理手順の全部又は一部を含む情報処理方法であるとしてもよい。例えば、情報処理方法は、車両1A(移動体)において走行に係る制御を行うための方法として、車両1Aの進路をセンシングする車載センサ200A(移動体搭載センサ)からセンシング結果を取得する取得ステップ(例えばステップS11等)と、車両1Aの外部の外部装置から車両1Aの進路についてのセンシング結果を受信する受信ステップ(例えばステップS16等)と、車両1Aの状況が、車載センサ200Aから所定基準を満たすセンシング結果が取得される正常状況である場合には車載センサ200Aから取得したセンシング結果に基づいて車両1Aの走行の制御に用いる走行支援情報を生成し、車両1Aが正常状況にない場合にはその外部装置から受信したセンシング結果に基づいて走行支援情報を生成する生成ステップ(例えばステップS12、S13、S17等)とを含む。また、本発明の一態様としては、この情報処理方法に係る処理(所定情報処理)をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。また、本発明の一態様としては、前記コンピュータプログラム又は前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリ等に記録したものとしてもよい。また、これらの記
録媒体に記録されている前記デジタル信号であるとしてもよい。また、本発明の一態様としては、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。また、本発明の一態様としては、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記録しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。また、前記プログラム若しくは前記デジタル信号を前記記録媒体に記録して移送することにより、又は、前記プログラム若しくは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(10)上記実施の形態及び上記変形例で示した各構成要素及び機能を任意に組み合わせることで実現される形態も本発明の範囲に含まれる。
本発明は、車両等の移動体の走行を支援するために利用可能である。
1A、1B 車両
10 トンネル
11 障害物
100A、100B 情報処理装置
110A、110B 取得部
120A、120B 通信部
130 判定部
140 生成部
150 出力部
200A、200B 車載センサ
210 車両制御装置

Claims (14)

  1. 移動体に搭載される情報処理装置であって、
    前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、
    前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、
    特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、
    前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、
    前記第1情報を出力する出力部とを備え
    前記センサは、イメージセンサを含み、
    前記センシング結果は、画像情報を含み、かつ
    前記第1状況の判定は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動するかを判定することを含む、
    情報処理装置。
  2. 前記2領域間を前記移動体が移動するかを判定することは、前記移動体の位置の測定結果と、前記2領域の所在位置を示す位置情報とに基づいて、前記移動体が前記2領域の境界に接近しているかを判定することを含む、
    請求項に記載の情報処理装置。
  3. 前記2領域間を前記移動体が移動するかを判定することは、前記イメージセンサから取得される画像情報の示す画像に前記2領域の境界が映っているかを判定することを含む
    請求項に記載の情報処理装置。
  4. 移動体に搭載される情報処理装置であって、
    前記移動体に搭載されて前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得部と、
    前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する通信部と、
    特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況であるか否かを、判定する判定部と、
    前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合には前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成部と、
    前記第1情報を出力する出力部とを備え、
    前記センサは、イメージセンサを含み、
    前記センシング結果は、画像情報を含み、かつ
    前記第1状況の判定は、前記イメージセンサから前記所定条件を満たすセンシング結果が取得されたか否かを判定することを含む、
    報処理装置。
  5. 前記第1状況の判定は、前記イメージセンサによるセンシング結果として生成された画像の画素値についての統計処理の結果と閾値との比較を含む
    請求項に記載の情報処理装置。
  6. 前記所定条件は、前記イメージセンサにより生成される画像の所定数の画素値が、所定範囲に収まる場合に満たされず、当該所定範囲を超える場合に満たされる
    請求項に記載の情報処理装置。
  7. 前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果に基づかずに前記第1情報を生成する
    請求項1~6のいずれか一項に記載の情報処理装置。
  8. 前記生成部は、前記特定の時点の前記移動体の状況が前記第1状況でないと前記判定部が判定した場合には、前記センサから取得したセンシング結果にも基づいて、前記センサからの当該センシング結果が前記第1情報に与える影響を、前記特定の時点の前記移動体の状況が前記第1状況であると前記判定部が判定した場合より抑制する
    請求項1~6のいずれか一項に記載の情報処理装置。
  9. 前記通信部は、各領域内の明るさの差異が所定程度以上である連続した2領域間を前記移動体が移動する前又は移動中に、前記外部装置に前記移動体の進路についてのセンシング結果の送信要求を送信する
    請求項1~6のいずれか一項に記載の情報処理装置。
  10. 移動体に搭載されるプロセッサが実行する情報処理方法であって、
    前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、
    前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、
    特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含み、
    前記センサは、イメージセンサを含み、
    前記センシング結果は、画像情報を含み、かつ
    前記第1状況の判定は、前記イメージセンサから前記所定条件を満たすセンシング結果が取得されたか否かを判定することを含む、
    情報処理方法。
  11. 移動体に搭載されるコンピュータに所定情報処理を行わせるためのプログラムであって、
    所定情報処理は、
    前記移動体の進路をセンシングするセンサからセンシング結果を取得する取得ステップと、
    前記移動体外の外部装置から前記移動体の進路についてのセンシング結果を受信する受信ステップと、
    特定の時点の前記移動体の状況が、前記センサから取得されるセンシング結果が所定条件を満たす第1状況である場合には、前記センサから取得したセンシング結果に基づいて、前記移動体の移動を制御するための第1情報を生成し、前記特定の時点の前記移動体の状況が前記第1状況でない場合には、前記外部装置から受信したセンシング結果に基づいて前記第1情報を生成する生成ステップとを含み、
    前記センサは、イメージセンサを含み、
    前記センシング結果は、画像情報を含み、かつ
    前記第1状況の判定は、前記イメージセンサから前記所定条件を満たすセンシング結果が取得されたか否かを判定することを含む、
    プログラム。
  12. 第1移動体に搭載される情報処理装置であって、
    前記第1移動体における第1センサ又は前記第1移動体の周辺の第2センサから前記第1移動体の外部についてのセンシング結果を取得する取得部と、
    2移動体の特定の時点の状況が、前記第2移動体に搭載されて前記第2移動体の進路をセンシングする第3センサから取得されるセンシング結果が所定条件を満たす第1状況であるかを判定する判定部と、
    前記特定の時点の前記第2移動体の状況が前記第1状況でないと判定されることに応じて、前記取得部によって前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する通信部とを備える
    情報処理装置。
  13. 前記取得部は、前記第1センサ又は前記第2センサから前記第2移動体の進路について
    のセンシング結果を取得し、
    前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、各領域内の明るさの差異が所定程度以上である連続した2領域を前記第2移動体が移動するかを判定することを含み、
    前記通信部は、前記第1移動体が前記2領域の境界に接近したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する
    請求項12に記載の情報処理装置。
  14. 前記特定の時点の前記第2移動体の状況が前記第1状況であるかの判定は、前記通信部が前記第2移動体からセンシング結果の送信要求を受信したかを判定することを含み、
    前記通信部は、前記第2移動体から前記送信要求を受信したことに応じて前記第1センサ又は前記第2センサから取得されるセンシング結果を送信する
    請求項12に記載の情報処理装置。
JP2017186131A 2017-02-22 2017-09-27 情報処理装置、情報処理方法及びプログラム Active JP7015665B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/883,468 US10569768B2 (en) 2017-02-22 2018-01-30 Information processing apparatus, information processing method, and non-transitory recording medium
CN201810105266.0A CN108454631B (zh) 2017-02-22 2018-02-02 信息处理装置、信息处理方法以及记录介质
EP18156237.2A EP3366539B1 (en) 2017-02-22 2018-02-12 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017031419 2017-02-22
JP2017031419 2017-02-22

Publications (2)

Publication Number Publication Date
JP2018136917A JP2018136917A (ja) 2018-08-30
JP7015665B2 true JP7015665B2 (ja) 2022-02-03

Family

ID=63365617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017186131A Active JP7015665B2 (ja) 2017-02-22 2017-09-27 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7015665B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7105642B2 (ja) 2018-07-20 2022-07-25 株式会社シマノ 両軸受リール
JP7478552B2 (ja) 2020-03-02 2024-05-07 本田技研工業株式会社 車両通信システム、プログラム、及び監視対象物検知方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126905A (ja) 2006-11-22 2008-06-05 Toyota Motor Corp 車窓透過率制御装置
JP2008299676A (ja) 2007-05-31 2008-12-11 Toyota Motor Corp 死角情報要求/提供装置及びこれらを利用した車車間通信システム
JP2015102449A (ja) 2013-11-26 2015-06-04 日産自動車株式会社 車両自己位置推定装置、及び車両自己位置推定方法
US20150341620A1 (en) 2014-05-23 2015-11-26 Lg Electronics Inc. Stereo camera and driver assistance apparatus and vehicle including the same
DE102014210147A1 (de) 2014-05-27 2015-12-03 Continental Teves Ag & Co. Ohg Fahrzeugsteuersystem für eine autonome Führung eines Fahrzeugs
WO2017029847A1 (ja) 2015-08-19 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126905A (ja) 2006-11-22 2008-06-05 Toyota Motor Corp 車窓透過率制御装置
JP2008299676A (ja) 2007-05-31 2008-12-11 Toyota Motor Corp 死角情報要求/提供装置及びこれらを利用した車車間通信システム
JP2015102449A (ja) 2013-11-26 2015-06-04 日産自動車株式会社 車両自己位置推定装置、及び車両自己位置推定方法
US20150341620A1 (en) 2014-05-23 2015-11-26 Lg Electronics Inc. Stereo camera and driver assistance apparatus and vehicle including the same
DE102014210147A1 (de) 2014-05-27 2015-12-03 Continental Teves Ag & Co. Ohg Fahrzeugsteuersystem für eine autonome Führung eines Fahrzeugs
WO2017029847A1 (ja) 2015-08-19 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2018136917A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
CN108454631B (zh) 信息处理装置、信息处理方法以及记录介质
US11972615B2 (en) Vehicular control system
US11155249B2 (en) Systems and methods for causing a vehicle response based on traffic light detection
CN101326511B (zh) 用于检测或预测车辆超车的方法
JP6402684B2 (ja) 表示装置
US20120101711A1 (en) Collision Warning Apparatus
US20170110010A1 (en) Method for analyzing a traffic situation in an area surrounding a vehicle
JP6651031B2 (ja) 車両ドア衝突防止装置および車両ドア衝突防止方法
CN102779430A (zh) 基于视觉的夜间后碰撞警告系统、控制器及其操作方法
US10229505B2 (en) Motion determination system and method thereof
CN110712646B (zh) 从自主模式转换到手动模式之前对车辆操作员意识的验证
CN110497919B (zh) 自动车辆从自主模式转换到手动模式的物体位置历史回放
JP7015665B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220024452A1 (en) Image processing apparatus, imaging apparatus, moveable body, and image processing method
US11536583B2 (en) Information display device, control method, and storage medium
US20230415734A1 (en) Vehicular driving assist system using radar sensors and cameras
US20200167573A1 (en) Method and apparatus for object detection in camera blind zones
CN110113789B (zh) 车辆传感器之间的动态带宽调节的方法和系统
CN113771845A (zh) 预测车辆轨迹的方法、装置、车辆和存储介质
KR102643361B1 (ko) 차량 사고 회피 시스템의 적응적인 개입 결정 방법
US11143760B2 (en) Object-detector configuration based on human-override of automated vehicle control
KR20230037747A (ko) 차량 및 차량의 제어방법
KR20220122875A (ko) 차량 및 그 제어방법
CN117755321A (zh) 弱光条件下碰撞时间阈值的校准
CN115593412A (zh) 启动提前自动变道

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124