JP2017068589A - 情報処理装置、情報端末、及び、情報処理方法 - Google Patents

情報処理装置、情報端末、及び、情報処理方法 Download PDF

Info

Publication number
JP2017068589A
JP2017068589A JP2015193360A JP2015193360A JP2017068589A JP 2017068589 A JP2017068589 A JP 2017068589A JP 2015193360 A JP2015193360 A JP 2015193360A JP 2015193360 A JP2015193360 A JP 2015193360A JP 2017068589 A JP2017068589 A JP 2017068589A
Authority
JP
Japan
Prior art keywords
unit
information
moving body
accident
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015193360A
Other languages
English (en)
Inventor
貝野 彰彦
Akihiko Kaino
彰彦 貝野
嵩明 加藤
Takaaki Kato
嵩明 加藤
江島 公志
Masayuki Ejima
公志 江島
辰吾 鶴見
Shingo Tsurumi
辰吾 鶴見
福地 正樹
Masaki Fukuchi
正樹 福地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015193360A priority Critical patent/JP2017068589A/ja
Priority to PCT/JP2016/077428 priority patent/WO2017057055A1/ja
Publication of JP2017068589A publication Critical patent/JP2017068589A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

【課題】移動体の事故を確実に防止する。
【解決手段】情報処理装置は、各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信部と、推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測部とを備える。本技術は、例えば、車両間の事故を予測し防止するシステムに適用することができる。
【選択図】図4

Description

本技術は、情報処理装置、情報端末、及び、情報処理方法に関し、特に、移動体の事故を防止できるようにした情報処理装置、情報端末、及び、情報処理方法に関する。
従来、自車両が山岳路や見通しの悪い狭い道路を走行中の場合、自車両に搭載されたナビゲーション装置が、接近する対向車についての情報をサーバから受信し、対向車とすれ違うことができる地点を探索して表示することが提案されている。
具体的には、ナビゲーション装置は、GPS(Global Positioning System)受信器、車速センサ、角速度ジャイロ、及び、地図データベースとのマップマッチングにより、自車両の現在位置、速度及び方位を算出する。そして、ナビゲーション装置は、自車両が山岳路や見通しの悪い狭い道路を走行中の場合、自車両の現在位置、速度及び方位、誤差情報、並びに、行き先地点情報をサーバへ送信する。
サーバは、各車両から受信した情報に基づいて、各車両のすれ違い可能性を判定し、他の車両の現在位置情報、方位情報、速度情報を含む接近情報を各車両のナビゲーション装置に送信する。接近情報を受信したナビゲーション装置は、他の車両とすれ違うことが可能な地点を探索し、地図上に表示する(例えば、特許文献1参照)。
国際公開第2004/064007号
しかしながら、特許文献1に記載の発明では、ナビゲーション装置がGPS衛星からの電波を受信できない場合、自車両の位置を検出できないため、サーバは接近情報を提供することができない。その結果、ナビゲーション装置は、他の車両とすれ違うことが可能な地点への誘導を行うことができなくなる。また、民間利用におけるGPSの位置の測定精度は10m程度であるため、他の車両とのすれ違いを誤検出するおそれがある。その結果、車両のすれ違い時の事故を防止できないおそれがある。
本技術は、このような状況に鑑みてなされたものであり、車両等の移動体の事故を確実に防止できるようにするものである。
本技術の第1の側面の情報処理装置は、各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信部と、推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測部とを備える。
推定された各前記移動体の位置及び速度に基づいて、各前記移動体の動きを予測する動き予測部をさらに設けることができる。
前記受信部には、各前記移動体から撮影された画像内の特徴点の3次元空間内の位置を示すローカルマップを各前記情報端末から受信させ、受信された前記ローカルマップに基づいて、所定の領域内の特徴点の3次元空間の位置を示すグローバルマップを更新するグローバルマップ更新部をさらに設け、前記動き予測部には、さらに前記グローバルマップに基づいて、各前記移動体の動きを予測させることができる。
前記動き予測部には、各前記移動体が前記グローバルマップ上の静止物体を避ける動きを予測させることができる。
前記位置情報に、各前記情報端末が予測した各前記移動体の動きを含ませ、前記危険予測部には、各前記情報端末が予測した各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行わせることができる。
前記危険予測部により事故にあう危険性があると予測された前記移動体に備えられている前記情報端末への危険の通知を行う危険通知部をさらに設けることができる。
前記危険通知部には、前記移動体が事故を回避するための処理に用いる制御情報を前記情報端末に送信させることができる。
前記受信部には、事故が発生する危険性がある危険領域の検出結果を各前記情報端末から受信させ、各前記情報端末による前記危険領域の検出結果に基づいて、前記危険領域を示す危険領域マップを更新する危険領域マップ更新部と、前記危険領域マップに基づいて、各前記情報端末に前記危険領域を通知する危険領域通知部とをさらに設けることができる。
前記受信部には、事故が発生する危険性がある危険領域の検出結果を各前記情報端末から受信させ、各前記情報端末による前記危険領域の検出結果に基づいて、前記危険領域を示す危険領域マップを更新する危険領域マップ更新部と、前記危険領域マップに基づいて、各前記移動体が前記危険領域内にあるか否かを判定し、判定結果を各前記情報端末に通知する危険領域判定部とをさらに設けることができる。
前記移動体の事故の発生を示す事故情報を受信した場合、前記事故に関連する位置情報を保存する記憶部をさらに設けることができる。
前記記憶部に保存されている前記位置情報に基づいて、前記移動体の事故の発生状況のシミュレーションを行うシミュレーション部をさらに設けることができる。
本技術の第1の側面の情報処理方法は、情報処理装置が、各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信ステップと、推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測ステップとを含む。
本技術の第2の側面の情報端末は、移動体に備えられ、前記移動体から撮影された画像に基づいて前記移動体の位置及び速度を推定する推定部と、推定された前記移動体の位置及び速度を含む位置情報を情報処理装置に送信する送信部と、前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理を行う危険回避処理部とを備える。
前記推定部には、前記移動体から撮影された画像内の特徴点と前記移動体との相対位置に基づいて、前記移動体の位置及び速度を推定させることができる。
前記特徴点の3次元空間内の位置を示すローカルマップを生成するローカルマップ生成部をさらに設け、前記送信部には、さらに前記ローカルマップを前記情報処理装置に送信させることができる。
前記特徴点に基づいて、前記移動体の周辺の物体の検出を行う物体検出部と、推定された前記移動体の位置及び速度、並びに、前記物体の検出結果に基づいて、前記移動体の事故の予測を行う危険予測部とをさらに設け、前記危険回避処理部には、さらに前記危険予測部により前記移動体が事故にあう危険性が予測された場合、事故を回避するための処理を行わせることができる。
前記推定部には、推定した前記移動体の位置及び速度に基づいて、前記移動体の動きを予測させ、前記送信部には、前記移動体の動きの予測結果を含む前記位置情報を前記情報処理装置に送信させることができる。
前記送信部には、前記情報処理装置からの情報に基づいて、事故が発生する危険性がある危険領域内に前記移動体があると判定した場合、前記位置情報を前記情報処理装置に送信させることができる。
前記危険予測部には、さらに前記危険領域の検出を行わせ、前記送信部には、前記危険領域の検出結果を前記情報処理装置に送信させることができる。
本技術の第2の側面の情報処理方法は、移動体に備えられた情報端末が、前記移動体から撮影された画像に基づいて前記移動体の位置及び速度を推定する推定ステップと、推定された前記移動体の位置及び速度を含む位置情報を情報処理装置に送信する送信ステップと、前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理を行う危険回避処理ステップとを含む。
本技術の第1の側面においては、各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報が各前記移動体に備えられている情報端末から受信され、推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測が行われる。
本技術の第2の側面においては、移動体から撮影された画像に基づいて前記移動体の位置及び速度が推定され、推定された前記移動体の位置及び速度を含む位置情報が情報処理装置に送信され、前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理が行われる。
本技術の第1の側面によれば、移動体間の事故の予測精度が向上する。その結果、移動体の事故を確実に防止することができる。
本技術の第2の側面によれば、移動体の事故を確実に防止することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 情報端末の第1の実施の形態を示すブロック図である。 SLAM処理部の第1の実施の形態を示すブロック図である。 サーバの第1の実施の形態を示すブロック図である。 危険領域マップの例を示す図である。 情報端末の処理の第1の実施の形態を説明するためのフローチャートである。 サーバの処理の第1の実施の形態を説明するためのフローチャートである。 サーバの処理の第1の実施の形態を説明するためのフローチャートである。 危険予測処理の第1の例を示す図である。 危険予測処理の第2の例を示す図である。 本技術の効果を説明するための図である。 本技術の効果を説明するための図である。 情報端末の第2の実施の形態を示すブロック図である。 サーバの第2の実施の形態を示すブロック図である。 情報端末の処理の第2の実施の形態を説明するためのフローチャートである。 サーバの処理の第2の実施の形態を説明するためのフローチャートである。 サーバの処理の第2の実施の形態を説明するためのフローチャートである。 SLAM処理部の第2の実施の形態を示すブロック図である。 コンピュータの構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態(危険領域の判定をサーバで行う場合の例)
3.第3の実施の形態(グローバルマップを用いて移動体の位置及び姿勢を直接推定する例)
4.変形例
5.応用例
<1.第1の実施の形態>
まず、図1乃至図12を参照して、本技術の第1の実施の形態について説明する。
{情報処理システム1の構成例}
図1は、本技術を適用した情報処理システム1の一実施の形態を示している。
情報処理システム1は、情報端末11−1乃至11−n及びサーバ12を含むように構成される。なお、以下、情報端末11−1乃至11−nを個々に区別する必要がない場合、単に情報端末11と称する。
各情報端末11とサーバ12とは、図示せぬ基地局及びネットワーク13等を介して相互に接続されており、互いに通信を行う。なお、情報端末11の通信方式には、任意の無線の通信方式を採用することが可能である。サーバ12の通信方式には、任意の有線又は無線の通信方式を採用することが可能である。また、情報端末11とサーバ12とが、直接通信を行うようにすることも可能である。
なお、以下、各情報端末11とサーバ12とがネットワーク13等を介して通信を行う場合、説明を分かりやすくするために、”ネットワーク13等を介して”の記載を省略する。例えば、以下、”各情報端末11とサーバ12とが通信を行う”、”各情報端末11とサーバ12とが情報やデータ等の送受信を行う”等の表現を用いる。
各情報端末11は、例えば、カーナビゲーションシステム、自動運転システム等に用いられる車載情報端末、スマートフォン、携帯電話機、タブレット、ウエアラブルデバイス、ノート型のパーソナルコンピュータ等の携帯情報端末等により構成される。
また、各情報端末11は、それぞれ移動体に備えられる。各情報端末11が備えられる移動体には、例えば、陸上や空中を移動する移動体が含まれる。そのような移動体には、例えば、車両、人、飛行機、ヘリコプター、ドローン、ロボット等が含まれる。また、各情報端末11を移動体に常時設置するようにしてもよいし、或いは、一時的に移動体に設置したり、装着したり、携帯させたりするようにしてもよい。
なお、以下、ある情報端末11に対して、当該情報端末11が備えられている移動体を他の移動体と区別する場合、自移動体と称する。
情報処理システム1は、各情報端末11が備えられている各移動体の危険予測を行い、各移動体が予測される事故を回避するための処理を行う。例えば、サーバ12は、各情報端末11からの情報やデータ等を統合し、各移動体間の危険予測を行い、予測結果を各情報端末11に通知する。また、各情報端末11は、自移動体から撮影された画像に基づいて、自移動体の危険予測を行う。各情報端末11は、各情報端末11及びサーバ12の危険予測の結果に基づいて、自移動体が予測される事故を回避するための処理を行う。
また、サーバ12は、例えば、各情報端末11からの情報やデータ等に基づいて、発生した移動体の事故の発生状況のシミュレーションを行う。
{情報端末11aの機能の構成例}
図2は、図1の情報端末11の第1の実施の形態である情報端末11aの機能の構成例を示している。情報端末11aは、カメラ101L,101R、受信部102、情報処理部103、及び、送信部104を含むように構成される。情報処理部103は、SLAM(Simultaneous Localization and Mapping)処理部111、危険領域判定部112、危険予測部113、及び、危険回避処理部114を含むように構成される。
カメラ101Lは、例えば、移動体の進行方向を左側から撮影する。カメラ101Lは、撮影の結果得られた画像(以下、左画像と称する)をSLAM処理部111に供給する。
カメラ101Rは、例えば、移動体の進行方向を右側から撮影する。カメラ101Rは、撮影の結果得られた画像(以下、右画像と称する)をSLAM処理部111に供給する。
受信部102は、他の情報端末11a、サーバ12、及び、図示せぬ他のサーバ等から各種の情報やデータ等を受信し、情報端末11aの各部に供給する。例えば、受信部102は、サーバ12からグローバルマップを受信し、SLAM処理部111に供給する。また、例えば、受信部102は、サーバ12から危険領域情報を受信し、危険領域判定部112に供給する。さらに、例えば、受信部102は、サーバ12から危険通知情報を受信し、危険回避処理部114に供給する。
ここで、グローバルマップとは、所定の広域な領域内の静止物体の3次元空間内の位置を示すマップである。例えば、グローバルマップは、所定の領域内の静止物体の特徴点の3次元の空間座標系上の位置及び特徴量を示す情報を含む。なお、空間座標系は、例えば、緯度、経度及び地面からの高さにより表される。
危険領域情報とは、事故が発生する危険性のある危険領域の位置を示す情報である。
危険通知情報とは、サーバ12が、移動体が事故にあう危険性を予測した場合に、事故にあう危険性のある移動体に備えられている情報端末11aに危険を通知するための情報である。
SLAM処理部111は、SLAMの技術を用いて、左画像及び右画像、並びに、グローバルマップに基づいて、自移動体の速度、位置及び姿勢を推定したり、自移動体の周囲の物体を検出したり、ローカルマップを生成したりする。SLAM処理部111は、推定した自移動体の位置及び姿勢を示す位置姿勢情報を危険領域判定部112及び危険予測部113に供給する。また、SLAM処理部111は、推定した自移動体の速度を示す速度情報を危険予測部113に供給する。さらに、SLAM処理部111は、推定した自移動体の位置及び速度を含む位置情報を送信部104に供給する。また、SLAM処理部111は、自移動体の周囲の物体の検出結果を危険予測部113に通知する。さらに、SLAM処理部111は、生成したローカルマップを送信部104に供給する。また、SLAM処理部111は、グローバルマップの送信を要求するためのグローバルマップ送信要求情報を生成し、送信部104に供給する。
ここで、ローカルマップとは、各移動体の周辺の静止物体の3次元空間内の位置を示すマップであり、各情報端末11により生成される。例えば、ローカルマップは、グローバルマップと同様に、各移動体の周辺の静止物体の特徴点の3次元の空間座標系上の位置及び特徴量を示す情報を含む。
危険領域判定部112は、危険領域情報及び自移動体の位置姿勢情報に基づいて、自移動体が危険領域内にあるか否かを判定し、判定結果をSLAM処理部111に通知する。
危険予測部113は、自移動体の速度情報及び位置姿勢情報、並びに、自移動体の周囲の物体の検出結果に基づいて、自移動体の危険予測及び危険領域の検出処理を行う。危険予測部113は、危険予測の結果を危険回避処理部114に通知する。また、危険予測部113は、検出した危険領域を通知するための危険領域通知情報を生成し、送信部104に供給する。
危険回避処理部114は、危険予測部113による危険予測結果、及び、サーバ12からの危険通知情報に基づいて、自移動体の危険を回避するための処理を行う。
送信部104は、他の情報端末11a、サーバ12、及び、図示せぬ他のサーバ等に各種の情報やデータ等を送信する。例えば、送信部104は、位置情報、ローカルマップ、危険領域通知情報、及び、グローバルマップ送信要求情報をサーバ12に送信する。
{SLAM処理部111aの構成例}
図3は、図2のSLAM処理部111の第1の実施の形態であるSLAM処理部111aの機能の構成例を示している。SLAM処理部111aは、推定部201、位置情報生成部202、物体検出部203、及び、ローカルマップ生成部204を含むように構成される。
推定部201は、カメラ201L及び201Rにより撮影された左画像及び右画像内の特徴点と移動体との相対位置に基づいて、自移動体の移動量、位置、姿勢及び速度を推定する。具体的には、推定部201は、画像補正部211L,211R、特徴点検出部212、視差マッチング部213、距離推定部214、特徴量算出部215、マップ情報記憶部216、動きマッチング部217、移動量推定部218、物体辞書記憶部219、物体認識部220、位置姿勢情報記憶部221、位置姿勢推定部222、及び、速度推定部223を含むように構成される。
画像補正部211L及び画像補正部211Rは、それぞれカメラ201Lから供給される左画像、及び、カメラ201Rから供給される右画像を、互いに同じ方向を向いた画像となるように補正する。画像補正部211Lは、補正後の左画像を特徴点検出部212及び動きマッチング部217に供給する。画像補正部211Rは、補正後の右画像を視差マッチング部213に供給する。
特徴点検出部212は、左画像の特徴点を検出する。特徴点検出部212は、検出した各特徴点の2次元の画像座標系上の位置を示す2次元位置情報を視差マッチング部213及び特徴量算出部215に供給する。なお、画像座標系は、例えば、画像内のx座標及びy座標により表される。
視差マッチング部213は、左画像で検出された特徴点に対応する右画像の特徴点を検出する。これにより、各特徴点の左画像上の位置と右画像上の位置の差である視差が求まる。視差マッチング部213は、各特徴点の左画像及び右画像における画像座標系上の位置を示す2次元位置情報を距離推定部214に供給する。
距離推定部214は、各特徴点の左画像と右画像との間の視差に基づいて、各特徴点までの距離を推定し、さらに各特徴点の3次元の空間座標系上の位置を算出する。距離推定部214は、各特徴点の空間座標系上の位置を示す3次元位置情報を特徴量算出部215に供給する。
特徴量算出部215は、左画像の各特徴点の特徴量を算出する。特徴量算出部215は、各特徴点の3次元位置情報及び特徴量を含む特徴点情報を、マップ情報記憶部216に記憶させる。
マップ情報記憶部216には、ローカルマップに用いられる特徴点情報の他、サーバ12から供給されるグローマップが記憶される。
動きマッチング部217は、1つ前のフレームで検出された各特徴点の3次元位置情報をマップ情報記憶部216から取得する。次に、動きマッチング部217は、現在のフレームの左画像において、1つ前のフレームで検出された各特徴点に対応する特徴点を検出する。そして、動きマッチング部217は、各特徴点の1つ前のフレームにおける3次元位置情報、及び、現在のフレームにおける画像座標系上の位置を示す2次元位置情報を移動量推定部218に供給する。
移動量推定部218は、各特徴点の1つ前のフレームの3次元位置情報及び現在のフレームの2次元位置情報に基づいて、フレーム間の自移動体(より正確には、カメラ201L)の位置及び姿勢の移動量を推定する。移動量推定部218は、推定した自移動体の位置及び姿勢の移動量を示す移動量情報を、物体検出部203、位置姿勢推定部222、及び、速度推定部223に供給する。
物体認識部220は、物体辞書記憶部219に記憶されている物体辞書に基づいて、左画像内の物体の認識を行う。物体認識部220は、物体の認識結果に基づいて、自移動体(より正確には、カメラ201L)の空間座標系における位置及び姿勢の初期値(以下、初期位置及び初期姿勢と称する)を設定する。物体認識部220は、設定した初期位置及び初期姿勢を示す初期位置姿勢情報を位置姿勢情報記憶部221に記憶させる。
位置姿勢推定部222は、位置姿勢情報記憶部221に記憶されている初期位置姿勢情報、又は、前のフレームの位置姿勢情報、並びに、自移動体の移動量の推定結果に基づいて、自移動体の位置及び姿勢を推定する。また、位置姿勢推定部222は、必要に応じて、マップ情報記憶部216に記憶されているグローバルマップに基づいて、推定した自移動体の位置及び姿勢の補正を行う。位置姿勢推定部222は、推定した自移動体の位置及び姿勢を示す位置姿勢情報を、危険領域判定部112、危険予測部113、位置情報生成部202、及び、速度推定部223に供給するとともに、位置姿勢情報記憶部221に記憶させる。
速度推定部223は、推定された自移動体の移動量を経過時間で除算することにより、自移動体の速度を推定する。速度推定部223は、推定した速度を示す速度情報を危険予測部113及び位置情報生成部202に供給する。
位置情報生成部202は、危険領域判定部112から自移動体が危険領域内にあることを通知された場合、自移動体の位置及び速度を含む位置情報を生成する。位置情報生成部202は、生成した位置情報を送信部104に供給する
物体検出部203は、移動量情報、並びに、マップ情報記憶部216に記憶されている1つ前のフレームと現在のフレームの特徴点情報に基づいて、自移動体の周囲の静止物体及び移動体を検出する。物体検出部203は、自移動体の周囲の静止物体及び移動体の検出結果を危険予測部113及びローカルマップ生成部204に通知する。
ローカルマップ生成部204は、危険領域判定部112から自移動体が危険領域内にあることを通知された場合、自移動体の周囲の静止物体及び移動体の検出結果、並びに、マップ情報記憶部216に記憶されている現在のフレームの特徴点情報に基づいて、ローカルマップを生成する。ローカルマップ生成部204は、生成したローカルマップを送信部104に供給する。また、ローカルマップ生成部204は、生成したローカルマップを含み、グローバルマップの送信をサーバ12に要求するためのグローバルマップ送信要求情報を生成し、送信部104に供給する。
{サーバ12の第1の実施の形態}
図4は、図1のサーバ12の第1の実施の形態であるサーバ12aの機能の構成例を示している。
サーバ12aは、受信部301、位置情報記憶部302、マップ情報記憶部303、グローバルマップ更新部304、危険領域マップ更新部305、動き予測部306、危険予測部307、危険通知部308、シミュレーション部309、グローバルマップ検索部310、危険領域通知部311、及び、送信部312を含むように構成される。
受信部301は、各情報端末11a及び図示せぬ他のサーバ等から各種の情報やデータ等を受信し、サーバ12aの各部に供給する。例えば、受信部301は、各情報端末11aから位置情報を受信し、位置情報記憶部302に記憶させる。また、例えば、受信部301は、各情報端末11aからローカルマップ及び危険領域情報を受信し、マップ情報記憶部303に記憶させる。さらに、例えば、受信部301は、各情報端末11aからグローバルマップ送信要求情報を受信し、グローバルマップ検索部310に供給する。また、例えば、受信部301は、他のサーバから移動体の事故の発生を示す事故情報、及び、事故のシミュレーションの実行の指令を受信し、シミュレーション部309に供給する。
グローバルマップ更新部304は、マップ情報記憶部303に記憶されている各情報端末11aにより生成されたローカルマップに基づいて、マップ情報記憶部303に記憶されているグローバルマップを更新する。
危険領域マップ更新部305は、マップ情報記憶部303に記憶されている各情報端末11aからの危険領域通知情報に基づいて、マップ情報記憶部303に記憶されている危険領域マップを更新する。
ここで、危険領域マップとは、事故が発生する危険性がある危険領域の位置を示すマップである。例えば、危険領域マップでは、グローバルマップがカバーする領域をグリッド状に分割し、グリッド毎に危険領域であるか否かが示される。
なお、図5に示されるように、危険領域マップのグリッドを階層構造にしてもよい。具体的には、図5では、グリッドを2層構造とした危険領域マップの例が示されている。まず、第1階層において各グリッドが危険領域であるか否かが判定される。そして、第1階層において危険領域であると判定されたグリッドにおいて、当該グリッドをさらに分割した第2階層の各グリッドが危険領域であるか否かが判定される。
例えば、図5の例では、斜線で示される危険領域である第1階層のグリッドG1が、第2階層において複数のグリッドに分割されている。次に、第2階層のグリッド毎に危険領域であるか否かが判定される。なお、この例では、斜線で示される第2階層のグリッドG2a乃至G2dが危険領域であると判定されている。
これにより、第2階層において危険領域であるか否かを判定するグリッドの数を削減することができ、処理の負荷を軽減することができる。
動き予測部306は、位置情報記憶部302に記憶されている各情報端末11aからの位置情報、及び、マップ情報記憶部303に記憶されているグローバルマップに基づいて、各移動体の動きを予測する。動き予測部306は、各移動体の動きの予測結果を動き予測部306に通知する。
危険予測部307は、各移動体の動きの予測結果に基づいて、各移動体の危険予測を行い、予測結果を危険通知部308に供給する。
危険通知部308は、危険な状態が検出された移動体、すなわち、事故にあう危険性が予測された移動体に備えられている情報端末11aに危険の通知等を行うための危険通知情報を生成する。危険通知部308は、生成した危険通知情報を送信部312に供給する。
シミュレーション部309は、事故情報に示される事故に関連する位置情報を位置情報記憶部302に保存するように設定する。また、シミュレーション部309は、図示せぬ入力部から、又は、受信部301を介して他のサーバ等から、事故のシミュレーションの実行の指令を受信した場合、位置情報記憶部302に記憶されている位置情報に基づいて、指定された事故の発生状況のシミュレーションを行う。或いは、シミュレーション部309は、事故の発生状況のシミュレーションを行うためのシミュレーションデータを生成し、送信部312に供給する。
グローバルマップ検索部310は、マップ情報記憶部303に記憶されているグローバルマップにおいて、グローバルマップ送信要求情報に含まれるローカルマップの画像検索を行う。グローバルマップ検索部310は、検索した領域及びその周辺の領域のマップをグローバルマップから抽出し、抽出したマップを送信部312に供給する。
危険領域通知部311は、マップ情報記憶部303に記憶されている危険領域マップに示される危険領域毎に危険領域情報を生成し、送信部312に供給する。
送信部312は、各情報端末11a及び他のサーバ等に各種の情報やデータ等を送信する。例えば、送信部312は、危険通知情報、シミュレーションデータ、グローバルマップ、及び、危険領域情報を各情報端末11aに送信する。
{情報処理システム1の処理の第1の実施の形態}
次に、図6乃至図12を参照して、情報処理システム1の処理の第1の実施の形態について説明する。
(情報端末11aの処理)
まず、図6のフローチャートを参照して、情報端末11aの処理について説明する。
ステップS1において、推定部201は、自移動体の移動量、位置及び姿勢を推定する。
具体的には、画像補正部211L及び画像補正部211Rは、それぞれカメラ201Lから供給される左画像、及び、カメラ201Rから供給される右画像を、互いに同じ方向を向いた画像となるように補正する。画像補正部211Lは、補正後の左画像を特徴点検出部212及び動きマッチング部217に供給する。画像補正部211Rは、補正後の右画像を視差マッチング部213に供給する。
特徴点検出部212は、左画像の特徴点を検出する。特徴点の検出方法には、例えば、Harrisコーナー等の任意の方法を用いることができる。特徴点検出部212は、検出した各特徴点の画像座標系上の位置を示す2次元位置情報を視差マッチング部213に供給する。
視差マッチング部213は、左画像で検出された特徴点に対応する右画像の特徴点を検出する。視差マッチング部213は、各特徴点の左画像及び右画像における画像座標系上の位置を示す2次元位置情報を距離推定部214に供給する。
距離推定部214は、各特徴点の左画像と右画像との間の視差に基づいて、各特徴点までの距離を推定し、さらに各特徴点の3次元の空間座標系上の位置を算出する。距離推定部214は、各特徴点の空間座標系上の位置を示す3次元位置情報を特徴量算出部215に供給する。
特徴量算出部215は、左画像の各特徴点の特徴量を算出する。特徴量には、例えばSURF(Speeded Up Robust Features)等、任意の特徴量を用いることができる。特徴量算出部215は、各特徴点の3次元位置情報及び特徴量を含む特徴点情報を、マップ情報記憶部216に記憶させる。
動きマッチング部217は、1つ前のフレームで検出された各特徴点の3次元位置情報をマップ情報記憶部216から取得する。次に、動きマッチング部217は、現在のフレームの左画像において、1つ前のフレームで検出された各特徴点に対応する特徴点を検出する。そして、動きマッチング部217は、各特徴点の1つ前のフレームにおける3次元位置情報、及び、現在のフレームにおける画像座標系上の位置を示す2次元位置情報を移動量推定部218に供給する。
移動量推定部218は、1つ前のフレームと現在のフレームとの間における自移動体(より正確には、カメラ201L)の移動量を推定する。例えば、移動量推定部218は、次式(1)のコスト関数fの値が最小となる移動量dXを算出する。
f=Σ||Zt−proj(dX,Mt-1)||2 ・・・(1)
なお、移動量dXは、1つ前のフレームから現在のフレームまでの間の自移動体(より正確には、カメラ201L)の位置及び姿勢の移動量を示している。例えば、移動量dXは、空間座標系における3軸方向(3自由度)の位置及び各軸まわり(3自由度)の姿勢の移動量を示す。
また、Mt-1とZtは、対応する特徴点の1つ前のフレームと現在のフレームの位置を示している。より具体的には、Mt-1は、1つ前のフレームの空間座標系上の特徴点の位置を示し、Ztは、現在のフレームの画像座標系上の特徴点の位置を示している。
さらに、proj(dX,Mt-1)は、1つ前のフレームにおける特徴点の空間座標系上の位置Mt-1を、移動量dXを用いて、現在のフレームの左画像の画像座標系上に射影した位置を示している。すなわち、proj(dX,Mt-1)は、1つ前のフレームにおける特徴点の位置Mt-1と移動量dXに基づいて、現在のフレームの左画像上の特徴点の位置を推定したものである。
移動量推定部218は、式(1)に示される各特徴点のZt−proj(dX,Mt-1)の二乗和が最小となる移動量dXを、例えば最小二乗法等により求める。すなわち、移動量推定部218は、1つ前のフレームにおける特徴点の空間座標系上の位置Mt-1及び移動量dXに基づいて、現在のフレームの左画像の特徴点の画像座標系上の位置を推定した場合の誤差が最小となる移動量dXを求める。移動量推定部218は、求めた移動量dXを示す移動量情報を、物体検出部203、位置姿勢推定部222、及び、速度推定部223に供給する。
位置姿勢推定部222は、1つ前のフレームにおける位置姿勢情報を位置姿勢情報記憶部221から取得する。そして、位置姿勢推定部222は、1つ前のフレームにおける自移動体の位置及び姿勢に、移動量推定部218により推定された移動量dXを加算することにより、現在の自移動体の位置及び姿勢を推定する。
なお、位置姿勢推定部222は、最初のフレームにおける自移動体の位置及び姿勢の推定を行う場合、初期位置姿勢情報を位置姿勢情報記憶部221から取得する。そして、位置姿勢推定部222は、自移動体の初期位置及び初期姿勢に、移動量推定部218により推定された移動量dXを加算することにより、自移動体の位置及び姿勢を推定する。
また、位置姿勢推定部222は、必要に応じて、マップ情報記憶部216に記憶されているグローバルマップに基づいて、推定した自移動体の位置及び姿勢の補正を行う。
位置姿勢推定部222は、推定した自移動体の位置及び姿勢を示す位置姿勢情報を、危険領域判定部112、危険予測部113、位置情報生成部202、及び、速度推定部223に供給するとともに、位置姿勢情報記憶部221に記憶させる。
ステップS2において、速度推定部223は、自移動体の速度を推定する。具体的には、速度推定部223は、移動量推定部218により推定された移動量dXを経過時間で除算することにより、自移動体の速度を推定する。速度推定部223は、推定した速度を示す速度情報を危険予測部113及び位置情報生成部202に供給する。
ステップS3において、物体検出部203は、周囲の物体の検出を行う。具体的には、物体検出部203は、1つ前のフレームと現在のフレームの特徴点情報をマップ情報記憶部216から取得する。次に、物体検出部203は、1つ前のフレームの特徴点と現在のフレームの特徴点とのマッチングを行い、フレーム間における各特徴点の動きを検出する。次に、物体検出部203は、移動量推定部218により推定された移動量dXに基づく自移動体の動きに対応する動きをしている特徴点と、自移動体の動きに対応する動きをしていない特徴点とを区別する。次に、物体検出部203は、自移動体の動きに対応する動きをしている特徴点に基づいて、自移動体の周囲の静止物体を検出する。また、物体検出部203は、自移動体の動きに対応する動きをしていない特徴点に基づいて、自移動体の周囲の移動体を検出する。そして、物体検出部203は、自移動体の周囲の静止物体及び移動体の検出結果を危険予測部113及びローカルマップ生成部204に通知する。
ステップS4において、危険領域判定部112は、自移動体が危険領域内にあるか否かを判定する。具体的には、自移動体が、後述する図7のステップS102においてサーバ12aから送信される危険領域情報の受信エリア内に存在する場合、受信部102は、危険領域情報を受信する。受信部102は、受信した危険領域情報を危険領域判定部112に供給する。
危険領域判定部112は、位置姿勢推定部222により推定された自移動体の位置が、受信した危険領域情報に示される危険領域内であるか否かを判定する。そして、自移動体が危険領域内にあると判定された場合、処理はステップS5に進む。
ステップS5において、情報端末11aは、位置情報及びローカルマップをサーバ12aに送信する。具体的には、危険領域判定部112は、自移動体が危険領域内にあることを位置情報生成部202及びローカルマップ生成部204に通知する。
位置情報生成部202は、速度推定部223により推定された自移動体の速度、並びに、位置姿勢推定部222からの位置姿勢情報に含まれる自移動体の位置を含む位置情報を生成する。位置情報生成部202は、生成した位置情報を送信部104に供給する。
ローカルマップ生成部204は、現在のフレームの特徴点情報をマップ情報記憶部216から取得する。次に、ローカルマップ生成部204は、取得した特徴点情報から、物体検出部203により検出された周囲の移動体の特徴点に関する情報を削除する。そして、ローカルマップ生成部204は、残った特徴点情報に基づいてローカルマップを生成し、生成したローカルマップを送信部104に供給する。
送信部104は、取得した位置情報及びローカルマップをサーバ12aに送信する。
その後、処理はステップS6に進む。
一方、ステップS4において、危険領域判定部112は、位置姿勢推定部222により推定された自移動体の位置が、受信した危険領域情報に示される危険領域内でない場合、又は、危険領域情報を受信していない場合、自移動体が危険領域内にないと判定する。そして、ステップS5の処理はスキップされ、処理はステップS6に進む。
ステップS6において、危険予測部113は、危険予測を行う。具体的には、危険予測部113は、推定された自移動体の速度及び位置、並びに、自移動体の周囲の物体の検出結果に基づいて、周囲の物体との間で、衝突、追突、接触等の事故が発生する危険性を予測する。なお、危険予測部113は、必要に応じて、推定された自移動体の姿勢をさらに用いて危険予測を行うようにしてもよい。危険予測部113は、危険予測の結果を危険回避処理部114に通知する。
なお、例えば、危険予測部113は、自移動体及び周囲の移動体の速度及び進行方向、並びに、自移動体と周囲の物体との間の距離等に基づいて、事故が発生する危険性の度合いや重大度を示す危険度を算出するようにしてもよい。
ステップS7において、危険回避処理部114は、自移動体が事故にあう危険性があるか否かを判定する。
具体的には、危険回避処理部114が、危険予測部113による危険予測の結果に基づいて、自移動体が事故にあう危険性があると判定した場合、処理はステップS8に進む。
また、サーバ12aは、後述する図7のステップS108において、危険な状態を検出した場合、ステップS109において、事故にあう危険性があると予測した移動体に危険通知情報を送信する。そして、危険回避処理部114は、受信部102を介して危険通知情報を受信した場合、自移動体が事故にあう危険性があると判定し、処理はステップS8に進む。
ステップS8において、危険回避処理部114は、事故を回避するための処理を行う。
例えば、危険回避処理部114は、自移動体が乗り物である場合、乗り物の運転又は操縦をしている人に対して警告を行う。また、例えば、危険回避処理部114は、自移動体が人である場合、その人に対して警告を行う。なお、警告内容は、任意に設定することが可能である。例えば、単に危険の通知のみを行うようにしてもよいし、事故を回避する方法を通知するようにしてもよい。また、警告方法には、画像、音声、光の点滅、操作部の振動等の任意の方法を採用することができる。
また、例えば、危険回避処理部114は、自移動体が乗り物である場合、事故を回避するように自移動体の動作を制御することも可能である。例えば、危険回避処理部114は、事故を回避するために、乗り物である自移動体のブレーキを作動させたり、減速させたり、進行方向を変更させたりすることが可能である。
さらに、例えば、危険予測部113により危険度が算出されている場合、危険度に応じて処理内容を変更するようにしてもよい。例えば、危険回避処理部114は、危険度に応じて、自移動体の停止、減速、方向転換、警告等の中から処理を選択して実行するようにしてもよい。
また、危険回避処理部114は、例えば、サーバ12aから受信した危険通知情報に、事故を回避するための処理に用いる制御情報が含まれる場合、その制御情報に従って処理を行う。
ステップS9において、危険予測部113は、予測した事故の相手が移動体であるか否かを判定する。予測された事故の相手が移動体であると判定された場合、処理はステップS10に進む。
ステップS10において、危険予測部113は、危険領域の通知を行う。具体的には、危険予測部113は、現在の自移動体の位置を他の移動体との事故が発生する危険性のある危険領域とみなし、危険領域を通知するための危険領域通知情報を生成する。危険領域通知情報は、例えば、自移動体の位置、危険領域を検出した時刻、予測された事故の相手である他の移動体の位置、及び、天気等の環境条件を含む。危険予測部113は、生成した危険領域通知情報を、送信部104を介してサーバ12aに送信する。
その後、処理はステップS11に進む。
なお、サーバ12aは、後述する図7のステップS101において、危険領域通知情報を受信する。
一方、ステップS9において、危険予測部113が、予測した事故の相手が移動体ではなく静止物体であると判定した場合、ステップS10の処理はスキップされ、処理はステップS11に進む。
また、ステップS7において、自移動体が事故にあう危険性がないと判定された場合、ステップS8乃至S10の処理はスキップされ、処理はステップS11に進む。
ステップS11において、ローカルマップ生成部204は、グローバルマップの送信を要求するか否かを判定する。グローバルマップの送信を要求すると判定された場合、処理はステップS12に進む。
なお、グローバルマップの送信を要求する条件は任意に設定することができる。例えば、マップ情報記憶部216にグローバルマップが記憶されていない場合に、グローバルマップの送信を要求するようにしてもよい。或いは、例えば、所定の日付、曜日、又は、時間帯等に、グローバルマップの送信を要求するようにしてもよい。或いは、例えば、現在の自移動体の位置が、マップ情報記憶部216に記憶されているグローバルマップの外に出そうな場合又はグローバルマップの外に出ている場合、グローバルマップの送信を要求するようにしてもよい。
ステップS12において、ローカルマップ生成部204は、グローバルマップの送信を要求する。具体的には、ローカルマップ生成部204は、上述したステップS5と同様の処理により、ローカルマップを生成する。そして、ローカルマップ生成部204は、生成したローカルマップを含むグローバルマップ送信要求情報を生成し、生成したグローバルマップ送信要求情報を、送信部104を介してサーバ12aに送信する。
サーバ12aは、後述する図7のステップS103において、グローバルマップ送信要求情報を受信し、ステップS105において、要求元の自移動体の周辺のグローバルマップを送信する。
ステップS13において、受信部102は、サーバ12aから送信されたグローバルマップを受信する。受信部102は、受信したグローバルマップをマップ情報記憶部216に記憶させる。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS11において、グローバルマップの送信を要求しないと判定された場合、処理はステップS1に戻り、ステップS1以降の処理が実行される。
(サーバ12aの処理)
次に、図7及び図8のフローチャートを参照して、図6の情報端末11aの処理に対応して実行される、サーバ12aの処理について説明する。
ステップS101において、受信部301は、各情報端末11aから送信されてくる位置情報、ローカルマップ及び危険領域通知情報の受信を開始する。受信部301は、受信した位置情報を位置情報記憶部302に記憶させる。また、受信部301は、受信したローカルマップ及び危険領域通知情報をマップ情報記憶部303に記憶させる。
ステップS102において、サーバ12aは、危険領域情報の送信を開始する。例えば、危険領域通知部311は、マップ情報記憶部303に記憶されている危険領域マップに示される危険領域毎に危険領域情報を生成する。各危険領域情報には、危険領域の位置を示す情報が含まれる。危険領域通知部311は、生成した危険領域情報を送信部312に供給する。
送信部312は、例えば、各危険領域情報を、対応する危険領域及びその周辺を含む領域にそれぞれ送信する。
ステップS103において、グローバルマップ検索部310は、グローバルマップの送信が要求されたか否かを判定する。グローバルマップ検索部310は、図6のステップS12において情報端末11aから送信されたグローバルマップ送信要求情報を、受信部301を介して受信した場合、グローバルマップの送信が要求されたと判定し、処理はステップS104に進む。
ステップS104において、グローバルマップ検索部310は、要求元の移動体周辺のグローバルマップを検索する。具体的には、グローバルマップ検索部310は、マップ情報記憶部303に記憶されているグローバルマップにおいて、グローバルマップ送信要求情報に含まれるローカルマップの画像及び特徴量の検索を行う。
ステップS105において、グローバルマップ検索部310は、グローバルマップを送信する。具体的には、グローバルマップ検索部310は、ステップS104の処理で検索された領域及びその周辺の領域のマップをグローバルマップから抽出する。グローバルマップ検索部310は、抽出したマップを、送信部312を介して、要求元の情報端末11aに送信する。
その後、処理はステップS106に進む。
一方、ステップS103において、グローバルマップの送信が要求されていないと判定された場合、ステップS104及びS105の処理はスキップされ、処理はステップS106に進む。
ステップS106において、動き予測部306は、各移動体の動きを予測する。具体的には、動き予測部306は、所定の時間前から現在までの間に位置情報記憶部302に蓄積された各情報端末11aからの位置情報に基づいて、各移動体の動きを予測する。動き予測部306は、各移動体の動きの予測結果を危険予測部307に通知する。
このとき、動き予測部306は、さらにグローバルマップを用いて移動体の動きを予測するようにしてもよい。例えば、動き予測部306は、グローバルマップにおいて、位置情報により予測される移動体の進行方向に静止物体が存在する場合、移動体がその静止物体を避けるように動くと予測するようにしてもよい。すなわち、動き予測部306は、移動体がグローバルマップ上の静止物体を避ける動きを予測するようにしてもよい。これにより、より正確に移動体の動きを予測することができる。
ステップS107において、危険予測部307は、危険予測を行う。具体的には、危険予測部307は、各移動体の動きの予測結果に基づいて、各移動体が、他の移動体との間で衝突、追突、接触等の事故が発生する危険性を予測する。
例えば、危険予測部307は、各移動体の動きの予測結果に基づいて、今後複数の移動体間の距離が所定の距離以内になることが予測される場合、当該複数の移動体が事故にあう危険性があると予測する。
例えば、図9及び図10に示されるように、一方の車線に移動体である車両401と車両402が前後に並んで走行し、対向車線に移動体である車両403と車両404が前後に並んで走行している例について検討する。
図9の例では、車両401乃至404は、それぞれ速度v1a乃至v4aで走行している。そして、速度v4a>速度v3aであり、車両403と車両404との間の距離が所定の距離以内になることが予測される場合、車両403と車両404との間に事故が発生する危険性がある(危険な状態である)と予測される。
一方、車両401と車両403が、対向車線上ですれ違うことが予測されるが、車両401と車両403との間は一定の距離が確保されるため、車両401及び車両403との間で事故が発生する危険性はない(危険な状態ではない)と判定される。また、速度v1aと速度v2aがほぼ等しい場合、車両401と車両402との間は一定の距離が確保されるため、車両401と車両402との間で事故が発生する危険性はない(危険な状態ではない)と判定される。
図10の例では、車両401乃至404は、それぞれ速度v1b乃至v4bで走行している。そして、車両402が対向車線の方向に進んでおり、車両402と車両403との間の距離が所定の距離以内になることが予測される場合、車両402と車両403との間で事故が発生する危険性がある(危険な状態である)と予測される。
一方、速度v3bと速度v4bがほぼ等しい場合、車両403と車両404との間は一定の距離が確保されるため、車両403と車両404との間で事故が発生する危険性はない(危険な状態ではない)と判定される。
また、例えば、危険予測部307は、移動体の速度及び進行方向、並びに、移動体間の距離等に基づいて、事故が発生する危険性の度合いや事故の重大度を示す危険度を算出するようにしてもよい。
ステップS108において、危険予測部307は、危険な状態を検出したか否かを判定する。例えば、危険予測部307は、ステップS109の処理の結果、移動体間の事故が発生する危険性を検出した場合、危険な状態を検出したと判定し、処理はステップS109に進む。
ステップS109において、危険通知部308は、事故にあう危険性のある移動体に危険を通知する。具体的には、危険予測部307は、事故にあう危険性のある移動体の位置、速度、及び、進行方向等を示す情報を危険通知部308に供給する。
危険通知部308は、事故にあう危険性のある移動体毎に、事故の相手となる他の移動体の位置、速度、及び、進行方向等を含む危険通知情報を生成する。なお、危険通知情報に、事故を回避するための方法を示す情報や、移動体が事故を回避するための処理に用いる制御情報等を含めるようにしてもよい。
また、例えば、危険通知部308は、危険予測部307により危険度が算出されている場合、危険度に応じて危険通知情報の内容を変更するようにしてもよい。例えば、危険通知部308は、危険度が高い場合、危険通知情報に移動体に対する制御情報を含め、危険度が低い場合、制御情報を含めないようにしてもよい。
また、例えば、危険通知部308は、危険度に応じて、危険通知情報に含める制御情報の内容を変更するようにしてもよい。例えば、危険通知部308は、危険度が高い場合、移動体の停止を指令する制御情報を含め、危険度が低い場合、移動体の減速を指令する制御情報を含めるようにしてもよい。
危険通知部308は、生成した危険通知情報を、送信部313を介して、事故にあう危険性のある移動体に備られている情報端末11aにそれぞれ送信する。
その後、処理は、ステップS110に進む。
一方、ステップS108において、危険な状態を検出していないと判定された場合、ステップS109の処理はスキップされ、処理はステップS110に進む。
ステップS110において、グローバルマップ更新部304は、グローバルマップを更新するか否かを判定する。グローバルマップを更新すると判定された場合、処理はステップS111に進む。
なお、グローバルマップを更新する条件は任意に設定することが可能である。例えば、所定の日付、曜日、又は、時間帯等にグローバルマップを更新するようにしてもよい。或いは、例えば、所定の時間間隔でグローバルマップを更新するようにしてもよい。或いは、例えば、マップ情報記憶部303において、前回の更新後の各情報端末11aからのローカルマップの蓄積量が所定の量以上になった場合に、グローバルマップを更新するようにしてもよい。
ステップS111において、グローバルマップ更新部304は、グローバルマップを更新する。例えば、グローバルマップ更新部304は、前回の更新後にマップ情報記憶部303に蓄積されているローカルマップと、マップ情報記憶部303に記憶されているグローバルマップとの比較を行い、情報が異なる領域を抽出する。グローバルマップ更新部304は、抽出したグローバルマップの領域のうち、ローカルマップの信頼度が高い領域を、ローカルマップの情報に置き換える。ここで、ローカルマップの信頼度が高い領域とは、例えば、所定の数以上の情報端末11aからのローカルマップの情報が一致する領域等である。
このように、各情報端末11aから送信されるローカルマップに基づいて、グローバルマップを更新することにより、各地の状況の変化がリアルタイムにグローバルマップに反映される。
例えば、移動体が所定の期間以上同じ位置にとどまっている場合に、その移動体の情報をグローバルマップに反映することができる。例えば、長時間駐車している車両等をグローバルマップに反映することができる。
また、例えば、静止物体が新たに出現したり、位置が変化したり、消滅したりした場合に、その変化をグローバルマップに反映することができる。たとえ、倒れてきた樹木、落下してきた岩等をグローバルマップに反映することができる。
そして、各地の状況の変化がリアルタイムにグローバルマップに更新されることにより、各移動体の危険予測の精度が向上し、より確実に事故を防止することが可能になる。
グローバルマップ更新部304は、更新したグローバルマップをマップ情報記憶部303に記憶させる。
その後、処理はステップS112に進む。
一方、ステップS110において、グローバルマップを更新しないと判定された場合、ステップS111の処理はスキップされ、処理はステップS112に進む。
ステップS112において、危険領域マップ更新部305は、危険領域マップを更新するか否かを判定する。危険領域マップを更新すると判定された場合、処理はステップS113に進む。
なお、危険領域マップを更新する条件は任意に設定することが可能である。例えば、所定の日付、曜日、又は、時間帯等に危険領域マップを更新するようにしてもよい。或いは、例えば、所定の時間間隔で危険領域マップを更新するようにしてもよい。或いは、例えば、グローバルマップの更新に合わせて危険領域マップを更新するようにしてもよい。或いは、例えば、マップ情報記憶部303において、前回の更新後の各情報端末11aからの危険領域情報の蓄積量が所定の量以上になった場合に、危険領域マップを更新するようにしてもよい。
ステップS113において、危険領域マップ更新部305は、危険領域マップを更新する。例えば、危険領域マップ更新部305は、現時点で危険領域マップにおいて危険領域に設定されていない領域のうち、各情報端末11aから危険領域であると通知された頻度が所定の閾値を超えた領域を、新たに危険領域に設定する。また、例えば、危険領域マップ更新部305は、現在危険領域に設定されている領域であっても、各情報端末11aから危険領域であると通知される頻度が非常に低い場合、危険領域の設定を外すようにしてもよい。
その後、処理はステップS114に進む。
一方、ステップS112において、危険領域マップを更新しないと判定された場合、ステップS113の処理はスキップされ、処理はステップS114に進む。
ステップS114において、シミュレーション部309は、事故が発生したか否かを判定する。例えば、シミュレーション部309は、受信部301を介して、外部のサーバや情報端末11a等から、移動体の事故の発生を示す事故情報を受信した場合、事故が発生したと判定し、処理はステップS115に進む。
なお、事故情報を送信する外部のサーバとして、例えば、eCallシステムのサーバ等が想定される。
ステップS115において、シミュレーション部309は、事故に関連する位置情報を保存するように設定する。例えば、シミュレーション部309は、位置情報記憶部302に記憶されている位置情報のうち、送信時刻が事故の発生時刻前後の所定の期間内であり、位置情報に示される位置が事故の発生場所を含む所定の範囲内である位置情報を、発生した事故に関連する位置情報に設定する。事故に関連する位置情報は、例えば、古い位置情報を位置情報記憶部302から消去する場合でも、消去されずにそのまま保存される。
その後、処理はステップS116に進む。
一方、ステップS114において、事故が発生していないと判定された場合、ステップS115の処理はスキップされ、処理はステップS116に進む。
ステップS116において、シミュレーション部309は、事故のシミュレーションの実行が指令されたか否かを判定する。例えば、シミュレーション部309は、図示せぬ入力部を介して事故のシミュレーションの実行の指令が入力されたり、或いは、受信部301を介して、他のサーバ等から事故のシミュレーションの実行の指令を受信した場合、事故のシミュレーションの実行が指令されたと判定し、処理はステップS117に進む。
ステップS117において、シミュレーション部309は、事故のシミュレーションを実行する。例えば、シミュレーション部309は、シミュレーションにより再現する事故に関連する位置情報を位置情報記憶部302から取得する。そして、例えば、シミュレーション部309は、取得した位置情報に基づいて、事故の発生状況を示すシミュレーション画像を生成し、表示する。例えば、シミュレーション画像において、事故の現場付近の事故の発生前後の移動体の動きが再現される。
或いは、例えば、シミュレーション部309は、取得した位置情報に基づいて、上述したシミュレーション画像を表示するためのシミュレーションデータを生成する。そして、シミュレーション部309は、生成したシミュレーションデータを、送信部312を介して、要求元の他のサーバに送信する。
その後、処理はステップS103に戻り、ステップS103以降の処理が実行される。
一方、ステップS116において、事故のシミュレーションの実行が指令されていないと判定された場合、処理はステップS103に戻り、ステップS103以降の処理が実行される。
以上のようにして、情報端末11が備えられている移動体の事故を確実に防止することができる。
例えば、SLAMを用いることにより、移動体の位置及び速度の推定精度が向上し、移動体の危険予測の精度が向上するため、移動体の事故を確実に防止することができる。
具体的には、例えば、GPSを用いて移動体の位置を測定する場合、GPS衛星からの電波を受信が困難な都市部等において、移動体の位置を正確に測定することができない。また、民間利用におけるGPSの位置の測定精度は10m程度である。従って、GPSを用いた場合、移動体の危険予測の精度が低下する場合がある。
一方、各情報端末11aでは、SLAMを用いることにより、周囲の条件や環境によらずに、安定して各移動体の位置、姿勢及び速度を高精度に推定することができる。例えば、SLAMでは、数cmの精度で移動体の位置を推定することができる。従って、各移動体の動きの推定精度が向上し、移動体の危険予測の精度が向上する。
また、サーバ12aにおいて、各移動体間の危険予測を行うことにより、各移動体単独で危険予測を行う場合と比較して、危険予測の精度が向上する。
具体的には、SLAMは、基本的に静止物に対する移動体の位置及び姿勢を推定する技術であり、周囲の移動体の認識を主目的とする技術ではない。また、SLAMでは、カメラの死角にある画像に写らない他の移動体を認識することができない。
例えば、図11の例では、異なる道を進んでいる車両421と車両422が、同じ交差点に差し掛かっている。しかし、この交差点は、道路脇の木により見通しが悪くなっており、車両421及び車両422から、お互いの車両の動きを認識することが困難である。
また、例えば、図12の例では、駐車中の車両433及び車両433により、車両431の前方の視界が遮られている。従って、車両431から、対向車線から接近中の車両432の動きを認識することが困難である。
これに対して、サーバ12aは、車両421及び車両422、並びに、車両431及び車両432の位置情報を収集し、各車両の動きを予測した上で、各車両の危険予測を行う。これにより、サーバ12aは、車両421と車両422の事故、及び、車両431と車両432に事故の発生を予測し、未然に防ぐことができる。
さらに、サーバ12aは、各情報端末11aからローカルマップを収集し、収集したローカルマップに基づいてグローバルマップを更新する。これにより、各地の状況の変化を迅速かつ正確にグローバルマップに反映することができため、各移動体の危険予測の精度が向上し、確実に各移動体の事故を防止することができる。
また、例えば、移動体の位置を検出するために、危険領域毎に監視カメラ等を設置する必要がないため、工事やコストの削減を実現することができる。
さらに、サーバ12aは、事故に関連する位置情報を保存し、後で事故の発生状況のシミュレーションを行うことができるので、現場検証、事故の原因の解析、事故防止の対策等を支援することができる。
<2.第2の実施の形態>
次に、図13乃至図17を参照して、本技術の第2の実施の形態について説明する。
{情報端末11の第2の実施の形態}
図13は、図1の情報端末11の第2の実施の形態である情報端末11bの機能の構成例を示している。なお、図中、図2と対応する部分には、同じ符号を付してある。
情報端末11bは、図2の情報端末11aと比較して、情報処理部103の代わりに情報処理部501が設けられている点が異なる。情報処理部501は、情報処理部103と比較して、危険領域判定部112の代わりに、 危険領域判定部511が設けられている点が異なる。
危険領域判定部511は、自移動体が危険領域内にあるか否かの判定結果を、受信部102を介してサーバ12b(図14)から受信する。 危険領域判定部511は、受信した判定結果に基づいて、自移動体が危険領域内にあるか否かを判定し、判定結果をSLAM処理部111に通知する。
{サーバ12の第2の実施の形態}
図14は、図1のサーバ12の第2の実施の形態であるサーバ12bの機能の構成例を示している。なお、図中、図4と対応する部分には、同じ符号を付してある。
サーバ12bは、図4のサーバ12aと比較して、グローバルマップ検索部310及び危険領域通知部311の代わりに、グローバルマップ検索部601及び危険領域判定部602が設けられている点が異なる。
グローバルマップ検索部601は、受信部301を介して、各情報端末11bからグローバルマップ送信要求情報を受信する。そして、グローバルマップ検索部601は、マップ情報記憶部303に記憶されているグローバルマップにおいて、グローバルマップ送信要求情報に含まれるローカルマップの画像検索を行う。グローバルマップ検索部601は、検索した領域及びその周辺の領域のマップをグローバルマップから抽出し、抽出したマップを、送信部312を介して要求元の情報端末11bに送信する。また、グローバルマップ検索部601は、検索結果に基づいて、要求元の移動体の現在位置を検出し、検出結果を危険領域判定部602に供給する。
危険領域判定部602は、グローバルマップ検索部310により検出された要求元の移動体の現在位置が、マップ情報記憶部303に記憶されている危険領域マップに示される危険領域内であるか否かを判定する。危険領域判定部602は、判定結果を、送信部312を介して、グローバルマップの要求元の情報端末11bに送信する。
{情報処理システム1の処理の第2の実施の形態}
次に、図15乃至図17を参照して、情報処理システム1の処理の第2の実施の形態について説明する。
(情報端末11bの処理)
まず、図15のフローチャートを参照して、情報端末11bの処理について説明する。
ステップS201乃至S203において、図6のステップS1乃至S3と同様の処理が実行される。
ステップS204において、 危険領域判定部511は、自移動体が危険領域内にあるか否かを判定する。具体的には、 危険領域判定部511は、サーバ12bから自移動体が危険領域内にあるという判定結果を受信している場合、自移動体が危険領域内にあると判定し、処理はステップS205に進む。
ステップS205において、図6のステップS5の処理と同様に、位置情報及びローカルマップがサーバ12bに送信される。
その後、処理はステップS206に進む。
一方、ステップS204において、 危険領域判定部511は、サーバ12bから自移動体が危険領域外にあるという判定結果を受信している場合、又は、サーバ12bから判定結果を受信していない場合、自移動体が危険領域内にないと判定する。そして、ステップS205の処理はスキップされ、処理はステップS206に進む。
ステップS206乃至S210において、図6のステップS6乃至S10と同様の処理が実行される。
ステップS211において、図6のステップS11の処理と同様に、グローバルマップの送信を要求するか否かが判定される。グローバルマップの送信を要求すると判定された場合、処理はステップS212に進む。
ステップS212において、図6のステップS12の処理と同様に、グローバルマップ送信要求情報がサーバ12aに送信される。
サーバ12aは、後述する図16のステップS302において、グローバルマップ送信要求情報を受信し、ステップS305において、要求元の自移動体の周辺のグローバルマップ及び危険領域の判定結果を送信する。
ステップS213において、受信部102は、サーバ12aから送信されたグローバルマップ及び危険領域の判定結果を受信する。受信部102は、受信したグローバルマップをマップ情報記憶部216に記憶させ、危険領域の判定結果を 危険領域判定部511に供給する。
その後、処理はステップS201に戻り、ステップS201以降の処理が実行される。
一方、ステップS211において、グローバルマップの送信を要求しないと判定された場合、処理はステップS201に戻り、ステップS201以降の処理が実行される。
(サーバ12bの処理)
次に、図16及び図17のフローチャートを参照して、図15の情報端末11bの処理に対応して実行される、サーバ12bの処理について説明する。
ステップS301において、図7のステップS101の処理と同様に、各情報端末11bから送信されてくる位置情報、ローカルマップ及び危険領域通知情報の受信が開始される。
ステップS302において、図7のステップS103の処理と同様に、グローバルマップの送信が要求されたか否かが判定される。グローバルマップの送信が要求されたと判定された場合、処理はステップS303に進む。
ステップS303において、図7のステップS104の処理と同様に、要求元の移動体周辺のグローバルマップが検索される。また、グローバルマップ検索部310は、検索結果に基づいて、要求元の移動体の現在位置を検出し、検出結果を危険領域判定部602に供給する。
ステップS304において、危険領域判定部602は、要求元の移動体が危険領域内にあるか否かを判定する。具体的には、危険領域判定部602は、グローバルマップ検索部310により検出された要求元の移動体の現在位置が、マップ情報記憶部303に記憶されている危険領域マップに示される危険領域内にあるか否かを判定する。
ステップS305において、サーバ12bは、グローバルマップ及び危険領域の判定結果を送信する。具体的には、グローバルマップ検索部310は、ステップS305の処理で検索された領域及びその周辺の領域のマップをグローバルマップから抽出する。グローバルマップ検索部310は、抽出したマップを送信部312に供給する。
危険領域判定部602は、ステップS304の処理における判定結果を送信部312に通知する。
送信部312は、グローバルマップ検索部310から供給されたマップ、及び、危険領域判定部602から通知された判定結果を、要求元の情報端末11bに送信する。
その後、処理はステップS306に進む。
一方、ステップS302において、グローバルマップの送信が要求されていないと判定された場合、ステップS303乃至S305の処理はスキップされ、処理はステップS306に進む。
その後、ステップS306乃至S317において、図7のステップS106乃至S117と同様の処理が実行される。そして、処理はステップS302に戻り、ステップS302以降の処理が実行される。
この第2の実施の形態では、各移動体が危険領域内にあるか否かがサーバ12bで判定されるため、各情報端末11bの処理を軽減することができる。
<3.第3の実施の形態>
次に、図18を参照して、本技術の第3の実施の形態について説明する。
第3の実施の形態は、第1の実施の形態と比較して、情報端末11のSLAM処理部111の構成が異なる。
{SLAM処理部111bの構成例}
図18は、図2のSLAM処理部111の第2の実施の形態であるSLAM処理部111bの機能の構成例を示している。なお、図中、図3と対応する部分には同じ符号を付してある。
SLAM処理部111bは、図3のSLAM処理部111aと比較して、推定部201の代わりに、推定部701が設けられている点が異なる。推定部701は、推定部201と比較して、特徴量算出部215、動きマッチング部217、移動量推定部218、物体辞書記憶部219、物体認識部220、及び、位置姿勢推定部222の代わりに、特徴量算出部711、画像検索部712、特徴点マッチング部713、位置姿勢推定部714、及び、移動量推定部715が設けられている点が異なる。
特徴量算出部711は、SLAM処理部111aの特徴量算出部215と同様に、左画像の各特徴点の特徴量を算出する。特徴量算出部711は、各特徴点に関する特徴点情報を、画像検索部712及び特徴点マッチング部713に供給するとともに、マップ情報記憶部216に記憶させる。
画像検索部712は、特徴量算出部711から供給された特徴量情報に基づいて、マップ情報記憶部216に記憶されているグローバルマップの中から、左画像と類似する画像を検索する。すなわち、画像検索部712は、グローバルマップの中から、自移動体の周辺の画像を検索する。画像検索部712は、検出された画像(以下、類似画像と称する)を特徴点マッチング部713に供給する。
特徴点マッチング部713は、特徴量算出部711から供給された特徴量情報に基づいて、特徴点検出部212により検出された特徴点に対応する類似画像の特徴点を検出する。特徴点マッチング部713は、類似画像、及び、特徴点の検出結果を位置姿勢推定部714に供給する。
位置姿勢推定部714は、類似画像における特徴点の位置に基づいて、グローバルマップ(すなわち、空間座標系)における自移動体(より正確には、カメラ201L)の位置及び姿勢を推定する。位置姿勢推定部714は、自移動体の位置及び姿勢を示す位置姿勢情報を、危険領域判定部112、危険予測部113、位置情報生成部202、速度推定部223、及び、移動量推定部715に供給するとともに、位置姿勢情報記憶部221に記憶させる。
移動量推定部715は、位置姿勢情報記憶部221に記憶されている1つ前のフレームと現在のフレームの位置姿勢情報に基づいて、1つ前のフレームと現在のフレームとの間の自移動体の位置及び姿勢の移動量を推定する。移動量推定部715は、推定した自移動体の位置及び姿勢の移動量を示す移動量情報を、物体検出部203及び速度推定部223に供給する。
このように、第3の実施の形態では、グローバルマップを用いて、移動体の位置及び姿勢が直接推定される。
<4.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
{移動体の位置、姿勢、速度等の推定方法に関する変形例}
以上の説明では、2台のカメラを用いたステレオカメラ方式のSLAMを用いる例を示したが、例えば、1台又は3台以上のカメラを用いたSLAMを用いて、移動体の位置、姿勢、速度等を推定するようにしてもよい。
また、以上の説明では、SLAM処理部111aが、隣接するフレームの画像(1つ前のフレームの画像と現在のフレームの画像)を用いて、動きマッチング、移動量推定、位置姿勢推定、物体検出等の処理を行う例を示したが、例えば、2フレーム以上離れた画像(例えば、2以上のNフレーム前の画像と現在のフレームの画像)を用いて処理を行うようにしてもよい。これは、SLAM処理部111bについても同様である。
さらに、SLAM以外の方法により、移動体から撮影した画像に基づいて、移動体の位置、姿勢、速度等を推定するようにすることも可能である。
{危険領域マップに関する変形例}
例えば、危険領域マップの各危険領域に危険度を設定し、情報端末11が、危険度に応じた処理を行うようにしてもよい。
また、例えば、時間帯、季節、天候等により、危険な領域及び危険度は異なる。そこで、時間帯、季節、天候等の違いにより複数の危険領域マップを作成し、複数の危険領域マップを使い分けるようにしてもよい。
また、以上の説明では、情報端末11が、他の移動体との事故にあう危険性を検出した場所を危険領域としてサーバ12に通知する例を示したが、異なる方法により危険領域を検出するようにすることが可能である。例えば、左画像又は右画像内で、進行方向の視界を遮る領域が所定の割合以上になる場所を危険領域として検出するようにしてもよい。
{装置の構成や処理分担に関する変形例}
以上の説明では、各移動体の動きをサーバ12で予測する例を示したが、例えば、各情報端末11が、サーバ12aの動き予測部306と同様の処理により自移動体の動きを予測し、予測結果を位置情報に含めてサーバ12に送信するようにしてもよい。そして、例えば、サーバ12が、各情報端末11からの移動体の動きの予測結果に基づいて、各移動体の危険予測を行うようにしてもよい。
また、例えば、カメラ101L,101Rを情報端末11の外部に設けるようにしてもよい。
{本技術の適用範囲について}
以上の説明では、主に移動体が車両である場合を例に挙げて説明したが、上述したように、本技術は、移動体が車両以外の人、飛行機、ヘリコプター、ドローン等の場合にも適用することができる。また、本技術は、移動体が、原動機により動く車両の場合だけでなく、レール又は架線により運転する車両や、人の力により動く車両等の場合にも適用することができる。さらに、車両の運転方法(例えば、自動運転、マニュアル運転、遠隔操作等)の違いに関わらず、本技術は適用することが可能である。
また、本技術は、例えば、多くの移動体が行き交う場合や、移動体からの死角が発生しやすい場合に適用すると、大きな効果が得られる。例えば、ヘッドマウントディスプレイを装着した人がAR(拡張現実)やVR(仮想現実)のアプリケーションを利用する場合、多くの人が行き交う路上やイベント会場等において、人同士の衝突、追突、接触等の事故が発生しやすい。そこで、例えば、上述した情報端末11をウエアラブルデバイスにより実現し、人同士の事故を回避するように人を誘導することが想定される。
さらに、飛行機、ドローン、ヘリコプター等の空中を移動する移動体の場合、移動体から地上を撮影するようにすることにより、SLAM技術を適用することが可能になる。
また、本技術は、2種類以上の移動体間の事故を防止する場合にも適用することができる。例えば、自動車、自転車及び人の間の事故、自動車と電車の間の事故等を防止する場合にも適用することができる。
<5.応用例>
{コンピュータの構成例}
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
{車両制御システムへの適用例}
また、上述したように、情報端末11は、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車などのいずれかの種類の車両に搭載される装置として実現することが可能である。
図20は、本技術が適用され得る車両制御システム1000の概略的な構成の一例を示すブロック図である。車両制御システム1000は、通信ネットワーク1001を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム1000は、駆動系制御ユニット1002、ボディ系制御ユニット1004、バッテリ制御ユニット1005、車外情報検出装置1007、車内情報検出装置1010、及び統合制御ユニット1012を備える。これらの複数の制御ユニットを接続する通信ネットワーク1001は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク1001を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図20では、統合制御ユニット1012の機能構成として、マイクロコンピュータ1051、汎用通信I/F1052、専用通信I/F1053、測位部1054、ビーコン受信部1055、車内機器I/F1056、音声画像出力部1057、車載ネットワークI/F1058及び記憶部1059が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット1002は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット1002は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット1002は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット1002には、車両状態検出部1003が接続される。車両状態検出部1003には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット1002は、車両状態検出部1003から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット1004は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット1004は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット1004には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット1004は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット1005は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池1006を制御する。例えば、バッテリ制御ユニット1005には、二次電池1006を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット1005は、これらの信号を用いて演算処理を行い、二次電池1006の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出装置1007は、車両制御システム1000を搭載した車両の外部の情報を検出する。例えば、車外情報検出装置1007には、撮像部1008及び車外情報検出部1009のうちの少なくとも一方が接続される。撮像部1008には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部1009には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム1000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部1008及び車外情報検出部1009は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図21は、撮像部1008及び車外情報検出部1009の設置位置の例を示す。撮像部1101F,1101L,1101R,1101B,1101Cは、例えば、車両1100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部1101F及び車室内のフロントガラスの上部に備えられる撮像部1101Cは、主として車両1100の前方の画像を取得する。サイドミラーに備えられる撮像部1101L,1101Rは、主として車両1100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部1101Bは、主として車両1100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部1101Cは、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図21には、それぞれの撮像部1101F,1101L,1101R,1101Bの撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部1101Fの撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部1101L,1101Rの撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部1101Bの撮像範囲を示す。例えば、撮像部1101F,1101L,1101R,1101Bで撮像された画像データが重ね合わせられることにより、車両1100を上方から見た俯瞰画像が得られる。
車両1100のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部1102F,1102FL,1102FR,1102ML,1102MR,1102C,1102BL,1102BR,1102Bは、例えば超音波センサ又はレーダ装置であってよい。車両1100のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部1102F,1102C,1102Bは、例えばLIDAR装置であってよい。これらの車外情報検出部1102F乃至1102Bは、主として先行車両、歩行者又は障害物等の検出に用いられる。
図20に戻って説明を続ける。車外情報検出装置1007は、撮像部1008に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出装置1007は、接続されている車外情報検出部1009から検出情報を受信する。車外情報検出部1009が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出装置1007は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出装置1007は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出装置1007は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出装置1007は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出装置1007は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出装置1007は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部1008により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出装置1007は、異なる撮像部1008により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出装置1010は、車内の情報を検出する。車内情報検出装置1010には、例えば、運転者の状態を検出する運転者状態検出部1011が接続される。運転者状態検出部1011は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出装置1010は、運転者状態検出部1011から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出装置1010は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット1012は、各種プログラムにしたがって車両制御システム1000内の動作全般を制御する。統合制御ユニット1012には、入力部1018が接続されている。入力部1018は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。入力部1018は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム1000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部1018は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力部1018は、例えば、上記の入力部1018を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット1012に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部1018を操作することにより、車両制御システム1000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部1059は、マイクロコンピュータにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するROM(Read Only Memory)を含んでいてもよい。また、記憶部1059は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F1052は、外部環境1016に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F1052は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F1052は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F1052は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F1053は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F1053は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)といった標準プロトコルを実装してよい。専用通信I/F1053は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部1054は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部1054は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部1055は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部1055の機能は、上述した専用通信I/F1053に含まれてもよい。
車内機器I/F1056は、マイクロコンピュータ1051と車内に存在する様々な機器との間の接続を仲介する通信インタフェースである。車内機器I/F1056は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F1056は、図示しない接続端子(及び、必要であればケーブル)を介して有線接続を確立してもよい。車内機器I/F1056は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F1058は、マイクロコンピュータ1051と通信ネットワーク1001との間の通信を仲介するインタフェースである。車載ネットワークI/F1058は、通信ネットワーク1001によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット1012のマイクロコンピュータ1051は、汎用通信I/F1052、専用通信I/F1053、測位部1054、ビーコン受信部1055、車内機器I/F1056及び車載ネットワークI/F1058のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム1000を制御する。例えば、マイクロコンピュータ1051は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット1002に対して制御指令を出力してもよい。例えば、マイクロコンピュータ1051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ1051は、汎用通信I/F1052、専用通信I/F1053、測位部1054、ビーコン受信部1055、車内機器I/F1056及び車載ネットワークI/F1058のうちの少なくとも一つを介して取得される情報に基づき、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ1051は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部1057は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ1013、表示部1014及びインストルメントパネル1015が例示されている。表示部1014は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部1014は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ1051が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図20に示した例において、通信ネットワーク1001を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム1000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク1001を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク1001を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム1000において、例えば、図2の情報端末11aの情報処理部103及び図13の情報端末11bの情報処理部501は、図20の統合制御ユニット1012に適用することができる。また、例えば、図2の情報端末11a及び図13の情報端末11bの受信部102及び送信部104は、図20の汎用通信I/F1052に適用することができる。さらに、例えば、図2の情報端末11a及び図13の情報端末11bのカメラ101L,101Rは、図20の撮像部1008に適用することができる。なお、カメラ101L,101Rは、例えば、基線長をかせぐために、図21の車外情報検出部1102FL,1102FRの位置に設けることが想定される。
また、情報処理部103及び情報処理部501の少なくとも一部の構成要素は、図20に示した統合制御ユニット1012のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、情報処理部103及び情報処理部501が、図20に示した車両制御システム1000の複数の制御ユニットによって実現されてもよい。
なお、情報処理部103及び情報処理部501の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、例えば、本技術は以下のような構成も取ることができる。
(1)
各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信部と、
推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測部と
を備える情報処理装置。
(2)
推定された各前記移動体の位置及び速度に基づいて、各前記移動体の動きを予測する動き予測部を
さらに備える前記(1)に記載の情報処理装置。
(3)
前記受信部は、各前記移動体から撮影された画像内の特徴点の3次元空間内の位置を示すローカルマップを各前記情報端末から受信し、
受信した前記ローカルマップに基づいて、所定の領域内の特徴点の3次元空間の位置を示すグローバルマップを更新するグローバルマップ更新部を
さらに備え、
前記動き予測部は、さらに前記グローバルマップに基づいて、各前記移動体の動きを予測する
前記(2)に記載の情報処理装置。
(4)
前記動き予測部は、各前記移動体が前記グローバルマップ上の静止物体を避ける動きを予測する
前記(3)に記載の情報処理装置。
(5)
前記位置情報は、各前記情報端末が予測した各前記移動体の動きを含み、
前記危険予測部は、各前記情報端末が予測した各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う
前記(1)に記載の情報処理装置。
(6)
前記危険予測部により事故にあう危険性があると予測された前記移動体に備えられている前記情報端末への危険の通知を行う危険通知部を
さらに備える前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記危険通知部は、前記移動体が事故を回避するための処理に用いる制御情報を前記情報端末に送信する
前記(6)に記載の情報処理装置。
(8)
前記受信部は、事故が発生する危険性がある危険領域の検出結果を各前記情報端末から受信し、
各前記情報端末による前記危険領域の検出結果に基づいて、前記危険領域を示す危険領域マップを更新する危険領域マップ更新部と、
前記危険領域マップに基づいて、各前記情報端末に前記危険領域を通知する危険領域通知部と
をさらに備える前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記受信部は、事故が発生する危険性がある危険領域の検出結果を各前記情報端末から受信し、
各前記情報端末による前記危険領域の検出結果に基づいて、前記危険領域を示す危険領域マップを更新する危険領域マップ更新部と、
前記危険領域マップに基づいて、各前記移動体が前記危険領域内にあるか否かを判定し、判定結果を各前記情報端末に通知する危険領域判定部と
をさらに備える前記(1)乃至(7)のいずれかに記載の情報処理装置。
(10)
前記移動体の事故の発生を示す事故情報を受信した場合、前記事故に関連する位置情報を保存する記憶部を
さらに備える前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記記憶部に保存されている前記位置情報に基づいて、前記移動体の事故の発生状況のシミュレーションを行うシミュレーション部を
さらに備える前記(10)に記載の情報処理装置。
(12)
情報処理装置が、
各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信ステップと、
推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測ステップと
を含む情報処理方法。
(13)
移動体に備えられ、
前記移動体から撮影された画像に基づいて前記移動体の位置及び速度を推定する推定部と、
推定された前記移動体の位置及び速度を含む位置情報を情報処理装置に送信する送信部と、
前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理を行う危険回避処理部と
を備える情報端末。
(14)
前記推定部は、前記移動体から撮影された画像内の特徴点と前記移動体との相対位置に基づいて、前記移動体の位置及び速度を推定する
前記(13)に記載の情報端末。
(15)
前記特徴点の3次元空間内の位置を示すローカルマップを生成するローカルマップ生成部を
さらに備え、
前記送信部は、さらに前記ローカルマップを前記情報処理装置に送信する
前記(14)に記載の情報端末
(16)
前記特徴点に基づいて、前記移動体の周辺の物体の検出を行う物体検出部と、
推定された前記移動体の位置及び速度、並びに、前記物体の検出結果に基づいて、前記移動体の事故の予測を行う危険予測部と
をさらに備え、
前記危険回避処理部は、さらに前記危険予測部により前記移動体が事故にあう危険性が予測された場合、事故を回避するための処理を行う
前記(14)又は(15)に記載の情報端末。
(17)
前記推定部は、推定した前記移動体の位置及び速度に基づいて、前記移動体の動きを予測し、
前記送信部は、前記移動体の動きの予測結果を含む前記位置情報を前記情報処理装置に送信する
前記(13)乃至(16)のいずれかに記載の情報端末。
(18)
前記送信部は、前記情報処理装置からの情報に基づいて、事故が発生する危険性がある危険領域内に前記移動体があると判定した場合、前記位置情報を前記情報処理装置に送信する
前記(13)乃至(17)のいずれかに記載の情報端末。
(19)
前記危険予測部は、さらに前記危険領域の検出を行い、
前記送信部は、前記危険領域の検出結果を前記情報処理装置に送信する
前記(18)に記載の情報端末。
(20)
移動体に備えられた情報端末が、
前記移動体から撮影された画像に基づいて前記移動体の位置及び速度を推定する推定ステップと、
推定された前記移動体の位置及び速度を含む位置情報を情報処理装置に送信する送信ステップと、
前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理を行う危険回避処理ステップと
を含む情報処理方法。
1 情報処理ステム, 11−1乃至11−n,11a,11b 情報端末, 12,12a,12b サーバ, 101R,101L カメラ, 102 受信部, 103 情報処理部, 104 送信部, 111,111a,111b SLAM処理部, 112 危険領域判定部, 113 危険予測部, 114 危険回避処理部, 201 推定部, 202 位置情報生成部, 203 物体検出部, 204 ローカルマップ生成部, 211L,211R 画像補正部, 212 特徴点検出部, 213 視差マッチング部, 214 距離推定部, 215 特徴量算出部, 216 マップ情報記憶部, 217 動きマッチング部, 218 移動量推定部, 219 物体辞書記憶部, 220 物体認識部, 221 位置姿勢情報記憶部, 222 位置姿勢推定部, 301 受信部, 302 位置情報記憶部, 303 マップ情報記憶部, 304 グローバルマップ更新部, 305 危険領域マップ更新部, 306 動き予測部, 307 危険予測部, 308 危険通知部, 309 シミュレーション部, 310 グローバルマップ検索部, 311 危険領域通知部, 312 送信部, 501 情報処理部, 511 危険領域判定部, 601 グローバルマップ検索部, 602 危険領域判定部, 711 特徴量算出部, 712 画像検索部, 713 特徴点マッチング部, 714 位置姿勢推定部, 715 移動量推定部

Claims (20)

  1. 各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信部と、
    推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測部と
    を備える情報処理装置。
  2. 推定された各前記移動体の位置及び速度に基づいて、各前記移動体の動きを予測する動き予測部を
    さらに備える請求項1に記載の情報処理装置。
  3. 前記受信部は、各前記移動体から撮影された画像内の特徴点の3次元空間内の位置を示すローカルマップを各前記情報端末から受信し、
    受信した前記ローカルマップに基づいて、所定の領域内の特徴点の3次元空間の位置を示すグローバルマップを更新するグローバルマップ更新部を
    さらに備え、
    前記動き予測部は、さらに前記グローバルマップに基づいて、各前記移動体の動きを予測する
    請求項2に記載の情報処理装置。
  4. 前記動き予測部は、各前記移動体が前記グローバルマップ上の静止物体を避ける動きを予測する
    請求項3に記載の情報処理装置。
  5. 前記位置情報は、各前記情報端末が予測した各前記移動体の動きを含み、
    前記危険予測部は、各前記情報端末が予測した各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う
    請求項1に記載の情報処理装置。
  6. 前記危険予測部により事故にあう危険性があると予測された前記移動体に備えられている前記情報端末への危険の通知を行う危険通知部を
    さらに備える請求項1に記載の情報処理装置。
  7. 前記危険通知部は、前記移動体が事故を回避するための処理に用いる制御情報を前記情報端末に送信する
    請求項6に記載の情報処理装置。
  8. 前記受信部は、事故が発生する危険性がある危険領域の検出結果を各前記情報端末から受信し、
    各前記情報端末による前記危険領域の検出結果に基づいて、前記危険領域を示す危険領域マップを更新する危険領域マップ更新部と、
    前記危険領域マップに基づいて、各前記情報端末に前記危険領域を通知する危険領域通知部と
    をさらに備える請求項1に記載の情報処理装置。
  9. 前記受信部は、事故が発生する危険性がある危険領域の検出結果を各前記情報端末から受信し、
    各前記情報端末による前記危険領域の検出結果に基づいて、前記危険領域を示す危険領域マップを更新する危険領域マップ更新部と、
    前記危険領域マップに基づいて、各前記移動体が前記危険領域内にあるか否かを判定し、判定結果を各前記情報端末に通知する危険領域判定部と
    をさらに備える請求項1に記載の情報処理装置。
  10. 前記移動体の事故の発生を示す事故情報を受信した場合、前記事故に関連する位置情報を保存する記憶部を
    さらに備える請求項1に記載の情報処理装置。
  11. 前記記憶部に保存されている前記位置情報に基づいて、前記移動体の事故の発生状況のシミュレーションを行うシミュレーション部を
    さらに備える請求項10に記載の情報処理装置。
  12. 情報処理装置が、
    各移動体から撮影された画像に基づいて推定された各前記移動体の位置及び速度を示す位置情報を各前記移動体に備えられている情報端末から受信する受信ステップと、
    推定された各前記移動体の位置及び速度に基づいて予測される各前記移動体の動きに基づいて、各前記移動体間の事故の予測を行う危険予測ステップと
    を含む情報処理方法。
  13. 移動体に備えられ、
    前記移動体から撮影された画像に基づいて前記移動体の位置及び速度を推定する推定部と、
    推定された前記移動体の位置及び速度を含む位置情報を情報処理装置に送信する送信部と、
    前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理を行う危険回避処理部と
    を備える情報端末。
  14. 前記推定部は、前記移動体から撮影された画像内の特徴点と前記移動体との相対位置に基づいて、前記移動体の位置及び速度を推定する
    請求項13に記載の情報端末。
  15. 前記特徴点の3次元空間内の位置を示すローカルマップを生成するローカルマップ生成部を
    さらに備え、
    前記送信部は、さらに前記ローカルマップを前記情報処理装置に送信する
    請求項14に記載の情報端末
  16. 前記特徴点に基づいて、前記移動体の周辺の物体の検出を行う物体検出部と、
    推定された前記移動体の位置及び速度、並びに、前記物体の検出結果に基づいて、前記移動体の事故の予測を行う危険予測部と
    をさらに備え、
    前記危険回避処理部は、さらに前記危険予測部により前記移動体が事故にあう危険性が予測された場合、事故を回避するための処理を行う
    請求項14に記載の情報端末。
  17. 前記推定部は、推定した前記移動体の位置及び速度に基づいて、前記移動体の動きを予測し、
    前記送信部は、前記移動体の動きの予測結果を含む前記位置情報を前記情報処理装置に送信する
    請求項13に記載の情報端末。
  18. 前記送信部は、前記情報処理装置からの情報に基づいて、事故が発生する危険性がある危険領域内に前記移動体があると判定した場合、前記位置情報を前記情報処理装置に送信する
    請求項13に記載の情報端末。
  19. 前記危険予測部は、さらに前記危険領域の検出を行い、
    前記送信部は、前記危険領域の検出結果を前記情報処理装置に送信する
    請求項18に記載の情報端末。
  20. 移動体に備えられた情報端末が、
    前記移動体から撮影された画像に基づいて前記移動体の位置及び速度を推定する推定ステップと、
    推定された前記移動体の位置及び速度を含む位置情報を情報処理装置に送信する送信ステップと、
    前記情報処理装置から前記移動体が事故にあう危険性が通知された場合、事故を回避するための処理を行う危険回避処理ステップと
    を含む情報処理方法。
JP2015193360A 2015-09-30 2015-09-30 情報処理装置、情報端末、及び、情報処理方法 Pending JP2017068589A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015193360A JP2017068589A (ja) 2015-09-30 2015-09-30 情報処理装置、情報端末、及び、情報処理方法
PCT/JP2016/077428 WO2017057055A1 (ja) 2015-09-30 2016-09-16 情報処理装置、情報端末、及び、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015193360A JP2017068589A (ja) 2015-09-30 2015-09-30 情報処理装置、情報端末、及び、情報処理方法

Publications (1)

Publication Number Publication Date
JP2017068589A true JP2017068589A (ja) 2017-04-06

Family

ID=58423777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193360A Pending JP2017068589A (ja) 2015-09-30 2015-09-30 情報処理装置、情報端末、及び、情報処理方法

Country Status (2)

Country Link
JP (1) JP2017068589A (ja)
WO (1) WO2017057055A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180359A (ja) * 2017-04-17 2018-11-15 株式会社ゼンリン 3次元地図データおよび制御装置
WO2019008755A1 (ja) * 2017-07-07 2019-01-10 マクセル株式会社 情報処理システム及びそれに用いる情報処理システムインフラ及び情報処理方法
WO2019065546A1 (ja) * 2017-09-29 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法、クライアント装置及びサーバ
JP2019079206A (ja) * 2017-10-23 2019-05-23 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2020047262A (ja) * 2018-08-07 2020-03-26 アクセンチュア グローバル ソリューションズ リミテッド 自動化されたオブジェクト識別のための画像処理
WO2020095541A1 (ja) * 2018-11-06 2020-05-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2020115944A1 (ja) * 2018-12-03 2020-06-11 株式会社Nttドコモ マップデータ生成装置
CN112406903A (zh) * 2019-08-23 2021-02-26 丰田自动车株式会社 自动驾驶系统
WO2021100433A1 (ja) * 2019-11-19 2021-05-27 ソニーグループ株式会社 情報処理装置と情報処理方法およびプログラム
WO2021131797A1 (ja) * 2019-12-25 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法
JPWO2021145120A1 (ja) * 2020-01-17 2021-07-22
JP2022516849A (ja) * 2019-01-18 2022-03-03 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ヘッドアップディスプレイシステム、方法、データキャリア、処理システム及び車両
JP7422177B2 (ja) 2022-03-31 2024-01-25 本田技研工業株式会社 交通安全支援システム
JP7467112B2 (ja) 2018-12-28 2024-04-15 現代自動車株式会社 自動バレーパーキング支援システム及び方法、並びにそのためのインフラストラクチャ及び車両

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216110A1 (de) * 2018-09-21 2020-03-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen eines Umfeldabbildes eines Umfeldes einer mobilen Einrichtung und Kraftfahrzeug mit einer solchen Vorrichtung
US20220148429A1 (en) * 2019-03-18 2022-05-12 Nec Corporation Edge computing server, control method, and non-transitory computer-readable medium
WO2020256015A1 (ja) * 2019-06-18 2020-12-24 株式会社Ihi 走行経路生成装置及び制御装置
US20210229681A1 (en) * 2020-01-27 2021-07-29 GM Global Technology Operations LLC Realtime proactive object fusion for object tracking
JP2021140470A (ja) * 2020-03-05 2021-09-16 本田技研工業株式会社 情報処理装置、車両、プログラム、及び情報処理方法
DE102022202900A1 (de) * 2022-03-24 2023-09-28 Zf Friedrichshafen Ag Heuristikbasierte Kommunikation mit Verkehrsteilnehmern
WO2023243558A1 (ja) * 2022-06-15 2023-12-21 ソニーグループ株式会社 情報処理装置、プログラムおよび情報処理システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833845B2 (ja) * 1999-04-21 2006-10-18 株式会社東芝 自動走行支援システム
JP2007248321A (ja) * 2006-03-17 2007-09-27 Sumitomo Electric Ind Ltd 車両走行位置推定システム及び車両走行位置推定方法
JP5691568B2 (ja) * 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
JP2013149191A (ja) * 2012-01-23 2013-08-01 Masahiro Watanabe 交通安全支援システム
JP6045846B2 (ja) * 2012-08-08 2016-12-14 株式会社東芝 交通事故発生予報装置、方法およびプログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180359A (ja) * 2017-04-17 2018-11-15 株式会社ゼンリン 3次元地図データおよび制御装置
WO2019008755A1 (ja) * 2017-07-07 2019-01-10 マクセル株式会社 情報処理システム及びそれに用いる情報処理システムインフラ及び情報処理方法
JPWO2019065546A1 (ja) * 2017-09-29 2020-10-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 三次元データ作成方法、クライアント装置及びサーバ
WO2019065546A1 (ja) * 2017-09-29 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法、クライアント装置及びサーバ
US11008002B2 (en) 2017-10-23 2021-05-18 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and program for collision avoidance
JP2019079206A (ja) * 2017-10-23 2019-05-23 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2020047262A (ja) * 2018-08-07 2020-03-26 アクセンチュア グローバル ソリューションズ リミテッド 自動化されたオブジェクト識別のための画像処理
JP7128157B2 (ja) 2018-08-07 2022-08-30 アクセンチュア グローバル ソリューションズ リミテッド 自動化されたオブジェクト識別のための画像処理
WO2020095541A1 (ja) * 2018-11-06 2020-05-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2020115944A1 (ja) * 2018-12-03 2020-06-11 株式会社Nttドコモ マップデータ生成装置
JPWO2020115944A1 (ja) * 2018-12-03 2021-09-27 株式会社Nttドコモ マップデータ生成装置
JP7134252B2 (ja) 2018-12-03 2022-09-09 株式会社Nttドコモ マップデータ生成装置
JP7467112B2 (ja) 2018-12-28 2024-04-15 現代自動車株式会社 自動バレーパーキング支援システム及び方法、並びにそのためのインフラストラクチャ及び車両
JP2022516849A (ja) * 2019-01-18 2022-03-03 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ヘッドアップディスプレイシステム、方法、データキャリア、処理システム及び車両
US11733708B2 (en) * 2019-08-23 2023-08-22 Toyota Jidosha Kabushiki Kaisha Autonomous driving system
CN112406903A (zh) * 2019-08-23 2021-02-26 丰田自动车株式会社 自动驾驶系统
WO2021100433A1 (ja) * 2019-11-19 2021-05-27 ソニーグループ株式会社 情報処理装置と情報処理方法およびプログラム
WO2021131797A1 (ja) * 2019-12-25 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法
WO2021145120A1 (ja) * 2020-01-17 2021-07-22 日立Astemo株式会社 電子制御装置および車両制御システム
JPWO2021145120A1 (ja) * 2020-01-17 2021-07-22
JP7316386B2 (ja) 2020-01-17 2023-07-27 日立Astemo株式会社 電子制御装置および車両制御システム
JP7422177B2 (ja) 2022-03-31 2024-01-25 本田技研工業株式会社 交通安全支援システム

Also Published As

Publication number Publication date
WO2017057055A1 (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
WO2017057055A1 (ja) 情報処理装置、情報端末、及び、情報処理方法
US10753757B2 (en) Information processing apparatus and information processing method
US11531354B2 (en) Image processing apparatus and image processing method
US10970877B2 (en) Image processing apparatus, image processing method, and program
US10183641B2 (en) Collision prediction and forward airbag deployment system for autonomous driving vehicles
US11450026B2 (en) Information processing apparatus, information processing method, and mobile object
US11363235B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US11501461B2 (en) Controller, control method, and program
CN108028883B (zh) 图像处理装置和图像处理方法
EP3835823B1 (en) Information processing device, information processing method, computer program, information processing system, and moving body device
CN112119282A (zh) 信息处理装置、移动装置、方法和程序
US20210033712A1 (en) Calibration apparatus, calibration method, and program
JP2023126642A (ja) 情報処理装置、情報処理方法、及び、情報処理システム
US20200191975A1 (en) Information processing apparatus, self-position estimation method, and program
JPWO2018180579A1 (ja) 撮像制御装置、および撮像制御装置の制御方法、並びに移動体
CN112368598A (zh) 信息处理设备、信息处理方法、计算机程序和移动设备
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
JP2018032986A (ja) 情報処理装置および方法、車両、並びに情報処理システム
US20220276655A1 (en) Information processing device, information processing method, and program
CN115128566A (zh) 雷达数据确定电路及雷达数据确定方法
WO2020195965A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2022113054A (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
WO2022059489A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020195969A1 (ja) 情報処理装置、情報処理方法及びプログラム