JP6672212B2 - 情報処理装置、車両、情報処理方法およびプログラム - Google Patents

情報処理装置、車両、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6672212B2
JP6672212B2 JP2017056409A JP2017056409A JP6672212B2 JP 6672212 B2 JP6672212 B2 JP 6672212B2 JP 2017056409 A JP2017056409 A JP 2017056409A JP 2017056409 A JP2017056409 A JP 2017056409A JP 6672212 B2 JP6672212 B2 JP 6672212B2
Authority
JP
Japan
Prior art keywords
information
attribute
probability
reliability
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017056409A
Other languages
English (en)
Other versions
JP2017215940A (ja
Inventor
雄磨 佐野
雄磨 佐野
友樹 渡辺
友樹 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to US15/638,665 priority Critical patent/US11204610B2/en
Publication of JP2017215940A publication Critical patent/JP2017215940A/ja
Application granted granted Critical
Publication of JP6672212B2 publication Critical patent/JP6672212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、情報処理装置、車両、情報処理方法およびプログラムに関する。
カメラによる撮像で得られた画像に含まれる複数の画素ごとに属性を識別するSemantic Segmentation技術に関して、属性の識別結果に対する確からしさ(信頼度)を算出する方法が知られている。
例えば、畳込ニューラルネットワークにおいて、テスト時にユニットをサンプリングして取り除くことにより、1つの入力画像から多数の属性識別結果を生成し、属性識別結果の平均値を属性とし、分散値を属性の信頼度として出力する技術が知られている。
Bayesian SegNet Model Uncertainty in Deep Convolutional Encoder-Decorder Architectures for Scene Understanding,CVPR2015
しかしながら、上述した従来の技術では、1つの入力画像に対してネットワークのユニット除去(ドロップアウト)による属性識別を複数回実施するために処理量が多い上、1つの画像のみを用いて信頼度を算出する方式であるため、十分な精度を得ることが困難であるという問題がある。
実施形態の情報処理装置は、取得部と属性判定部と設定部とを備える。取得部は、移動体の周囲の観測情報を複数取得する。属性判定部は、複数の観測情報に基づいて、移動体の周囲の属性情報を複数生成する。設定部は、複数の属性情報の相関に基づいて、移動体の周囲の属性情報の信頼度を設定する。
第1の実施形態の情報処理装置を説明するための図。 第1の実施形態の情報処理装置の構成を示す図。 第1の実施形態の撮像画像の一例を示す図。 第1の実施形態の属性情報の一例を示す図。 第1の実施形態の属性情報の生成方法の一例を説明するための図。 第1の実施形態の属性情報の一例を示す図。 第1の実施形態の対応領域の探索方法を説明するための図。 第1の実施形態の対応領域の一例を示す図。 第1の実施形態の各領域の属性と信頼度との関係を説明するための図。 第1の実施形態の情報処理装置の動作例を示す図。 第2の実施形態の属性情報の一例を示す図。 第3の実施形態の情報処理装置の構成を示す図。 第3の実施形態の確率情報の一例を示す図。 第3の実施形態の情報処理装置の動作例を示す図。 第4の実施形態の情報処理装置の構成を示す図。 第5の実施形態の情報処理装置の構成を示す図。 変形例の情報処理装置の構成を示す図。
以下、添付図面を参照しながら、実施形態に係る情報処理装置、車両、情報処理方法およびプログラムの実施形態を詳細に説明する。
(第1の実施形態)
図1に示すように、本実施形態の情報処理装置10は車両に搭載される。情報処理装置10は、例えば専用又は汎用コンピュータである。なお、例えば情報処理装置10は車両には搭載されずに、クラウド上で情報処理装置10による処理が実行される形態であってもよい。また、情報処理装置が搭載される移動体の種類は車両に限らず任意であり、例えばロボットやドローンなどであってもよい。なお、情報処理装置10が搭載される車両は、例えば人による運転操作を介して走行する通常の車両であってもよいし、人による運転操作を介さずに自動的に走行することができる(自律走行することができる)自動運転車両であってもよい。本実施形態では、情報処理装置10が搭載される車両は自動運転車両である場合を例に挙げて説明する。
図2は、本実施形態の情報処理装置10の構成の一例を示す図である。図2に示すように、情報処理装置10は、処理回路100、記憶回路20、通信部30、各部を接続するバス40を備える。
処理回路100は、取得機能100a、属性判定機能100b、設定機能100cを備える。これらの各処理機能の具体的な内容については後述する。なお、図2の例では、本実施形態に関する機能を主に例示しているが、処理回路100が有する機能はこれらに限られるものではない。
情報処理装置10にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路20へ記憶されている。処理回路100はプログラムを記憶回路20から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。各プログラムを読み出した状態の処理回路100は、図2の処理回路100内に示された各機能を有することになる。
なお、図2においては単一の処理回路100にて、取得機能100a、属性判定機能100b、設定機能100cにて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路100を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。各処理機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。
なお、処理回路100が有する取得機能100aは「取得部」の一例であり、属性判定機能100bは「属性判定部」の一例であり、設定機能100cは「設定部」の一例である。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))の回路を意味する。プロセッサは記憶回路20に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路20にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
記憶回路20は、処理回路100が行う各処理機能に伴うデータ等を必要に応じて記憶する。本実施形態の記憶回路20は、プログラムと、各種の処理に用いられるデータと、を記憶する。例えば、記憶回路20は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。また、記憶回路20は、情報処理装置10の外部の記憶装置で代替されてもよい。記憶回路20は、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体であってもよい。また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
通信部30は、有線または無線で接続された外部装置と情報の入出力を行うインタフェースである。通信部30は、ネットワークに接続して通信を行ってもよい。
入力装置50は、操作者(この例では運転者)からの各種指示や情報入力を受け付ける。入力装置50は、例えば、マウスやトラックボール等のポインティングデバイス、あるいはキーボード等の入力デバイスである。
ディスプレイ60は、車両に関する各種の情報を表示する。ディスプレイ60は、例えば、液晶表示器等の表示デバイスである。
センサ70は、自動運転を実現するための外界認識センサである。センサ70には、音波によって物体を探知するソナー、車両周辺の奥行き方向の情報を取得するためのステレオカメラ、周囲の状況から走行している場所を正確に特定するための位置特定用カメラ、車両周辺に存在する物体までの距離を測定するためのミリ波レーダーやレーザーセンサ、車両の位置を取得するポジションセンサーなどが含まれるが、これらに限られるものではない。本実施形態では、センサ70として、自車両の周囲を撮像するための撮像部(カメラ)が少なくとも搭載されている。
車両制御部80は、車両を自動的に運転するために、センサ70から得られる情報や、後述する処理で得られる障害物マップに基づいて周辺の状況を判断して、アクセル量、ブレーキ量、操舵角などの制御を行う。具体的には、障害物を避けて現在走行中の車線を保ち、かつ前方車両との車間距離を所定距離以上保つように車両の制御を行う。
本実施形態の入力装置50、ディスプレイ60、センサ70、車両制御部80は、有線または無線で情報処理装置10に接続している。
次に、処理回路100が有する各機能について説明する。取得機能100aは、移動体(この例では車両)の周囲の観測情報を複数取得する。また、取得機能100aは、観測位置を示す位置情報を取得する。より具体的には、取得機能100aは、自車両の周囲を観測した結果を示す上述の観測情報と、観測位置を示す位置情報との組み合わせを示す第1の組を複数取得する。本実施形態の観測情報は、車両の周囲を撮像する撮像部による撮像で得られた撮像画像である。この例では、撮像部は車両に取り付けられるので、観測位置(撮像位置)を示す位置情報は、自車両の位置と姿勢を示す情報(自己位置姿勢情報)に相当する。なお、撮像とは、レンズなどの光学系により結像された被写体の像を、電気信号に変換することを指す。
本実施形態の取得機能100aは、撮像部による撮像が行われるたびに、該撮像により得られた撮像画像と、撮像位置を示す位置情報(この例では車両の自己位置姿勢情報)との組(第1の組)を取得する。つまり、取得機能100aは、複数の第1の組を時系列に取得するが、これに限らず、例えば複数の撮像部が異なる位置に設けられ(例えば車両外に設けられ)、同じタイミングで複数の撮像部と1対1に対応する複数の第1の組(撮像画像と撮像位置を示す位置情報との組)を取得する形態であってもよい。要するに、取得機能100aは、自車両の周囲を観測した結果を示す観測情報(この例では撮像画像)と、観測位置を示す位置情報との組み合わせを示す第1の組を観測の条件を変えて複数取得する形態であればよい。取得機能100aは、取得した第1の組に含まれる撮像画像および位置情報を属性判定機能100bへ渡す。
図3は、撮像画像の一例を示す図である。図3に示す撮像画像は、自車両の前方を撮像して得られる撮像画像であり、車道、車道の脇の歩道、駐車車両(他の車両)、建物などが映り込んでいる。本実施形態の取得機能100aは、自車両に取り付けられた撮像部による撮像で、図3のような自車両の走行に関わる範囲を撮像した撮像画像を時系列に取得(複数の撮像画像を時系列に取得)する。
上述したように、本実施形態では、撮像位置を示す位置情報は、撮像部が取り付けられた車両(自車両)の位置と姿勢を示す情報(自己位置姿勢情報)となり、車両に搭載されたGPSを用いて、自車の位置を表す座標情報を取得し、同様に車両に搭載されたIMU(Inertial Measurement Unit)を用いて、自車の姿勢情報を取得することができる。なお、自車両の位置を表す座標情報は、ある位置を基準としたワールド座標(世界座標)であるとする。
処理回路100が有する機能の説明を続ける。属性判定機能100bは、観測情報(この例では撮像画像)に基づいて、車両の周囲を分割して得られる複数の領域ごとに該領域の属性を示す属性情報(属性マップ)を生成する。より具体的には、属性判定機能100bは、観測情報(この例では撮像画像)に基づいて、車両の周囲を分割して得られる複数の領域ごとに属性を判定して上述の属性情報を生成し、その生成した属性情報と位置情報との組み合わせを示す第2の組を生成する。「属性」とは、複数のカテゴリに分類した情報を表し、ここでのカテゴリとしては、一例として、車道、歩道、白線、車両、建物、歩行者、信号機などが挙げられるが、これらに限られるものではない。例えばカテゴリとして、走行可能、走行不可能、不明などの自車両の走行可否を表すステータスを採用してもよい。
この例では、属性判定機能100bは、撮像画像に映り込んだオブジェクトに対して、画素レベルで属性を判定(識別)する。この属性判定(属性識別)は、機械学習を用いることで実現可能である。機械学習を用いた画像の属性識別については一般に多くの方式が知られており、例えばJ.Long, et.al,‘‘Fully Convolutional Networks for Semantic Segmentation’’, CVPR2015やV.Badrinarayanan, et. al, ‘‘SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling’’, CVPR2015などの方式を用いることで、画素レベルで属性を判定(識別)することができる。方式の詳細については各文献を参照されたい。
以上に例示した公知の方法を用いて、属性判定機能100bは、図3の撮像画像に含まれる画素ごとに、該画素の属性を判定する。そして、各画素の画素値を、判定した属性を表す値に設定することで、図4に示すような属性情報を生成する。
ここでは、属性判定機能100bは、撮像部と道路面との位置関係を示す位置関係情報を保持しており、属性判定機能100bは、この位置関係情報に基づいて、属性情報を道路面に投影した後、道路面の上方から見た画像(上面画像)に変換する。道路面に投影した画像から上面画像への変換は、一般的にInverse Perspective Mappingと呼ばれ広く知られた方法を用いることで実現可能である。Inverse Perspective Mappingの概要について、図5を用いて説明する。ここでは、進行方向をz軸、高さ方向をy軸、z軸とy軸に直交する方向をx軸とする。道路面を上方から見た際に道路面上を矩形に分割した領域の座標を(xi、zi)とする。撮像部の道路面に対する位置姿勢は既知であるため、撮像部と道路面との位置関係情報を用いた透視投影変換によって、領域の座標(xi、zi)に対応する撮像画像の画素p1を求めることができる。同様に、上面画像(上面図)の視点として指定した位置と道路面との位置関係情報を用いた透視投影変換を行うことで、領域の座標(xi、zi)に対応する上面画像の画素p2を求めることができる。上面画像の画素p2の画素値として撮像画像の画素p1の画素値を割り当てることで、上面画像の各画素の画素値を設定することができる。
図6は、図4の属性情報を上面画像に変換した画像を示す図である。撮像画像から生成された属性情報が、上方から路面を見下ろしたときの視点に対応する画像(上面画像)に変換されている。ここでは、この上面画像(矩形領域のサイズ、位置、個数、各矩形領域の属性を特定可能)が属性情報として設定機能100cへ送られる。
設定機能100cは、複数の属性情報の相関に基づいて、移動体の周囲の属性情報の信頼度を設定する。また、設定機能100cは、位置情報に基づいて、同じ位置に相当する領域に対する複数の属性情報から、該領域における信頼度を設定する。本実施形態では、設定機能100cは、複数の属性情報を用いて、対象となる属性情報が示す領域の属性と、その他の1以上の属性情報において該領域に対応する領域を示す1以上の対応領域の属性との相関から、該領域の属性の信頼度を設定する。本実施形態では、設定機能100cは、複数の第2の組に基づいて、対象となる第2の組に含まれる属性情報が示す領域の属性と、その他の1以上の第2の組における対応領域の属性との相関から、該領域の属性の信頼度を設定する。より具体的には、設定機能100cは、複数の第2の組を用いて、対象となる第2の組に対応する複数の領域ごとに、該領域の属性と、その他の1以上の第2の組ごとの複数の領域のうち該領域に対応する領域を示す1以上の対応領域の属性との相関から、該領域の属性の信頼度を設定する。本実施形態では、設定機能100cは、属性判定機能100bから第2の組を受け取るたびに、該受け取った第2の組(対象となる第2の組)と、過去に受け取ったN個の第2の組とを用いて、対象となる第2の組に含まれる属性情報に対応する複数の領域(対象となる第2の組が取得された時点において自車両の周囲を分割して得られる複数の領域であると考えることができる)ごとに、該領域の属性と、過去に受け取ったN個の第2の組と1対1に対応するN個の属性情報ごとの複数の領域のうち該領域に対応する1以上の対応領域の属性との相関から、該領域の属性の信頼度を設定する。以下、具体的な内容を説明する。
設定機能100cは、まず、最新の第2の組に含まれる属性情報の各領域に対して、過去のN個の第2の組と1対1に対応するN個の属性情報ごとに、該属性情報に対応する位置情報(自己位置姿勢情報)と、最新の第2の組に含まれる位置情報とを用いて、該領域と同じ位置に相当する領域(対応領域)を探索し、その属性を特定する。つまり、設定機能100cは、位置情報に基づいて、対象となる第2の組以外の1以上の第2の組(その他の1以上の第2の組)ごとの複数の領域のうち、対象となる第2の組が示す領域と同じ位置に相当する領域を対応領域とする。図7を用いて詳細に説明する。図7は、時刻t−1、および、時刻tの各々において、自車両を中心とする周囲の空間を分割して得られる複数の領域を示している。時刻t−1の領域Nt−1と時刻tの領域Nは、それぞれの時刻で自車両からの相対位置は異なるが、ワールド座標系においては同じ位置を示している。時刻tと、その直前の時刻である時刻t−1との間の自車両の移動量を位置情報から算出し、自車両の移動量に基づいて時刻tにおける各領域に対応する時刻t−1における領域を求める。図7の例では、時刻tの領域Nに対応する時刻t−1の領域Nt−1を求める。説明の便宜上、図7の例では、最新の第2の組が取得される直前の1つの第2の組に含まれる属性情報における対応領域を求めたが、これに限らず、過去に取得された複数の第2の組(属性情報)にわたって対応領域を求め、その属性を取得することができる。
次に、設定機能100cによる信頼度の設定方法を説明する。本実施形態の設定機能100cは、複数の属性情報の相関が高いほど信頼度を高い値に設定し、複数の属性情報の相関が低いほど信頼度を低い値に設定する。より具体的には、設定機能100cは、対象となる第2の組が示す領域の属性と、1以上の対応領域の属性との相関が高いほど該領域に対応する信頼度を高い値に設定し、対象となる第2の組が示す領域の属性と、1以上の対応領域の属性との相関が低いほど該領域に対応する信頼度を低い値に設定する。より具体的には、設定機能100cは、対象となる第2の組が示す領域の属性と同じ属性を示す対応領域の数が多いほど該領域に対応する信頼度を高い値に設定し、対象となる第2の組が示す領域の属性と同じ属性を示す対応領域の数が少ないほど該領域に対応する信頼度を低い値に設定する。ここでは、設定機能100cは、対象となる第2の組に対応する複数の領域の各々について、該領域の属性と同じ属性を示す対応領域の数が多いほど該領域に対応する信頼度を高い値に設定し、該領域の属性と同じ属性を示す対応領域の数が少ないほど該領域に対応する信頼度を低い値に設定する。
図8を用いて、信頼度の算出方法を詳細に説明する。図8は、連続する時刻t−2、t−1、tにおける自車両の周囲を分割して得られる複数の領域の各々の属性を示した図である。図8において、「白」で表示された領域は属性が車道と識別された領域を示し、「網掛け」で表示された領域は属性が車道以外と識別された領域を示す。図8の例では、領域1は、時刻t−2、t−1、tのいずれにおいても属性が車道と識別されている。一方で、領域2は、時刻t−2、t−1では属性が車道以外と識別されているが、時刻tでは、属性が車道と識別されている。撮像画像に対する属性識別に関しては、同じ属性を示す領域の内側に存在する領域については属性識別の難易度は低く時系列に正しい属性を取り易い傾向があるのに対して、異なる属性を示す領域の境界付近に存在する領域は、属性識別の難易度は高く誤識別が起こり易いため、時系列に属性が変化し易い傾向がある。そこで、現時刻(最新の第2の組を取得した時刻)の各領域の属性に対して、予め定めた過去N個分の第2の組(属性情報)に対応する各時刻において、ワールド座標系で該領域と同じ位置に相当する領域の属性が、同じ属性である回数が多いほど現時刻の当該領域の属性の信頼度を高く設定する。一方で、予め定めた過去N個分の第2の組に対応する各時刻において、ワールド座標系で現時刻の領域と同じ位置に相当する領域の属性が、現時刻の領域の属性と同じ属性である回数が少ないほど現時刻の領域の属性の信頼度を低く設定する。例えば、現時刻のある領域の属性がL1である場合の属性L1の信頼度CL1は、過去N個分の第2の組に対応する各時刻において対応領域の属性もL1であった回数をNL1とすると、以下の式1で算出することができる。
なお、図8に示すように、各領域の属性が2種類の場合は、0または1の属性値を与え、各領域において過去の属性値の平均値を保持することで、過去N個分の属性情報を全て保持しなくても信頼度を算出することができる。この場合は、時刻tにおける属性値をL(t)、時刻t−1までの過去Nフレームの属性値の平均値をL’(t−1)とすると、時刻tの信頼度C(t)は以下の式2で算出することができる。
次に、図9を用いて、各領域における属性と信頼度との関係について説明する。図9(A)に示すシーンにおいて、自車両の周囲の領域の属性と信頼度を求める。図9(A)に示すシーンは、自車両が走行する車道とその両脇に歩道が存在するシーンである。図9(B)は、図9(A)に示すシーンに対して正しい属性を教示した結果を示す図である。各領域に対して、車道に相当する領域は車道を示す属性に対応する表示(図9では「白」で表示)で示され、歩道に相当する領域は歩道を示す属性に対応する表示(図9では「網掛け」で表示)で示されている。これに対して、図9(C)は、属性判定機能100bが機械学習を用いて各領域の属性を識別した結果を示す図である。図9(B)と比較すると、車道と歩道の境界付近に位置する領域において、誤識別が発生している。この傾向は異なるタイミングでの撮像により得られた撮像画像に対する属性の識別結果に対しても同様である。図9(D)は、これらの識別結果に基づいて領域ごとに設定した信頼度を示す図である。上述したように、本実施形態の設定機能100cは、各領域の属性の時系列な相関に基づいて各領域の信頼度を設定するため、時系列に識別結果が安定する車道中央付近や車道から離れた歩道では信頼度が高い値に設定(図9では「白」で表示)されている一方で、時系列に識別結果が不安定な車道と歩道の境界付近の領域では信頼度が低い値に設定(図9では「灰色」で表示)されている。図9の例では、属性が車道と歩道の2種類の場合について説明したが、属性が3種類以上である場合であっても、同様に各領域の属性の時系列な相関に基づいて信頼度を設定することが可能である。以上のようにして、設定機能100cは、対象となる第2の組に含まれる属性情報に対応する複数の領域ごとに信頼度を設定することができる。
なお、本実施形態では、各領域の属性の時系列な相関に基づいて各領域の信頼度を設定しているが、例えば取得機能100aが同じタイミングで複数の第1の組(撮像画像と位置情報との組)を取得する形態についても以上に説明した方法(信頼度を設定する方法)を適用することができる。この場合、設定機能100cは、同じタイミングで複数の第2の組を取得するので、その取得した複数の第2の組のうちの何れかを対象となる第2の組とし、以上に説明した方法により、対象となる第2の組に含まれる属性情報に対応する複数の領域ごとに信頼度を設定することができる。以上のように、それぞれの観測条件が異なる複数の第2の組を用いて、対象となる第2の組に対応する複数の領域の各々の信頼度を設定することにより、各領域の信頼度の算出精度を向上させることができる。
図10は、以上に説明した情報処理装置10(処理回路100)の動作例を示すフローチャートである。各ステップの具体的な内容は上述したとおりであるので、詳細な説明は適宜に省略する。まず取得機能100a、撮像画像と自己位置姿勢情報とを取得(第1の組を取得)する(ステップS1)。次に、属性判定機能100bは、ステップS1で取得された撮像画像に基づいて、自車両の周囲を分割して得られる複数の領域ごとに属性を判定し、該複数の領域の各々の属性を示す属性情報を生成する(ステップS2)。次に、設定機能100cは、ステップS2で生成された属性情報に対応する複数の領域ごとに、該領域の属性の時系列な相関に基づいて信頼度を設定する(ステップS3)。
以上に説明したように、本実施形態では、複数の第2の組に基づいて、対象となる第2の組が示す領域の属性と、その他の1以上の第2の組ごとの該領域に対応する領域を示す1以上の対応領域の属性との相関から、該領域の属性の信頼度を設定する。これにより、1つの入力画像(撮像画像)に対して属性を識別するための処理を複数回繰り返す必要は無い上、1つの入力画像のみを用いて信頼度を算出する方式に比べて、信頼度の算出精度を向上させることができる。すなわち、本実施形態によれば、自車両の周囲の各領域の属性の信頼度を、少ない処理量で精度良く算出することができる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述の第1の実施形態と共通する部分については適宜に説明を省略する。本実施形態では、取得機能100aにより取得される観測情報は、自車両の周囲に存在する物体の位置を示す情報である点で上述の第1の実施形態と相違する。
この例では、電波を自車両の周囲に放射し、物体からの反射波と放射波を比較することにより自車両から物体までの距離を計測する距離センサが自車両に取り付けられている。そして、取得機能100aは、距離センサによって計測された、自車両の周囲に存在する物体の位置情報と、計測位置を示す位置情報(この例では車両の自己位置姿勢情報)との組み合わせを第1の組として取得する。
ここでは、取得機能100aは、自車両の走行に応じて異なる時刻で、自車両の周囲に存在する物体の位置情報(3次元情報)を取得する場合について説明するが、物体の位置情報は、車両に搭載された距離センサが計測した情報でもよいし、通信手段によって外部から取得された情報でもよい。なお、物体(点)の位置情報は計測位置を基準とした相対的な位置を示す情報として取得される。さらに、取得機能100aは、上述の第1の実施形態と同様に物体の位置情報が計測されたときの距離センサの位置情報を取得する。上述したように、本実施形態では、車両に搭載された距離センサを用いて物体の位置情報を計測するので、第1の実施形態と同様に、取得機能100aは、車両に搭載されたGPSやIMUを用いて、自己位置姿勢情報を取得する。以上のようにして、取得機能100aは、時系列に複数の第1の組を取得し、第1の組を取得するたびに、その取得した第1の組に含まれる位置情報(自車両の周囲に存在する物体の位置を示す情報)をおよび自己位置姿勢情報(計測位置を示す情報に相当)を属性判定機能100bへ渡す。
属性判定機能100bは、取得機能100aから渡された位置情報を元に、そのときの自車両の周囲を分割して得られる複数の領域ごとに属性を判定し、該複数の領域の各々の属性を示す属性情報と自己位置姿勢情報との組み合わせを示す第2の組を生成する。ここでの属性は自車両の走行可否を表す情報であり、属性判定機能100bは、自車両の周囲の空間に対して、複数の角度方向(自車両からの角度方向)ごとに、自車両から最も近い位置に存在する物体に対応する点を含む領域については障害物が存在すると判断し、走行不可能を表す属性を設定する。また、各角度方向において、自車両から最も近い位置に存在する点が含まれる領域よりも自車両に近い領域については障害物が存在しないと判断し、走行可能を表す属性を設定する。さらに、各角度方向において、自車両から最も近い位置に存在する点が含まれる領域よりも自車両から遠い領域については障害物に遮蔽されて判断できないとして、不明を表す属性を設定する。
図11を用いて、自車両の周囲を分割して得られた複数の領域と、各領域に対して設定された属性について説明する。図11(A)は自車両が塀に囲まれた丁字路に差し掛かったシーンにおいて計測された物体(自車両の周囲に存在する物体)の点を示している。図11(A)のシーンにおいて、自車両の周囲を分割して得られる複数の領域ごとに属性を判定し、判定した属性を設定した結果(つまり属性情報)の一例を図11(B)に示す。図11(B)に示すように、塀に相当する点を含む領域は走行不可能であることを表す属性が設定され、自車両と、走行不可能であることを表す属性が設定された領域との間に位置する領域は走行可能であることを表す属性が設定され、走行不可能であることを表す属性が設定された領域で遮蔽される領域は不明であることを表す属性が設定されている。図11の例では、属性は、走行可能、走行不可能および不明の3種類のカテゴリに分類した情報であるが、不明は走行不可能とみなして、走行可能と走行不可能の2種類のカテゴリに分類する情報であってもよい。
以上のようにして、属性判定機能100bは、取得機能100aから位置情報および自己位置姿勢情報を受け取るたびに、第2の組を生成し、その生成した第2の組を設定機能100cへ送る。設定機能100cの機能は上述の第1の実施形態と同様であるので詳細な説明は省略する。
(第3の実施形態)
次に、第3の実施形態について説明する。上述の各実施形態と共通する部分については適宜に説明を省略する。
図12は、本実施形態の情報処理装置10の構成の一例を示す図である。図12に示すように、処理回路100は、確率算出機能100dと決定機能100eをさらに備える。
また、本実施形態では、自車両の周囲を観測するための複数のセンサが自車両に取り付けられている。この例では、第1の実施形態で説明した撮像部と、第2の実施形態で説明した距離センサとが自車両に取り付けられているが、これに限られるものではない。例えば特性(パラメータ等)が異なる2以上の撮像部が自車両に取り付けられてもよいし、特性が異なる2以上の距離センサが自車両に取り付けられてもよい。また、例えば同じ特性または異なる特性の2以上の撮像部が車両外の異なる位置に設けられてもよいし、同じ特性または異なる特性の2以上の距離センサが車両外の異なる位置に設けられてもよい。そして、取得機能100aは、複数のセンサごとに、観測情報(例えば撮像画像や物体の位置情報など)と観測位置(例えば自己位置姿勢情報など)を示す位置情報との組み合わせを示す第1の組を時系列に取得する。要するに、取得機能100aは、複数のセンサごとに複数の第1の組を取得する形態であればよい。この例では、取得機能100aは、複数のセンサごとの第1の組を取得するたびに、その取得した第1の組に含まれる観測情報および自己位置姿勢情報を属性判定機能100bへ送る。
属性判定機能100bは、複数のセンサごとに、該センサに対応する第1の組に含まれる観測情報に基づいて、自車両の周囲を分割して得られる複数の領域ごとに属性を判定し、該複数の領域の各々の属性を示す属性情報と自己位置姿勢情報との組み合わせを示す第2の組を生成し、生成した第2の組を設定機能100cおよび確率算出機能100dの各々へ送る。なお、例えば属性判定機能100bは、確率算出機能100dに対しては、属性情報のみを送る形態であってもよい。属性情報の生成方法の具体的な内容は上述の各実施形態で説明したとおりである。
設定機能100cは、複数のセンサごとに、該センサに対応する複数の第2の組(属性情報と位置情報との組)を用いて、対象となる第2の組に対応する複数の領域ごとに、該領域の属性と、上述した1以上の対応領域の属性との相関から、該領域の属性の信頼度を設定する。具体的な内容は上述の各実施形態で説明したとおりである。つまり、設定機能100cは、複数のセンサごとに、各領域の信頼度を示す信頼度情報(複数のセンサと1対1に対応する複数の信頼度情報)を生成し、生成した信頼度情報を決定機能100eへ送る。
確率算出機能100dは、属性情報に基づいて、自車両の周囲を分割して得られる複数の領域ごとに、自車両が該領域を走行可能な確率を示す走行可能確率を算出する。この例では、確率算出機能100dは、属性判定機能100bから属性情報を受け取るたびに、その受け取った属性情報に対応する複数の領域ごとに、該領域の属性に基づいて、該領域の走行可能確率を算出する。ここでは、各領域の走行可能確率は、各領域に物体が存在する確率(障害物存在確率)と同義であると考えてもよいが、障害物存在確率が高いほど、走行可能確率は低くなるという関係になる。例えば走行可能確率と障害物存在確率との関係は以下の式3で表すことができる。式3において、pfreeは走行可能確率を表し、pobstは障害物存在確率を表す。
確率算出機能100dは、複数のセンサごとに、各領域の走行可能確率を示す確率情報を生成し、その生成した確率情報を決定機能100eへ送る。
例えば上述の第1の実施形態で説明したように、属性情報は、各領域に対して、車道、歩道、白線、車両、建物、歩行者、信号機などを表す属性が設定される形態である場合を想定する。この例では、確率算出機能100dは、属性が車道と識別(判定)された領域のみ物体(障害物)が存在せずに自車両が走行可能であるとして、走行可能確率を最大値(1.0)に設定し、属性が車道以外と識別された領域は自車両が走行不可能であるとして、走行可能確率を最小値(0.0)に設定する。なお、属性情報から走行可能確率への変換については、最小値(0.0)と最大値(1.0)の2択ではなく、識別結果に従って、走行可能確率の値が多段階に設定されてもよい。要するに、確率算出機能100dは、属性が車道である領域の走行可能確率を、属性が車道以外である領域の走行可能確率よりも高い値に算出することができる。図13は、図6の属性情報を確率情報に変換した例を示す図であり、図6において属性が車道と識別された領域の走行可能確率は最大値(1.0)に設定され(図13では「白」で表示)、図6において属性が車道以外と識別された領域の走行可能確率は最小値(0.0)に設定される(図13では「黒」で表示)。
また、例えば上述の第2の実施形態で説明したように、属性情報は、各領域に対して、走行可能、走行不可能、不明を表す属性が設定される形態である場合を想定する。この例では、確率算出機能100dは、属性が走行可能と識別(判定)された領域の走行可能確率を最大値(1.0)に設定し、属性が不明と識別(判定)された領域の走行可能確率を中間値(0.5)に設定し、属性が走行不可能と識別(判定)された領域の走行可能確率を最小値(0.0)に設定することができる。
以上のようにして、確率算出機能100dは複数のセンサの各々に対応する属性情報に基づいて、上述の確率情報を生成する。つまり、複数のセンサごとに確率情報を生成し、生成した確率情報を決定機能100eへ送る。
決定機能100eは、複数のセンサごとに、上述の確率情報と上述の信頼度情報とを取得し、複数のセンサごとの確率情報および信頼度情報に基づいて、自車両の周囲を分割して得られる複数の領域の各々の走行可能確率の最終確率を決定する。なお、複数のセンサごとの確率情報および信頼度情報に対応する複数の領域(自車両の周囲を分割して得られる複数の領域)の数、各領域のサイズおよび位置は互いに対応している(ただし、完全に一致していなくてもよい)。
例えば決定機能100eは、自車両の周囲を分割して得られる複数の領域ごとに、最も信頼度が高いセンサに対応する走行可能確率を、最終確率として決定することができる。例えばセンサの数が2つの場合、最終確率は以下の式4で算出することができる。式4において、pfreeは最終確率を表し、p1freeは一方のセンサ(「センサ1」と称する)に対応する走行可能確率を表し、p2freeは他方のセンサ(「センサ2」と称する)に対応する走行可能確率を表し、c1はセンサ1に対応する信頼度を表し、c2はセンサ2に対応する信頼度を表す。
また例えば決定機能100eは、自車両の周囲を分割して得られる複数の領域ごとに、複数のセンサごとの信頼度に応じて、複数のセンサごとの走行可能確率の重み付き加算を行って最終確率を決定することもできる。例えばセンサの数が2つの場合、最終確率は以下の式5で算出することもできる。式5において、pfreeは最終確率を表し、p1freeは一方のセンサ(「センサ1」と称する)に対応する走行可能確率を表し、p2freeは他方のセンサ(「センサ2」と称する)に対応する走行可能確率を表し、w1はセンサ1の重みを表し、w2はセンサ2の重みを表す。センサ1の重みw1は、c1/(c1+c2)で表され、センサ2の重みw2はc2/(c1+c2)で表される。c1はセンサ1に対応する信頼度を表し、c2はセンサ2に対応する信頼度を表す。
以上のようにして、決定機能100eは、複数の領域ごとに最終確率を決定し、複数の領域ごとに該領域の最終確率を示す障害物マップを得ることができる。
図14は、本実施形態の情報処理装置10(処理回路100)の動作例を示すフローチャートである。各ステップの具体的な内容は上述したとおりであるので、詳細な説明は適宜に省略する。まず取得機能100aは、複数のセンサごとに上述の第1の組(観測情報と位置情報との組み合わせ)を取得する(ステップS11)。次に、属性判定機能100bは、複数のセンサごとに、該センサに対応する観測情報に基づいて、自車両の周囲を分割して得られる複数の領域ごとに属性を判定し、該複数の領域の各々の属性を示す属性情報を生成する(ステップS12)。次に、設定機能100cは、複数のセンサごとに、ステップS11で取得した第1の組に含まれる位置情報と、ステップS12で生成された属性情報との組み合わせを示す最新の第2の組と、過去の1以上の第2の組とを用いて、各領域の信頼度を設定することで、複数のセンサごとに、各領域の信頼度を示す信頼度情報を生成する(ステップS13)。次に、確率算出機能100dは、複数のセンサごとに、該センサに対応する属性情報に基づいて、各領域の走行可能確率を算出することで、複数のセンサごとに、各領域の走行可能確率を示す確率情報を生成する(ステップS14)。次に、決定機能100eは、複数のセンサごとに、該センサに対応する確率情報および信頼度情報に基づいて、各領域の走行可能確率の最終確率を決定する(ステップS15)。
(第4の実施形態)
次に、第4の実施形態について説明する。上述の第3の実施形態と共通する部分については適宜に説明を省略する。図15は、本実施形態の情報処理装置10の構成の一例を示す図である。図15に示すように、本実施形態の処理回路100は、「出力部」の一例である出力機能100fをさらに有する点で上述の第1の実施形態と相異する。この例では、出力機能100fは、複数の領域ごとに該領域の最終確率を示す障害物マップを出力(ディスプレイ60に表示)する。なお、例えば出力機能100fが障害物マップを生成する機能を有していてもよいし、障害物マップを生成する機能が出力機能100fとは別に設けられていてもよい。例えば前述の決定機能100eが障害物マップを生成する機能を有する形態であってもよい。以上のように、本実施形態の情報処理装置10は、移動体の周囲の属性情報と属性情報の信頼度とに基づいて算出された移動体の周囲に存在する物体の存在確率に関する情報を表示する表示手段を備える。前述したように、上記信頼度は、同じ領域に対する複数の属性情報を用いて算出されたものである。また、この例では、上記物体の存在確率は上述の障害物マップである。この例では、出力機能100fが「表示手段」に対応すると考えてもよいし、ディスプレイ60が「表示手段」に対応すると考えてもよいし、出力機能100fとディスプレイ60との組み合わせが「表示手段」に対応すると考えてもよい。
(第5の実施形態)
次に、第5の実施形態について説明する。上述の第3の実施形態と共通する部分については適宜に説明を省略する。図16は、本実施形態の情報処理装置10の構成の一例を示す図である。図16に示すように、本実施形態の処理回路100は、「記録部」の一例である記録機能100gをさらに有する点で上述の第1の実施形態と相異する。ここでは、記録機能100gは、自車両の周囲を分割して得られる複数の領域ごとに該領域の最終確率を示す障害物マップを記録(例えば記憶回路20に記録)する。つまり、本実施形態の情報処理装置10は、最終確率(この例では障害物マップ)を記憶する記憶部(例えば記憶回路20)を更に備える。また、例えば上述の第3の実施形態のように、処理回路100は、前述の出力機能100fをさらに有する形態であってもよい。さらに、例えば情報処理装置10は、走行可能確率を記憶する記憶部(例えば記憶回路20等)を備える形態であってもよい。
車両制御部80は、記録機能100gにより記録された障害物マップに基づいて、障害物を回避した走行経路を推定する。なお、この推定方法としては、公知の様々な技術を利用可能である。そして、車両制御部80は、その推定された走行経路に従って車両を走行させる(自律走行させる)制御を行う。
例えば図17に示すように、情報処理装置10は制御機能100hをさらに有する形態であってもよい。制御機能100iは「制御部」の一例であり、最終確率に基づいて、車両の制御情報を算出する。この例では、制御機能100hは、前述の障害物マップに基づいて、前述の走行経路(制御情報の一例)を算出(推定)する。なお、例えば車両制御部80が設けられずに、制御機能100hが車両制御部80の機能を兼ねる形態であってもよい。さらに、例えば情報処理装置10が、走行可能確率を記憶する記憶部を備える形態においては、制御機能100hは、走行可能確率に基づいて、車両の制御情報を算出することもできる。
以上、本発明の実施形態を説明したが、上述の実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、上述の各実施形態および各変形例の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の各実施形態および各変形例の情報処理装置10で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の各実施形態および各変形例の情報処理装置10で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
さらに、上述の各実施形態および各変形例は、任意に組み合わせることも可能である。
10 情報処理装置
20 記憶回路
30 通信部
40 バス
50 入力装置
60 ディスプレイ
70 センサ
80 車両制御部
100 処理回路
100a取得機能
100b属性判定機能
100c設定機能
100d確率算出機能
100e決定機能
100f出力機能
100g記録機能
100h制御機能

Claims (19)

  1. 移動体の周囲の観測情報を複数取得する取得部と、
    前記複数の観測情報に基づいて、前記移動体の周囲の属性情報を複数生成する属性判定部と、
    前記複数の属性情報の相関に基づいて、前記移動体の周囲の属性情報の信頼度を設定する設定部と、
    前記属性情報に基づいて、前記移動体の走行可能確率を算出する確率算出部と、を備え、
    前記確率算出部は、属性が車道である領域の前記走行可能確率を、属性が車道以外である領域の前記走行可能確率よりも高い値に算出する、
    情報処理装置。
  2. 前記取得部は、観測位置を示す位置情報を取得し、
    前記設定部は、前記位置情報に基づいて、同じ領域に対する前記複数の属性情報から、前記領域における信頼度を設定する、
    請求項1に記載の情報処理装置。
  3. 前記観測情報は、前記移動体の周囲を撮像する撮像部による撮像で得られた撮像画像である、
    請求項1または2に記載の情報処理装置。
  4. 前記観測情報は、前記移動体の周囲に存在する物体の位置を示す情報である、
    請求項1または2に記載の情報処理装置。
  5. 前記設定部は、前記複数の属性情報の相関が高いほど前記信頼度を高い値に設定し、前記複数の属性情報の相関が低いほど前記信頼度を低い値に設定する、
    請求項1乃至4のうちの何れか1項に記載の情報処理装置。
  6. 前記取得部は、前記移動体の周囲を観測する複数のセンサごとに、前記観測情報を複数取得し、
    前記複数のセンサごとに、前記移動体の周囲の前記走行可能確率を示す確率情報と、前記移動体の周囲の前記属性情報の前記信頼度を示す信頼度情報とを取得し、前記複数のセンサごとの前記確率情報および前記信頼度情報に基づいて、前記移動体の周囲の前記走行可能確率の最終確率を決定する決定部をさらに備える、
    請求項1に記載の情報処理装置。
  7. 前記決定部は、最も前記信頼度が高い前記信頼度情報が取得されたセンサに対応する前記走行可能確率を前記最終確率として決定する、
    請求項6に記載の情報処理装置。
  8. 前記決定部は、前記複数のセンサごとに取得された前記信頼度情報が示す前記信頼度に応じて、前記複数のセンサごとの前記走行可能確率の重み付き加算を行って前記最終確率を決定する、
    請求項6に記載の情報処理装置。
  9. 前記最終確率を記憶する記憶部をさらに備える、
    請求項6乃至8のうちの何れか1項に記載の情報処理装置。
  10. 前記最終確率に基づいて、前記移動体の制御情報を算出する制御部をさらに備える、
    請求項6乃至9のうちの何れか1項に記載の情報処理装置。
  11. 前記走行可能確率を記憶する記憶部をさらに備える、
    請求項1に記載の情報処理装置。
  12. 前記走行可能確率に基づいて、前記移動体の制御情報を算出する制御部をさらに備える、
    請求項1に記載の情報処理装置。
  13. 前記観測情報を計測するセンサをさらに備える、
    請求項1乃至12のうちの何れか1項に記載の情報処理装置。
  14. 請求項1乃至13のうちの何れか1項に記載の情報処理装置を搭載した車両。
  15. 移動体の周囲の属性情報と前記属性情報の信頼度とに基づいて前記移動体の走行可能確率を算出する確率算出部と、
    出された前記走行可能確率に関する情報を表示する表示手段と、を備え、
    前記確率算出部は、属性が車道である領域の前記走行可能確率を、属性が車道以外である領域の前記走行可能確率よりも高い値に算出する、
    情報処理装置。
  16. 前記信頼度は、同じ領域に対する複数の属性情報を用いて算出されたものである、
    請求項15に記載の情報処理装置。
  17. 前記走行可能確率は障害物マップである、
    請求項15または16に記載の情報処理装置。
  18. 移動体の周囲の観測情報を複数取得する取得ステップと、
    前記複数の観測情報に基づいて、前記移動体の周囲の属性情報を複数生成する属性判定ステップと、
    前記複数の属性情報の相関に基づいて、前記移動体の周囲の属性情報の信頼度を設定する設定ステップと、
    前記属性情報に基づいて、前記移動体の走行可能確率を算出する確率算出ステップと、を含み、
    前記確率算出ステップは、属性が車道である領域の前記走行可能確率を、属性が車道以外である領域の前記走行可能確率よりも高い値に算出する、
    情報処理方法。
  19. コンピュータに、
    移動体の周囲の観測情報を複数取得する取得ステップと、
    前記複数の観測情報に基づいて、前記移動体の周囲の属性情報を複数生成する属性判定ステップと、
    前記複数の属性情報の相関に基づいて、前記移動体の周囲の属性情報の信頼度を設定する設定ステップと、
    前記属性情報に基づいて、前記移動体の走行可能確率を算出する確率算出ステップと、を実行させ、
    前記確率算出ステップは、属性が車道である領域の前記走行可能確率を、属性が車道以外である領域の前記走行可能確率よりも高い値に算出する、
    ログラム。
JP2017056409A 2016-05-30 2017-03-22 情報処理装置、車両、情報処理方法およびプログラム Active JP6672212B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/638,665 US11204610B2 (en) 2016-05-30 2017-06-30 Information processing apparatus, vehicle, and information processing method using correlation between attributes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016107751 2016-05-30
JP2016107751 2016-05-30

Publications (2)

Publication Number Publication Date
JP2017215940A JP2017215940A (ja) 2017-12-07
JP6672212B2 true JP6672212B2 (ja) 2020-03-25

Family

ID=58668709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017056409A Active JP6672212B2 (ja) 2016-05-30 2017-03-22 情報処理装置、車両、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US11250288B2 (ja)
EP (1) EP3252658B1 (ja)
JP (1) JP6672212B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6804991B2 (ja) 2017-01-05 2020-12-23 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6685941B2 (ja) 2017-01-05 2020-04-22 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6808590B2 (ja) 2017-08-08 2021-01-06 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび移動体
DE102017217212A1 (de) * 2017-09-27 2019-03-28 Robert Bosch Gmbh Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrzeugsystem
CN110225236B (zh) * 2018-03-02 2022-06-28 富士通株式会社 为视频监控系统配置参数的方法、装置和视频监控系统
JP7182895B2 (ja) * 2018-04-13 2022-12-05 株式会社東芝 情報処理装置、プログラム、および情報処理方法
KR102054321B1 (ko) * 2018-04-23 2019-12-10 국방과학연구소 연속 공간 가동성 정보를 생성하는 장치, 방법 및 무인 차량
JP6522255B1 (ja) * 2018-04-24 2019-05-29 三菱電機株式会社 行動選択装置、行動選択プログラム及び行動選択方法
JP7218754B2 (ja) * 2018-05-23 2023-02-07 日本電気株式会社 空き家判定装置、空き家判定方法およびプログラム
DE102018210814A1 (de) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Verfahren zur Erkennung statischer Radarziele mit einem Radarsensor für Kraftfahrzeuge
WO2020129247A1 (ja) * 2018-12-21 2020-06-25 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
EP3951744A4 (en) * 2019-03-26 2022-05-25 Sony Semiconductor Solutions Corporation IMAGE PROCESSING DEVICE, VEHICLE CONTROL DEVICE, METHOD AND PROGRAM
JP2020201649A (ja) 2019-06-07 2020-12-17 トヨタ自動車株式会社 地図生成装置、地図生成方法及び地図生成用コンピュータプログラム
JP2021039426A (ja) * 2019-08-30 2021-03-11 株式会社東芝 推定装置、推定方法及びプログラム
EP3882813A1 (en) 2020-03-20 2021-09-22 Aptiv Technologies Limited Method for generating a dynamic occupancy grid
EP3905106A1 (en) 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a drivable area
EP3905105A1 (en) * 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a collision free space
CN111881827B (zh) * 2020-07-28 2022-04-26 浙江商汤科技开发有限公司 目标检测方法及装置、电子设备和存储介质
JP2022088142A (ja) * 2020-12-02 2022-06-14 ヤマハ発動機株式会社 距離認識システムおよびその制御方法、船舶

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4523095B2 (ja) * 1999-10-21 2010-08-11 富士通テン株式会社 情報処理装置、情報統合装置および情報処理方法
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP3931879B2 (ja) 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
US7142150B2 (en) * 2004-12-15 2006-11-28 Deere & Company Method and system for detecting an object using a composite evidence grid
US8364366B2 (en) * 2005-06-24 2013-01-29 Deere & Company System and method for providing a safety zone associated with a vehicle
JP2007303841A (ja) * 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置
JP2007310741A (ja) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
US20100066587A1 (en) * 2006-07-14 2010-03-18 Brian Masao Yamauchi Method and System for Controlling a Remote Vehicle
DE102006047131A1 (de) * 2006-10-05 2008-04-10 Robert Bosch Gmbh Verfahren zum automatischen Steuern eines Fahrzeugs
JP2009031884A (ja) 2007-07-25 2009-02-12 Toyota Motor Corp 自律移動体、自律移動体におけるマップ情報作成方法および自律移動体における移動経路特定方法
JP5304128B2 (ja) 2008-09-16 2013-10-02 村田機械株式会社 環境地図修正装置及び自律移動装置
JP5531474B2 (ja) * 2008-12-12 2014-06-25 株式会社豊田中央研究所 地図生成装置、走路推定装置、移動可能領域推定装置、及びプログラム
JP4819166B2 (ja) 2010-01-25 2011-11-24 富士通テン株式会社 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP5206752B2 (ja) 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
US9424468B2 (en) * 2010-09-08 2016-08-23 Toyota Jidosha Kabushiki Kaisha Moving object prediction device, hypothetical movable object prediction device, program, moving object prediction method and hypothetical movable object prediction method
US8930019B2 (en) * 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
JP5678793B2 (ja) 2011-05-11 2015-03-04 トヨタ自動車株式会社 周辺監視装置および周辺監視方法並びに運転支援装置
JP5644673B2 (ja) * 2011-05-26 2014-12-24 トヨタ自動車株式会社 周辺監視装置および周辺監視方法、並びに運転支援装置
EP2574958B1 (en) * 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
JP5712900B2 (ja) 2011-11-08 2015-05-07 トヨタ自動車株式会社 周辺物体検出装置
US8718329B2 (en) * 2012-04-09 2014-05-06 GM Global Technology Operations LLC Top-down view classification in clear path detection
US9626599B2 (en) * 2012-04-09 2017-04-18 GM Global Technology Operations LLC Reconfigurable clear path detection system
US9157743B2 (en) * 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
DE102014208664A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
US10328932B2 (en) * 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
DK2952993T3 (en) * 2014-06-05 2018-07-30 Softbank Robotics Europe PROCEDURE FOR MAKING A CARD OF LIKELIHOOD FOR ONE OF THE ABSENCE OR EXISTENCE OF BARRIERS FOR AN AUTONOMOUS ROBOT
JP6307383B2 (ja) 2014-08-07 2018-04-04 日立オートモティブシステムズ株式会社 行動計画装置
JP6430777B2 (ja) * 2014-10-22 2018-11-28 株式会社デンソー 物体検知装置
JP6037468B2 (ja) * 2014-11-14 2016-12-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 移動体が特定領域に接近していることを通知する方法、並びに、その為のサーバ・コンピュータ及びサーバ・コンピュータ・プログラム
US10029804B1 (en) * 2015-05-14 2018-07-24 Near Earth Autonomy, Inc. On-board, computerized landing zone evaluation system for aircraft
US9811743B2 (en) * 2015-06-29 2017-11-07 Sharp Laboratories Of America, Inc. Tracking road boundaries
JP6559535B2 (ja) 2015-10-22 2019-08-14 株式会社東芝 障害物マップ生成装置、その方法、及び、そのプログラム
US10093021B2 (en) * 2015-12-02 2018-10-09 Qualcomm Incorporated Simultaneous mapping and planning by a robot
JP6239664B2 (ja) * 2016-03-16 2017-11-29 株式会社デンソーアイティーラボラトリ 周辺環境推定装置及び周辺環境推定方法
US11132611B2 (en) 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object

Also Published As

Publication number Publication date
US20170344844A1 (en) 2017-11-30
JP2017215940A (ja) 2017-12-07
EP3252658A1 (en) 2017-12-06
US11250288B2 (en) 2022-02-15
EP3252658B1 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
JP6672212B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
JP6696697B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
EP3732657B1 (en) Vehicle localization
US12008778B2 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
JP6984215B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
CN112665556B (zh) 使用被动和主动测量生成场景的三维地图
JP7351293B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
US11222438B2 (en) Information processing apparatus, vehicle, and information processing method for presence probability of object
US20190005667A1 (en) Ground Surface Estimation
US20200090366A1 (en) Device and method for detection and localization of vehicles
JP7182895B2 (ja) 情報処理装置、プログラム、および情報処理方法
JP2017083919A (ja) 障害物マップ生成装置、その方法、及び、そのプログラム
CN110576847A (zh) 基于焦点的对传感器数据的标记
JP2020135874A (ja) ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法
KR101864127B1 (ko) 무인 차량을 위한 주변 환경 매핑 방법 및 장치
JP2019191133A (ja) 位置推定装置
CN114694111A (zh) 车辆定位
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
CN112989909A (zh) 用于地图增强的道路属性检测和分类
Hsu et al. Object detection and recognition by using sensor fusion
US20220309693A1 (en) Adversarial Approach to Usage of Lidar Supervision to Image Depth Estimation
JP7491023B2 (ja) 管制装置、及び管制システム
JP2021119433A (ja) 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、及び学習済みの学習モデル生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R151 Written notification of patent or utility model registration

Ref document number: 6672212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151