JP2019185528A - 情報処理装置、プログラム、および情報処理方法 - Google Patents

情報処理装置、プログラム、および情報処理方法 Download PDF

Info

Publication number
JP2019185528A
JP2019185528A JP2018077541A JP2018077541A JP2019185528A JP 2019185528 A JP2019185528 A JP 2019185528A JP 2018077541 A JP2018077541 A JP 2018077541A JP 2018077541 A JP2018077541 A JP 2018077541A JP 2019185528 A JP2019185528 A JP 2019185528A
Authority
JP
Japan
Prior art keywords
unit
probability
dimensional point
obstacle map
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077541A
Other languages
English (en)
Other versions
JP7182895B2 (ja
Inventor
雄磨 佐野
Yuma Sano
雄磨 佐野
友樹 渡辺
Yuki Watanabe
友樹 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2018077541A priority Critical patent/JP7182895B2/ja
Priority to EP19159350.8A priority patent/EP3553752A1/en
Priority to US16/285,266 priority patent/US10817734B2/en
Priority to CN201910146511.7A priority patent/CN110377026B/zh
Publication of JP2019185528A publication Critical patent/JP2019185528A/ja
Application granted granted Critical
Publication of JP7182895B2 publication Critical patent/JP7182895B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Electromagnetism (AREA)
  • Operations Research (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】処理負荷の軽減を図る。【解決手段】情報処理装置20は、取得部20Cと、割当部20Dと、設定部20Eと、生成部20Fと、を備える。取得部20Cは、撮影画像30と、撮影画像30の取得環境の三次元点Pの三次元点情報と、を取得する。割当部20Dは、撮影画像30内の領域Eごとに属性を割当てる。設定部20Eは、三次元点Pに、撮影画像30内の対応する領域Eに割当てられた属性を設定する。生成部20Fは、三次元点情報と、三次元点Pに設定された属性と、に基づいて、障害物地図44を生成する。【選択図】図2

Description

本発明の実施の形態は、情報処理装置、およびプログラムに関する。
移動体の進行の障害となる障害物に関する障害物地図を生成する技術が開示されている。また、実空間における三次元形状的に進行不可能な領域に加えて、三次元形状的には進行可能であっても進行規則的に進行不可能な領域を規定した、障害物地図を生成する技術が開示されている。例えば、ステレオ視差から生成した三次元グリッドマップを構成するボクセルの各々に対して、属性の特定と属性の更新をフレーム毎に実施する技術が開示されている。
しかし、従来技術では、三次元グリッドマップのボクセルの各々に対して、属性の特定および属性の更新をフレームごとに実行するため、障害物地図の生成時の処理負荷が大きかった。
Semantic 3D Occupancy Mapping through Efficient High Order CRFs, IROS2017
本発明が解決しようとする課題は、処理負荷の軽減を図ることができる、情報処理装置、およびプログラムを提供することである。
実施の形態の情報処理装置は、取得部と、割当部と、設定部と、生成部と、を備える。取得部は、画像と、前記画像の取得環境の三次元点の三次元点情報と、を取得する。割当部は、前記画像内の領域ごとに属性を割当てる。設定部は、前記三次元点に、前記画像内の対応する前記領域に割当てられた前記属性を設定する。生成部は、前記三次元点情報と、前記三次元点に設定された前記属性と、に基づいて、障害物地図を生成する。
移動体の構成を示す図。 移動体のブロック図。 撮影画像の模式図。 属性画像の模式図。 属性画像の模式図。 直交座標系を示す図。 属性画像の上面図。 進行不可能確率を示す模式図。 進行不可能確率を示す模式図。 進行不可能確率を示す模式図。 進行不可能確率を示す模式図。 進行不可能確率を示す模式図。 直交座標系を示す図。 障害物地図の模式図。 時系列統合の説明図。 表示画面の模式図。 情報処理のフローチャート。 移動体の構成を示す図。 ハードウェア構成図。
以下に添付図面を参照して、情報処理装置、およびプログラムを詳細に説明する。
図1は、本実施の形態の移動体10の一例を示す図である。
移動体10は、情報処理装置20と、出力部10Aと、外界センサ10Bと、内界センサ10Cと、動力制御部10Gと、動力部10Hと、を備える。
情報処理装置20は、例えば、専用または汎用コンピュータである。本実施の形態では、情報処理装置20が、移動体10に搭載されている場合を一例として説明する。
移動体10とは、移動可能な物である。移動体12は、例えば、車両、台車、飛行可能な物体(有人飛行機、無人飛行機(例えば、UAV(Unmanned Aerial Vehicle)、ドローン))、ロボット、などである。また、移動体10は、例えば、人による運転操作を介して進行する移動体や、人による運転操作を介さずに自動的に進行(自律進行)可能な移動体である。本実施の形態では、移動体12が車両である場合を一例として説明する。車両は、例えば、二輪自動車、三輪自動車、四輪自動車などである。本実施の形態では、車両が、自律進行可能な四輪自動車である場合を一例として説明する。
なお、情報処理装置20は、移動体10に搭載された形態に限定されない。情報処理装置20は、静止物に搭載されていてもよい。静止物は、地面に固定された物である。静止物は、移動不可能な物や、地面に対して静止した状態の物である。静止物は、例えば、信号機、駐車車両、道路標識、などである。また、情報処理装置20は、クラウド上で処理を実行するクラウドサーバに搭載されていてもよい。
動力部10Hは、移動体10に搭載された駆動デバイスである。動力部10Hは、例えば、エンジン、モータ、車輪、などである。
動力制御部10Gは、動力部10Hを制御する。動力制御部10Gの制御によって動力部10Hが駆動する。例えば、動力制御部10Gは、移動体10を自動的に運転するために、外界センサ10Bおよび内界センサ10Cから得られる情報や、後述する処理で生成される障害物地図などに基づいて、動力部10Hを制御する。動力部10Hの制御によって、移動体10のアクセル量、ブレーキ量、操舵角などが制御される。例えば、動力制御部10Gは、障害物などの物体を避けて現在進行中の車線を保ち、かつ前方車両との車間距離を所定距離以上保つように車両の制御を行う。
出力部10Aは、各種情報を出力する。本実施の形態では、出力部10Aは、情報処理装置20で生成された障害物地図を示す情報を出力する。障害物地図の詳細は後述する。
出力部10Aは、例えば、障害物地図を示す情報を送信する通信機能、障害物地図を表示する表示機能、障害物地図を示す音を出力する音出力機能、などを備える。例えば、出力部10Aは、通信部10D、ディスプレイ10E、および、スピーカ10F、の少なくとも1つを含む。なお、本実施の形態では、出力部10Aは、通信部10D、ディスプレイ10E、およびスピーカ10Fを備えた構成を一例として説明する。
通信部10Dは、障害物地図を示す情報を他の装置へ送信する。例えば、通信部10Dは、公知の通信回線を介して障害物地図を示す情報を他の装置へ送信する。ディスプレイ10Eは、障害物地図を示す情報を表示する。ディスプレイ10Eは、例えば、公知の有機EL(Electro Luminescence)ディスプレイやLCD(Liquid Crystal Display)や投影装置やライトなどである。スピーカ10Fは、障害物地図を示す音を出力する。
外界センサ10Bは、移動体10の周辺の外界を認識するセンサである。外界センサ10Bは、移動体10に搭載されていてもよいし、該移動体10の外部に搭載されていてもよい。移動体10の外部とは、例えば、他の移動体や外部装置などを示す。
移動体10の周辺とは、該移動体10から予め定めた範囲内の領域である。この範囲は、外界センサ10Bの観測可能な範囲である。この範囲は、予め設定すればよい。
外界センサ10Bは、外界の観測情報を取得する。観測情報は、外界センサ10Bの設置位置の周辺の、観測結果を示す情報である。本実施の形態では、観測情報は、画像および三次元点情報を導出可能な情報である。また、観測情報は、画像および三次元点情報を示すものであってもよい。
本実施の形態では、外界センサ10Bは、撮影部10Jを含む。本実施の形態では、撮影部10Jが、撮影画像を画像として取得する。なお、観測情報に含まれる画像は、撮影画像に限定されない。撮影画像は、三次元画像であってもよいし、二次元画像であってもよい。本実施の形態では、観測情報に含まれる画像が、二次元の撮影画像である場合を一例として説明する。
撮影部10Jは、移動体10の周辺を撮影した撮影画像を得る。撮影部10Jは、例えば、公知のデジタルカメラである。なお、撮影とは、レンズなどの光学系により結像された被写体の像を、電気信号に変換することを指す。撮影部10Jは、撮影した撮影画像を、情報処理装置20へ出力する。
また、本実施の形態では、外界センサ10Bは、計測部10Kを含む。計測部10Kは、撮影画像の取得環境の三次元点の、三次元点情報を計測する。
三次元点は、撮影画像の取得環境、すなわち撮影環境における、計測部10Kによって個別に観測される点の各々を示す。例えば、計測部10Kは、計測部10Kの周囲に光を照射し、反射点で反射した反射光を受光する。この反射点が、三次元点に相当する。なお、複数の反射点を1つの三次元点として用いてもよい。
三次元点情報は、実空間(三次元空間)における三次元点の位置を示す情報である。例えば、三次元点情報は、計測部10Kから三次元点までの距離と、計測部10Kを基準とした三次元点の方向と、を示す情報である。これらの距離および方向は、例えば、計測部10Kを基準とする三次元点の相対位置を示す位置座標や、三次元点の絶対位置を示す位置座標や、ベクトルなどで表すことができる。具体的には、三次元点情報は、極座標や、直交座標で表される。
計測部10Kは、例えば、ステレオカメラ、単眼カメラ、距離センサ(ミリ波レーダ、レーザセンサ)、音波によって物体を探知するソナーセンサ、超音波センサ、などである。レーザセンサは、例えば、水平面に対して平行に設置された二次元LIDAR(Laser Imaging Detection and Ranging)センサや、三次元LIDARセンサである。
計測部10Kがステレオカメラである場合、計測部10Kは、カメラ間の視差情報を用いて、三次元点の三次元点情報を計測すればよい。また、計測部10Kが単眼カメラである場合、計測部10Kは、Structure from Motionなどを用いて特定した、移動体10の動きに伴った撮影画像の変化に基づいて、三次元点の三次元点情報を計測してもよい。
計測部10Kがレーザセンサである場合、計測部10Kは、レーザの照射方向と、レーザの三次元点による反射光に関する情報と、を含む観測情報を得る。反射光に関する情報は、レーザの照射から反射光の受光までの経過時間や、受光した反射光の強度または出射したレーザの強度に対する受光した反射光の強度の減衰率、などである。そして、この場合、計測部10Kは、観測情報および公知の算出計測方法を用いて、三次元点の三次元点情報を導出することで、三次元点情報を計測すればよい。
そして、計測部10Kは、計測した三次元点の三次元点情報を、情報処理装置20へ出力する。なお、情報処理装置20が、観測情報から三次元点の各々の三次元点情報を導出してもよい。本実施の形態では、計測部10Kが、三次元点の各々の三次元点情報を導出する場合を説明する。
なお、本実施の形態では、撮影部10Jは、移動体10の進行方向を撮影方向として設置されている場合を一例として説明する。また、計測部10Kは、移動体10の進行方向を計測方向として設置されている場合を、一例として説明する。
このため、本実施の形態では、撮影部10Jおよび計測部10Kは、移動体10の進行方向(すなわち前方)の、撮影画像および三次元点の各々の三次元点情報を取得する場合を、一例として説明する。
内界センサ10Cは、移動体10自体の情報を観測するセンサである。内界センサ10Cは、移動体10の位置を示す自己位置情報を取得する。なお、上述したように、本実施の形態では、移動体10には、撮影部10Jおよび計測部10Kが搭載されている。このため、自己位置情報は、移動体10の位置を示すと共に、撮影部10Jおよび計測部10Kの位置を示す情報であるといえる。
内界センサ10Cは、例えば、慣性計測装置(IMU:Inertial Measurement Unit)、速度センサ、GPS(Global Positioning System)等である。IMUは、移動体10の三軸加速度および三軸角速度などを得る。なお、自己位置情報は、ワールド座標(世界座標)によって表されるものとする。
次に、移動体10の電気的構成について詳細に説明する。図2は、移動体10の構成の一例を示すブロック図である。
移動体10は、情報処理装置20と、出力部10Aと、外界センサ10Bと、内界センサ10Cと、動力制御部10Gと、動力部10Hと、を備える。上述したように、出力部10Aは、通信部10Dと、ディスプレイ10Eと、スピーカ10Fと、を含む。
情報処理装置20、出力部10A、外界センサ10B、内界センサ10C、および動力制御部10Gは、バス10Iを介して接続されている。動力部10Hは、動力制御部10Gに接続されている。
情報処理装置20は、記憶部20Bと、処理部20Aと、を有する。すなわち、出力部10A、外界センサ10B、内界センサ10C、動力制御部10G、処理部20A、および記憶部20Bは、バス10Iを介して接続されている。
なお、記憶部20B、出力部10A(通信部10D、ディスプレイ10E、スピーカ10F)、外界センサ10B、内界センサ10C、および動力制御部10G、の少なくとも1つは、有線または無線で処理部20Aに接続すればよい。また、記憶部20B、出力部10A(通信部10D、ディスプレイ10E、スピーカ10F)、外界センサ10B、内界センサ10C、および動力制御部10G、の少なくとも1つと、処理部20Aと、を、ネットワークを介して接続してもよい。
記憶部20Bは、各種データを記憶する。記憶部20Bは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部20Bは、情報処理装置20の外部に設けられた記憶装置であってもよい。また、記憶部20Bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部20Bを、複数の記憶媒体から構成してもよい。
処理部20Aは、取得部20Cと、割当部20Dと、設定部20Eと、生成部20Fと、出力制御部20Gと、を備える。生成部20Fは、第1生成部20Hと、第2生成部20Iと、統合部20Jと、を含む。
処理部20A、記憶部20B、取得部20C、割当部20D、設定部20E、生成部20F、出力制御部20G、第1生成部20H、第2生成部20I、および統合部20Jは、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
プロセッサは、記憶部20Bに保存されたプログラムを読み出し実行することで、上記各部を実現する。なお、記憶部20Bにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成してもよい。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで、上記各部を実現する。
取得部20Cは、撮影画像と、撮影画像の取得環境(撮影環境)の三次元点の三次元点情報と、を取得する。
本実施の形態では、取得部20Cは、撮影部10Jから撮影画像を取得する。また、取得部20Cは、計測部10Kから複数の三次元点の各々の三次元点情報を取得する。
本実施の形態では、取得部20Cは、撮影部10Jによる撮影が行われるたびに、撮影により得られた撮影画像と、撮影時の移動体10の位置を示す自己位置情報と、撮影画像30の撮影環境の複数の三次元点の各々の三次元点情報と、の組を取得する。すなわち、取得部20Cは、複数の該組を、時系列に取得する。
図3は、撮影画像30の一例を示す模式図である。図3に示す撮影画像30は、移動体10の前方を撮影して得られた撮影画像である。撮影画像30には、車道、車道の脇の歩道、駐車車両(他の車両)、建物などが写り込んでいる。本実施の形態では、取得部20Cは、移動体10に取り付けられた撮影部10Jによる撮影によって、図3に示すような移動体10の進行に関わる範囲を撮影した撮影画像を、時系列に取得する。
図1に戻り説明を続ける。割当部20Dは、撮影画像30内の領域ごとに、属性を割当てる。詳細には、割当部20Dは、撮影画像30を分割して得られる複数の領域ごとに属性を判定する。撮影画像30内の領域とは、例えば、撮影画像30を構成する各画素の画素領域や、隣接する複数の画素群からなる画素領域などである。そして、割当部20Dは、これらの複数の領域の各々に、判定した属性を割当てる。
属性とは、移動体10の周囲の環境を予め定めた分類条件に応じて複数のグループに分類した、各グループの特性や性質を示す。本実施の形態では、属性は、進行可能、進行不可能、または立体物を示す。
割当部20Dは、公知の方法を用いて、撮影画像30内の領域ごとの属性を判定する。例えば、割当部20Dは、機械学習を用いて属性判定を行う。機械学習を用いた属性判定には、公知の方法を用いればよい。例えば、割当部20Dは、J.Long, et.al,‘‘Fully Convolutional Networks for Semantic Segmentation’’, CVPR2015やV.Badrinarayanan, et. al, ‘‘SegNet: A Deep Convolutional Encoder−Decoder Architecture for Robust Semantic Pixel−Wise Labelling’’, CVPR2015などの方式を用いることで、撮影画像30内の領域毎に属性を判定する。
このようにして、割当部20Dは、撮影画像30内の領域ごとに、該領域の属性を判定する。例えば、領域が1画素の画素領域を示す場合、割当部20Dは、画素ごとに属性を判定する。そして、割当部20Dは、画素毎に判定した属性を、各画素の画素値として規定することで、撮影画像30内の領域(画素領域)ごとに属性を割当てる。
図4は、撮影画像30内の領域Eごとに属性を割当てた属性画像32の一例を示す模式図である。割当部20Dは、撮影画像30内の領域Eごとに属性を割当てることで、例えば、図4に示す属性画像32を生成する。
本実施の形態では、割当部20Dは、撮影画像30について、進行可能な領域E2である車道と、進行不可能な領域E3である歩道と、に互いに異なる属性(進行可能、進行不可能)を割当てる。歩道は、移動体10が進行することの可能な領域であるが、交通規則的に進行が禁止されている領域である。このような領域E3に、割当部20Dは、進行不可能を示す属性を割当てる。また、割当部20Dは、撮影画像30に含まれる他の車両や建物を示す領域E1に、立体物を示す属性を割当てる。
そして、割当部20Dは、撮影画像30内の各領域Eに属性を割当てた属性画像32を、設定部20Eへ出力する。
図2に戻り説明を続ける。次に、設定部20Eについて説明する。設定部20Eは、三次元点に、撮影画像30内の対応する領域Eに割当てられた属性を設定する。
設定部20Eは、三次元点と、撮影画像30の画素と、の対応を特定する。すなわち、設定部20Eは、取得部20Cで取得した三次元点情報によって示される三次元点の各々について、撮影画像30を構成する画素の内、対応する位置の画素を特定する。そして、設定部20Eは、三次元点に、特定した対応する位置の画素を含む領域Eに割当てられた属性を設定する。
詳細には、設定部20Eは、三次元点の各々について、三次元点情報に示される三次元位置の座標を、撮影画像30を撮影した撮影部10Jの位置を原点とした座標(カメラ座標)に変換する。すなわち、三次元点情報に示される三次元位置は、計測部10Kを原点とした三次元座標である。このため、設定部20Eは、計測部10Kから取得した三次元点情報によって示される三次元座標を座標変換し、撮影部10Jを原点としたカメラ座標に変換する。
具体的には、三次元点情報によって示される三次元位置の座標から、撮影画像30を撮影したときの撮影部10Jを原点とするカメラ座標への回転行列を、Rcとする。また、並進ベクトルをtcとする。すると、三次元点情報によって示される三次元点の座標(Xin、Yin、Zin)に対する、撮影画像30を撮影したときの撮影部10Jの位置を原点としたカメラ座標(X、Y、Z)は、下記式(1)によって表される。
なお、回転行列Rは、3×3の行列、並進ベクトルtは、要素数3のベクトルである。
そして、設定部20Eは、三次元点の三次元点情報によって示される三次元位置の座標を、上記式(1)を用いてカメラ座標に変換する。
ここで、上述したように、属性画像32は、撮影画像30内の領域E(例えば画素領域)に属性を割当てた画像である(図4参照)。そこで、次に、設定部20Eは、座標変換後の三次元位置の座標(M=(X、Y、Z))によって示される三次元点について、属性画像32中の対応する位置の画素の座標(m=(x,y))を、下記式(2)を用いて算出する。
式(2)中、m’は、座標m=(x,y)の同次座標を示す。また、M’は、座標M=(X、Y、Z)の同次座標を示す。Aは、撮影部10Jの内部パラメータを示す。
撮影部10Jの内部パラメータは、撮影部10Jの特性を表す。撮影部10Jの内部パラメータは、例えば、撮影部10Jのレンズの焦点距離、レンズの光軸に対する素子の画像中心の位置または位置座標などを含む。
なお、計測部10Kが、ステレオカメラ等の撮影装置であり、撮影によって得られたステレオ画像に基づいて三次元点の三次元点情報を計測する場合がある。この場合、計測部10Kによる三次元点情報の計測の過程で、三次元座標(X、Y、Z)に対する撮影画像30における座標(x、y)は既知である。このため、この場合、式(1)の計算は不要である。
なお、撮影部10Jの内部パラメータA、外部パラメータである回転行列R、および並進ベクトルtは、事前のキャリブレーションにより予め取得しているものとする。
そして、設定部20Eは、三次元点の各々に、座標変換後の座標(M=(X、Y、Z))から算出した、属性画像32中の対応する座標(m=(x,y))の領域Eに割当てられた属性を、設定する。この処理により、設定部20Eは、三次元点に、撮影画像30内の対応する領域Eに割当てられた属性を設定する。
図5は、座標変換後の座標(M=(X、Y、Z))の三次元点Pを、属性画像32における、上記式(2)によって算出された対応する座標(m=(x,y))によって示される画素位置に配置した属性画像34である。
図5には、立体物を示す属性を割当てられた領域E1に配置された三次元点Pを、丸マークの三次元点P1として示した。すなわち、三次元点P1には、属性“立体物”が設定される。また、図5には、進行可能を示す属性を割当てられた領域E2に配置された三次元点Pを、星マークの三次元点P2として示した。すなわち、三次元点P2には、属性“進行可能”が設定される。また、図5には、進行不可能を示す属性を割当てられた領域E3に配置された三次元点Pを、菱形マークの三次元点P3として示した。すなわち、三次元点P3には、属性“進行不可能”が設定される。
そして、設定部20Eは、三次元点P(例えば、三次元点P1〜三次元点P3)の三次元点情報と、三次元点Pの各々に設定された属性と、を生成部20Fへ出力する。
図2に戻り説明を続ける。次に、生成部20Fについて説明する。
生成部20Fは、三次元点Pの三次元点情報と、三次元点Pに設定された属性と、に基づいて、障害物地図を生成する。
本実施の形態では、生成部20Fは、区画領域ごとに、進行可能または進行不可能な度合いを示す障害物地図を生成する。
区画領域は、撮影部10J(移動体10)の周囲の空間を、撮影部10J(移動体10)を原点とした極座標系に沿って、格子状に複数の区画領域に分割した各領域を示す。すなわち、本実施の形態では、撮影部10Jや移動体10の位置を、基準位置として用いる。
なお、区画領域のサイズは、計測部10Kで計測する三次元点Pのサイズ以上である。すなわち、区画領域のサイズは、三次元点Pと同じ大きさであってもよい。また、区画領域のサイズは、複数の三次元点を含むことのできるサイズであってもよい。すなわち、区画領域のサイズは、計測部10Kで計測可能な三次元点の最大密度であるセンサ解像度に応じたサイズと同じであってもよいし、該センサ解像度に応じたサイズより大きいサイズであってもよい。また、区画領域のとりうる最大のサイズは、適宜調整すればよい。
本実施の形態では、区画領域のサイズは、三次元点Pのサイズ以上である場合を説明する。このため、本実施の形態では、1つの区画領域内に、1または複数の三次元点が含まる場合を、一例として説明する。
進行可能または進行不可能な度合いは、例えば、確率で表される。なお、進行可能または進行不可能な度合いは、確率で表す形態に限定されない。本実施の形態では、生成部20Fは、進行可能または進行不可能な度合を、確率で表す形態を一例として説明する。
また、本実施の形態では、生成部20Fは、進行不可能確率を区画領域ごとに規定した、障害物地図を生成する場合を、一例として説明する。進行不可能確率とは、移動体10が進行することが不可能な確率を示す。進行不可能確率は、値が大きいほど、より進行不可能な確率が高い事を意味する。
詳細には、まず、生成部20Fは、撮影画像30の撮影時刻における撮影部10Jの位置情報を特定する。位置情報は、該撮影画像30の撮影時刻に取得した自己位置情報から特定すればよい。上述したように、撮影部10Jの位置情報は、ワールド座標(世界座標)によって表される。
次に、生成部20Fは、撮影部10J(移動体10)の周囲の空間を、撮影部10J(移動体10)を原点とした極座標系に沿って、格子状に複数の区画領域に分割する。
図6は、撮影部10Jの周囲の空間を、撮影部10Jを原点とした極座標系に沿って分割した区画領域を、直交座標系で示した図である。図6には、撮影部10Jの前方の180°の範囲を、10°毎に区切って18個の角度方向に分割した例を示した。
次に、生成部20Fは、属性を設定された三次元点Pに対して、下記式(3)および式(4)を用いて、三次元点Pの座標を直交座標(x,z)から極座標(r,θ)に変換する。
次に、生成部20Fは、図6に示すように、撮影部10Jを原点とする極座標の角度方向ごとに、三次元点Pに設定された属性に応じた進行不可能確率を算出する。
本実施の形態では、生成部20Fが、角度方向ごとに、三次元点Pに設定された属性に応じた進行不可能確率を規定する場合を一例として説明する。言い換えると、本実施の形態では、生成部20Fは、角度方向に沿って配列された区画領域の各々の進行不可能確率を、角度方向ごとに規定することで、障害物地図を生成する。
属性に応じた進行不可能確率は、予め定めればよい。
本実施の形態では、生成部20Fは、立体物を示す属性を設定された三次元点P1に対応する区画領域に、進行不可能確率として、第1進行不可能確率を設定する。本実地の形態では、第1進行不可能確率として、最大の進行不可能確率を示す“1.0”を設定する。これは、立体物を示す属性を設定された三次元点P1に対応する区画領域は、障害物が存在するため進行不可能であることを表すためである。
また、生成部20Fは、進行可能を示す属性を設定された三次元点P2に対応する区画領域に、進行不可能確率として、第2進行不可能確率を規定する。第2進行不可能確率は、第1進行不可能確率より低い値である。本実施の形態では、第2進行不可能確率として、最小の値を示す“0.0”を設定する場合を説明する。これは、進行可能を示す属性を設定された三次元点P2に対応する区画領域は、障害物が存在せず進行可能であることを表すためである。
また、生成部20Fは、進行不可能を示す属性を設定された三次元点P3に対応する区画領域に、進行不可能確率として、第1進行不可能確率“1.0”を設定する。これは、進行不可能を示す属性を設定された三次元点P3に対応する区画領域は、交通規則などの規則上、進行不可能な可能性が高い事を表すためである。
また、生成部20Fは、撮影部10Jの位置を原点とした角度方向において、該撮影部10Jに最も近い位置に配置された、立体物を示す属性を設定された三次元点P1に対応する区画領域より、撮影部10Jから離れる側に配置された区画領域に、進行不可能確率として、中間確率を規定する。中間確率は、第1進行不可能確率(1.0)と第2進行不可能確率(0.0)との中間の値である。本実施の形態では、中間確率として、“0.5”を設定する場合を一例として説明する。これは、該区画領域の状態が不明であることを表すためである。
そして、生成部20Fは、上記処理で進行不可能確率を未規定の区画領域について、進行不可能確率(第1進行不可能確率、第2進行不可能確率、中間確率)を規定済の区画領域に基づいて、後述する方法により、進行不可能確率を規定する。これらの処理により、生成部20Fは、障害物地図を生成する。
障害物地図の生成処理について、詳細に説明する。図7は、図5に示す属性画像34の撮影環境を、上空から地面を見下ろした視点に対応する上面図として示した図である。図7に示すように、生成部20Fは、角度方向ごとに、三次元点Pに設定された属性に応じた進行不可能確率を算出する。
なお、図7には、一例として、撮影部10J(移動体10)を原点とした3つの角度方向(角度方向A〜角度方向C)を示した。図7において、角度方向Aでは建物が撮影部10Jから見て最も近い位置に存在し、撮影部10Jからrの距離に位置していると想定する。また、角度方向Bでは、車両が撮影部10Jから見て最も近い位置に存在し、撮影部10Jからrの距離に位置していると想定する。また、角度方向Cには、車両や建物などの立体物が存在しないと仮定する。
そして、生成部20Fは、角度方向ごとに、三次元点Pに設定された属性に応じた進行不可能確率を規定する。
図2に戻り説明を続ける。本実施の形態では、生成部20Fは、第1生成部20Hと、第2生成部20Iと、統合部20Jと、を含む。
まず、第1生成部20Hについて説明する。第1生成部20Hは、立体物を示す属性を設定された三次元点P1に対応する区画領域に、進行不可能確率を規定した第1障害物地図を生成する。詳細には、第1生成部20Hは、立体物を示す属性を設定された三次元点P1に対応する区画領域を含む角度方向について、該角度方向に沿って配列された区画領域の各々に進行不可能確率を規定することで、第1障害物地図40を生成する。
まず、第1生成部20Hは、角度方向の内、立体物を示す属性を設定された三次元点P1に対応する区画領域を含む角度方向を特定する。図7に示す例の場合、第1生成部20Hは、角度方向Aおよび角度方向Bを特定する。
そして、第1生成部20Hは、上述したように、立体物を示す属性を設定された三次元点P1に対応する区画領域に、進行不可能確率として、第1進行不可能確率(1.0)を規定する。
次に、第1生成部20Hは、基準位置である撮影部10J(移動体10)の位置から、該三次元点P1に対応する区画領域までの範囲内の他の区画領域に、進行不可能確率として、第2進行不可能確率(0.0)を規定する。これは、撮影部10J(移動体10)から最も近い位置に存在する立体物より撮影部10Jに近い位置に存在する区画領域は、障害物が存在せず進行可能である確率が高いためである。
更に、第1生成部20Hは、立体物を示す属性を設定された三次元点P1に対応する区画領域より、基準位置である撮影部10J(移動体10)の位置から離れた範囲内の他の区画領域に、進行不可能確率として、中間確率(0.5)を規定する。これは、撮影部10J(移動体10)から最も近い位置に存在する立体物より撮影部10Jから遠い位置に存在する区画領域は、立体物による遮蔽によって状態が不明のためである。
図8は、第1生成部20Hが規定した進行不可能確率を示す模式図である。図8(A)は、図7中の角度方向Aおよび角度方向Bに沿って配列された複数の区画領域を抽出して示した模式図である。言い換えると、図8(A)は、第1障害物地図40における、特定の角度方向に沿って配列された複数の区画領域40Aの各々に規定された、進行不可能確率を示す模式図である。
図8(A)に示すように、第1生成部20Hは、撮影部10Jから距離rの位置の、立体物を示す属性を設定された三次元点P1に対応する区画領域には、第1進行不可能確率“1.0”を規定する。また、第1生成部20Hは、距離rの位置の区画領域と撮影部10J(移動体10)との間の範囲に存在する区画領域には、第2進行不可能確率“0.0”を規定する。また、第1生成部20Hは、距離rの位置の区画領域より撮影部10J(移動体10)から遠い範囲に存在する区画領域には、中間確率“0.5”を規定する。
このように、第1生成部20Hは、各角度方向の各々の内、立体物を示す属性を設定された三次元点P1に対応する区画領域を含む角度方向ごとに、該角度方向に沿って配列された区画領域の各々に進行不可能確率を規定することで、第1障害物地図40を生成する。
なお、撮影部10Jから見て最も近い位置に存在する立体物(距離rの位置)より撮影部10Jから離れた位置に、更に他の立体物が存在する場合がある。この場合、図8(B)に示すように、第1生成部20Hは、図8(A)と同様にして、進行不可能確率を規定した後に、更に、距離rの位置の区画領域より撮影部10Jから遠い位置に配置された、立体物を示す属性を設定された三次元点P1に対応する区画領域に、第1進行不可能確率“1.0”を更に規定すればよい。
なお、立体物を示す属性を設定された三次元点P1を含まない角度方向が存在する場合がある。例えば、図7に示す角度方向Cには、立体物を示す属性を設定された三次元点P1が含まれなない。この場合、第1生成部20Hは、該角度方向Cに沿って配列された区画領域に、中間確率である“0.5”を規定する。
図9は、第1生成部20Hが規定した進行不可能確率を示す模式図である。詳細には、図9は、図7中の角度方向Cに沿って配列された複数の区画領域40Cの各々に規定された、進行不可能確率を示す模式図である。図9に示すように、三次元点P1を含まない角度方向C沿って配列された区画領域に対して、第1生成部20Hは、中間確率“0.5”を規定する。
このように、第1生成部20Hは、立体物を示す属性を設定された三次元点P1に対応する区画領域を含む角度方向について、上記方法で進行不可能確率を規定した、第1障害物地図40を生成する。
次に、第2生成部20Iについて説明する。第2生成部20Iは、進行可能または進行不可能を示す属性を設定された三次元点P(三次元点P2、三次元点P3)に対応する区画領域に、進行不可能確率を規定した第2障害物地図を生成する。
詳細には、第2生成部20Iは、進行可能または進行不可能を示す属性を設定された三次元点P(三次元点P2、三次元点P3)に対応する区画領域を含む角度方向について、該角度方向に沿って配列された区画領域の各々に進行不可能確率を規定することで、第2障害物地図を生成する。
第2生成部20Iは、各角度方向に沿って配列された区画領域の内、進行不可能を示す属性を設定された三次元点P3に対応する区画領域に、第1進行不可能確率“1.0”を規定する。
また、第2生成部20Iは、各角度方向に沿って配列された区画領域の内、進行可能を示す属性を設定された三次元点P2に対応する区画領域に、第2進行不可能確率“0.0”を規定する。
そして、第2生成部20Iは、特定した角度方向に沿って配列された区画領域の内、進行可能を示す属性または進行不可能を示す属性を未規定の区画領域に、中間確率“0.5”を設定する。
図10は、第2生成部20Iが規定した進行不可能確率を示す模式図である。図10(A)には、第2障害物地図42’における、特定の角度方向に沿って配列された複数の区画領域42’Eの各々に規定された、進行不可能確率を示す模式図である。
図10(A)に示すように、第2生成部20Iは、該角度方向に沿った区画領域の内、進行不可能を示す属性を設定された三次元点P3に対応する区画領域には、第1進行不可能確率“1.0”を規定する。また、第2生成部20Iは、該角度方向に沿った区画領域の内、進行可能を示す属性を設定された三次元点P2に対応する区画領域には、第2進行不可能確率“0.0”を規定する。また、また、第2生成部20Iは、該角度方向に沿った区画領域の内、進行可能または進行不可能を示す属性を未規定の区画領域には、中間確率“0.5”を規定する。
次に、第2生成部20Iは、該中間確率“0.5”を規定した区画領域に、第1進行不可能確率“1.0”または第2進行不可能確率“0.0”を規定された区画領域に基づいた進行不可能確率を規定する。すなわち、第2生成部20Iは、該中間確率“0.5”を規定した区画領域の進行不可能確率を、第1進行不可能確率または第2進行不可能確率を規定された周囲の区画領域の進行不可能確率を用いて補完する。
具体的には、第2生成部20Iは、図10(A)において中間確率“0.5”を規定した区画領域の進行不可能確率を、第2進行不可能確率“0.0”または第1進行不可能確率“1.0”を規定した周囲の区画領域の進行不可能確率を用いて補完する。
図10(B)は、図10(A)における中間確率“0.5”の規定された区画領域を、周囲の他の区画領域に規定された進行不可能確率を用いて補完(変更)した状態を示す模式図である。
図10(A)に示すように、第2生成部20Iは、中間確率“0.5”の規定された区画領域の進行不可能確率を、角度方向に隣接する一対の他の区画領域に規定された進行不可能確率に変更する。
具体的には、中間確率“0.5”を規定された区画領域が、角度方向に沿って、第2進行不可能確率“0.0”を規定された一対の区画領域によって挟まれているとする。この場合、第2生成部20Iは、中間確率“0.5”の規定された該区画領域の進行不可能確率を第2進行不可能確率“0.0”に変更する(図10(B)参照)。
また、中間確率“0.5”を規定された区画領域が、角度方向に沿って、第1進行不可能確率“1.0”を規定された一対の区画領域によって挟まれているとする。この場合、第2生成部20Iは、中間確率“0.5”の規定された該区画領域の進行不可能確率を第1進行不可能確率“1.0”に変更する(図10(B)参照)。
また、中間確率“0.5”の規定された区画領域が、角度方向に沿って、第1進行不可能確率“1.0”を規定された区画領域と、第2進行不可能確率“0.0”を規定された区画領域と、によって挟まれているとする。この場合、第2生成部20Iは、中間確率“0.5”の規定された該区画領域の進行不可能確率を、第1進行不可能確率と第2進行不可能確率の中間の値である中間確率“0.5”に規定する(図10(B)参照)。
このようにして、第2生成部20Iは、進行可能または進行不可能を示す属性を設定された三次元点P(三次元点P2、三次元点P3)に対応する区画領域を含む角度方向について、該角度方向に沿って配列された区画領域の各々に進行不可能確率を規定することで、第2障害物地図42を生成する。
このため、第2障害物地図42における、図7に示す角度方向A〜角度方向Cの各々に対応する、区画領域の各々に規定された進行不可能確率は、図11に示すものとなる。図11は、第2生成部20Iが規定した進行不可能確率を示す模式図である。図11(A)は、図7に示す角度方向Aに沿って配列された複数の区画領域42Aの各々に規定された、進行不可能確率を示す模式図である。図11(B)は、図7に示す角度方向Bに沿って配列された複数の区画領域42Aの各々に規定された、進行不可能確率を示す模式図である。図11(C)は、図7に示す角度方向Cに沿って配列された複数の区画領域42Aの各々に規定された、進行不可能確率を示す模式図である。
なお、第2生成部20Iは、中間確率“0.5”を規定された区画領域を、周囲の他の区画領域に規定された進行不可能確率を用いて補完する際、中間確率“0.5”を規定された区画領域に対応する領域E(図4参照)に割当てられた属性を、考慮してもよい。
図10(A)を用いて具体的に説明する。図10(A)において、一番左から2番目に位置する、中間確率“0.5”を規定された区画領域の進行不可能確率を、補完する場合を想定する。この場合、上述したように、第2生成部20Iは、図10(A)において一番左と左から3番目の各々に位置する、進行可能を示す属性を設定された三次元点P2に対応する区画領域の各々に規定された第2進行不可能確率“0.0”を用いて、補完処理を行う。
ここで、図10(A)において一番左に位置する区画領域に対応する三次元点P2が、属性画像32(図4参照)内の画素位置(x1,y1)の画素に対応すると想定する。また、図10(A)において、一番左から3番目に位置する区画領域に対応する三次元点P2が、属性画像32(図4参照)内の画素位置(x2,y2)の画素に対応すると想定する。また、属性画像32における、画素位置(x1,y1)と画素位置(x2,y2)を結ぶ範囲を、補完対象の区画領域の範囲と仮定する。
そして、属性画像32における、画素位置(x1,y1)と画素位置(x2,y2)とを結ぶ範囲に位置する画素(領域E)に、進行不可能を示す属性が割り当てられていない場合を想定する。この場合、第2生成部20Iは、図10(B)に示すように、補完対象の区画領域に対し、進行可能を示す属性に対応する第2進行不可能確率“0.0”を設定する。
一方、属性画像32における、画素位置(x1,y1)と画素位置(x2,y2)とを結ぶ範囲に位置する画素(領域E)に、進行不可能を示す属性が割り当てられている場合を想定する。この場合、第2生成部20Iは、補完対象の区画領域に対し、中間確率“0.5”を設定する。
ここで、1つの区画領域に対して、互いに異なる属性を設定された複数の三次元点Pが対応する場合がある。例えば、進行可能を示す属性を設定された三次元点P2と、進行不可能を示す属性を設定された三次元点P3と、の双方に対応する区画領域が存在する場合がある。
この場合、第2生成部20Iは、該区画領域に、進行不可能を示す属性に応じた進行不可能確率である第1進行不可能確率“1.0”を規定すればよい。
次に、統合部20Jについて説明する。統合部20Jは、第1障害物地図40と、第2障害物地図42と、を統合した障害物地図を生成する。
詳細には、統合部20Jは、進行不可能確率の優先度に基づいて、第1障害物地図40と第2障害物地図42を統合する。
進行不可能確率の優先度は、予め設定すればよい。本実施の形態では、統合部20Jは、第1進行不可能確率“1.0”が最も高く、第2進行不可能確率“0.0”が次に高く、中間確率“0.5”が最も低い、優先度を予め設定する。
そして、統合部20Jは、障害物地図に含まれる区画領域の各々に、第1障害物地図40の対応する区画領域に規定された進行不可能確率、および第2障害物地図42の対応する区画領域に規定された進行不可能確率の内、より優先度の高い進行不可能確率を規定する。この処理により、統合部20Jは、第1障害物地図40と第2障害物地図42を統合した障害物地図を生成する。
図12を用いて具体的に説明する。図12は、障害物地図44における、各角度方向(角度方向A〜角度方向C)に沿って配列された区画領域(区画領域44A〜区画領域44C)の各々に規定された進行不可能確率を示す模式図である。
図12(A)は、障害物地図44における、角度方向Aに沿って配列された区画領域44Aに規定された進行不可能確率を示す模式図である。統合部20Jは、第1障害物地図40における、角度方向Aに沿って配列された区画領域40Aに規定された進行不可能確率(図8(A)参照)と、第2障害物地図42における、角度方向Aに沿って配列された区画領域42Aに規定された進行不可能確率(図11(A)参照)と、統合する。この統合により、統合部20Jは、角度方向Aに沿って配列された区画領域44Aについて、図12(A)に示す進行不可能確率を規定する。
図12(B)は、障害物地図44における、角度方向Bに沿って配列された区画領域44Bに規定された進行不可能確率を示す模式図である。統合部20Jは、第1障害物地図40における、角度方向Bに沿って配列された区画領域40Aに規定された進行不可能確率(図8(A)参照)と、第2障害物地図42における、角度方向Bに沿って配列された区画領域42Bに規定された進行不可能確率(図11(B)参照)と、統合する。この統合により、統合部20Jは、角度方向Bに沿って配列された区画領域44Bについて、図12(B)に示す進行不可能確率を規定する。
図12(C)は、障害物地図44における、角度方向Cに沿って配列された区画領域44Cに規定された進行不可能確率を示す模式図である。統合部20Jは、第1障害物地図40における、角度方向Cに沿って配列された区画領域40Cに規定された進行不可能確率(図9参照)と、第2障害物地図42における、角度方向Cに沿って配列された区画領域42Cに規定された進行不可能確率(図11(C)参照)と、統合する。この統合により、統合部20Jは、角度方向Cに沿って配列された区画領域44Cについて、図12(C)に示す進行不可能確率を規定する。
上記処理により、統合部20Jは、第1障害物地図40と、第2障害物地図42と、を統合した障害物地図44を生成する。
次に、統合部20Jは、極座標系で生成した障害物地図44を、直交座法系に変換する。図13は、極座標系における区画領域と直交座標系における区画領域との関係を、直交座標系で示した図である。図13中、実線で区切られた区画領域が、直交座標系において矩形状に分割された区画領域である。図13中、破線で区切られた区画領域は、極座標系において矩形状に分割された区画領域を、直交座標系で表示したものである。
統合部20Jは、ニアレストネイバー法を用いて、直交座標系で表される区画領域の各々について、極座標系で表される区画領域のうち最も近い位置の区画領域を特定する。そして、統合部20Jは、直交座標系で表される区画領域の各々に、各々の区画領域に対して特定した、極座標系における最も近い区画領域に規定された進行不可能確率を規定する。
また、統合部20Jは、直交座標系で表される各区画領域に対して、極座標系で表される複数の区画領域の内、最も近傍に位置する区画領域を特定する。そして、統合部20Jは、特定した区画領域の進行不可能確率を、バイリニア法を用いて補完する。そして、統合部20Jは、直交座標系で表される規定対象の区画領域に、該補完によって得られた進行不可能確率を規定してもよい。
なお、これらの方法は、極座標系から直交座標への座標変換の一例であり、これらの方法に限定されるものではない。
上記処理により、統合部20J、すなわち、生成部20Fは、上空から地面を見下ろした視点に対応する障害物地図44を生成する。
図14は、障害物地図44の一例を示す模式図である。上記処理により、生成部20Fは、障害物地図44を作成する。図14中、白色で示した区画領域は、第2進行不可能確率“0.0”を規定された区画領域である。図14中、黒色で示した区画領域は、第1進行不可能確率“1.0”を規定された区画領域である。図14中、灰色で示した区画領域は、中間確率“0.5”を規定された区画領域である。
なお、生成部20Fは、生成した障害物地図44と、過去に生成した障害物地図44と、を時系列的に統合してもよい。
図15は、時系列統合の説明図である。図15は、時刻t−1、および、時刻tの各々において、移動体10を中心とする周囲の空間を分割して得られる複数の区画領域を示している。
時刻t−1のときの区画領域である領域Nt−1と、時刻tのときの区画領域ある領域Nと、は、それぞれの時刻で移動体10からの相対位置が異なる。しかし、これらの領域Nt−1と領域Nは、ワールド座標空間においては同じ位置を示している。
そこで、生成部20Fは、時刻tと、その直前の時刻である時刻t−1との間の移動体10の移動量を、自己位置情報から算出する。そして、生成部20Fは、移動体10の移動量に基づいて、時刻tにおける各区画領域に対応する、時刻t−1における区画領域を求める。図15の例では、時刻tの領域Nに対応する、時刻t−1の区画領域として、領域Nt−1を求める。そして、生成部20Fは、領域Nに対して規定された進行不可能確率と、領域Nt−1に対して過去に規定された進行不可能確率と、を統合する。この統合には、例えば、下記式(5)に示すベイズの定理を用いればよい。
なお、式(5)中、において、p(m|z)は現在の位置情報に基づく進行不可能確率を示し、p(m|z,...,zt−1)は、過去の位置情報に基づく進行不可能確率を示し、p(m|z,...,z)は、現在までの位置情報に基づく進行不可能確率を示す。
生成部20Fが、各区画領域に規定された進行不可能確率を時系列に統合した障害物地図44を生成することで、例えば任意のタイミングでセンサがノイズを含む値を観測した場合であっても、進行不可能確率をロバストに算出することが可能である。
図2に戻り、説明を続ける。生成部20Fは、生成した障害物地図44を、出力制御部20Gへ出力する。
出力制御部20Gは、障害物地図44を示す情報を出力する。本実施の形態では、出力制御部20Gは、障害物地図44を示す情報を、出力部10Aおよび動力制御部10Gの少なくとも一方へ出力する。
出力制御部20Gは、障害物地図44を示す情報を、ディスプレイ10Eに表示する。本実施の形態では、出力制御部20Gは、障害物地図44を含む表示画面を、ディスプレイ10Eに表示する。
図16は、表示画面60の一例を示す模式図である。表示画面60は、生成部20Fで生成された障害物地図44を含む。このため、ユーザは、表示画面60を確認することで、進行不可能確率を容易に認識することができる。なお、表示画面60は、障害物地図44上に、自車両である移動体10を示す画像60Aや、移動体10の進行予定ルートまたは推奨ルートを示すライン60Bを重畳した画面であってもよい。
図2に戻り説明を続ける。また、出力制御部20Gは、障害物地図44を示す音や光を出力するように、ディスプレイ10Eやスピーカ10Fを制御してもよい。また、出力制御部20Gは、障害物地図44を示す情報を、通信部10Dを介して外部装置へ送信してもよい。
また、出力制御部20Gは、障害物地図44を示す情報を、動力制御部10Gへ出力してもよい。すなわち、出力制御部20Gは、障害物地図44に含まれる各区画領域に規定された進行不可能確率を示す情報を、動力制御部10Gへ出力してもよい。
この場合、動力制御部10Gは、出力制御部20Gから受付けた障害物地図44を示す情報に応じて、動力部10Hを制御する。例えば、動力制御部10Gは、障害物地図44に含まれる各区画領域に規定された進行不可能確率に応じて、動力部10Hを制御するための動力制御信号を生成し、動力部10Hを制御してもよい。動力制御信号は、動力部10Hにおける、移動体10の進行に関する駆動を行う駆動部を制御するための制御信号である。例えば、移動体10が、障害物地図44において、第2進行不可能確率“0.0”を規定された区画領域に対応する、実空間の領域を進行するように、動力制御部10Gは、移動体10の操舵、エンジン、などを制御する。
次に、情報処理装置20が実行する情報処理の手順の一例を説明する。図17は、情報処理の手順の一例を示す、フローチャートである。
まず、取得部20Cが、撮影画像30と、撮影画像30の撮影環境の三次元点Pの三次元点情報と、を取得する(ステップS100)。
次に、割当部20Dが、ステップS100で取得した撮影画像30内の領域Eごとに、属性を割当てる(ステップS102)。
次に、設定部20Eは、ステップS100で取得した三次元点情報によって示される三次元点Pに、撮影画像30内の対応する領域Eに割当てられた属性を設定する(ステップS104)。
次に、生成部20Fが、ステップS100で取得した三次元点Pの三次元点情報と、ステップS104で三次元点Pに設定された属性と、に基づいて、障害物地図44を生成する(ステップS106)。
次に、出力制御部20Gが、ステップS106で生成された障害物地図44を示す情報を、出力部10Aおよび動力制御部10Gへ出力する(ステップS108)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の情報処理装置20は、取得部20Cと、割当部20Dと、設定部20Eと、生成部20Fと、を備える。取得部20Cは、撮影画像30(画像)と、撮影画像30の取得環境の三次元点Pの三次元点情報と、を取得する。割当部20Dは、撮影画像30内の領域Eごとに属性を割当てる。設定部20Eは、三次元点Pに、撮影画像30内の対応する領域Eに割当てられた属性を設定する。生成部20Fは、三次元点情報と、三次元点Pに設定された属性と、に基づいて、障害物地図44を生成する。
このように、本実施の形態の情報処理装置20では、三次元点Pの属性を、撮影画像30上の対応する領域Eの属性に基づいて設定し、三次元点Pに設定された属性に基づいて、障害物地図44を生成する。
このため、本実施の形態の情報処理装置20では、計算量や使用メモリ量を抑えながら、障害物地図44を生成することができる。
従って、本実施の形態の情報処理装置20は、処理負荷の軽減を図ることができる。
<変形例>
上記実施の形態では、外界センサ10Bが、情報処理装置20の外部に設けられた形態を、一例として説明した(図2参照)。しかし、情報処理装置20は、外界センサ10Bを備えた構成であってもよい。
図18は、本変形例の移動体11の構成の一例を示す模式図である。なお、上記実施の形態で説明した各部と同じ機能を示す部分には、同じ符号を付与し、詳細な説明を省略する。
移動体11は、出力部10Aと、内界センサ10Cと、動力制御部10Gと、動力部10Hと、情報処理装置21と、がバス10Iを介して接続されている。なお、移動体11は、情報処理装置20に代えて情報処理装置21を備える点以外は、上記実施の形態の移動体10と同様である。
情報処理装置21は、記憶部20Bと、処理部20Aと、外界センサ10Bと、を備える。情報処理装置21は、外界センサ10Bを更に備えた構成である点以外は、上記実施の形態の情報処理装置20と同様である。また、外界センサ10Bは、上記実施の形態と同様である。
図18に示すように、情報処理装置21は、処理部20Aおよび記憶部20Bに加えて、外界センサ10B(すなわち、撮影部10J、計測部10K)を更に備えた構成であってもよい。
また、情報処理装置21は、処理部20Aおよび記憶部20Bに加えて、通信部10D、ディスプレイ10E、スピーカ10F、内界センサ10C、および動力制御部10G、の少なくとも1つを更に備えた構成であってもよい。
<ハードウェア構成>
次に、上記実施の形態の情報処理装置20および変形例の情報処理装置21の、ハードウェア構成の一例を説明する。図19は、情報処理装置20および情報処理装置21のハードウェア構成図の一例である。
情報処理装置20および情報処理装置21は、CPU86などの制御装置と、ROM(Read Only Memory)88やRAM(Random Access Memory)90やHDD(ハードディスクドライブ)92などの記憶装置と、各種機器とのインターフェースであるI/F部82と、出力情報などの各種情報を出力する出力部80と、ユーザによる操作を受付ける入力部94と、各部を接続するバス96とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
情報処理装置20および情報処理装置21では、CPU86が、ROM88からプログラムをRAM90上に読み出して実行することにより、上記各部がコンピュータ上で実現される。
なお、情報処理装置20および情報処理装置21で実行される上記各処理を実行するためのプログラムは、HDD92に記憶されていてもよい。また、情報処理装置20および情報処理装置21で実行される上記各処理を実行するためのプログラムは、ROM88に予め組み込まれて提供されていてもよい。
また、情報処理装置20および情報処理装置21で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、情報処理装置20および情報処理装置21で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、情報処理装置20および情報処理装置21で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施の形態および変形例を説明したが、上記実施の形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、11 移動体
10E ディスプレイ
10J 撮影部
10K 計測部
20、21 情報処理装置
20C 取得部
20D 割当部
20E 設定部
20F 生成部
20G 出力制御部
20H 第1生成部
20I 第2生成部
20J 統合部
本発明の実施の形態は、情報処理装置、プログラム、および情報処理方法に関する。
本発明が解決しようとする課題は、処理負荷の軽減を図ることができる、情報処理装置、プログラム、および情報処理方法を提供することである。
以下に添付図面を参照して、情報処理装置、プログラム、および情報処理方法を詳細に説明する。

Claims (15)

  1. 画像と、前記画像の取得環境の三次元点の三次元点情報と、を取得する取得部と、
    前記画像内の領域ごとに属性を割当てる割当部と、
    前記三次元点に、前記画像内の対応する前記領域に割当てられた前記属性を設定する設定部と、
    前記三次元点情報と、前記三次元点に設定された前記属性と、に基づいて、障害物地図を生成する生成部と、
    を備える情報処理装置。
  2. 前記生成部は、
    上空から地面を見下ろした視点に対応する前記障害物地図を作成する、
    請求項1に記載の情報処理装置。
  3. 前記属性は、
    進行可能、進行不可能、または立体物を示す、
    請求項1または請求項2に記載の情報処理装置。
  4. 前記生成部は、
    区画領域ごとに進行可能または進行不可能な度合いを示す前記障害物地図を生成する、
    請求項1〜請求項3の何れか1項に記載の情報処理装置。
  5. 前記生成部は、
    前記三次元点情報と、前記三次元点に設定された前記属性に応じた進行不可能確率と、に基づいて、前記障害物地図を生成する、
    請求項4に記載の情報処理装置。
  6. 前記生成部は、
    立体物を示す前記属性を設定された前記三次元点に対応する前記区画領域に、前記進行不可能確率を規定した第1障害物地図を生成する第1生成部と、
    進行可能または進行不可能を示す前記属性を設定された前記三次元点に対応する前記区画領域に、前記進行不可能確率を規定した第2障害物地図を生成する第2生成部と、
    前記第1障害物地図と前記第2障害物地図とを統合した前記障害物地図を生成する統合部と、
    を有する、請求項5に記載の情報処理装置。
  7. 前記第1生成部は、
    立体物を示す前記属性を設定された前記三次元点に対応する前記区画領域に、前記進行不可能確率として、第1進行不可能確率を規定し、
    基準位置から該第1進行不可能確率を規定した前記区画領域までの範囲内の他の前記区画領域に、前記進行不可能確率として、前記第1進行不可能確率より低い第2進行不可能確率を規定し、
    前記第1進行不可能確率を規定された前記区画領域より前記基準位置から離れた範囲内の他の前記区画領域に、前記進行不可能確率として、前記第1進行不可能確率と前記第2進行不可能確率との間の中間確率を規定した、
    前記第1障害物地図を作成する、
    請求項6に記載の情報処理装置。
  8. 前記第2生成部は、
    進行不可能を示す前記属性を設定された前記三次元点に対応する前記区画領域に前記第1進行不可能確率を規定し、
    進行可能を示す前記属性を設定された前記三次元点に対応する前記区画領域に前記第2進行不可能確率を規定し、
    前記第1進行不可能確率または前記第2進行不可能確率を未規定の前記区画領域に、前記第1進行不可能確率または前記第2進行不可能確率を規定された前記区画領域に基づいた前記進行不可能確率を規定した、
    前記第2障害物地図を作成する、
    請求項7に記載の情報処理装置。
  9. 前記第2生成部は、
    進行可能を示す前記属性を設定された前記三次元点、および、進行不可能を示す前記属性を設定された前記三次元点、の双方に対応する前記区画領域に、進行不可能を示す前記属性に応じた前記進行不可能確率を規定する、
    請求項8に記載の情報処理装置。
  10. 前記統合部は、
    前記第1進行不可能確率が最も高く、前記第2進行不可能確率が次に高く、前記中間確率が最も低い、前記進行不可能確率の優先度に基づいて、
    前記障害物地図に含まれる前記区画領域の各々に、前記第1障害物地図の対応する前記区画領域に規定された前記進行不可能確率および前記第2障害物地図の対応する前記区画領域に規定された前記進行不可能確率の内、より優先度の高い前記進行不可能確率を規定することによって、
    前記第1障害物地図と前記第2障害物地図を統合した前記障害物地図を生成する、
    請求項8または請求項9に記載の情報処理装置。
  11. 前記障害物地図を含む表示画面を表示部に表示する出力制御部を備える、
    請求項1〜請求項10の何れか1項に記載の情報処理装置。
  12. 前記画像を撮影する撮影部と、
    前記画像の撮影時の前記取得環境の、前記三次元点の前記三次元点情報を計測する計測部と、
    を備え、
    前記取得部は、前記撮影部および前記計測部から、前記画像および前記三次元点情報を取得する、
    請求項1〜請求項11の何れか1項に記載の情報処理装置。
  13. 前記計測部は、レーザによって前記三次元点情報を計測する、
    請求項12に記載の情報処理装置。
  14. 前記計測部は、レーザの照射方向と、前記レーザの前記三次元点による反射光に関する情報と、に基づいて前記三次元点情報を計測する、
    請求項13に記載の情報処理装置。
  15. 画像と、前記画像の取得環境の三次元点の三次元点情報と、を取得するステップと、
    前記画像内の領域ごとに属性を割当てるステップと、
    前記三次元点に、前記画像内の対応する前記領域に割当てられた前記属性を設定するステップと、
    前記三次元点情報と、前記三次元点に設定された前記属性と、に基づいて、障害物地図を生成するステップと、
    をコンピュータに実行させるためのプログラム。
JP2018077541A 2018-04-13 2018-04-13 情報処理装置、プログラム、および情報処理方法 Active JP7182895B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018077541A JP7182895B2 (ja) 2018-04-13 2018-04-13 情報処理装置、プログラム、および情報処理方法
EP19159350.8A EP3553752A1 (en) 2018-04-13 2019-02-26 Information processing apparatus, information processing method, and computer-readable medium for generating an obstacle map
US16/285,266 US10817734B2 (en) 2018-04-13 2019-02-26 Information processing apparatus, information processing method, and computer program product
CN201910146511.7A CN110377026B (zh) 2018-04-13 2019-02-27 信息处理装置、存储介质和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077541A JP7182895B2 (ja) 2018-04-13 2018-04-13 情報処理装置、プログラム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2019185528A true JP2019185528A (ja) 2019-10-24
JP7182895B2 JP7182895B2 (ja) 2022-12-05

Family

ID=65635434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077541A Active JP7182895B2 (ja) 2018-04-13 2018-04-13 情報処理装置、プログラム、および情報処理方法

Country Status (4)

Country Link
US (1) US10817734B2 (ja)
EP (1) EP3553752A1 (ja)
JP (1) JP7182895B2 (ja)
CN (1) CN110377026B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467485B2 (ja) 2019-02-01 2024-04-15 テスラ,インコーポレイテッド 時系列要素からの機械学習のためのグラウンドトゥルースの生成

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
US11093759B2 (en) * 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization
US10803594B2 (en) * 2018-12-31 2020-10-13 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system of annotation densification for semantic segmentation
EP3882813A1 (en) 2020-03-20 2021-09-22 Aptiv Technologies Limited Method for generating a dynamic occupancy grid
EP3905106A1 (en) 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a drivable area
EP3905105A1 (en) * 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a collision free space
CN111781611B (zh) * 2020-06-16 2023-06-16 万物镜像(北京)计算机系统有限公司 建立模型的方法、装置、存储介质及电子设备
CN112515660B (zh) * 2020-11-30 2022-04-19 居天科技(深圳)有限公司 激光雷达人体建模方法
CN112489118B (zh) * 2020-12-15 2022-06-14 中国人民解放军国防科技大学 一种无人机机载传感器组外参快速标定方法
CN112762938B (zh) * 2020-12-24 2022-08-09 哈尔滨工程大学 一种基于旋转矩阵的因子图协同定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013803A (ja) * 2009-06-30 2011-01-20 Ihi Corp 周囲形状検出装置、自律移動装置、移動体の操縦補助装置、周囲形状検出方法、自律移動装置の制御方法及び移動体の操縦補助方法
WO2016021303A1 (ja) * 2014-08-07 2016-02-11 日立オートモティブシステムズ株式会社 行動計画装置
JP2017215940A (ja) * 2016-05-30 2017-12-07 株式会社東芝 情報処理装置、車両、情報処理方法およびプログラム
JP2017215939A (ja) * 2016-05-27 2017-12-07 株式会社東芝 情報処理装置、車両、情報処理方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
KR20060059006A (ko) * 2004-11-26 2006-06-01 삼성전자주식회사 이동형 가전기기가 장애물을 회피하며 벽을 따라 이동하는방법 및 장치
US7974460B2 (en) 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
KR20090077547A (ko) * 2008-01-11 2009-07-15 삼성전자주식회사 이동 로봇의 경로 계획 방법 및 장치
CN101852609B (zh) * 2010-06-02 2011-10-19 北京理工大学 一种基于机器人双目立体视觉的地面障碍物检测方法
KR101778028B1 (ko) * 2010-12-20 2017-09-13 삼성전자주식회사 로봇 및 로봇의 경로 생성 방법
US20150192668A1 (en) * 2014-01-06 2015-07-09 Honeywell International Inc. Mathematically combining remote sensing data with different resolution to create 3d maps
CN104965518B (zh) * 2015-05-21 2017-11-28 华北电力大学 基于三维数字地图的电力巡检飞行机器人航线规划方法
JP6350468B2 (ja) * 2015-09-18 2018-07-04 トヨタ自動車株式会社 運転支援装置
CN105867381B (zh) * 2016-04-25 2019-03-29 广西大学 一种基于概率地图的工业机器人路径搜索优化算法
JP6804991B2 (ja) 2017-01-05 2020-12-23 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6685941B2 (ja) 2017-01-05 2020-04-22 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6808590B2 (ja) 2017-08-08 2021-01-06 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび移動体
US10349011B2 (en) * 2017-08-14 2019-07-09 GM Global Technology Operations LLC System and method for improved obstacle awareness in using a V2X communications system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013803A (ja) * 2009-06-30 2011-01-20 Ihi Corp 周囲形状検出装置、自律移動装置、移動体の操縦補助装置、周囲形状検出方法、自律移動装置の制御方法及び移動体の操縦補助方法
WO2016021303A1 (ja) * 2014-08-07 2016-02-11 日立オートモティブシステムズ株式会社 行動計画装置
JP2017215939A (ja) * 2016-05-27 2017-12-07 株式会社東芝 情報処理装置、車両、情報処理方法およびプログラム
JP2017215940A (ja) * 2016-05-30 2017-12-07 株式会社東芝 情報処理装置、車両、情報処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467485B2 (ja) 2019-02-01 2024-04-15 テスラ,インコーポレイテッド 時系列要素からの機械学習のためのグラウンドトゥルースの生成

Also Published As

Publication number Publication date
CN110377026B (zh) 2022-06-14
EP3553752A1 (en) 2019-10-16
US10817734B2 (en) 2020-10-27
CN110377026A (zh) 2019-10-25
US20190318176A1 (en) 2019-10-17
JP7182895B2 (ja) 2022-12-05

Similar Documents

Publication Publication Date Title
JP7182895B2 (ja) 情報処理装置、プログラム、および情報処理方法
US10489686B2 (en) Object detection for an autonomous vehicle
CN111448476B (zh) 在无人飞行器与地面载具之间共享绘图数据的技术
CN112204343B (zh) 高清晰地图数据的可视化
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
JP7351293B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
EP3252658B1 (en) Information processing apparatus and information processing method
US10794710B1 (en) High-precision multi-layer visual and semantic map by autonomous units
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6678605B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
JP7103359B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
CN111670339B (zh) 用于无人飞行器和地面载运工具之间的协作地图构建的技术
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
US11087145B2 (en) Gradient estimation device, gradient estimation method, computer program product, and controlling system
Sridhar et al. Cooperative perception in autonomous ground vehicles using a mobile‐robot testbed
JP2019032700A (ja) 情報処理装置、情報処理方法、プログラムおよび移動体
US10628917B2 (en) Information processing apparatus, information processing method, and computer program product
JP2022091474A (ja) 情報処理装置、情報処理方法、プログラムおよび車両制御システム
US20220309693A1 (en) Adversarial Approach to Usage of Lidar Supervision to Image Depth Estimation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7182895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150