JP2018060511A - シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 - Google Patents

シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 Download PDF

Info

Publication number
JP2018060511A
JP2018060511A JP2017092949A JP2017092949A JP2018060511A JP 2018060511 A JP2018060511 A JP 2018060511A JP 2017092949 A JP2017092949 A JP 2017092949A JP 2017092949 A JP2017092949 A JP 2017092949A JP 2018060511 A JP2018060511 A JP 2018060511A
Authority
JP
Japan
Prior art keywords
image
position information
vehicle
recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017092949A
Other languages
English (en)
Other versions
JP6548690B2 (ja
JP2018060511A5 (ja
Inventor
福原 隆浩
Takahiro Fukuhara
隆浩 福原
中西 康之
Yasuyuki Nakanishi
康之 中西
隆 河原
Takashi Kawahara
隆 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Data Controls Corp
Original Assignee
Advanced Data Controls Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Data Controls Corp filed Critical Advanced Data Controls Corp
Priority to PCT/JP2017/033728 priority Critical patent/WO2018066351A1/ja
Publication of JP2018060511A publication Critical patent/JP2018060511A/ja
Priority to US16/367,257 priority patent/US10565458B2/en
Publication of JP2018060511A5 publication Critical patent/JP2018060511A5/ja
Application granted granted Critical
Publication of JP6548690B2 publication Critical patent/JP6548690B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • G06F18/2185Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Business, Economics & Management (AREA)

Abstract

【課題】自車両周辺の他車両、道の障害物、歩行者などの対象物に対する認識率の向上に関し、実写の画像に極めて類似した画像を、CG合成技術で生成する。【解決手段】本発明の車両同期シミュレーション装置及び手段は、自車両の位置情報を算出する手段と、自車両位置情報をサーバー手段に送出する手段と、自車両位置情報を特定のフォーマットにデータ化して送出する手段と、同該データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、同該データを受信して画像を生成する手段と、生成された画像の中から特定の対象物を認識、検出する手段と、認識結果の情報を用いて、自車両の位置情報を変更・修正する手段とを備え、さらにサーバー手段は、自車両位置算出手段と、送受信手段と、画像生成・認識手段の3つの手段を同期制御する手段を備えた。【選択図】 図4

Description

本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法に関する。
現在、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ映像を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行うテストが盛んに行われている。上記の実験システムでは、リアルタイム性、高い認識率、全体が同期して制御されていることが特に重要となる。
自動運転支援システムに関する従来例としては、例えば、特許文献1に開示された走行制御システムがある。この特許文献1に開示された走行制御システムでは、自車両周辺に存在する道路のレーン・マーカーや停止位置などの路面標示を検知するとともに、自車両周辺に存在する複数の移動体・障害物などの立体物体を検知し、道路上の走行領域を判定して、信号機や標識などの立体物との衝突を回避しながら、予め設定された走行ルートを走行する自動運転システムを実現することを目的としている。
ところで、車載センサーで外界周辺状況を認識し制御を行うためには、自車両周辺の複数の障害物や複数の移動体の種別である車両、自転車、歩行者を判定し、その位置や速度などの情報を検出する必要がある。さらに、自車両が走行する上で道路上のレーン・マーカーや停止線などのペイントの意味や標識の意味を判定することが必要である。このような自車両周辺の外界情報を検知する車載センサーとしては、カメラのイメージセンサーを用いた画像認識技術が有効とされてきた。
特開2016−99635号公報
しかしながら、実際に車両を無限に走行させてテストデータを採取することは事実上不可能であり、如何にして実際に代用可能なレベルのリアリティ性をもって上記のテストを行うことができるかが重要な課題となる。
例えば、カメラ画像の画像認識技術で外部環境を認識する場合、自車両周辺の天候(雨天、霧など)や時間帯(夜間、薄暗、逆光など)等の外部要因によって、認識率が大幅に変わってしまい検出結果に影響を与える。その結果、自車両周辺の移動体、障害物、道路上のペイントの検知に関して、画像認識手段による誤検知や未検知が増加する。このような画像認識手段による誤検知や未検知は、最も認識率の高いディープラーニング(機械学習)の技術を用いれば、学習のサンプル数を増加させることで解決することができる。
ところが、実際に道路を走行中に学習のサンプルを抽出することには限界があり、雨天や逆光、霧などの過酷な天候条件が満たされるのを待って車両の走行テストやサンプル収集を行うことは、その条件の再現が困難である上、機会の到来も希有であることから、開発手法として現実的でない。
一方、将来的な完全自動運転の実現のためには、上記のカメラ画像の画像認識だけでは不十分と言える。なぜならばカメラ画像は2次元画像であり、車両や歩行者、信号機などは画像認識によって対象物を抽出することは可能であるが、3次元の立体形状を得ることはできない。従ってこれらの要求に対応するものとしてLiDARというレーザー光を用いたセンサーや、ミリ波帯の電波を使ったセンサーも有望視されている。したがって、上記の複数の異なる種類のセンサーを組み合わせることで、自動車の走行時の安全性を大幅に向上させることができる。
そこで、本発明は、上記のような問題を解決するものであり、自車両周辺の他車両、路上の障害物、歩行者などの対象物に対する認識率の向上に関し、過酷な天候条件など、その再現が困難な条件下における実写の画像に極めて類似した画像を人工的に生成することによって、車両の走行テストやサンプル収集のリアリティ性を向上させるとともに、複数個の異なる種類のセンサーを仮想環境で構築して、各々の映像をCGの技術を用いて生成し、このCG画像を用いた同期制御のシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法を提供することを目的とする。
上記課題を解決するために、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーターシステムであって、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける上記認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備える。
また、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレータープログラムであって、コンピューターを、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける上記認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
機能させる。
さらに、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーター方法であって、
位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
前記画像認識ステップおける上記認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
を備えたことを特徴とする。
上記発明において前記同期制御手段は、
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
上記パケット化データを受信してデ・パケット化する手段と、
上記デ・パケット化されたデータを入力して画像を生成する手段と
を備えることが好ましい。
上記発明において、前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することができる。
上記発明において、前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれる。
上記発明において前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成することが好ましい。
上記発明において、前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
上記発明において、前記画像認識手段は、ニューラルネットを多段に構成したディープラーニング認識手段であることが好ましい。
上記発明において、前記画像認識手段は、前記画像生成手段が生成した前記シミュレーション用画像について、認識対象となる画像中の特定物に応じた領域分割を行うセグメンテーション部と、
前記セグメンテーション部によって領域分割された画像に基づく学習用の教師データを作成する教師データ作成手段と
をさらに備えることが好ましい。
上記発明において前記教師データには、前記センサーに少なくとも1つのLiDARセンサーが含まれる場合には、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定することが好ましい。
上記発明において、前記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることが好ましい。
上記発明において、前記請求項10記載のセンサー手段は、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
上記発明において前記画像生成手段は、複数個のセンサーに対応した3Dグラフィックス画像を生成し、
前記画像認識手段は、前記3Dグラフィックス画像がそれぞれ入力されてディープラーニング認識を行い、各ディープラーニング認識結果を前記センサーごとに出力し、
前記同期制御手段は、前記センサーごとのディープラーニング認識結果に基づいて前記同期制御を行う
ことが好ましい。
上記発明において前記画像認識手段は、前記センサーに少なくとも1つのLiDARセンサーが含まれる場合には、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とすることが好ましい。
以上述べたように、これらの発明によれば、ディープラーニング(機械学習)等の認識機能モジュールの学習に際し、CGなどの実写の画像に極めて類似した画像を人工的に生成することによって学習のサンプル数を増加させることができ、学習の効率を高めて認識率を向上させることができる。詳述すると、本発明では、車両の位置情報変位を、シミュレーションモデルを基にして、実写の画像に極めて類似した、リアリティ性の高いCG映像を生成及び合成する手段を用いており、実際には存在しない環境や光源などを付加した映像を、人工的に無限に生成することができるようになる。この生成したCG画像を認識機能モジュールに対して、従来のカメラ画像と同様に入力し、カメラ画像に対する処理を同様に行わせ、対象とするオブジェクトが認識・抽出できるかをテストすることができるので、これまで取得・撮影が困難・不可能であった種類の映像での学習ができる上、さらに学習効率を高めて認識率を向上させる効果がある。
また、2次元画像の取得ができるイメージセンサーの他に、物体の立体形状の情報が抽出できるLiDAR(レーザー光)やミリ波帯の電波など、異なる種類のセンサーを併用し、これらのセンサーに応じた画像を生成することで、さらに広範囲なテストが可能になるのみならず、認識技術のブラッシュアップも同時に実現することが可能になるという、相乗効果が見込める。
なお、本発明の応用分野としては、自動車の自動走行運転のための実験装置、シミュレーター、及びそれに関連したソフトウェアモジュール、ハードウェアデバイス(例えば車両搭載のカメラ、イメージセンサー、車両の周囲の3次元形状を測定するためのレーザー)、ディープラーニング等の機械学習ソフトウェア、非常に広範囲に及ぶ。また、本発明によれば、実写画像をリアルに実現するCG技術と同期制御の融合技術を備えているので、自動車の自動走行運転以外の分野でも幅広く応用することができる。例えば外科手術のシミュレーター、軍事シミュレーター、ロボットやドローンなどの安全走行テスト等が利用分野として有望である。
第1実施形態に係るシミュレーションシステムの全体構成を示す概念図である。 第1実施形態に係るドライビングシミュレーター装置の構成を示す概念図である。 第1実施形態に係るシミュレーターサーバーの構成を示す概念図である。 第1実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。 第1実施形態に係るシステムにおける処理手順を示したフローチャート図である。 第1実施形態に係るシステムのCG画像からの他車両認識結果を示した説明図である。 第1実施形態に係るシステムのCG画像からの他車両認識結果を示した説明図である。 第1実施形態に係るシステムのCG画像からの歩行者認識結果を示した説明図である。 実施形態に係る認識機能モジュールによる認識処理の概要を示す説明図である。 画像のセグメンテーションマップを説明する図である。 道路上に存在する複数個の対象物ごとに色分けされたセグメンテーションマップを説明する図である。 CG画像でディープラーニング認識を行った結果、車両や人物が正しく認識された結果を説明する図である。 ディープラーニング認識の学習を行うためのセグメンテーションマップのアノテーション記述の例を説明する図(XML記述) 第2実施形態において複数の端末を用いて車両同期シミュレーションを行うことを説明する図である。 図14に対応した実際の構成を示した図である。 変更例1において複数のセンサーを用いてCG画像を生成して、ディープラーニング認識及び挙動シミュレーションを行うことを説明する図である。 変更例2において、複数のセンサーを用いて実写画像を撮影し、ディープラーニング認識及び挙動シミュレーションを行うことを説明する図である。 LiDARセンサーの動作原理を説明する図である。 LiDARセンサーの点群データの取得原理を説明する図である。 LiDARセンサーのビーム放射を説明する図である。 LiDARセンサーを用いて生成された周囲の点群データを説明する図である。
[第1実施形態]
(車両同期シミュレーターシステムの全体構成)
以下に添付図面を参照して、本発明に係る車両同期シミュレーターシステムの実施形態を詳細に説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。ここで、自動運転システムとは、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等のシステムであり、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ等のセンサー手段により取得された映像(実画像)を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行う。
図1は、本実施形態に係るシミュレーターシステムの全体構成を示す概念図である。本実施形態に係るシミュレーターシステムは、単数又は複数のシミュレーション対象について、シミュレーションプログラムを実行するとともに、これらのシミュレータープログラムのテストや機械学習を実行する。このシミュレーターシステムは、図1に示すように、通信ネットワーク3上にシミュレーターサーバー2が配置され、このシミュレーターサーバー2に対して、通信ネットワーク3を通じて、自車両の位置を生成又は取得する情報処理端末1aや車載装置1bが接続されている。
ここで、通信ネットワーク3は、通信プロトコルTCP/IPを用いたIP網であって、種々の通信回線(電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワーク)を相互に接続して構築される分散型の通信ネットワークである。このIP網には、10BASE−Tや100BASE−TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、上記情報処理端末1aとしてのPCの中にシミュレーターのソフトウェアがインストールされているケースも多々ある。この場合には、PC単体でのシミュレーションを行うことができる。
シミュレーターサーバー2は、単数又は複数のサーバー装置群により構成され、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。このシミュレーターサーバー2には、サーバー用のアプリケーションソフトウェアを実行するサーバーコンピューター、若しくはそのようなコンピューター上でのアプリケーションの実行を管理補助するミドルウェアで構成されたアプリケーションサーバーが含まれる。
また、シミュレーターサーバー2には、クライアント装置から、HTTPのレスポンス要求を処理するウェブサーバーが含まれ、このウェブサーバーは、バックエンドの関係データベース管理システム(RDBMS)を実行するデータベース中核層への橋渡しを担い、データの加工などの処理を行う。関係データベースサーバーは、データベース管理システム(DBMS)が稼動しているサーバーであり、クライアント装置やアプリケーションサーバー(APサーバー)に要求されたデータを送信したり、操作要求を受け付けてデータを書き換えたり削除したりする機能を有する。
情報処理端末1a及び車載装置1bは、通信ネットワーク3に接続されたクライアント装置であり、CPU等の演算処理装置を備え、専用のクライアントプログラム5を実行することによって種々の機能を提供する。この情報処理端末としては、例えば、パーソナルコンピュータ等の汎用コンピューターや機能を特化させた専用装置により実現することができ、スマートフォンやモバイルコンピューター、PDA(Personal Digital Assistance )、携帯電話機、ウェアラブル端末装置等が含まれる。
この情報処理端末1a又は車載装置1bは、専用のクライアントプログラム5を通じて上記シミュレーターサーバー2にアクセスしてデータの送受信が可能となっている。このクライアントプログラム5は、その一部又は全部が、ドライビングシミュレーションシステムや、車載された自動運転走行システムに組み込まれ、車両に搭載したカメラ等の各種センサーが撮影・検出した映像等の実画像、或いは取り込まれた風景映像(本実施形態ではCG動画が含まれる。)等を、画像認識技術を用いて認識して、映像中の他の車両や歩行者、信号機などのオブジェクトを検出し、その認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。なお、本実施形態に係るクライアントプログラム5は、画像認識の機能をシミュレーターサーバー2で行わせ、車両位置情報計算部51の自動運転の仕組みによって、シミュレーターサーバー2における認識結果に応じて自動車を仮想的に地図上で走行させたり、実際に車両を走行させたりして、自車両の位置情報を変位させるように位置情報を計算し、又は取得する。
(各装置の構成)
次いで、各装置の構成について具体的に説明する。図2は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、図3は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(1)クライアント装置の構成
情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、図2に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
メモリ103及びストレージ装置101は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。入力インターフェース104は、キーボードやポインティングデバイス、タッチパネルやボタン等の操作デバイスから操作信号を受信するモジュールであり、受信された操作信号はCPU402に伝えられ、OSや各アプリケーションに対する操作を行うことができる。出力インターフェース105は、ディスプレイやスピーカー等の出力デバイスから映像や音声を出力するために映像信号や音声信号を送出するモジュールである。
特に、クライアント装置が車載装置1bである場合、この入力インターフェース104には、自動運転システムのための上記ADAS等のシステムが接続され、自動車の自動運転走行を実現するため、車両に搭載したカメラ等のイメージセンサー104aの他、LiDARセンサー、ミリ波センサー、赤外線センサー等が、実画像を取得する各種センサー手段が接続される。
通信インターフェース106は、他の通信機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
CPU102は、各部を制御する際に必要な種々の演算処理を行う装置であり、各種プログラムを実行することにより、CPU102上に仮想的に各種モジュールを構築する。このCPU102上では、OS(Operating System)が起動・実行されており、このOSによって情報処理端末1a〜cの基本的な機能が管理・制御されている。また、このOS上では種々のアプリケーションが実行可能になっており、CPU102でOSプログラムが実行されることによって、情報処理端末の基本的な機能が管理・制御されるとともに、CPU102でアプリケーションプログラムが実行されることによって、種々の機能モジュールがCPU上に仮想的に構築される。
本実施形態では、CPU102上でクライアントプログラム5を実行することによって、クライアント側実行部102aが構成され、このクライアント側実行部102aを通じて、仮想地図上又は実際の地図上における自車両の位置情報を生成又は取得し、シミュレーターサーバー2に送信するとともに、シミュレーターサーバー2側における風景映像(本実施形態ではCG動画が含まれる)の認識結果を受信して、受信した認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。
(2)シミュレーターサーバーの構成
本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、図3に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210〜213とを備えている。
通信インターフェース201は、通信ネットワーク3を通じて、他の機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
UDP同期制御部202は、クライアント装置1側における自車両を変位させる位置情報の計算処理と、シミュレーターサーバー2側における画像生成処理及び画像認識処理とを同期制御するモジュールである。クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する。
UDP情報送受信部206は、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信するモジュールであり、本実施形態では、クライアント装置1側で計算され又は取得された位置情報を特定のフォーマットにパケット化してシミュレーターサーバー2側に送出するとともに、このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側でパケット化データを受信してデ・パケット化し、上記デ・パケット化されたデータを画像生成部203に入力して画像を生成する。また、本実施形態においてUDP情報送受信部206は、UDP同期制御部202によって各装置間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信する。
上記各種データベースとしては、地図データベース210と、車両データベース211と、描画用データベース212とを備えている。なお、これらのデータベースは、関係データベース管理システム(RDBMS)により、相互に情報の参照が可能となっている。
シミュレーション実行部205は、クライアント装置1側の位置情報取得手段によって生成又は取得され、シミュレーターサーバー2側へ送信された位置情報に基づいて、位置情報で特定された領域を再現したシミュレーション用画像を生成し、その生成されたシミュレーション用画像の中から特定の対象物を、認識機能モジュールを用いて認識し、検出するモジュールである。具体的には、画像生成部203と、画像認識部204とを備えている。
画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成するモジュールである。この画像生成部203で生成されたシミュレーション用画像は、画像認識部204に送出される。
画像認識部204は、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物を、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識し検出するモジュールである。この画像認識部204による認識結果情報D06は、クライアント装置1側の車両位置情報計算部51に送信される。画像認識部204には、学習部204bが設けられており、認識機能モジュール204aの機械学習を実行するようになっている。この認識機能モジュール204aは、カメラ装置等のセンサー手段により撮影された実画像、又は画像生成部203で生成されたCGを取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識するモジュールであり、学習部204bは、この認識機能モジュール204aに対して、上記カメラ装置による撮影画像又は仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。
(車両同期シミュレーターシステムの方法)
以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。図5は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
先ず、車両位置情報計算部51で自車の車両位置情報D02の取得を行う(S101)。具体的にはクライアント装置1側でクライアントプログラム5を実行することによって、地図情報や車両初期データ等の各種データ群D01を車両位置情報計算部51に入力する。次いで、これらの各種データ群D01を用いて仮想地図上又は実際の地図上における自車両の位置情報を計算(生成)又は取得し、その結果を車両位置情報D02として、UDP同期制御部202及びUDP情報送受信部206を通じて、シミュレーターサーバー2側のシミュレーション実行部205に送信する(S102)。
詳述すると、車両位置情報計算部51では、先ず自車の車両位置情報D02を、UDP同期制御部202からの制御信号D03のタイミングに従って、UDP同期制御部202に対して送出する。車両位置情報計算部51の初期データで、例えば地図データや地図中の自車の位置情報や車体の車輪の回転角,口径などの情報は、所定のストレージ装置101からロードすることができる。UDP同期制御部202及びUDP情報送受信部206では、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信する。具体的にUDP同期制御部202及びUDP情報送受信部206は、クライアント装置1側で計算され又は取得された車両位置情報D02は、車両情報を含む各種データ群を、特定のフォーマットにパケット化されたパケット情報D04としてシミュレーターサーバー2側に送出される。
このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側でパケット化データを受信してデ・パケット化され(S103)、上記デ・パケット化されたデータD05をシミュレーション実行部205の画像生成部203に入力してCG画像が生成される。このとき、UDP情報送受信部206は、UDP同期制御部202によって各装置間において、車両情報を含む各種データ群をパケット化したパケット情報D04はUDP(User Datagram Protocol)を用いて送受信される。
詳述すると、UDP同期制御部202では、自車の車両位置情報D02をUDPパケッタイズすることで種データ群をパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。ここでUDP(User Datagram Protocol)について少し述べる。一般にTCPが高信頼性、コネクション型、ウィンドウ制御、再送制御、輻輳制御を行うのに対して、UDPはコネクションレス型プロトコルで信頼性を確保する仕組みがない一方で、処理が簡易なため低遅延という大きな利点がある。本実施形態では各構成部の間をデータ伝送する際に低遅延が要求されるので、TCPではなくUDPを採用している。またさらに現在の音声通信や動画通信において最も普及しているRTP(Realtime Transport Protocol)を用いてもよい。
ここで、次に自車の車両位置情報D02の具体的な内容としては、例えば
・自車の位置情報(路面絶対位置座標の3次元座標(X,Y,Z)等)
・自車のオイラー角度
・タイヤの位置情報(路面絶対位置座標の3次元座標(X,Y,Z)等)
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
車両位置情報D02を受信したUDP情報送受信部206では、車両の情報、例えば車両の位置情報であるXYZ座標、タイヤの位置情報であるXYZ座標、オイラー角度等の各種情報の中から、主に車両のCG画像を生成するのに必要なデータD05を送出する。
そして、各種データ群をUDPパケットとしたパケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05は、シミュレーション実行部205の画像生成部203に入力される(S104)。
シミュレーション実行部205において、画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を、データD05として取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成する(S105)。この画像生成部203で生成されたクライアント装置1としての3Dグラフィックス合成画像は画像認識部204に送出される。
画像生成部203では、所定の画像生成法として、例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06は再度車両位置情報計算部51に入力されて、例えば自車両の次の動作を決定するための車両の位置情報を計算するのに用いられる。
画像生成部203では、例えばPBR手法を用いたCG技法によって、車両のみならず周囲画像、例えば路面、建物、信号機、他の車両、歩行者といったオブジェクトを生成することができる。これはPlayStationなどのゲーム機によるタイトルで、上記のようなオブジェクトが非常にリアルに生成されていることからも、最新のCG技術で十分実現可能なことが分かる。自車両以外のオブジェクトの画像については既に初期データとして保持しているものを用いることが多い。特に自動走行運転のシミュレーターでは、数多くの高速道路、一般道などのサンプルデータを大量にデータベース化しており、それらのデータを適宜使えばよい。
続いて、画像認識部204では、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物をオブジェクトとして、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識して抽出する(S106)。ここで、認識されたオブジェクトがなければ(ステップS107における「N」)、次のタイムフレームに移行して(S109)、タイムフレームがなくなるまで(ステップS109における「N」)、上記処理S101〜S107を繰り返す((ステップS109における「Y」))。
他方、ステップS107において、認識されたオブジェクトが存在する場合には(ステップS107における「Y」)、この画像認識部204による認識結果は認識結果情報D06としてクライアント装置1側の車両位置情報計算部51に送信される。そして、クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果情報D06を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する(S108)。
詳述すると、ここで生成されたシミュレーション用画像D61としてのCG画像は、通常、センサー手段により取得される実画像に替えて、画像認識部204に入力され、既に述べたようにオブジェクトの認識・検出を、例えばディープラーニング等の認識技術を用いて行う。得られた認識結果は他車両や、歩行者、標識、信号機のように画面中の領域情報(例えば抽出された矩形領域のXY2次元座標)で与えられる。
自動走行運転のためのシミュレーターを実行する場合、実際の車両走行中の画像中には、他車両、歩行者、建物、路面などの数多くのオブジェクト(対象物)が存在する。自動走行運転の実現のためには、それらのオブジェクトを車両搭載のカメラ映像やミリ波、レーダ波等、各種センサーからのリアルタイムの情報を獲得しながら、例えば自動でハンドルを切る、アクセルを踏む、ブレーキをかける等の動作を行う。
したがって、カメラ映像の場合には画面内に映っている物の中から、例えば他の車両や歩行者、標識、信号機等の自動走行に必要なオブジェクトを、ディープラーニング等の画像認識技術によって認識・識別を行う。図6及び図7は高速道のCG画像G1中から、走行中の他車両を認識・抽出した例である(図7の画像G2は原画像を白黒の2値化したものであり、路面の白線抽出の認識に用いている。他方、上図は自動車の形状に相似した画像領域を、車両と認識した結果を示している)。一方、図8はCG画像G3から歩行者を、ディープラーニングの技術を用いて認識・検出した例である。矩形で囲まれた画像領域が歩行者であり、自車両に近い箇所から遠い箇所に至るまで正確に検出できていることが分かる。
画像認識部204は、例えば図6及び図7において、他車両が自車両の前面に割り込んできた場合には、画像認識技術で接近を検知し、その認識結果の認識結果情報D06を車両位置情報計算部51に対して出力する。車両位置情報計算部51では、この情報を基にして例えば、ハンドルを切って回避する、ブレーキ動作で減速する等の動作を行い、自車両の位置情報を変更する。或いは、図8の歩行者が急に自車の前に飛び出して来た場合には、ハンドルを切って回避する、急ブレーキを踏む等の動作を行い、同様にその結果として自車両の位置情報を変更する。
なお、上記の一連の構成において、車両位置情報計算部51からUDP同期制御部202,UDP情報送受信部206を介してシミュレーション実行部205までのデータ送信は、例えばUDPプロトコルに従って、25msecごとの周期で送出できるものとする(25msecは一例である)。
ここで、本発明の特徴である「同期モデル」の必要性についてであるが、シミュレーション実行部205からの出力結果に基づいて、次のタイムフレームの車両位置情報を決定するため、全体が同期した制御ができないと、実車両の挙動をシミュレートできなくなるからである。また25msecごとの周期で送出するとしたが、理想的にはゼロ遅延であるが現実的には不可能であるので、UDPを用いることで送受信に伴う遅延時間を削減している。
一般に自動走行運転のシミュレーターの場合には、非常に多くの動画フレームに対してテストを行う必要がある。本実施形態によれば実走行でカバーし切れない絶対的な量を、ほぼ実写に近いCG映像で代用することを目的としている。したがって長いシーケンスの動画サンプルデータに対しての動作が保証されている必要がある。
本実施形態では、学習部204bが、認識機能モジュール204aに対して、実走行時の車載カメラ装置による撮影画像以外にも、画像生成部203が生成した仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。認識機能モジュール204aは、カメラ装置により撮影された画像やCG画像を取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識する。
この認識機能モジュール204aによる認識処理の概要を図9に示す。同図に示すように、認識機能モジュール204aは多クラス識別器であり、複数の物体が設定され、複数の物体の中から特定の特徴点を含むオブジェクト501(ここでは、「人」)を検出する。この認識機能モジュール204aは、入力ユニット(入力層)507、第1重み係数508、隠れユニット(隠れ層)509、第2重み係数510、及び出力ユニット(出力層)511を有する。
入力ユニット507には複数個の特徴ベクトル502が入力される。第1重み係数508は、入力ユニット507からの出力に重み付けする。隠れユニット509は、入力ユニット507からの出力と第1重み係数508との線形結合を非線形変換する。第2重み係数510は隠れユニット509からの出力に重み付けをする。出力ユニット511は、各クラス(例えば、車両、歩行者、及びバイク等)の識別確率を算出する。ここでは出力ユニット511を3つ示すが、これに限定されない。出力ユニット511の数は、物体識別器が検出可能な物体の数と同じである。出力ユニット511の数を増加させることによって、車両、歩行者、及びバイクの他に、例えば、二輪車、標識、及びベビーカー等、物体識別器が検出可能な物体が増加する。
本実施形態に係る認識機能モジュール204aは、多段(ここでは三層)ニューラルネットワークの例であり、物体識別器は、第1重み係数508及び第2重み係数510を誤差逆伝播法を用いて学習する。また、本発明の認識機能モジュール204aは、ニューラルネットワークに限定されるものではなく、多層パーセプトロン及び隠れ層を複数層重ねたディープニューラルネットワークであってもよい。この場合、物体識別器は、第1重み係数508及び第2重み係数510をディープラーニング(深層学習)によって学習すればよい。また、認識機能モジュール204aが有する物体識別器が多クラス識別器であるため、例えば、車両、歩行者、及びバイク等のような複数の物体を検出できる。
(教師データ提供機能の概要)
さらに、認識機能モジュール204aであるディープラーニング認識部には、学習部204bが接続されており、この学習部204bには、図10に示すような、学習用の教師データである教師学習データD73を提供する教師データ作成手段が備えられている。具体的に学習部204bの教師データ提供機能は、セグメンテーション部71と、アノテーション生成部72と、教師データ作成部73とを備えている。
セグメンテーション部71は、ディープラーニング認識を行うために、認識対象となる画像中の特定物の領域分割(セグメンテーション)を行うモジュールである。詳述すると、ディープラーニング認識を行うためには、一般に画像中の特定物の領域分割を行う必要があり、自動車の走行時には、相手車両の他にも歩行者、信号機、ガードレール、自転車、街路樹などの様々な対象物に対応し、高精度かつ高速に認識して、安全な自動運転を実現する。
セグメンテーション部71は、画像生成部203からの3Dグラフィックス合成画像であるシミュレーション用画像D61や既存の実映像入力システムからの実写映像D60など、種々の画像に対してセグメンテーションを行い、図11に示すような、様々な被写体画像ごとに色分けしたセグメンテーションマップであるセグメンテーション画像D71を生成する。セグメンテーションマップには、図11中下部に示すような、オブジェクト(被写体)ごとに割り当てる色情報が付加されている。例えば、草は緑、飛行機は赤、建物は橙、牛は青、人物は黄土色などである。また、図12は、道路上のセグメンテーションマップの例であり、同図中左下は実写の画像、画面右下はセンサーの撮像画像であり、同図中央はセグメンテーションされた各領域画像で、道路は紫色、森林は緑色、障害物は青色、人物は赤色等により、各オブジェクトを図示している。
アノテーション生成部72は、各々の領域画像と特定のオブジェクトとを関連付けるアノテーションを行うモジュールである。このアノテーションとは、領域画像に関連付けられた特定のオブジェクトに対して関連する情報(メタデータ)を注釈として付与することであり、XML等の記述言語を用いてメタデータをタグ付けし、多様な情報を「情報の意味」と「情報の内容」に分けてテキストで記述する。このアノテーション生成部72により付与されるXMLは、セグメンテーションされた各オブジェクト(上記では「情報の内容」)と、その情報(上記では「情報の意味」、例えば人物、車両、信号機などの領域画像)とを関連付けて記述するために用いられる。
図13はある道路をCGで再現した画像に対してディープラーニング認識技術によって、車両領域画像(vehicle)、人物領域画像(person)を識別して、各領域を矩形で抽出してアノテーションを付加した結果である。矩形は左上点のXY座標と右下点のXY座標で領域を定義することができる。
図13に例示したアノテーションをXML言語で記述すると、例えば、<all_vehicles>〜</all_vehicles>には図中の全てのvehicle(車両)の情報が記述され、1番目の道路のVehicle−1では矩形領域として左上の座標が(100,120)、右下の座標が(150,150)で定義されている。同様に、<all_persons>〜</all_persons>には図中の全てのperson(人物)の情報が記述され、例えば1番目の道路のPerson−1では矩形領域として左上の座標が(200,150)、右下の座標が(220,170)で定義されていることが分かる。
したがって、画像中に複数台の車両がある場合には、上記の要領でVehicle−2から順に生成すればよい。同様にして他のオブジェクトについても、例えば自転車の場合にはbicycle、信号機の場合にはsignal, 樹木の場合にはtreeをタグ情報として使えばよい。
画像生成部203によって生成されたシミュレーション用画像D61としての3Dグラフィックス合成画像は、セグメンテーション部71に入力されて、上記で述べたセグメンテーション部71に従って例えば図11のように色分けされた領域に分割される。
その後、セグメンテーション画像D71(色分け後)が入力されたアノテーション生成部72では、例えばXML記述言語によって記述され、アノテーション情報D72が上記教師データ作成部73に入力される。教師データ作成部73では、前記セグメンテーション画像D71とアノテーション情報D72をタグ付けして、ディープラーニング認識用の教師データを作成する。これらのタグ付けされた教師学習データD73が最終的な出力結果になる。
[第2実施形態]
以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。図14は、本実施形態に係るシステムの全体構成を示す概念図である。図15は、本実施形態に係る装置の内部構成を示すブロック図である。上記第1実施形態では、主に自車両の台数が1台の場合に限った実施形態であった。第2実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
図14に示すように、本実施形態では、シミュレーターサーバー2に複数のクライアント装置1c〜1fが接続されており、図15に示すように、シミュレーターサーバー2において、UDP同期制御部202及びUDP情報送受信部206を共通の構成要素とし、シミュレーション対象となる車両の台数に応じて、各クライアント装置1c〜fには車両位置情報計算部51c〜fが設けられ、シミュレーターサーバー2側にはシミュレーション実行部205c〜fが設けられている。
車両位置情報計算部51c〜fでは、先ず自車の車両位置情報D02c〜fを制御信号D03c〜fのタイミングに従って、UDP同期制御部202に対して送出する。次にUDP同期制御部202では、自車の車両位置情報D02c〜fをUDPパケッタイズすることで各種データ群を含むパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。パケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05c〜fは、シミュレーション実行部205c〜fに入力される。
シミュレーション実行部205c〜fでは、既に第1実施形態で述べたように、所定の画像生成法例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06c〜fは車両位置情報計算部51c〜fにフィードバックされ、各車両の位置が変更される。
なお、上記の例では合計4つの車両位置情報計算部51c〜fを備える場合を例示したが、この個数には特段制限はない。しかし、対応すべき車両の台数が増えれば、その結果同期制御も複雑になる上、ある車両で多くの遅延が発生した場合には、遅延時間は各々の合算であるので、トータルでの遅延時間の増大につながるという問題点にもなる。従ってシミュレーターのハードウェア規模や処理量などの条件によって、これらの構成を行えばよい。
なお、図14では、PC端末1c〜1fと車両同期シミュレーター・プログラム4とが通信ネットワーク3を介してリモート接続されているが、PCのローカルのHDD、SSDなどの記録媒体にプログラムが実装されていて、スタンドアロンで動作させることも可能である。この場合にはさらに低遅延で検証を行うことができる利点がある上、ネットワーク帯域が混雑時に起こる輻輳等の影響も一切受けない利点もある。
また、1c〜1fをPC端末と限定する必要なく、例えば実際の走行車両上でテストを行う場合には、テスト車両に搭載されたカーナビゲーションシステムであってもよい。この場合には、図4の画像生成部203からのシミュレーション用画像D61としての3Dグラフィックス合成画像を画像認識部204で認識するのではなく、実写の走行映像をD61の代わりに入力することになるので、画像認識部204の性能評価として利用することができる。例えば、実写の走行映像の中の歩行者や車両などは人間が見れば瞬時に正確に認識可能であるが、上記の画像認識部204で認識及び抽出された結果が、それらと同じになるかの検証を行うことができるからである。
[変更例]
なお、上述した実施形態の説明は、本発明の一例である。このため、本発明は上述した実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能である。
(変更例1)
例えば、上述した実施形態では、車載カメラ104aが単一のカメラで構成されていた場合を例に説明したが、図16に示すように、複数個のカメラやセンサーで構成してもよい。
自動運転における安全性向上のためには、複数個のセンサーを搭載することが必須となっている。したがって、本変更例のように複数個のセンサーを用いて撮像した画像から3Dグラフィックス合成画像を作成し、それらを複数のディープラーニング認識部61〜6nで認識することで、画像中の被写体の認識率を向上させることができる。
また、上述した第2実施形態では、1台の車両に複数個のセンサーを搭載する例を述べたが、路上を走行する複数台の車両に搭載されたセンサーの撮像画像を同様の手段によって、複数のディープラーニング認識部でそれぞれ認識することもできる。実際には複数台の車両が同時に走行するケースが多いことから、各ディープラーニング認識部61〜6nによるそれぞれの認識結果D621〜D62nを、学習結果同期部84によって同一時間軸に同期させて、最終的な認識結果をD62として学習結果同期部84から送出する。
例えば、図13に示すような3Dグラフィックス合成画像は、路上に複数台の車両が走行している状態を撮影したものであり、画像中の車両は、3Dグラフィックス技術で生成されたものである。これらの車両に疑似的にセンサーを搭載することで、個々の車両の視点からの画像を取得することができる。そしてそれらの車両からの視点の3Dグラフィックス合成画像をディープラーニング認識部61〜6nに入力して、認識結果を得ることができる。
(変更例2)
次いで、複数種のセンサーを使った別の変更例について説明する。上述した変更例1では、同一種類のセンサー、例えば同一種類のイメージセンサー手段を想定していたのに対し、本変更例では、異なる種類のセンサーを複数搭載した場合を示している。
具体的に、図17に示すように、入力インターフェース104には異なる種類の車載カメラ104a及び10bが接続されている。ここでは、車載カメラ104aは上述した実施形態と同様に、映像を撮影するCMOSセンサー又はCCDセンサーカメラである。一方、センサー104bは、LiDAR(Light Detection and Ranging)であり、パルス状に発行するレーザー照射に対する散乱光を測定して、遠距離にある対象物までの距離を測定するデバイスであり、自動運転の高精度化には必須なセンサーの1つとして注目されている。
センサー104b(LiDAR)に用いられるレーザー光としてはマイクロパルスで近赤外光(例えば905nmの波長)が用いられ、例えば、スキャナー及び光学系としてのモータ、ミラー、レンズなどから構成される。一方、センサーを構成する受光器、信号処理部では反射光を受光し、信号処理によって距離を算出する。
ここでLiDARに採用されている手段としては、TOF方式(Time of Flight)と呼ばれているLiDARスキャン装置114などがあり、このLiDARスキャン装置114は、図18に示すように、レーザードライバー114aによる制御に基づいて発光素子114bから照射レンズ114cを通じてレーザー光を照射パルスPlu1として出力する。この照射パルスPlu1は測定対象Ob1によって反射されて反射パルスPlu2として受光レンズ114dに入射され、受光素子114eで検出される。この受光素子114eによる検出結果は、信号受光回路114fによって電気信号としてLiDARスキャン装置114から出力される。このようなLiDARスキャン装置114では、立ち上がり時間が数nsで、光ピークパワーが数10Wの超短パルスを測定物体に向けて照射し、その超短パルスが測定物体で反射して受光素子に戻ってくるまでの時間tを測定する。このときの物体までの距離をL、光速をcとすると、
L=(c×t)/2
により算出される。
このLiDARシステムの基本的な動作としては、図19(a)〜(c)に示すように、LiDARスキャン装置114から射出され、変調されたレーザー光が回転するミラー114gで反射され、レーザー光が左右に振られ、或いは360°で回転されることで走査され反射して戻ってきたレーザー光が、再びLiDARスキャン装置114で捕捉される。補足された反射光は、最終的には、回転角度に応じた信号強度が示された点群データPelY及びPelXとして得られる。なお、回転式のLiDARシステムとしては、例えば、図20のように中心部が回転してレーザー光が照射され、360度の走査が可能になっている。
そして、このような構成の本変更例では、画像を撮影するカメラ等のイメージセンサー104aで撮影された映像に基づく3Dグラフィックス合成画像であるシミュレーション用画像D61は、2次元平面の画像であり、ディープラーニング認識部6は、この3Dグラフィックス合成画像に対する認識を実行する。
一方、発光素子114bにより取得された点群データについては、画像生成部203側に点群データ用に追加されたモジュールを用いて処理するようになっており、本実施形態では、画像生成部203に3D点群データグラフィック画像を生成する機能が備えられている。
そして、センサー104bにより取得された点群データについては、画像生成部203において、センサー104bで取得されたセンサーデータが抽出され、抽出されたセンサーデータに基づいて、反射光を受光してTOFの原理で被写体までの距離を算出することで、3D点群データを生成する。この3D点群データは、いわゆる距離画像であり、この距離画像に基づいて3D点群データが3Dグラフィック画像化される。
この3D点群データが画像化された3Dグラフィック画像化された3D点群データグラフィック画像では、例えば図20及び図21に示す中央の走行車両の上に設置したLiDARから360度全方位にレーザー光を放射して反射光を測定した結果得られた点群データとすることができ、色の強弱(濃度)は反射光の強さを示す。なお、隙間など空間が存在しない部分は反射光がないので、黒色になっている。
図21に示すように、実際の点群データから相手車両や歩行者、自転車などの対象オブジェクトを、3次元座標を持ったデータとして取得できるので、これらの対象オブジェクトの3Dグラフィック画像を容易に生成することが可能になる。具体的には、画像生成部203の3D点群データグラフィック画像生成機能によって、点群データを整合させることにより複数個のポリゴンデータを生成し、3Dグラフィックはこれらのポリゴンデータをレンダリングすることで描画される。
そして、このように画像生成部203で生成された3D点群データグラフィック画像は、シミュレーション用画像D61としてディープラーニング認識部6に入力されて、同部において3D点群データ用に学習された認識手段によって認識が実行される。これにより、上述した実施形態のように、イメージセンサー用の画像で学習されたディープラーニング認識手段とは異なる手段を用いることになる。この結果、本変更例によれば、非常に遠方にある対向車はイメージセンサーでは取得できない可能性が高い場合であっても、LiDARによれば数百メートル先の対向車の大きさや形状まで取得できるため、認識精度を向上させることができる。
以上により、上記変更例によれば、異なる性質又は異なるデバイスのセンサーを複数装備して、これらに対するディープラーニング認識部61〜6nによる認識結果を分析部85で分析して、最終的な認識結果D62として出力することができる。
なお、この分析部85は例えばクラウドなどのネットワークの外部に配置させてもよい。この場合には、1台当たりのセンサーの数が今後急激に増加し、ディープラーニング認識処理の計算負荷が増大するような場合であっても、ネットワークを通じて外部で対応可能な処理については大規模なコンピューティングパワーのあるクラウドで実行し、その結果をフィードバックすることで、処理効率を向上させることができる。
また、イメージセンサーの場合の実施形態では、図11で示した例のように、予めセグメンテーションマップと対象物を関係づけて学習を行う。これにより、イメージセンサーの出力が2次元画像であることに対応するものである。
一方、センサーに少なくとも1つのLiDARセンサーが含まれる場合、教師データには、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定する。そして、上述したディープラーニング認識処理において、画像認識手段は、センサーに少なくとも1つのLiDARセンサーが含まれるときには、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とする。
詳述すると、LiDARセンサーの場合、図21で示したように3次元の点群となる。したがって、LiDARのセンサーの場合には、3次元の点群画像と、対象物ごとのレーザー光の反射率を関連付けて学習を行う。例えば、図21の例では、自動車が反射率1.5〜2.0、自転車に乗った人物は反射率1.1、大人の歩行者の反射率0.8、子供の歩行者の反射率0.6、そして道路の反射率0.2〜0.5という具合である。
なお、図16に示した例では、仮想的なCG画像を生成するケースであったが、既に第1実施形態で述べたように、実際の車両に本アプリケーションシステムが搭載されて(カーナビゲーションのように)、実写走行を行いながら異なる種類のセンサーからの情報を入力して、ディープラーニング認識を行うこともできる。図17はそのケースの具体的なブロック図である。
また、本変更例において、素材撮影装置は、車載カメラのイメージセンサーの他、上記の通りLiDARのセンサーやミリ波のセンサーを想定している。イメージセンサーの場合には実写画像を取り込んで実写画像から抽出した光情報などのパラメータを用いて、第1実施形態で述べたPBRの技術によって高品質なCG画像を生成されて、画像生成部203から送出される。一方、LiDARセンサーの場合には実際に車載のLiDARセンサーから放射されたビームのレーザー光の反射光から、3次元の点群データを作成する。そしてこの3次元点群データを3DCG化した画像が、上記の画像生成部203から出力される。
このようにして、複数種類のセンサーに応じたCG画像が、画像生成部203から送出され、図17の各々のディープラーニング認識部において所定の手段で認識処理が行われることになる。また、上記の変更例では、LiDARセンサーを例にとって説明したが、他にもミリ波センサーや夜間に有効な赤外線センサーを用いることも有効である。
D01…データ群
D02(D02c〜f)…車両位置情報
D03(D03c〜f)…制御信号
D04…パケット情報
D05(D05c〜f)…データ
D06(D06c〜f)…認識結果情報
D61…シミュレーション用画像
D60…実写映像
D62(D621〜D62n)…認識結果
D71…セグメンテーション画像
D72…アノテーション情報
D73…教師学習データ
G1〜G3…CG画像
1…クライアント装置
1a…情報処理端末
1b…車載装置
2…シミュレーターサーバー
3…通信ネットワーク
4…車両同期シミュレーター・プログラム
5…クライアントプログラム
6…ディープラーニング認識部
51(51c〜f)…車両位置情報計算部
61〜6n…ディープラーニング認識部
71…セグメンテーション部
72…教師データ作成部
73…アノテーション生成部
84…学習結果同期部
85…分析部
101…ストレージ装置
102…CPU
102a…クライアント側実行部
103…メモリ
104…入力インターフェース
104a…車載カメラ(イメージセンサー)
104b…センサー
105…出力インターフェース
106…通信インターフェース
114…LiDARスキャン装置
114a…レーザードライバー
114b…発光素子
114c…照射レンズ
114d…受光レンズ
114e…受光素子
114f…信号受光回路
114g…ミラー
201…通信インターフェース
202…UDP同期制御部
203…画像生成部
204…画像認識部
204a…認識機能モジュール
204b…学習部
205(205c〜f)…シミュレーション実行部
206…UDP情報送受信部
210…地図データベース
211…車両データベース
212…描画用データベース
402…CPU
501…オブジェクト
502…特徴ベクトル
507…入力ユニット
508…第1重み係数
509…ユニット
510…第2重み係数
511…出力ユニット

Claims (15)

  1. 車両の位置情報の変位に伴って変化する実画像に対する認識機能モジュールのシミュレーションシステムであって、
    前記車両の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
    前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
    前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
    を備えたことを特徴とするシミュレーションシステム。
  2. 前記同期制御手段は、
    前記位置情報を特定のフォーマットにパケット化して送出する手段と、
    パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
    前記パケット化データを受信してデ・パケット化する手段と、
    前記デ・パケット化されたデータを入力して画像を生成する手段と
    を備えたことを特徴とする請求項1に記載のシミュレーションシステム。
  3. 前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することを特徴とする請求項1又は2に記載のシミュレーションシステム。
  4. 前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項1乃至3のいずれかに記載のシミュレーションシステム。
  5. 前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成して前記シミュレーション用画像を生成する手段を備えていることを特徴とする請求項1に記載のシミュレーションシステム。
  6. 前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
    前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
    前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行する
    ことを特徴とする請求項1に記載のシミュレーションシステム。
  7. 前記画像認識手段は、ニューラルネットを多段に構成したディープラーニング認識手段であることを特徴とする請求項1に記載のシミュレーションシステム。
  8. 前記画像認識手段は、
    前記画像生成手段が生成した前記シミュレーション用画像について、認識対象となる画像中の特定物に応じた領域分割を行うセグメンテーション部と、
    前記セグメンテーション部によって領域分割された画像に基づく学習用の教師データを作成する教師データ作成手段と
    をさらに備えることを特徴とする請求項1に記載のシミュレーションシステム。
  9. 前記実画像を取得するセンサー手段として少なくとも1つのLiDARセンサーが含まれる場合、前記教師データには、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定することを特徴とする請求項8に記載のシミュレーションシステム。
  10. 前記画像生成手段は、前記実画像を取得するセンサー手段ごとに異なる画像を生成する手段を備えていることを特徴とする請求項1に記載のシミュレーションシステム。
  11. 前記実画像を取得するセンサー手段は、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることを特徴とする請求項1に記載のシミュレーションシステム。
  12. 前記画像生成手段は、複数個のセンサー手段に対応した3Dグラフィックス画像を生成し、
    前記画像認識手段は、前記3Dグラフィックス画像がそれぞれ入力されてディープラーニング認識を行い、各ディープラーニング認識結果を前記センサー手段ごとに出力し、
    前記同期制御手段は、前記センサー手段ごとのディープラーニング認識結果に基づいて前記同期制御を行う
    ことを特徴とする請求項1に記載のシミュレーションシステム。
  13. 前記センサー手段に少なくとも1つのLiDARセンサーが含まれる場合に、前記画像認識手段は、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とすることを特徴とする請求項12に記載のシミュレーションシステム。
  14. 車両の位置情報の変位に伴って変化する実画像に対する認識機能モジュールのシミュレーションプログラムであって、コンピューターを、
    前記車両の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
    前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
    前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
    機能させることを特徴とするシミュレーションプログラム。
  15. 車両の位置情報の変位に伴って変化する実画像に対する認識機能モジュールのシミュレーション方法であって、
    位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
    前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
    前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
    前記画像認識ステップおける認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
    を備えたことを特徴とするシミュレーション方法。
JP2017092949A 2016-10-06 2017-05-09 シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 Active JP6548690B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/033728 WO2018066351A1 (ja) 2016-10-06 2017-09-19 シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
US16/367,257 US10565458B2 (en) 2016-10-06 2019-03-28 Simulation system, simulation program and simulation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016197999 2016-10-06
JP2016197999 2016-10-06

Publications (3)

Publication Number Publication Date
JP2018060511A true JP2018060511A (ja) 2018-04-12
JP2018060511A5 JP2018060511A5 (ja) 2019-05-09
JP6548690B2 JP6548690B2 (ja) 2019-07-24

Family

ID=61908533

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017092950A Active JP6548691B2 (ja) 2016-10-06 2017-05-09 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
JP2017092949A Active JP6548690B2 (ja) 2016-10-06 2017-05-09 シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017092950A Active JP6548691B2 (ja) 2016-10-06 2017-05-09 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法

Country Status (2)

Country Link
US (2) US20190236380A1 (ja)
JP (2) JP6548691B2 (ja)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182412A (ja) * 2018-04-13 2019-10-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転車に用いられる自動データラベリング
JP2019191874A (ja) * 2018-04-24 2019-10-31 ディヴァース インコーポレイテッド データ処理装置及びデータ処理方法
WO2019244516A1 (ja) * 2018-06-22 2019-12-26 日立オートモティブシステムズ株式会社 電子制御ユニットの評価装置
WO2020046205A1 (en) * 2018-08-30 2020-03-05 Astropreneurs Hub Pte. Ltd. System and method for simulating a network of one or more vehicles
EP3620962A1 (en) * 2018-09-07 2020-03-11 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and terminal for simulating a distribution of obstacles
JP2020038666A (ja) * 2018-09-04 2020-03-12 株式会社ストラドビジョン 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置
JP2020042789A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド シミュレーションデータ量拡張方法、装置及び端末
KR102103450B1 (ko) * 2019-01-30 2020-04-22 한국기술교육대학교 산학협력단 분산 시뮬레이션 기반 첨단 운전자 지원 시스템
WO2020085653A1 (ko) * 2018-10-26 2020-04-30 계명대학교 산학협력단 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템
WO2020139503A1 (en) * 2018-12-29 2020-07-02 Intel Corporation Realistic sensor simulation and probabilistic measurement correction
WO2020149576A1 (ko) * 2019-01-17 2020-07-23 주식회사 엠제이비전테크 인공지능 기반 차량 검색 시스템
JP2020119060A (ja) * 2019-01-21 2020-08-06 先進モビリティ株式会社 自動運転車両の軌跡設計走行制御検証方法
WO2020189081A1 (ja) * 2019-03-19 2020-09-24 日立オートモティブシステムズ株式会社 カメラシステムの評価装置及び評価方法
JP2020199807A (ja) * 2019-06-06 2020-12-17 日野自動車株式会社 運転支援制御装置
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
US10984588B2 (en) 2018-09-07 2021-04-20 Baidu Online Network Technology (Beijing) Co., Ltd Obstacle distribution simulation method and device based on multiple models, and storage medium
JP2021067987A (ja) * 2019-10-18 2021-04-30 日立Astemo株式会社 処理装置、及びそれを用いた外界認識装置
US11120297B2 (en) 2018-11-30 2021-09-14 International Business Machines Corporation Segmentation of target areas in images
WO2021192714A1 (ja) * 2020-03-24 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 レンダリングシステム及び自動運転検証システム
JPWO2021205615A1 (ja) * 2020-04-09 2021-10-14
US11205289B2 (en) 2018-09-07 2021-12-21 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and terminal for data augmentation
US20210394787A1 (en) * 2020-06-17 2021-12-23 Shenzhen Guo Dong Intelligent Drive Technologies Co., Ltd. Simulation test method for autonomous driving vehicle, computer equipment and medium
JP2022501032A (ja) * 2018-09-19 2022-01-06 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. トラクターに連結する自律的な農機具
JPWO2022049926A1 (ja) * 2020-09-07 2022-03-10
JP2022054138A (ja) * 2020-09-25 2022-04-06 日立Geニュークリア・エナジー株式会社 作業シミュレーション装置および学習装置
US11307302B2 (en) 2018-09-07 2022-04-19 Baidu Online Network Technology (Beijing) Co., Ltd Method and device for estimating an absolute velocity of an obstacle, and non-volatile computer-readable storage medium
WO2022138226A1 (ja) * 2020-12-23 2022-06-30 ソニーセミコンダクタソリューションズ株式会社 画像生成装置、画像生成方法、およびプログラム
JP2023027778A (ja) * 2021-08-17 2023-03-02 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 障害物検知方法、装置、電子機器及び自動運転車両
KR20230080243A (ko) * 2021-11-29 2023-06-07 주식회사 오비고 자율주행차량의 운행 검증에 필요한 검증 시나리오를 편집하는 방법 및 이를 이용한 서버
US11718318B2 (en) 2019-02-22 2023-08-08 Apollo Intelligent Driving (Beijing) Technology Co., Ltd. Method and apparatus for planning speed of autonomous vehicle, and storage medium
US11780463B2 (en) 2019-02-19 2023-10-10 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus and server for real-time learning of travelling strategy of driverless vehicle
JP7531005B2 (ja) 2022-03-07 2024-08-08 ウーブン・バイ・トヨタ株式会社 自律運転センサシミュレーション

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
JP6540482B2 (ja) * 2015-12-04 2019-07-10 株式会社デンソー 情報処理システム、情報処理装置及び出力制御方法
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
EP3644293B1 (en) * 2017-06-20 2021-08-04 Nissan Motor Co., Ltd. Travel control method and travel control device
JP6904849B2 (ja) * 2017-08-14 2021-07-21 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム。
KR101989995B1 (ko) * 2017-09-25 2019-06-17 엘지전자 주식회사 보행자에 대한 정보 획득 방법 및 차량용 통신 장치
US11365976B2 (en) * 2018-03-02 2022-06-21 Nvidia Corporation Semantic label based filtering of objects in an image generated from high definition map data
US10877152B2 (en) * 2018-03-27 2020-12-29 The Mathworks, Inc. Systems and methods for generating synthetic sensor data
KR102130596B1 (ko) * 2018-06-25 2020-07-06 군산대학교 산학협력단 Yuv 기반 세그먼테이션 및 오그먼테이션에 따른 자율 주행 시스템 및 그 방법
DE102018214878A1 (de) * 2018-08-31 2020-03-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
CN109117825B (zh) 2018-09-04 2020-01-17 百度在线网络技术(北京)有限公司 车道线处理方法和装置
CN109059780B (zh) 2018-09-11 2019-10-15 百度在线网络技术(北京)有限公司 检测障碍物高度的方法、装置、设备及存储介质
CN109165629B (zh) 2018-09-13 2019-08-23 百度在线网络技术(北京)有限公司 多焦距视觉障碍物感知方法、装置、设备及存储介质
US10902279B2 (en) * 2018-09-25 2021-01-26 Honda Motor Co., Ltd. Training saliency
US11428817B2 (en) 2018-10-11 2022-08-30 Baidu Usa Llc Automatic LIDAR calibration based on cross validation for autonomous driving
JP7056592B2 (ja) * 2019-01-17 2022-04-19 Jfeスチール株式会社 金属材料の製造仕様決定方法、製造方法、および製造仕様決定装置
JP2020131248A (ja) * 2019-02-21 2020-08-31 Jfeスチール株式会社 圧延荷重予測方法、圧延荷重予測装置、及び圧延制御方法
JP2020164045A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両走行制御装置
KR102256644B1 (ko) * 2019-07-26 2021-05-27 서울시립대학교 산학협력단 Bim 객체 모델을 이용한 인공지능 교통신호 호스트 서버 및 이를 포함하는 제어 시스템 및 제어 방법
JPWO2021024805A1 (ja) * 2019-08-06 2021-02-11
JP7414434B2 (ja) 2019-09-10 2024-01-16 株式会社日立製作所 認識モデル配信システム及び認識モデルの更新方法
KR20210031269A (ko) 2019-09-11 2021-03-19 삼성전자주식회사 영상 인식 모델을 학습하는 전자 장치 및 그 동작 방법
US11454978B2 (en) * 2019-11-07 2022-09-27 Naver Corporation Systems and methods for improving generalization in visual navigation
US10816993B1 (en) * 2019-11-23 2020-10-27 Ha Q Tran Smart vehicle
KR102240403B1 (ko) * 2019-12-24 2021-04-14 아주대학교 산학협력단 이미지 평활화 방법 및 이미지 평활화 장치
JP6992099B2 (ja) * 2020-01-16 2022-01-13 本田技研工業株式会社 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法
WO2021154459A1 (en) * 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11814080B2 (en) 2020-02-28 2023-11-14 International Business Machines Corporation Autonomous driving evaluation using data analysis
US11702101B2 (en) 2020-02-28 2023-07-18 International Business Machines Corporation Automatic scenario generator using a computer for autonomous driving
US11644331B2 (en) 2020-02-28 2023-05-09 International Business Machines Corporation Probe data generating system for simulator
EP4150367A1 (en) 2020-05-13 2023-03-22 National Instruments Corporation System for emulating an environment for testing a frequency modulated continuous wave (fmcw) light detection and ranging (l1dar) system
TWI770699B (zh) * 2020-10-14 2022-07-11 台達電子工業股份有限公司 訓練影像的自動生成系統及其方法
CN112464373B (zh) * 2020-11-25 2023-06-06 中汽研(天津)汽车工程研究院有限公司 多循环制动工况车辆盘式制动器温度变化高精度仿真方法
DE102020215657A1 (de) 2020-12-10 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs
CN112926381B (zh) * 2021-01-08 2022-06-21 浙江大学 一种基于激光检测技术的水下目标识别系统
US20220269937A1 (en) * 2021-02-24 2022-08-25 Nvidia Corporation Generating frames for neural simulation using one or more neural networks
CN113820694B (zh) * 2021-11-24 2022-03-01 腾讯科技(深圳)有限公司 一种仿真测距的方法、相关装置、设备以及存储介质
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
WO2024095572A1 (ja) * 2022-11-04 2024-05-10 日本ペイント・インダストリアルコーティングス株式会社 塗料組成物及び塗膜

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355272A (ja) * 2003-05-28 2004-12-16 Toyota Motor Corp 緊急車両の接近通知システム
JP2007066045A (ja) * 2005-08-31 2007-03-15 Hitachi Ltd シミュレーション装置
JP2014229303A (ja) * 2013-05-20 2014-12-08 三菱電機株式会社 シーン内の物体を検出する方法
WO2015001878A1 (ja) * 2013-07-03 2015-01-08 クラリオン株式会社 接近物検出システム、及び車両
JP2015141721A (ja) * 2014-01-29 2015-08-03 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 後退時衝突回避システムにおける誤作動を低減するための方法
JP2016157434A (ja) * 2015-02-23 2016-09-01 三菱電機株式会社 ストリートビューの画像をラベル付けする方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6462328B2 (ja) * 2014-11-18 2019-01-30 日立オートモティブシステムズ株式会社 走行制御システム
US9733342B1 (en) * 2015-01-29 2017-08-15 Waymo Llc Radar target simulation using a high speed tunable short
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US9754490B2 (en) * 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US9632502B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9720415B2 (en) * 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US9606539B1 (en) * 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US10334050B2 (en) * 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10248119B2 (en) * 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US10496766B2 (en) * 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
EP3475778B1 (en) * 2016-06-28 2024-07-10 Cognata Ltd. Realistic 3d virtual world creation and simulation for training automated driving systems
US10592805B2 (en) * 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355272A (ja) * 2003-05-28 2004-12-16 Toyota Motor Corp 緊急車両の接近通知システム
JP2007066045A (ja) * 2005-08-31 2007-03-15 Hitachi Ltd シミュレーション装置
JP2014229303A (ja) * 2013-05-20 2014-12-08 三菱電機株式会社 シーン内の物体を検出する方法
WO2015001878A1 (ja) * 2013-07-03 2015-01-08 クラリオン株式会社 接近物検出システム、及び車両
JP2015141721A (ja) * 2014-01-29 2015-08-03 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 後退時衝突回避システムにおける誤作動を低減するための方法
JP2016157434A (ja) * 2015-02-23 2016-09-01 三菱電機株式会社 ストリートビューの画像をラベル付けする方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松本吉央,外3名: "仮想環境を用いた視覚移動ロボットのシミュレーションの提案と画像の記憶に基づく走行手法への適用", 日本ロボット学会誌 第20巻 第5号, vol. 第20巻, JPN6019022115, 2002, JP, pages 35 - 43, ISSN: 0004054321 *

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182412A (ja) * 2018-04-13 2019-10-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転車に用いられる自動データラベリング
US10816984B2 (en) 2018-04-13 2020-10-27 Baidu Usa Llc Automatic data labelling for autonomous driving vehicles
JP2019191874A (ja) * 2018-04-24 2019-10-31 ディヴァース インコーポレイテッド データ処理装置及びデータ処理方法
WO2019244516A1 (ja) * 2018-06-22 2019-12-26 日立オートモティブシステムズ株式会社 電子制御ユニットの評価装置
JPWO2019244516A1 (ja) * 2018-06-22 2021-05-20 日立Astemo株式会社 電子制御ユニットの評価装置
JP7117376B2 (ja) 2018-06-22 2022-08-12 日立Astemo株式会社 電子制御ユニットの評価装置
WO2020046205A1 (en) * 2018-08-30 2020-03-05 Astropreneurs Hub Pte. Ltd. System and method for simulating a network of one or more vehicles
JP2020038666A (ja) * 2018-09-04 2020-03-12 株式会社ストラドビジョン 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置
US11307302B2 (en) 2018-09-07 2022-04-19 Baidu Online Network Technology (Beijing) Co., Ltd Method and device for estimating an absolute velocity of an obstacle, and non-volatile computer-readable storage medium
US11205289B2 (en) 2018-09-07 2021-12-21 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and terminal for data augmentation
EP3620962A1 (en) * 2018-09-07 2020-03-11 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and terminal for simulating a distribution of obstacles
US11276243B2 (en) 2018-09-07 2022-03-15 Baidu Online Network Technology (Beijing) Co., Ltd. Traffic simulation method, device and storage medium
JP7122059B2 (ja) 2018-09-07 2022-08-19 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド シミュレーションデータ量拡張方法、装置、端末、記憶媒体、及びプログラム
JP2020042789A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド シミュレーションデータ量拡張方法、装置及び端末
US10984588B2 (en) 2018-09-07 2021-04-20 Baidu Online Network Technology (Beijing) Co., Ltd Obstacle distribution simulation method and device based on multiple models, and storage medium
JP2020042792A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 統計に基づく障害物位置シミュレーション方法、装置及び端末
US11354461B2 (en) 2018-09-07 2022-06-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for simulating a distribution of obstacles
JP2022501032A (ja) * 2018-09-19 2022-01-06 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. トラクターに連結する自律的な農機具
KR102164950B1 (ko) * 2018-10-26 2020-10-13 계명대학교 산학협력단 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템
WO2020085653A1 (ko) * 2018-10-26 2020-04-30 계명대학교 산학협력단 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템
KR20200052429A (ko) * 2018-10-26 2020-05-15 계명대학교 산학협력단 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템
US11120297B2 (en) 2018-11-30 2021-09-14 International Business Machines Corporation Segmentation of target areas in images
WO2020139503A1 (en) * 2018-12-29 2020-07-02 Intel Corporation Realistic sensor simulation and probabilistic measurement correction
WO2020149576A1 (ko) * 2019-01-17 2020-07-23 주식회사 엠제이비전테크 인공지능 기반 차량 검색 시스템
JP2020119060A (ja) * 2019-01-21 2020-08-06 先進モビリティ株式会社 自動運転車両の軌跡設計走行制御検証方法
JP6995068B2 (ja) 2019-01-21 2022-01-14 先進モビリティ株式会社 自動運転車両の軌跡設計走行制御検証方法
KR102103450B1 (ko) * 2019-01-30 2020-04-22 한국기술교육대학교 산학협력단 분산 시뮬레이션 기반 첨단 운전자 지원 시스템
US11780463B2 (en) 2019-02-19 2023-10-10 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus and server for real-time learning of travelling strategy of driverless vehicle
US11718318B2 (en) 2019-02-22 2023-08-08 Apollo Intelligent Driving (Beijing) Technology Co., Ltd. Method and apparatus for planning speed of autonomous vehicle, and storage medium
US12106455B2 (en) 2019-03-19 2024-10-01 Hitachi Astemo, Ltd. Autonomous vehicle system testing simulator
JPWO2020189081A1 (ja) * 2019-03-19 2021-10-28 日立Astemo株式会社 カメラシステムの評価装置及び評価方法
JP7245318B2 (ja) 2019-03-19 2023-03-23 日立Astemo株式会社 カメラシステムの評価装置及び評価方法
WO2020189081A1 (ja) * 2019-03-19 2020-09-24 日立オートモティブシステムズ株式会社 カメラシステムの評価装置及び評価方法
JP7319094B2 (ja) 2019-06-06 2023-08-01 日野自動車株式会社 運転支援制御装置
JP2020199807A (ja) * 2019-06-06 2020-12-17 日野自動車株式会社 運転支援制御装置
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP7454353B2 (ja) 2019-10-18 2024-03-22 日立Astemo株式会社 処理装置、及びそれを用いた外界認識装置
JP2021067987A (ja) * 2019-10-18 2021-04-30 日立Astemo株式会社 処理装置、及びそれを用いた外界認識装置
DE112021001771T5 (de) 2020-03-24 2023-01-05 Sony Semiconductor Solutions Corporation Renderingsystem und system zur verifizierung automatisierten fahrens
WO2021192714A1 (ja) * 2020-03-24 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 レンダリングシステム及び自動運転検証システム
WO2021205615A1 (ja) * 2020-04-09 2021-10-14 三菱電機株式会社 教師データ生成装置、および、教師データ生成方法
JPWO2021205615A1 (ja) * 2020-04-09 2021-10-14
US20210394787A1 (en) * 2020-06-17 2021-12-23 Shenzhen Guo Dong Intelligent Drive Technologies Co., Ltd. Simulation test method for autonomous driving vehicle, computer equipment and medium
US12024196B2 (en) * 2020-06-17 2024-07-02 Shenzhen Guo Dong Intelligent Drive Technologies Co., Ltd Simulation test method for autonomous driving vehicle, computer equipment and medium
JPWO2022049926A1 (ja) * 2020-09-07 2022-03-10
WO2022049926A1 (ja) * 2020-09-07 2022-03-10 日立Astemo株式会社 画像認識シミュレータ装置
JP7373079B2 (ja) 2020-09-07 2023-11-01 日立Astemo株式会社 画像認識シミュレータ装置
JP2022054138A (ja) * 2020-09-25 2022-04-06 日立Geニュークリア・エナジー株式会社 作業シミュレーション装置および学習装置
JP7422043B2 (ja) 2020-09-25 2024-01-25 日立Geニュークリア・エナジー株式会社 作業シミュレーション装置および学習装置
WO2022138226A1 (ja) * 2020-12-23 2022-06-30 ソニーセミコンダクタソリューションズ株式会社 画像生成装置、画像生成方法、およびプログラム
JP2023027778A (ja) * 2021-08-17 2023-03-02 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 障害物検知方法、装置、電子機器及び自動運転車両
KR102625974B1 (ko) 2021-11-29 2024-01-18 주식회사 오비고 자율주행차량의 운행 검증에 필요한 검증 시나리오를 편집하는 방법 및 이를 이용한 서버
KR20230080243A (ko) * 2021-11-29 2023-06-07 주식회사 오비고 자율주행차량의 운행 검증에 필요한 검증 시나리오를 편집하는 방법 및 이를 이용한 서버
JP7531005B2 (ja) 2022-03-07 2024-08-08 ウーブン・バイ・トヨタ株式会社 自律運転センサシミュレーション

Also Published As

Publication number Publication date
JP6548690B2 (ja) 2019-07-24
JP2018060512A (ja) 2018-04-12
JP6548691B2 (ja) 2019-07-24
US20190236380A1 (en) 2019-08-01
US10565458B2 (en) 2020-02-18
US20190220029A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP6548690B2 (ja) シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
WO2018066351A1 (ja) シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
US11214281B2 (en) Sequential fusion for 3D object detection
US11593950B2 (en) System and method for movement detection
JP6275362B1 (ja) 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法
WO2018066352A1 (ja) 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
CN116685874A (zh) 摄像机-激光雷达融合对象检测系统和方法
US11798289B2 (en) Streaming object detection and segmentation with polar pillars
CN114821507A (zh) 一种用于自动驾驶的多传感器融合车路协同感知方法
CN116830164A (zh) LiDAR去相关对象检测系统与方法
KR102657921B1 (ko) 융합된 이미지를 사용한 엔드 투 엔드 시스템 트레이닝
DE102021132199A1 (de) Bestimmen von Objektmobilitätsparametern unter Verwendung einer Objektsequenz
DE102022100413A1 (de) Objekterkennung unter verwendung von radar-und-lidar-zusammenführung
KR20230023530A (ko) 신뢰할 수 없는 맵 주석 입력들을 사용하는 센서 데이터의 시맨틱 주석 달기
DE102022102187A1 (de) High-fidelity-daten-getriebene multimodale simulation
CN118570749A (zh) 一种多模态道路感知方法、系统、终端设备及存储介质
Bai et al. Cyber mobility mirror for enabling cooperative driving automation in mixed traffic: A co-simulation platform
US20220371606A1 (en) Streaming object detection and segmentation with polar pillars
WO2022246273A1 (en) Streaming object detection and segmentation with polar pillars
Xia et al. Enhancing 3D object detection through multi-modal fusion for cooperative perception
CN117591847B (zh) 基于车况数据的模型指向评测方法和装置
CN117593892B (zh) 真值数据的获取方法和装置、存储介质及电子设备
CN117593686B (zh) 基于车况真值数据的模型评测方法和装置
US20230115566A1 (en) Automated verification of annotated sensor data
Chen Multi-agent Collaborative Perception for Autonomous Driving: Unsettled Aspects

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190313

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R150 Certificate of patent or registration of utility model

Ref document number: 6548690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250