JP6548691B2 - 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 - Google Patents

画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 Download PDF

Info

Publication number
JP6548691B2
JP6548691B2 JP2017092950A JP2017092950A JP6548691B2 JP 6548691 B2 JP6548691 B2 JP 6548691B2 JP 2017092950 A JP2017092950 A JP 2017092950A JP 2017092950 A JP2017092950 A JP 2017092950A JP 6548691 B2 JP6548691 B2 JP 6548691B2
Authority
JP
Japan
Prior art keywords
image
unit
position information
image generation
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017092950A
Other languages
English (en)
Other versions
JP2018060512A (ja
JP2018060512A5 (ja
Inventor
福原 隆浩
隆浩 福原
中西 康之
康之 中西
隆 河原
隆 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADVANCED DATA CONTROLS CORP.
Original Assignee
ADVANCED DATA CONTROLS CORP.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADVANCED DATA CONTROLS CORP. filed Critical ADVANCED DATA CONTROLS CORP.
Priority to PCT/JP2017/033729 priority Critical patent/WO2018066352A1/ja
Publication of JP2018060512A publication Critical patent/JP2018060512A/ja
Priority to US16/367,258 priority patent/US20190236380A1/en
Publication of JP2018060512A5 publication Critical patent/JP2018060512A5/ja
Application granted granted Critical
Publication of JP6548691B2 publication Critical patent/JP6548691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • G06F18/2185Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Graphics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Description

本発明は、近赤外線センサーやLiDARのレーザー光センサーの仮想画像を生成し、それらの仮想画像を用いて車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法に関する。
現在、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ映像を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行うテストが盛んに行われている。上記の実験システムでは、リアルタイム性、高い認識率、全体が同期して制御されていることが特に重要となる。
自動運転支援システムに関する従来例としては、例えば、特許文献1に開示された走行制御システムがある。この特許文献1に開示された走行制御システムでは、自車両周辺に存在する道路のレーン・マーカーや停止位置などの路面標示を検知するとともに、自車両周辺に存在する複数の移動体・障害物などの立体物体を検知し、道路上の走行領域を判定して、信号機や標識などの立体物との衝突を回避しながら、予め設定された走行ルートを走行する自動運転システムを実現することを目的としている。
ところで、車載センサーで外界周辺状況を認識し制御を行うためには、自車両周辺の複数の障害物や複数の移動体の種別である車両、自転車、歩行者を判定し、その位置や速度などの情報を検出する必要がある。さらに、自車両が走行する上で道路上のレーン・マーカーや停止線などのペイントの意味や標識の意味を判定することが必要である。このような自車両周辺の外界情報を検知する車載センサーとしては、カメラのイメージセンサーを用いた画像認識技術が有効とされてきた。
特開2016−99635号公報
車両の自動運転の実現には、車両自身が周辺環境を認識する必要がある。そのためには、車両自身から周辺の物体までの距離を正確に計測する必要がある。距離計測を行うための技術としては、以下に挙げるようなものが開発され、レーンキープやクルーズコントロール、自動ブレーキなどのドライビングアシスト技術を実現するために、既にそれらのセンサーが搭載されている市販車も多い。
・ステレオカメラ:ヒトの目と同様に2つのカメラを用いることで三角測量の原理を利用して距離を算出する
・赤外線デプスセンサー:赤外線パターンを照射し、その反射を赤外線カメラで撮影してパターンのズレ(位相差)から距離を算出する
・超音波センサー:超音波を発信し、その反射波を受信するまでに要した時間から距離を算出する
・ミリ波レーダー:超音波と同様の仕組みで、ミリ波レーダーを発信してその反射波を受信するまでにかかった時間から距離を算出する
・LiDAR(Light Detection and Ranging):超音波センサー、ミリ波レーダーと同様の仕組みで、こちらはレーザー光を使用。その反射波を受信するまでにかかった時間(TOF:Time of Flight)から距離を算出する
以上のように、複数の方式が存在しているが、それぞれ一長一短がある。ステレオカメラの場合は立体視によって距離を正確に計測しやすいが、2つのカメラの間を最低でも30cmは離す必要があり小型化に限界がある。
赤外線線デプスセンサーや超音波センサーは安価な点が優れているが、距離による減衰が大きい。そのため、対象物までの距離が数10m以上になると正確な測定が困難、もしくは測定自体が不可能になる。その点、ミリ波レーダーやLiDARは長距離でも減衰しにくいので、長距離に対しても高精度の測定が可能である。しかし、装置が高価で小型化も困難という問題点があるが、今後研究開発の進展で車両への搭載が加速すると考えられる。
以上より、近距離から遠距離まで対象物までの距離を正確に測定するためには、異なるセンサーを選択的に使用することが、現時点では現実的な手段と言える。
自動車の自動運転以外の用途としても、自動車内における運転者の居眠り防止のために頭部の動きを検出する技術や、ジェスチャー動作検出、或いは自動走行ロボットの障害物回避などが有望視されている。
ところで、上記のような各種センサーで撮影した実写画像を大量に収集して、ディープラーニング認識技術を用いて、画像の認識率を高めることが将来の自動運転に不可欠とされている。
しかしながら、実際に車両を無限に走行させてテストデータを採取することは事実上不可能であり、如何にして実際に代用可能なレベルのリアリティ性をもって上記の検証を行うことができるかが重要な課題となる。例えば、カメラ画像の画像認識技術で外部環境を認識する場合、自車両周辺の天候(雨天、霧など)や時間帯(夜間、薄暗、逆光など)等の外部要因によって、認識率が大幅に変わってしまい検出結果に影響を与える。その結果、自車両周辺の移動体、障害物、道路上のペイントの検知に関して、画像認識手段による誤検知や未検知が増加する。このような画像認識手段による誤検知や未検知は、最も認識率の高いディープラーニング(機械学習)の技術を用いれば、学習のサンプル数を増加させることで解決することができる。
ところが、実際に道路を走行中に学習のサンプルを抽出することには限界があり、雨天や逆光、霧などの過酷な天候条件が満たされるのを待って車両の走行テストやサンプル収集を行うことは、その条件の再現が困難である上、機会の到来も希有であることから、開発手法として現実的でない。
一方、将来的な完全自動運転の実現のためには、上記のカメラ画像の画像認識だけでは不十分と言える。なぜならばカメラ画像は2次元画像であり、車両や歩行者、信号機などは画像認識によって対象物を抽出することは可能であるが、対象物までの画素ごとの距離を検知することはできない。したがって、これらの要求に対応するものとしてLiDARというレーザー光を用いたセンサーや、近赤外線を使ったセンサーも有望視されている。したがって、上記の複数の異なる種類のセンサーを組み合わせることで、自動車の走行時の安全性を大幅に向上させることができる。
そこで、本発明は、上記のような問題を解決するものであり、自車両周辺の他車両、路上の障害物、歩行者などの対象物に対する認識率の向上に関し、過酷な天候条件など、その再現が困難な条件下における実写の画像に極めて類似した画像を人工的に生成することによって、車両の走行テストやサンプル収集のリアリティ性を向上させることを目的とする。また、本発明は、複数個の異なる種類のセンサーを仮想環境で構築して、各々の映像をCGの技術を用いて生成することを目的とする。さらに、生成されたCG画像を用いた同期制御のシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法を提供することを目的とする。
上記課題を解決するために、本発明は、センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステム、プログラム及び方法であって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
前記コンポーネント画像中における対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備えたことを特徴とする。
上記発明において、前記コンポーネントは、RGB画像のうちのR成分のコンポーネントであることが好ましい。
また、上記発明において、前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることが好ましい。
本発明は、センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステム、プログラム及び方法であって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備え、
前記シェーディング部は、
前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
前記所定部位の3次元形状のみを出力する機能と
を有し、
前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする。
上記発明において、前記センサー手段は近赤外線センサーであることが好ましい。また、上記発明において前記センサー手段は、照射されたレーザー光の反射光を検出するLiDARセンサーであることが好ましい。
上記発明において、前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることが好ましい。
上記発明では、実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことが好ましい。
上記発明では、実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えることが好ましい。
上記発明では、前記深度画像生成部により生成された深度画像から、光線の照射からその反射波を受信するまでにかかった所要時間をTOF情報として算出するTOF計算部と、
前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
をさらに備えることが好ましい。
上記発明において前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することが好ましい。
上記発明では、前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することが好ましい。
さらに、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステム、プログラム及び方法であって、
センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備えたことを特徴とする。
上記発明において、前記同期制御手段は、
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
前記パケットデータを受信してデ・パケット化する手段と、
前記デ・パケット化されたデータを入力して画像を生成する手段と
をさらに備えることが好ましい。
上記発明において、前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することが好ましい。
前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることが好ましい。
上記発明において、前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることが好ましい。
上記発明では、前記車両が複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
上記発明において上記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることが好ましい。
また、上記発明では、前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
上記発明では、前記シミュレーションシステムが、複数個のセンサーに対応した画像を生成する手段を備え、またそれぞれの生成された画像に対応した認識手段を備え、同該複数個の認識結果を用いて、前記同期制御を行う手段を備えていることが好ましい。
さらに、シミュレーションシステム、プログラム及び方法に係る発明では、上記画像生成システム、画像生成プログラム及び画像生成方法の発明を前記画像生成手段として備え、
前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力することが好ましい。
以上述べたように、これらの発明によれば、ディープラーニング(機械学習)等の認識機能モジュールの学習に際し、CGなどの実写の画像に極めて類似した画像を人工的に生成することによって学習のサンプル数を増加させることができ、学習の効率を高めて認識率を向上させることができる。
詳述すると、本発明では、車両の位置情報変位を、シミュレーションモデルを基にして、実写の画像に極めて類似した、リアリティ性の高いCG映像を生成及び合成する手段を用いており、実際には存在しない環境や光源などを付加した映像を、人工的に無限に生成することができるようになる。この生成したCG画像を認識機能モジュールに対して、従来のカメラ画像と同様に入力し、カメラ画像に対する処理を同様に行わせ、対象とするオブジェクトが認識・抽出できるかをテストすることができるので、これまで取得・撮影が困難・不可能であった種類の映像での学習ができる上、さらに学習効率を高めて認識率を向上させる効果がある。
また2次元画像の取得ができるイメージセンサーの他に、物体の立体形状の情報が抽出できるLiDAR(レーザー光)やミリ波などの異なる種類のセンサーを併用し、これらのセンサーの画像を生成することで、さらに広範囲なテストが可能になるのみならず、認識技術のブラッシュアップも同時に実現することが可能になるという、相乗効果が見込める。
なお、本発明の応用分野としては、自動車の自動走行運転のための実験装置、シミュレーター、及びそれに関連したソフトウェアモジュール、ハードウェアデバイス(例えば車両搭載のカメラ、イメージセンサー、車両の周囲の3次元形状を測定するためのレーザー)、ディープラーニング等の機械学習ソフトウェア、非常に広範囲に及ぶ。また、本発明によれば、実写画像をリアルに実現するCG技術と同期制御の融合技術を備えているので、自動車の自動走行運転以外の分野でも幅広く応用することができる。例えば外科手術のシミュレーター、軍事シミュレーター、ロボットやドローンなどの安全走行テスト等が利用分野として有望である。
第1実施形態に係る仮想画像を生成する画像生成システムの全体構成を示すブロック図である 実際の道路を実走行して3次元データを収集する処理を示す説明図である テスト車両について3次元形状を収集することを示す説明図である 近赤外線センサーで取得したグレイスケール画像である。 近赤外線センサーで取得した距離画像である 第2実施形態に係る仮想画像を生成する画像生成システムの全体構成を示すブロック図である レーザー光のTOFを示した説明図である LiDARの構成と動作原理を示す説明図である LiDARのビーム照射を示す説明図である LiDARのレーザービームが対象物に照射される様子を説明する説明図である。 第3実施形態に係るニューラルネットワークとバックプロパゲーションを説明するブロック図である ニューラルネットワークを説明する説明図である 第4実施形態に係る深度画像の画質評価システムを説明するブロック図である TOFの概念と、投光パルスと受光パルスの関係を説明する説明図である 第5実施形態に係る同期シミュレーションシステムを説明するブロック図である クライアント側の構成を説明するブロック図である シミュレーターサーバー側の構成を説明するブロック図である UDP同期制御と画像生成、画像認識の各構成を説明するフロー図である。 本同期制御シミュレーターの動作を示すフローチャート図である。 第6実施形態に係る複数台の同期シミュレーションシステムを説明するブロック図である。 複数台のUDP同期制御システムを説明するブロック図である。 第7実施形態に係る複数台のディープラーニング認識手段を説明するブロック図である。 素材撮影手段を備えた複数台のディープラーニング認識手段を説明するブロック図である。
[第1実施形態]
(近赤外線仮想画像生成システムの全体構成)
以下に添付図面を参照して、本発明に係る近赤外線仮想画像生成システムの実施形態について詳細に説明する。本実施形態では、自動運転に必須とされる様々なタイプのセンサーから撮像される実写画像を代替すべく、CG技術を用いて実写画像に極めて類似した画像を生成するシステムを構築する。図1は近赤外線の仮想画像を生成するためのブロック図である。
なお、本実施形態に係る近赤外線仮想画像生成システムは、例えばコンピューターにインストールされたソフトウェアを実行することにより、コンピューターに備えられたCPUなどの演算処理装置上に仮想的な各種モジュールが構築されて本システムが実装される。なお、以下の説明において「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
図1に示すように、本実施形態に係る近赤外線仮想画像生成システムは、シナリオ作成部10、3Dモデリング部11、3Dシェーディング部12、R画像グレイスケール化部13、深度画像生成部14を備えている。
シナリオ作成部10は、どのようなCGを作成するかのシナリオデータを作成する手段である。このシナリオ作成部10は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えている。例えば自動運転に使うCGであれば、道路、建物、車両、歩行者、自転車、路側帯、信号機などの数多くの対象物が仮想空間内に存在し、シナリオデータには、その仮想空間内でどの対象物がどの位置(座標、標高)に存在してどのような方向に、どのような動きをするかが定義されているとともに、仮想空間内における仮想カメラ(視点)の位置、光源の種類や個数、それぞれの位置や向き等を定義するデータであり、また、仮想空間内における対象物の移動や挙動なども定義される。
このシナリオ作成部10で、先ずどのようなCG画像を生成するかが決められることになる。このシナリオ作成部10で設定されたシナリオに従って、3Dモデリング部11が3D画像を生成する。
3Dモデリング部11は、仮想空間上における物体の形状を作成するモジュールであり、物体の外形や内部構成の形状を構成する各頂点の座標を設定し、その形状の境界線・面を表現する方程式のパラメータを設定し、3次元的な物の形を構築する。具体的には、この3Dモデリング部11によって、道路の3D形状や路上を走行する車両の3D形状、歩行者の3D形状等の情報がモデリングされる。
3Dシェーディング部12は、3Dモデリング部11で生成された各3DモデルデータD101を用いて実際の3DCGを生成するモジュールであり、シェーディング処理によって、3DCGで実現される物体の陰影を表現し、光源の位置や光の強さによって立体的でリアルな画像を生成する。
R画像グレイスケール化部13は、3Dシェーディング部12から送出されたシェーディング画像に含まれる所定のコンポーネントを抽出するコンポーネント抽出部であるとともに、抽出されたコンポーネント画像をグレイスケール化するグレイスケール化部として機能するモジュールである。具体的にこのR画像グレイスケール化部13は、3Dシェーディング部12から送出されたRGB画像であるシェーディング画像D103のうちのR成分のコンポーネントを、コンポーネント画像として抽出し、この抽出されたR成分のコンポーネント画像を、図4に示すように、R成分をグレイスケール化してグレイスケール画像D104(Img(x,y)、x:水平座標値、y:垂直座標値)を出力する。これにより、シェーディング画像D103中のR(赤色)成分だけが抽出され、赤外線の画像に極めて近い画像が生成されることとなる。図4は、室内を近赤外線センサーで撮影した実写画像をグレイスケール化した白黒画像である。
深度画像生成部14は、3Dシェーディング部12から入力された個々の3D形状モデルのモデリング情報D102に基づいて、画面中の各対象物の3D形状データを取得し、各対象物までの距離に基づいて深度画像(Depth−mapとも呼ばれる)105を生成するモジュールである。図5は、上記の深度画像を距離によって色分けした画像である。より前方にある対象物ほど赤の成分が強く、遠方にあるものほど青の成分が強くなっている。中間の位置にあるものは黄色から緑色になっており、画面中における全ての対象物に関する奥行情報が得られることになる。
(近赤外線仮想画像生成システムの動作)
以上の構成を有する近赤外線仮想画像生成システムを動作させることによって、本発明の近赤外線仮想画像生成方法を実施することができる。
先ず、シナリオ作成部10では、どのようなCGを作成するかのシナリオを作る。例えば自動運転に使うCGであれば、道路、建物、車両、歩行者、自転車、路側帯、信号機などの数多くの対象物がどの位置に存在してどのような方向に、どのような動きをするか、さらに、カメラの位置、光源の種類や個数等のシナリオを作成する。
このシナリオ作成部10において、どのようなCG画像を生成するかが決定される。次いで、シナリオ作成部10で設定されたシナリオに沿って、道路の3D形状や路上を走行する車両の3D形状、歩行者の3D形状等の情報をモデリングする。なお、モデリング手段としては、例えば道路に関しては「高精度地図データベース」を用いれば容易に実現でき、図2(a)に示すような車載装置1bを装備した車両を多数走行させて、同図(b)に示すように、収集したデータから地図の3D化を行い、同図(c)に示すように、ベクター化した図面を用いて各道路地物をリンクさせてデータベース化する。
次いで、3Dモデリング部11において、シナリオ作成部10で作成されたシナリオ情報D100に基づいて、必要な各対象物の3D形状モデルを取得、又は生成する。そして、3Dモデリング部11で生成された各3DモデルデータD101を用いて3Dシェーディング部12では、実際の3DCGを生成する。
また、3Dシェーディング部12から送出されたR成分のシェーディング画像D103に対して、図4に示すようなR画像グレイスケール化してグレイスケール画像D104(Img(x,y)、x:水平座標値、y:垂直座標値)が出力される。他方、3Dシェーディング部12からは、個々の3D形状モデルのモデリング情報D102が得られ、これらの情報から画面中の各対象物の3D形状データが得られ、これを基にして深度画像生成部14において深度画像D105(α(x,y)、x:水平座標値、y:垂直座標値)が生成される。
そして、以上の動作により得られたグレイスケール化してグレイスケール画像D104と深度画像D105とが、本実施形態の出力画像として送出され、これらの2つの画像出力が、画像認識に用いられる。
[第2実施形態]
以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
(LiDARセンサー仮想画像生成システムの全体構成)
本実施形態では、LiDARセンサーを用いた場合について述べる。本実施形態に係るシステムは、図6で実現され、シナリオ作成部10と、3Dモデリング部11と、シェーディング部15と、深度画像生成部16とから構成される。
本実施形態においてシェーディング部15は、3Dモデリング部11で生成された各3DモデルデータD101を用いて実際の3DCGを生成するモジュールであり、シェーディング処理によって、3DCGで実現される物体の陰影の表現し、光源の位置や光の強さによって立体的でリアルな画像を生成する。特に、本実施形態におけるシェーディング部15は、レーザー光照射部分抽出部15aを有しており、レーザー光照射部分抽出部15aによって、そのレーザー光が照射された部位のみの3D形状を抽出してシェーディングし、そのシェーディング画像D106を出力する。また、レーザー光の反射光はそもそもRGBのような色成分を持たない光線なので、このシェーディング部15からは、直接グレイスケール化したシェーディング画像D106が出力されることになる。
また、深度画像生成部16は、3Dシェーディング部12から入力された個々の3D形状モデルのモデリング情報D102に基づいて、画面中の各対象物の3D形状データを取得し、各対象物までの距離に基づいて深度画像(Depth−mapとも呼ばれる)105を生成するモジュールである。特に、本実施形態における深度画像生成部16は、レーザー光照射部分抽出部16aによって、レーザー光照射に係る部分だけを抽出した深度画像D108が出力される。
(LiDARセンサー仮想画像生成システムの動作)
次に、上記構成を有するLiDARセンサー仮想画像生成システムの動作について説明する。
3Dモデリングされた各対象物のうちで、近赤外線の場合には、図5に示すような画像が同時に取得できるのに対して、LiDARセンサーのレーザー光は指向性が強い光線のため、画面中の一部箇所だけに照射される性質がある。このLiDARとは、パルス状に発行するレーザー照射に対する散乱光を測定して、遠距離にある対象物までの距離を測定するセンサーである。特に自動運転の高精度化には必須なセンサーの1つとして注目されている。以下、LiDARの基本的な特徴について、以下説明する。
LiDARに用いられるレーザー光はマイクロパルスで近赤外光(例えば905nmの波長)を用いる。スキャナと光学計はモータ、ミラー、レンズなどから構成される。一方、受光器、信号処理部では反射光を受光し、信号処理によって距離を算出する。
ここでLiDARに採用されている手段としては、TOF方式(Time of Flight)と呼ばれているLiDARスキャン装置114などがあり、このLiDARスキャン装置114は、図7に示すように、レーザードライバー114aによる制御に基づいて発光素子114bから照射レンズ114cを通じてレーザー光を照射パルスPlu1として出力する。この照射パルスPlu1は測定対象Ob1によって反射されて反射パルスPlu2として受光レンズ114dに入射され、受光素子114eで検出される。この受光素子114eによる検出結果は、信号受光回路114fによって電気信号としてLiDARスキャン装置114から出力される。このようなLiDARスキャン装置114では、立ち上がり時間が数nsで、光ピークパワーが数10Wの超短パルスを測定物体に向けて照射し、その超短パルスが測定物体で反射して受光素子に戻ってくるまでの時間tを測定する。このときの物体までの距離をL、光速をcとすると、
L=(c×t)/2
により算出される。
このLiDARシステムの基本的な動作としては、図8(a)〜(c)に示すように、LiDARスキャン装置114から射出され、変調されたレーザー光が回転するミラー114gで反射され、レーザー光が左右に振られ、或いは360°で回転されることで走査され反射して戻ってきたレーザー光が、再びLiDARスキャン装置114の受光素子114eで捕捉される。補足された反射光は、最終的には、回転角度に応じた信号強度が示された点群データPelY及びPelXとして得られる。なお、回転式のLiDARシステムとしては、例えば、図9のように中心部が回転してレーザー光が照射され、360度の走査が可能になっている。
上述したように、LiDARセンサーのレーザー光は指向性が強いので、遠方距離まで照射した場合でも画面の一部分にしか照射されない性質を持っている。したがって、図6に示したシェーディング部15では、レーザー光照射部分抽出部15aによって、そのレーザー光が照射された部位のみの3D形状を抽出してシェーディングし、そのシェーディング画像D106を出力することになる。
一方、同じくレーザー光照射部分の3D形状データD107を入力した深度画像生成部16では、レーザー光照射部分抽出部16aによって、レーザー光照射に係る部分だけを抽出した深度画像D108を出力することになる。図10は、レーザー交渉者部分を抽出した例を図示したものであり、画像中央に走行中の車両の上部に取り付けたLiDARから360度方向にレーザー光のビームが放射されている。同図に示した例では、画面上部左側に自動車が、ビーム照射を受けてその反射光によって検知されており、画面上部右側には歩行者がビーム照射を受けてその反射光によって検知されている。
したがって、シェーディング部15では、例えば図10の自動車の3D形状を、3DCG技術を用いてシェーディングした結果の画像を生成すればよい。なお(なお)、上述した第1実施形態(図1)ではRGB画像を内部で生成してからR成分のみを出力する構成としたが、レーザー光の反射光はそもそもRGBのような色成分を持たない光線なので、本実施形態では、直接グレイスケール化したシェーディング画像D106を出力することになる。次に、深度画像生成部16では、第1実施形態で述べた深度画像が画面全体であったのに対して、レーザー光の反射部分のみを対象とした深度画像D108を生成する。
以上の動作により得られたグレイスケール化したシェーディング画像D106と深度画像D108とが、本実施形態の出力画像として送出される。これらの2つの画像出力は画像認識やその認識機能学習に用いることができる。
[第3実施形態]
次いで、本発明の第3実施形態に係る仮想画像のディープラーニング認識システムについて説明する。本実施形態では、第1実施形態で述べた近赤外線センサーを用いた仮想画像システム、及び第2実施形態で述べたLiDARセンサーを用いた仮想画像システムを、ディープラーニング認識システムなど、自動運転などで多用されているAI認識技術に適用し、実際に撮影不可能な環境での仮想環境画像を、様々なセンサーに対して供給可能とする。
(仮想画像のディープラーニング認識システムの構成)
図11は、現在最も実績が高いとされているバックプロパゲーション型のニューラルネットワークを用いたディープラーニング認識システムの構成図である。本実施形態に係るディープラーニング認識システムでは、ニューラルネットワーク計算部17とバックプロパゲーション部18とから概略構成される。
ニューラルネットワーク計算部17は、図12に示すような多層から構成されるニューラルネットワークを備え、このニューラルネットワークに対して、図1で示した出力であるグレイスケール画像D104と深度画像D105とが入力される。そしてニューラルネット内で予め設定された係数(608、610)に基づいて非線形計算が行われて、最終的な出力611が得られる。
一方、バックプロパゲーション部18では、ニューラルネットワーク計算部17における計算結果である計算値D110が入力されて、比較対象になる教師データ(例えば、実写に基づく照射画像や深度画像などのデータを用いることができる。)との間で誤差を計算する。図11に例示したシステムでは、グレイスケール画像D104に対する教師データとしてグレイスケール画像D111が入力され、深度画像D105に対する教師データとして深度画像D112が入力される。
ここで、バックプロパゲーション部18では、バックプロパゲーション法による演算が実行される。このバックプロパゲーション法は、ニューラルネットの出力と教師データがどの程度誤差があるかを計算し、その結果を逆伝搬することで出力から再度入力方向に計算を行う。本実施形態では、このフィードバックした誤差値D109を受け取ったニューラルネットワーク計算部17が、再度所定の計算を行い、その結果をバックプロパゲーション部18に入力する。以上のループ内の動作を、誤差値が予め設定した閾値よりも小さくなるまで実行し、十分に収束したと判断されたときにニューラルネット計算を終了する。
以上の動作を完了すると、ニューラルネットワーク計算部17内のニューラルネットワーク内の係数値(608、610)が確定することになり、このニューラルネットを用いて、実際の画像に対するディープラーニング認識を行うことができる。
なお、本実施形態では、第1実施形態で説明した近赤外線画像の出力画像に対するディープラーニング認識を例示したが、同様の手法を用いることで、第2実施形態のLiDARセンサーの出力画像に対するディープラーニング認識にも、全く同様に対応することができる。その場合には、図11の左端の入力画像は、図6のシェーディング画像D106及び深度画像D108となる。
[第4実施形態]
次いで、本発明の第4実施形態について説明する。上述した第2実施形態で述べたLiDARセンサーを用いた仮想画像システムの出力画像のうち、深度画像生成部16からは、深度画像D108が出力される。この深度画像が実際にレーザー光を想定した距離画像としてどの程度の精度があるかは、本シミュレーションシステムの評価ポイントとして非常に重要である。本実施形態では、この深度画像を評価する評価システムに本発明を適用した例を説明する。
(深度画像評価システムの構成)
図13に示すように、本実施形態に係る深度画像評価システムは、上述した深度画像生成部16から出力される深度画像D108の評価手段として構成されたものであり、TOF計算部19と、距離画像生成部20と、比較評価部21とから構成される。
TOF計算部19は、深度画像生成部16により生成された深度画像D108について、TOF値等を含むTOF情報を計算するモジュールであり、光源から送出された投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光された際の時間差である遅れ時間に相当する。この遅れ時間がTOF計算部19からTOF値D113として出力される。
距離画像生成部20は、TOF計算部19で算出されたTOF値D113に基づいて、レーザー照射部分の各点のTOFを取得して、その各点における遅れ時間に基づいて各点までの距離Lを算出し、各点までの距離Lを画像で表現した距離画像D114を生成するモジュールである。
比較評価部21は、距離画像生成部20で生成された距離画像D114と、深度画像生成部16から入力された前記深度画像D108との間で比較計算を行い、それらの合致度などを含む比較結果に基づいて評価を行うモジュールである。比較手法としては一般的に用いられている絶対値2乗誤差などを用いることができる。この比較結果の値が大きくなるほど両者の差が大きいことになり、3DCGモデリングを基にした場合の深度画像が、実際にレーザー光のTOFを想定して生成した距離画像とどの程度近いかを評価することができる。
(深度画像評価システムの動作)
次に、上述した構成を有する深度画像評価システムの動作について説明する。
深度画像生成部16により生成された深度画像D108は、TOF計算部19に入力された後、TOFの時間が計算される。このTOFは、図7で述べたtである。詳述すると、このTOFは、図14(a)に示すように、光源からレーザー光が投光パルスとしてパルス状に送出されると、この投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光される。その際の時間差を計測する。この時間差は、図14(b)に示すように、投光パルスと受光パルス間の遅れ時間に相当する。
以上より図6のTOF計算部19で算出されたTOF値D113を出力する。このTOF計算部19によって、一旦、レーザー照射部分の各点のTOFが分かれば、これを以下の式で逆算することで各点の距離Lが求まる。
L=(1/2)×c×t
(c:光速、t:TOF)
上記の計算によって照射部画像の各点の距離画像D114が、距離画像生成部20において生成される。その後、前記深度画像D108と、距離画像D114との間で比較計算が行われる。比較手段としては一般的に用いられている絶対値2乗誤差などで構わない。この値が大きくなるほど両者の差が大きいことになり、3D CGモデリングを基にした場合の深度画像が、実際にレーザー光のTOF(こちらの方が正しい)を想定して生成した距離画像とどの程度近いかを評価することができる。
比較結果D115は上記のように、絶対値2乗誤差のような数値であっても、或いは閾値処理の後で両者が近似されていないというシグナルでも構わない。もし後者の場合には、例えば図6の3Dモデリング部11に結果がフィードバックされて再度モデリングを実行することも考えられる。この処理動作を繰り返し実行して、所定の近似レベルまで実行することで高精度の3D CGを基にした深度画像を生成することができる。
[第5実施形態]
次いで、本発明の第5実施形態について説明する。上述した第1実施形態〜第4実施形態までは、いずれも近赤外線画像もしくはLiDARセンサーの仮想画像を生成する手段に関するものであったが、本実施形態では、これらの仮想画像を用いて実際に自動運転の走行をリアルタイムで行う場合の制御について説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。
ここで、自動運転システムとは、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等のシステムであり、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ映像を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行う。
(車両同期シミュレーターシステムの全体構成)
図15は、本実施形態に係るシミュレーターシステムの全体構成を示す概念図である。本実施形態に係るシミュレーターシステムは、単数又は複数のシミュレーション対象について、シミュレーションプログラムを実行するとともに、これらのシミュレータープログラムのテストや機械学習を実行する。このシミュレーターシステムは、図15に示すように、通信ネットワーク3上にシミュレーターサーバー2が配置され、このシミュレーターサーバー2に対して、通信ネットワーク3を通じて、自車両の位置を生成又は取得する情報処理端末1aや車載装置1bが接続されている。
ここで、通信ネットワーク3は、通信プロトコルTCP/IPを用いたIP網であって、種々の通信回線(電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワーク)を相互に接続して構築される分散型の通信ネットワークである。このIP網には、10BASE−Tや100BASE−TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、PC1aの中にシミュレーターのソフトウェアがインストールされているケースも多々ある。この場合には、PC単体でのシミュレーションを行うことができる。
シミュレーターサーバー2は、単数又は複数のサーバー装置群により構成され、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。このシミュレーターサーバー2には、サーバー用のアプリケーションソフトウェアを実行するサーバーコンピューター、もしくはそのようなコンピューター上でのアプリケーションの実行を管理補助するミドルウェアで構成されたアプリケーションサーバーが含まれる。
また、シミュレーターサーバー2には、クライアント装置から、HTTPのレスポンス要求を処理するウェブサーバーが含まれ、このウェブサーバーは、バックエンドの関係データベース管理システム(RDBMS)を実行するデータベース中核層への橋渡しを担い、データの加工などの処理を行う。関係データベースサーバーは、データベース管理システム(DBMS)が稼動しているサーバーであり、クライアント装置やアプリケーションサーバー(APサーバー)に要求されたデータを送信したり、操作要求を受け付けてデータを書き換えたり削除したりする機能を有する。
情報処理端末1a及び車載装置1bは、通信ネットワーク3に接続されたクライアント装置であり、CPU等の演算処理装置を備え、専用のクライアントプログラム5を実行することによって種々の機能を提供する。この情報処理端末としては、例えば、パーソナルコンピュータ等の汎用コンピューターや機能を特化させた専用装置により実現することができ、スマートフォンやモバイルコンピューター、PDA(Personal Digital Assistance )、携帯電話機、ウェアラブル端末装置等が含まれる。
この情報処理端末1a又は車載装置1bは、専用のクライアントプログラム5を通じて上記シミュレーターサーバー2にアクセスしてデータの送受信が可能となっている。このクライアントプログラム5は、その一部又は全部が、ドライビングシミュレーションシステムや、車載された自動運転走行システムに組み込まれ、車両に搭載したカメラが撮影した映像や、取り込まれた風景映像(本実施形態ではCG動画が含まれる。)等を、画像認識技術を用いて認識して、映像中の他の車両や歩行者、信号機などのオブジェクトを検出し、その認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。なお、本実施形態に係るクライアントプログラム5は、画像認識の機能をシミュレーターサーバー2で行わせ、図18に示す車両位置情報計算部51による自動運転の仕組みによって、シミュレーターサーバー2における認識結果に応じて自動車を仮想的に地図上で走行させたり、実際に車両を走行させたりして、自車両の位置情報を変位させるように位置情報を計算し、又は取得する。
(各装置の構成)
次いで、各装置の構成について具体的に説明する。図16は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、図17は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(1)クライアント装置の構成
情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、図16に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
メモリ103及びストレージ装置101は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。入力インターフェース104は、キーボードやポインティングデバイス、タッチパネルやボタン等の操作デバイスから操作信号を受信するモジュールであり、受信された操作信号はCPU402に伝えられ、OSや各アプリケーションに対する操作を行うことができる。出力インターフェース105は、ディスプレイやスピーカー等の出力デバイスから映像や音声を出力するために映像信号や音声信号を送出するモジュールである。
特に、クライアント装置が車載装置1bである場合、この入力インターフェース104には、自動運転システムのための上記ADAS等のシステムが接続され、自動車の自動運転走行を実現するため、車両に搭載したカメラ104a等のイメージセンサーの他、LiDARセンサー、ミリ波センサー、赤外線センサー等の各種センサー手段が接続される。
通信インターフェース106は、他の通信機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
CPU102は、各部を制御する際に必要な種々の演算処理を行う装置であり、各種プログラムを実行することにより、CPU102上に仮想的に各種モジュールを構築する。このCPU102上では、OS(Operating System)が起動・実行されており、このOSによって情報処理端末1a〜c,4,5の基本的な機能が管理・制御されている。また、このOS上では種々のアプリケーションが実行可能になっており、CPU102でOSプログラムが実行されることによって、情報処理端末の基本的な機能が管理・制御されるとともに、CPU102でアプリケーションプログラムが実行されることによって、種々の機能モジュールがCPU上に仮想的に構築される。
本実施形態では、CPU102上でクライアントプログラム5を実行することによって、クライアント側実行部102aが構成され、このクライアント側実行部102aを通じて、仮想地図上又は実際の地図上における自車両の位置情報を生成又は取得し、シミュレーターサーバー2に送信するとともに、シミュレーターサーバー2側における風景映像(本実施形態ではCG動画が含まれる)の認識結果を受信して、受信した認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。
(2)シミュレーターサーバーの構成
本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、図17に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210〜213とを備えている。
通信インターフェース201は、通信ネットワーク3を通じて、他の機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。
図18では、UDP同期制御部202は、クライアント装置1側における自車両を変位させる位置情報の計算処理と、シミュレーターサーバー2側における画像生成処理及び画像認識処理とを同期制御するモジュールである。クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する。
UDP情報送受信部206は、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信するモジュールであり、本実施形態では、クライアント装置1側で計算され又は取得された位置情報を特定のフォーマットにパケット化してシミュレーターサーバー2側に送出するとともに、このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側で上記パケットデータを受信してデ・パケット化し、上記デ・パケット化されたデータを画像生成部203に入力して画像を生成する。また、本実施形態においてUDP情報送受信部206は、UDP同期制御部202によって各装置間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信する。
上記各種データベースとしては、地図データベース210と、車両データベース211と、描画用データベース212とを備えている。なお、これらのデータベースは、関係データベース管理システム(RDBMS)により、相互に情報の参照が可能となっている。
シミュレーション実行部205は、クライアント装置1側の位置情報取得手段によって生成又は取得され、シミュレーターサーバー2側へ送信された位置情報に基づいて、位置情報で特定された領域を再現したシミュレーション用画像を生成し、その生成されたシミュレーション用画像の中から特定の対象物を、認識機能モジュールを用いて認識し、検出するモジュールである。具体的には、画像生成部203と、画像認識部204とを備えている。
画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成するモジュールである。この画像生成部203で生成されたシミュレーション用画像は、画像認識部204に送出される。なお、この画像生成部203としては、上述した第1実施形態で説明した近赤外線仮想画像生成システム、或いは第2実施形態で説明したLiDARセンサー仮想画像生成システムを採用することができ、これらのシステムでコンピューターグラフィックス技術を用いて生成された各種仮想画像を画像認識部204に入力するようにしてもよい。
画像認識部204は、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物を、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識し検出するモジュールである。この画像認識部204による認識結果情報D06は、クライアント装置1側の車両位置情報計算部51に送信される。画像認識部204には、学習部204bが設けられており、認識機能モジュール204aの機械学習を実行するようになっている。
この認識機能モジュール204aは、カメラ装置により撮影された画像又は画像生成部203で生成されたCGを取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識するモジュールであり、学習部204bは、この認識機能モジュール204aに対して、上記カメラ装置による撮影画像又は仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。
なお、ここでの画像認識部の認識機能モジュール204aとしては、第3実施形態で説明した仮想画像のディープラーニング認識システムのニューラルネットワーク計算部17を適用することができ、また、上記学習部204bとしては、上述したバックプロパゲーション部18を適用することができる。
(車両同期シミュレーターシステムの方法)
以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。図19は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
先ず、車両位置情報計算部51で自車の車両位置情報D02の取得を行う(S101)。具体的にはクライアント装置1側でクライアントプログラム5を実行することによって、地図情報や車両初期データ等の各種データ群D01を車両位置情報計算部51に入力する。次いで、これらの各種データ群D01を用いて仮想地図上又は実際の地図上における自車両の位置情報を計算(生成)又は取得し、その結果を車両位置情報D02として、UDP同期制御部202及びUDP情報送受信部206を通じて、シミュレーターサーバー2側のシミュレーション実行部205に送信する(S102)。
詳述すると、車両位置情報計算部51では、先ず自車の車両位置情報D02を、UDP同期制御部202からの制御信号D03のタイミングに従って、UDP同期制御部202に対して送出する。車両位置情報計算部51の初期データで、例えば地図データや地図中の自車の位置情報や車体の車輪の回転角,口径などの情報は、所定のストレージ装置101からロードすることができる。UDP同期制御部202及びUDP情報送受信部206では、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信する。具体的にUDP同期制御部202及びUDP情報送受信部206は、クライアント装置1側で計算され又は取得された車両位置情報D02は、車両情報を含む各種データ群を、特定のフォーマットにパケット化されたパケット情報D04としてシミュレーターサーバー2側に送出される。
このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側で上記パケットデータを受信してデ・パケット化され(S103)、上記デ・パケット化されたデータD05をシミュレーション実行部205の画像生成部203に入力してCG画像が生成される。このとき、UDP情報送受信部206は、UDP同期制御部202によって各装置間において、車両情報を含む各種データ群をパケット化したパケット情報D04はUDP(User Datagram Protocol)を用いて送受信される。
詳述すると、UDP同期制御部202では、自車の車両位置情報D02をUDPパケッタイズすることで種データ群をパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。ここでUDP(User Datagram Protocol)について少し述べる。一般にTCPが高信頼性、コネクション型、ウィンドウ制御、再送制御、輻輳制御を行うのに対して、UDPはコネクションレス型プロトコルで信頼性を確保する仕組みがない一方で、処理が簡易なため低遅延という大きな利点がある。本実施形態では各構成部の間をデータ伝送する際に低遅延が要求されるので、TCPではなくUDPを採用している。またさらに現在の音声通信や動画通信において最も普及しているRTP(Realtime Transport Protocol)を用いてもよい。
ここで、次に自車の車両位置情報D02の具体的な内容としては、例えば
・自車の位置情報(路面絶対位置座標等の3次元座標(X,Y,Z))
・自車のオイラー角度
・タイヤの位置情報(タイヤの路面絶対位置座標等の3次元座標(X,Y,Z))
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
車両位置情報D02を受信したUDP情報送受信部206では、車両の情報、例えば車両の位置情報であるXYZ座標、タイヤの位置情報であるXYZ座標、オイラー角度等の各種情報の中から、主に車両のCG画像を生成するのに必要なデータD05を送出する。
そして、各種データ群をUDPパケットとしたパケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05は、シミュレーション実行部205の画像生成部203に入力される(S104)。
シミュレーション実行部205において、画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を、データD05として取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成する(S105)。この画像生成部203で生成されたシミュレーション用画像D13は画像認識部204に送出される。
画像生成部203では、所定の画像生成法として、例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06は再度車両位置情報計算部51に入力されて、例えば自車両の次の動作を決定するための車両の位置情報を計算するのに用いられる。
画像生成部203では、例えばPBR手法を用いたCG技法によって、車両のみならず周囲画像、例えば路面、建物、信号機、他の車両、歩行者といったオブジェクトを生成することができる。これはPlayStationなどのゲーム機によるタイトルで、上記のようなオブジェクトが非常にリアルに生成されていることからも、最新のCG技術で十分実現可能なことが分かる。自車両以外のオブジェクトの画像については既に初期データとして保持しているものを用いることが多い。特に自動走行運転のシミュレーターでは、数多くの高速道路、一般道などのサンプルデータを大量にデータベース化しており、それらのデータを適宜使えばよい。
続いて、画像認識部204では、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物をオブジェクトとして、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識して抽出する(S106)。ここで、認識されたオブジェクトがなければ(ステップS107における「N」)、次のタイムフレームに移行して(S109)、タイムフレームがなくなるまで(ステップS109における「N」)、上記処理S101〜S107を繰り返す((ステップS109における「Y」))。
他方、ステップS107において、認識されたオブジェクトが存在する場合には(ステップS107における「Y」)、この画像認識部204による認識結果は認識結果情報D06としてクライアント装置1側の車両位置情報計算部51に送信される。そして、クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果情報D06を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する(S108)。
詳述すると、ここで生成されたCG画像であるシミュレーション用画像D13は、画像認識部204に入力して既に述べたようにオブジェクトの認識・検出を、例えばディープラーニング等の認識技術を用いて行う。得られた認識結果は他車両や、歩行者、標識、信号機のように画面中の領域情報(例えば抽出された矩形領域のXY2次元座標)で与えられる。
自動走行運転のためのシミュレーターを実行する場合、実際の車両走行中の画像中には、他車両、歩行者、建物、路面などの数多くのオブジェクト(対象物)が存在する。自動走行運転の実現のためには、それらのオブジェクトを車両搭載のカメラ映像やミリ波、レーダー波等、各種センサーからのリアルタイムの情報を獲得しながら、例えば自動でハンドルを切る、アクセルを踏む、ブレーキをかける等の動作を行う。
したがって、実施形態1の近赤外線画像の場合には画面内に映っている物の中から、例えば他の車両や歩行者、標識、信号機等の自動走行に必要なオブジェクトを、実施形態3で述べたようなディープラーニング等の画像認識技術によって認識・識別を行う。
画像認識部204は、例えば他車両が自車両の前面に割り込んできた場合には、画像認識技術で接近を検知し、その認識結果の認識結果情報D06を車両位置情報計算部51に対して出力する。車両位置情報計算部51では、この情報を基にして例えば、ハンドルを切って回避する、ブレーキ動作で減速する等の動作を行い、自車両の位置情報を変更する。或いは、歩行者が急に自車の前に飛び出して来た場合には、ハンドルを切って回避する、急ブレーキを踏む等の動作を行い、同様にその結果として自車両の位置情報を変更する。
なお、上記の一連の構成において、車両位置情報計算部51からUDP同期制御部202,UDP情報送受信部206を介してシミュレーション実行部205までのデータ送信は、例えばUDPプロトコルに従って、25msecごとの周期で送出できるものとする(25msecは一例である)。
ここで、本発明の特徴である「同期モデル」の必要性についてであるが、シミュレーション実行部205からの出力結果に基づいて、次のタイムフレームの車両位置情報を決定するため、全体が同期した制御ができないと、実車両の挙動をシミュレートできなくなるからである。また25msecごとの周期で送出するとしたが、理想的にはゼロ遅延であるが現実的には不可能であるので、UDPを用いることで送受信に伴う遅延時間を削減している。
一般に自動走行運転のシミュレーターの場合には、非常に多くの動画フレームに対してテストを行う必要がある。本実施形態によれば実走行でカバーし切れない絶対的な量を、ほぼ実写に近いCG映像で代用することを目的としている。したがって長いシーケンスの動画サンプルデータに対しての動作が保証されている必要がある。
本実施形態では、学習部204bが、認識機能モジュール204aに対して、実走行時の車載カメラ装置による撮影画像以外にも、画像生成部203が生成した仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。認識機能モジュール204aは、カメラ装置により撮影された画像やCG画像を取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンにより、既に実施形態3で述べたディープラーニング認識技術によって認識を行う。
[第6実施形態]
以下に添付図面を参照して、本発明に係るシステムの第6実施形態を詳細に説明する。図20は、本実施形態に係るシステムの全体構成を示す概念図である。図21は、本実施形態に係る装置の内部構成を示すブロック図である。上記第5実施形態では、主に自車両の台数が1台の場合に限った実施形態であったが、本実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。
図20に示すように、本実施形態では、シミュレーターサーバー2に複数のクライアント装置1c〜1fが接続されており、図21に示すように、シミュレーターサーバー2において、UDP同期制御部202及びUDP情報送受信部206を共通の構成要素とし、シミュレーション対象となる車両の台数に応じて、各クライアント装置1c〜fには車両位置情報計算部51c〜fが設けられ、シミュレーターサーバー2側にはシミュレーション実行部205c〜fが設けられている。
車両位置情報計算部51c〜fでは、先ず自車の車両位置情報D02c〜fを制御信号D03c〜fのタイミングに従って、UDP同期制御部202に対して送出する。次にUDP同期制御部202では、自車の車両位置情報D02c〜fをUDPパケッタイズすることで各種データ群を含むパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。パケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05c〜fは、シミュレーション実行部205c〜fに入力される。
シミュレーション実行部205c〜fでは、既に第1実施形態で述べたように、所定の画像生成法例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06c〜fは車両位置情報計算部51c〜fにフィードバックされ、各車両の位置が変更される。
なお、上記の例では合計4つの車両位置情報計算部51c〜fを備える場合を例示したが、この個数には特段制限はない。しかし、対応すべき車両の台数が増えれば、その結果同期制御も複雑になる上、ある車両で多くの遅延が発生した場合には、遅延時間は各々の合算であるので、トータルでの遅延時間の増大につながるという問題点にもなる。したがってシミュレーターのハードウェア規模や処理量などの条件によって、これらの構成を行えばよい。
また、図20では、PC端末1c〜1fと車両同期シミュレーター・プログラム4とが通信ネットワーク3を介してリモート接続されているが、PCのローカルのHDD、SSDなどの記録媒体にプログラムが実装されていて、スタンドアロンで動作させることも可能である。この場合にはさらに低遅延で検証を行うことができる利点がある上、ネットワーク帯域が混雑時に起こる輻輳等の影響も一切受けない利点もある。
また、1c〜1fをPC端末と限定する必要なく、例えば実際の走行車両上でテストを行う場合には、テスト車両に搭載されたカーナビゲーションシステムであってもよい。この場合には、図18の画像生成部203からのCG画像であるシミュレーション用画像D13を画像認識部204で認識するのではなく、実写の走行映像をD13の代わりに入力することになるので、画像認識部204の性能評価として利用することができる。例えば、実写の走行映像の中の歩行者や車両などは人間が見れば瞬時に正確に認識可能であるが、上記の画像認識部204で認識及び抽出された結果が、それらと同じになるかの検証を行うことができるからである。
[第7実施形態]
さらに、本発明のシステムの第7実施形態について説明する。本実施形態では、複数個のセンサーを使った別の実施例について図22を用いて説明する。この図22では異なるデバイスのセンサーを搭載した例を示しており、同図においてディープラーニング認識部の1つは、例えばカメラのイメージセンサーであり、もう1つは例えば近赤外線センサーであり、又はLiDAR(Light Detection and Ranging)と仮定する。
図22に示すように、1番最初のディープラーニング認識部61は例えばイメージセンサー部を用いたものであり、3Dグラフィックス合成画像は2次元平面の画像である。したがってディープラーニング認識手段は、2次元画像に対する認識手法を具備していることになる。一方、次のディープラーニング認識部62は、一方、LiDARセンサーを用いて入力した3D点群データである。この3D点群データは、画像生成部203において3Dグラフィック画像化される。
上記の3Dグラフィック画像化された3D点群データについては、図10で示したように、中央の走行車両の上に設置したLiDARから360度全方位にレーザー光を放射して反射光を測定した結果得られた点群データを示している。また色の強弱は反射光の気強さを示している。したがって隙間など空間が存在しない部分は反射光がないので、黒色になっている。
実際の点群データから相手車両や歩行者、自転車などの対象オブジェクトを、3次元座標を持ったデータとして取得できるので、これらの対象オブジェクトの3Dグラフィック画像を容易に生成することが可能になる。具体的には、点群データを整合させることで複数個のポリゴンデータを生成し、3Dグラフィックはこれらのポリゴンデータをレンダリングすることで描画される。
上記の手段によって生成された3D点群データグラフィック画像D61は、ディープラーニング認識部62に入力して、同部において3D点群データ用に学習された認識手段によって認識が実行される。したがって前記のイメージセンサー用の画像で学習されたディープラーニング認識手段とは異なる手段を用いることになるが、これによる効果は大きい。なぜならば、非常に遠方にある対向車はイメージセンサー−では取得できない可能性が高いが、LiDARの場合は数百メートル先の対向車の大きさや形状まで取得できるからである。逆にLiDARは反射光を用いているため、反射しない対象物には有効でないという欠点もあるが、イメージセンサーの場合にはこの問題はない。
以上により、異なる性質又は異なるデバイスのセンサーを複数装備して、それらの認識結果を学習結果同期部84で分析して、最終的な認識結果D62を出力する。なお(なお)、この同期部は例えばクラウドなどのネットワークの外部で行ってもよい。理由としては1台当たりのセンサーの数が今後急激に増えるだけでなく、ディープラーニング認識処理の計算負荷も大きいため、外部で対応可能な部分については、大規模なコンピューティングパワーのあるクラウドで実行し、その結果をフィードバックする手段が有効だからである。
なお(なお)、図22の実施例は仮想的なCG画像を生成するケースであったが、既に実施形態1で述べたように、実際の車両に本アプリケーションシステムが搭載されて(カーナビゲーションのように)、実写走行を行いながら異なる種類のセンサーからの情報を入力して、ディープラーニング認識を行うこともできる。図23はそのケースの具体的なブロック図である。
素材撮影装置は、車載カメラに備えられたイメージセンサーの他、上記の通りLiDARのセンサーやミリ波のセンサーを想定している。イメージセンサーの場合には実写画像を取り込んで実写画像から抽出した光情報などのパラメータを用いて、実施形態1で述べたPBRの技術によって高品質なCG画像を生成されて、画像生成部203から送出される。一方、LiDARセンサーの場合には実際に車載のLiDARセンサーから放射されたビームのレーザー光の反射光から、3次元の点群データを作成する。そしてこの3次元点群データを3DCG化した画像が、上記の画像生成部203から出力される。
このようにして、複数種類のセンサーに応じたCG画像が、画像生成部203から送出され、図23の各々のディープラーニング認識部において所定の手段で認識処理が行われることになる。また上記の実施例では、LiDARセンサーを例にとって説明したが、他にも第2実施形態で述べた近赤外線センサーを用いることも有効である。
D01…種データ群
D02(D02c〜f)…車両位置情報
D03(D03c〜f)…制御信号
D04…パケット情報
D05(D05c〜f)…データ
D06(D06c〜f)…認識結果情報
D100…シナリオ情報
D101…モデルデータ
D102…モデリング情報
D103,D106…シェーディング画像
D104…グレイスケール画像
D105,D108,D112…深度画像
D107…D形状データ
D109…誤差値
D110…計算値
D111…グレイスケール画像
D113…TOF値
D114…距離画像
D115…比較結果
D13…シミュレーション用画像
D61…3D点群データグラフィック画像
D62…認識結果
1…クライアント装置
1a…情報処理端末
1b…車載装置
1c〜1f…クライアント装置
2…シミュレーターサーバー
3…通信ネットワーク
4…車両同期シミュレーター・プログラム
5…クライアントプログラム
10…シナリオ作成部
114…LiDARスキャン装置
114a…レーザードライバー
114b…発光素子
114c…照射レンズ
114d…受光レンズ
114e…受光素子
114f…信号受光回路
114g…ミラー
11…3Dモデリング部
12…3Dシェーディング部
13…R画像グレイスケール化部
14…深度画像生成部
15…シェーディング部
15a…レーザー光照射部分抽出部
16…深度画像生成部
16a…レーザー光照射部分抽出部
17…ニューラルネットワーク計算部
18…バックプロパゲーション部
19…TOF計算部
20…距離画像生成部
21…比較評価部
51(51c〜f)…車両位置情報計算部
61〜6n…ディープラーニング認識部
84…学習結果同期部
101…ストレージ装置
102…CPU
102a…クライアント側実行部
103…メモリ
104…入力インターフェース
105…出力インターフェース
106,201…通信インターフェース
202…UDP同期制御部
203…画像生成部
204…画像認識部
204a…認識機能モジュール
204b…学習部
205…シミュレーション実行部
205c〜f…シミュレーション実行部
206…UDP情報送受信部
210…地図データベース
210〜213…種データベース
211…車両データベース
212…描画用データベース
402…CPU
611…出力

Claims (28)

  1. センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステムであって、
    前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
    前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
    前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
    前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
    前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
    を備えたことを特徴とする画像生成システム。
  2. 前記コンポーネントは、RGB画像のうちのR成分のコンポーネントであることを特徴とする請求項1に記載の画像生成システム。
  3. 前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることを特徴とする請求項1に記載の画像生成システム。
  4. センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステムであって、
    前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
    前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
    前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
    前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
    を備え、
    前記シェーディング部は、
    前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
    前記所定部位の3次元形状のみを出力する機能と
    を有し、
    前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
    ことを特徴とする画像生成システム。
  5. 前記センサー手段は近赤外線センサーであることを特徴とする請求項1又は4に記載の画像生成システム。
  6. 前記センサー手段は、照射されたレーザー光の反射光を検出するLiDARセンサーであることを特徴とする請求項1又は4に記載の画像生成システム。
  7. 前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることを特徴とする請求項1又は4に記載の画像生成システム。
  8. 実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことを特徴とする請求項1に記載の画像生成システム。
  9. 実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えた請求項4に記載の画像生成システム。
  10. 前記深度画像生成部により生成された深度画像から、光線の照射からその反射波を受信するまでにかかった所要時間をTOF情報として算出するTOF計算部と、
    前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
    前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
    をさらに備えた請求項1又は4に記載の画像生成システム。
  11. 前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することを特徴とする請求項10に記載の画像生成システム。
  12. 前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することを特徴とする請求項11に記載の画像生成システム。
  13. 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
    センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
    前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
    前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
    を備え
    前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
    前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
    前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行する
    ことを特徴とするシミュレーションシステム。
  14. 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
    センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
    前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
    前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
    を備え
    前記シミュレーションシステムは、複数個のセンサーに対応した画像を生成する手段を備え、またそれぞれの生成された画像に対応した認識手段を備え、同該複数個の認識結果を用いて、前記同期制御を行う手段を備えている
    ことを特徴とするシミュレーションシステム。
  15. 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
    センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
    前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
    前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
    を備え
    請求項1又は請求項4に記載の画像生成システムを前記画像生成手段として備え、
    前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    ことを特徴とするシミュレーションシステム。
  16. 前記同期制御手段は、
    前記位置情報を特定のフォーマットにパケット化して送出する手段と、
    パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
    前記パケットデータを受信してデ・パケット化する手段と、
    前記デ・パケット化されたデータを入力して画像を生成する手段と
    を備えたことを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
  17. 前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
  18. 前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
  19. 前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
  20. 上記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
  21. 前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
  22. センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するプログラムであって、コンピューターを、
    前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
    前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
    前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
    前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
    前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部として
    機能させることを特徴とする画像生成プログラム。
  23. センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するプログラムであって、コンピューターを、
    前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
    前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
    前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
    前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
    して機能させ、
    前記シェーディング部は、
    前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
    前記所定部位の3次元形状のみを出力する機能と
    を有し、
    前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
    ことを特徴とする画像生成プログラム。
  24. 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションプログラムであって、コンピューターを、
    前記車両の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
    前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
    前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
    機能させ
    前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    請求項22又は請求項23に記載の画像生成プログラムを前記画像生成手段として備える
    ことを特徴とするシミュレーションプログラム。
  25. センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成する方法であって、
    前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオをシナリオ作成部が作成するシナリオ作成ステップと、
    前記シナリオに基づいて前記対象物ごとに3Dモデリング部がモデリングを行う3Dモデリングステップと、
    前記3Dモデリングステップで生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を3Dシェーディング部が生成する3Dシェーディングステップと、
    前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出してコンポーネント抽出部が出力するコンポーネント抽出ステップと、
    前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を深度画像生成部が生成する深度画像生成ステップと
    を含むことを特徴とする画像生成方法。
  26. センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成する方法であって、
    前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオをシナリオ作成部が作成するシナリオ作成ステップと、
    前記シナリオに基づいて前記対象物ごとに3Dモデリング部がモデリングを行う3Dモデリングステップと、
    前記3Dモデリングステップで生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を3Dシェーディング部が生成する3Dシェーディングステップと、
    前記シェーディング画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を深度画像生成部が生成する深度画像生成ステップと
    を含み、
    前記シェーディング部は、
    前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
    前記所定部位の3次元形状のみを出力する機能と
    を有し、
    前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
    ことを特徴とする画像生成方法。
  27. 請求項25又は請求項26に記載の画像生成方法を前記画像生成ステップとして含み、
    前記画像生成方法における前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    ことを特徴とするシミュレーション方法。
  28. 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーション方法であって、
    位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
    前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
    前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
    前記画像認識ステップおける認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
    位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
    を備え
    請求項25又は請求項26に記載の画像生成方法を前記画像生成ステップとして含み、
    前記画像生成方法における前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    ことを特徴とするシミュレーション方法。
JP2017092950A 2016-10-06 2017-05-09 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 Active JP6548691B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/033729 WO2018066352A1 (ja) 2016-10-06 2017-09-19 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
US16/367,258 US20190236380A1 (en) 2016-10-06 2019-03-28 Image generation system, program and method, and simulation system, program and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016197999 2016-10-06
JP2016197999 2016-10-06

Publications (3)

Publication Number Publication Date
JP2018060512A JP2018060512A (ja) 2018-04-12
JP2018060512A5 JP2018060512A5 (ja) 2019-05-09
JP6548691B2 true JP6548691B2 (ja) 2019-07-24

Family

ID=61908533

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017092950A Active JP6548691B2 (ja) 2016-10-06 2017-05-09 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
JP2017092949A Active JP6548690B2 (ja) 2016-10-06 2017-05-09 シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017092949A Active JP6548690B2 (ja) 2016-10-06 2017-05-09 シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Country Status (2)

Country Link
US (2) US20190236380A1 (ja)
JP (2) JP6548691B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908175B2 (en) 2019-09-11 2024-02-20 Samsung Electronics Co., Ltd. Electronic device training image recognition model and operation method for same

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
JP6540482B2 (ja) * 2015-12-04 2019-07-10 株式会社デンソー 情報処理システム、情報処理装置及び出力制御方法
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
EP3644293B1 (en) * 2017-06-20 2021-08-04 Nissan Motor Co., Ltd. Travel control method and travel control device
JP6904849B2 (ja) * 2017-08-14 2021-07-21 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム。
KR101989995B1 (ko) * 2017-09-25 2019-06-17 엘지전자 주식회사 보행자에 대한 정보 획득 방법 및 차량용 통신 장치
US11365976B2 (en) * 2018-03-02 2022-06-21 Nvidia Corporation Semantic label based filtering of objects in an image generated from high definition map data
US10877152B2 (en) * 2018-03-27 2020-12-29 The Mathworks, Inc. Systems and methods for generating synthetic sensor data
US10816984B2 (en) * 2018-04-13 2020-10-27 Baidu Usa Llc Automatic data labelling for autonomous driving vehicles
JP6863596B6 (ja) * 2018-04-24 2021-06-02 シンメトリー・ディメンションズ・インク データ処理装置及びデータ処理方法
JP7117376B2 (ja) * 2018-06-22 2022-08-12 日立Astemo株式会社 電子制御ユニットの評価装置
KR102130596B1 (ko) * 2018-06-25 2020-07-06 군산대학교 산학협력단 Yuv 기반 세그먼테이션 및 오그먼테이션에 따른 자율 주행 시스템 및 그 방법
SG10201807451WA (en) * 2018-08-30 2020-03-30 Astropreneurs Hub Pte Ltd System and method for simulating a network of vehicles
DE102018214878A1 (de) * 2018-08-31 2020-03-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
CN109117825B (zh) 2018-09-04 2020-01-17 百度在线网络技术(北京)有限公司 车道线处理方法和装置
US10565476B1 (en) * 2018-09-04 2020-02-18 StradVision, Inc. Method and computing device for generating image data set for learning to be used for detection of obstruction in autonomous driving circumstances and learning method and learning device using the same
CN109255181B (zh) 2018-09-07 2019-12-24 百度在线网络技术(北京)有限公司 一种基于多模型的障碍物分布仿真方法、装置以及终端
CN109146898B (zh) 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
CN109143242B (zh) 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、系统、计算机设备和存储介质
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
CN109215135B (zh) 2018-09-07 2019-11-08 百度在线网络技术(北京)有限公司 一种基于统计的障碍物位置仿真方法、装置以及终端
CN109059780B (zh) 2018-09-11 2019-10-15 百度在线网络技术(北京)有限公司 检测障碍物高度的方法、装置、设备及存储介质
CN109165629B (zh) 2018-09-13 2019-08-23 百度在线网络技术(北京)有限公司 多焦距视觉障碍物感知方法、装置、设备及存储介质
US20200097021A1 (en) * 2018-09-19 2020-03-26 Continental Automotive Systems, Inc. Autonomous Farm Equipment Hitching To A Tractor
US10902279B2 (en) * 2018-09-25 2021-01-26 Honda Motor Co., Ltd. Training saliency
US11428817B2 (en) 2018-10-11 2022-08-30 Baidu Usa Llc Automatic LIDAR calibration based on cross validation for autonomous driving
KR102164950B1 (ko) * 2018-10-26 2020-10-13 계명대학교 산학협력단 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템
US11120297B2 (en) 2018-11-30 2021-09-14 International Business Machines Corporation Segmentation of target areas in images
US20190138848A1 (en) * 2018-12-29 2019-05-09 Intel Corporation Realistic sensor simulation and probabilistic measurement correction
JP7056592B2 (ja) * 2019-01-17 2022-04-19 Jfeスチール株式会社 金属材料の製造仕様決定方法、製造方法、および製造仕様決定装置
KR102181355B1 (ko) * 2019-01-17 2020-11-20 주식회사 엠제이비전테크 인공지능 기반 차량 검색 시스템
JP6995068B2 (ja) * 2019-01-21 2022-01-14 先進モビリティ株式会社 自動運転車両の軌跡設計走行制御検証方法
KR102103450B1 (ko) * 2019-01-30 2020-04-22 한국기술교육대학교 산학협력단 분산 시뮬레이션 기반 첨단 운전자 지원 시스템
CN109703568B (zh) 2019-02-19 2020-08-18 百度在线网络技术(北京)有限公司 自动驾驶车辆行驶策略实时学习的方法、装置和服务器
JP2020131248A (ja) * 2019-02-21 2020-08-31 Jfeスチール株式会社 圧延荷重予測方法、圧延荷重予測装置、及び圧延制御方法
CN109712421B (zh) 2019-02-22 2021-06-04 百度在线网络技术(北京)有限公司 自动驾驶车辆的速度规划方法、装置和存储介质
US12106455B2 (en) 2019-03-19 2024-10-01 Hitachi Astemo, Ltd. Autonomous vehicle system testing simulator
JP2020164045A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両走行制御装置
JP7319094B2 (ja) * 2019-06-06 2023-08-01 日野自動車株式会社 運転支援制御装置
KR102256644B1 (ko) * 2019-07-26 2021-05-27 서울시립대학교 산학협력단 Bim 객체 모델을 이용한 인공지능 교통신호 호스트 서버 및 이를 포함하는 제어 시스템 및 제어 방법
JPWO2021024805A1 (ja) * 2019-08-06 2021-02-11
JP7330278B2 (ja) * 2019-09-02 2023-08-21 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP7414434B2 (ja) 2019-09-10 2024-01-16 株式会社日立製作所 認識モデル配信システム及び認識モデルの更新方法
JP7454353B2 (ja) * 2019-10-18 2024-03-22 日立Astemo株式会社 処理装置、及びそれを用いた外界認識装置
US11454978B2 (en) * 2019-11-07 2022-09-27 Naver Corporation Systems and methods for improving generalization in visual navigation
US10816993B1 (en) * 2019-11-23 2020-10-27 Ha Q Tran Smart vehicle
KR102240403B1 (ko) * 2019-12-24 2021-04-14 아주대학교 산학협력단 이미지 평활화 방법 및 이미지 평활화 장치
JP6992099B2 (ja) * 2020-01-16 2022-01-13 本田技研工業株式会社 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法
WO2021154459A1 (en) * 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11814080B2 (en) 2020-02-28 2023-11-14 International Business Machines Corporation Autonomous driving evaluation using data analysis
US11702101B2 (en) 2020-02-28 2023-07-18 International Business Machines Corporation Automatic scenario generator using a computer for autonomous driving
US11644331B2 (en) 2020-02-28 2023-05-09 International Business Machines Corporation Probe data generating system for simulator
US20230101876A1 (en) * 2020-03-24 2023-03-30 Sony Semiconductor Solutions Corporation Rendering system and automated driving verification system
WO2021205615A1 (ja) * 2020-04-09 2021-10-14 三菱電機株式会社 教師データ生成装置、および、教師データ生成方法
EP4150367A1 (en) 2020-05-13 2023-03-22 National Instruments Corporation System for emulating an environment for testing a frequency modulated continuous wave (fmcw) light detection and ranging (l1dar) system
CN111505965B (zh) * 2020-06-17 2020-09-29 深圳裹动智驾科技有限公司 自动驾驶车辆仿真测试的方法、装置、计算机设备及存储介质
DE112021003088T5 (de) 2020-09-07 2023-04-27 Hitachi Astemo, Ltd. Bilderkennungs-simulatorvorrichtung
JP7422043B2 (ja) * 2020-09-25 2024-01-25 日立Geニュークリア・エナジー株式会社 作業シミュレーション装置および学習装置
TWI770699B (zh) * 2020-10-14 2022-07-11 台達電子工業股份有限公司 訓練影像的自動生成系統及其方法
CN112464373B (zh) * 2020-11-25 2023-06-06 中汽研(天津)汽车工程研究院有限公司 多循环制动工况车辆盘式制动器温度变化高精度仿真方法
DE102020215657A1 (de) 2020-12-10 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs
JP2022099651A (ja) * 2020-12-23 2022-07-05 ソニーセミコンダクタソリューションズ株式会社 画像生成装置、画像生成方法、およびプログラム
CN112926381B (zh) * 2021-01-08 2022-06-21 浙江大学 一种基于激光检测技术的水下目标识别系统
US20220269937A1 (en) * 2021-02-24 2022-08-25 Nvidia Corporation Generating frames for neural simulation using one or more neural networks
CN113807184B (zh) * 2021-08-17 2024-06-21 北京百度网讯科技有限公司 障碍物检测方法、装置、电子设备及自动驾驶车辆
CN113820694B (zh) * 2021-11-24 2022-03-01 腾讯科技(深圳)有限公司 一种仿真测距的方法、相关装置、设备以及存储介质
KR102625974B1 (ko) * 2021-11-29 2024-01-18 주식회사 오비고 자율주행차량의 운행 검증에 필요한 검증 시나리오를 편집하는 방법 및 이를 이용한 서버
US20230278589A1 (en) 2022-03-07 2023-09-07 Woven By Toyota, Inc. Autonomous driving sensor simulation
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
WO2024095572A1 (ja) * 2022-11-04 2024-05-10 日本ペイント・インダストリアルコーティングス株式会社 塗料組成物及び塗膜

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355272A (ja) * 2003-05-28 2004-12-16 Toyota Motor Corp 緊急車両の接近通知システム
JP2007066045A (ja) * 2005-08-31 2007-03-15 Hitachi Ltd シミュレーション装置
US9639748B2 (en) 2013-05-20 2017-05-02 Mitsubishi Electric Research Laboratories, Inc. Method for detecting persons using 1D depths and 2D texture
JP6266238B2 (ja) * 2013-07-03 2018-01-24 クラリオン株式会社 接近物検出システム、及び車両
US9493170B2 (en) * 2014-01-29 2016-11-15 Continental Automotive Systems, Inc. Method for reducing false activations in reverse collision avoidance systems
JP6462328B2 (ja) * 2014-11-18 2019-01-30 日立オートモティブシステムズ株式会社 走行制御システム
US9733342B1 (en) * 2015-01-29 2017-08-15 Waymo Llc Radar target simulation using a high speed tunable short
US9811756B2 (en) 2015-02-23 2017-11-07 Mitsubishi Electric Research Laboratories, Inc. Method for labeling images of street scenes
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US9754490B2 (en) * 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US9632502B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9720415B2 (en) * 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US9606539B1 (en) * 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US10334050B2 (en) * 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10248119B2 (en) * 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US10496766B2 (en) * 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
EP3475778B1 (en) * 2016-06-28 2024-07-10 Cognata Ltd. Realistic 3d virtual world creation and simulation for training automated driving systems
US10592805B2 (en) * 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908175B2 (en) 2019-09-11 2024-02-20 Samsung Electronics Co., Ltd. Electronic device training image recognition model and operation method for same

Also Published As

Publication number Publication date
JP6548690B2 (ja) 2019-07-24
JP2018060512A (ja) 2018-04-12
JP2018060511A (ja) 2018-04-12
US20190236380A1 (en) 2019-08-01
US10565458B2 (en) 2020-02-18
US20190220029A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP6548691B2 (ja) 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
US12020476B2 (en) Data synthesis for autonomous control systems
US11593950B2 (en) System and method for movement detection
TWI703064B (zh) 用於在不良照明狀況下定位運輸工具的系統和方法
WO2018066352A1 (ja) 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
US20230251656A1 (en) Generating environmental parameters based on sensor data using machine learning
WO2018066351A1 (ja) シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
US10031526B1 (en) Vision-based driving scenario generator for autonomous driving simulation
US11487988B2 (en) Augmenting real sensor recordings with simulated sensor data
JP2024055902A (ja) 手続き的な世界の生成
KR20210058696A (ko) 3d 대상체 검출을 위한 순차 융합
US20190065637A1 (en) Augmenting Real Sensor Recordings With Simulated Sensor Data
CN110796692A (zh) 用于同时定位与建图的端到端深度生成模型
CN109725634A (zh) 用于自动驾驶车辆的使用分色镜的3d lidar系统
US11841434B2 (en) Annotation cross-labeling for autonomous control systems
JP6645492B2 (ja) 撮像装置および撮像方法
US11798289B2 (en) Streaming object detection and segmentation with polar pillars
Barua et al. A self-driving car implementation using computer vision for detection and navigation
CN116664970A (zh) 一种基于迁移学习的毫米波雷达稠密点云生成方法及系统
US20220371606A1 (en) Streaming object detection and segmentation with polar pillars
US11682140B1 (en) Methods and apparatus for calibrating stereo cameras using a time-of-flight sensor
US20240029451A1 (en) Visual presentation of vehicle positioning relative to surrounding objects
Princiotto Exploiting infrastructure sensors for advanced vehicle manoeuvring assistance
TW202430840A (zh) 路徑規劃系統及其路徑規劃方法
KR20230095581A (ko) 객체 인식용 훈련 데이터 생성 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190313

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R150 Certificate of patent or registration of utility model

Ref document number: 6548691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250