JP6548691B2 - 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 - Google Patents
画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 Download PDFInfo
- Publication number
- JP6548691B2 JP6548691B2 JP2017092950A JP2017092950A JP6548691B2 JP 6548691 B2 JP6548691 B2 JP 6548691B2 JP 2017092950 A JP2017092950 A JP 2017092950A JP 2017092950 A JP2017092950 A JP 2017092950A JP 6548691 B2 JP6548691 B2 JP 6548691B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- position information
- image generation
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims description 72
- 238000000034 method Methods 0.000 title claims description 52
- 238000004364 calculation method Methods 0.000 claims description 62
- 230000006870 function Effects 0.000 claims description 52
- 238000013135 deep learning Methods 0.000 claims description 32
- 230000005540 biological transmission Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000011156 evaluation Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 13
- 230000001360 synchronised effect Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 11
- 230000006399 behavior Effects 0.000 claims description 10
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 241001270131 Agaricus moelleri Species 0.000 claims 1
- 238000004891 communication Methods 0.000 description 33
- 238000002366 time-of-flight method Methods 0.000 description 28
- 238000005516 engineering process Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000012360 testing method Methods 0.000 description 14
- 230000010365 information processing Effects 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 101150012579 ADSL gene Proteins 0.000 description 3
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 3
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Graphics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Electromagnetism (AREA)
- Computer Hardware Design (AREA)
- Traffic Control Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Description
・赤外線デプスセンサー:赤外線パターンを照射し、その反射を赤外線カメラで撮影してパターンのズレ(位相差)から距離を算出する
・超音波センサー:超音波を発信し、その反射波を受信するまでに要した時間から距離を算出する
・ミリ波レーダー:超音波と同様の仕組みで、ミリ波レーダーを発信してその反射波を受信するまでにかかった時間から距離を算出する
・LiDAR(Light Detection and Ranging):超音波センサー、ミリ波レーダーと同様の仕組みで、こちらはレーザー光を使用。その反射波を受信するまでにかかった時間(TOF:Time of Flight)から距離を算出する
以上のように、複数の方式が存在しているが、それぞれ一長一短がある。ステレオカメラの場合は立体視によって距離を正確に計測しやすいが、2つのカメラの間を最低でも30cmは離す必要があり小型化に限界がある。
自動車の自動運転以外の用途としても、自動車内における運転者の居眠り防止のために頭部の動きを検出する技術や、ジェスチャー動作検出、或いは自動走行ロボットの障害物回避などが有望視されている。
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
前記コンポーネント画像中における対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備えたことを特徴とする。
また、上記発明において、前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることが好ましい。
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備え、
前記シェーディング部は、
前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
前記所定部位の3次元形状のみを出力する機能と
を有し、
前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする。
前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
をさらに備えることが好ましい。
センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備えたことを特徴とする。
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
前記パケットデータを受信してデ・パケット化する手段と、
前記デ・パケット化されたデータを入力して画像を生成する手段と
をさらに備えることが好ましい。
上記発明において、前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることが好ましい。
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
また、上記発明では、前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力することが好ましい。
(近赤外線仮想画像生成システムの全体構成)
以下に添付図面を参照して、本発明に係る近赤外線仮想画像生成システムの実施形態について詳細に説明する。本実施形態では、自動運転に必須とされる様々なタイプのセンサーから撮像される実写画像を代替すべく、CG技術を用いて実写画像に極めて類似した画像を生成するシステムを構築する。図1は近赤外線の仮想画像を生成するためのブロック図である。
以上の構成を有する近赤外線仮想画像生成システムを動作させることによって、本発明の近赤外線仮想画像生成方法を実施することができる。
以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
本実施形態では、LiDARセンサーを用いた場合について述べる。本実施形態に係るシステムは、図6で実現され、シナリオ作成部10と、3Dモデリング部11と、シェーディング部15と、深度画像生成部16とから構成される。
次に、上記構成を有するLiDARセンサー仮想画像生成システムの動作について説明する。
L=(c×t)/2
により算出される。
次いで、本発明の第3実施形態に係る仮想画像のディープラーニング認識システムについて説明する。本実施形態では、第1実施形態で述べた近赤外線センサーを用いた仮想画像システム、及び第2実施形態で述べたLiDARセンサーを用いた仮想画像システムを、ディープラーニング認識システムなど、自動運転などで多用されているAI認識技術に適用し、実際に撮影不可能な環境での仮想環境画像を、様々なセンサーに対して供給可能とする。
図11は、現在最も実績が高いとされているバックプロパゲーション型のニューラルネットワークを用いたディープラーニング認識システムの構成図である。本実施形態に係るディープラーニング認識システムでは、ニューラルネットワーク計算部17とバックプロパゲーション部18とから概略構成される。
次いで、本発明の第4実施形態について説明する。上述した第2実施形態で述べたLiDARセンサーを用いた仮想画像システムの出力画像のうち、深度画像生成部16からは、深度画像D108が出力される。この深度画像が実際にレーザー光を想定した距離画像としてどの程度の精度があるかは、本シミュレーションシステムの評価ポイントとして非常に重要である。本実施形態では、この深度画像を評価する評価システムに本発明を適用した例を説明する。
図13に示すように、本実施形態に係る深度画像評価システムは、上述した深度画像生成部16から出力される深度画像D108の評価手段として構成されたものであり、TOF計算部19と、距離画像生成部20と、比較評価部21とから構成される。
次に、上述した構成を有する深度画像評価システムの動作について説明する。
深度画像生成部16により生成された深度画像D108は、TOF計算部19に入力された後、TOFの時間が計算される。このTOFは、図7で述べたtである。詳述すると、このTOFは、図14(a)に示すように、光源からレーザー光が投光パルスとしてパルス状に送出されると、この投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光される。その際の時間差を計測する。この時間差は、図14(b)に示すように、投光パルスと受光パルス間の遅れ時間に相当する。
L=(1/2)×c×t
(c:光速、t:TOF)
上記の計算によって照射部画像の各点の距離画像D114が、距離画像生成部20において生成される。その後、前記深度画像D108と、距離画像D114との間で比較計算が行われる。比較手段としては一般的に用いられている絶対値2乗誤差などで構わない。この値が大きくなるほど両者の差が大きいことになり、3D CGモデリングを基にした場合の深度画像が、実際にレーザー光のTOF(こちらの方が正しい)を想定して生成した距離画像とどの程度近いかを評価することができる。
次いで、本発明の第5実施形態について説明する。上述した第1実施形態〜第4実施形態までは、いずれも近赤外線画像もしくはLiDARセンサーの仮想画像を生成する手段に関するものであったが、本実施形態では、これらの仮想画像を用いて実際に自動運転の走行をリアルタイムで行う場合の制御について説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。
図15は、本実施形態に係るシミュレーターシステムの全体構成を示す概念図である。本実施形態に係るシミュレーターシステムは、単数又は複数のシミュレーション対象について、シミュレーションプログラムを実行するとともに、これらのシミュレータープログラムのテストや機械学習を実行する。このシミュレーターシステムは、図15に示すように、通信ネットワーク3上にシミュレーターサーバー2が配置され、このシミュレーターサーバー2に対して、通信ネットワーク3を通じて、自車両の位置を生成又は取得する情報処理端末1aや車載装置1bが接続されている。
次いで、各装置の構成について具体的に説明する。図16は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、図17は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、図16に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、図17に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210〜213とを備えている。
以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。図19は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
・自車の位置情報(路面絶対位置座標等の3次元座標(X,Y,Z))
・自車のオイラー角度
・タイヤの位置情報(タイヤの路面絶対位置座標等の3次元座標(X,Y,Z))
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
以下に添付図面を参照して、本発明に係るシステムの第6実施形態を詳細に説明する。図20は、本実施形態に係るシステムの全体構成を示す概念図である。図21は、本実施形態に係る装置の内部構成を示すブロック図である。上記第5実施形態では、主に自車両の台数が1台の場合に限った実施形態であったが、本実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。
さらに、本発明のシステムの第7実施形態について説明する。本実施形態では、複数個のセンサーを使った別の実施例について図22を用いて説明する。この図22では異なるデバイスのセンサーを搭載した例を示しており、同図においてディープラーニング認識部の1つは、例えばカメラのイメージセンサーであり、もう1つは例えば近赤外線センサーであり、又はLiDAR(Light Detection and Ranging)と仮定する。
D02(D02c〜f)…車両位置情報
D03(D03c〜f)…制御信号
D04…パケット情報
D05(D05c〜f)…データ
D06(D06c〜f)…認識結果情報
D100…シナリオ情報
D101…モデルデータ
D102…モデリング情報
D103,D106…シェーディング画像
D104…グレイスケール画像
D105,D108,D112…深度画像
D107…D形状データ
D109…誤差値
D110…計算値
D111…グレイスケール画像
D113…TOF値
D114…距離画像
D115…比較結果
D13…シミュレーション用画像
D61…3D点群データグラフィック画像
D62…認識結果
1…クライアント装置
1a…情報処理端末
1b…車載装置
1c〜1f…クライアント装置
2…シミュレーターサーバー
3…通信ネットワーク
4…車両同期シミュレーター・プログラム
5…クライアントプログラム
10…シナリオ作成部
114…LiDARスキャン装置
114a…レーザードライバー
114b…発光素子
114c…照射レンズ
114d…受光レンズ
114e…受光素子
114f…信号受光回路
114g…ミラー
11…3Dモデリング部
12…3Dシェーディング部
13…R画像グレイスケール化部
14…深度画像生成部
15…シェーディング部
15a…レーザー光照射部分抽出部
16…深度画像生成部
16a…レーザー光照射部分抽出部
17…ニューラルネットワーク計算部
18…バックプロパゲーション部
19…TOF計算部
20…距離画像生成部
21…比較評価部
51(51c〜f)…車両位置情報計算部
61〜6n…ディープラーニング認識部
84…学習結果同期部
101…ストレージ装置
102…CPU
102a…クライアント側実行部
103…メモリ
104…入力インターフェース
105…出力インターフェース
106,201…通信インターフェース
202…UDP同期制御部
203…画像生成部
204…画像認識部
204a…認識機能モジュール
204b…学習部
205…シミュレーション実行部
205c〜f…シミュレーション実行部
206…UDP情報送受信部
210…地図データベース
210〜213…種データベース
211…車両データベース
212…描画用データベース
402…CPU
611…出力
Claims (28)
- センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステムであって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備えたことを特徴とする画像生成システム。 - 前記コンポーネントは、RGB画像のうちのR成分のコンポーネントであることを特徴とする請求項1に記載の画像生成システム。
- 前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることを特徴とする請求項1に記載の画像生成システム。
- センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステムであって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備え、
前記シェーディング部は、
前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
前記所定部位の3次元形状のみを出力する機能と
を有し、
前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする画像生成システム。 - 前記センサー手段は近赤外線センサーであることを特徴とする請求項1又は4に記載の画像生成システム。
- 前記センサー手段は、照射されたレーザー光の反射光を検出するLiDARセンサーであることを特徴とする請求項1又は4に記載の画像生成システム。
- 前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることを特徴とする請求項1又は4に記載の画像生成システム。
- 実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことを特徴とする請求項1に記載の画像生成システム。
- 実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えた請求項4に記載の画像生成システム。
- 前記深度画像生成部により生成された深度画像から、光線の照射からその反射波を受信するまでにかかった所要時間をTOF情報として算出するTOF計算部と、
前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
をさらに備えた請求項1又は4に記載の画像生成システム。 - 前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することを特徴とする請求項10に記載の画像生成システム。
- 前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することを特徴とする請求項11に記載の画像生成システム。
- 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備え、
前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行する
ことを特徴とするシミュレーションシステム。 - 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備え、
前記シミュレーションシステムは、複数個のセンサーに対応した画像を生成する手段を備え、またそれぞれの生成された画像に対応した認識手段を備え、同該複数個の認識結果を用いて、前記同期制御を行う手段を備えている
ことを特徴とするシミュレーションシステム。 - 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備え、
請求項1又は請求項4に記載の画像生成システムを前記画像生成手段として備え、
前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
ことを特徴とするシミュレーションシステム。 - 前記同期制御手段は、
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
前記パケットデータを受信してデ・パケット化する手段と、
前記デ・パケット化されたデータを入力して画像を生成する手段と
を備えたことを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。 - 前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
- 前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
- 前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
- 上記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
- 前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることを特徴とする請求項13乃至15のいずれかに記載のシミュレーションシステム。
- センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するプログラムであって、コンピューターを、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部として
機能させることを特徴とする画像生成プログラム。 - センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するプログラムであって、コンピューターを、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
して機能させ、
前記シェーディング部は、
前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
前記所定部位の3次元形状のみを出力する機能と
を有し、
前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする画像生成プログラム。 - 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションプログラムであって、コンピューターを、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
機能させ、
前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
請求項22又は請求項23に記載の画像生成プログラムを前記画像生成手段として備える
ことを特徴とするシミュレーションプログラム。 - センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成する方法であって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオをシナリオ作成部が作成するシナリオ作成ステップと、
前記シナリオに基づいて前記対象物ごとに3Dモデリング部がモデリングを行う3Dモデリングステップと、
前記3Dモデリングステップで生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を3Dシェーディング部が生成する3Dシェーディングステップと、
前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出してコンポーネント抽出部が出力するコンポーネント抽出ステップと、
前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を深度画像生成部が生成する深度画像生成ステップと
を含むことを特徴とする画像生成方法。 - センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成する方法であって、
前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオをシナリオ作成部が作成するシナリオ作成ステップと、
前記シナリオに基づいて前記対象物ごとに3Dモデリング部がモデリングを行う3Dモデリングステップと、
前記3Dモデリングステップで生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を3Dシェーディング部が生成する3Dシェーディングステップと、
前記シェーディング画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を深度画像生成部が生成する深度画像生成ステップと
を含み、
前記シェーディング部は、
前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
前記所定部位の3次元形状のみを出力する機能と
を有し、
前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする画像生成方法。 - 請求項25又は請求項26に記載の画像生成方法を前記画像生成ステップとして含み、
前記画像生成方法における前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
ことを特徴とするシミュレーション方法。 - 車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーション方法であって、
位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
前記画像認識ステップおける認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
を備え、
請求項25又は請求項26に記載の画像生成方法を前記画像生成ステップとして含み、
前記画像生成方法における前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
ことを特徴とするシミュレーション方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/033729 WO2018066352A1 (ja) | 2016-10-06 | 2017-09-19 | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
US16/367,258 US20190236380A1 (en) | 2016-10-06 | 2019-03-28 | Image generation system, program and method, and simulation system, program and method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197999 | 2016-10-06 | ||
JP2016197999 | 2016-10-06 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018060512A JP2018060512A (ja) | 2018-04-12 |
JP2018060512A5 JP2018060512A5 (ja) | 2019-05-09 |
JP6548691B2 true JP6548691B2 (ja) | 2019-07-24 |
Family
ID=61908533
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017092950A Active JP6548691B2 (ja) | 2016-10-06 | 2017-05-09 | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
JP2017092949A Active JP6548690B2 (ja) | 2016-10-06 | 2017-05-09 | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017092949A Active JP6548690B2 (ja) | 2016-10-06 | 2017-05-09 | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US20190236380A1 (ja) |
JP (2) | JP6548691B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11908175B2 (en) | 2019-09-11 | 2024-02-20 | Samsung Electronics Co., Ltd. | Electronic device training image recognition model and operation method for same |
Families Citing this family (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769453B2 (en) * | 2017-05-16 | 2020-09-08 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling operation of vehicle |
JP6540482B2 (ja) * | 2015-12-04 | 2019-07-10 | 株式会社デンソー | 情報処理システム、情報処理装置及び出力制御方法 |
WO2018212538A1 (en) * | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
EP3644293B1 (en) * | 2017-06-20 | 2021-08-04 | Nissan Motor Co., Ltd. | Travel control method and travel control device |
JP6904849B2 (ja) * | 2017-08-14 | 2021-07-21 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム。 |
KR101989995B1 (ko) * | 2017-09-25 | 2019-06-17 | 엘지전자 주식회사 | 보행자에 대한 정보 획득 방법 및 차량용 통신 장치 |
US11365976B2 (en) * | 2018-03-02 | 2022-06-21 | Nvidia Corporation | Semantic label based filtering of objects in an image generated from high definition map data |
US10877152B2 (en) * | 2018-03-27 | 2020-12-29 | The Mathworks, Inc. | Systems and methods for generating synthetic sensor data |
US10816984B2 (en) * | 2018-04-13 | 2020-10-27 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
JP6863596B6 (ja) * | 2018-04-24 | 2021-06-02 | シンメトリー・ディメンションズ・インク | データ処理装置及びデータ処理方法 |
JP7117376B2 (ja) * | 2018-06-22 | 2022-08-12 | 日立Astemo株式会社 | 電子制御ユニットの評価装置 |
KR102130596B1 (ko) * | 2018-06-25 | 2020-07-06 | 군산대학교 산학협력단 | Yuv 기반 세그먼테이션 및 오그먼테이션에 따른 자율 주행 시스템 및 그 방법 |
SG10201807451WA (en) * | 2018-08-30 | 2020-03-30 | Astropreneurs Hub Pte Ltd | System and method for simulating a network of vehicles |
DE102018214878A1 (de) * | 2018-08-31 | 2020-03-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
CN109117825B (zh) | 2018-09-04 | 2020-01-17 | 百度在线网络技术(北京)有限公司 | 车道线处理方法和装置 |
US10565476B1 (en) * | 2018-09-04 | 2020-02-18 | StradVision, Inc. | Method and computing device for generating image data set for learning to be used for detection of obstruction in autonomous driving circumstances and learning method and learning device using the same |
CN109255181B (zh) | 2018-09-07 | 2019-12-24 | 百度在线网络技术(北京)有限公司 | 一种基于多模型的障碍物分布仿真方法、装置以及终端 |
CN109146898B (zh) | 2018-09-07 | 2020-07-24 | 百度在线网络技术(北京)有限公司 | 一种仿真数据量增强方法、装置以及终端 |
CN109143242B (zh) | 2018-09-07 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 障碍物绝对速度估计方法、系统、计算机设备和存储介质 |
CN109215136B (zh) | 2018-09-07 | 2020-03-20 | 百度在线网络技术(北京)有限公司 | 一种真实数据增强方法、装置以及终端 |
CN109215135B (zh) | 2018-09-07 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 一种基于统计的障碍物位置仿真方法、装置以及终端 |
CN109059780B (zh) | 2018-09-11 | 2019-10-15 | 百度在线网络技术(北京)有限公司 | 检测障碍物高度的方法、装置、设备及存储介质 |
CN109165629B (zh) | 2018-09-13 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 多焦距视觉障碍物感知方法、装置、设备及存储介质 |
US20200097021A1 (en) * | 2018-09-19 | 2020-03-26 | Continental Automotive Systems, Inc. | Autonomous Farm Equipment Hitching To A Tractor |
US10902279B2 (en) * | 2018-09-25 | 2021-01-26 | Honda Motor Co., Ltd. | Training saliency |
US11428817B2 (en) | 2018-10-11 | 2022-08-30 | Baidu Usa Llc | Automatic LIDAR calibration based on cross validation for autonomous driving |
KR102164950B1 (ko) * | 2018-10-26 | 2020-10-13 | 계명대학교 산학협력단 | 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템 |
US11120297B2 (en) | 2018-11-30 | 2021-09-14 | International Business Machines Corporation | Segmentation of target areas in images |
US20190138848A1 (en) * | 2018-12-29 | 2019-05-09 | Intel Corporation | Realistic sensor simulation and probabilistic measurement correction |
JP7056592B2 (ja) * | 2019-01-17 | 2022-04-19 | Jfeスチール株式会社 | 金属材料の製造仕様決定方法、製造方法、および製造仕様決定装置 |
KR102181355B1 (ko) * | 2019-01-17 | 2020-11-20 | 주식회사 엠제이비전테크 | 인공지능 기반 차량 검색 시스템 |
JP6995068B2 (ja) * | 2019-01-21 | 2022-01-14 | 先進モビリティ株式会社 | 自動運転車両の軌跡設計走行制御検証方法 |
KR102103450B1 (ko) * | 2019-01-30 | 2020-04-22 | 한국기술교육대학교 산학협력단 | 분산 시뮬레이션 기반 첨단 운전자 지원 시스템 |
CN109703568B (zh) | 2019-02-19 | 2020-08-18 | 百度在线网络技术(北京)有限公司 | 自动驾驶车辆行驶策略实时学习的方法、装置和服务器 |
JP2020131248A (ja) * | 2019-02-21 | 2020-08-31 | Jfeスチール株式会社 | 圧延荷重予測方法、圧延荷重予測装置、及び圧延制御方法 |
CN109712421B (zh) | 2019-02-22 | 2021-06-04 | 百度在线网络技术(北京)有限公司 | 自动驾驶车辆的速度规划方法、装置和存储介质 |
US12106455B2 (en) | 2019-03-19 | 2024-10-01 | Hitachi Astemo, Ltd. | Autonomous vehicle system testing simulator |
JP2020164045A (ja) * | 2019-03-29 | 2020-10-08 | マツダ株式会社 | 車両走行制御装置 |
JP7319094B2 (ja) * | 2019-06-06 | 2023-08-01 | 日野自動車株式会社 | 運転支援制御装置 |
KR102256644B1 (ko) * | 2019-07-26 | 2021-05-27 | 서울시립대학교 산학협력단 | Bim 객체 모델을 이용한 인공지능 교통신호 호스트 서버 및 이를 포함하는 제어 시스템 및 제어 방법 |
JPWO2021024805A1 (ja) * | 2019-08-06 | 2021-02-11 | ||
JP7330278B2 (ja) * | 2019-09-02 | 2023-08-21 | 三菱電機株式会社 | 自動運転制御装置および自動運転制御方法 |
JP7414434B2 (ja) | 2019-09-10 | 2024-01-16 | 株式会社日立製作所 | 認識モデル配信システム及び認識モデルの更新方法 |
JP7454353B2 (ja) * | 2019-10-18 | 2024-03-22 | 日立Astemo株式会社 | 処理装置、及びそれを用いた外界認識装置 |
US11454978B2 (en) * | 2019-11-07 | 2022-09-27 | Naver Corporation | Systems and methods for improving generalization in visual navigation |
US10816993B1 (en) * | 2019-11-23 | 2020-10-27 | Ha Q Tran | Smart vehicle |
KR102240403B1 (ko) * | 2019-12-24 | 2021-04-14 | 아주대학교 산학협력단 | 이미지 평활화 방법 및 이미지 평활화 장치 |
JP6992099B2 (ja) * | 2020-01-16 | 2022-01-13 | 本田技研工業株式会社 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
WO2021154459A1 (en) * | 2020-01-30 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
US11814080B2 (en) | 2020-02-28 | 2023-11-14 | International Business Machines Corporation | Autonomous driving evaluation using data analysis |
US11702101B2 (en) | 2020-02-28 | 2023-07-18 | International Business Machines Corporation | Automatic scenario generator using a computer for autonomous driving |
US11644331B2 (en) | 2020-02-28 | 2023-05-09 | International Business Machines Corporation | Probe data generating system for simulator |
US20230101876A1 (en) * | 2020-03-24 | 2023-03-30 | Sony Semiconductor Solutions Corporation | Rendering system and automated driving verification system |
WO2021205615A1 (ja) * | 2020-04-09 | 2021-10-14 | 三菱電機株式会社 | 教師データ生成装置、および、教師データ生成方法 |
EP4150367A1 (en) | 2020-05-13 | 2023-03-22 | National Instruments Corporation | System for emulating an environment for testing a frequency modulated continuous wave (fmcw) light detection and ranging (l1dar) system |
CN111505965B (zh) * | 2020-06-17 | 2020-09-29 | 深圳裹动智驾科技有限公司 | 自动驾驶车辆仿真测试的方法、装置、计算机设备及存储介质 |
DE112021003088T5 (de) | 2020-09-07 | 2023-04-27 | Hitachi Astemo, Ltd. | Bilderkennungs-simulatorvorrichtung |
JP7422043B2 (ja) * | 2020-09-25 | 2024-01-25 | 日立Geニュークリア・エナジー株式会社 | 作業シミュレーション装置および学習装置 |
TWI770699B (zh) * | 2020-10-14 | 2022-07-11 | 台達電子工業股份有限公司 | 訓練影像的自動生成系統及其方法 |
CN112464373B (zh) * | 2020-11-25 | 2023-06-06 | 中汽研(天津)汽车工程研究院有限公司 | 多循环制动工况车辆盘式制动器温度变化高精度仿真方法 |
DE102020215657A1 (de) | 2020-12-10 | 2022-06-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs |
JP2022099651A (ja) * | 2020-12-23 | 2022-07-05 | ソニーセミコンダクタソリューションズ株式会社 | 画像生成装置、画像生成方法、およびプログラム |
CN112926381B (zh) * | 2021-01-08 | 2022-06-21 | 浙江大学 | 一种基于激光检测技术的水下目标识别系统 |
US20220269937A1 (en) * | 2021-02-24 | 2022-08-25 | Nvidia Corporation | Generating frames for neural simulation using one or more neural networks |
CN113807184B (zh) * | 2021-08-17 | 2024-06-21 | 北京百度网讯科技有限公司 | 障碍物检测方法、装置、电子设备及自动驾驶车辆 |
CN113820694B (zh) * | 2021-11-24 | 2022-03-01 | 腾讯科技(深圳)有限公司 | 一种仿真测距的方法、相关装置、设备以及存储介质 |
KR102625974B1 (ko) * | 2021-11-29 | 2024-01-18 | 주식회사 오비고 | 자율주행차량의 운행 검증에 필요한 검증 시나리오를 편집하는 방법 및 이를 이용한 서버 |
US20230278589A1 (en) | 2022-03-07 | 2023-09-07 | Woven By Toyota, Inc. | Autonomous driving sensor simulation |
US12008681B2 (en) * | 2022-04-07 | 2024-06-11 | Gm Technology Operations Llc | Systems and methods for testing vehicle systems |
WO2024095572A1 (ja) * | 2022-11-04 | 2024-05-10 | 日本ペイント・インダストリアルコーティングス株式会社 | 塗料組成物及び塗膜 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355272A (ja) * | 2003-05-28 | 2004-12-16 | Toyota Motor Corp | 緊急車両の接近通知システム |
JP2007066045A (ja) * | 2005-08-31 | 2007-03-15 | Hitachi Ltd | シミュレーション装置 |
US9639748B2 (en) | 2013-05-20 | 2017-05-02 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting persons using 1D depths and 2D texture |
JP6266238B2 (ja) * | 2013-07-03 | 2018-01-24 | クラリオン株式会社 | 接近物検出システム、及び車両 |
US9493170B2 (en) * | 2014-01-29 | 2016-11-15 | Continental Automotive Systems, Inc. | Method for reducing false activations in reverse collision avoidance systems |
JP6462328B2 (ja) * | 2014-11-18 | 2019-01-30 | 日立オートモティブシステムズ株式会社 | 走行制御システム |
US9733342B1 (en) * | 2015-01-29 | 2017-08-15 | Waymo Llc | Radar target simulation using a high speed tunable short |
US9811756B2 (en) | 2015-02-23 | 2017-11-07 | Mitsubishi Electric Research Laboratories, Inc. | Method for labeling images of street scenes |
US9910441B2 (en) * | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
US9754490B2 (en) * | 2015-11-04 | 2017-09-05 | Zoox, Inc. | Software application to request and control an autonomous vehicle service |
US9632502B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9720415B2 (en) * | 2015-11-04 | 2017-08-01 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
US9606539B1 (en) * | 2015-11-04 | 2017-03-28 | Zoox, Inc. | Autonomous vehicle fleet service and system |
US10334050B2 (en) * | 2015-11-04 | 2019-06-25 | Zoox, Inc. | Software application and logic to modify configuration of an autonomous vehicle |
US10248119B2 (en) * | 2015-11-04 | 2019-04-02 | Zoox, Inc. | Interactive autonomous vehicle command controller |
US10496766B2 (en) * | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
US9734455B2 (en) * | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
EP3475778B1 (en) * | 2016-06-28 | 2024-07-10 | Cognata Ltd. | Realistic 3d virtual world creation and simulation for training automated driving systems |
US10592805B2 (en) * | 2016-08-26 | 2020-03-17 | Ford Global Technologies, Llc | Physics modeling for radar and ultrasonic sensors |
-
2017
- 2017-05-09 JP JP2017092950A patent/JP6548691B2/ja active Active
- 2017-05-09 JP JP2017092949A patent/JP6548690B2/ja active Active
-
2019
- 2019-03-28 US US16/367,258 patent/US20190236380A1/en not_active Abandoned
- 2019-03-28 US US16/367,257 patent/US10565458B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11908175B2 (en) | 2019-09-11 | 2024-02-20 | Samsung Electronics Co., Ltd. | Electronic device training image recognition model and operation method for same |
Also Published As
Publication number | Publication date |
---|---|
JP6548690B2 (ja) | 2019-07-24 |
JP2018060512A (ja) | 2018-04-12 |
JP2018060511A (ja) | 2018-04-12 |
US20190236380A1 (en) | 2019-08-01 |
US10565458B2 (en) | 2020-02-18 |
US20190220029A1 (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6548691B2 (ja) | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 | |
US12020476B2 (en) | Data synthesis for autonomous control systems | |
US11593950B2 (en) | System and method for movement detection | |
TWI703064B (zh) | 用於在不良照明狀況下定位運輸工具的系統和方法 | |
WO2018066352A1 (ja) | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 | |
US20230251656A1 (en) | Generating environmental parameters based on sensor data using machine learning | |
WO2018066351A1 (ja) | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 | |
US10031526B1 (en) | Vision-based driving scenario generator for autonomous driving simulation | |
US11487988B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP2024055902A (ja) | 手続き的な世界の生成 | |
KR20210058696A (ko) | 3d 대상체 검출을 위한 순차 융합 | |
US20190065637A1 (en) | Augmenting Real Sensor Recordings With Simulated Sensor Data | |
CN110796692A (zh) | 用于同时定位与建图的端到端深度生成模型 | |
CN109725634A (zh) | 用于自动驾驶车辆的使用分色镜的3d lidar系统 | |
US11841434B2 (en) | Annotation cross-labeling for autonomous control systems | |
JP6645492B2 (ja) | 撮像装置および撮像方法 | |
US11798289B2 (en) | Streaming object detection and segmentation with polar pillars | |
Barua et al. | A self-driving car implementation using computer vision for detection and navigation | |
CN116664970A (zh) | 一种基于迁移学习的毫米波雷达稠密点云生成方法及系统 | |
US20220371606A1 (en) | Streaming object detection and segmentation with polar pillars | |
US11682140B1 (en) | Methods and apparatus for calibrating stereo cameras using a time-of-flight sensor | |
US20240029451A1 (en) | Visual presentation of vehicle positioning relative to surrounding objects | |
Princiotto | Exploiting infrastructure sensors for advanced vehicle manoeuvring assistance | |
TW202430840A (zh) | 路徑規劃系統及其路徑規劃方法 | |
KR20230095581A (ko) | 객체 인식용 훈련 데이터 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190313 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190313 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190313 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6548691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |