JPWO2018020954A1 - 機械学習用データベース作成システム - Google Patents

機械学習用データベース作成システム Download PDF

Info

Publication number
JPWO2018020954A1
JPWO2018020954A1 JP2018529463A JP2018529463A JPWO2018020954A1 JP WO2018020954 A1 JPWO2018020954 A1 JP WO2018020954A1 JP 2018529463 A JP2018529463 A JP 2018529463A JP 2018529463 A JP2018529463 A JP 2018529463A JP WO2018020954 A1 JPWO2018020954 A1 JP WO2018020954A1
Authority
JP
Japan
Prior art keywords
information
dimensional
unit
machine learning
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018529463A
Other languages
English (en)
Other versions
JP6770577B2 (ja
Inventor
佑介 日永田
佑介 日永田
拓久哉 中
拓久哉 中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2018020954A1 publication Critical patent/JPWO2018020954A1/ja
Application granted granted Critical
Publication of JP6770577B2 publication Critical patent/JP6770577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/56Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

簡便に大量の仮想画像データと教師データを自動作成可能な機械学習用データベース作成システムを提供することを目的とする。3次元形状情報計測手段により取得した地形や建物の3次元形状情報を入力する3次元形状データ入力部と、環境情報を3次元形状情報から自動的に認識し分類を行う3次元シミュレータ部と、3次元シミュレータ部が認識した環境情報およびセンサのセンサパラメータに基づき、仮想センサデータおよび教師データを出力する教師データ出力部と、を有する機械学習用データベース作成システム。

Description

本発明は、機械学習用データベース作成システムに関する。
一般に鉱山においては、土砂の採掘作業および運搬作業として油圧ショベルやダンプトラックなどの鉱山用作業機械が用いられている。鉱山に用いられる鉱山用作業機械としては、安全性や低コスト化の観点から無人化が求められる。ダンプトラックにおいては、単位時間当たりの土砂の運搬量が採掘の進捗度に直結するため、効率の良い運用が求められる。したがって、土砂を効率良く採掘現場の外に大量に運搬するためには、連続運転可能な自律走行式のダンプトラックを用いた鉱山システムが必要とされている。
ところが、ダンプトラックを走行させる鉱山の走行路はオフロードであって悪路が多いため、ダンプトラックを自律走行させて無人運転させる際、土壁や他車両等の障害物との衝突が懸念される。仮に、走行路上に障害物が生じ、自律走行式の無人のダンプトラックが障害物と接触して停止した場合には、鉱山の運行を長時間に亘って停止させてしまう。よって、自律走行式のダンプトラックの信頼性を高めるためには、前方車両や走行路上の障害物を早期に検知して、前方車両の追従走行や障害物の回避走行を行わせることが可能な信頼性の高い障害物検知システムが必要となる。
従来、この種の前方車両および障害物検知システムとしては、ミリ波レーダ、レーザセンサ、カメラまたはステレオカメラ等の障害物検知装置が用いられている。ミリ波レーダは砂埃や雨などが生じた場合も動作可能な高い耐環境性を有し、測定距離性能も高い。一方で、ステレオカメラやレーザセンサは、三次元形状を計測できるため、路上の障害物を精度よく検出することができる。これらのセンサを組み合わせることで、障害物の検出性能を向上させる方法もある。
また、高性能な障害物検出システム及び物体認識システムを開発するにあたって、近年では機械学習が用いられることがある。機械学習では、各センサのデータを大量に集めることにより、傾向を分析し、パラメータ決定を行う。旧来は閾値を設計データや検証実験によるデータに基づき人手で設計することが多かったが、この手法は設計者の経験に基づいており、信頼性が低く、また設計工数も大きくなる。こういった問題を解決するために、現在では機械学習を用いてパラメータ設計を行うことが大半である。
一例として乗用車の衝突防止システム向けのカメラによる自動車などの検出システムを挙げる。まず、対象の車両に取り付けたカメラで様々な場所や、日時において他車両を撮影し、撮影した画像データを集める。続いて、この撮影した画像データのどの箇所がシステムで検出すべき車両であるかを示す、教師データを作成する。この教師データは一般的に画像データ一枚ごとに人手で作成することが多い。この画像データと作成した教師データを用いて、機械学習させることにより、自動車の画像上の特徴を学習することができ、またこの学習した結果に基づきパラメータ設定することにより、画像中の人を計算機で自動的に認識することのできる物体認識システムを開発することができる。こういった機械学習システムとして近年よく用いられているのはSupport Vector MachineやBoosting、ニューラルネットワークなどの手法である。
しかしながら、この機械学習を用いた物体認識システムには実装する上でいくつか問題がある。ひとつは大量の画像データを収集するコストの問題である。機械学習システムに基づいた物体認識システムを開発する場合、学習させるために大量の画像データと教師データを準備する必要がある。類似の情報を学習データとして与えていない場合、認識できない。例えば自動車を検出するシステムを作成する場合、自動車を後方から撮影した画像データと教師データを与えた場合、このシステムでは自動車の前方部が見えた場合に、その車両を検出することは難しい。そのため、あらゆる姿勢の自動車を検出可能な物体認識システムを開発するためには、機械学習用の画像データを収集する際に、あらゆる姿勢の自動車の画像データを収集しなければならない。
もうひとつは教師データを収集するコストの問題である。前述したとおり、教師データは一般的に画像データ一枚ごとに人手で作成することが多い。例えば、自動車を検出するシステムの場合は、事前に撮影した大量の画像データに対し、自動車が占める領域を矩形などで指定していき、その指定した領域を教師データとして与える方法である。一般的に機械学習による物体認識システムではこういった画像データと教師データのペアを数万から数百万単位で必要とするため、機械学習のための教師データの作成には大きなコストがかかっている。
また、こういったシステムを鉱山で実施する場合、一般道と環境が大きく異なるため、鉱山環境で撮影した画像データを用い機械学習するのが望ましい。しかし、規格が統一されている一般道に比べ、鉱山環境は採掘対象、現場の地質等によって大きく異なるため、ある鉱山で撮影、作成した画像データ、及び教師データを他の鉱山用の物体認識システム用の学習データとして流用することが困難である。そういった問題を解決するためには、この画像データ、及び教師データを鉱山の現場ごとに作成することで、より高い検出性能を有した物体認識システムを実装することができるが、これを実現するためには前述した画像データ及び教師データの作成コストの高さがネックになってしまう。
例えば特許文献1にはプログラムコードで記述されたシナリオに従って、入力画像とこの入力画像に対する画像処理の期待値としての教師画像からなる複数の画像情報を生成し、前記生成された複数の学習情報を機械学習により、画像処理アルゴリズムを合成する機械学習モジュールを有した情報処理装置が公開されている。
特開2016−71597公報
しかしながら、この手法は事前に撮影した複数の原画像と教師データを元に、類似の学習情報を生成するため、画像データの撮影と教師データの人手による作成は行う必要がある。本手法を用いて画像データと教師データの作成コストを減らすためには、教師データを作成するための元となる原画像を減らすしかないが、機械学習による物体認識システムでは、学習情報を与える際に、それぞれ似通った情報を与えた場合、過学習により検出性能が下がることが一般的に知られている。そのため、特許文献1の手法を少ない原画像を元に適用した場合、過学習が起こる可能性があり、これを避けるためには原画像を大量に集める必要性があり、結果としてこの手法によって削減できる画像データと教師データの作成コストは微小であると想定される。
本発明は、以上の課題を鑑みてなされたものであり、簡便に大量の仮想画像データと教師データを自動作成可能な機械学習用データベース作成システムを提供することを目的とする。
上記課題を解決するための本発明の特徴は、例えば以下の通りである。
3次元形状情報計測手段により取得した地形や建物の3次元形状情報を入力する3次元形状データ入力部と、環境情報を3次元形状情報から自動的に認識し分類を行う3次元シミュレータ部と、3次元シミュレータ部が認識した環境情報およびセンサのセンサパラメータに基づき、仮想センサデータおよび教師データを出力する教師データ出力部と、を有する機械学習用データベース作成システム。
本発明により、簡便に大量の仮想画像データと教師データを自動作成可能な機械学習用データベース作成システムを提供できる。上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。
本発明の一実施形態の構成を示した図である。 本発明の一実施形態の詳細の構成の一例について示した図である。 地形の3次元形状情報を取得する構成の一例である。 地形の3次元形状を生成する手法の一例である。 3次元環境認識部の処理手順の一例である。 3次元環境認識部の認識結果の一例である。 本発明の一実施形態で取り扱う物体3次元形状データの一例である。 3次元仮想空間生成部において生成したシーンの一例である。 仮想センサデータ生成部において生成した仮想センサデータの一例である。 教師データ生成部において生成した教師データの一例である。 生成した仮想センサデータと教師データを用いて物体認識アルゴリズムを動作させる方式の一例である。 物体認識アルゴリズムによる検出結果の一例である。
以下、図面等を用いて、本発明の実施形態について説明する。以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。また、本発明を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。
本実施例は、本発明を用いて機械学習用データベースを作成し、そのデータベースによって学習した機械学習システムによる物体認識システムを構成する場合の一例である。機械学習用データベースは、例えば、自律走行車両向けの外界センシングシステムのための物体検出に用いられる。
本実施例に係る機械学習用データベースでは、環境の3次元形状データと検出したい対象の物体の3次元形状データを入力することにより、3次元シミュレータ部において自動的にシーンを作成し、仮想画像データと教師データを人手によることなく自動的に生成することができる。これにより、機械学習を用いた物体認識システムを実装する上で必要な画像データと教師データといった学習情報を低コストで提供することが可能な、機械学習用データベース自動生成システムを提供することができる。
本実施例に係るセンサキャリブレーションシステムにおいては、例えばUAVなどを用いた3次元形状情報取得手段により、キャリブレーション用のランドマークの位置及び形状を正確に測定し、かつ車両位置を推定することで、センサ間位置及びセンサ車両間の位置を高精度に推定、補正することができる。これによりセンサを用いた障害物検出システムを健全に動作させることが可能となる。
図1は、本実施例の構成について示した図である。図2は、本発明の一実施形態の詳細の構成の一例について示した図である。図3は、地形の3次元形状情報を取得する構成の一例である。
本実施例ではまず、3次元形状データ入力部11において計測対象3の地形の3次元形状情報を取得し、続いて車両情報、センサ情報を3次元シミュレータ部12に入れることにより、環境の仮想空間を生成する。続いてその仮想空間の情報と、事前に得られた車両情報とセンサ情報に基づいて、教師データ出力部13において仮想画像データ、教師データ群を機械学習システムに教師用データのデータベースとして与える。これにより、機械学習システムが仮想画像データと教師データをもとに学習し、覚えさせた計測対象の物体を認識することが可能な物体認識システムを構築することができる。
続いて、本実施例の詳細な構成について図2に示す。以降この構成に基づき、本実施例について説明する。
まず、環境3次元情報取得手段45を用い、3次元形状データ入力部11の地形3次元形状データ入力部111に計測対象3の3次元形状データを与える。3次元形状を計測する方法(3次元形状情報計測手段)としては例えば図3に示すようなUAV2(無人航空機)に空撮用カメラ21やLidarなどのセンサを取り付ける方法などが考えられる。このとき、環境3次元形状情報取得手段45は例えば無人航空機、及び有人航空機、人工衛星などの機体にカメラ、Lidar、ミリ波レーダ、超音波センサ及びそれに類する環境の形状もしくは環境の輝度、色情報、温度情報を取得することが可能なセンサを取り付け、計測し、取得したものとするが、3次元形状情報が取得可能であればこの構成は限定されない。また、自動車にカメラやLidar及びGPSを取り付けた構成などでも環境の3次元形状データを取得可能である。
図2に示すようにUAV2と空撮用カメラ21を用いて計測対象3の地形の3次元形状情報を取得する場合、この構成ではまず、計測対象3の上空を飛行させる。この際に、空撮用カメラ21で計測対象3を連続撮影する。このとき、撮影した画像の前後が80%前後、横が60%前後他の撮影した画像と重なるよう撮影するのが望ましいとされている。
続いて、UAV2を用いて撮影した画像から3次元形状情報を取得する方法について図4に示す。図4は、地形の3次元形状を生成する手法の一例である。UAV2によって撮影した画像211を用いて、3次元復元用計算機4上に実装されたアルゴリズムである3次元点群生成部41では、Structure from Motion(SfM)及びMulti View Stereo(MVS)を用いることで、計測対象3の3次元形状情報を点群情報として得ることができる。この3次元点群情報を元に、サーフェイス生成部42ではこれをメッシュ化し、テクスチャ情報とサーフェイスの法線ベクトル情報を有した3次元サーフェイス情報を生成する。この3次元形状情報を3次元形状情報格納部43に保存する。なおこれらの技術に関しては、公知の技術のため、ここでは割愛する。こうして計測対象の3次元地形形状データ44を得ることができた。
続いて、機械学習システム51を用いた物体認識システムにおいて計測対象としたい物体の3次元情報を物体3次元情報取得手段46において計測し、3次元形状情報を3次元の点群、及びメッシュ情報として、3次元形状データ入力部11の物体3次元形状データ入力部112に与える。このとき、この物体3次元情報取得手段46は環境3次元情報取得手段45と類似の構成が考えられる。例えば、単眼カメラもしくは複数カメラとSfM及びMVSを用いることにより、物体の3次元形状情報を取得する手段や、あるいはLidarを用いて計測する方法などが考えられる。なお、これらの技術も公知であるため、ここでは割愛する。なお、物体の3次元形状情報を物体3次元形状データ入力部112に入力する際、この情報はメートルなど実際のスケール情報を有した情報で与えるとし、また物体3次元形状情報の上下方向の情報も与えることとする。例えば、入力する物体の情報が車両の場合、タイヤ部分を下方向とし、屋根方向を物体の上方向と設定する。
なお、このとき物体3次元情報取得手段46から与える3次元形状情報は複数種類でも良い。例えば、最終的にダンプトラック、ショベルカー、及び作業者を認識可能な物体認識システムを構成する場合、物体3次元形状データ入力部112には、ダンプトラック、ショベルカー、及び作業者の3次元形状データを入力する。
以上により、必要な3次元形状情報を3次元形状データ入力部11が取得できたので、続いてこれらの情報を用いた処理について説明する。
地形3次元形状データ入力部111は受け取った地形の3次元形状情報を3次元環境認識部121に渡す。3次元環境認識部121ではこの情報を元に、受け取った地形の環境情報を自動的に認識する。一例として、図5に3次元環境認識部121が地形の3次元形状情報から、任意の車両の走行可能領域を環境情報として抽出する手法について解説する。図5は、3次元環境認識部の処理手順の一例である。
まず、ターゲットとする環境の地形の3次元形状情報を取得する。例えば、A鉱山で利用するシステムの場合、ここにはA鉱山の3次元形状情報を入力する(S11)。ここでは、その3次元形状情報は3次元の点群情報として受け取ると仮定する。続いて、検出対象の物体の3次元形状情報を取得する(S12)。続いて対象とする自車両の情報と、センサの情報を取得する(S13)。ここで対象とする自車両とは、例えば、作成するデータベースを用いて、実装する物体認識システムを車種A向けに開発したいとする場合、ここでは車種Aの情報を自車両の情報として与える。このとき、与える情報は自車両の形状や、走行する際の速度域、上り坂、下り坂の走破性能、段差や障害物などの乗り越え性能などである。センサ情報は障害物を認識させるために自車に搭載するセンサの種別や、計測性能であり、例えばセンサとしてカメラを対象とする場合は、カメラの解像度、フレームレート、レンズの焦点距離、歪みなどの内部パラメータ、及びカメラの設置位置、角度といったセンサの設置位置情報を与える。続いて、得られた情報に基づき、得られた地形情報から自車の走行可能領域を推定する。まず、3次元点群の各点とその周囲の点に基づき、法線ベクトルを各点ごとに算出する(S14)。このとき、法線ベクトルを算出する基準となる任意の点に対する周囲の点は、任意の点から距離ε1以内にあることを判断基準とする。距離ε1はユーザによって事前に設定される閾値である。このとき、任意の点に対する周囲の点の探索にはKd−tree法やLSH法などの高速な近傍点探索手法を用いることが望ましい。続いて算出した各点の法線ベクトルを重力のベクトルと傾きを比較する。このとき、θ以上傾いている法線ベクトルを有す点群を削除する(S15)。このとき、θは自車両が登坂、降坂可能な角度に基づき設定するのが望ましい。続いて、残った点群に対し、これらを点群間のユークリッド距離に基づきクラスタリング処理を実施する(S16)。このクラスタリング処理では事前に設定した閾値ε2に基づき、点群をクラスタリングする。例えば任意の点Aと点Bに対し、閾値ε2以内の点は繋がっているとし、閾値ε2以上離れている点は繋がっていないと判断したとき、任意の点Aと任意の点Bの距離が閾値ε2以上離れている場合でも、他の閾値ε2以内の距離にある点を伝うことで、任意の点Bにたどり着くことができる場合、この点Aと点Bは同じクラスに分類されるとする。点群のすべての点のクラスタリングを実施後、すべての点を3次元座標から高さを取り除いた2次元座標系に投影する。S16で分類したクラスごとに構成される点群すべてを過不足なく包含する矩形を求め、その面積が事前の閾値以下の領域は走行可能領域ではないとしてそれらのクラスに属す点群を除去する(S17)。これらの処理の後、残った領域を走行可能な領域とし、環境情報として記録する(S18)。
以上の処理によって抽出された環境情報の一例を図6に示す。ここで、領域Aは空白の領域、領域Bは自車が走行不可能な領域、領域Cは自車が走行可能な領域と分類されている。図6は、3次元環境認識部の認識結果の一例である。
続いて、3次元環境認識部121で認識した環境情報をシナリオ自動作成部122に与える。シナリオ自動作成部では、得られた地形の3次元形状情報と物体の3次元形状情報から、シーンを作成する役割を有している。例えば物体認識システムの検出対象として図7のようなダンプトラックの物体3次元形状データ1121が与えられたとする。図7は、本発明の一実施形態で取り扱う物体3次元形状データの一例である。
続いて、シナリオ自動作成部122ではこのダンプトラックと、3次元環境認識部121から与えられた地形の3次元形状データ及び、環境情報から、このダンプトラックがどこの領域になら存在しうるかを判定する。例えば、3次元環境認識部121で走行可能な領域であると判定した点群からランダムに1点を選択し、そこにダンプトラックを配置する場合、ダンプトラックのフットプリントが走行可能な領域から逸脱しないかを判定する。逸脱している場合は、再度点をランダムに選択し、逸脱していなかった場合はその箇所にダンプトラックを配置すると決定する。それらの情報をシナリオ自動作成部122は3次元仮想空間生成部125に与え、シナリオ自動作成部122が設定したシナリオに基づきダンプトラックを仮想的に配置する。その一例を図示したものを図8に示す。図8は、3次元仮想空間生成部において生成したシーンの一例である。
3次元地形形状データ44にダンプトラックの物体3次元形状データ1121が合成されている様子がわかる。また、ダンプトラックの物体3次元形状データ1121は、走行可能領域上に配置されている。以上の処理に基づき、3次元シミュレータ部12において、3次元仮想空間が生成された。
最後に生成した3次元仮想空間の情報に基づき、教師データ出力部13の教師データ生成部131において教師データを、仮想センサデータ生成部132において仮想センサデータを生成する。まず3次元シミュレータ部12の車両パラメータ入力部123において入力された車両情報に基づき、3次元仮想空間上の自車の位置を決定する。これは、シナリオ自動作成部122において説明した物体3次元形状データ1121を配置する手法と同様であるが、事前に配置した物体3次元形状データ1121のフットプリントと、自車のフットプリントが重畳する場合は、再度点の選択をやり直す。続いて自車の位置が設定されたら、124のセンサパラメータ入力部124において入力されたパラメータに応じて、仮想センサデータ生成部132において仮想のセンサデータを生成する。例えば、入力されたセンサデータがカメラのものだった場合、カメラの設置位置、画像素子の性能、及びレンズの性能、歪みに基づいて透視投影変換により、カメラが取得できるであろう2次元画像を生成する。この処理によって生成される仮想センサデータ1321の一例を図9に示す。図9は、仮想センサデータ生成部において生成した仮想センサデータの一例である。
続いて、仮想センサデータ1321に対応する教師データを作成する。教師データの作成には3次元環境認識部121によって認識された環境情報を用いる。例えば、3次元環境認識部121において、地形の3次元形状情報を構成する各点ごとに環境情報が分類されていた場合、仮想センサデータとして得られる2次元画像の画素ごとに環境情報を持った教師データを教師データ生成部131において生成する。例えば、図10のように仮想センサデータ1321が生成された場合、画素毎の環境情報を教師データとして作成するので、教師データ生成部では教師データ1311を生成することになる。以上により、仮想センサデータ1321と教師データ1311を生成することができた。図10は、教師データ生成部において生成した教師データの一例である。
その後、再度シナリオ自動作成部122の処理に戻り、新たなシナリオを生成し、仮想センサデータと教師データを生成する。この処理を繰り返すことで、大量の仮想センサデータと教師データを生成する。その様子を図11に示す。図11は、生成した仮想センサデータと教師データを用いて物体認識アルゴリズムを動作させる方式の一例である。
仮想センサデータ1321と教師データ1311を機械学習用計算機5条の機械学習システム511に与え、機械学習を実施する。ここで用いる機械学習の手法としてはSupport Vector MachineやBoosting、ニューラルネットワーク、もしくはその発展的手法が考えられる。これらの手法は公知技術のため、ここでは割愛する。得られた学習結果52を物体認識アルゴリズム62のパラメータとして与える。このとき学習結果から得られるパラメータとしては、検出対象とする物体を認識する上で適切な特徴量や、その特徴量を用いて物体認識する上で必要となる閾値などが考えられる。このパラメータを入力された物体認識アルゴリズム62は車両用外界センサ61から得られた情報から、学習した物体、あるいはそれと類似した物体を検出し、検出結果出力部63にその情報を渡す。図12にその一例を示す。図12は、物体認識アルゴリズムによる検出結果の一例である。
車両内に設置されたディスプレイ7に、自車の前方車両の位置を検出結果71として表示している。この方法以外にも、例えば自車と対象の物体が近づきすぎた場合に警報で知らせるといった方法も考えられる。
11 3次元形状データ入力部
111 地形3次元形状データ入力部
112 物体3次元形状データ入力部
1121 物体3次元形状データ
12 3次元シミュレータ部
121 3次元環境認識部
122 シナリオ自動作成部
123 車両パラメータ入力部
124 センサパラメータ入力部
125 3次元仮想空間生成部
13 教師データ出力部
131 教師データ生成部
1311 教師データ
132 仮想センサデータ生成部
1321 仮想センサデータ
2 UAV
21 空撮用カメラ
211 撮影した画像
3 計測対象
4 3次元復元用計算機
41 3次元点群生成部
42 サーフェイス生成部
43 3次元形状情報格納部
44 3次元地形形状データ
45 環境3次元情報取得手段
46 物体3次元情報取得手段
5 機械学習用計算機
51 機械学習システム
52 学習結果
61 車両用外界センサ
62 物体認識アルゴリズム
63 検出結果出力部
7 ディスプレイ
71 検出結果

Claims (3)

  1. 3次元形状情報計測手段により取得した地形や建物の3次元形状情報を入力する3次元形状データ入力部と、
    環境情報を前記3次元形状情報から自動的に認識し分類を行う3次元シミュレータ部と、
    前記3次元シミュレータ部が認識した前記環境情報およびセンサのセンサパラメータに基づき、仮想センサデータおよび教師データを出力する教師データ出力部と、
    を有する機械学習用データベース作成システム。
  2. 請求項1の機械学習用データベース作成システムにおいて、
    前記3次元形状データ入力部は、
    前記3次元形状情報を入力する地形3次元形状データ入力部と、
    任意の物体の3次元形状データを入力する物体3次元形状データ入力部と、を有し、
    前記3次元シミュレータ部は、前記地形3次元形状データ入力部と前記3次元形状データ入力部の情報を統合し、仮想空間を生成する3次元仮想空間生成部を有する
    機械学習用データベース作成システム。
  3. 請求項1の機械学習用データベース作成システムにおいて、
    前記3次元シミュレータ部は、前記地形3次元形状データ入力部で得られた前記3次元形状情報と、3次元環境認識部によって抽出された前記環境情報と前記物体3次元形状データ入力部が得た前記物体3次元形状情報と、に基づき、前記物体3次元形状情報と前記物体3次元形状情報の相対位置をランダムに作成するシナリオ自動作成部を有する機械学習用データベース作成システム。
JP2018529463A 2016-07-29 2017-06-30 機械学習用データベース作成システム Active JP6770577B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016149184 2016-07-29
JP2016149184 2016-07-29
PCT/JP2017/024099 WO2018020954A1 (ja) 2016-07-29 2017-06-30 機械学習用データベース作成システム

Publications (2)

Publication Number Publication Date
JPWO2018020954A1 true JPWO2018020954A1 (ja) 2019-04-04
JP6770577B2 JP6770577B2 (ja) 2020-10-14

Family

ID=61016507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018529463A Active JP6770577B2 (ja) 2016-07-29 2017-06-30 機械学習用データベース作成システム

Country Status (4)

Country Link
US (1) US10878288B2 (ja)
JP (1) JP6770577B2 (ja)
AU (1) AU2017302833B2 (ja)
WO (1) WO2018020954A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6845106B2 (ja) * 2017-07-21 2021-03-17 株式会社タダノ 点群データのクラスタリング方法、ガイド情報表示装置およびクレーン
US10514462B2 (en) * 2017-12-13 2019-12-24 Luminar Technologies, Inc. Training a machine learning based model of a vehicle perception component based on sensor settings
JP6900897B2 (ja) * 2017-12-25 2021-07-07 コベルコ建機株式会社 建設機械の障害物検出装置
JP7232437B2 (ja) * 2018-02-19 2023-03-03 国立大学法人 東京大学 作業車両の表示システム及び生成方法
JP7000952B2 (ja) * 2018-03-28 2022-01-19 株式会社豊田中央研究所 車両の走行を制御する制御装置、制御方法、及び、制御プログラム
KR102120655B1 (ko) * 2018-04-12 2020-06-18 동국대학교 산학협력단 무차익 옵션 가격 예측 방법
JP2022024189A (ja) * 2018-09-27 2022-02-09 株式会社Preferred Networks 学習用データ作成方法、学習用データ作成装置及びプログラム
WO2020066209A1 (ja) * 2018-09-27 2020-04-02 株式会社堀場製作所 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置
JP7184249B2 (ja) * 2018-10-09 2022-12-06 株式会社パスコ 避雷保護範囲生成システムおよびプログラム
US11046519B2 (en) * 2019-02-25 2021-06-29 Rehrig Pacific Company Delivery system
US20220055226A1 (en) * 2019-03-13 2022-02-24 Nec Corporation Information processing device, driving control method, and program-recording medium
JP7334052B2 (ja) * 2019-04-09 2023-08-28 株式会社小松製作所 情報処理装置、情報処理方法、学習済モデルの生成方法、およびシステム
US11132826B2 (en) 2019-05-16 2021-09-28 Caterpillar Inc. Artificial image generation for training an object detection system
JP2024012721A (ja) * 2020-10-13 2024-01-31 株式会社Preferred Networks 物体認識支援システム、物体認識システム、物体認識支援方法及び物体認識方法
CN112927345B (zh) * 2021-01-20 2022-11-15 中国地震应急搜救中心 一种地震救援现场环境的监控方法和设备
CN115422386A (zh) * 2022-09-29 2022-12-02 南方电网调峰调频发电有限公司西部检修试验分公司 一种机器学习数据分析框架信息库搭建方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163685A (ja) * 1998-11-30 2000-06-16 Fuji Electric Co Ltd 交通流監視システム
JP2006172099A (ja) * 2004-12-15 2006-06-29 Mitsubishi Electric Corp 変化領域認識装置および変化認識システム
WO2011086889A1 (ja) * 2010-01-12 2011-07-21 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP2014157509A (ja) * 2013-02-15 2014-08-28 Canon Inc 情報処理装置、情報処理方法
JP2016006616A (ja) * 2014-06-20 2016-01-14 ヤフー株式会社 学習装置、学習方法及び学習プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103953209B (zh) * 2012-12-12 2017-06-09 保利集团澳门有限公司 水池系统及建造使用方法
JP2014147509A (ja) 2013-01-31 2014-08-21 Soka Univ 被洗浄物の洗浄方法及び洗浄装置
JP2016071597A (ja) 2014-09-30 2016-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10527412B2 (en) * 2015-10-06 2020-01-07 Bridger Photonics, Inc. Gas-mapping 3D imager measurement techniques and method of data processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163685A (ja) * 1998-11-30 2000-06-16 Fuji Electric Co Ltd 交通流監視システム
JP2006172099A (ja) * 2004-12-15 2006-06-29 Mitsubishi Electric Corp 変化領域認識装置および変化認識システム
WO2011086889A1 (ja) * 2010-01-12 2011-07-21 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP2014157509A (ja) * 2013-02-15 2014-08-28 Canon Inc 情報処理装置、情報処理方法
JP2016006616A (ja) * 2014-06-20 2016-01-14 ヤフー株式会社 学習装置、学習方法及び学習プログラム

Also Published As

Publication number Publication date
US10878288B2 (en) 2020-12-29
AU2017302833A1 (en) 2019-01-17
WO2018020954A1 (ja) 2018-02-01
US20200202175A1 (en) 2020-06-25
AU2017302833B2 (en) 2020-11-12
AU2017302833A8 (en) 2019-03-14
JP6770577B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
WO2018020954A1 (ja) 機械学習用データベース作成システム
US10984261B2 (en) Systems and methods for curb detection and pedestrian hazard assessment
US10949684B2 (en) Vehicle image verification
US7974442B2 (en) Vehicular vision system
CN106461774B (zh) 基于雷达提示视觉成像的高级驾驶员辅助系统
KR20230130147A (ko) 자율 주행을 위한 항법 정보의 융합 프레임워크 및 배치 정렬
Shim et al. An autonomous driving system for unknown environments using a unified map
CN111442776A (zh) 顺序地面场景图像投影合成与复杂场景重构的方法及设备
Jebamikyous et al. Autonomous vehicles perception (avp) using deep learning: Modeling, assessment, and challenges
US20200082182A1 (en) Training data generating method for image processing, image processing method, and devices thereof
EP3842751B1 (en) System and method of generating high-definition map based on camera
CN114419098A (zh) 基于视觉变换的运动目标轨迹预测方法及装置
EP3555854B1 (en) A method of tracking objects in a scene
Beltrán et al. Towards autonomous driving: a multi-modal 360 perception proposal
López et al. Computer vision in vehicle technology: Land, sea, and air
CN111444891A (zh) 一种基于机载视觉的无人碾压机作业场景感知系统及方法
Jung et al. Intelligent Hybrid Fusion Algorithm with Vision Patterns for Generation of Precise Digital Road Maps in Self-driving Vehicles.
Bhatlawande et al. LIDAR based Detection of Small Vehicles
KR102618680B1 (ko) 영상과 라이다를 이용한 실시간 3차원 물체 인식 및 추적하는 시스템
US20240127603A1 (en) Unified framework and tooling for lane boundary annotation
Krajewski et al. Drone-based Generation of Sensor Reference and Training Data for Highly Automated Vehicles
US20230230317A1 (en) Method for generating at least one ground truth from a bird's eye view
Nedevschi et al. On-board stereo sensor for intersection driving assistance architecture and specification
Beltrán et al. Towards Autonomous Driving: a Multi-Modal 360$^{\circ} $ Perception Proposal
Seo Generating omni-directional view of neighboring objects for ensuring safe urban driving

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150