JP2023115574A - 学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム - Google Patents

学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム Download PDF

Info

Publication number
JP2023115574A
JP2023115574A JP2022017870A JP2022017870A JP2023115574A JP 2023115574 A JP2023115574 A JP 2023115574A JP 2022017870 A JP2022017870 A JP 2022017870A JP 2022017870 A JP2022017870 A JP 2022017870A JP 2023115574 A JP2023115574 A JP 2023115574A
Authority
JP
Japan
Prior art keywords
bird
eye view
image
view image
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022017870A
Other languages
English (en)
Other versions
JP7418481B2 (ja
Inventor
裕司 安井
Yuji Yasui
英樹 松永
Hideki Matsunaga
隆志 松本
Takashi Matsumoto
岳洋 藤元
Takehiro Fujimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022017870A priority Critical patent/JP7418481B2/ja
Priority to CN202310100325.6A priority patent/CN116580376A/zh
Priority to US18/106,587 priority patent/US20230252804A1/en
Publication of JP2023115574A publication Critical patent/JP2023115574A/ja
Application granted granted Critical
Publication of JP7418481B2 publication Critical patent/JP7418481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Figure 2023115574000001
【課題】センシングのためのハードウェア構成を複雑化することなく、より少ない学習データに基づいて、移動体の走行可能空間を検知すること。
【解決手段】鳥瞰図画像における延伸領域に対して、前記延伸領域が立体物であることを示すアノテーションを対応付けるステップと、鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成するステップと、を備える、学習方法。
【選択図】図1

Description

本発明は、学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラムに関する。
従来、移動体に搭載されたセンサを用いて、当該移動体の周辺に存在する障害物を検出する技術が知られている。例えば、特許文献1には、移動体に搭載された複数の測距センサにより取得された情報に基づいて、当該移動体の周辺に存在する障害物を検出する技術が開示されている。
特開2021-162926号公報
特許文献1に記載の技術は、超音波センサやLIDARなどの複数の測距センサを用いて、移動体の周辺に存在する障害物を検出するものである。しかしながら、複数の測距センサを用いた構成を採用する場合、センシングのためのハードウェア構成が複雑になるため、システムのコストが増加する傾向にある。一方、システムのコストを抑えるために、カメラのみを用いた単純なハードウェア構成を採用することも考えられるが、その場合、様々なシーンに対応するロバスト性を確保するために、センシングのための膨大な学習データが必要とされる。
本発明は、このような事情を考慮してなされたものであり、センシングのためのハードウェア構成を複雑化することなく、より少ない学習データに基づいて、移動体の走行可能空間を検知することができる、学習方法、学習装置、移動体制御装置、移動体制御方法およびプログラムを提供することを目的の一つとする。
この発明に係る学習方法、学習装置、移動体制御装置、移動体制御方法およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る学習方法は、鳥瞰図画像における延伸領域に対して、前記延伸領域が立体物であることを示すアノテーションを対応付けるステップと、鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成するステップと、を備えるものである。
(2):この発明の一態様に係る学習装置は、鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付ける受付部と、鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成する学習部と、を備えるものである。
(3):この発明の一態様に係るプログラムは、コンピュータに、鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付けさせ、鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成させるものである。
(4):この発明の一態様に係る移動体制御装置は、移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得する取得部と、前記対象鳥瞰図画像を、(1)から(3)のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象鳥瞰図画像における立体物を検出する立体物検出部と、検出された前記立体物に基づいて、前記移動体の走行可能空間を検知する空間検知部と、前記走行可能空間を通るように前記移動体を走行させる走行制御部と、を備えるものである。
(5):この発明の一態様に係る移動体制御方法は、移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得し、前記対象鳥瞰図画像を、(1)から(3)のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象鳥瞰図画像における立体物を検出し、検出された前記立体物に基づいて、前記移動体の走行可能空間を検知し、前記走行可能空間を通るように前記移動体を走行させるものである。
(6):この発明の一態様に係るプログラムは、コンピュータに、移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得させ、前記対象鳥瞰図画像を、(1)から(3)のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象鳥瞰図画像における立体物を検出させ、検出された前記立体物に基づいて、前記移動体の走行可能空間を検知させ、前記走行可能空間を通るように前記移動体を走行させるものである。
(7):この発明の一態様に係る学習方法は、鳥瞰図画像における延伸領域に対して、前記延伸領域が立体物であることを示すアノテーションを対応付けるステップと、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成するステップと、を備えるものである。
(8):この発明の一態様に係る学習装置は、鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付ける受付部と、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成する学習部と、を備えるものである。
(9):この発明の一態様に係るプログラムは、コンピュータに、鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付けさせ、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成させるものである。
(10):この発明の一態様に係る移動体制御装置は、移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得する取得部と、前記対象画像および前記対象鳥瞰図画像を、(7)から(9)のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象画像における立体物を検出する立体物検出部と、検出された前記立体物に基づいて、前記移動体の走行可能空間を検知する空間検知部と、前記走行可能空間を通るように前記移動体を走行させる走行制御部と、を備えるものである。
(11):この発明の一態様に係る移動体制御方法は、移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得し、前記対象画像および前記対象鳥瞰図画像を、(7)から(9)のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象画像における立体物を検出し、検出された前記立体物に基づいて、前記移動体の走行可能空間を検知し、前記走行可能空間を通るように前記移動体を走行させるものである。
(12):この発明の一態様に係るプログラムは、移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得させ、前記対象画像および前記対象鳥瞰図画像を、(7)から(9)のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象画像における立体物を検出させ、検出された前記立体物に基づいて、前記移動体の走行可能空間を検知させ、前記走行可能空間を通るように前記移動体を走行させるものである。
(1)~(12)によれば、センシングのためのハードウェア構成を複雑化することなく、より少ない学習データに基づいて、移動体の走行可能空間を検知することができる。
本発明の実施形態に係る移動体制御装置100を備える自車両Mの構成の一例を示す図である。 鳥瞰図画像取得部110によって取得される鳥瞰図画像の一例を示す図である。 立体物検出部120による立体物の検出結果の一例を示す図である。 空間検知部130によって検知された走行可能空間FSの一例を示す図である。 移動体制御装置100によって実行される処理の流れの一例を示すフローチャートである。 学習装置200の構成の一例を示す図である。 学習部240によって実行される機械学習の詳細を説明するための図である。 本変形例に係る学習部240によって実行される機械学習の詳細を説明するための図である。 本変形例に係る立体物検出部120による立体物の検出結果の一例を示す図である。 本変形例に係る移動体制御装置100によって実行される処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明の学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラムの実施形態について説明する。移動体制御装置は、移動体の移動動作を制御する装置である。移動体とは、三輪または四輪等の車両、二輪車、マイクロモビ等を含み、路面を移動可能なあらゆる移動体を含んでよい。以下の説明では、移動体は四輪車両であるものとし、運転支援装置が搭載された車両を自車両Mと称する。
[移動体制御装置]
図1は、本発明の実施形態に係る移動体制御装置100を備える自車両Mの構成の一例を示す図である。図1に示す通り、自車両Mは、カメラ10と、移動体制御装置100とを備える。カメラ10と移動体制御装置100とは、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、更に、別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。図1において、カメラ10は、自車両Mのフロントバンパーに設置されているが、カメラ10は、例えば、自車両Mの車室内など、一般的に、自車両Mの前方を撮像可能な任意の箇所に設置されればよい。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
移動体制御装置100は、例えば、鳥瞰図画像取得部110と、立体物検出部120と、空間検知部130と、走行制御部140と、記憶部150と、を備える。記憶部150は、例えば、学習済みモデル152を記憶する。鳥瞰図画像取得部110と、立体物検出部120と、空間検知部130と、走行制御部140は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。記憶部150は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、HDD(Hard Disk Drive)、レジスタ等によって実現される。
鳥瞰図画像取得部110は、カメラ10によって自車両Mの周辺状況を撮像した画像を鳥瞰図座標系に変換することによって鳥瞰図画像を取得する。図2は、鳥瞰図画像取得部110によって取得される鳥瞰図画像の一例を示す図である。図2の左部は、カメラ10によって撮像された画像を表し、図2の中央部は、カメラ10によって撮像された画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像を表す。図2に示される通り、2D画像において写される立体物は、路面などとは異なり、鳥瞰図画像に変換されることによって、上下又は左右方向に延伸された延伸領域として写されている。後述するように、学習済みモデル152の作成者は、図2の右部に示される通り、学習装置200を用いて、事前に、鳥瞰図画像に写される延伸領域に対して、当該延伸領域が立体物であることを示すアノテーションを対応付けることによって、学習装置200による学習のための教師データ252を作成する。
立体物検出部120は、変換された鳥瞰図画像を、鳥瞰図画像が入力されると当該鳥瞰図画像における立体物を出力するように学習された学習済みモデル152に入力することで、変換された鳥瞰図画像における立体物を検出する。図3は、立体物検出部120による立体物の検出結果の一例を示す図である。図3に示す通り、立体物検出部120が、変換された鳥瞰図画像を学習済みモデル152に入力すると、学習済みモデル152は、鳥瞰図画像に含まれる立体物を識別可能な形式で当該鳥瞰図画像を出力する(すなわち、立体物を出力する)。立体物検出部120は、学習済みモデル152によって出力された鳥瞰図画像を参照することで、当該鳥瞰図画像に映された立体物を検出することができる。
空間検知部130は、学習済みモデル152によって出力された鳥瞰図画像に逆鳥瞰図変換を施し、立体物が識別可能な形式で表示された2D画像を得る。空間検知部130は、得られた2D画像から、識別された立体物を除外することによって、2D画像において自車両Mが走行可能な空間(以下、走行可能空間FS)を検知する。
図4は、空間検知部130によって検知された走行可能空間FSの一例を示す図である。図4では、一例として、走行可能空間FSを直方体領域として示している。走行制御部140は、自車両Mが走行可能空間FSを通るように目標軌道TTを生成し、自車両Mを目標軌道TTに沿って走行させる。目標軌道TTは、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。なお、本実施形態では、一例として、本発明が自動運転に適用させる場合について説明しているが、本発明はそのような構成に限定されず、立体物が存在しない走行可能空間FSを自車両Mのナビゲーション装置に表示させたり、走行可能空間FSを走行するようにステアリングホイールの操舵をアシストするなどの運転支援に適用されてもよい。
次に、図5を参照して、移動体制御装置100によって実行される処理の流れについて説明する。図5は、移動体制御装置100によって実行される処理の流れの一例を示すフローチャートである。まず、移動体制御装置100は、カメラ10によって自車両Mの周辺状況を撮像したカメラ画像を取得する(ステップS100)。次に、鳥瞰図画像取得部110は、取得されたカメラ画像を鳥瞰図座標系に変換することによって鳥瞰図画像を取得する(ステップS102)。
次に、立体物検出部120は、取得された鳥瞰図画像を、学習済みモデル152に入力することで、当該鳥瞰図画像における立体物を検出する(ステップS104)。次に、空間検知部130は、立体物が検出された鳥瞰図画像に逆鳥瞰図変換を施し、立体物が識別可能な形式で表示された2D画像を得る(ステップS106)。
次に、空間検知部130は、得られた2D画像から、識別された立体物を除外することによって、2D画像における走行可能空間FSを検知する(ステップS108)。次に、空間検知部130は、自車両Mが走行可能空間FSを通るように目標軌道TTを生成し、自車両Mを目標軌道TTに沿って走行させる(ステップS110)。これにより、本フローチャートの処理が終了する。
[学習装置]
次に、図6を参照して、本実施形態の学習済みモデル152を生成する学習装置200について説明する。図6は、学習装置200の構成の一例を示す図である。図6に示す通り、学習装置200は、例えば、通信部210と、取得部220と、受付部230と、学習部240と、記憶部250と、を備える。記憶部250は、例えば、教師データ252を記憶する。取得部220と、受付部230と、学習部240は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。記憶部250は、は、例えば、ROM、フラッシュメモリ、SDカード、RAM、HDD、レジスタ等によって実現される。
通信部210は、ネットワークNWを介して自車両Mの移動体制御装置100と通信するインターフェースである。通信部210は、例えば、NICや、無線通信用のアンテナなどを備える。
取得部220は、例えば、通信部210を介して、車両から鳥瞰図画像を取得する。その場合、画像の提供元の車両は専ら画像を収集するためだけの車両であってもよい。また、学習装置200は、必ずしもNWを介して車両と通信する必要は無く、車両で集められたデータが可搬型記憶媒体に格納され、人の手で運ばれてきて学習に用いられてもよい。さらに、代替的に、取得部220は、車両からカメラ画像を取得し、学習装置200が取得したカメラ画像を鳥瞰図画像に変換してもよい。
受付部230は、鳥瞰図画像における延伸領域に対する、当該延伸領域が立体物であることを示すアノテーションの対応付けを受け付け、鳥瞰図画像における延伸領域とアノテーションとが対応付けられた教師データ252として記憶部250に記憶する。換言すると、教師データ252とは、鳥瞰図画像に対して、当該鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられたデータセットを意味する。具体的には、例えば、受付部230は、鳥瞰図画像上で立体物にアノテーションを付与するためのインターフェース画面を学習済みモデル152の作成者に提供し、当該作成者からの操作を受け付けることによって、鳥瞰図画像とアノテーション付き鳥瞰図画像との組み合わせを教師データ252として受け付けてもよい。また、例えば、受付部230は、学習済みモデル152の作成者によって作成されたアノテーション付き鳥瞰図画像を、当該アノテーション付き鳥瞰図画像の元データである鳥瞰図画像と合わせて、当該作成者の端末装置から受信してもよい。
学習部240は、教師データ252に基づいて、鳥瞰図画像が入力されると当該鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって、学習済みモデル152を生成する。学習部240は、作成された学習済みモデル152を移動体制御装置100にネットワークNWを介して送信し、移動体制御装置100は、受信した学習済みモデル152を記憶部150に記憶する。
図7は、学習部240によって実行される機械学習の詳細を説明するための図である。図7に示す通り、学習部240は、CNN(convolutional neural network)などのDNN(deep neural network)に対して鳥瞰図画像を入力した結果として出力された出力画像と、当該鳥瞰図画像に対応するアノテーション付き鳥瞰図画像との間の差分を表す誤差関数の値が小さくなるように、DNNのパラメータを更新する。学習部240がDNNのパラメータを更新する手法としては、例えば、誤差逆伝播法(back propagation)、最急降下法(steepest descent)、確率的勾配降下法(stochastic gradient descent)などの任意の手法を利用することができる。誤差関数は、例えば、二乗和誤差や交差エントロピーなどの任意の関数である。学習部240は、パラメータの更新処理を教師データ252に格納されたデータセットの数だけ実行することによって、DNNのパラメータを確定し、学習済みモデル152を得る。
以上の通り説明した実施形態によれば、学習装置200は、鳥瞰図画像が入力されると、当該鳥瞰図画像における立体物を出力するように学習された学習済みモデル152を生成し、移動体制御装置100は、カメラ10によって撮像された画像を鳥瞰図画像に変換し、変換された鳥瞰図画像を、生成された学習済みモデル152に入力することによって、立体物を認識する。これにより、センシングのためのハードウェア構成を複雑化することなく、より少ない学習データに基づいて、移動体の走行可能空間を検知することができる。
[変形例]
上述した実施形態では、学習装置200は、鳥瞰図画像が入力されると当該鳥瞰図画像における立体物を出力するように学習された学習済みモデル152を生成し、移動体制御装置100は、生成された学習済みモデル152を用いて、自車両Mの前方に存在する立体物を検出している。しかし、本発明は、そのような構成に限定されない。本変形例においては、学習装置200は、画像、および当該画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると当該画像における立体物を出力するように学習された学習済みモデル152を生成し、移動体制御装置100は、生成された学習済みモデル152を用いて、自車両Mの前方に存在する立体物を検出する。移動体制御装置100および学習装置200の構成は、上述した実施形態と同様であるため、説明を省略する。
図8は、本変形例に係る学習部240によって実行される機械学習の詳細を説明するための図である。図8に示す通り、学習部240は、CNN(convolutional neural network)などのDNN(deep neural network)に対して、画像、および当該画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像を入力した結果として出力された出力画像と、当該鳥瞰図画像に対応するアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像との間の差分を表す誤差関数の値が小さくなるように、DNNのパラメータを更新する。DNNのパラメータの更新手法および誤差関数の種類は、上述した実施形態と同様である。学習部240は、パラメータの更新処理を教師データ252に格納されたデータセットの数だけ実行することによって、DNNのパラメータを確定し、学習済みモデル152を得る。
図9は、本変形例に係る立体物検出部120による立体物の検出結果の一例を示す図である。図9に示す通り、立体物検出部120が、カメラ10によって撮像された画像と、当該画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像とを学習済みモデル152に入力すると、学習済みモデル152は、立体物を識別可能な形式で2D画像を出力する(すなわち、立体物を出力する)。立体物検出部120は、学習済みモデル152によって出力された2D画像を参照することで、当該画像に映された立体物を検出する。
次に、図10を参照して、本変形例に係る移動体制御装置100によって実行される処理の流れについて説明する。図10は、本変形例に係る移動体制御装置100によって実行される処理の流れの一例を示すフローチャートである。まず、移動体制御装置100は、カメラ10によって自車両Mの周辺状況を撮像したカメラ画像を取得する(ステップS200)。次に、鳥瞰図画像取得部110は、取得されたカメラ画像を鳥瞰図座標系に変換することによって鳥瞰図画像を取得する(ステップS202)。
次に、立体物検出部120は、取得されたカメラ画像および鳥瞰図画像を、学習済みモデル152に入力することで、2D画像における立体物を検出する(ステップS204)。次に、空間検知部130は、得られた2D画像から、識別された立体物を除外することによって、2D画像における走行可能空間FSを検知する(ステップS206)。次に、空間検知部130は、自車両Mが走行可能空間FSを通るように目標軌道TTを生成し、自車両Mを目標軌道TTに沿って走行させる(ステップS208)。これにより、本フローチャートの処理が終了する。
以上の通り説明した本変形例によれば、学習装置200は、2D画像、および当該2D画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると、当該2D画像における立体物を出力するように学習された学習済みモデル152を生成し、移動体制御装置100は、カメラ10によって撮像されたカメラ画像と、当該カメラ画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像を、生成された学習済みモデル152に入力することによって、カメラ画像における立体物を認識する。これにより、センシングのためのハードウェア構成を複雑化することなく、より少ない学習データに基づいて、移動体の走行可能空間を検知することができる。
さらに、上述した実施形態においては、移動体制御装置100は、学習済みモデル152によって出力された鳥瞰図画像に対して逆鳥瞰図変換を施している。しかし、本変形例では、移動体制御装置100は、カメラ10によって撮像されたカメラ画像と、当該カメラ画像に対応する鳥瞰図画像を学習済みモデル152に入力することによって、逆鳥瞰図変換を実行することなく、カメラ画像における立体物検出の結果を取得することができる。これにより、上述した実施形態に比して、移動体制御装置100の処理負荷を軽減することができる。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付け、
鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって、学習済みモデルを生成する、
学習装置。
さらに、上記説明した実施形態は、以下のように表現することもできる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付け、
画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成する、
学習装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
100 移動体制御装置
110 鳥瞰図画像取得部
120 立体物検出部
130 空間検知部
140 走行制御部
150、250 記憶部
152 学習済みモデル
200 学習装置
210 通信部
220 取得部
230 受付部
240 学習部
252 教師データ

Claims (12)

  1. 鳥瞰図画像における延伸領域に対して、前記延伸領域が立体物であることを示すアノテーションを対応付けるステップと、
    鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成するステップと、を備える、
    学習方法。
  2. 鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付ける受付部と、
    鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成する学習部と、を備える、
    学習装置。
  3. コンピュータに、
    鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付けさせ、
    鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像が対応付けられた教師データに基づいて、鳥瞰図画像が入力されると前記鳥瞰図画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成させる、
    プログラム。
  4. 移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得する取得部と、
    前記対象鳥瞰図画像を、請求項1から3のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象鳥瞰図画像における立体物を検出する立体物検出部と、
    検出された前記立体物に基づいて、前記移動体の走行可能空間を検知する空間検知部と、
    前記走行可能空間を通るように前記移動体を走行させる走行制御部と、
    を備える、移動体制御装置。
  5. コンピュータが、
    移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得し、
    前記対象鳥瞰図画像を、請求項1から3のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象鳥瞰図画像における立体物を検出し、
    検出された前記立体物に基づいて、前記移動体の走行可能空間を検知し、
    前記走行可能空間を通るように前記移動体を走行させる、
    移動体制御方法。
  6. コンピュータに、
    移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得させ、
    前記対象鳥瞰図画像を、請求項1から3のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象鳥瞰図画像における立体物を検出させ、
    検出された前記立体物に基づいて、前記移動体の走行可能空間を検知させ、
    前記走行可能空間を通るように前記移動体を走行させる、
    プログラム。
  7. 鳥瞰図画像における延伸領域に対して、前記延伸領域が立体物であることを示すアノテーションを対応付けるステップと、
    画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成するステップと、を備える、
    学習方法。
  8. 鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付ける受付部と、
    画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成する学習部と、を備える、
    学習装置。
  9. コンピュータに、
    鳥瞰図画像における延伸領域に対する、前記延伸領域が立体物であることを示すアノテーションの対応付けを受け付けさせ、
    画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像に対して、前記鳥瞰図画像における立体物にアノテーションが付与されたアノテーション付き鳥瞰図画像を逆鳥瞰図変換することによって得られた画像が対応付けられた教師データに基づいて、画像および前記画像を鳥瞰図座標系に変換することによって得られた鳥瞰図画像が入力されると前記画像における立体物を出力するように機械学習モデルのパラメータを学習することによって学習済みモデルを生成させる、
    プログラム。
  10. 移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得する取得部と、
    前記対象画像および前記対象鳥瞰図画像を、請求項7から9のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象画像における立体物を検出する立体物検出部と、
    検出された前記立体物に基づいて、前記移動体の走行可能空間を検知する空間検知部と、
    前記走行可能空間を通るように前記移動体を走行させる走行制御部と、
    を備える、移動体制御装置。
  11. コンピュータが、
    移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得し、
    前記対象画像および前記対象鳥瞰図画像を、請求項7から9のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象画像における立体物を検出し、
    検出された前記立体物に基づいて、前記移動体の走行可能空間を検知し、
    前記走行可能空間を通るように前記移動体を走行させる、
    移動体制御方法。
  12. コンピュータに、
    移動体に搭載されたカメラによって前記移動体の周辺を撮像した画像を鳥瞰図座標系に変換することによって得られた対象鳥瞰図画像を取得させ、
    前記対象画像および前記対象鳥瞰図画像を、請求項7から9のいずれか1項に記載の前記学習済みモデルに入力することで、前記対象画像における立体物を検出させ、
    検出された前記立体物に基づいて、前記移動体の走行可能空間を検知させ、
    前記走行可能空間を通るように前記移動体を走行させる、
    プログラム。
JP2022017870A 2022-02-08 2022-02-08 学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム Active JP7418481B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022017870A JP7418481B2 (ja) 2022-02-08 2022-02-08 学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム
CN202310100325.6A CN116580376A (zh) 2022-02-08 2023-02-06 学习方法、学习装置、移动体控制及其方法、存储介质
US18/106,587 US20230252804A1 (en) 2022-02-08 2023-02-07 Learning method, learning device, mobile object control device, mobile object control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022017870A JP7418481B2 (ja) 2022-02-08 2022-02-08 学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2023115574A true JP2023115574A (ja) 2023-08-21
JP7418481B2 JP7418481B2 (ja) 2024-01-19

Family

ID=87521321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022017870A Active JP7418481B2 (ja) 2022-02-08 2022-02-08 学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230252804A1 (ja)
JP (1) JP7418481B2 (ja)
CN (1) CN116580376A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7450654B2 (ja) 2022-02-10 2024-03-15 本田技研工業株式会社 移動体制御装置、移動体制御方法、学習装置、学習方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
MY166665A (en) 2011-02-21 2018-07-18 Nissan Motor Periodic stationary object detection system and periodic stationary object detection method
BR112014001837B1 (pt) 2011-08-02 2021-04-20 Nissan Motor Co., Ltd. dispositivos e métodos de detecção de corpo em movimento
JP7219597B2 (ja) 2018-11-22 2023-02-08 日立Astemo株式会社 車両制御装置
JP7072591B2 (ja) 2020-01-27 2022-05-20 三菱電機株式会社 車両用衝突防止装置および車両用衝突防止方法
JP7404173B2 (ja) 2020-07-07 2023-12-25 日立Astemo株式会社 画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7450654B2 (ja) 2022-02-10 2024-03-15 本田技研工業株式会社 移動体制御装置、移動体制御方法、学習装置、学習方法、およびプログラム

Also Published As

Publication number Publication date
US20230252804A1 (en) 2023-08-10
CN116580376A (zh) 2023-08-11
JP7418481B2 (ja) 2024-01-19

Similar Documents

Publication Publication Date Title
KR101896715B1 (ko) 주변차량 위치 추적 장치 및 방법
US10896542B2 (en) Moving body image generation recording display device and program product
WO2015145543A1 (ja) 物体検出装置、物体検出方法、および移動ロボット
JP2011034273A (ja) 運転支援システム、運転支援装置、運転支援方法、及び運転支援プログラム
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
US20230252804A1 (en) Learning method, learning device, mobile object control device, mobile object control method, and storage medium
JP7077726B2 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
US20210064872A1 (en) Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof
JP6241172B2 (ja) 自車位置推定装置及び自車位置推定方法
JP6992099B2 (ja) 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法
US11704827B2 (en) Electronic apparatus and method for assisting with driving of vehicle
JP2023060081A (ja) 処理装置
JP4742695B2 (ja) 視線認識装置、及び視線認識方法
JP2005216200A (ja) 他車検出装置及び他車検出方法
JP4220354B2 (ja) 他車位置表示装置及び他車情報提示方法
JP7429246B2 (ja) 対象を識別する方法とシステム
CN111797659A (zh) 辅助驾驶方法、装置、存储介质及电子设备
JP2023117203A (ja) 移動体制御装置、移動体制御方法、学習装置、学習方法、およびプログラム
JP5466342B1 (ja) 道路環境認識装置
WO2013146737A1 (ja) 運転行動診断装置、運転行動診断方法、及びそのプログラム
JP2011179920A (ja) 表示制御装置、表示制御方法、プログラム、および記録媒体
JP2002269570A (ja) 周辺認識装置
JP2023059982A (ja) 出力装置、出力方法及びプログラム
KR20230097790A (ko) 다중 센서 모듈과 인공 지능 알고리즘 및 통신 모듈을 이용한 이동 장치의 관제 장치
CN116524453A (zh) 运动物体检测装置、方法及系统、以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240109

R150 Certificate of patent or registration of utility model

Ref document number: 7418481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150