JP2021060661A - 認識装置、認識方法、およびプログラム - Google Patents

認識装置、認識方法、およびプログラム Download PDF

Info

Publication number
JP2021060661A
JP2021060661A JP2019182949A JP2019182949A JP2021060661A JP 2021060661 A JP2021060661 A JP 2021060661A JP 2019182949 A JP2019182949 A JP 2019182949A JP 2019182949 A JP2019182949 A JP 2019182949A JP 2021060661 A JP2021060661 A JP 2021060661A
Authority
JP
Japan
Prior art keywords
vehicle
area
region
target
setting unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019182949A
Other languages
English (en)
Other versions
JP7139300B2 (ja
Inventor
弾 梅田
Dan Umeda
弾 梅田
輝樹 高橋
Teruki Takahashi
輝樹 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019182949A priority Critical patent/JP7139300B2/ja
Priority to CN202010950347.8A priority patent/CN112613335A/zh
Priority to US17/033,979 priority patent/US20210103752A1/en
Publication of JP2021060661A publication Critical patent/JP2021060661A/ja
Application granted granted Critical
Publication of JP7139300B2 publication Critical patent/JP7139300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

【課題】三次元空間内に物標が存在する領域を低負荷で認識することができる認識装置、認識方法、およびプログラムを提供すること。【解決手段】車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識し、二次元画像内に認識した物標を含む第1領域を設定する第1領域設定部と、物標を構成する面のうち基準面に合致する第2領域を設定する第2領域設定部と、第1領域および第2領域に基づいて、物標の領域を所定形状で表した第3領域を設定する第3領域設定部と、を備える認識装置。【選択図】図1

Description

本発明は、認識装置、認識方法、およびプログラムに関する。
従来、車両前方の撮影画像から抽出条件に合致する物体画像を抽出し、抽出した物体画像の三次元空間の座標を算出して抽出した物体に関する情報を表示させる表示制御装置に関する技術が開示されている(例えば、特許文献1参照)。
国際公開第2017/002209号
一般的に、三次元空間に存在する物体に対する処理を行うためには、例えば、ステレオカメラなどによって三次元で画像を撮影する必要があり、撮影した三次元の画像に基づいて物体が存在する位置を求める処理は、負荷が高いものである。
本発明は、上記の課題認識に基づいてなされたものであり、三次元空間内に物標が存在する領域を低負荷で認識することができる認識装置、認識方法、およびプログラムを提供することを目的としている。
この発明に係る認識装置、認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る認識装置は、車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識し、前記二次元画像内に前記認識した前記物標を含む第1領域を設定する第1領域設定部と、前記物標を構成する面のうち基準面に合致する第2領域を設定する第2領域設定部と、前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定する第3領域設定部と、を備える認識装置である。
(2):上記(1)の態様において、前記物標は、前記車両の周囲に存在する他車両であり、前記基準面は、前記他車両の前面または後面である。
(3):上記(1)または(2)の態様において、前記第1領域設定部は、前記二次元画像を入力すると前記第1領域を出力するように学習された第1学習済みモデルに対して、前記二次元画像を入力することで、前記第1領域を得て設定し、前記第2領域設定部は、前記第1領域の画像を入力すると前記第2領域を出力するように学習された第2学習済みモデルに対して、前記第1領域の画像を入力することで、前記第2領域を得て設定するものである。
(4):上記(1)から(3)のうちいずれか一態様において、前記第3領域設定部は、前記第1領域内における前記第2領域と対角の位置に前記第2領域と同じまたは遠近法を考慮して縮小したサイズの第4領域を設定し、前記第2領域と前記第4領域とのそれぞれの対応する角部の点を直線で結ぶことで、立体形状が表現された前記第3領域を設定するものである。
(5):上記(4)の態様において、前記物標は、前記車両の周囲に存在する他車両であり、前記第3領域における前記第2領域と前記第4領域とのそれぞれの対応する角部の点を結んだ直線に基づいて、前記他車両の移動方向を推定する第1推定部を更に備えるものである。
(6):上記(4)の態様において、前記物標は、前記車両の周囲に存在する他車両であり、前記第3領域における前記第2領域と前記第4領域とのそれぞれの対応する角部の点を結んだ直線に基づいて、前記他車両の長手方向の長さを推定する第2推定部を更に備えるものである。
(7):また、この発明の一態様に係る認識方法は、コンピュータが、車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識し、前記二次元画像内に前記認識した前記物標を含む第1領域を設定し、前記物標を構成する面のうち基準面に合致する第2領域を設定し、前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定する、認識方法である。
(8):また、この発明の一態様に係るプログラムは、コンピュータに、車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識させ、前記二次元画像内に前記認識した前記物標を含む第1領域を設定させ、前記物標を構成する面のうち基準面に合致する第2領域を設定させ、前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定させる、プログラムである。
上述した(1)〜(8)の態様によれば、三次元空間内に物標が存在する領域を低負荷で認識することができる。
第1実施形態に係る認識装置100を備える認識システム1の概略構成図である。 全体領域学習済みモデルTM1の生成方法の一例を模式的に示す図である。 基準領域学習済みモデルTM2の生成方法の一例を模式的に示す図である。 認識装置100により実行される処理の流れの一例を示すフローチャートである。 認識装置100におけるそれぞれの処理を模式的に示した図である。 認識装置100において設定した他車両の物標領域を重畳して表示させる画像の一例を示す図である。 認識装置100において設定した他車両の物標領域に基づいて、他車両の状態を推定した状態の一例を模式的に示す図である。 第2実施形態に係る認識装置の機能を搭載した車両システム1Aの構成図である。 第1制御部220および第2制御部260の機能構成図である。 第1実施形態の認識装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の認識装置、認識方法、およびプログラムの実施形態について説明する。以下の説明においては、本発明の認識装置を含む認識システムが車両に搭載される場合の一例について説明する。なお、以下では、左側通行の法規が適用される場合について説明するが、右側通行の法規が適用される場合には、左右を逆に読み替えればよい。
<第1実施形態>
[認識システム1の全体構成]
図1は、第1実施形態に係る認識装置100を備える認識システム1の概略構成図である。認識システム1が搭載される車両は、例えば、四輪の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
認識システム1は、例えば、カメラ10と、認識装置100と、表示装置20とを備える。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、認識システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周囲を撮像する。カメラ10は、自車両Mの周囲を撮像した二次元の画像(以下、二次元画像)を、認識装置100に出力する。カメラ10は、特許請求の範囲における「撮像装置」の一例である。
認識装置100は、カメラ10により出力された二次元画像に基づいて、自車両Mの周囲に存在する他車両を物標として認識し、認識した他車両の領域を所定の形状で表す。例えば、認識装置100は、他車両の領域を立体形状に擬したオブジェクトで囲むことにより、三次元空間内で他車両を認識しているように表す。以下の説明においては、認識装置100が認識した他車両の領域を「物標領域」という。認識装置100は、カメラ10により出力された二次元画像に認識した他車両の物標領域を重畳した画像を表示装置20に出力して、認識した他車両を自車両Mの運転者に示させる。物標領域は、特許請求の範囲における「第3領域」の一例である。
認識装置100は、例えば、全体領域設定部110と、基準領域設定部130と、物標領域設定部150とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)などによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの構成要素のうち一部または全部は、専用のLSIによって実現されてもよい。プログラム(ソフトウェア)は、予めHDD(Hard Disk Drive)、フラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで、記憶装置にインストールされてもよい。また、プログラム(ソフトウェア)は、他のコンピュータ装置からネットワークを介して予めダウンロードされて記憶装置にインストールされてもよい。
全体領域設定部110は、カメラ10により出力された二次元画像に写された物標を認識し、二次元画像内で認識した他車両を含む領域を設定する。全体領域設定部110が認識する物標としては、例えば、自車両Mの周囲に存在する他車両の他に、歩行者、自転車、静止物などがある。他車両には、自車両Mが走行している走行車線と同じ走行車線または隣接する走行車線を走行している他車両や、対向車線を走行する他車両(いわゆる、対向車両)、駐車車両などが含まれる。静止物には、信号機や標識などが含まれる。全体領域設定部110は、認識した物標のうち、他車両の領域を設定する。全体領域設定部110は、認識した他車両の領域の全体を囲むような矩形形状の領域を設定する。なお、全体領域設定部110が設定する矩形形状の領域は、部分的に他車両以外の領域を含んでもよい。全体領域設定部110は、予め学習された学習済みモデル(以下、全体領域学習済みモデル)を用いて、他車両の領域を設定する。全体領域設定部110が用いる全体領域学習済みモデルは、例えば、既存の機械学習のアルゴリズムによって、二次元画像を入力すると他車両を含む領域を出力するように予め学習された学習済みモデルである。全体領域設定部110は、全体領域学習済みモデルに対してカメラ10により出力された二次元画像を入力することによって、他車両の領域を得て、他車両の領域の全体を囲むような矩形形状の領域を設定する。以下の説明においては、全体領域設定部110が設定する他車両の領域を「全体領域」という。なお、全体領域設定部110が全体領域を設定するための用いる全体領域学習済みモデルは、例えば、既存の画像処理の技術において二次元画像内に他車両の領域の全体を囲むようなバウンディングボックスを設定するモデルであるということもできる。全体領域設定部110は、特許請求の範囲における「第1領域設定部」の一例である。全体領域は、特許請求の範囲における「第1領域」の一例である。
全体領域設定部110は、カメラ10により出力された二次元画像と、設定した全体領域に関する情報とを、基準領域設定部130および物標領域設定部150に出力する。例えば、全体領域設定部110は、カメラ10により出力された二次元画像と、設定した全体領域の範囲を表す二次元画像内の座標の情報とを、物標領域設定部150に出力する。全体領域設定部110は、二次元画像から設定した全体領域の範囲を切り出した画像(以下、全体領域画像)を、基準領域設定部130に出力してもよい。
ここで、全体領域設定部110が全体領域を設定するために用いる全体領域学習済みモデルについて説明する。図2は、全体領域学習済みモデルTM1の生成方法の一例を模式的に示す図である。全体領域学習済みモデルTM1は、例えば、CNN(Convolutional Neural Network)やDNN(Deep Neural Network)などの技術を用いて、二次元画像が入力されると一以上の全体領域を出力するように学習されたモデルである。CNNは、畳み込み(Convolution)層やプーリング(Pooling)層などのいくつかの層が繋がれたニューラルネットワークである。DNNは、任意の形態の層が多層に連結されたニューラルネットワークである。全体領域学習済みモデルTM1は、例えば、不図示の演算装置などよる全体領域機械学習モデルLM1を用いた機械学習によって生成される。不図示の演算装置は、機械学習によって全体領域学習済みモデルTM1を生成する際に、全体領域機械学習モデルLM1の入力側に全体領域学習データDI1を入力データとして入力し、全体領域機械学習モデルLM1の出力側に全体領域正解データDO1を教師データとして入力する。全体領域機械学習モデルLM1は、例えば、CNNやDNNなどの形態を有し、暫定的にパラメータが設定されたモデルである。全体領域学習データDI1は、例えば、カメラ10によって撮像されることが想定される複数の二次元画像の画像データである。全体領域正解データDO1は、全体領域学習データDI1の中で設定されるべき全体領域の位置を示すデータである。不図示の演算装置は、全体領域学習データDI1を全体領域機械学習モデルLM1に入力した際の全体領域機械学習モデルLM1の出力が、全体領域正解データDO1により示された全体領域に近づくように、全体領域機械学習モデルLM1のパラメータを調整する。パラメータを調整する方法としては、例えば、バックプロパゲーション法(誤差逆伝播法)などの手法がある。不図示の演算装置によってパラメータが調整された全体領域機械学習モデルLM1が、全体領域学習済みモデルTM1となる。全体領域学習済みモデルTM1は、特許請求の範囲における「第1学習済みモデル」の一例である。
図1に戻り、基準領域設定部130は、全体領域設定部110により出力された全体領域画像に含まれる他車両における所定の面を基準面として認識し、認識した基準面の領域を設定する。基準領域設定部130が認識する基準面は、他車両の形状が直方体であると考えた場合に自車両Mから近い側(自車両Mに関して近い側)の面であり、例えば、他車両の前面(フロント側の面)または後面(リア側の面)である。他車両の前面は、例えば、他車両のヘッドライト部を認識することにより、例え夜間であっても認識することができる。また、他車両の後面は、例えば、他車両のテールライト部を認識することにより、例え夜間であっても認識することができる。基準領域設定部130は、全体領域内で他車両を構成する面のうち基準面(基準面に合致する面)を認識し、認識した基準面を表す矩形形状の領域を設定する。基準面を表す矩形形状の領域は、部分的に他車両の内部に入り込んでもよいし、部分的に他車両以外の領域を含んでもよい。基準領域設定部130は、予め学習された学習済みモデル(以下、基準領域学習済みモデル)を用いて、基準面を表す領域を設定する。基準領域設定部130が用いる基準領域学習済みモデルは、例えば、既存の機械学習のアルゴリズムによって、全体領域画像を入力すると基準面の領域を出力するように予め学習された学習済みモデルである。基準領域設定部130は、基準領域学習済みモデルに対して全体領域設定部110により出力された全体領域画像を入力することによって、他車両の基準面の領域を得て、他車両の基準面を表す矩形形状の領域を設定する。以下の説明においては、基準領域設定部130が設定する他車両の基準面の領域を「基準領域」という。なお、基準領域設定部130が基準領域を設定するための用いる基準領域学習済みモデルは、例えば、既存の画像処理の技術において全体領域画像の他車両を構成する面のうち基準面を囲むようなバウンディングボックスを設定するモデルであるということもできる。基準領域設定部130は、特許請求の範囲における「第2領域設定部」の一例である。基準領域は、特許請求の範囲における「第2領域」の一例である。
基準領域設定部130は、設定した基準領域に関する情報を、物標領域設定部150に出力する。例えば、基準領域設定部130は、設定した基準領域の範囲を表す全体領域画像内の座標の情報を、物標領域設定部150に出力する。なお、基準領域設定部130が出力する基準領域に関する情報には、基準領域が他車両の前面の領域であるか後面の領域であるかを表す情報も含まれている。
ここで、基準領域設定部130が基準領域を設定するために用いる基準領域学習済みモデルについて説明する。図3は、基準領域学習済みモデルTM2の生成方法の一例を模式的に示す図である。基準領域学習済みモデルTM2は、例えば、CNNやDNNなどの技術を用いて、全体領域画像が入力されると一以上の基準領域を出力するように学習されたモデルである。基準領域学習済みモデルTM2は、例えば、不図示の演算装置などよる基準領域機械学習モデルLM2を用いた機械学習によって生成される。不図示の演算装置は、機械学習によって基準領域学習済みモデルTM2を生成する際に、基準領域機械学習モデルLM2の入力側に基準領域学習データDI2を入力データとして入力し、基準領域機械学習モデルLM2の出力側に基準領域正解データDO2を教師データとして入力する。基準領域機械学習モデルLM2は、例えば、CNNやDNNなどの形態を有し、暫定的にパラメータが設定されたモデルである。基準領域学習データDI2は、例えば、全体領域設定部110から出力されることが想定される複数の全体領域画像の画像データである。基準領域正解データDO2は、基準領域学習データDI2の中で設定されるべき基準領域の位置を示すデータである。不図示の演算装置は、基準領域学習データDI2を基準領域機械学習モデルLM2に入力した際の基準領域機械学習モデルLM2の出力が、基準領域正解データDO2により示された基準領域に近づくように、基準領域機械学習モデルLM2のパラメータを調整する。パラメータを調整する方法としては、全体領域機械学習モデルLM1のパラメータを調整する方法と同様に、例えば、バックプロパゲーション法(誤差逆伝播法)などの手法がある。不図示の演算装置によってパラメータが調整された基準領域機械学習モデルLM2が、基準領域学習済みモデルTM2となる。基準領域学習済みモデルTM2は、特許請求の範囲における「第2学習済みモデル」の一例である。
物標領域設定部150は、全体領域設定部110により出力された全体領域に関する情報と、基準領域設定部130により出力された基準領域に関する情報とに基づいて、二次元画像に写されている他車両の領域を、立体形状に擬したオブジェクトで囲むことにより、三次元空間内で他車両を認識しているように表す物標領域を設定する。このとき、物標領域設定部150は、全体領域内において、基準領域と同じ大きさ(サイズ)の領域(以下、複製領域)を全体領域内の対角の位置に設定し、基準領域と複製領域とのそれぞれにおける対応する角部の点を直線(以下、対角直線)で結ぶことによって、他車両の領域が立体形状で表現された物標領域を設定する。言い換えれば、物標領域設定部150は、全体領域のうち、基準領域、複製領域、および対角直線で囲まれていない領域を除外した物標領域を設定する。詳しくは、図4を用いて説明する。基準領域設定部130は、全体領域内に複製領域を設定する際に、遠近法を考慮して基準領域のサイズを縮小したサイズの複製領域を設定してもよい。なお、物標領域設定部150が設定する物標領域は、全体領域設定部110が設定したバウンディングボックス(基準領域)と、基準領域設定部130が設定したバウンディングボックス(複製領域)とを対角直線で結んだ三次元ボックスであるということもできる。物標領域設定部150は、特許請求の範囲における「第3領域設定部」の一例である。複製領域は、特許請求の範囲における「第4領域」の一例である。
物標領域設定部150は、設定した物標領域を全体領域設定部110により出力された二次元画像に重畳した画像を、表示装置20に出力する。
また、物標領域設定部150は、例えば、推定部151を備える。推定部151は、設定した物標領域に基づいて、他車両の状態を推定する。他車両の状態とは、自車両Mと他車両との間の距離や、自車両Mの進行方向を基準とした場合に対する他車両の移動方向、自車両Mの進行方向を基準とした場合に対する他車両の長手方向(自車両Mから離れる奥行き方向)の長さなどを含む。自車両Mと他車両との間の距離は、例えば、基準領域のサイズに基づいて推定することができる。他車両の移動方向や他車両の長手方向の長さは、物標領域を設定する際に基準領域と複製領域とのそれぞれにおける対応する角部の点を結んだ対角直線に基づいて推定することができる。推定部151は、遠近法を考慮して、推定した他車両の移動方向や他車両の長手方向の長さを補正するようにしてもよい。
例えば、推定部151は、自車両Mの進行方向を表す仮想的な直線と、基準領域と複製領域とを結んだ対角直線の延長線とが略平行である場合、他車両の移動方向は自車両Mの進行方向と同じまたは逆の方向であると推定する。略平行とは、自車両Mの進行方向を表す仮想的な直線と、基準領域と複製領域とを結んだ対角直線の延長線との間の角度が、数度以内の範囲内に収まることをいう。また、例えば、推定部151は、自車両Mの進行方向を表す仮想的な直線と、基準領域と複製領域とを結んだ対角直線の延長線とが交差する場合、他車両の移動方向は自車両Mの進行方向と交差する方向であると推定する。交差するとは、自車両Mの進行方向を表す仮想的な直線と、基準領域と複製領域とを結んだ対角直線の延長線とが任意の位置で交わることをいう。また、例えば、推定部151は、基準領域が他車両の前面の領域であるか後面の領域であるかの情報に基づいて、他車両をさらに詳細に推定することもできる。例えば、推定部151は、他車両の移動方向が自車両Mの進行方向と同じまたは逆の方向であると推定したときに、基準領域が他車両の前面である場合には、他車両は、例えば、対向車両などのように自車両Mとすれ違う車両であると推定し、基準領域が他車両の後面である場合には、他車両は、例えば、前走車両などのように自車両Mの前方を走行する車両であると推定することができる。また、例えば、推定部151は、他車両の移動方向は自車両Mの進行方向と交差する方向であると推定したときに、基準領域が他車両の前面である場合には、他車両は、例えば、自車両Mの前方の交差点を通過または曲がってくる車両などのように自車両Mの前方を横切る可能性がある車両であると推定し、基準領域が他車両の後面である場合には、他車両は、例えば、自車両Mが走行している走行車線に進入してくる可能性がある車両であると推定することができる。このように他車両の移動方向を推定する推定部151は、特許請求の範囲における「第1推定部」の一例である。
また、例えば、推定部151は、基準領域と複製領域とを結んだ対角直線の長さを、他車両の長手方向の長さ(例えば、車長)として推定する。この場合、推定部151は、例えば、他車両が駐車車両である場合、推定した自車両Mと他車両との間の距離、および他車両の長手方向の長さに基づいて、自車両Mが駐車車両の位置に到達する時間や、駐車車両を通過するまでに要する時間などをさらに詳細に推定することもできる。このように他車両の長手方向の長さを推定する推定部151は、特許請求の範囲における「第2推定部」の一例である。
物標領域設定部150は、推定部151が推定した他車両の状態を表す情報を全体領域設定部110により出力された二次元画像に重畳した画像を、表示装置20に出力してもよい。また、物標領域設定部150は、推定部151が推定した他車両の状態を表す情報を、不図示の他の構成要素に出力してもよい。他の構成要素としては、例えば、自車両Mにおける自動運転を制御する構成要素や、自車両Mにおける運転を支援する構成要素が考えられる。この場合、これらの構成要素は、物標領域設定部150により出力された他車両の状態を表す情報に基づいて、自動運転や運転支援の制御をすることができる。
表示装置20は、認識装置100により出力された画像を表示する。表示装置20は、例えば、液晶ディスプレイ(Liquid Crystal Display;LCD)や有機EL(Electroluminescence)表示装置などである。表示装置20は、例えば、自車両Mが備えるナビゲーション装置の表示装置であってもよい。また、表示装置20は、例えば、自車両Mのフロント窓ガラスの面内に画像や情報を表示させる表示装置(いわゆる、ヘッドアップディスプレイ装置)であってもよい。運転者は、表示装置20が表示した画像を見ることによって、自車両Mが他車両の存在を認識していることを、視覚的に知ることができる。
[認識装置100の処理一例]
図4は、認識装置100により実行される処理の流れの一例を示すフローチャートである。また、図5は、認識装置100におけるそれぞれの処理を模式的に示した図である。図5には、図4に示したフローチャートにおいて対応するステップ番号を示している。以下に説明する認識装置100の処理の流れにおいては、図4に示したフローチャートを説明し、図5に示した処理を適宜参照する。
図4に示したフローチャートの処理は、カメラ10が1フレームの二次元画像を撮像する所定の時間間隔ごとに繰り返し実行される。また、認識装置100は、カメラ10により出力された二次元画像に写されたそれぞれの他車両を物標として認識し、認識したそれぞれの他車両の物標領域を設定する。しかし、以下の説明においては、説明を容易にするため、カメラ10が撮像した二次元画像には1台の他車両のみが写されているものとする。
カメラ10が1フレームの二次元画像を撮像すると、全体領域設定部110は、カメラ10により出力された二次元画像を取得する(ステップS100)。
次に、全体領域設定部110は、取得した二次元画像に写された他車両を認識し、認識した他車両を含む全体領域を設定する(ステップS102)。図5においては、全体領域設定部110が、二次元画像に写された他車両に対して全体領域RAを設定した状態を示している。全体領域設定部110は、取得した二次元画像と、設定した全体領域RAの範囲を表す情報とを、物標領域設定部150に出力する。また、全体領域設定部110は、取得した二次元画像から設定した全体領域RAの範囲を切り出した全体領域画像を、基準領域設定部130に出力する。
次に、基準領域設定部130は、全体領域設定部110により出力された全体領域画像に含まれる他車両の基準面を認識し、全体領域内に認識した基準面を表す基準領域を設定する(ステップS104)。図5においては、基準領域設定部130が、二次元画像に写された他車両に対して設定された全体領域RA内に基準領域RBを設定した状態を示している。基準領域設定部130は、全体領域画像内において設定した基準領域RBの範囲を表す情報を、物標領域設定部150に出力する。
次に、物標領域設定部150は、全体領域設定部110が設定した全体領域内に、基準領域設定部130が設定した基準領域に対応するサイズ(基準領域と同じサイズ、または遠近法を考慮して基準領域のサイズを縮小したサイズ)の複製領域を、全体領域内の対角の位置に設定する(ステップS106)。図5においては、物標領域設定部150が、全体領域RA内に基準領域RBと同じサイズの複製領域RCを、全体領域RA内の対角の位置に設定した状態を示している。
その後、物標領域設定部150は、基準領域と複製領域とのそれぞれにおける対応する角部の点を対角直線で結ぶ(ステップS108)。図5においては、物標領域設定部150が、基準領域RBと複製領域RCとにおけるそれぞれの角部の点同士を、対角直線SL1〜対角直線SL3のそれぞれで結んだ状態を示している。より具体的には、基準領域RBの右下の角部の点と複製領域RCの右下の角部の点とを対角直線SL1で結び、基準領域RBの右上の角部の点と複製領域RCの右上の角部の点とを対角直線SL2で結び、基準領域RBの左上の角部の点と複製領域RCの左上の角部の点とを対角直線SL3で結んだ状態を示している。
なお、図5に示したように、基準領域RBの左下の角部の点と複製領域RCの左下の角部の点とは、対角直線で結んでいない。これは、この後に物標領域を設定した際に、基準領域RBの左下の角部の点と複製領域RCの左下の角部の点とを結ぶ対角直線は、他車両によって隠れる直線であり、以降の処理に対しても影響がないためである。そして、認識装置100(より具体的には、物標領域設定部150)では、基準領域RBの左下の角部の点と複製領域RCの左下の角部の点とを対角直線で結ぶ処理の負荷を軽減することができるからである。
その後、物標領域設定部150は、基準領域、複製領域、および基準領域と複製領域とを結んだ対角直線に基づいて、他車両の物標領域を設定する(ステップS110)。図5においては、物標領域設定部150が、他車両の物標領域ROを設定した状態を示している。
その後、物標領域設定部150は、設定した物標領域を取得した二次元画像に重畳した画像を、表示装置20に出力する(ステップS112)。これにより、表示装置20は、物標領域設定部150により出力された画像を表示する。そして、認識装置100は、カメラ10が撮像した現在の二次元画像に対する本フローチャートの処理を終了する。
このような構成および処理によって、認識装置100は、カメラ10が撮像した現在の二次元画像に基づいて、自車両Mの周囲に存在する他車両を三次元空間内で認識しているように表現した物標領域を設定する。そして、認識装置100は、認識した物標領域をカメラ10が撮像した現在の二次元画像に重畳した画像を表示装置20に表示させることにより、自車両Mが他車両の存在を三次元空間内で認識しているように、視覚的に運転者に知らせる。これにより、認識システム1が搭載される自車両Mでは、運転者が、表示装置20が表示した画像を見ることによって、自車両Mが他車両の存在を認識していることを、視覚的に知ることができる。
[物標領域の表示例]
図6は、認識装置100において設定した他車両の物標領域を重畳して表示させる画像の一例を示す図である。図6には、認識装置100が、自車両Mの前方に存在する3台の他車両を認識して設定したそれぞれの物標領域ROを重畳した画像IMの一例を示している。より具体的には、図6には、認識装置100が、自車両Mが走行している走行車線に隣接する左側の走行車線を走行している他車両(以下、他車両V1)に対して設定した物標領域RO1と、同じ走行車線で前方を走行している他車両(以下、他車両V2)に対して設定した物標領域RO2と、隣接する反対側(右側)の走行車線を走行している他車両(以下、他車両V3)に対して設定した物標領域RO3とを重畳した画像IMの一例を示している。
認識装置100は、上述したように、図4に示したフローチャートの処理をカメラ10により出力された二次元画像に写されたそれぞれの他車両(他車両V1〜他車両V3)に対して行うことにより、認識したそれぞれの他車両の物標領域を設定する。
なお、図6に示したように、認識装置100(より具体的には、物標領域設定部150)が他車両V2に対して設定する物標領域RO2は、他車両V2の領域を立体形状で囲んだ物標領域とはなっていない。これは、他車両V2は、自車両Mと同じ走行車線の前方を走行している他車両であるため、基準領域設定部130は、全体領域設定部110が設定した全体領域の全ての領域が基準面であると認識して、基準領域を設定したことによるものである。この場合であっても、基準領域設定部130は、設定した基準領域が他車両V2の後面であることを表す情報を含んだ基準領域に関する情報を物標領域設定部150に出力するため、例えば、物標領域設定部150が備える推定部151は、自車両Mと他車両との間の距離や、自車両Mの進行方向に対する他車両の移動方向などの他車両V2の状態を推定することができる。言い換えれば、物標領域設定部150が備える推定部151は、他車両V2の長手方向の長さ(例えば、車長)以外の状態は推定することができる。
[他車両の状態の推定例]
図7は、認識装置100において設定した他車両の物標領域に基づいて、他車両の状態を推定した状態の一例を模式的に示す図である。図7には、認識装置100が、自車両Mの前方に存在する4台の他車両を認識して設定したそれぞれの物標領域ROに基づいて、それぞれの他車両の状態を推定した状態の一例を示している。なお、図7では、説明を容易にするため、自車両Mおよび他車両の状態や、他車両に対してそれぞれ設定した物標領域ROを、二次元の平面上に示している。そして、図7では、認識装置100(より具体的には、推定部151)が推定する自車両Mと他車両との間の距離の図示は省略している。
図7には、認識装置100が、自車両Mが走行している走行車線と同じ走行車線で前方を走行している他車両(以下、他車両V4)を認識して物標領域RO4を設定した状態の一例を示している。なお、他車両V4は、自車両Mの前を走行している先行車両であるため、認識装置100が設定する物標領域RO4は、図6に示した他車両V2と同様に、他車両V4の領域を立体形状で囲んだ物標領域とはなっていない。この場合、推定部151は、自車両Mと他車両V4との間の距離や、自車両Mの進行方向DMを基準とした他車両V4の移動方向などを推定する。図7には、推定部151が推定した他車両V4の移動方向D4の一例を示している。
また、図7には、認識装置100が、自車両Mが走行している走行車線に交差する他の走行車線との交差点で右折するために隣接する反対側(右側)の走行車線から進入してくる可能性がある他車両(以下、他車両V5)を認識して物標領域RO5を設定した状態の一例を示している。この場合、推定部151は、自車両Mと他車両V5との間の距離や、自車両Mの進行方向DMを基準とした他車両V5の移動方向、他車両V5の長手方向の長さ(車長)などを推定する。図7には、推定部151が推定した他車両V5の移動方向D5および車長L5の一例を示している。
また、図7には、認識装置100が、自車両Mが走行している走行車線に交差する他の走行車線(左側)から交差点に進入してくる可能性がある他車両(以下、他車両V6)を認識して物標領域RO6を設定した状態の一例を示している。この場合、推定部151は、自車両Mと他車両V6との間の距離や、自車両Mの進行方向DMを基準とした他車両V6の移動方向、他車両V6の車長などを推定する。図7には、推定部151が推定した他車両V6の移動方向D6および車長L6の一例を示している。
また、図7には、認識装置100が、自車両Mが走行している走行車線とは離れている反対側(右側)の走行車線を走行している他車両(以下、他車両V7)を認識して物標領域RO7を設定した状態の一例を示している。この場合、推定部151は、自車両Mと他車両V7との間の距離や、自車両Mの進行方向DMを基準とした他車両V7の移動方向、他車両V7の車長などを推定する。図7には、推定部151が推定した他車両V7の移動方向D7および車長L7の一例を示している。
上記に述べたとおり、第1実施形態の認識装置100によれば、カメラ10が撮像した二次元画像に写された他車両を認識して全体領域を設定した後、全体領域内の他車両における基準面を認識して基準領域を設定し、全体領域と基準領域とに基づいて物標領域を設定する。これにより、第1実施形態の認識装置100では、カメラ10が撮像した二次元画像に基づいて、自車両Mの周囲に存在する他車両を三次元空間内で認識しているように表現した物標領域を設定することができる。言い換えれば、第1実施形態の認識装置100では、カメラ10によって三次元の画像を撮像しなくとも、他車両を三次元空間内で認識しているように表現した物標領域を設定することができる。
しかも、第1実施形態の認識装置100では、全体領域と基準領域とのそれぞれを設定するために用いる学習済みモデルは、ともに二次元画像からそれぞれの領域を設定するためのモデルである。言い換えれば、全体領域を設定するために用いる全体領域学習済みモデルと、基準領域を設定するために用いる基準領域学習済みモデルとは、処理の負荷が低い(軽い)モデルである。このため、第1実施形態の認識装置100では、三次元空間内に存在する他車両を、低負荷で認識することができる。なお、全体領域と基準領域とのそれぞれを設定するために用いる学習済みモデルの一方または両方として、既存の学習済みモデルを利用してもよい。この場合であっても、学習済みモデルにおける処理の負荷は低くなり(軽くなり)、第1実施形態の認識装置100は、三次元空間内に存在する他車両を低負荷で認識することができる。
これらのことにより、第1実施形態の認識装置100では、認識した物標領域をカメラ10が撮像した二次元画像に重畳した画像を表示装置20に表示させることにより、低負荷の処理で、自車両Mが他車両の存在を三次元空間内で認識しているように、運転者に視覚的に知らせることができる。さらに、第1実施形態の認識装置100では、設定した物標領域に基づいて、他車両の状態を推定し、推定した他車両の状態を表す情報を二次元画像に重畳した画像を表示装置20に表示させることもできる。これにより、第1実施形態の認識装置100を備える認識システム1が搭載される自車両Mでは、運転者が、表示装置20が表示した画像を見ることによって、自車両Mが他車両の存在を認識している(例えば、リスクとして認識している)ことを、視覚的に知ることができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態は、第1実施形態の認識装置100の機能を、自動運転を行う車両システムに搭載した場合の一例である。
[車両システムの全体構成]
図8は、第2実施形態に係る認識装置の機能を搭載した車両システム1Aの構成図である。車両システム1Aが搭載される車両も、第1実施形態の認識装置100を備える認識システム1が搭載される車両と同様に、例えば、二輪や三輪、四輪等の車両である。
車両システム1Aは、例えば、カメラ10と、レーダ装置32と、ファインダ34と、物標認識装置36と、通信装置40と、HMI(Human Machine Interface)50と、車両センサ60と、ナビゲーション装置70と、MPU(Map Positioning Unit)80と、運転操作子90と、自動運転制御装置(automated driving control device)200と、走行駆動力出力装置300と、ブレーキ装置310と、ステアリング装置320とを備える。なお、図8に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
車両システム1Aが備える構成要素には、第1実施形態の認識装置100および認識装置100を備える認識システム1と同様の構成要素を含んでいる。以下の説明においては、車両システム1Aが備える構成要素において、第1実施形態の認識装置100および認識装置100を備える認識システム1と同様の構成要素には同一の符号を付与し、それぞれの構成要素に関する詳細な説明を省略する。
レーダ装置32は、自車両Mの周辺にミリ波などの電波を放射すると共に、物標によって反射された電波(反射波)を検出して少なくとも物標の位置(距離および方位)を検出する。レーダ装置32は、自車両Mの任意の箇所に取り付けられる。
ファインダ34は、LIDAR(Light Detection and Ranging)である。ファインダ34は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ34は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ34は、自車両Mの任意の箇所に取り付けられる。
物標認識装置36は、カメラ10、レーダ装置32、およびファインダ34のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物標の位置、種類、速度などを認識する。物標認識装置36は、認識結果を自動運転制御装置200に出力する。物標認識装置36は、カメラ10、レーダ装置32、およびファインダ34の検出結果をそのまま自動運転制御装置200に出力してよい。車両システム1Aから物標認識装置36が省略されてもよい。
通信装置40は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI50は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI50は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。HMI50が備える表示装置は、第1実施形態の認識装置100を備える認識システム1における表示装置20と共通化されてもよい。
車両センサ60は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置70は、例えば、GNSS(Global Navigation Satellite System)受信機71と、ナビHMI72と、経路決定部73とを備える。ナビゲーション装置70は、HDDやフラッシュメモリなどの記憶装置に第1地図情報74を保持している。GNSS受信機71は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。ナビHMI72は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI72が備える表示装置は、第1実施形態の認識装置100を備える認識システム1における表示装置20と共通化されてもよい。また、ナビHMI72は、前述したHMI50と一部または全部が共通化されてもよい。経路決定部73は、例えば、GNSS受信機71により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI72を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報74を参照して決定する。第1地図情報74は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図上経路は、MPU80に出力される。
MPU80は、例えば、推奨車線決定部81を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報82を保持している。推奨車線決定部81は、ナビゲーション装置70から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報82を参照してブロックごとに推奨車線を決定する。推奨車線決定部81は、左から何番目の車線を走行するといった決定を行う。
第2地図情報82は、第1地図情報74よりも高精度な地図情報である。第2地図情報82は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報82には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。
運転操作子90は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子90には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置200、もしくは、走行駆動力出力装置300、ブレーキ装置310、およびステアリング装置320のうち一部または全部に出力される。
自動運転制御装置200は、例えば、第1制御部220と、第2制御部260とを備える。第1制御部220と第2制御部260は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの構成要素のうち一部または全部は、専用のLSIによって実現されてもよい。プログラム(ソフトウェア)は、予め自動運転制御装置200のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで自動運転制御装置200のHDDやフラッシュメモリにインストールされてもよい。車両システム1Aにおいては、第1実施形態の認識装置100の機能を、自動運転制御装置200の機能として実行する。
図9は、第1制御部220および第2制御部260の機能構成図である。第1制御部220は、例えば、認識部230と、行動計画生成部240とを備える。第1制御部220は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。
認識部230は、カメラ10、レーダ装置32、およびファインダ34から物標認識装置36を介して入力された情報に基づいて、自車両Mの周辺にある物標の位置、および速度、加速度等の状態を認識する。また、認識部230は、例えば、自車両Mが走行している車線(走行車線)を認識する。また、認識部230は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。
車両システム1Aにおいて、第1実施形態の認識装置100の機能は、認識部230の機能として実行する。このため、認識部230は、第1実施形態の認識装置100が備える全体領域設定部110、基準領域設定部130、および物標領域設定部150を備える。そして、認識部230では、前述した認識部230の一部の機能を、全体領域設定部110、基準領域設定部130、および物標領域設定部150によって実現する。より具体的には、全体領域設定部110、基準領域設定部130、および物標領域設定部150によって、自車両Mの周辺に存在する物標のうち他車両を認識する。そして、認識部230は、物標領域設定部150が備える推定部151が推定した他車両の位置を含む他車両の状態を表す情報を、認識結果として行動計画生成部240に出力する。
行動計画生成部240は、原則的には推奨車線決定部81により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(Automatedly)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点を順に並べたものとして表現される。行動計画生成部240は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。
第2制御部260は、行動計画生成部240によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置300、ブレーキ装置310、およびステアリング装置320を制御する。
図9に戻り、第2制御部260は、例えば、取得部262と、速度制御部264と、操舵制御部266とを備える。取得部262は、行動計画生成部240により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部264は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置300またはブレーキ装置310を制御する。操舵制御部266は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置320を制御する。
走行駆動力出力装置300は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置300は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部260から入力される情報、或いは運転操作子90から入力される情報に従って、上記の構成を制御する。
ブレーキ装置310は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部260から入力される情報、或いは運転操作子90から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。なお、ブレーキ装置310は、上記説明した構成に限らず、第2制御部260から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置320は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部260から入力される情報、或いは運転操作子90から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
上記に述べたとおり、認識装置の機能を搭載した第2実施形態の車両システム1Aによれば、カメラ10が撮像した二次元画像に写された他車両を認識して物標領域を設定する。これにより、第2実施形態の車両システム1Aでは、カメラ10が撮像した二次元画像に基づいて、カメラ10によって三次元の画像を撮像しなくとも、三次元空間内に存在する他車両を低負荷で認識し、自車両Mにおける自動運転の制御をすることができる。そして、第2実施形態の車両システム1Aが搭載される自車両Mでは、二次元画像を撮像するカメラ10を搭載することにより、三次元画像を撮像するカメラを搭載するよりも低コストで自動運転のシステムを実現することができる。
上記に述べたとおり、実施形態の認識装置では、他車両の全体領域を設定する全体領域学習済みモデルと、全体領域内に他車両の基準領域を設定する基準領域学習済みモデルとを用いて、二次元画像に写されている他車両の領域を三次元空間内で認識しているように表現する物標領域を設定する。これにより、実施形態の認識装置では、より低負荷な処理で三次元空間内の他車両を認識することができる。例えば、三次元空間内で他車両を認識する従来の処理では、他車両の車長の計測や、より複雑な学習済みモデルを用いて他車両を認識することが必要であった。これに対して実施形態の認識装置では、上述したように二次元画像内で全体領域および基準領域という2つの領域を認識して設定することによって、三次元空間内で他車両を認識することができる。
しかも、実施形態の認識装置において用いる学習済みモデルは、全体領域または基準領域を設定する学習済みモデルであるため、この学習済みモデルを生成する際に使用するデータ(学習データ(画像データ)や、正解データ(教師データ))は、三次元で他車両を認識する学習済みモデルを生成する際に使用するデータのような複雑な(特殊な)データである必要がない。言い換えれば、実施形態の認識装置において用いる学習済みモデルにおける機械学習は、三次元で他車両を認識する学習済みモデルにおける機械学習よりも容易であり、機械学習をするための学習コストを低く抑えることができる。
このことにより、実施形態の認識装置を備える認識システム1や車両システム1Aが搭載される自車両Mでは、三次元空間内に存在する他車両を、より低負荷、低コストで実現することができる。
以上説明した、例えば、第1実施形態の認識装置100によれば、自車両Mの周囲を撮像するカメラ10により撮像された二次元画像に写された他車両を認識し、二次元画像内に認識した他車両を含む全体領域を設定する全体領域設定部110と、他車両を構成する面のうち基準面に合致する基準領域を設定する基準領域設定部130と、全体領域および基準領域に基づいて、他車両の領域を所定形状(三次元空間内で他車両を認識しているように表す立体形状)で表した物標領域を設定する物標領域設定部150と、を備えることにより、自車両Mの周囲に存在する他車両の存在を三次元空間内で認識しているように、視覚的に運転者に知らせることができる。
[ハードウェア構成]
図10は、第1実施形態の認識装置100のハードウェア構成の一例を示す図である。図示するように、認識装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDDなどの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、認識装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、認識装置100、より具体的には、全体領域設定部110や、基準領域設定部130、物標領域設定部150のうち一部または全部が実現される。
なお、第2実施形態の自動運転制御装置200のハードウェア構成は、図10に示した第1実施形態の認識装置100のハードウェア構成と同様である。従って、第2実施形態の自動運転制御装置200のハードウェア構成に関する詳細な説明は省略する。
上記説明した実施形態は、以下のように表現することができる。
ハードウェアプロセッサと、
プログラムを記憶した記憶装置と、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを読み出して実行することにより、
車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識し、前記二次元画像内に前記認識した前記物標を含む第1領域を設定し、
前記物標を構成する面のうち基準面に合致する第2領域を設定し、
前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定する、
ように構成されている、認識装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1・・・認識システム
10・・・カメラ
20・・・表示装置
100・・・認識装置
110・・・全体領域設定部
130・・・基準領域設定部
150・・・物標領域設定部
151・・・推定部
RA・・・全体領域
RB・・・基準領域
RC・・・複製領域
RO,RO1,RO2,RO3,RO4,RO5,RO6,RO7・・・物標領域
SL1,SL2,SL3・・・対角直線
M・・・自車両
V1,V2,V3,V4,V5,V6,V7・・・他車両(物標)
IM・・・画像
DM・・・進行方向
D1,D2,D3,D4,D5,D6,D7・・・移動方向
L5,L6,L7・・・車長
1A・・・車両システム
32・・・レーダ装置
34・・・ファインダ
36・・・物標認識装置
40・・・通信装置
50・・・HMI
60・・・車両センサ
70・・・ナビゲーション装置
71・・・GNSS受信機
72・・・ナビHMI
73・・・経路決定部
74・・・第1地図情報
80・・・MPU
81・・・推奨車線決定部
82・・・第2地図情報
90・・・運転操作子
200・・・自動運転制御装置
220・・・第1制御部
230・・・認識部
240・・・行動計画生成部
260・・・第2制御部
262・・・取得部
264・・・速度制御部
266・・・操舵制御部
300・・・走行駆動力出力装置
310・・・ブレーキ装置
320・・・ステアリング装置

Claims (8)

  1. 車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識し、前記二次元画像内に前記認識した前記物標を含む第1領域を設定する第1領域設定部と、
    前記物標を構成する面のうち基準面に合致する第2領域を設定する第2領域設定部と、
    前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定する第3領域設定部と、
    を備える認識装置。
  2. 前記物標は、前記車両の周囲に存在する他車両であり、
    前記基準面は、前記他車両の前面または後面である、
    請求項1に記載の認識装置。
  3. 前記第1領域設定部は、前記二次元画像を入力すると前記第1領域を出力するように学習された第1学習済みモデルに対して、前記二次元画像を入力することで、前記第1領域を得て設定し、
    前記第2領域設定部は、前記第1領域の画像を入力すると前記第2領域を出力するように学習された第2学習済みモデルに対して、前記第1領域の画像を入力することで、前記第2領域を得て設定する、
    請求項1または請求項2に記載の認識装置。
  4. 前記第3領域設定部は、前記第1領域内における前記第2領域と対角の位置に前記第2領域と同じまたは遠近法を考慮して縮小したサイズの第4領域を設定し、前記第2領域と前記第4領域とのそれぞれの対応する角部の点を直線で結ぶことで、立体形状が表現された前記第3領域を設定する、
    請求項1から請求項3のうちいずれか1項に記載の認識装置。
  5. 前記物標は、前記車両の周囲に存在する他車両であり、
    前記第3領域における前記第2領域と前記第4領域とのそれぞれの対応する角部の点を結んだ直線に基づいて、前記他車両の移動方向を推定する第1推定部を更に備える、
    請求項4に記載の認識装置。
  6. 前記物標は、前記車両の周囲に存在する他車両であり、
    前記第3領域における前記第2領域と前記第4領域とのそれぞれの対応する角部の点を結んだ直線に基づいて、前記他車両の長手方向の長さを推定する第2推定部を更に備える、
    請求項4に記載の認識装置。
  7. コンピュータが、
    車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識し、前記二次元画像内に前記認識した前記物標を含む第1領域を設定し、
    前記物標を構成する面のうち基準面に合致する第2領域を設定し、
    前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定する、
    認識方法。
  8. コンピュータに、
    車両の周囲を撮像する撮像装置により撮像された二次元画像に写された物標を認識させ、前記二次元画像内に前記認識した前記物標を含む第1領域を設定させ、
    前記物標を構成する面のうち基準面に合致する第2領域を設定させ、
    前記第1領域および前記第2領域に基づいて、前記物標の領域を所定形状で表した第3領域を設定させる、
    プログラム。
JP2019182949A 2019-10-03 2019-10-03 認識装置、認識方法、およびプログラム Active JP7139300B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019182949A JP7139300B2 (ja) 2019-10-03 2019-10-03 認識装置、認識方法、およびプログラム
CN202010950347.8A CN112613335A (zh) 2019-10-03 2020-09-10 识别装置、识别方法及存储介质
US17/033,979 US20210103752A1 (en) 2019-10-03 2020-09-28 Recognition device, recognition method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182949A JP7139300B2 (ja) 2019-10-03 2019-10-03 認識装置、認識方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021060661A true JP2021060661A (ja) 2021-04-15
JP7139300B2 JP7139300B2 (ja) 2022-09-20

Family

ID=75224283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182949A Active JP7139300B2 (ja) 2019-10-03 2019-10-03 認識装置、認識方法、およびプログラム

Country Status (3)

Country Link
US (1) US20210103752A1 (ja)
JP (1) JP7139300B2 (ja)
CN (1) CN112613335A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004005A1 (ja) * 2022-06-28 2024-01-04 日立Astemo株式会社 外界認識装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250250A (ja) * 1998-02-27 1999-09-17 Fujitsu Ltd 三次元形状抽出装置及び記録媒体
WO2018184963A2 (en) * 2017-04-04 2018-10-11 Robert Bosch Gmbh Direct vehicle detection as 3d bounding boxes using neural network image processing
JP2019067402A (ja) * 2017-10-03 2019-04-25 株式会社ストラドビジョン 回帰分析により2dバウンディングボックスからスード(pseudo)−3dボックスを獲得する方法及びこれを利用した学習装置及びテスト装置
JP2019096072A (ja) * 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6700623B2 (ja) * 2016-10-07 2020-05-27 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
US11062461B2 (en) * 2017-11-16 2021-07-13 Zoox, Inc. Pose determination from contact points
US10586456B2 (en) * 2018-04-27 2020-03-10 TuSimple System and method for determining car to lane distance
US10937178B1 (en) * 2019-05-09 2021-03-02 Zoox, Inc. Image-based depth data and bounding boxes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250250A (ja) * 1998-02-27 1999-09-17 Fujitsu Ltd 三次元形状抽出装置及び記録媒体
WO2018184963A2 (en) * 2017-04-04 2018-10-11 Robert Bosch Gmbh Direct vehicle detection as 3d bounding boxes using neural network image processing
JP2019067402A (ja) * 2017-10-03 2019-04-25 株式会社ストラドビジョン 回帰分析により2dバウンディングボックスからスード(pseudo)−3dボックスを獲得する方法及びこれを利用した学習装置及びテスト装置
JP2019096072A (ja) * 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHICAHO YANG, 外1名: ""CubeSLAM: Monocular 3-D Object SLAM"", IEEE TRANSACTIONS ON ROBOTICS, vol. 第35巻, 第4号, JPN6022009527, 7 May 2019 (2019-05-07), US, pages 925 - 938, ISSN: 0004726999 *
森本祐介, 外2名: ""動領域抽出を用いた車両検出・追跡の研究"", 情報処理学会研究報告, JPN6022009529, 15 December 2010 (2010-12-15), JP, ISSN: 0004726998 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004005A1 (ja) * 2022-06-28 2024-01-04 日立Astemo株式会社 外界認識装置

Also Published As

Publication number Publication date
CN112613335A (zh) 2021-04-06
JP7139300B2 (ja) 2022-09-20
US20210103752A1 (en) 2021-04-08

Similar Documents

Publication Publication Date Title
JP6601696B2 (ja) 予測装置、予測方法、およびプログラム
JPWO2018138769A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
JP6859239B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7043279B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP7071250B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP6827026B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2020147139A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021068016A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7406432B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP6965152B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7330911B2 (ja) 車両用制御装置
JP7139300B2 (ja) 認識装置、認識方法、およびプログラム
JP2021068014A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7028838B2 (ja) 周辺認識装置、周辺認識方法、およびプログラム
JP7449751B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022154840A (ja) 検出装置、車両システム、検出方法、およびプログラム
JP7166988B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022142863A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP2022126341A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021149201A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022014172A (ja) 処理装置、処理方法、およびプログラム
JP2021047120A (ja) 認識装置、制御システム、認識方法、及びプログラム
JP7345515B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7050098B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7225185B2 (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220907

R150 Certificate of patent or registration of utility model

Ref document number: 7139300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150