JP2019008519A - 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム - Google Patents

移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム Download PDF

Info

Publication number
JP2019008519A
JP2019008519A JP2017123137A JP2017123137A JP2019008519A JP 2019008519 A JP2019008519 A JP 2019008519A JP 2017123137 A JP2017123137 A JP 2017123137A JP 2017123137 A JP2017123137 A JP 2017123137A JP 2019008519 A JP2019008519 A JP 2019008519A
Authority
JP
Japan
Prior art keywords
moving body
image
information indicating
moving
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017123137A
Other languages
English (en)
Inventor
谷川 徹
Toru Tanigawa
徹 谷川
幸恵 庄田
Yukie Shoda
幸恵 庄田
征矢 芋本
Seiya Imomoto
征矢 芋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to JP2017123137A priority Critical patent/JP2019008519A/ja
Priority to US15/957,209 priority patent/US20180373943A1/en
Priority to EP18176709.6A priority patent/EP3418947A1/en
Priority to CN201810617845.3A priority patent/CN109117706A/zh
Publication of JP2019008519A publication Critical patent/JP2019008519A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/0027Post collision measures, e.g. notifying emergency services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Abstract

【課題】車両の走行の障害になり得る移動体を、より高い精度で検出する。【解決手段】少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出方法は、対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得し(S301)、移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する(S302)。【選択図】図16

Description

本発明は、移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラムに関する。
自動車の運転支援技術、及び、自動運転技術が開発されつつある。これらの技術では、車載カメラにより車両の周囲を撮影し、車両の周囲にある物体を認識し、車両の走行の障害になり得る移動体を検出する技術が必要とされる。
特許文献1は、歩行者などの移動体の速度変化を誘発する事象、及び、移動体の速度変化を検出する。そして、速度変化が検出された移動体が、車両の走行の障害になり得る移動体として検出される。
特許第4967015号公報
しかしながら、特許文献1に開示される技術により速度変化が検出された移動体が、必ずしも車両の走行の障害になるとは限らない。つまり、特許文献1に開示される技術では、車両の走行の障害になり得る移動体の検出精度が低いという問題がある。
そこで、本発明は、車両の走行の障害になり得る移動体を、より高い精度で検出し得る移動体検出方法を提供する。
本発明の一態様に係る移動体検出方法は、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出方法であって、前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得し、移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の移動体検出方法は、車両の走行の障害になり得る移動体を、より高い精度で検出することができる。
図1は、実施の形態1における移動体検出システムの構成を示す図である。 図2は、実施の形態1におけるサーバの機能構成を示すブロック図である。 図3は、実施の形態1における画像格納部に格納される画像の一例を示す説明図である。 図4は、実施の形態1における訓練データを示す説明図である。 図5は、実施の形態1におけるアノテーション付与部が付与するアノテーションを示す説明図である。 図6は、実施の形態1における移動体の学習の概念を示す説明図である。 図7は、実施の形態1における車両の機能構成を示すブロック図である。 図8は、実施の形態1におけるサーバの処理を示すフロー図である。 図9は、実施の形態1における車載機器の処理を示すフロー図である。 図10は、実施の形態2における移動体検出システムの検出対象を示す説明図である。 図11は、実施の形態2におけるアノテーション付与部が付与するアノテーションを示す説明図である。 図12は、実施の形態2におけるサーバの処理を示すフロー図である。 図13は、実施の形態2における車載機器の処理を示すフロー図である。 図14は、各実施の形態の変形例に係る移動体学習方法を示すフロー図である。 図15は、各実施の形態の変形例に係る移動体学習装置を示すブロック図である。 図16は、各実施の形態の変形例に係る移動体検出方法を示すフロー図である。 図17は、各実施の形態の変形例に係る移動体検出装置を示すブロック図である。 図18は、各実施の形態の変形例に係る移動体検出方法を示すフロー図である。 図19は、各実施の形態の変形例に係る移動体検出システムを示すブロック図である。
本発明の一態様に係る移動体検出方法は、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出方法であって、前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得し、移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する。
上記態様によれば、認識モデルに基づいて、撮像画像における対象移動体が検出される。この認識モデルは、移動体が示された画像における当該移動体と、当該移動体の種別及び位置とを認識することができるものであるので、この認識モデルに撮影画像を入力することで、撮影画像における対象移動体がより高精度に検出され得る。このように、この移動体検出方法によれば、車両の走行の障害になり得る対象移動体を、より高い精度で検出できる。
例えば、前記認識モデルは、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって構築されたものであってもよい。
上記態様によれば、アノテーションを付与された訓練データを用いて構築された認識モデル、つまり、移動体が示された画像における当該移動体の種別及び位置の学習が行われることによって構築された認識モデルが用いられる。つまり、画像に示されている移動体の種別及び位置が認識モデルに教え込まれている。例えば、画像に示されている移動体の形状若しくは色彩等の特徴、又は、移動体の背景の画像等に基づいて、移動体の種別及び位置が学習されたものである。従って、認識モデルに撮影画像を入力することで、入力された撮影画像における移動体の種別及び位置が適切に検出され、対象移動体のより高精度の検出に貢献し得る。
例えば、前記対象移動体を検出する際には、前記撮影画像における前記移動体が人であることを示す前記種別情報と、前記移動体が車道に存在していることを示す前記位置情報とを取得することで、前記撮影画像における前記対象移動体を検出してもよい。
上記態様によれば、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において車道に位置している人が検出される。
例えば、前記対象移動体を検出する際には、前記撮影画像における前記移動体が自動車、自動二輪車又は自転車であることを示す前記種別情報と、前記移動体が歩道に存在していることを示す前記位置情報とを取得することで、前記撮影画像における前記対象移動体を検出してもよい。
上記態様によれば、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において歩道に位置している自動車、自動二輪車又は自転車が検出される。
例えば、前記撮影画像を取得する際には、時系列で連続して撮影された撮影された複数の前記撮影画像を取得し、前記訓練データを取得する際には、さらに(d)当該移動体の識別情報を含む前記アノテーションが付与された前記訓練データを取得し、前記認識モデルは、前記訓練データを用いて、当該移動体が車両の走行の障害になる所定時間前に当該移動体が行う所定動作である事前動作をさらに学習することによって構築され、前記移動体を検出する際には、前記認識モデルに複数の前記撮影画像を入力データとして入力することで出力される、複数の前記撮影画像における当該移動体の前記事前動作の有無を示す動作情報をさらに取得することで、複数の前記撮影画像における前記対象移動体を検出してもよい。
上記態様によれば、移動体の事前動作をさらに用いて学習することで構築された認識モデルに基づいて、撮影画像における対象移動体が検出される。この認識モデルは、移動体の識別情報がさらに付与されているので、複数の画像に亘る移動体の動作に基づいて事前動作の学習が行われることによって構築されたものとなる。つまり、画像に示されている移動体の種別及び位置に加えて、移動体の事前動作が認識モデルに教え込まれている。例えば、複数の画像に亘って示されている移動体の事前動作(より具体的には、人の首振り動作、歩行又は走行の減速又は一旦停止、又は、自動車のランプの点滅など)、及び、移動体の移動(より具体的には、歩道にいる人が車道に近づく移動、他の走行レーンから車両の走行レーンへの自動車の移動など)が教え込まれている。従って、認識モデルに撮影画像を入力することで、入力された撮影画像における移動体の種別、位置及び事前動作の有無が適切に検出され、対象移動体のより高精度の検出に貢献し得る。
例えば、前記対象移動体を検出する際には、前記撮影画像における前記移動体が人であることを示す前記種別情報と、前記移動体が歩道に存在していることを示す前記位置情報と、前記移動体が歩道から車道に移る前記所定時間前に行う前記事前動作をしていることを示す前記動作情報とを取得することで、前記撮影画像における前記対象移動体を検出してもよい。
上記態様によれば、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において歩道から車道に移動しようとする人が検出される。
例えば、前記対象移動体を検出する際には、前記撮影画像における前記移動体が自動車又は自動二輪車であることを示す前記種別情報と、前記移動体が車道に存在していることを示す前記位置情報と、前記移動体が前記対象車両の前方で前記対象車両の走行レーンに侵入する前記所定時間前に行う前記事前動作をしていることを示す前記動作情報とを取得することで、前記撮影画像における前記対象移動体を検出してもよい。
上記態様によれば、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において対象車両の走行レーンに侵入しようとする自動車等が検出される。
例えば、前記認識モデルは、ニューラルネットワークモデルであってもよい。
上記態様によれば、認識モデルとしてニューラルネットワークモデルを用いて、より具体的に、車両の走行の障害になり得る移動体をより高い精度で検出できる。
例えば、前記アノテーションが示す移動体の種別を示す情報は、人、自動車、自動二輪車、又は、自転車のいずれかを示す情報であってもよい。
上記態様によれば、アノテーションが示す移動体の種別を示す情報として、人、自動車、自動二輪車、又は、自転車のいずれかを示す情報を用いて、より具体的に、車両の走行の障害になり得る対象移動体をより高い精度で検出できる。
また、本実施の形態に係る移動体学習方法は、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出するための移動体学習方法であって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する。
上記態様によれば、アノテーションを付与された訓練データを用いて、移動体が示された画像における当該移動体の種別及び位置の学習が行われることによって認識モデルが構築される。つまり、画像に示されている移動体の種別及び位置が教え込まれた認識モデルが構築される。よって、この認識モデルを用いることで、車両の走行の障害になり得る対象移動体を、より高い精度で検出することができる。
例えば、前記訓練データを取得する際には、移動体が撮影された複数の前記画像それぞれに対して、(a)前記座標と、(b)前記種別情報と、(c)前記位置情報と、(d)当該移動体を一意に識別し得る識別情報とを含む前記アノテーションが付与された前記訓練データを取得し、前記認識モデルを構築する際には、前記訓練データを用いて、当該移動体が車両の走行の障害になる所定時間前に当該移動体が行う事前動作をさらに学習することによって、前記認識モデルを構築してもよい。
上記態様によれば、移動体の事前動作をさらに用いて学習することで認識モデルが構築される。この認識モデルは、移動体の識別情報がさらに付与されているので、複数の画像に亘る移動体の動作に基づいて事前動作の学習が行われることによって構築される。よって、この認識モデルを用いることで、車両の走行の障害になり得る対象移動体を、より高い精度で検出することができる。
例えば、前記訓練データに含まれる複数の前記画像のうち、走行レーンを横切る人が撮影された画像は、事前動作をしている移動体を含むことを示す事前動作情報をさらに含むアノテーションが付与されたものであってもよい。
上記態様によれば、移動体の種別、位置及び事前動作の学習の際に、走行レーンを横切る人を含む画像に事前動作情報を含むアノテーションが付された訓練データを用いた学習を行うことで認識モデルを構築する。これにより、車道に出ようとする人物の挙動を認識することにより、車道への飛び出しを事前に予測することが可能になる。
例えば、前記訓練データに含まれる前記アノテーションに含まれる前記位置情報は、歩道及び車道を含む位置のうち当該移動体が存在している2以上の位置を示してもよい。
上記態様によれば、アノテーションが示す移動体の位置として複数の位置を用いることで、複数の位置に跨って存在する移動体の位置情報をより高精度に学習することができる。
例えば、前記移動体の座標は、前記画像における前記移動体を背景を含んで取り囲む領域を示す座標を含んでもよい。
上記態様によれば、アノテーションが示す移動体の位置として移動体と背景を取り囲む領域が用いられ、背景を含む移動体の画像に基づいて移動体の位置が学習される。移動体の背景には、移動体の位置を示す情報が含まれているので、背景を含む移動体の画像に基づいて移動体の位置を学習することで、移動体の位置情報をより高精度に学習することができる。
また、本実施の形態に係る移動体検出装置は、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出装置であって、前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得する撮影画像取得部と、移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における当該移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する検出部とを備える。
上記態様によれば、上記移動体検出方法と同様の効果を奏する。
また、本実施の形態に係る移動体学習装置は、少なくとも1つのコンピュータが車両の走行の障害になり得る移動体である対象移動体を学習する移動体学習装置であって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得する訓練データ取得部と、前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する学習部とを備える。
上記態様によれば、上記移動体学習方法と同様の効果を奏する。
また、本実施の形態に係る移動体検出システムは、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出システムであって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得する訓練データ取得部と、前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する学習部と、前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得する撮影画像取得部と、車両の走行の障害になり得る移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における当該移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記移動体を検出する検出部とを備える。
上記態様によれば、上記移動体検出システムと同様の効果を奏する。
また、本実施の形態に係るプログラムは、コンピュータが車両の走行の障害になり得る移動体を学習するためのプログラムであって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築することを前記コンピュータに実行させるプログラムである。
上記態様によれば、上記移動体学習方法と同様の効果を奏する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
実施の形態1において、車両の走行の障害になり得る移動体を、より高い精度で検出できる移動体検出装置、及び、移動体検出システムなどについて説明する。
図1は、本実施の形態における移動体検出システムの構成を示すブロック図である。
本実施の形態における移動体検出システム10は、少なくとも1つのコンピュータからなるシステムであって、対象車両である車両11の周囲に存在する移動体のうち、車両11の走行の障害になり得る移動体(対象移動体ともいう)を検出する。具体的には、移動体検出システム10は、車両11に備えられている車載機器と、その車載機器にインターネットなどの通信網13を介して接続されるサーバ12とを備える。なお、移動体検出システム10が、車両11の周囲として、車両11の進行方向である前方に存在する対象移動体を検出する技術を例として説明するが、車両11の後方又は左右方向に本技術を採用することも可能である。
車両11の車載機器は、カメラを備え、そのカメラによる撮影によって画像を生成する。そして、車載機器は、その画像に移動体が映し出されている場合に、映し出されている移動体のうちの対象移動体を検出する。移動体は、例えば、人、自動車、自動二輪車、又は、自転車などである。車載機器は、認識モデルを用いた認識に基づいて対象移動体を検出する。認識に用いる認識モデルは、サーバ12から通信網13を介して取得される。
サーバ12は、表示装置14および入力デバイス15に有線通信または無線通信によって接続されている。表示装置14は、液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイを有し、サーバ12からの制御に応じた画像を表示する。入力デバイス15は、例えばキーボードおよびマウスなどを備え、ユーザによる入力操作に応じた操作信号をサーバ12に出力する。
また、サーバ12は、例えば、複数の端末装置(不図示)から通信網13を介して送信される画像を取得して保存する。具体的には、端末装置は、例えば車両11、又は、車両11以外の車両に備えられたカメラによる撮像によって得られた画像をサーバ12に通信網13を介して送信する。そして、サーバ12は、このように送信された画像を訓練用画像として用いて、訓練用画像における移動体の種別と位置とを学習することによって、認識モデルを構築する。そして、サーバ12は、その構築された認識モデルを通信網13を介して車両11に送信する。
図2は、本実施の形態におけるサーバ12の機能構成を示すブロック図である。
図2に示されるように、サーバ12は、訓練データ取得部120と、学習部127と、モデル格納部128と、制御部129とを備える。
訓練データ取得部120は、対象移動体の検出の学習に用いられる訓練データを取得する。具体的には、訓練データ取得部120は、移動体が示された画像に対して、当該移動体の座標、種別及び位置を示すアノテーションを付与することによって訓練データを取得する。
訓練データ取得部120は、画像格納部121と、アノテーション付与部122と、訓練データ格納部123とを備える。
画像格納部121は、RAM(Random Access Memory)またはハードディスクなどのデータを記録するための記録媒体である。画像格納部121には、例えばカメラによる撮像によって生成された複数の画像が複数の訓練用画像として格納される。
アノテーション付与部122は、訓練用画像に対してアノテーションを付与する。アノテーションは、移動体の座標と、種別情報と、位置情報とを含む。移動体の座標は、訓練用画像における移動体の座標(X,Y)であり、例えば画像の左上隅を(0,0)とし、右方向をX軸正方向とし、下方向をY軸正方向とする座標系に対する座標である。種別情報は、移動体の種別を示す情報であり、具体的には、人、自動車、自動二輪車、又は、自転車などのいずれかを示す情報である。位置情報は、歩道及び車道を含む複数の位置のうち移動体が存在している位置を示す情報である。車道の場合、さらに、路側帯、自車両走行レーン(言い換えれば車両11が走行する走行レーン)、対向車両走行レーン(言い換えれば車両11の対向車両が走行する走行レーン)、横断歩道、車道内にある駐車場(言い換えればパーキングメータが併設された駐車場)に細分化され得る。アノテーション付与部122は、入力デバイス15から制御部129を介して操作信号を取得し、その操作信号に応じて、アノテーションを訓練用画像に付与する。
なお、アノテーション付与部122は、訓練用画像へのアノテーションの付与を、画像解析技術等に基づいて自動的に行ってもよく、ユーザからの操作に応じて行ってもよい。つまり、アノテーション付与部122は、訓練用画像を解析することによって自動的に訓練用画像における移動体の座標と種別と位置とを決定してもよい。また、アノテーション付与部122は、表示装置14により訓練用画像を表示し、訓練用画像を視認したユーザにより入力デバイス15に入力された操作信号を取得することで、移動体の座標と種別と位置とを決定してもよい。なお、以降では、アノテーション付与部122が、訓練用画像を視認したユーザによる操作信号の入力に基づいてアノテーションを付与する場合を例として説明する。
なお、アノテーション付与部122は、歩道及び車道を含む位置のうち移動体が存在している2以上の位置を示す位置情報を含むアノテーションを訓練用画像に付してもよい。言い換えれば、訓練データに含まれるアノテーションに含まれる位置情報は、歩道及び車道を含む位置のうち当該移動体が存在している2以上の位置を示す位置情報であってもよい。このようにすることで、複数の位置に跨って存在する移動体の位置情報を適切に表現することができ、後述する学習部127による学習の精度を向上することができる。
訓練データ格納部123は、RAMまたはハードディスクなどのデータを記録するための記録媒体である。訓練データ格納部123には、アノテーションが付与された訓練用画像が訓練データとして格納される。
学習部127は、訓練データを用いて移動体の種別及び位置を学習する。すなわち、学習部127は、訓練データ格納部123に格納されている訓練データを用いて、訓練用画像における移動体の種別及び位置を学習することによって、認識モデルを構築する。学習部127は、構築した認識モデルをモデル格納部128に格納する。
学習部127による学習は、Deep Learning(Neural Network)、Random Forest、またはGenetic Programmingなどの機械学習である。また、画像中の物体の認識およびセグメンテーションには、グラフカットなどを用いることができる。あるいは、Random ForestまたはGenetic Programmingによって作成された認識器などを用いてもよい。また、学習部127が構築する認識モデルは、ニューラルネットワークモデルであってもよい。
学習部127が構築する認識モデルは、移動体が撮影された画像における移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルである。認識モデルは、より具体的には、例えば、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、取得した訓練データを用いて、車両11の走行の障害になり得る移動体の種別情報及び位置情報を学習することによって構築されたものである。
モデル格納部128は、RAMまたはハードディスクなどのデータを記録するための記録媒体である。このモデル格納部128には、学習部127によって構築された認識モデルが格納される。モデル格納部128に格納された認識モデルは、制御部129を介して車載機器110に提供される。
制御部129は、入力デバイス15からの操作信号を取得し、その操作信号に応じて訓練データ取得部120、学習部127および表示装置14を制御する。また、モデル格納部128に格納されている認識モデルを車載機器110に提供する。
次に、訓練データ取得部120が訓練用画像を取得してから、訓練用画像にアノテーションを付与することで訓練データを生成し、訓練データ格納部123に格納する処理について詳しく説明する。
図3は、本実施の形態における画像格納部121に格納される画像の一例を示す説明図である。図4は、本実施の形態における訓練データを示す説明図である。図5は、本実施の形態におけるアノテーション付与部122が付与するアノテーションを示す説明図である。
図3に示される画像は、移動体が撮影された画像(訓練用画像)の一例である。この画像は、予め車両11に搭載されたカメラによって過去に実際に撮影された画像であってもよいし、一般のカメラによって撮影された画像であってもよいし、コンピュータを用いた描画により生成された画像、いわゆるCG(Computer Graphics)であってもよい。なお、車両11に搭載されるカメラは、画角を広げるために魚眼レンズを採用することもある。魚眼レンズを採用するカメラが取得した画像は、当該画像内の一部が歪曲していることもあるが、歪曲した画像であっても同様の説明が成立する。
図3に示される画像には、移動体としての人21、22、23及び24、並びに、自動車25が撮影されている。移動体のうち、車道に位置している人22、及び、歩道に位置している自動車25は、車両11の進路の妨害になり得る、つまり、車両11の走行の障害になり得る対象移動体であると考えられる。一方、人21、23及び24は、歩道に位置しており、車両11の走行の障害になる蓋然性が比較的低いと考えられる。
図3に示される訓練用画像は、アノテーション付与部122に提供される。そして、アノテーション付与部122は、訓練用画像に対してアノテーションを付与する。
図3に示される訓練用画像に対するアノテーションの付与について図4を参照しながら説明する。
アノテーション付与部122は、制御部129を通じて図3に示される画像を表示装置14に表示し、ユーザに視認させる。
ユーザは、図3に示される画像を視認して、画像に示されている移動体として、人21、22、23及び24、並びに、自動車25を認識する。また、歩道31及び車道32を認識する。
ユーザは、認識した移動体それぞれについて、当該移動体を囲む枠を設定する。ユーザは、例えば移動体である人21に対して枠41を入力デバイス15を介して設定する。ユーザは、同様に、その他の移動体である人22、23及び24、並びに、自動車25について、それぞれ、枠42、43、44、及び、45を設定する。なお、枠41等の形状は特に限定されないが、矩形、又は、多角形とすれば、比較的少ない情報量で枠41の位置及び形状を規定できる利点がある。例えば、矩形の枠であれば、矩形の左上の頂点と右下の頂点との2つの座標(二次元座標)により規定され、多角形の枠であれば複数の頂点それぞれの座標により規定され得る。ユーザが枠を設定すると、アノテーション付与部122は、ユーザが設定した枠に対応する座標を、画像における移動体の座標として取得する。
また、ユーザは、認識した移動体それぞれについて、当該移動体の種別と、当該移動体が存在している位置とを入力デバイス15を介して設定する。例えば、移動体である人21は、歩道にいる人であるので、移動体の種別を「人」と設定し、位置を「歩道」と設定する。また、移動体である人22については、移動体の種別を「人」と設定し、位置を「車道」と設定する。移動体である人23及び24、並びに、自動車25についても同様に設定する。
アノテーション付与部122は、移動体それぞれの種別及び位置についてのユーザによる設定を制御部129を通じて受け取る。アノテーション付与部122が受け取る移動体それぞれの座標、種別及び位置を図5を参照しながら説明する。
図5は、移動体それぞれについての、訓練用画像における当該移動体の座標、当該移動体の種別、及び、当該移動体の位置を示している。例えば、移動体である人21については、座標が、枠の左上頂点の座標(x11,y11)及び右下頂点の座標(x12,y12)であり、種別が「人」であり、位置が「歩道」であることが示されている。
次に、学習部127の学習処理について概念的に説明する。
図6は、本実施の形態における移動体の学習の概念を示す説明図である。図6の(a)は、図5の人21を取り囲む枠41を拡大して示すものであり、図6の(b)は、図5の人22を取り囲む枠42を拡大して示すものである。
学習部127は、訓練データ、つまり、訓練用画像と、移動体の座標と、種別と、位置とから、訓練用画像における移動体の種別と位置とをDeep Learningなどの機械学習により学習する。以下で機械学習による学習の方法の一例を示すが、学習の方法には、さまざまなものが検討されており、他の方法を採用することも可能である。
例えば、学習部127は、訓練用画像における移動体を取り囲む枠内の画像と、移動体の種別とにより、移動体の種別を学習する。このとき、例えば、訓練用画像に含まれる移動体の画像の特徴が用いられ得る。また、学習部127は、訓練用画像における移動体を取り囲む枠内の画像と、移動体の位置とにより移動体の位置を学習する。ここで、移動体の位置は、歩道及び車道を含む複数の位置のいずれかである。なお、車道は、路側帯、自車両走行レーン、対向車両走行レーン、横断歩道、車道内にある駐車場に細分化され得る。移動体の位置の学習には、例えば、訓練用画像に含まれる、移動体の背景の画像の特徴が用いられ得る。ここで、車道に存在する移動体の背景の画像には、車道又は歩道の地面(例えば、アスファルト舗装、コンクリート舗装、舗装上に設けられる白線塗料、砂利など)の模様、及び、空(青空、雲など)の模様が含まれることが比較的多いこと、及び、歩道に存在する移動体の背景の画像には、道路の周辺の建造物及び施設の模様が含まれることが比較的多いという特徴が用いられ得る。
次に、移動体検出を行う車載機器110、及び、車載機器110を搭載した車両11について説明する。
なお、移動体を取り囲む枠は、訓練用画像における移動体を、背景を含んで取り囲むように設定されてもよい。言い換えれば、移動体の座標は、訓練用画像における移動体を背景を含んで取り囲む領域を示す座標を含むように設定されてもよい。移動体の背景には、移動体の位置を示す情報が含まれているので、背景を含む移動体の画像に基づいて移動体の位置を学習することで、移動体の位置情報をより高精度に学習することができる。
図7は、車両11の機能構成を示すブロック図である。
車両11は、車載機器110と、車両駆動機構115とを備える。
車載機器110は、カメラ111と、認識器112と、提示装置113と、車両制御装置114とを備える。
カメラ111は、車両11の周囲を撮影するように車両11に搭載されている。具体的には、カメラ111は、車両11の前方を撮影できる位置及び向きで車両11に搭載されている。カメラ111は、車両11の前方を撮影したときには、その撮影によって生成される画像である撮影画像を認識器112に出力する。
認識器112は、サーバ12から通信網13を介して認識モデルを取得して保持している。ここで、認識器112が取得する認識モデルは、移動体が撮影された画像における移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルである。また、認識器112は、車両11に搭載されたカメラ111による車両11の前方の撮影によって生成される画像である撮影画像を取得する。そして、認識器112は、その撮影画像を入力データとして認識モデルに入力することによって、撮影画像における移動体を検出する。具体的には、認識器112は、撮影画像における移動体の種別情報及び位置情報を取得することで、撮影画像における対象移動体を検出する。
より具体的には、認識器112は、撮影画像における移動体の種別情報及び位置情報を取得し、取得した種別情報及び位置情報が、当該移動体が対象移動体である場合に満たす予め定められた条件を満たすか否かを判定する。そして、その判定結果に基づいて、撮影画像における移動体を対象移動体として検出する。
例えば、認識器112は、撮影画像における対象移動体を検出する際には、移動体が人であることを示す種別情報と、移動体が車道に存在していることを示す位置情報とを取得することで、撮影画像における対象移動体を検出する。
また、例えば、認識器112は、撮影画像における対象移動体を検出する際には、移動体が自動車、自動二輪車又は自転車であることを示す種別情報と、移動体が歩道に存在していることを示す位置情報とを取得することで、撮影画像における対象移動体を検出する。
なお、車道は、路側帯、自車両走行レーン、対向車両走行レーン、横断歩道、車道内にある駐車場に細分化され得る。例えば、認識器112は、自車両走行レーンに存在する人を対象移動体として検出する一方、対向車両走行レーンに存在する人を対象移動体として検出しないことにしてもよい。自車両走行レーンに存在する人の方が、車両11の走行の障害になる蓋然性が比較的高いからである。
さらに、認識器112は、その特定された移動体を示す出力データを提示装置113と車両制御装置114とに出力する。出力データは、例えば、撮影画像に対して、その特定された移動体を指し示す図形(枠、矢印など)が重畳された画像である提示画像を含む。
提示装置113は、情報を提示する提示装置であり、例えば、液晶ディスプレイ若しくは有機ELディスプレイ等の表示装置、又は、スピーカ等の音出力装置を含む。ここでは、提示装置113が表示装置である場合を例として説明する。
提示装置113は、認識器112から出力データを取得すると、その出力データを画像として表示する。具体的には、提示装置113は、撮影画像に対して、その特定された対象移動体を指し示す図形が重畳された提示画像を表示する。これにより、カメラ111によって撮影された撮影画像における、検出された対象移動体の位置が、提示画像によって車両11の運転者に提示される。
車両制御装置114は、車両11の駆動、特に、車両11の加速及び減速を制御する制御装置である。車両制御装置114は、認識器112から出力データを取得すると、その出力データに基づいて、車両制御装置114は、例えば車両11を減速させる制御を行う。車両11の駆動の制御は、車両駆動機構115によりなされる。
車両駆動機構115は、車両11の駆動を制御する制御装置である。車両駆動機構115は、車両制御装置114からの制御の下で、車両11の駆動、具体的には、加減速及び操舵などの制御を行う。
以上のように構成された移動体検知システムが実行する処理について説明する。
図8は、本実施の形態におけるサーバ12が行う移動体学習方法に係る処理を示すフロー図である。
ステップS121において、サーバ12のアノテーション付与部122は、画像格納部121から訓練用画像を取得する。
ステップS122において、アノテーション付与部122は、ステップS121で取得した訓練用画像に移動体が示されているかを、操作信号または画像処理に基づいて判定する。アノテーション付与部122は、移動体が示されていると判定した場合(ステップS122でYes)、ステップS123に進み、そうでない場合(ステップS122でNo)、ステップS125に進む。
ステップS123において、アノテーション付与部122は、ステップS121で取得した訓練用画像に対してアノテーションを付与する。アノテーションは、訓練用画像における移動体の座標と、種別情報と、位置情報とを含む。
ステップS124において、アノテーション付与部122は、アノテーションを付与した訓練用画像を、訓練データとして訓練データ格納部123に格納する。
ステップS125において、訓練データ取得部120は、移動体が示されているか否かについての判定が行われていない訓練用画像、すなわち未処理の訓練用画像が画像格納部121にあるか否かを判定する。未処理の訓練用画像があると判定した場合(ステップS125でYes)、未処理の訓練用画像に対してステップS121からの処理を実行する。一方、未処理の訓練用画像がないと判定した場合(ステップS125でNo)、ステップS126に進む。
ステップS126において、学習部127は、訓練データ格納部123に格納されている訓練データを用いて訓練画像における移動体の種別と位置とを学習する。これにより、学習部127は、移動体の種別と位置との認識モデルを構築し、その認識モデルをモデル格納部128に格納する。
図9は、本実施の形態における車載機器110が行う移動体検出方法に係る処理を示すフローチャートである。
ステップS111において、車載機器110のカメラ111は、撮影によって撮影画像を生成する。
ステップS112において、認識器112は、ステップS111でカメラ111が生成した撮影画像を入力データとして認識モデルに入力する。
ステップS113において、認識器112は、ステップS112で撮影画像を認識モデルに入力したことにより出力される情報を得る。認識モデルから出力される情報は、ステップS112で認識モデルに入力された撮影画像における移動体の種別情報と位置情報とを含む。認識器112は、認識モデルから出力される情報を得ることで、撮影画像における対象移動体を検出する。
ステップS114において、車載機器110は、ステップS113で得た、撮影画像における移動体の種別情報と位置情報とに基づいて対象移動体に関する情報の提示、又は、車両11の制御を行う。移動体に関する情報の提示は、提示装置113により行われる。すなわち、提示装置113は、例えば、対象移動体の種別情報と位置情報とを示す画像データを生成し、生成した画像データに基づいて画像を提示する。なお、提示装置113は、種別情報と位置情報とをユーザに知らせるための音声データを生成し、生成した音声データに基づいて音声を出力してもよい。
また、車両11の制御は、車両制御装置114により行われる。すなわち、車両制御装置114は、例えば、対象移動体との衝突を回避すべく、車両11を減速させる制御を行う。
このようにすることで、移動体検出システム10では、サーバ12による機械学習により生成した移動体の種別及び位置に関する認識モデルを用いて、車載機器110により車両11の前方にある、車両11の走行の障害になり得る対象移動体をより高い精度で検出することができる。
以上のように、本実施の形態の移動体検出方法によれば、認識モデルに基づいて、撮像画像における対象移動体が検出される。この認識モデルは、移動体が示された画像における当該移動体と、当該移動体の種別及び位置とを認識することができるものであるので、この認識モデルに撮影画像を入力することで、撮影画像における対象移動体がより高精度に検出され得る。このように、この移動体検出方法によれば、車両の走行の障害になり得る対象移動体を、より高い精度で検出できる。
また、アノテーションを付与された訓練データを用いて構築された認識モデル、つまり、移動体が示された画像における当該移動体の種別及び位置の学習が行われることによって構築された認識モデルが用いられる。つまり、画像に示されている移動体の種別及び位置が認識モデルに教え込まれている。例えば、画像に示されている移動体の形状若しくは色彩等の特徴、又は、移動体の背景の画像等に基づいて、移動体の種別及び位置が学習されたものである。従って、認識モデルに撮影画像を入力することで、入力された撮影画像における移動体の種別及び位置が適切に検出され、対象移動体のより高精度の検出に貢献し得る。
また、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において車道に位置している人が検出される。
また、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において歩道に位置している自動車、自動二輪車又は自転車が検出される。
また、認識モデルとしてニューラルネットワークモデルを用いて、より具体的に、車両の走行の障害になり得る移動体をより高い精度で検出できる。
また、アノテーションが示す移動体の種別を示す情報として、人、自動車、自動二輪車、又は、自転車のいずれかを示す情報を用いて、より具体的に、車両の走行の障害になり得る対象移動体をより高い精度で検出できる。
また、アノテーションを付与された訓練データを用いて、移動体が示された画像における当該移動体の種別及び位置の学習が行われることによって認識モデルが構築される。つまり、画像に示されている移動体の種別及び位置が教え込まれた認識モデルが構築される。よって、この認識モデルを用いることで、車両の走行の障害になり得る対象移動体を、より高い精度で検出することができる。
また、アノテーションが示す移動体の位置として複数の位置を用いることで、複数の位置に跨って存在する移動体の位置情報をより高精度に学習することができる。
また、アノテーションが示す移動体の位置として移動体と背景を取り囲む領域が用いられ、背景を含む移動体の画像に基づいて移動体の位置が学習される。移動体の背景には、移動体の位置を示す情報が含まれているので、背景を含む移動体の画像に基づいて移動体の位置を学習することで、移動体の位置情報をより高精度に学習することができる。
(実施の形態2)
実施の形態2において、車両の走行の障害になり得る移動体を、より高い精度で検出できる移動体検出装置、及び、移動体検出システムなどにおいて、移動体の位置をより詳細に識別し、詳細に識別した位置に基づいて移動体を検出し得る移動体検出装置などについて説明する。
まず、本実施の形態の移動体検出装置が検出し得る検出対象について図10を参照しながら説明する。
図10は、本実施の形態における移動体検出システムの検出対象を示す説明図である。
図10には、車両11から見た人21が示されている。人21は、当初歩道に存在しており、その後、歩道から車道に移動する人の一例である。図10において、人を指す矢印に付した「T0」、「T20」などの符号は、時刻を示している。ここで、時刻は、T0、T1、T2、T3・・・というように進行するものとし、図10には、そのうちのいくつかの時刻における人21を示されている。
図10に示されるように、人21は、時刻T50より過去の時点では歩道に位置しており、時刻T50に歩道から車道に移り、その後、車道を横切って歩行したとする。
人は、一般に、歩道から車道に移るときに左右確認のための首振り動作、歩行又は走行の減速又は一旦停止などの動作(以降、事前動作ともいう)を行う。そこで、移動体検出システムは、人が歩道から車道に移る直前の所定時間の動作を学習することで、事前動作を検出し得る学習データを生成する。そして、本実施の形態の移動体検出システムは、車両11の走行中に撮影する画像において、事前動作をしている移動体を検出し、運転者への提示又は車両11の制御を行う。
本実施の形態の移動体検出システムは、実施の形態1における移動体検出システム10と、概ね同様の構成を有するが、サーバ12におけるアノテーション付与部122及び学習部127の処理が異なる。また、車載機器110における認識器112の処理が異なる。以降において、実施の形態1における移動体検出システム10と異なる部分について説明する。
本実施の形態では、訓練用画像は、時系列で連続して撮影された、移動体が撮影された複数の撮影画像を含む。画像格納部121は、時系列で連続して撮影された、移動体が撮影された複数の撮影画像を取得する。
本実施の形態のアノテーション付与部122が訓練用画像に付与するアノテーションは、移動体に固有の識別情報を含む。すなわち、本実施の形態のアノテーション付与部122が付与するアノテーションは、移動体の座標と、種別情報と、位置情報とに加えて、識別情報を含む。そして、アノテーション付与部122がアノテーションを付与した訓練画像が訓練データとして訓練データ格納部123に格納される。
識別情報とは、一の移動体(例えば、人21)を、他の移動体から識別し得る識別子である。識別情報がアノテーションとして訓練用画像に付与されることで、時系列で連続して撮影された複数の撮影画像に亘って同一の移動体が特定され得る。
また、アノテーション付与部122は、訓練データ格納部123に格納された訓練データに基づいて、歩道から車道に移る移動体を含む画像について、移動体が歩道から車道に移る時刻の直前の所定時間内の画像に事前動作情報を付与する。ここで、事前動作情報は、当該移動体が事前動作をしていることを示す情報である。
なお、アノテーション付与部122が事前動作情報を付与する画像は、車両11が走行している走行レーンを横切る人のみを含むもの、言い換えれば、走行レーンを横切らない人を含まないものであってもよい。すなわち、訓練データに含まれる複数の画像のうち、走行レーンを横切る人が撮影された画像は、事前動作情報をさらに含むアノテーションが付与されたものであってもよい。これにより、移動体検出システム10は、車道に出ようとする人物の挙動を認識することにより、車道への飛び出しを事前に予測することが可能になる。
本実施の形態の学習部127は、訓練データを用いて移動体の種別、位置、及び、事前動作の有無を学習する。すなわち、学習部127は、訓練データ格納部123に格納されている訓練データを用いて、訓練用画像における移動体の種別、位置及び事前動作を学習することによって、認識モデルを構築する。ここで、訓練データには、識別情報を含むアノテーションがアノテーション付与部122により付与されているので、複数の訓練データに亘って同一の移動体が特定され、当該移動体の移動及び動作を認識し得る。これにより、当該移動体が歩道から車道に移る時刻を学習し、その時刻の直前の所定時間内の移動体の動作を事前動作として学習し得る。
本実施の形態の認識器112は、カメラ111による車両の前方の撮影によって撮影画像を取得し、撮影画像を入力データとして認識モデルに入力することによって、撮影画像における移動体を検出する。認識器112が用いる認識モデルは、学習部127による学習によって生成されたものであり、移動体の事前動作の有無を認識し得る認識モデルである。よって、認識器112は、撮影画像における移動体の種別情報、位置情報、及び動作情報を取得することで、撮影画像における移動体の種別及び位置、並びに、移動体が事前動作をしているか否かに基づいて、対象移動体を検出する。
なお、対象移動体を検出する際には、移動体が人であることを示す種別情報と、移動体が歩道に存在していることを示す位置情報と、移動体が歩道から車道に移る所定時間前に行う事前動作をしていることを示す動作情報とを取得することで、撮影画像における対象移動体を検出してもよい。
また、対象移動体を検出する際には、移動体が自動車又は自動二輪車であることを示す種別情報と、移動体が車道に存在していることを示す位置情報と、移動体が対象車両の前方で対象車両の走行レーンに侵入する所定時間前に行う事前動作をしていることを示す動作情報とを取得することで、撮影画像における対象移動体を検出してもよい。
図11は、本実施の形態におけるアノテーション付与部122が訓練用画像に付与するアノテーションを示す説明図である。
アノテーション付与部122は、移動体それぞれの識別子、種別、画像における座標、及び位置についてのユーザによる入力を制御部129を通じて受け取る。アノテーション付与部122が受け取った移動体それぞれの識別子、種別、画像における座標、及び位置を図11を参照しながら説明する。なお、移動体である人21の識別子が、その符号と同じ「21」であるとして説明する。
図11は、移動体それぞれについての識別子、種別、画像における座標、及び位置を示している。例えば、時刻T49において、移動体の識別子は「21」であり、種別が「人」であり、位置が「車道」であることが示されている。座標については、図5と同様に、画像における左上の頂点の座標と右上の頂点の座標とで指定される(図面上は省略)。
また、時刻T50において、移動体の識別子は「21」であり、種別が「人」であり、位置が「車道」であることが示されている。
また、アノテーション付与部122は、歩道から車道に移る移動体を含む画像について、移動体が歩道から車道に移る時刻の直前の所定時間内の画像に事前動作情報を付与する。ここでは、事前動作をしている移動体を含む画像に事前動作「有」との情報を付与し、そうでない画像に事前動作「無」との情報を付与する例を示している。具体的には、時刻T47から時刻T49までの時間内の各画像に事前動作「有」との情報が付される。ここで、移動体が歩道から車道に移る時刻の直前の所定時間は、時刻T47から時刻T49までの時間に相当している。
学習部127は、このようなアノテーションが付与された訓練データを訓練データ格納部123から読み取る。そして、識別子を用いて複数の撮影画像に亘って一の移動体としての人21を特定し、その移動及び動作を取得することで、移動体の事前動作を学習する。なお、学習部127は、実施の形態1の学習部127と同様、移動体の種別及び位置も学習する。このようにして、学習部127は、認識モデルを構築し、モデル格納部128に格納する。
図12は、本実施の形態におけるサーバ12の処理を示すフロー図である。
図12のフロー図において、ステップS123AとS126Aが実施の形態1のサーバ12の処理(図8参照)におけるステップS123及びS126と異なる。それ以外の点では、実施の形態1のサーバ12の処理と同様である。
ステップS123Aにおいて、アノテーション付与部122は、ステップS123と同様に、ステップS121で取得した訓練用画像に対してアノテーションを付与して訓練データ格納部123に一旦格納する。また、アノテーション付与部122は、さらに、訓練データ格納部123に格納された訓練データに基づいて、歩道から車道に移る移動体を含む画像について、移動体が歩道から車道に移る時刻の直前の所定時間内の画像に事前動作情報を付与する。
ステップS126Aにおいて、学習部127Aは、訓練データ格納部123に格納されている訓練データを用いて移動体の種別、位置及び事前動作を学習する。これにより、学習部127Aは、移動体の種別、位置及び事前動作の認識モデルを構築し、その認識モデルをモデル格納部128に格納する。
図13は、本実施の形態における車載機器110の処理を示すフロー図である。
図13のフロー図において、ステップS113Aが実施の形態1の車載機器110の処理(図9参照)におけるステップS113と異なる。それ以外の点では、実施の形態1の車載機器110の処理と同様である。
ステップS113Aにおいて、認識器112は、ステップS112で撮影画像を認識モデルに入力したことにより出力される情報を得る。認識モデルから出力される情報は、ステップS112で認識モデルに入力された撮影画像における移動体の種別情報と位置情報と事前動作の有無とを含む。認識器112は、認識モデルから出力される情報を得ることで、撮影画像における対象移動体を検出する。
以上のように、本実施の形態の移動体検出方法によれば、移動体の事前動作をさらに用いて学習することで構築された認識モデルに基づいて、撮影画像における対象移動体が検出される。この認識モデルは、移動体の識別情報がさらに付与されているので、複数の画像に亘る移動体の動作に基づいて事前動作の学習が行われることによって構築されたものとなる。つまり、画像に示されている移動体の種別及び位置に加えて、移動体の事前動作が認識モデルに教え込まれている。例えば、複数の画像に亘って示されている移動体の事前動作(より具体的には、人の首振り動作、歩行又は走行の減速又は一旦停止、又は、自動車のランプの点滅など)、及び、移動体の移動(より具体的には、歩道にいる人が車道に近づく移動、他の走行レーンから車両の走行レーンへの自動車の移動など)が教え込まれている。従って、認識モデルに撮影画像を入力することで、入力された撮影画像における移動体の種別、位置及び事前動作の有無が適切に検出され、対象移動体のより高精度の検出に貢献し得る。
また、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において歩道から車道に移動しようとする人が検出される。
また、車両の走行の障害になり得る対象移動体として、より具体的に、撮影画像において対象車両の走行レーンに侵入しようとする自動車等が検出される。
また、本実施の形態の移動体検出方法によれば、移動体の事前動作をさらに用いて学習することで認識モデルが構築される。この認識モデルは、移動体の識別情報がさらに付与されているので、複数の画像に亘る移動体の動作に基づいて事前動作の学習が行われることによって構築される。よって、この認識モデルを用いることで、車両の走行の障害になり得る対象移動体を、より高い精度で検出することができる。
また、移動体の種別、位置及び事前動作の学習の際に、走行レーンを横切る人を含む画像に事前動作情報を含むアノテーションが付された訓練データを用いた学習を行うことで認識モデルを構築する。これにより、車道に出ようとする人物の挙動を認識することにより、車道への飛び出しを事前に予測することが可能になる。
(各実施の形態の変形例)
上記各実施の形態の移動体検出システム等の一部又は全部は、以下のようにも記載され得るが、以下の記載に限定されない。
図14は、各実施の形態の変形例に係る移動体学習方法を示すフロー図である。
図14に示されるように、各実施の形態の変形例に係る移動体学習方法は、少なくとも1つのコンピュータによって対象車両の走行の障害になり得る対象移動体を検出するための移動体学習方法であって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し(ステップS201)、訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する(ステップS202)移動体学習方法である。
図15は、各実施の形態の変形例に係る移動体学習装置200を示すブロック図である。
図15に示されるように、各実施の形態の変形例に係る移動体学習装置200は、少なくとも1つのコンピュータが車両の走行の障害になり得る対象移動体を学習する移動体学習装置200であって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得する訓練データ取得部201と、訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する学習部202とを備える移動体学習装置200である。
図16は、各実施の形態の変形例に係る移動体検出方法を示すフロー図である。
図16に示されるように、各実施の形態の変形例に係る移動体検出方法は、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る対象移動体を検出する移動体検出方法であって、対象車両に搭載されたカメラによる、対象車両の前方の撮影によって生成される撮影画像を取得し(ステップS301)、移動体が撮影された画像における、当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに撮影画像を入力データとして入力することで出力される、撮影画像における移動体の種別情報及び位置情報を取得することで、撮影画像における対象移動体を検出する(ステップS302)移動体検出方法である。
図17は、各実施の形態の変形例に係る移動体検出装置300を示すブロック図である。
図17に示されるように、各実施の形態の変形例に係る移動体検出装置300は、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る対象移動体を検出する移動体検出装置300であって、対象車両に搭載されたカメラによる、対象車両の前方の撮影によって生成される撮影画像を取得する撮影画像取得部301と、移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と認識する認識モデルに撮影画像を入力データとして入力することで出力される、撮影画像における当該移動体の種別情報及び位置情報を取得することで、撮影画像における移動体を検出する検出部302とを備える移動体検出装置300である。
図18は、各実施の形態の変形例に係る移動体検出方法を示すフロー図である。
図18に示されるように、各実施の形態の変形例に係る移動体検出方法は、少なくとも1つのコンピュータによって車両の走行の障害になり得る対象移動体を検出する移動体検出方法であって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し(ステップS201)、訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築し(ステップS202)、対象車両に搭載されたカメラによる、対象車両の前方の撮影によって生成される撮影画像を取得し(ステップS301)、車両の走行の障害になり得る移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに撮影画像を入力データとして入力することで出力される、撮影画像における当該移動体の種別情報及び位置情報を取得することで、撮影画像における移動体を検出する(ステップS302)移動体検出方法である。
図19は、各実施の形態の変形例に係る移動体検出システムを示すブロック図である。
図19に示されるように、各実施の形態の変形例に係る移動体検出システムは、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体を検出する移動体検出システムであって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得する訓練データ取得部201と、訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する学習部202と、対象車両に搭載されたカメラによる、対象車両の前方の撮影によって生成される撮影画像を取得する撮影画像取得部301と、車両の走行の障害になり得る移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに撮影画像を入力データとして入力することで出力される、撮影画像における当該移動体の種別情報及び位置情報を取得することで、撮影画像における移動体を検出する検出部302とを備える移動体検出システムである。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の移動体学習装置及び移動体検出装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出方法であって、前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得し、移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する移動体検出方法を実行させる。
また、このプログラムは、コンピュータに、少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出するための移動体学習方法であって、移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する移動体学習方法を実行させる。
以上、一つまたは複数の態様に係る移動体検出方法などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本発明は、車両の走行の障害になり得る移動体を、より高い精度で検出し得る移動体検出方法に利用可能である。より具体的には、自動運転車両に搭載される制御装置等に利用可能である。
10、400 移動体検出システム
11 車両
12 サーバ
13 通信網
14 表示装置
15 入力デバイス
21、22、23、24 人
25 自動車
31 歩道
32 車道
41、42、43、44、45 枠
110 車載機器
111 カメラ
112 認識器
113 提示装置
114 車両制御装置
115 車両駆動機構
120、201 訓練データ取得部
121 画像格納部
122 アノテーション付与部
123 訓練データ格納部
127、127A、202 学習部
128 モデル格納部
129 制御部
200 移動体学習装置
300 移動体検出装置
301 撮影画像取得部
302 検出部

Claims (18)

  1. 少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出方法であって、
    前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得し、
    移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する
    移動体検出方法。
  2. 前記認識モデルは、
    移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、
    前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって構築されたものである
    請求項1に記載の移動体検出方法。
  3. 前記対象移動体を検出する際には、前記撮影画像における前記移動体が人であることを示す前記種別情報と、前記移動体が車道に存在していることを示す前記位置情報とを取得することで、前記撮影画像における前記対象移動体を検出する
    請求項1又は2に記載の移動体検出方法。
  4. 前記対象移動体を検出する際には、前記撮影画像における前記移動体が自動車、自動二輪車又は自転車であることを示す前記種別情報と、前記移動体が歩道に存在していることを示す前記位置情報とを取得することで、前記撮影画像における前記対象移動体を検出する
    請求項1又は2に記載の移動体検出方法。
  5. 前記撮影画像を取得する際には、
    時系列で連続して撮影された撮影された複数の前記撮影画像を取得し、
    前記訓練データを取得する際には、
    さらに(d)当該移動体の識別情報を含む前記アノテーションが付与された前記訓練データを取得し、
    前記認識モデルは、
    前記訓練データを用いて、当該移動体が車両の走行の障害になる所定時間前に当該移動体が行う所定動作である事前動作をさらに学習することによって構築され、
    前記移動体を検出する際には、
    前記認識モデルに複数の前記撮影画像を入力データとして入力することで出力される、複数の前記撮影画像における当該移動体の前記事前動作の有無を示す動作情報をさらに取得することで、複数の前記撮影画像における前記対象移動体を検出する
    請求項2に記載の移動体検出方法。
  6. 前記対象移動体を検出する際には、前記撮影画像における前記移動体が人であることを示す前記種別情報と、前記移動体が歩道に存在していることを示す前記位置情報と、前記移動体が歩道から車道に移る前記所定時間前に行う前記事前動作をしていることを示す前記動作情報とを取得することで、前記撮影画像における前記対象移動体を検出する
    請求項5に記載の移動体検出方法。
  7. 前記対象移動体を検出する際には、前記撮影画像における前記移動体が自動車又は自動二輪車であることを示す前記種別情報と、前記移動体が車道に存在していることを示す前記位置情報と、前記移動体が前記対象車両の前方で前記対象車両の走行レーンに侵入する前記所定時間前に行う前記事前動作をしていることを示す前記動作情報とを取得することで、前記撮影画像における前記対象移動体を検出する
    請求項5に記載の移動体検出方法。
  8. 前記認識モデルは、ニューラルネットワークモデルである
    請求項1〜7のいずれか1項に記載の移動体検出方法。
  9. 前記アノテーションが示す移動体の種別を示す情報は、人、自動車、自動二輪車、又は、自転車のいずれかを示す情報である
    請求項2に記載の移動体検出方法。
  10. 少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出するための移動体学習方法であって、
    移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、
    前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する
    移動体学習方法。
  11. 前記訓練データを取得する際には、
    移動体が撮影された複数の前記画像それぞれに対して、(a)前記座標と、(b)前記種別情報と、(c)前記位置情報と、(d)当該移動体を一意に識別し得る識別情報とを含む前記アノテーションが付与された前記訓練データを取得し、
    前記認識モデルを構築する際には、
    前記訓練データを用いて、当該移動体が車両の走行の障害になる所定時間前に当該移動体が行う事前動作をさらに学習することによって、前記認識モデルを構築する
    請求項10に記載の移動体学習方法。
  12. 前記訓練データに含まれる複数の前記画像のうち、走行レーンを横切る人が撮影された画像は、事前動作をしている移動体を含むことを示す事前動作情報をさらに含むアノテーションが付与されたものである
    請求項11に記載の移動体学習方法。
  13. 前記訓練データに含まれる前記アノテーションに含まれる前記位置情報は、歩道及び車道を含む位置のうち当該移動体が存在している2以上の位置を示す
    請求項10〜12のいずれか1項に記載の移動体学習方法。
  14. 前記移動体の座標は、前記画像における前記移動体を背景を含んで取り囲む領域を示す座標を含む
    請求項10〜13のいずれか1項に記載の移動体学習方法。
  15. 少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出装置であって、
    前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得する撮影画像取得部と、
    移動体が撮影された画像における当該移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における当該移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記対象移動体を検出する検出部とを備える
    移動体検出装置。
  16. 少なくとも1つのコンピュータが車両の走行の障害になり得る移動体である対象移動体を学習する移動体学習装置であって、
    移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得する訓練データ取得部と、
    前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する学習部とを備える
    移動体学習装置。
  17. 少なくとも1つのコンピュータによって、対象車両の走行の障害になり得る移動体である対象移動体を検出する移動体検出システムであって、
    移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得する訓練データ取得部と、
    前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する学習部と、
    前記対象車両に搭載されたカメラによる撮影によって生成される撮影画像を取得する撮影画像取得部と、
    車両の走行の障害になり得る移動体と、当該移動体の種別を示す種別情報と、歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報とを認識する認識モデルに前記撮影画像を入力データとして入力することで出力される、前記撮影画像における当該移動体の種別情報及び位置情報を取得することで、前記撮影画像における前記移動体を検出する検出部とを備える
    移動体検出システム。
  18. コンピュータが車両の走行の障害になり得る移動体を学習するためのプログラムであって、
    移動体が撮影された画像に対して、(a)当該画像における当該移動体の座標と、(b)当該移動体の種別を示す種別情報と、(c)歩道及び車道を含む複数の位置のうち当該移動体が存在している位置を示す位置情報と、を含む情報であるアノテーションが付与された訓練データを取得し、
    前記訓練データを用いて、前記画像における当該移動体の種別情報及び位置情報を学習することによって、認識モデルを構築する
    ことを前記コンピュータに実行させるプログラム。
JP2017123137A 2017-06-23 2017-06-23 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム Pending JP2019008519A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017123137A JP2019008519A (ja) 2017-06-23 2017-06-23 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
US15/957,209 US20180373943A1 (en) 2017-06-23 2018-04-19 Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
EP18176709.6A EP3418947A1 (en) 2017-06-23 2018-06-08 Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
CN201810617845.3A CN109117706A (zh) 2017-06-23 2018-06-15 移动体检测装置及检测方法、移动体学习装置及学习方法、移动体检测系统以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123137A JP2019008519A (ja) 2017-06-23 2017-06-23 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム

Publications (1)

Publication Number Publication Date
JP2019008519A true JP2019008519A (ja) 2019-01-17

Family

ID=62567542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123137A Pending JP2019008519A (ja) 2017-06-23 2017-06-23 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム

Country Status (4)

Country Link
US (1) US20180373943A1 (ja)
EP (1) EP3418947A1 (ja)
JP (1) JP2019008519A (ja)
CN (1) CN109117706A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210120018A (ko) * 2019-02-01 2021-10-06 테슬라, 인크. 자율 주행을 위한 3차원 특징 예측
JP7455598B2 (ja) 2020-02-04 2024-03-26 株式会社デンソーテン 画像処理装置、アノテーション処理装置、画像処理方法、アノテーション処理方法、画像処理プログラム
JP7467485B2 (ja) 2019-02-01 2024-04-15 テスラ,インコーポレイテッド 時系列要素からの機械学習のためのグラウンドトゥルースの生成
JP7469100B2 (ja) 2020-03-27 2024-04-16 Nttテクノクロス株式会社 検出装置及びプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295455B2 (en) * 2017-11-16 2022-04-05 Sony Corporation Information processing apparatus, information processing method, and program
DE102018115895A1 (de) * 2018-06-30 2020-01-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Erkennung von Hindernissen
CN110796156A (zh) * 2018-08-02 2020-02-14 松下知识产权经营株式会社 信息处理方法及信息处理系统
JP7229795B2 (ja) * 2019-02-01 2023-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ アノテーション装置、アノテーション方法、及び、プログラム
JP7250573B2 (ja) * 2019-03-11 2023-04-03 本田技研工業株式会社 倒立振子型ロボット
JP7250572B2 (ja) * 2019-03-11 2023-04-03 本田技研工業株式会社 倒立振子型ロボット
CN111751085B (zh) * 2019-03-29 2024-03-29 上海擎感智能科技有限公司 一种车灯更换提醒方法及其装置
CN110111018B (zh) * 2019-05-16 2023-07-28 北京百度网讯科技有限公司 评估车辆感测能力的方法、装置、电子设备及存储介质
CN110532937B (zh) * 2019-08-26 2022-03-08 北京航空航天大学 基于识别模型与分类模型进行列车前向目标精准识别的方法
EP3819811A1 (en) * 2019-11-06 2021-05-12 Ningbo Geely Automobile Research & Development Co. Ltd. Vehicle object detection
CN112687108B (zh) * 2020-06-28 2022-08-09 浙江大华技术股份有限公司 人车匹配的检测方法、检测装置、拍摄装置及存储介质
CN111783889B (zh) * 2020-07-03 2022-03-01 北京字节跳动网络技术有限公司 图像识别方法、装置、电子设备和计算机可读介质
CN112733702A (zh) * 2021-01-07 2021-04-30 华侨大学 基于遥感图像的人行道检测方法、装置、设备及存储介质
JP2022131497A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
CN113246997A (zh) * 2021-06-28 2021-08-13 智道网联科技(北京)有限公司 智能驾驶中的安全监测方法、装置、电子设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2133851B1 (en) 2007-04-02 2012-11-28 Panasonic Corporation Safe driving assisting device
WO2009157828A1 (en) * 2008-06-25 2009-12-30 Autoliv Development Ab A method of detecting object in the vicinity of a vehicle
US9064152B2 (en) * 2011-12-01 2015-06-23 Elwha Llc Vehicular threat detection based on image analysis
DE102013207223A1 (de) * 2013-04-22 2014-10-23 Ford Global Technologies, Llc Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern
CN106663193B (zh) * 2014-05-14 2020-12-25 御眼视觉技术有限公司 用于路缘检测和行人危险评估的系统和方法
JP2016001464A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6648411B2 (ja) * 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
KR101753097B1 (ko) * 2014-12-30 2017-07-19 광주과학기술원 차량검출방법, 차량검출을 위한 데이터베이스의 구조, 및 차량검출을 위한 데이터베이스 구축방법
KR102623680B1 (ko) * 2015-02-10 2024-01-12 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
CN108431549B (zh) * 2016-01-05 2020-09-04 御眼视觉技术有限公司 具有施加的约束的经训练的系统
EP3403216B1 (en) * 2016-01-11 2023-11-01 Mobileye Vision Technologies Ltd. Systems and methods for augmenting upright object detection
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
US10330787B2 (en) * 2016-09-19 2019-06-25 Nec Corporation Advanced driver-assistance system
JP7329298B2 (ja) * 2016-10-11 2023-08-18 モービルアイ ビジョン テクノロジーズ リミテッド 検出された障壁に基づく車両のナビゲーション
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210120018A (ko) * 2019-02-01 2021-10-06 테슬라, 인크. 자율 주행을 위한 3차원 특징 예측
JP2022523084A (ja) * 2019-02-01 2022-04-21 テスラ,インコーポレイテッド 自動運転のための3次元特徴の予測
KR102618662B1 (ko) * 2019-02-01 2023-12-27 테슬라, 인크. 자율 주행을 위한 3차원 특징 예측
JP7467485B2 (ja) 2019-02-01 2024-04-15 テスラ,インコーポレイテッド 時系列要素からの機械学習のためのグラウンドトゥルースの生成
JP7455598B2 (ja) 2020-02-04 2024-03-26 株式会社デンソーテン 画像処理装置、アノテーション処理装置、画像処理方法、アノテーション処理方法、画像処理プログラム
JP7469100B2 (ja) 2020-03-27 2024-04-16 Nttテクノクロス株式会社 検出装置及びプログラム

Also Published As

Publication number Publication date
US20180373943A1 (en) 2018-12-27
EP3418947A1 (en) 2018-12-26
CN109117706A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
JP2019008519A (ja) 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
JP6878493B2 (ja) 自動運転車両(adv)に用いるピッチ角の補正方法
CN109215433B (zh) 用于自动驾驶仿真的基于视觉的驾驶场景生成器
US10489686B2 (en) Object detection for an autonomous vehicle
US10495753B2 (en) Video to radar
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
US9637118B2 (en) Processing apparatus, processing system, and processing method
US20200026282A1 (en) Lane/object detection and tracking perception system for autonomous vehicles
EP3428840A1 (en) Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
US20150332103A1 (en) Processing apparatus, computer program product, and processing method
US20200082182A1 (en) Training data generating method for image processing, image processing method, and devices thereof
US20170098132A1 (en) Processing apparatus, processing system, processing program, and processing method
CN110347145A (zh) 用于自动驾驶车辆的感知辅助
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
JP2017215940A (ja) 情報処理装置、車両、情報処理方法およびプログラム
US20190318176A1 (en) Information processing apparatus, information processing method, and computer program product
JP2020035447A (ja) 物体識別方法、装置、機器、車両及び媒体
US10896542B2 (en) Moving body image generation recording display device and program product
US9410818B2 (en) Navigation device
KR20200037737A (ko) 자율 주행 차량을 위한 보행자 확률 예측 시스템
WO2018052714A2 (en) Video to radar
US20240037935A1 (en) Artificial intelligence based real time vehicle parking verification
JP4775034B2 (ja) 画像認識システムおよび画像認識方法
JP2017159884A (ja) 運転制御装置、運転制御方法及び運転制御プログラム
JP5825713B2 (ja) 車両用危険場面再現装置