JP2019179372A - 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム - Google Patents

学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム Download PDF

Info

Publication number
JP2019179372A
JP2019179372A JP2018067882A JP2018067882A JP2019179372A JP 2019179372 A JP2019179372 A JP 2019179372A JP 2018067882 A JP2018067882 A JP 2018067882A JP 2018067882 A JP2018067882 A JP 2018067882A JP 2019179372 A JP2019179372 A JP 2019179372A
Authority
JP
Japan
Prior art keywords
data
image data
event
learning
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018067882A
Other languages
English (en)
Inventor
谷川 徹
Toru Tanigawa
徹 谷川
幸恵 庄田
Yukie Shoda
幸恵 庄田
淳一 井本
Junichi Imoto
淳一 井本
裕介 塚本
Yusuke Tsukamoto
裕介 塚本
征矢 芋本
Seiya Imomoto
征矢 芋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to JP2018067882A priority Critical patent/JP2019179372A/ja
Priority to US16/366,294 priority patent/US10817751B2/en
Priority to CN201910242430.7A priority patent/CN110321916B/zh
Publication of JP2019179372A publication Critical patent/JP2019179372A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered

Abstract

【課題】将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測する。【解決手段】学習データ作成方法は、複数の静止画データ又は動画データをイベントデータ及び非イベントデータとして取得し(S201)、イベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し(S202)、非イベントデータを第二データとして提示し(S203)、第一データと第二データとが類似しているか否かについての判断結果を受け付け(S204)、(a)ポジティブデータとしてイベントデータを格納し(S207)、(b)第一データと第二データとが類似している場合にはポジティブデータとして非イベントデータを格納し(S206)、(c)第一データと第二データとが類似していない場合にはネガティブデータとして非イベントデータを格納する(S211)。【選択図】図12

Description

本発明は、学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラムに関する。
自動車の運転支援技術、及び、自動運転技術が開発されつつある。これらの技術では、車載カメラにより車両の周囲を撮影し、車両の周囲にある物体を認識し、車両の走行の障害になり得る移動体を検出する技術が必要とされる。車両の周囲にある物体の認識には、機械学習(単に学習ともいう)が用いられ得る。
特許文献1は、車載カメラで撮像した映像から、事故映像(アクシデント映像ともいう)、又は、結果的に事故に至らなかったものの事故に至る可能性があったときの映像(インシデント映像ともいう、一般にヒヤリハット映像又はニアミス映像ともいう)の特徴に基づいて、この事故映像などを記録し、又は、抽出する技術を開示している。
特開2017−138694号公報
しかしながら、特許文献1に開示される技術では、アクシデント映像又はインシデント映像の特徴に基づいて事故映像などを判別する。そのため、アクシデント又はインシデントが発生する前に、将来に発生するアクシデント又はインシデントなどの危険事象を予測することができないという問題がある。
そこで、本発明は、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測するための学習データ作成方法などを提供する。
本発明の一態様に係る学習データ作成方法は、ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成方法であって、複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数のイベントデータ、及び、前記イベントがそれぞれに映っていない複数の非イベントデータとして取得し、取得した前記複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し、取得した前記複数の非イベントデータのうちの一の非イベントデータを第二データとして提示し、前記第一データと前記第二データとが類似しているか否かについての判断結果を受け付け、前記イベントデータと前記非イベントデータとを記憶装置に格納することで前記学習データを作成し、前記格納の際には、(a)前記ポジティブデータとして前記イベントデータを格納し、(b)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していることを示す場合には、前記ポジティブデータとして前記非イベントデータを格納し、(c)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していないことを示す場合には、前記ネガティブデータとして前記非イベントデータを格納する。
なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の学習データ生成方法は、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
図1は、実施の形態における危険予測システムの構成を示す図である。 図2は、実施の形態における危険予測システムの機能構成を示すブロック図である。 図3は、実施の形態における画像データ格納部に格納される画像の第一例を示す説明図である。 図4は、実施の形態における画像データ格納部に格納される画像の第二例を示す説明図である。 図5は、実施の形態におけるアノテーション付与部によるアノテーションの付与の第一の説明図である。 図6は、実施の形態におけるアノテーション付与部によるアノテーションの付与の際に提示される画像の第一の説明図である。 図7は、実施の形態におけるアノテーション付与部によるアノテーションの付与の第二の説明図である。 図8は、実施の形態における車両の機能構成を示すブロック図である。 図9は、実施の形態における静止画データ又は動画データの分別処理を示すフロー図である。 図10は、実施の形態における学習データの生成処理を示すフロー図である。 図11は、実施の形態におけるアノテーション付与部によるアノテーションの付与の第三の説明図である。 図12は、実施の形態におけるアノテーション付与部によるアノテーションの付与の際に提示される画像の第二の説明図である。 図13は、実施の形態における車載機器の処理を示すフロー図である。 図14は、実施の形態の変形例に係る学習方法を示すフロー図である。 図15は、実施の形態に係る学習装置を示すブロック図である。 図16は、実施の形態の変形例に係る危険予測方法を示すフロー図である。 図17は、実施の形態の変形例に係る危険予測装置を示すブロック図である。
本発明の一態様に係る学習データ作成方法は、ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成方法であって、複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数のイベントデータ、及び、前記イベントがそれぞれに映っていない複数の非イベントデータとして取得し、取得した前記複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し、取得した前記複数の非イベントデータのうちの一の非イベントデータを第二データとして提示し、前記第一データと前記第二データとが類似しているか否かについての判断結果を受け付け、前記イベントデータと前記非イベントデータとを記憶装置に格納することで前記学習データを作成し、前記格納の際には、(a)前記ポジティブデータとして前記イベントデータを格納し、(b)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していることを示す場合には、前記ポジティブデータとして前記非イベントデータを格納し、(c)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していないことを示す場合には、前記ネガティブデータとして前記非イベントデータを格納する。
上記態様によれば、非イベントデータのうちのイベントデータに類似しているものがポジティブデータとして学習に用いられる。従来の技術では、非イベントデータが一律にネガティブデータとして学習に用いられるので、非イベントデータのうちのイベントデータに類似しているものはネガティブデータとして学習に用いられる。その場合、互いに類似しているイベントデータと非イベントデータとの一方をポジティブデータとし、他方をネガティブデータとして学習をすると、学習により生成される認識モデルが不適切になることがある。そこで、イベントデータと非イベントデータとが類似しているときには、その両方をポジティブデータとして学習をすることで、認識モデルが不適切になることを回避し、適切な認識モデルが得られる。本発明の一態様に係る学習データ作成方法によれば、このように作成される学習データに基づく学習により、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記所定時間は、車両の運転手が危険を認識してから前記車両の制動措置をとるまでの時間である反応時間に基づいて定められてもよい。
上記態様によれば、所定時間として反応時間を用いることで、より容易に、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記所定時間は、前記危険予測の処理を実行する危険予測装置の処理時間にさらに基づいて定められてもよい。
上記態様によれば、所定時間として、反応時間と危険予測装置の処理時間とを用いることで、より容易に、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記複数のイベントデータのそれぞれは、動画データであり、前記複数の非イベントデータのそれぞれは、動画データであってもよい。
上記態様によれば、イベントデータ及び非イベントデータとして動画データを用いて学習データを作成することによって、イベントデータの特徴及び非イベントデータの特徴をより正確に学習することができる。これにより、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、第一データは、動画データであってもよい。
上記態様によれば、第一データとして動画データを用いることによって、非イベントデータである第二データとの類比判断をより正確に行うことができる。これにより、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記受け付けの際には、さらに、前記イベントデータにイベントが実際に映っているか否かについての判断結果を受け付け、前記格納の際には、受け付けた前記判断結果が、前記イベントデータにイベントが実際には映っていないことを示す場合には、前記ネガティブデータとして前記イベントデータを格納してもよい。
上記態様によれば、実際にはイベントが映っていないと判断されたイベントデータをネガティブデータとして学習する。これにより、認識モデルをより一層適切なものとすることができ、その結果、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記受け付けの際には、前記第一データと前記第二データとが類似しているか否かについての画像認識処理による判断結果を受け付けてもよい。
上記態様によれば、第一画像と第二画像との類比判断を画像認識処理によって自動的に行う。これにより、人手を介さずに一定の基準に則った類比判断を行うことができる。これにより、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記画像認識処理は、前記第一データ及び前記第二データが示す画像に写る移動体の数、位置関係及びオプティカルフローのうちの1つ以上を認識する処理を含んでもよい。
上記態様によれば、画像認識処理として、移動体の数、位置関係又はオプティカルフローを認識することで、より具体的な認識処理に基づいて、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記学習データ作成方法は、さらに、車両が備える車載センサが撮影により生成した複数の静止画データ又は動画データのそれぞれをイベントデータ又は非イベントデータに分別することで、前記複数のイベントデータ及び前記複数の非イベントデータを取得し、前記分別では、前記一の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両に他者が衝突した、又は、他者が急接近したことが、画像認識処理により認識された場合には、前記一の静止画データ又は動画データをイベントデータに分別してもよい。
上記態様によれば、車載センサにより取得した画像を分別することでイベントデータ及び非イベントデータを取得し、さらに、車両への他者の衝突、又は、他者の急接近に基づいて、イベントデータを分別することができる。このように、より容易に、車載センサにより取得した静止画データ又は動画データをイベントデータに分別し、その結果、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記分別では、前記一の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両において急ブレーキ又は急ハンドルがなされたことが、前記車両の加速度データから判定された場合には、前記一の静止画データ又は動画データをイベントデータに分別してもよい。
上記態様によれば、車両における急ブレーキ又は急ハンドルに基づいて、イベントデータを分別することができる。このように、より容易に、車載センサにより取得した静止画データ又は動画データをイベントデータに分別し、その結果、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
例えば、前記分別では、前記車両において急ブレーキ又は急ハンドルがなされたと判定された場合であっても、前記車両が車車間通信によって危険信号を受信していたときには、前記一の静止画データ又は動画データを非イベントデータに分別してもよい。
上記態様によれば、車車間通信によって危険信号を受信した場合には画像を非イベントデータに分別する。車両における急ブレーキ又は急ハンドルがなされた場合でも、車車間通信によって危険信号を受信した場合には、静止画データ又は動画データから危険予測に関する情報が得られないことがあるので、当該静止画データ又は当該動画データを学習の対象から除外するためである。
例えば、前記一の静止画データ又は動画データは、前記車両の前方を含む広角の静止画データ又は動画データであり、前記分別では、前記一の静止画データ又は動画データである広角の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両において急ブレーキがなされたことが、前記車両の加速度データから判定された場合には、前記広角の静止画データ又は動画データのうち、前記車両の前方を含む静止画データ又は動画データをイベントデータに分別してもよい。
上記態様によれば、車両の急ブレーキがかけられた場合に、広角の静止画データ又は動画データに含まれる車両の進行方向を含む静止画データ又は動画データがイベントデータに分別される。急ブレーキがなされる場合には、車両の進行方向に何らかの物体などが存在している可能性がある。よって、その物体の方向をイベントデータとして学習することで、危険事象を適切に学習し、予測することができる。
例えば、前記一の静止画データ又は動画データは、前記車両の前方を含む広角の静止画データ又は動画データであり、前記分別では、前記一の静止画データ又は動画データである広角の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両の左右の一方への急ハンドルがなされたことが、前記車両の加速度データから判定された場合には、前記広角の静止画データ又は動画データのうち、前記車両の左右の前記一方と異なる他方を含む静止画データ又は動画データをイベントデータに分別してもよい。
上記態様によれば、広角の静止画データ又は動画データに含まれる、急ハンドルがなされた方向と反対方向を含む静止画データ又は動画データがイベントデータに分別される。急ハンドルがなされる場合には、その方向と反対方向に何らかの物体などが存在している可能性がある。よって、その物体の方向をイベントデータとして学習することで、危険事象を適切に学習し、予測することができる。
例えば、前記分別では、前記広角の静止画データ又は動画データのうちの、前記イベントデータに分別する静止画データ又は動画データの水平方向のサイズは、前記一の画像が撮影されたときの前記車両の速度に基づいて決定されてもよい。
上記態様によれば、車両の速度に応じて変化する運転手の視界の広さに対応して、イベントデータとする画像の水平方向の幅を調整し得る。よって、車両の運転手の視界の広さの変化に基づいて広さが変化する静止画データ又は動画データをイベントデータとして、危険事象を適切に学習し、予測することができる。
例えば、前記分別では、前記広角の静止画データ又は動画データのうちの、前記イベントデータに分別する静止画データ又は動画データの水平方向のサイズは、前記一の画像が撮影されたときの前記車両の速度が大きいほど小さくてもよい。
上記態様によれば、車両の速度に応じて変化する運転手の視界の広さに対応して、イベントデータとする画像の水平方向の幅を調整し得る。一般に、車両の速度が大きい場合、その車両の運転手の視界が狭くなるので、イベントはその狭くなった視界に含まれるからである。よって、車両の運転手の視界の広さが、車両の速度が大きいほど狭くなることを考慮して、水平方向の幅が変化する静止画データ又は動画データをイベントデータとして、危険事象を適切に学習し、予測することができる。
例えば、前記第二データを提示する際には、取得した前記複数の非イベントデータのうちから、画像認識処理に基づいて前記一の非イベントデータをあらかじめ選択し、選択した前記一の非イベントデータを提示してもよい。
上記態様によれば、画像認識処理に基づいて、ユーザに提示する適切な第二画像を選択することができる。これにより、第一画像と第二画像とのユーザによる類否判断がより適切になされ、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、本発明の一態様に係る学習方法は、危険予測装置による危険予測のための学習方法であって、上記の学習データ作成方法により作成された学習データを取得し、取得した前記学習データに基づいて、前記学習データに含まれる前記ポジティブデータ及び前記ネガティブデータの特徴を学習することによって、認識モデルを構築する。
上記態様によれば、学習データ作成方法によって作成された学習データを用いて適切に認識モデルを構築し、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、本発明の一態様に係る危険予測方法は、車両に設置された車載センサにより映された静止画データ又は動画データを取得し、上記の学習方法によって構築された前記認識モデルに、取得した前記静止画データ又は前記動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する。
上記態様によれば、構築された認識モデルを用いて、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、本発明の一態様に係る学習データ作成装置は、ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成装置であって、複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数のイベントデータ、及び、前記イベントがそれぞれに映っていない複数の非イベントデータとして取得する学習データ取得部と、取得した前記複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し、取得した前記複数の非イベントデータのうちの一の非イベントデータを第二データとして提示し、前記第一データと前記第二データとが類似しているか否かについての判断結果を受け付け、前記第一データと前記第二データとを記憶装置に格納することで前記学習データを作成するアノテーション付与部とを備え、前記アノテーション付与部は、前記格納の際には、(a)前記ポジティブデータとして前記イベントデータを格納し、(b)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していることを示す場合には、前記ポジティブデータとして前記非イベントデータを格納し、(c)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していないことを示す場合には、前記ネガティブデータとして前記非イベントデータを格納する。
上記態様により、上記学習データ作成方法と同様の効果を奏する。
また、本発明の一態様に係る学習装置は、危険予測装置による危険予測のための学習装置であって、上記の学習データ作成装置により作成された学習データを取得する学習データ取得部と、取得した前記学習データを用いて、前記学習データに含まれる前記ポジティブデータ及び前記ネガティブデータそれぞれの特徴を学習することによって、認識モデルを構築する学習部を備える。
上記態様により、上記学習方法と同様の効果を奏する。
また、本発明の一態様に係る危険予測装置は、車両に設置された車載センサにより撮影された静止画データ又は動画データを取得する撮影画像取得部と、上記の学習装置によって構築された前記認識モデルに、取得した前記静止画データ又は前記動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する認識器とを備える。
上記態様により、上記危険予測方法と同様の効果を奏する。
また、本発明の一態様に係るプログラムは、上記の学習データ作成方法をコンピュータに実行させるためのプログラムである。
上記態様により、上記学習方法と同様の効果を奏する。
また、本発明の一態様に係るプログラムは、上記の学習方法をコンピュータに実行させるためのプログラムである。
上記態様により、上記の学習データ作成方法と同様の効果を奏する。
また、本発明の一態様に係るプログラムは、上記の危険予測方法をコンピュータに実行させるためのプログラムである。
上記態様により、上記の危険予測方法と同様の効果を奏する。
なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
本実施の形態において、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる学習データ作成方法、学習方法、及び、危険予測方法などについて説明する。
図1は、本実施の形態における危険予測システム1の構成を示すブロック図である。図2は、本実施の形態における危険予測システム1の機能構成を示すブロック図である。
本実施の形態における危険予測システム1は、車両11にアクシデント又はインシデントなどの危険事象であるイベントが将来に発生するか否かを予測するシステムである。ここで、「将来」とは、例えば10秒〜20秒程度以内の未来を意味するが、この時間に限定されない。
図1及び図2に示されるように、危険予測システム1は、車両11と、サーバ12と、端末13とを備え、これらは、インターネットなどのネットワークNを介して接続されている。
車両11の車載機器は、カメラを備え、そのカメラによる撮影によって画像を生成する。そして、車載機器は、その画像に基づいて、将来にイベントが発生するか否かの予測、つまり危険予測をする。車載機器による危険予測は、認識モデルを用いた認識に基づいてなされる。認識に用いる認識モデルは、サーバ12からネットワークNを介して取得される。
サーバ12は、複数の学習用の静止画データ又は動画データ(単に静止画データ又は動画データともいう)を用いて認識モデルを構築する。サーバ12は、複数の静止画データ又は動画データを取得して保存する。サーバ12が取得する学習用画像は、車両11、又は、車両11以外の車両に備えられたカメラによる撮影によって得られたものである。サーバ12は、このようにして得られた静止画データ又は動画データをネットワークNを介して受信する。
そして、サーバ12は、このように送信された静止画データ又は動画データを用いて、静止画データ又は動画データに映っている撮影対象に基づいて、将来にイベントが発生するか否かを学習することによって認識モデルを構築する。そして、サーバ12は、その構築した認識モデルをネットワークNを介して車両11に送信する。
端末13は、サーバ12による認識モデルの構築のために、静止画データ又は動画データのユーザへの提示、及び、提示した静止画データ又は動画データについてのユーザによる類否判断などの結果の入力を受ける端末である。端末13は、ユーザに学習用画像などを提示する表示装置131、および、学習用画像の類否判断の結果などをユーザからの入力を受ける入力デバイス132を備える。表示装置131、液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイである。入力デバイス132は、キーボード、マウス又はタッチパネルなどである。
図2を参照しながらサーバ12の機能構成について詳細に説明する。
図2に示されるように、サーバ12は、学習データ取得部120と、学習部127と、モデル格納部128と、制御部129とを備える。学習データ取得部120は、画像データ格納部121と、アノテーション付与部122と、学習データ格納部123とを備える。サーバ12又は学習データ取得部120は、ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成装置に相当する。
学習データ取得部120は、危険予測の学習に用いられる学習データを取得する。学習データ取得部120は、静止画データ又は動画データとして、例えば所定の時間長を有する動画データを取得する。所定の時間長は例えば20秒間である。
学習データ取得部120は、複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数の静止画データ又は動画データである複数のイベントデータ、及び、イベントがそれぞれに映っていない複数の静止画データ又は動画データである複数の非イベントデータとして取得する。なお、複数のイベントデータは動画データであってもよい。また、複数の非イベントデータは動画データであってもよい。
学習データ取得部120が取得する複数のイベントデータ及び複数の非イベントデータは、例えば、車両が備える車載センサ(例えばカメラ)が撮影により生成した一の静止画データ又は動画データをイベントデータ又は非イベントデータに分別することを、複数回繰り返して生成されたものである。上記分別は、例えば、車両が備える画像処理装置により行われる。この場合、画像処理装置は、車載センサが撮影により静止画データ又は動画データを生成したときに、当該静止画データ若しくは当該動画データ、又は、車両が備える他の車載センサ(例えば加速度センサ)により得た情報に基づいて分別を行う。
例えば、上記分別では、一の静止画データ又は動画データが車載センサにより撮影されたときに、車両に他者が衝突した、又は、他者が急接近したことが、画像認識処理により認識された場合には、当該一の静止画データ又は動画データをイベントデータに分別してもよい。
例えば、上記分別では、一の静止画データ又は動画データが車載センサにより撮影されたときに、車両において急ブレーキ又は急ハンドルがなされたことが、車両の加速度データから判定された場合には、当該一の静止画データ又は動画データをイベントデータに分別してもよい。
例えば、上記分別では、車両において急ブレーキ又は急ハンドルがなされたと判定された場合であっても、車両が車車間通信によって危険信号を受信していたときには、当該一の静止画データ又は動画データを非イベントデータに分別してもよい。ここで、危険信号とは、例えば、当該車両の近傍に位置する車両から受信する、車両の衝突などの危険を知らせるための信号である。
例えば、上記分別では、一の静止画データ又は動画データが車両の前方を含む広角の静止画データ又は動画データである場合には、一の静止画データ又は動画データである広角の静止画データ又は動画データが車載センサにより撮影されたときに、車両において急ブレーキがなされたことが、車両の加速度データから判定された場合には、広角の静止画データ又は動画データのうち、車両の前方を含む静止画データ又は動画データをイベントデータに分別してもよい。
例えば、上記分別では、一の静止画データ又は動画データが車両の前方を含む広角の静止画データ又は動画データである場合には、一の静止画データ又は動画データである広角の静止画データ又は動画データが車載センサにより撮影されたときに、車両の左右の一方への急ハンドルがなされたことが、車両の加速度データから判定された場合には、広角の静止画データ又は動画データのうち、車両の一方を含む静止画データ又は動画データをイベントデータに分別してもよい。
例えば、上記分別では、広角の静止画データ又は動画データのうちの、イベントデータに分別する静止画データ又は動画データの水平方向のサイズは、当該一の画像が撮影されたときの車両の速度に基づいて決定されてもよい。
例えば、上記分別では、広角の静止画データ又は動画データのうちの、イベントデータに分別する静止画データ又は動画データの水平方向のサイズは、当該一の画像が撮影されたときの車両の速度が大きいほど小さくしてもよい。
画像データ格納部121は、RAM(Random Access Memory)またはハードディスクなどのデータを記録するための記録媒体である。画像データ格納部121には、学習用画像として、複数のイベントデータと複数の非イベントデータとが学習データ取得部120により格納される。また、画像データ格納部121に格納された学習用画像は、アノテーション付与部122によって読み出される。
アノテーション付与部122は、静止画データ又は動画データに対してアノテーションを付与して、学習データ格納部123に格納する。アノテーションは、静止画データ又は動画データを、イベントが映っている静止画データ又は動画データとして扱うか、又は、イベント映っていない静止画データ又は動画データとして扱うかを示す情報である。アノテーション付与部122は、原則として、イベントデータにポジティブデータのアノテーションを付与し、非イベントデータにネガティブデータのアノテーションを付与する。さらに、アノテーション付与部122は、非イベントデータのうち、イベントデータと類似していると判断されるものにポジティブデータのアノテーションを付与する。
なお、ポジティブデータのアノテーションが付与された学習データを単にポジティブデータともいい、ネガティブデータのアノテーションが付与された学習データを単にネガティブデータともいう。ここで、ポジティブデータとは、後述する認識器112によりイベントが映っていると認識されるべきデータであり、ネガティブデータとは、認識器112によりイベントが映っていないと認識されるべきデータである。
アノテーション付与部122は、非イベントデータとイベントデータとの類否判断のために、複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データ、つまり所定時間前の撮影対象が映っている静止画データ又は動画データである第一データを提示する。また、アノテーション付与部122は、複数の非イベントデータのうちの一の非イベントデータを第二データとして提示する。第一データ及び第二データの提示の際には、アノテーション付与部122は、第一データ及び第二データを端末13に送信し、表示装置131に表示することでユーザに提示する。そして、アノテーション付与部122は、提示した第一データ及び第二データが互いに類似しているか否かについてのユーザによる判断結果の入力を入力デバイス132により受け、端末13から受信することで取得する。
言い換えれば、アノテーション付与部122は、イベントデータと非イベントデータとを学習データ格納部123に格納する際に、(a)ポジティブデータとしてイベントデータを格納し、(b)受け付けた判断結果が、第一データと第二データとが類似していることを示す場合には、ポジティブデータとして非イベントデータを格納し、(c)受け付けた判断結果が、第一データと第二データとが類似していないことを示す場合には、ネガティブデータとして非イベントデータを格納する。
なお、第一データ及び第二データの類否判断は、コンピュータによる画像認識処理によってなされてもよい。この画像認識処理は、第一データ及び第二データが示す画像に写る移動体の数、位置関係及びオプティカルフローのうちの1つ以上を認識する処理を含んでもよい。
また、第二データを提示する際には、取得した複数の非イベントデータのうちから、画像認識処理に基づいて上記一の非イベントデータをあらかじめ選択し、選択した一の非イベントデータを提示してもよい。この画像認識処理では、第一データ及び第二データが示す画像に写る移動体の数、位置関係及びオプティカルフローのうちの1つ以上を認識した上で、例えば、選択しようとする一の非イベントデータとともに端末13によってユーザに提示される第一データと類似している第二データを選択する。
なお、所定時間は、車両の運転手が危険を認識してから当該車両の制動措置をとるまでの時間である反応時間に基づいて定められてもよい。また、所定時間は、危険予測の処理を実行する危険予測装置の処理時間にさらに基づいて定められてもよい。
なお、第一データは、動画データであってもよい。
学習データ格納部123は、RAMまたはハードディスクなどのデータを記録するための記録媒体である。学習データ格納部123には、アノテーションが付与された静止画データ又は動画データ、言い換えれば、ポジティブデータ及びネガティブデータが学習データとして格納される。
学習部127は、学習データを用いて危険予測の学習をする。すなわち、学習部127は、学習データ格納部123に格納されている学習データのうちのポジティブデータ及びネガティブデータの特徴を学習することによって、認識モデルを構築する。具体的には、学習部127は、将来にイベントが発生する画像の特徴をポジティブデータから学習し、また、後にイベントが発生しない画像の特徴をネガティブデータから学習することによって、認識モデルを構築する。学習部127は、構築した認識モデルをモデル格納部128に格納する。構築された認識モデルは、静止画データ又は動画データを入力データとして入力されると、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する認識モデルである。認識情報は、イベントが発生するか否かを2値で示す情報であってもよいし、イベントが発生する度合い又は確率を0〜100のいずれかで示す情報であってもよい。
学習部127による学習は、Deep Learning(Neural Network)、Random Forest、またはGenetic Programmingなどの機械学習である。また、画像中の物体の認識およびセグメンテーションには、グラフカットなどを用いることができる。あるいは、Random ForestまたはGenetic Programmingによって作成された認識器などを用いてもよい。また、学習部127が構築する認識モデルは、ニューラルネットワークモデルであってもよい。
モデル格納部128は、RAMまたはハードディスクなどのデータを記録するための記録媒体である。このモデル格納部128には、学習部127によって構築された認識モデルが格納される。モデル格納部128に格納された認識モデルは、制御部129を介して車載機器110に提供される。
制御部129は、サーバ12内の各機能の動作を制御する制御装置である。また、制御部129は、端末13及び車両11との通信をする通信インタフェースを備える。制御部129は、アノテーション付与部122と端末13との間での静止画データ又は動画データと、類否判断の結果を示す情報とを送受信する。制御部129は、モデル格納部128に格納されている認識モデルを車両11(より具体的には車載機器110)に提供する。
以降において、静止画データ又は動画データの生成及び分別、静止画データ又は動画データへのアノテーションの付与について詳しく説明する。
図3は、本実施の形態における画像データ格納部121に格納される画像の第一例を示す説明図である。図3の(a)及び(b)は、車両A及びB、並びに人Hを上空から見た位置関係を示した図である。図3の(c)及び(d)は、それぞれ、車両Aなどが図3の(a)及び(b)の位置関係にあるときに車両Aの車載センサが車両Aの前方を撮影した画像の一例である。
図3の(a)において、走行している自車両である車両Aの前方に、他車両である車両Bが停車している。また、車両Bの前方には、人Hが左から右へ、道路を横切ろうとしている。この状態において、車両Aの運転手は人Hの存在に気づいておらず、スピードを落とさずに車両Bの右を通り抜けようと考えている。
図3の(b)は、図3の(a)の状態から数秒程度進んだ状態を示している。車両Aが車両Bの右側を通り抜けようとしたときに、車両Aの運転手が人Hの存在に気づき、急ブレーキをかけた状態である。
図3の(c)は、図3の(a)の状態で車両Aの車載センサが前方を撮影した画像の一例である。この画像には、車両Bが映っており、また、人Hの頭がわずかに映っている。
図3の(d)は、図3の(b)の状態で車両Aの車載センサが前方を撮影した画像の一例である。この画像には、車両Bが大きく映っており、また、人Hの全身が大きく映っている。
このとき、車両Aの車載センサは、図3の(c)及び(d)を含む所定時間の静止画データ又は動画データを取得している。また、車両Aの加速度センサなどにより車両Aが急ブレーキをかけたことが検知されたことに基づいて、この静止画データ又は動画データはイベントデータとして扱われる。よって、車両Aは、この静止画データ又は動画データをイベントデータとしてサーバ12に送信する。
図4は、本実施の形態における画像データ格納部121に格納される画像の第二例を示す説明図である。図4の(a)〜(d)は、それぞれ、図3におけるものと同様の位置関係及び画像を示している。
図4の(a)は、図3の(a)と同じ位置関係を示している。この状態において、車両Aの運転手は人Hの存在に気づき、スピードを落として車両Bの右を通り抜ける、又は、必要に応じて停車しようと考えている。
図4の(b)は、図4の(a)の状態から数秒程度進んだ状態を示している。車両Aの運転手が、ゆっくりとブレーキをかけた状態である。
図4の(c)は、図3の(c)と同じ画像を示している。
図4の(d)は、図4の(b)の状態で車両Aの車載センサが前方を撮影した画像の一例である。この画像には、車両Bが映っており、また、人Hの全身が映っている。ただし、図4の(d)に映っている人Hの画像における寸法は、図3の(d)に映っている人Hの画像における寸法より小さい。図4の(b)及び(d)のほうが、車両Aから人Hまでの距離が大きいからである。
このとき、車両Aの車載センサは、図4の(c)及び(d)を含む所定時間の静止画データ又は動画データを取得している。また、車両Aの加速度センサなどにより車両Aが急ブレーキをかけたことが検知されないので、この静止画データ又は動画データは非イベントデータとして扱われる。よって、車両Aは、この静止画データ又は動画データを非イベントデータとしてサーバ12に送信する。
サーバ12は、上記のように得られたイベントデータ及び非イベントデータから学習データを作成する。一般的には、イベントデータ及び非イベントデータから学習データを作成する際に、イベントデータをポジティブデータとし、非イベントデータをネガティブデータとした学習データを作成する。
しかしながら、単に、イベントデータをポジティブデータとし、非イベントデータをネガティブデータとして作成した学習データに基づく学習では、適切な認識モデルが構築されない場合がある。このことについて以下で説明する。
例えば、図3に示されるイベントデータにおいて、図3の(c)の画像は、この後に急ブレーキがなされるものであるので、イベントの発生が予測される状況を示している。よって、図3の(c)の画像は、学習データに基づいて作成される認識モデルにおいて、イベントの発生が予測される画像であると認識される必要がある。一方、図4の(c)の画像は、この後に急ブレーキがなされないものであるので、イベントの発生が予測されない状況を示している。よって、図4の(c)の画像は、認識モデルにおいて、イベントの発生が予測されない画像であると認識される必要がある。
しかし、図3の(c)の画像と図4の(c)の画像とは、同じ画像である。図3の(c)の画像をイベントの発生が予測される画像として学習させる一方、図4の(c)の画像をイベントの発生が予測されない画像として学習させることは、同一の画像について相反する内容の学習をさせることになり、適切な認識モデルが構築されない。
そこで、本実施の形態のアノテーション付与部122は、非イベントデータであっても、その画像が、イベントデータと類似しているときには、ポジティブデータに分類する。これにより、上記のような、適切な認識モデルが構築されないケースを回避することができる。
図5は、本実施の形態におけるアノテーション付与部122によるアノテーションの付与の第一の説明図である。図6は、本実施の形態におけるアノテーション付与部122によるアノテーションの付与の際に提示される画像の第一の説明図である。
図5に示されるように、アノテーション付与部122は、画像データ格納部121に格納されている複数のイベントデータのうちの1つであるイベントデータ41を取得する。また、アノテーション付与部122は、画像データ格納部121に格納されている複数の非イベントデータのうちの1つである非イベントデータ42を取得する。
そして、アノテーション付与部122は、イベントデータ41と非イベントデータ42とを制御部129を介して端末13に送信し、表示装置131に表示させる(図6参照)。そして、ユーザによる、イベントデータ41と非イベントデータ42との類否の判断結果を受け付けるボタンの画像51及び52を表示する。また、このとき、表示装置131は、表示した2つの画像が類似しているか否かをユーザに問い合わせる文字列を含む画像53を表示してもよい。ユーザによる類比判断に基づいてボタンの画像51又は52への操作がなされると、アノテーション付与部122は、その操作データを制御部129を介して受け付ける。ボタンの画像51が操作された場合の操作データは「類似」であり、ボタンの画像52が操作された場合の操作データは「非類似」である。
操作データが「非類似」である場合について説明を続ける。
操作データが「非類似」である場合、アノテーション付与部122は、非イベントデータ42にネガティブデータのアノテーションを付与して学習データ格納部123に格納する。言い換えれば、アノテーション付与部122は、非イベントデータ42をネガティブデータ44として学習データ格納部123に格納する。また、アノテーション付与部122は、イベントデータ41にポジティブデータのアノテーションを付与して学習データ格納部123に格納する。言い換えれば、アノテーション付与部122は、イベントデータ41をポジティブデータ43として学習データ格納部123に格納する。
次に、操作データが「類似」である場合について説明する。
図7は、本実施の形態におけるアノテーション付与部122によるアノテーションの付与の第二の説明図である。
図7に示されるように、操作データが「類似」である場合、アノテーション付与部122は、非イベントデータ62にポジティブデータのアノテーションを付与して学習データ格納部123に格納する。言い換えれば、アノテーション付与部122は、非イベントデータ62をポジティブデータ64として学習データ格納部123に格納する。イベントデータ61については、上記の「類似」の場合と同様にポジティブデータのアノテーションを付与して学習データ格納部123に格納する。
このようにすると、図3に示されるイベントデータ、及び、図4に示される非イベントデータがともにポジティブデータとして学習データ格納部123に格納される。そして、これらのデータがともに、イベントの発生が予測される画像として適切に学習される。
なお、上記では、アノテーション付与部122はイベントデータ41又は61と、非イベントデータ42又は62とについての1回の類比判断に基づいて、非イベントデータ42又は62をネガティブデータとポジティブデータとのいずれかに決定する例を示した。しかし、アノテーション付与部122は、異なる複数のユーザによる類比判断を総合的に考慮してネガティブデータとポジティブデータとのいずれかに決定してもよい。例えば、複数のユーザのうちの所定(70%〜80%程度等)以上のユーザが類似と判断した場合に、類否判断の結果を類似とし、そうでない場合には類否判断の結果を非類似としてもよい。
また、複数のイベントデータのうちのどのイベントデータと、複数の非イベントデータのうちのどの非イベントデータとをユーザに提示するかも任意である。
なお、アノテーション付与部122は、イベントデータにネガディブデータのアノテーションを付与してもよい。これは、イベントデータに実際にはイベントが映っていない場合になされる処理である。この処理について以下で説明する。
図8は、本実施の形態におけるアノテーション付与部122によるアノテーションの付与の第三の説明図である。図9は、本実施の形態におけるアノテーション付与部122によるアノテーションの付与の際に提示される画像の第二の説明図である。
図8に示されるように、アノテーション付与部122は、画像データ格納部121に格納されている複数のイベントデータのうちの1つであるイベントデータ71を取得する。
そして、アノテーション付与部122は、イベントデータ71を制御部129を介して端末13に送信し、表示装置131に表示させる(図9参照)。そして、ユーザによる、イベントデータ71に実際にイベントが映っているか否かの判断結果を受け付けるボタンの画像81及び82を表示する。また、このとき、表示装置131は、表示したイベントデータ71にイベントが実際に映っているか否かをユーザに問い合わせる文字列を含む画像83を表示してもよい。ユーザによる判断に基づいてボタンの画像81又は82への操作がなされると、アノテーション付与部122は、その操作データを制御部129を介して受け付ける。
ユーザによる判断の結果が、イベントデータ71にイベントが実際には映っていないことを示すものである場合、アノテーション付与部122は、イベントデータ71にネガティブデータのアノテーションを付与して学習データ格納部123に格納する。言い換えれば、アノテーション付与部122は、イベントデータ71をネガティブデータ73として学習データ格納部123に格納する。
一方、ユーザによる判断の結果が、イベントデータ71にイベントが実際に映っていることを示す場合には、アノテーション付与部122は、図5のイベントデータ41と同じように、ポジティブデータのアノテーションを付与して学習データ格納部123に格納する。
このようにして学習データ格納部123に格納された学習データを用いて学習部127による学習がなされ、その結果として生成される認識モデルがモデル格納部128に格納される。
次に、危険予測を行う車載機器110、及び、車載機器110を搭載した車両11について説明する。
図10は、車両11の機能構成を示すブロック図である。
図10に示されるように、車両11は、車載機器110と、車両駆動機構115とを備える。
車載機器110は、カメラ111と、認識器112と、提示装置113と、車両制御装置114とを備える。
カメラ111は、車両11の周囲を撮影するように車両11に搭載されている。具体的には、カメラ111は、車両11の前方を撮影できる位置及び向きで車両11に搭載されている。カメラ111は、車両11の前方を撮影したときには、その撮影によって生成される画像である撮影画像を認識器112に出力する。
認識器112は、サーバ12からネットワークNを介して認識モデルを取得して保持している。ここで、認識器112が取得する認識モデルは、車両が撮影した画像に基づいて、当該画像が撮影された後に生じ得るイベントの発生を予測する認識モデルである。また、認識器112は、車両11に搭載されたカメラ111による車両11の前方の撮影によって生成される画像である撮影画像を取得する。そして、認識器112は、その撮影画像を入力データとして認識モデルに入力することによって、撮影画像が撮影された後にイベントが発生するか否かを検出し、予測情報を生成する。予測情報は、現時点より後にイベントが発生するか否かを示す情報である。そして、認識器112は、生成した予測情報を提示装置113と車両制御装置114とに出力する。予測情報は、例えば、この後にイベントが発生し得ることを文字又は図によって示す画像又は音などである。
提示装置113は、情報を提示する提示装置であり、例えば、液晶ディスプレイ若しくは有機ELディスプレイ等の表示装置、又は、スピーカ等の音出力装置を含む。ここでは、提示装置113が表示装置である場合を例として説明する。
提示装置113は、認識器112から予測情報を取得すると、その予測情報を画像として表示し、車両11の運転者に提示する。
車両制御装置114は、車両11の駆動、特に、車両11の加速及び減速を制御する制御装置である。車両制御装置114は、認識器112から予測情報を取得すると、その予測情報に基づいて、車両制御装置114は、例えば車両11を減速させる制御を行う。車両11の駆動の制御は、車両駆動機構115によりなされる。
車両駆動機構115は、車両11の駆動を制御する制御装置である。車両駆動機構115は、車両制御装置114からの制御の下で、車両11の駆動、具体的には、加減速及び操舵などの制御を行う。
以上のように構成された危険予測システム1が実行する処理について説明する。
図11は、本実施の形態における静止画データ又は動画データの分別処理を示すフロー図である。この処理は、例えば、所定時間(例えば20秒)ごとに車載機器により行われる。
図11に示されるようにステップS101において、車載機器は、車載センサにより静止画データ又は動画データを取得する。静止画データ又は動画データは、例えば、所定時間の時間長を有する動画データである。ここで、車載機器は、危険予測を行う認識器112を搭載した車両11の車載機器110に限定されない。また、このとき、車載機器は、当該車載機器が搭載された車両の加速度データなども取得してもよい。
ステップS102において、車載機器は、取得した静止画データ又は動画データをイベントデータとするか否かを判定する。この判定は、静止画データ又は動画データそのものを対象とした画像認識処理によりなされてもよいし、静止画データ又は動画データが取得されたときの車両の加速度データに基づいて急ブレーキ又は急ハンドルがなされたことを検出することでなされてもよい。取得した静止画データ又は動画データをイベントデータとすると判定された場合には、ステップS103に進み、そうでない場合には、ステップS111に進む。
ステップS103において、車載機器は、ステップS101で取得した静止画データ又は動画データをイベントデータとしてサーバ12に送信する。サーバ12は、受信した静止画データ又は動画データをイベントデータとして画像データ格納部121に格納する。
ステップS111において、車載機器は、ステップS101で取得した静止画データ又は動画データを非イベントデータとしてサーバ12に送信する。サーバ12は、受信した静止画データ又は動画データを非イベントデータとして画像データ格納部121に格納する。
図12は、本実施の形態における学習データの生成処理を示すフロー図である。
図12に示されるようにステップS201において、アノテーション付与部122は、画像データ格納部121からイベントデータと非イベントデータとを取得する。
ステップS202において、アノテーション付与部122は、ステップS201で取得したイベントデータに含まれる、イベントより所定時間前の静止画データ又は動画データを端末13に送信し、表示装置131により表示する。上記静止画データ又は上記動画データを第一データともいう。
ステップS203において、アノテーション付与部122は、ステップS201で取得した非イベントデータを端末13に送信し、表示装置131により表示する。上記非イベントデータを第二データともいう。
ステップS204において、アノテーション付与部122は、第一データと第二データとが類似しているか否かについてのユーザによる判断結果を端末13により取得する。
ステップS205において、ステップS204で取得した類比判断の結果が、類似していることを示すか否かを判定する。類似していることを示す場合(ステップS205でYes)にはステップS206に進み、そうでない場合(ステップS205でNo)にはステップS211に進む。
ステップS206において、アノテーション付与部122は、非イベントデータにポジティブデータのアノテーションを付与して学習データ格納部123に格納する。
ステップS207において、アノテーション付与部122は、イベントデータにポジティブデータのアノテーションを付与して学習データ格納部123に格納する。
ステップS211において、アノテーション付与部122は、非イベントデータにネガティブデータのアノテーションを付与して学習データ格納部123に格納する。ステップS211を終了したら、この一連の処理を終了する。
なお、ステップS202及びS203の実行の順序は反対であってもよいし、同時並行的になされてもよい。
図13は、本実施の形態における車載機器110が行う危険予測方法に係る処理を示すフローチャートである。
図13に示されるようにステップS301において、車載機器110のカメラ111は、撮影によって撮影画像を生成する。
ステップS302において、認識器112は、ステップS301でカメラ111が生成した撮影画像を入力データとして認識モデルに入力する。
ステップS303において、認識器112は、ステップS302で撮影画像を認識モデルに入力したことにより出力される情報を得る。認識モデルから出力される情報は、ステップS302で認識モデルに入力された撮影画像の後にイベントが発生するか否かを示す予測情報を含む。認識器112は、認識モデルから出力される情報を得ることで、撮影画像の後にイベントが発生するか否かを示す予測情報を得る。
ステップS304において、車載機器110は、ステップS303で得た予測情報を用いて、予測情報を含む画像の提示、又は、車両11の制御を行う。
このようにすることで、危険予測システム1では、サーバ12による機械学習により生成した危険予測に関する認識モデルを用いて、車載機器110により、車両11の走行に関する危険予測をより高い精度で検出することができる。
以上のように、本実施の形態の危険予測方法によれば、非イベントデータのうちのイベントデータに類似しているものがポジティブデータとして学習に用いられる。従来の技術では、非イベントデータが一律にネガティブデータとして学習に用いられるので、非イベントデータのうちのイベントデータに類似しているものはネガティブデータとして学習に用いられる。その場合、互いに類似しているイベントデータと非イベントデータとの一方をポジティブデータとし、他方をネガティブデータとして学習をすると、学習により生成される認識モデルが不適切になることがある。そこで、イベントデータと非イベントデータとが類似しているときには、その両方をポジティブデータとして学習をすることで、認識モデルが不適切になることを回避し、適切な認識モデルが得られる。本発明の一態様に係る学習データ作成方法によれば、このように作成される学習データに基づく学習により、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、所定時間として反応時間を用いることで、より容易に、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、所定時間として、反応時間と危険予測装置の処理時間とを用いることで、より容易に、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、イベントデータ及び非イベントデータとして動画データを用いて学習データを作成することによって、イベントデータの特徴及び非イベントデータの特徴をより正確に学習することができる。これにより、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、第一データとして動画データを用いることによって、非イベントデータである第二データとの類比判断をより正確に行うことができる。これにより、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、実際にはイベントが映っていないと判断されたイベントデータをネガティブデータとして学習する。これにより、認識モデルをより一層適切なものとすることができ、その結果、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、第一画像と第二画像との類比判断を画像認識処理によって自動的に行う。これにより、人手を介さずに一定の基準に則った類比判断を行うことができる。これにより、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、画像認識処理として、移動体の数、位置関係又はオプティカルフローを認識することで、より具体的な認識処理に基づいて、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、車載センサにより取得した画像を分別することでイベントデータ及び非イベントデータを取得ことによって、より容易に、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、車両への他者の衝突、又は、他者の急接近に基づいて、イベントデータを分別することができる。このように、より容易に、車載センサにより取得した静止画データ又は動画データをイベントデータに分別し、その結果、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、車両における急ブレーキ又は急ハンドルに基づいて、イベントデータを分別することができる。このように、より容易に、車載センサにより取得した静止画データ又は動画データをイベントデータに分別し、その結果、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測することができる。
また、車車間通信によって危険信号を受信した場合には画像を非イベントデータに分別する。車両における急ブレーキ又は急ハンドルがなされた場合でも、車車間通信によって危険信号を受信した場合には、静止画データ又は動画データから危険予測に関する情報が得られないことがあるので、当該静止画データ又は当該動画データを学習の対象から除外するためである。
また、車両の急ブレーキがかけられた場合に、広角の静止画データ又は動画データに含まれる車両の進行方向を含む静止画データ又は動画データがイベントデータに分別される。急ブレーキがなされる場合には、車両の進行方向に何らかの物体などが存在している可能性がある。よって、その物体の方向をイベントデータとして学習することで、危険事象を適切に学習し、予測することができる。
また、広角の静止画データ又は動画データに含まれる、急ハンドルがなされた方向と反対方向を含む静止画データ又は動画データがイベントデータに分別される。急ハンドルがなされる場合には、その方向と反対方向に何らかの物体などが存在している可能性がある。よって、その物体の方向をイベントデータとして学習することで、危険事象を適切に学習し、予測することができる。
また、車両の速度に応じて変化する運転手の視界の広さに対応して、イベントデータとする画像の水平方向の幅を調整し得る。よって、車両の運転手の視界の広さの変化に基づいて広さが変化する静止画データ又は動画データをイベントデータとして、危険事象を適切に学習し、予測することができる。
また、車両の速度に応じて変化する運転手の視界の広さに対応して、イベントデータとする画像の水平方向の幅を調整し得る。一般に、車両の速度が大きい場合、その車両の運転手の視界が狭くなるので、イベントはその狭くなった視界に含まれるからである。よって、車両の運転手の視界の広さが、車両の速度が大きいほど狭くなることを考慮して、水平方向の幅が変化する静止画データ又は動画データをイベントデータとして、危険事象を適切に学習し、予測することができる。
(実施の形態の変形例)
本変形例では、実施の形態1の危険予測システム1等の一部又は全部の変形例を説明する。ただし、危険予測システム1などは、以下の記載に限定されない。
図14は、本変形例に係る危険予測学習方法を示すフロー図である。
図14に示されるように、本変形例に係る危険予測装置による危険予測のための学習方法は、上記の学習データ作成方法により作成された学習データを取得し(S401)、取得した学習データに基づいて、学習データに含まれるポジティブデータ及びネガティブデータの特徴を学習することによって、認識モデルを構築する(S402)。
図15は、本変形例に係る学習装置200を示すブロック図である。
図15に示されるように、本変形例に係る危険予測装置による危険予測のための学習装置200は、上記の学習データ作成方法により作成された学習データを取得する学習データ取得部201と、取得した学習データを用いて、学習データに含まれるポジティブデータ及びネガティブデータそれぞれの特徴を学習することによって、認識モデルを構築する学習部202を備える。
図16は、本変形例に係る危険予測方法を示すフロー図である。
図16に示されるように、本変形例に係る危険予測方法は、車両に設置された車載センサにより映された静止画データ又は動画データを取得し(S501)、上記の学習方法によって構築された認識モデルに、取得した静止画データ又は動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する(S502)。
図17は、本変形例に係る危険予測装置300を示すブロック図である。
図17に示されるように、本変形例に係る危険予測装置300は、車両に設置された車載センサにより撮影された静止画データ又は動画データを取得する撮影画像取得部301と、上記の学習装置200によって構築された認識モデルに、取得した静止画データ又は動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する認識器302とを備える。
なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態の危険予測装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成方法であって、複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数のイベントデータ、及び、前記イベントがそれぞれに映っていない複数の非イベントデータとして取得し、取得した前記複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し、取得した前記複数の非イベントデータのうちの一の非イベントデータを第二データとして提示し、前記第一データと前記第二データとが類似しているか否かについての判断結果を受け付け、前記イベントデータと前記非イベントデータとを記憶装置に格納することで前記学習データを作成し、前記格納の際には、(a)前記ポジティブデータとして前記イベントデータを格納し、(b)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していることを示す場合には、前記ポジティブデータとして前記非イベントデータを格納し、(c)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していないことを示す場合には、前記ネガティブデータとして前記非イベントデータを格納する学習データ作成方法を実行させる。
また、このプログラムは、コンピュータに、危険予測装置による危険予測のための学習方法であって、上記の学習データ作成方法により作成された学習データを取得し、取得した前記学習データに基づいて、前記学習データに含まれる前記ポジティブデータ及び前記ネガティブデータの特徴を学習することによって、認識モデルを構築する学習方法を実行させる。
また、このプログラムは、コンピュータに、車両に設置された車載センサにより映された静止画データ又は動画データを取得し、上記の学習方法によって構築された前記認識モデルに、取得した前記静止画データ又は前記動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する危険予測方法を実行させる。
以上、一つまたは複数の態様に係る学習データ作成方法などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本発明は、将来に発生するアクシデント又はインシデントなどの危険事象を適切に予測するための学習データを作成する学習データ作成方法に利用可能である。より具体的には、自動運転車両に搭載される制御装置等に利用可能である。
1 危険予測システム
11、A、B 車両
12 サーバ
13 端末
41、61、71 イベントデータ
42、62 非イベントデータ
43、63、64 ポジティブデータ
44、73 ネガティブデータ
51、52、53、81、82、83 画像
110 車載機器
111 カメラ
112、302 認識器
113 提示装置
114 車両制御装置
115 車両駆動機構
120、201 学習データ取得部
121 画像データ格納部
122 アノテーション付与部
123 学習データ格納部
127、202 学習部
128 モデル格納部
129 制御部
131 表示装置
132 入力デバイス
200 学習装置
300 危険予測装置
301 撮影画像取得部
H 人
N ネットワーク

Claims (24)

  1. ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成方法であって、
    複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数のイベントデータ、及び、前記イベントがそれぞれに映っていない複数の非イベントデータとして取得し、
    取得した前記複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し、
    取得した前記複数の非イベントデータのうちの一の非イベントデータを第二データとして提示し、
    前記第一データと前記第二データとが類似しているか否かについての判断結果を受け付け、
    前記イベントデータと前記非イベントデータとを記憶装置に格納することで前記学習データを作成し、
    前記格納の際には、
    (a)前記ポジティブデータとして前記イベントデータを格納し、
    (b)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していることを示す場合には、前記ポジティブデータとして前記非イベントデータを格納し、
    (c)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していないことを示す場合には、前記ネガティブデータとして前記非イベントデータを格納する
    学習データ作成方法。
  2. 前記所定時間は、車両の運転手が危険を認識してから前記車両の制動措置をとるまでの時間である反応時間に基づいて定められる
    請求項1に記載の学習データ作成方法。
  3. 前記所定時間は、前記危険予測の処理を実行する危険予測装置の処理時間にさらに基づいて定められる
    請求項2に記載の学習データ作成方法。
  4. 前記複数のイベントデータのそれぞれは、動画データであり、
    前記複数の非イベントデータのそれぞれは、動画データである
    請求項1〜3のいずれか1項に記載の学習データ作成方法。
  5. 前記第一データは、動画データである
    請求項1〜4のいずれか1項に記載の学習データ作成方法。
  6. 前記受け付けの際には、さらに、
    前記イベントデータにイベントが実際に映っているか否かについての判断結果を受け付け、
    前記格納の際には、
    受け付けた前記判断結果が、前記イベントデータにイベントが実際には映っていないことを示す場合には、前記ネガティブデータとして前記イベントデータを格納する
    請求項1〜5のいずれか1項に記載の学習データ作成方法。
  7. 前記受け付けの際には、
    前記第一データと前記第二データとが類似しているか否かについての画像認識処理による判断結果を受け付ける
    請求項1〜6のいずれか1項に記載の学習データ作成方法。
  8. 前記画像認識処理は、前記第一データ及び前記第二データが示す画像に写る移動体の数、位置関係及びオプティカルフローのうちの1つ以上を認識する処理を含む
    請求項7に記載の学習データ作成方法。
  9. 前記学習データ作成方法は、さらに、
    車両が備える車載センサが撮影により生成した複数の静止画データ又は動画データのそれぞれをイベントデータ又は非イベントデータに分別することで、前記複数のイベントデータ及び前記複数の非イベントデータを取得し、
    前記分別では、
    前記一の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両に他者が衝突した、又は、他者が急接近したことが、画像認識処理により認識された場合には、前記一の静止画データ又は動画データをイベントデータに分別する
    請求項1〜8のいずれか1項に記載の学習データ作成方法。
  10. 前記分別では、
    前記一の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両において急ブレーキ又は急ハンドルがなされたことが、前記車両の加速度データから判定された場合には、前記一の静止画データ又は動画データをイベントデータに分別する
    請求項9に記載の学習データ作成方法。
  11. 前記分別では、
    前記車両において急ブレーキ又は急ハンドルがなされたと判定された場合であっても、前記車両が車車間通信によって危険信号を受信していたときには、前記一の静止画データ又は動画データを非イベントデータに分別する
    請求項9又は10に記載の学習データ作成方法。
  12. 前記一の静止画データ又は動画データは、前記車両の前方を含む広角の静止画データ又は動画データであり、
    前記分別では、
    前記一の静止画データ又は動画データである広角の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両において急ブレーキがなされたことが、前記車両の加速度データから判定された場合には、前記広角の静止画データ又は動画データのうち、前記車両の前方を含む静止画データ又は動画データをイベントデータに分別する
    請求項9〜11のいずれか1項に記載の学習データ作成方法。
  13. 前記一の静止画データ又は動画データは、前記車両の前方を含む広角の静止画データ又は動画データであり、
    前記分別では、
    前記一の静止画データ又は動画データである広角の静止画データ又は動画データが前記車載センサにより撮影されたときに、前記車両の左右の一方への急ハンドルがなされたことが、前記車両の加速度データから判定された場合には、前記広角の静止画データ又は動画データのうち、前記車両の左右の前記一方と異なる他方を含む静止画データ又は動画データをイベントデータに分別する
    請求項9〜12のいずれか1項に記載の学習データ作成方法。
  14. 前記分別では、
    前記広角の静止画データ又は動画データのうちの、前記イベントデータに分別する静止画データ又は動画データの水平方向のサイズは、前記一の画像が撮影されたときの前記車両の速度に基づいて決定される
    請求項12又は13に記載の学習データ作成方法。
  15. 前記分別では、
    前記広角の静止画データ又は動画データのうちの、前記イベントデータに分別する静止画データ又は動画データの水平方向のサイズは、前記一の画像が撮影されたときの前記車両の速度が大きいほど小さい
    請求項12又は13に記載の学習データ作成方法。
  16. 前記第二データを提示する際には、
    取得した前記複数の非イベントデータのうちから、画像認識処理に基づいて前記一の非イベントデータをあらかじめ選択し、選択した前記一の非イベントデータを提示する
    請求項1〜15のいずれか1項に記載の学習データ作成方法。
  17. 危険予測装置による危険予測のための学習方法であって、
    請求項1〜16のいずれか1項に記載の学習データ作成方法により作成された学習データを取得し、
    取得した前記学習データに基づいて、前記学習データに含まれる前記ポジティブデータ及び前記ネガティブデータの特徴を学習することによって、認識モデルを構築する
    学習方法。
  18. 車両に設置された車載センサにより映された静止画データ又は動画データを取得し、
    請求項17に記載の学習方法によって構築された前記認識モデルに、取得した前記静止画データ又は前記動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する
    危険予測方法。
  19. ポジティブデータとネガティブデータとを含む、危険予測のための学習データをコンピュータにより作成するための学習データ作成装置であって、
    複数の静止画データ又は動画データを、アクシデント又はインシデントであるイベントがそれぞれに映っている複数のイベントデータ、及び、前記イベントがそれぞれに映っていない複数の非イベントデータとして取得する学習データ取得部と、
    取得した前記複数のイベントデータのうちの一のイベントデータに含まれる静止画データ又は動画データであって、イベントより所定時間前の静止画データ又は動画データである第一データを提示し、取得した前記複数の非イベントデータのうちの一の非イベントデータを第二データとして提示し、前記第一データと前記第二データとが類似しているか否かについての判断結果を受け付け、前記第一データと前記第二データとを記憶装置に格納することで前記学習データを作成するアノテーション付与部とを備え、
    前記アノテーション付与部は、前記格納の際には、
    (a)前記ポジティブデータとして前記イベントデータを格納し、
    (b)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していることを示す場合には、前記ポジティブデータとして前記非イベントデータを格納し、
    (c)受け付けた前記判断結果が、前記第一データと前記第二データとが類似していないことを示す場合には、前記ネガティブデータとして前記非イベントデータを格納する
    学習データ作成装置。
  20. 危険予測装置による危険予測のための学習装置であって、
    請求項19に記載の学習データ作成装置により作成された学習データを取得する学習データ取得部と、
    取得した前記学習データを用いて、前記学習データに含まれる前記ポジティブデータ及び前記ネガティブデータそれぞれの特徴を学習することによって、認識モデルを構築する学習部を備える
    学習装置。
  21. 車両に設置された車載センサにより撮影された静止画データ又は動画データを取得する撮影画像取得部と、
    請求項20に記載の学習装置によって構築された前記認識モデルに、取得した前記静止画データ又は前記動画データを入力データとして入力することで出力される、当該静止画データ又は当該動画データが映された時刻の後のイベントの発生についての予測情報を出力する認識器とを備える
    危険予測装置。
  22. 請求項1〜16のいずれか1項に記載された学習データ作成方法をコンピュータに実行させるためのプログラム。
  23. 請求項17に記載された学習方法をコンピュータに実行させるためのプログラム。
  24. 請求項18に記載された危険予測方法をコンピュータに実行させるためのプログラム。
JP2018067882A 2018-03-30 2018-03-30 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム Pending JP2019179372A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018067882A JP2019179372A (ja) 2018-03-30 2018-03-30 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム
US16/366,294 US10817751B2 (en) 2018-03-30 2019-03-27 Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium
CN201910242430.7A CN110321916B (zh) 2018-03-30 2019-03-28 学习数据制作方法、学习方法、危险预测方法及装置、程序存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018067882A JP2019179372A (ja) 2018-03-30 2018-03-30 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2019179372A true JP2019179372A (ja) 2019-10-17

Family

ID=68056389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018067882A Pending JP2019179372A (ja) 2018-03-30 2018-03-30 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム

Country Status (3)

Country Link
US (1) US10817751B2 (ja)
JP (1) JP2019179372A (ja)
CN (1) CN110321916B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210110029A (ko) * 2020-02-28 2021-09-07 한남대학교 산학협력단 인공지능 기반의 자동차 충격원 예측 시스템
WO2021199351A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 遠隔監視システム、遠隔監視装置、及び方法
JP7254988B1 (ja) 2022-03-11 2023-04-10 ソフトバンク株式会社 運行管理システム、運行管理装置、運行管理装置の制御方法、及び運行管理装置の制御プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214674A1 (de) * 2018-06-29 2020-01-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Unfallfrüherkennung
US10940870B1 (en) * 2018-11-28 2021-03-09 BlueOwl, LLC Systems and methods for visualizing predicted driving risk
US11787413B2 (en) 2019-04-26 2023-10-17 Samsara Inc. Baseline event detection system
US11080568B2 (en) 2019-04-26 2021-08-03 Samsara Inc. Object-model based event detection system
US10999374B2 (en) 2019-04-26 2021-05-04 Samsara Inc. Event detection system
US11494921B2 (en) 2019-04-26 2022-11-08 Samsara Networks Inc. Machine-learned model based event detection
US20210165932A1 (en) * 2019-12-02 2021-06-03 Nuro, Inc. Collision filtering for autonomous vehicle simulations

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0660300A (ja) * 1992-08-04 1994-03-04 Takata Kk 神経回路網による衝突予防予測システム
JP2003506785A (ja) * 1999-08-06 2003-02-18 ロードリスク テクノロジーズ エルエルシー 静止物体検出の方法および装置
JP2007233744A (ja) * 2006-03-01 2007-09-13 Fujitsu Ten Ltd 運転支援装置
WO2011036704A1 (ja) * 2009-09-24 2011-03-31 株式会社 東芝 コンテンツ推薦装置
JP2011145791A (ja) * 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
JP2013089237A (ja) * 2011-10-14 2013-05-13 Xerox Corp 衝突回避信号
JP2013232091A (ja) * 2012-04-27 2013-11-14 Fujitsu Ltd 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP2013250881A (ja) * 2012-06-01 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> 学習画像選択方法、コンピュータプログラム及び学習画像選択装置
JP2017111731A (ja) * 2015-12-18 2017-06-22 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理方法、プログラム
JP6721846B2 (ja) * 2016-12-09 2020-07-15 富士通株式会社 教師データ候補抽出プログラム、教師データ候補抽出装置、及び教師データ候補抽出方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6045846B2 (ja) 1980-11-14 1985-10-12 理研ビタミン株式会社 L−アスコルビン酸製剤およびその製造法
JP2009032143A (ja) * 2007-07-30 2009-02-12 Seiko Epson Corp ドライブレコーダ、ドライブレコーダシステム、ドライブレコーダの制御方法およびプログラム
US9173076B2 (en) * 2011-12-13 2015-10-27 International Business Machines Corporation Authentication method, authentication system and authentication program
JP6045846B2 (ja) 2012-08-08 2016-12-14 株式会社東芝 交通事故発生予報装置、方法およびプログラム
CN103353893B (zh) * 2013-07-18 2016-12-28 国家电网公司 调度自动化系统分布式数据采集故障智能诊断方法
US10073754B2 (en) * 2013-09-13 2018-09-11 Assurant, Inc. Systems and methods for collecting, tracking, and storing system performance and event data for computing devices
JP6349607B2 (ja) * 2014-02-26 2018-07-04 ジオ・サーチ株式会社 岸壁又は堤防の空洞探査方法及び危険性評価方法
CN104657430A (zh) * 2015-01-28 2015-05-27 武汉烽火众智数字技术有限责任公司 一种数据采集的方法和系统
CN104951512A (zh) * 2015-05-27 2015-09-30 中国科学院信息工程研究所 一种基于互联网的舆情数据采集方法及系统
US10031522B2 (en) * 2015-05-27 2018-07-24 Dov Moran Alerting predicted accidents between driverless cars
CN105261148A (zh) * 2015-10-14 2016-01-20 广州医科大学 一种基于天网监控系统的踩踏事件预警疏散方法
US9988056B2 (en) * 2015-12-15 2018-06-05 Octo Telematics Spa Systems and methods for controlling sensor-based data acquisition and signal processing in vehicles
CN105635685B (zh) * 2015-12-31 2018-11-23 成都移动魔方科技有限公司 一种自动化数据采集传输方法
CN105741009A (zh) * 2016-01-07 2016-07-06 里法诺夫·尼尔·金 用于开发事件人工量的收集、追踪、存储和报告的动态方法
CN105681421A (zh) * 2016-01-19 2016-06-15 清华大学合肥公共安全研究院 车载真实灾害数据采集实验平台及数据采集方法
JP2017138694A (ja) 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
CN107180220B (zh) * 2016-03-11 2023-10-31 松下电器(美国)知识产权公司 危险预测方法
CN106127511A (zh) * 2016-06-12 2016-11-16 樊永正 经济大数据的数据采集方法
US10747228B2 (en) * 2017-07-03 2020-08-18 Baidu Usa Llc Centralized scheduling system for operating autonomous driving vehicles
CN107753016A (zh) * 2017-10-24 2018-03-06 庞锦钊 一种心电数据采集器数据显示系统及方法
WO2019165451A1 (en) * 2018-02-26 2019-08-29 Nvidia Corporation Systems and methods for computer-assisted shuttles, buses, robo-taxis, ride-sharing and on-demand vehicles with situational awareness
US11392131B2 (en) * 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
US11169536B2 (en) * 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
US10809735B2 (en) * 2018-04-09 2020-10-20 SafeAI, Inc. System and method for a framework of robust and safe reinforcement learning application in real world autonomous vehicle application
US11561541B2 (en) * 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
US10620317B1 (en) * 2018-12-23 2020-04-14 Chongqing Jinkang New Energy Automobile Co., Ltd. Lidar-based high definition map generation

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0660300A (ja) * 1992-08-04 1994-03-04 Takata Kk 神経回路網による衝突予防予測システム
JP2003506785A (ja) * 1999-08-06 2003-02-18 ロードリスク テクノロジーズ エルエルシー 静止物体検出の方法および装置
JP2007233744A (ja) * 2006-03-01 2007-09-13 Fujitsu Ten Ltd 運転支援装置
WO2011036704A1 (ja) * 2009-09-24 2011-03-31 株式会社 東芝 コンテンツ推薦装置
JP2011145791A (ja) * 2010-01-13 2011-07-28 Hitachi Ltd 識別器学習画像生成プログラム、方法、及びシステム
JP2013089237A (ja) * 2011-10-14 2013-05-13 Xerox Corp 衝突回避信号
JP2013232091A (ja) * 2012-04-27 2013-11-14 Fujitsu Ltd 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP2013250881A (ja) * 2012-06-01 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> 学習画像選択方法、コンピュータプログラム及び学習画像選択装置
JP2017111731A (ja) * 2015-12-18 2017-06-22 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理方法、プログラム
JP6721846B2 (ja) * 2016-12-09 2020-07-15 富士通株式会社 教師データ候補抽出プログラム、教師データ候補抽出装置、及び教師データ候補抽出方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210110029A (ko) * 2020-02-28 2021-09-07 한남대학교 산학협력단 인공지능 기반의 자동차 충격원 예측 시스템
KR102387127B1 (ko) * 2020-02-28 2022-04-14 한남대학교 산학협력단 인공지능 기반의 자동차 충격원 예측 시스템
WO2021199351A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 遠隔監視システム、遠隔監視装置、及び方法
JP7254988B1 (ja) 2022-03-11 2023-04-10 ソフトバンク株式会社 運行管理システム、運行管理装置、運行管理装置の制御方法、及び運行管理装置の制御プログラム
JP2023132714A (ja) * 2022-03-11 2023-09-22 ソフトバンク株式会社 運行管理システム、運行管理装置、運行管理装置の制御方法、及び運行管理装置の制御プログラム

Also Published As

Publication number Publication date
CN110321916A (zh) 2019-10-11
US10817751B2 (en) 2020-10-27
CN110321916B (zh) 2024-04-09
US20190303718A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
JP2019179372A (ja) 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム
CN107220581B (zh) 通过后置摄像机的行人检测和运动预测
RU2701051C2 (ru) Способ, система и машиночитаемые запоминающие носители для выявления объектов с использованием рекуррентной нейронной сети и сцепленной карты признаков
US10860873B2 (en) Driver behavior recognition and prediction
US20210295073A1 (en) Primary preview region and gaze based driver distraction detection
US20200331476A1 (en) Automatic lane change with minimum gap distance
JP7239703B2 (ja) 領域外コンテキストを用いたオブジェクト分類
CN106952303B (zh) 车距检测方法、装置和系统
JP2021516806A (ja) 物体の検出および特徴付けのためのニューラルネットワーク
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
EP3909028A1 (en) Multimodal user interface for a vehicle
US11713046B2 (en) Driving assistance apparatus and data collection system
US11150656B2 (en) Autonomous vehicle decision making
US11893766B2 (en) Neural network system and operating method thereof
US11904853B2 (en) Apparatus for preventing vehicle collision and method thereof
JP2016130966A (ja) 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム
CN111051171A (zh) 对自主车辆的内部的异常的检测
US11328433B2 (en) Composite field based single shot prediction
JPWO2018138980A1 (ja) 制御システム、制御方法及びプログラム
JP5895728B2 (ja) 車群管理装置
CN111081045A (zh) 姿态轨迹预测方法及电子设备
CN111278708B (zh) 用于辅助驾驶的方法和装置
JP7269694B2 (ja) 事象発生推定のための学習データ生成方法・プログラム、学習モデル及び事象発生推定装置
JP2019003343A (ja) 運転支援装置および運転支援方法
US20210039660A1 (en) Anomaly Detector For Vehicle Control Signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220628