JP2023051757A - 車両データ収集システム及びその使用方法 - Google Patents

車両データ収集システム及びその使用方法 Download PDF

Info

Publication number
JP2023051757A
JP2023051757A JP2022129018A JP2022129018A JP2023051757A JP 2023051757 A JP2023051757 A JP 2023051757A JP 2022129018 A JP2022129018 A JP 2022129018A JP 2022129018 A JP2022129018 A JP 2022129018A JP 2023051757 A JP2023051757 A JP 2023051757A
Authority
JP
Japan
Prior art keywords
data
data collection
vehicle
feature map
invariant feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022129018A
Other languages
English (en)
Other versions
JP7382465B2 (ja
Inventor
大輔 橋本
Daisuke Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woven Alpha Inc
Original Assignee
Woven Alpha Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woven Alpha Inc filed Critical Woven Alpha Inc
Publication of JP2023051757A publication Critical patent/JP2023051757A/ja
Application granted granted Critical
Publication of JP7382465B2 publication Critical patent/JP7382465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】車両データ収集システムを提供する。【解決手段】車両データ収集システムは、車載センサと;命令を格納するように構成された非一時的コンピュータ可読媒体と;非一時的コンピュータ可読媒体に接続されたプロセッサを含む。プロセッサは、第1のニューラルネットワークを用いて不変特徴量マップを生成し;不変特徴量マップをサーバから受信されるテンプレートデータと比較して、不変特徴量マップとテンプレートデータの間の類似度を決定する、ための命令を実行するように構成されている。プロセッサは、さらに、決定された類似度が既定の閾値を上回っているか否かを決定し;及び決定された類似度が既定の閾値を上回っているという決定に応答して、サーバへセンサデータを送信するように伝送部に命令する、ための命令を実行するように構成されている。【選択図】図1

Description

車両(Vehicle)には、多種多様なセンサが装備されている。センサには、カメラ、光検出及び測距(LiDAR)センサ、及び他のタイプのセンサが含まれる。これらのセンサは、車両を取り囲む環境からデータを収集することができる。収集されたデータの一部分は、車両が使用するため又は外部デバイスが後日取り出すために車両内部に格納される。
車両センサから得た情報に基づくデータ収集システムは、発動条件に基づいている。これらの発動条件は、予め定義されたルールベースの条件である。これらの発動条件は、車両内部のメモリに格納され、発動条件の充足に応答して車両内部のセンサから予め設定されたデータが収集される。発動条件の例としては、急減速、急加速、ステアリングホイールの急回転、特定エリア内への車両の進入、車両の故障、が含まれる。
本開示の態様は、添付図面と併せて以下の詳細な説明を読むことによって、最も良く理解される。業界における標準的な慣行にしたがって、さまざまな特徴は原寸に比例して描かれていないということが指摘される。実際、さまざまな特徴の寸法は、論述を明確にするために、任意に増減され得る。
図1は、いくつかの実施形態に係る、車両データ収集システムの概略図である。 図2は、いくつかの実施形態に係る、不変特徴量マップを生成する方法のフローチャートである。 図3は、いくつかの実施形態に係る、類似度を決定する方法のフローチャートである。 図4は、いくつかの実施形態に係る車両データ収集システムの使用方法のフローチャートである。 図5は、いくつかの実施形態に係る車両データ収集システムを実装するためのシステムのブロック図である。
以下の開示は、提供されている主題の異なる特徴を実装するための多くの異なる実施形態、又は実施例を提供する。本開示を簡略化するために、以下では、構成要素、値、動作、材料、配設などの具体的例が説明されている。これらは当然のことながら、単なる例にすぎず、限定的なものとして意図されていない。他の構成要素、値、動作、材料及び配設などが企図されている。例えば、以下の説明中の第2の特徴全体にわたる又はその上の第1の特徴の形成には、第1及び第2の特徴が直接接触して形成される実施形態が含まれていてよく、且つ同様に、第1及び第2の特徴が直接接触し得ないように第1及び第2の特徴の間に追加の特徴が形成され得る実施形態も含まれていてよい。さらに、本開示では、さまざまな実施例中で参照番号及び/又は文字を反復使用することがある。この反復は、単純さ及び明確さを目的としており、それ自体、論述されているさまざまな実施形態及び/又は構成の間の関係を決定付けるものではない。
さらに、本明細書中では、図中に例示されている別の要素又は特徴に対する1つの要素又は特徴の関係を説明する目的で記述を容易にするために、「の下」、「の下方」、「下部」、「上方」、「上部」などの空間的相対語が使用され得る。空間的相対語は、図中に記載の配向に加えて、使用中又は動作中のデバイスの異なる配向を包含するように意図されている。装置は、他の形で配向される(90度回転されるか又は他の配向にある)ことができ、本明細書中で使用されている空間的相対記述子も同様に、相応して解釈され得る。
本明細書全体を通して、多くの場合、一車両に言及される。当業者であれば、一車両に対する言及が単に説明を単純にするためのものにすぎず、本開示が単一の車両を用いたデータの収集に限定されないということを認識するものと思われる。むしろ、当業者であれば、本開示が、単一の車両、共同所有された車両フリート、個人所有の車両グループ、又は探索されているデータに基づいた他の車両群によるデータ収集に対して適用可能であることを認識するものと思われる。
予め定義されたルールベースの発動条件への依存により、車両内のセンサによって収集されたデータの有用性を最大化する能力が制限されている。いくつかの状況において、所望される発動条件は、ルールベースの構文を用いて記述するのが困難である。いくつかの状況において、発動条件のための新たな基準が発生する。例えば、犯罪者が或るタイプの車を運転していることが分かった場合、このタイプの車が存在している場所を識別するために他の車両の車両センサを使用することが、警察による犯罪者の逮捕の可能性の一助になると思われる。このタイプの発動条件、車種、及び/又は車の色及び/又は車の汚れの特徴は、車両の内部で予め定義されるとは考えられない。したがって、新規の発動条件に関係する情報を受信してこれら新規の発動条件に関係するデータを提供する能力が、車両センサにより収集されるデータの有用性を増大させる。
発動条件を更新する能力が無ければ、不発動データ(false negative)又は不要発動(false positive)データの収集リスクが増大する。例えば、更新済み発動条件を提供する能力又は構文を用いては困難な形で発動条件を記述する能力が無い場合には、結果としてたとえ発動条件が実際に起こったとしても発動条件の検出を単数又は複数の車両が報告することはできず、すなわち不発動となる。あるいは、過度に広い発動条件に起因して単数又は複数の車両が大量のデータを提供した場合、真に関連性あるデータが大量のデータ内に埋もれてしまうリスクがより高くなる。その結果として、真に関連性あるデータは、見落とされ考慮されないリスクがあり、すなわち不要発動となる。
不要発動及び不発動を削減する目的で、ユーザが提供するデータに基づいて不変特徴量マップ(invariant feature map)を開発するために、ニューラルネットワークが使用可能である。そして、不変特徴量マップは、単数又は複数の車両に送られ、車両センサにより収集されたデータとの比較のためのテンプレートを開発するために使用される。単数又は複数の車両は、受信した不変特徴量マップとの高い類似度を有するデータを識別し、そのデータをサーバに伝送する。次にサーバは、データを収集し、ユーザにデータを提供する。比較のための基礎として不変特徴量マップを使用することにより、構文ベースの発動条件に対する依存は低減される。さらに、新規発動条件に関係するデータが収集可能である。さらに、データ比較はより精確であり、収集されたデータの有用性を低減させると思われる不要発動及び/又は不発動が少なくなる。このシステムは同様に、いくつかの事例において、車両からサーバに伝送されるデータ量を削減することもでき、これが車両及びサーバの両方における処理負荷並びにデータを伝送するのに使用される電力を削減する。車両における処理負荷及び伝送電力消費量のこの削減は、内燃車両による燃費向上を助け、且つ/又はハイブリッド車又は電気自動車におけるバッテリ電荷消費量を削減する。
図1は、いくつかの実施形態に係る、車両データ収集システム100の概略図である。車両データ収集システム100は、車両システムVS及びサーバ18を含む。車両システムVSは、サーバ18と通信するように構成されている。いくつかの実施形態において、通信は、無線通信である。いくつかの実施形態において、通信は有線通信である。車両システムVSは、車両内に組込まれている。いくつかの実施形態において、車両は、自動車、例えば自律運転自動車、オートバイ、ゴルフカート又は別の好適な車両である。サーバ18は、車両システムVSへデータ収集コマンドを送信するように構成されている。車両システムVSは、データ収集コマンドを受信し、受信したデータ収集コマンドに基づいてサーバ18にデータを送信し戻す。
データ収集コマンドは、データが要求される目的である物体(object)又は事象(occurrence)に関係する情報を含む。いくつかの実施形態において、データ収集コマンドはさらに、収集されたデータが要求される目的である物体又は事象の検出前及び後の期間に関係する情報を含む。いくつかの実施形態において、データ収集コマンドはさらに、要求された収集データのタイプ、例えば画像データ、場所データ、近接性データなどに関係する情報を含む。近接性データは、検出された物体がどれほど車両に近いかを示す情報である。いくつかの実施形態において、データ収集コマンドはさらに、データ収集コマンドに応答する優先度を上下させるための優先度情報を含む。
車両システムVSは、カメラ5及び車両を取り囲む環境のデータを取り込むように構成された他のセンサ6を含む。車両システムはさらに、電子制御ユニット(ECU)4を含む。ECU4は、カメラ5からの取込画像及び他のセンサ6からの他の収集データを受信するように構成されている。ECU4は、集合的に収集データとして言及される取込画像及び他の収集データを処理するように構成されている。いくつかの実施形態において、カメラ5は、可視光カメラを含む。いくつかの実施形態において、カメラ5は、赤外線(IR)カメラを含む。いくつかの実施形態において、カメラ5は、可視光カメラ及びIRカメラの組合せを含む。いくつかの実施形態において、カメラ5は、深度検知カメラを含む。いくつかの実施形態において、他のセンサ6は、光検出及び測距(LiDAR)センサ、電波センサ、電波検出及び測距(RADAR)センサ、ソーナセンサ、GPSセンサ、速度センサ、マイクロホン、燃料センサ、酸素センサ、タイヤ空気圧センサ、温度計、他の好適なセンサ又はそれらの組合せを含む。いくつかの実施形態において、収集データには、画像データ、点群データ又は他の好適なデータが含まれる。ECU4は、データが存在する場合、どのデータをデータ収集コマンドに応答してサーバ18へ提供すべきかを判定するために、収集データを処理する。
ECU4は、収集データを処理するためにさまざまなモジュールを実装するように構成されている。ECU4は、収集データに基づき物体のタイプ及び位置を検出するための物体検出部1を含む。物体検出部1は、物体検出用のニューラルネットワーク(NN)9を含む。物体検出用NN9は、センサデータ内部の物体の存在を判定するためにセンサデータを認識するための訓練されたNNである。物体検出用のNN9は、例えば自動車、自転車、歩行者、建物、交通標識など、どのタイプの物体が検出されているかを決定するために物体を分類するように構成されている。物体検出部1は、各々の検出された物体のタイプ及び位置を標示する物体検出結果21を出力する。
ECU4はさらに、物体認識結果21及びカメラ5からの情報に基づいて、検出された物体の各々について不変特徴量マップを生成するように構成された特徴量抽出部2を含む。不変特徴量マップは、特定の物体を識別するために使用可能な画像又は画像の一部分についてのデータマップである。不変特徴量マップは、画像内の物体及び/又はシーンに関係する特徴情報が抽象化され且つ、物体及び/又はシーンに関係しておらず車両システムVSの特性及びハードウェア(HW)構成のみに関係する情報が除去されている抽象的情報を含む。不変特徴量マップ内では、ノイズデータも同様に削減される。すなわち、物体の際立った特徴は定量化され、画像に基づいて抽象的情報として識別され、こうして、NNは、画像を取り込んだHWの如何に関わらず物体を別の画像からも認識できるようになっている。いくつかの実施形態において、特徴量抽出部2は、同様に、他のセンサ6からも情報を受信する。特徴量抽出部2は、特徴量抽出用のNN14を含む。特徴量抽出用NN14は、特定の物体を識別するために使用可能である画像データ及び物体認識結果21から検出済み物体の特徴量を抽出するための訓練されたNNである。いくつかの実施形態において、特徴量抽出用NN14は、ECU4を含む車両に関して汎用的である。いくつかの実施形態において、特徴量抽出用NN14は、ECU4を含む特定の車両に同調される。例えば、いくつかの実施形態において、特徴量抽出用NN14は、不変特徴量マップの決定を支援するため、先に処理された収集データに関係する履歴データを使用するように構成されている。特徴量抽出部4は、不変特徴量マップを出力するように構成されている。いくつかの実施形態において、特徴量抽出部2は、物体認識結果21を使用することなく、カメラ5からのデータから不変特徴量マップを生成する。いくつかの実施形態において、特徴量抽出部2は、カメラデータを使用することなく、LiDARなどの他のセンサ6由来のデータから不変特徴量マップを生成する。例えば、特徴量抽出部2はLiDARセンサからの点群データから不変特徴量マップを生成する。
ECU4はさらに、データ収集イベントを判定するための構成要素(データ収集イベント判定部)15を含む。データ収集イベント判定部15は、特徴量抽出部2からの不変特徴量マップとテンプレート格納部17からのテンプレートデータの間の類似度を決定するように構成されている。データ収集イベント判定部15は、類似度推定用NN30を含む。類似度推定用NN30は、不変特徴量マップとテンプレートデータを比較し、2つのアイテムが互いにどの程度類似しているかを決定するための訓練されたNNである。いくつかの実施形態において、類似度推定用NN30は、損失関数としてトリプレット損失(triplet loss)を使用して訓練される。いくつかの実施形態において、類似度推定用NN30は、SiameseNet(登録商標)構造を有する。NN30の全てのノードが目標不変特徴量マップを生成するために使用した重みに関係する情報をデータ収集コマンドが含んでいるいくつかの実施形態において、類似度推定用NN30は、カメラ5及びセンサ6に基づく不変特徴量マップとテンプレート格納部17内の目標との間の類似度を決定する上で重みを使用するように構成されている。
データ収集イベント判定部15は、不変特徴量マップとテンプレートデータの間の類似度を出力する。不変特徴量マップとテンプレートデータの間の類似度が既定の閾値を上回っているという決定に応答して、データ収集イベント判定部15は、収集データをサーバ18に伝送するべきであることを決定する。データ収集イベント判定部15は、サーバ18に伝送されるべき収集データを識別し、ストレージユニット10に伝送されるべき収集データを書込むようにデータ格納部8へ命令を送信する。不変特徴量マップとテンプレートデータとの間の類似度が既定の閾値以下であるという決定に応答して、データ収集イベント判定部15は、収集データをサーバ18に伝送すべきでないと決定し、収集データの上書きを防止するように補足的命令はストレージユニット10に伝送されない。いくつかの実施形態において、伝送されたデータと結び付けられたプロトコルには、収集データが送信されるまで収集データを格納することが含まれる。いくつかの実施形態において、伝送されたデータと結び付けられたプロトコルには、サーバ18からの収集データの受信確認が受信されるまで収集データを格納することが含まれる。いくつかの実施形態において、収集データと結び付けられたプロトコルには、収集データを削除する命令が受信されるまで収集データを格納することが含まれる。いくつかの実施形態において、通常のプロトコルには、ストレージユニット10内の利用可能な格納スペースが、格納閾値を下回るまで収集データを格納することが含まれる。いくつかの実施形態において、通常のプロトコルには、既定の長さの時間、収集データを格納することが含まれる。
いくつかの実施形態において、データ収集イベント判定部15は、収集データが、プライバシ情報又は個人情報(PI)などの機密情報(private information)を含むか否かを決定するように構成されている。いくつかの実施形態において、機密情報には、人の顔、人の識別情報又は他の極秘データが含まれる。収集データが機密情報を含んでいるという決定に応答して、データ収集イベント判定部15は、いくつかの実施形態において機密情報をフィルタリングするか又は除去するように構成されている。いくつかの実施形態において、データ収集コマンドには、機密情報の伝送を可能にするための認証情報又はオーバライド情報が含まれる。例えば、或る人間を探すための警察からのデータ収集コマンドに応答して、捜索対象の人間との閾値を超える類似度を有するとみなされた人の顔を含む収集データを伝送することができる。いくつかの実施形態においては、機密情報を受信することが許可されるべきでないユーザへ機密情報を不注意に提供するリスクを減らすため、機密情報のフィルタリングをオーバライドする能力が、特定のクラスのユーザに限定されている。いくつかの実施形態において、特定のクラスのユーザには、法執行機関又は他の適格なユーザが含まれる。いくつかの実施形態において、特定のクラスのユーザは調整可能である。いくつかの実施形態において、データ収集イベント判定部15はさらに、機密情報をフィルタリングするための第2のNNを含む。いくつかの実施形態において、機密情報は、類似度推定用NN30を用いてフィルタリングされる。いくつかの実施形態において、NN30は、ルールベースのアルゴリズムにより収集データが機密情報を含むか否かをデータ収集イベント判定部15が決定することなく、NN30が機密情報を黙示的にフィルタリングできるように訓練される。
ECU4はさらに、データ収集コマンドの受信部(受信部)16を含む。受信部16は、サーバ18からテンプレートデータ及びデータ収集コマンドを受信するように構成される。いくつかの実施形態において、受信部16は、データの受信及び伝送の両方の能力を有する送受信部である。いくつかの実施形態において、受信部16は、データ収集コマンド及びテンプレートデータを無線で受信するように構成されている。いくつかの実施形態において、受信部16は、データ収集コマンド及びテンプレートデータを、有線接続を介して受信するように構成されている。いくつかの実施形態において、受信部16は、ECU4内にデータを格納する前に、受信されたデータ収集コマンド及び/又はテンプレートデータについての認証を行なうように構成されている。いくつかの実施形態において、受信部16は、VS内で類似度推定用のニューラルネットワーク30によって使用される既存の重みデータに上書きすべき重みデータを受信するように構成されている。受信部16は、NN30が類似度を推測するときに重みデータを使用するように、類似度推定用NN30へ重み情報を送るように構成されている。いくつかの実施形態において、受信部16は、テンプレートデータを生成するために使用され、VS内で類似度推定30のためにニューラルネットワークが使用する既存の重みデータに上書きすべき重みデータを受信するように構成されている。受信部16は、テンプレートデータをテンプレート格納部17に送るように構成されている。いくつかの実施形態において、受信部16は、データ収集コマンドをストレージユニット10に送るように構成されている。
ECU4はさらに、受信部16から受信されたテンプレートデータを格納するように構成されたテンプレート格納部17を含んでいる。テンプレート格納部17は、不変特徴量マップとの比較のためにデータ収集イベント判定部15へテンプレートデータを提供するように構成されている。いくつかの実施形態において、テンプレート格納部17は、多数のテンプレートを格納するように構成されている。いくつかの実施形態において、テンプレート格納部17は、ソリッドステートメモリ又は別のタイプのメモリデバイスを含む。いくつかの実施形態において、テンプレート格納部17はストレージユニット10と一体化されている。いくつかの実施形態において、テンプレート格納部17は、格納されたテンプレートを取出すための命令が受信されるまで、テンプレートを格納するように構成されている。いくつかの実施形態において、テンプレート格納部17は、テンプレートの初期格納から既定の期間が経過した後、格納されたテンプレートを削除するように構成されている。いくつかの実施形態において、テンプレート格納部17内部の個別のテンプレートが、各テンプレートの削除のための異なるプロトコルを有する。いくつかの実施形態において、テンプレート格納部17内の少なくとも1つのテンプレートのための格納プロトコルは、データ収集コマンド内で受信された情報に基づいている。いくつかの実施形態において、テンプレート格納部17内の少なくとも1つのテンプレートのための格納プロトコルは、車両のユーザからの命令に基づいている。いくつかの実施形態において、テンプレートは、サーバ18から受信された目標不変特徴量マップを含む。
ECU4はさらに、データ送信部(伝送部)11を含む。伝送部11は、データ収集イベント判定部15からの命令に応答してデータ収集コマンドに基づいて収集データを伝送するように構成されている。いくつかの実施形態において、伝送部11は、収集データを伝送するためのタイミングを決定する上で、データ収集コマンドの優先度情報を考慮する。いくつかの実施形態において、伝送部11は、データ収集コマンド中の要求された期間に基づいてデータ収集コマンドを満たす物体又は出来事の検出前後の一定の期間にわたり、収集データを送信する。いくつかの実施形態において、伝送部11は、データ収集コマンドに基づいてどのタイプのデータを伝送すべきかを決定する。いくつかの実施形態において、伝送部11は、不変特徴量マップを伝送する。上述の説明には、いつどの情報を伝送すべきかを決定する伝送部11が含まれているものの、いくつかの実施形態において、データ収集コマンドに応答していつどの情報を伝送すべきかの決定は、ECU4の別の構成要素、例えばデータ収集イベント判定部15によって行なわれる。いくつかの実施形態において、伝送部11は、送受信部の一部として受信部16と一体化されている。いくつかの実施形態において、伝送部11は、収集データを無線で伝送するように構成されている。いくつかの実施形態において、伝送部11は、有線接続を介して収集データを伝送するように構成されている。
ECU8はさらに、カメラ5及び他のセンサ6からの収集データを格納するように構成されたデータ格納部8を含む。いくつかの実施形態において、データ格納部8は、リングバッファ構造を有する。いくつかの実施形態において、データ格納部8は、ソリッドステートメモリ又は別の好適なメモリデバイスを含む。いくつかの実施形態において、データ格納部8は、ECU4によって現在処理中の収集データのための一時的格納を提供するように構成されている。いくつかの実施形態において、データ格納部8は、収集データをサーバ18に伝送するというデータ収集イベント判定部15による決定に応答して、ストレージユニット10にデータを送るように構成されている。いくつかの実施形態において、データ格納部8は、収集データをサーバ18に伝送しないというデータ収集イベント判定部15による決定に応答して収集データを削除するように構成されている。いくつかの実施形態において、データ格納部8はストレージユニット10と一体化されている。いくつかの実施形態において、データ格納部8は、テンプレート格納部17と一体化されている。
ECU4はさらに、ストレージユニット10を含む。ストレージユニット10は、データ収集イベント判定部15からの命令に基づいて収集データを格納するように構成されている。いくつかの実施形態において、ストレージユニット10は、データ格納部8又はテンプレート格納部17と一体化されている。いくつかの実施形態において、ストレージユニット10は、ソリッドステートメモリ又は別の好適なメモリを含む。いくつかの実施形態において、ストレージユニット10は、データ収集コマンドの達成に関係する情報を格納するように構成されている。いくつかの実施形態において、ストレージユニット10は、収集データを対応するデータ収集コマンドと結び付けて格納するように構成されている。いくつかの実施形態において、ストレージユニット10は、伝送に適当でないとみなされた収集データを、収集データがユーザによって取り出されるまで格納するように構成されている。
サーバ18は、どの目標が探索されているかに関するユーザからの入力を受信するように構成されたグラフィカルユーザインタフェース(GUI)24を含む。いくつかの実施形態において、GUI24は、野生動物、気象イベント、観光名所又は他の好適な目標などの共通目標に対するライブラリを含む。いくつかの実施形態において、ユーザは画像又は部分画像をGUI24にアップロードすることができる。いくつかの実施形態において、GUI24は、選択されたユーザ群の一人として認証されているユーザによってのみアクセス可能である制限されたセクションを含む。いくつかの実施形態において、GUI24は、収集データ内に含めるように目標が検出される前後の一定の期間に関係する情報を受信するように構成されている。いくつかの実施形態において、GUI24は、収集データを受信するためのユーザによる優先度要求に関係する情報を受信するように構成されている。いくつかの実施形態において、GUI24は、時刻、気象条件に関係する情報又は、GUI24を用いてアップロードされた画像に関係する他の情報を受信するように構成されている。
サーバ18はさらに、GUI24から目標情報を受信するように構成された追跡目標選定部19を含む。追跡目標選定部19は、GUI24からのどの要求された目標についてデータ収集コマンドを発出すべきかを決定する。いくつかの実施形態において、追跡目標選定部19は、GUI24における要求された目標の入力された優先度に基づいて、データ収集コマンドの対象となるべき次の要求された目標を識別する。いくつかの実施形態において、追跡目標選定部19は、GUI24内に目標を入力したユーザのアイデンティティに基づいてデータ収集コマンドの対象となるべき次の要求された目標を識別する。いくつかの実施形態において、追跡目標選定部19は、キュー(先入先出)又はスタック(先入後出)プロセスに基づいてデータ収集コマンドの対象となるべき次の要求された目標を決定する。いくつかの実施形態において、どの要求された目標がデータ収集コマンドの対象となるかを決定するために、追跡目標選定部19により基準の組合せが利用される。いくつかの実施形態において、追跡目標選定部19は、収集データ格納部25におけるデータ及び/又はGUI24を介したユーザからの要求無しの先行する追跡目標選定の履歴に基づいて、データ収集コマンドの対象となるべき次の要求された目標を自動的に識別する。
サーバ18はさらに、GUI24から受信した要求された目標に対応する目標不変特徴量マップを生成するために特徴量抽出用NN20を含む。特徴量抽出用NN20は、データ収集コマンドを受信することになる車両内部のセンサのハードウェアの、独立した又は比較的感度が低い特徴量マップを生成するように構成されている。車両内のセンサのハードウェアとは独立した目標不変特徴量マップを生成することにより、特徴量抽出用NN20は、さまざまな度合の分解能及びデータタイプを有する異なるタイプのセンサを含む広範囲の車両のために使用可能である目標不変特徴量マップを作成することができる。いくつかの実施形態において、特徴量抽出用NN20は、目標不変特徴量マップを生成するために、時刻、気象条件などの情報又はGUI24を用いてアップロードされた画像に関係する他の情報を利用するように構成されている。目標不変特徴量マップを生成するために追加の情報を使用することは、画像内部の変数を除去して、GUI24を用いて入力された目標と最も近く整合する不変特徴量マップを生成する一助となる。いくつかの実施形態において、特徴量抽出用NN20は、目標不変特徴量マップから機密情報を除外するように構成されている。
サーバ18はさらに、特徴量抽出用NN20によって生成された目標不変特徴量マップを格納するように構成されたテンプレート格納部21を含む。いくつかの実施形態において、テンプレート格納部21は、目標不変特徴量マップを生成するために使用される類似度推定用NN30又は特徴量抽出用NN20内で利用されるパラメータの重みと共に目標不変特徴量マップを格納するように構成されている。いくつかの実施形態において、テンプレート格納部21は、ソリッドステートメモリ又は別の好適なメモリ構造を含む。いくつかの実施形態において、テンプレート格納部21は、ストレージユニット23と一体化されている。いくつかの実施形態において、テンプレート格納部21は、ストレージユニット23と別個である。
サーバ18はさらに、データ収集コマンドの送信部(データ収集コマンド伝送部)22を含む。データ収集コマンド伝送部22は、ECU4を含む車両へデータ収集コマンドを伝送するように構成されている。いくつかの実施形態において、データ収集コマンドは無線で伝送される。いくつかの実施形態において、データ収集コマンドは有線接続を介して伝送される。いくつかの実施形態において、データ収集コマンドは、単一の車両に伝送される。いくつかの実施形態において、データ収集コマンドは、多数の車両に伝送される。いくつかの実施形態において、データ収集コマンドは、目標が見つかるものと予期されている地理的場所内の車両へ伝送される。データ収集コマンドは、GUI24で受信した情報に基づいた目標についての情報を含む。いくつかの実施形態において、データ収集コマンドは、目標不変特徴量マップを含む。いくつかの実施形態において、データ収集コマンドは、目標不変特徴量マップを生成するために使用される類似度推定用NN30又は特徴量抽出用NN20の重みを含む。いくつかの実施形態において、データ収集コマンド伝送部22は、多数の周波数上でデータ収集コマンドを伝送するように構成されている。いくつかの実施形態において、データ収集コマンド伝送部22は、単一の周波数上でデータ収集コマンドを伝送するように構成されている。
サーバ18はさらに、GUI24からの情報並びに追跡目標選定部19からの情報及び特徴量抽出用NN20のための重みなどの入力値を格納するように構成されたストレージユニット23を含む。いくつかの実施形態において、ストレージユニット23は、GUI24を用いてアップロードされた画像全体を格納するように構成されている。いくつかの実施形態において、ストレージユニット23は、GUI24を用いてアップロードされた画像の部分的画像又は切取り部分を格納するように構成されている。いくつかの実施形態において、ストレージユニット23は、ECU4から受信した収集データを格納するように構成されている。いくつかの実施形態において、ストレージユニット23は、収集データを既定の期間の間格納するように構成されている。いくつかの実施形態において、ストレージユニット23は、ユーザが収集データを取り出すまで収集データを格納するように構成されている。いくつかの実施形態において、ストレージユニット23は、ストレージユニット23内の追加の格納スペースが格納閾値を下回るまで収集データを格納するように構成されている。いくつかの実施形態において、ストレージユニット23はソリッドステートメモリ又は別の好適なメモリ構造を含む。
サーバ18はさらに、ECU4から収集データを受信するように構成された収集データ格納部25を含む。収集データ格納部25は、ユーザが収集データを取り出すことができるようにするため、ユーザによってアクセス可能である。いくつかの実施形態において、収集データ格納部25は、収集データが検出された時点に結び付けられた時間及び場所の情報と共に収集データを格納するように構成されている。いくつかの実施形態において、収集データ格納部25は、対応するデータ収集コマンドと関連して収集データを格納するように構成されている。いくつかの実施形態において、収集データ格納部25は、ユーザがGUI24に入力したという情報と結び付けられたデータ収集コマンドに基づく収集データの受信に応答して、ユーザに収集データの受信を通知するための信号を発動するように構成されている。いくつかの実施形態において、ユーザに対する通知には、ユーザに対するアラートが含まれている。いくつかの実施形態において、アラートは、サーバ18内部の伝送部を用いて、ユーザのモバイルデバイスへ送信される。いくつかの実施形態においては、ユーザにアラートを出すために、外部伝送部へ信号が送信される。いくつかの実施形態において、アラートには、音声アラート又は視覚アラートが含まれる。いくつかの実施形態において、収集データ格納部25は、より長期の格納のためにストレージユニット23へ収集データを送る。いくつかの実施形態において、収集データ格納部25は、ソリッドステートメモリ又は別の好適なメモリ構造を含む。いくつかの実施形態において、収集データ格納部25は、ストレージユニット23及びテンプレート格納部21と一体化されている。いくつかの実施形態において、収集データ格納部25は、ストレージユニット23又はテンプレート格納部21のうちの少なくとも1つとは別個である。いくつかの実施形態において、収集データ格納部25は、ユーザ及び追跡目標選定部19がクエリ条件でデータを検索して選定できるように、リレーショナルデータベース、NoSQLデータベース及びキーバリューストア(KVS)データベースなどのデータベースを有する。
車両データ収集システム100を使用することにより、ユーザは、ECU4及びサーバ18によって使用可能なサーチコードを記述することなくGUI24のみを用いて、サーチすべき特定の目標を提供することができる。目標を定義するため及び収集データを定義するための手段としての不変特徴量マップの使用により、ECU4は、一意的に要求された目標についての精確な類似度分析を行なうことができる。すなわち、カメラ5及び他のセンサ6データに基づく不変特徴量マップと目標不変特徴量マップとの比較により、不要発動及び/又は不発動のリスクが減少する。さらに、特徴量抽出用NN20がサーバ18からデータ収集コマンドを受信する能力を有する異なる車両内のセンサのタイプに依存していないことは、要求された目標に結び付けられたプログラム又はコーディングを起草するための労力を最小限に抑えながら、要求された目標を発見するチャンスを増大させる一助となる。さらに、特徴量抽出用NN20が同じ車両内のセンサのタイプに依存していないことは、例えばサーバ18がフロントカメラから生成されるテンプレートデータのみを有している場合でもリアカメラからのデータからも目標を検索することができるように、車両システムVS内のフロントカメラ及びリアビューカメラなどの異なるセンサからのデータから同じ目標を検索するために同じテンプレートデータを共有する一助となる。また、車両データ収集システム100は、データ収集コマンドと結び付けられたデータの収集中のプライバシの侵害を削減又は回避する目的で、機密情報又は個人情報の伝送を削減することもできる。
図2は、いくつかの実施形態に係る不変特徴量マップを生成する方法200のフローチャートである。該方法200は、不変特徴量マップ及び目標不変特徴量マップを生成するために車両データ収集システム100(図1)において使用可能である。方法200において、不変特徴量マップは、例えばカメラ5又は他のセンサ6(図1)由来の、又はGUI24(図1)によって受信された画像データから生成される。いくつかの実施形態において、特徴量抽出用NN20及び特徴量抽出用NN14は同様に、センサのハードウェアに依存しているか又はこれに対してより敏感な情報をさらに抑制できるように、メモリユニット10内に属性パラメータ900を格納するためのメモリエリア又は他のセンサ6からNNによって受信される属性データを使用する。属性データは、目標の特性を取り込む。例えば、目標の特性を定義する一助となるための属性データとして色又はサイズを使用することができる。属性データは、画像が検知されたときのシーンの特性を取り込む。例えば、シーンの特性を定義する一助となるための属性データとして、時刻、日付、天候、温度、湿度又は車両の場所を使用することができ、これにより特徴量不変マップとは無関係でシーンに由来しないノイズを特徴量抽出用NN20及び特徴量抽出用NN14によって削減することができる。NNは、受信された属性データに基づいて、画像データ内の1つ以上の物体又はシーンの特徴を抽出するための訓練されたNNである。そして、NNは、検出された物体と目標の間の比較のために不変特徴量マップを作成することができる。
NNは、特徴量抽出用NN、例えば特徴量抽出用NN14又は特徴量抽出用NN20(図1)である。いくつかの実施形態において、特徴量抽出用NN14及び特徴量抽出用NN20は、検出された物体が目標と整合するとき生成された不変特徴量マップの類似度を増大させるために、同じアルゴリズム及び重みデータを用いて実装される。同じアルゴリズム及び重みデータを使用することによって、異なるアルゴリズム又は重みデータを使用する他のアプローチと比較して、不要発動及び/又は不発動が削減される場合がある。いくつかの実施形態において、特徴量抽出用NN14及び特徴量抽出用NN20は、検出された物体が目標と整合した場合に生成された不変特徴量マップの類似度を増大させるために、同じアルゴリズム及び異なる重みデータを用いて実装される。この場合、車両内の重みデータは、特定の車両システムVS内のHWに最適化され、こうしてVS内のHWに依存している情報又はこれに対してより敏感な情報がさらに抑制されることになる。いくつかの実施形態において、特徴量抽出用NN14及び特徴量抽出用NN20は、検出された物体が目標と整合する場合に、生成された不変特徴量マップの類似度を増大させるために、異なるアルゴリズム及び重みデータを用いて実装される。この場合、車両内のアルゴリズムは、特定の車両システムVS内のHWに最適化され、こうして車両システムVS内のHWに依存している情報又はこれに対するより高い感度を有する情報がさらに抑制されることになる。
図3は、いくつかの実施形態に係る類似度を決定する方法300のフローチャートである。該方法300は、検出された物体と目標との間の類似度を決定するために車両データ収集システム100(図1)において使用可能である。方法300において、例えば特徴量抽出用NN14(図1)からの不変特徴量マップ及び例えばテンプレート格納部17(図1)からのテンプレートデータは、NNにより受信される。いくつかの実施形態において、テンプレートデータは、例えば特徴量抽出用NN20(図1)によって生成される目標不変特徴量マップに対応する。NNは、テンプレートデータと不変特徴量マップを比較して不変特徴量マップがどれほどテンプレートデータに類似しているかを決定するように訓練されたNNである。
NNは、類似度推定用NN、例えば類似度推定用NN30(図1)である。類似度推定用NNを使用することによって、類似度推定は、類似度推定用にルールベースアルゴリズムを使用する場合よりも低い不発動及び不要発動を有する。類似度推定用NNを使用することによって、低い類似度を有する収集データがサーバに伝送されないことから類似度推定用NNを含まないアプローチと比べて、サーバへ、例えばサーバ18(図1)へ伝送されるデータの量は削減される。データ伝送の削減は、類似度推定用NNを含む車両内の処理能力の削減を助ける。さらに、ハイブリッド車又は電気自動車において、データ伝送の削減は、車両のバッテリ内部の電荷を延長させ、このことが今度は、車両に走行距離の延長を提供する。
図4は、いくつかの実施形態に係る車両データ収集システムを使用する方法400のフローチャートである。該方法400は、車両データ収集システム100(図1)によって実装されることができ、該方法400のさまざまなステップを実装するために用いられる要素は、車両データ収集システム100に結び付けられた参照番号を有する。これらの参照番号は、単に、方法400を容易に理解できるようにするために提供されているにすぎない。当業者であれば、該方法400が、車両データ収集システム100(図1)上だけでの実装に限定されないことを認識するものである。
動作402において、追跡すべき目標が選定される。いくつかの実施形態において、目標は、例えばGUI24(図1)内へのユーザからの入力に基づいて選定される。いくつかの実施形態において、目標は、アップロードされた画像に基づいて決定される。いくつかの実施形態において、目標は、GUI、例えばGUI24(図1)内で利用可能な目標オプションの既定のリストから選定される。ユーザがGUI24を介して目標の画像データをアップロードした場合、GUIは格納部25を介して画像データを格納する。いくつかの実施形態において、目標は、GUI24を介したユーザからの要求無く、目標選定部19によって自動的に決定される。
動作404では、収集データ格納部、例えば収集データ格納部25(図1)内にすでに格納されている収集データと目標が比較される。動作404の前に、データは、上述のデータ収集方法によって又は任意の他のデータ収集方法によってすでに収集されている。いくつかの実施形態において、GUI24を介してユーザにより提供される情報に基づいて、目標に対応している画像データが選定される。例えば、ユーザが、時刻、天候、物体クラス、シーンなどの情報を提供した場合、データは、格納部25内のデータベースを介してクエリ検索によって選定される。いくつかの実施形態において、追跡目標選定部19はさらに、ユーザがGUI24を介して提供した条件に画像データが整合するか否かを分類する別のNNを有し、追跡目標選定部19は、画像データが条件と整合することをNNが決定したデータのみを選定する。いくつかの実施形態において、追跡目標選定部19は、ユーザによる先行要求の履歴に基づいて且つ格納部25内のデータベース内の情報に基づいて、将来ユーザが選定し得る目標データを予測する目標データ予測部ユニットを有し、該予測部は、予測されたデータを選定されたデータとして選定する。いくつかの実施形態において、動作404にはさらに、目標由来のどのデータをデータ収集コマンドの一部として送信すべきかを選定するステップが含まれる。
動作406では、選定された目標データから不変特徴量マップが生成され、テンプレート格納部、例えばテンプレート格納部21(図1)に格納される。目標に基づいて生成された不変特徴量マップは、目標不変特徴量マップとも呼ばれる。目標不変特徴量マップは、収集データとの比較を目的として目標の特徴を抽出するために、訓練されたNNを用いて生成される。いくつかの実施形態において、目標不変特徴量マップは、気象条件又は時刻などの目標に結び付けられた追加データに基づいて生成される。いくつかの実施形態において、目標不変特徴量マップは、データのタイプ又は収集データを集めるために使用されるセンサとは独立したものであるように生成される。
動作408では、データ収集コマンド及びテンプレートデータが、車両システム、例えば車両システムVS(図1)に伝送される。データ収集コマンドは、車両システムに対して、データを収集し目標不変特徴量マップに基づいて収集データとテンプレートデータとを比較するように命令する。いくつかの実施形態において、データ収集コマンドは同様に、優先度情報も含む。いくつかの実施形態において、データ収集コマンドは、NNアルゴリズムのための重みをも含んでいる。いくつかの実施形態において、データ収集コマンドは、データ収集中に集められた機密データの保護をオーバライドするための情報を含む。いくつかの実施形態において、データ収集コマンドは、さらに、データを収集すべき期間を含む。いくつかの実施形態において、データ収集コマンドは単一の車両に伝送される。いくつかの実施形態において、データ収集コマンドは多数の車両に伝送される。いくつかの実施形態において、データ収集コマンドは無線で伝送される。いくつかの実施形態において、データ収集コマンドは有線接続を介して伝送される。
動作410では、車両内のセンサによってデータが収集される。いくつかの実施形態においては、センサによって規則的間隔で周期的にデータが収集される。いくつかの実施形態においては、センサによってイベント駆動式にデータが収集され、例えば、運転中又は駐車中に車両が何かと衝突したことを衝撃センサが検出した時に、センサによりデータが収集される。いくつかの実施形態において、センサには、カメラ、LiDAR、RADAR、電波センサ又は別の好適なセンサが含まれる。いくつかの実施形態においては、センサにはカメラ5及び他のセンサ6(図1)が含まれる。
動作412では、格納部、例えばデータ格納部8(図1)内にセンサデータが格納される。格納部内に格納されたセンサデータは、より多くのセンサデータが格納部に送信されるにつれて連続的に更新される。いくつかの実施形態において、格納部は、格納部内に格納されたセンサデータをいつ削除又は上書きすべきかを決定するためのアルゴリズムを含む。
動作414では、センサデータは、センサデータにより取り込まれた物体を検出するために分析される。いくつかの実施形態において、センサデータは、物体検出部1(図1)を用いて分析される。検出された物体は、物体タイプ、物体の位置、センサに対する物体の近接性又は他の適切な分類基準に基づいて識別され分類される。いくつかの実施形態において、物体は、訓練されたNN、例えばシングルショット検出部(Single Shot Detector:SSD)又はFaster R-CNN(図1)などの物体検出用NN9を用いて検出される。いくつかの実施形態において、物体検出部1は、データがセンサから受信される毎に物体を検出する。いくつかの実施形態において、物体検出部1は、判定部15が物体検出部1に物体を検出するように命令した場合にのみ物体を検出する。いくつかの実施形態において、物体を検出動作414はスキップされる。
動作416では、検出された物体の抽出された特徴に基づいて、不変特徴量マップが生成される。不変特徴量マップは、NN、例えば特徴量抽出用NN14(図1)を用いて生成される。いくつかの実施形態において、動作416における不変特徴量マップは、動作406で目標特徴量マップを生成するために使用されるNNと同じアルゴリズムを用いてNNによって生成される。いくつかの実施形態においては、動作406からの重みが、データ収集コマンドに基づいて動作416で使用されたNNへ提供される。いくつかの実施形態において、特徴量抽出部15は、データがセンサから受信される毎に不変特徴量マップを抽出する。いくつかの実施形態において、特徴量抽出部15は、判定部15が特徴量抽出部15に不変特徴量マップを抽出するように命令した場合にのみ、不変特徴量マップを抽出する。いくつかの実施形態において、特徴量抽出部15は、画像データ内で物体検出部1によって検出される物体の場所に対応するクロップされた矩形エリアからのみ不変特徴量マップを抽出し、こうして、ECU4上の計算仕事量及びメモリ帯域幅仕事量が削減される。いくつかの実施形態において、特徴量抽出部15は、不変特徴量マップ内の目標を検索するために使用される情報を増強させることができるように、画像全体から不変特徴量マップを抽出する。
動作418では、データ収集コマンドがテンプレートデータと共に受信される。いくつかの実施形態において、データ収集コマンドは、受信部、例えば受信部16(図1)によって受信される。データ収集コマンドが重みを含むいくつかの実施形態においては、動作416を開始する前に動作416を行なうNNへ重みが提供され、動作416は、特徴量抽出用NN14のための受信した重みを使用することによって実行される。データ収集コマンドが重みを含むいくつかの実施形態においては、動作420を行なう類似度推定用NN30に重みが提供され、動作420は、類似度推定用NN30のための受信された重みを使用することによって実行される。データ収集コマンド及びテンプレートデータは、動作416で生成された不変特徴量マップとの比較のために、例えばテンプレート格納部17内に格納される。
動作420では、データ収集コマンドからのテンプレートデータと動作416からの不変特徴量マップの間の類似度が決定される。類似度は、NN、例えば類似度推定用NN30(図1)を用いて決定される。
動作422では、動作420で決定された類似度が既定の閾値を上回っているか否かに関して決定が行なわれる。類似度が既定の閾値を上回るという決定に応答して、不変特徴量マップと結び付けられた収集データは、動作412においてセンサデータを格納した格納部から取り込まれる。いくつかの実施形態において、センサデータは、不変特徴量マップを生成するために使用されたデータが取り込まれる前及び後の期間を含む。いくつかの実施形態において、センサデータは、場所及び時間データと結び付けられる。その後、センサデータ及びあらゆる任意の追加情報が、サーバ、例えばサーバ18(図1)に伝送される。いくつかの実施形態において、センサデータは無線で伝送される。いくつかの実施形態において、センサデータは有線接続を介して伝送される。いくつかの実施形態において、センサデータは、アップロードされる前に、データ圧縮、リサイズ、クロップなどの後処理を受ける。類似度が既定の閾値を上回ることができないという決定に応答して、不変特徴量マップと結び付けられたセンサデータは破棄又は削除される。
動作426では、センサデータがサーバによって受信される。
動作428では、受信されたセンサデータは、例えばデータ格納部25(図1)に格納される。
当業者であれば、いくつかの実施形態において該方法400の動作の順序は変更される、ということを認識するであろう。例えば、いくつかの実施形態においては、動作406は動作404の前に行なわれる。いくつかの実施形態においては、方法400の少なくとも1つの動作が省略される。例えば、いくつかの実施形態において、動作428は省略され、受信されたデータは直ちにユーザに伝送される。いくつかの実施形態においては、追加の動作が含まれる。例えば、いくつかの実施形態においては、ユーザにより要求された目標に対応するセンサデータの受信に応答して、ユーザへアラート又は通知が伝送される。いくつかの実施形態においては、多数の動作が組合わされる。例えば、いくつかの実施形態において、動作420及び422は連動して行なわれる。
図5は、いくつかの実施形態に係る車両データ収集システムを実装するためのシステムのブロック図である。システム500には、ハードウェアプロセッサ502及び、コンピュータプログラムコード506(すなわち実行可能な命令のセット)でエンコードされた(すなわち格納する)非一時的コンピュータ可読記憶媒体504が含まれる。コンピュータ可読記憶媒体504は、同様に、ユーザのモバイルデバイスなどの外部デバイスとインタフェースするために命令507でエンコードされる。プロセッサ502は、バス508を介してコンピュータ可読記憶媒体504に電気的に結合される。プロセッサ502は、同様に、バス508によって出入力インタフェース510にも電気的に結合される。ネットワークインタフェース512も、同様に、バス508を介してプロセッサ502へ電気的に接続される。ネットワークインタフェース512は、ネットワーク514に接続され、こうして、プロセッサ502及びコンピュータ可読記憶媒体504はネットワーク514を介して外部要素に接続することができる。プロセッサ502は、システム100(図1)、方法200(図2)、方法300(図3)又は方法400(図4)において説明された通りの動作の一部分又は全てを行なうためにシステム500を使用できるようにする目的で、コンピュータ可読記憶媒体504内でエンコードされたコンピュータプログラムコード506を実行するように構成されている。
いくつかの実施形態において、プロセッサ502は、中央処理ユニット(CPU)、マルチプロセッサ、分散処理システム(DPS)、グラフィクス処理ユニット(GPU)、テンソル処理ユニット(TPU)、特定用途向け集積回路(ASIC)及び/又は好適な処理ユニットである。
いくつかの実施形態において、コンピュータ可読記憶媒体504は、電子、磁気、光学、電磁、赤外線及び/又は半導体システム(又は装置若しくはデバイス)である。例えば、コンピュータ可読記憶媒体504には、半導体メモリ又はソリッドステートメモリ、磁気テープ、リムーバブルフロッピディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、剛性磁気ディスク、及び/又は光ディスクが含まれる。光ディスクを使用するいくつかの実施形態においては、コンピュータ可読記憶媒体504は、コンパクトディスクリードオンリメモリ(CD-ROM)、コンパクトディスク読取り/書込み(CD-R/W)、及び/又はデジタルビデオディスク(DVD)を含む。
いくつかの実施形態において、記憶媒体504は、システム500に方法300又は方法400を行なわせるように構成されたコンピュータプログラムコード506を格納する。いくつかの実施形態において、記憶媒体504は同様に、システム100(図1)、方法200(図2)、方法300(図3)又は方法400(図4)の動作を行なうのに必要とされる情報並びに、システム100(図1)、方法200(図2)、方法300(図3)又は方法400(図4)の動作を行なう間に生成される情報、例えばセンサデータパラメータ516、テンプレートデータパラメータ518、属性パラメータ900、不変特徴量マップパラメータ520、類似度パラメータ522、及び/又はシステム100(図1)、方法200(図2)、方法300(図3)又は方法400(図4)の動作を行なうための実行可能な命令のセットをも格納する。
いくつかの実施形態において、記憶媒体504は、外部デバイスと相互作用(interface)するための命令507を格納する。命令507は、プロセッサ502が、システム100(図1)、方法200(図2)、方法300(図3)又は方法400(図4)の動作を有効に実装するために外部デバイスによって読取り可能な命令を生成することを可能にする。
システム500は、入出力インタフェース510を含む。入出力インタフェース510は、外部回路に結合されている。いくつかの実施形態において、入出力インタフェース510は、情報及びコマンドをプロセッサ502に伝達するために、キーボード、キーパッド、マウス、トラックボール、トラックパッド及び/又はカーソル方向キーを含む。
システム500は同様に、プロセッサ502に結合されたネットワークインタフェース512をも含んでいる。ネットワークインタフェース512は、システム500が、1つ以上の他のコンピュータシステムが接続されているネットワーク514と通信できるようにする。ネットワークインタフェース512には、BLUETOOTH(登録商標)、WIFI(登録商標)、WIMAX(登録商標)、GPRS又はWCDMA(登録商標)などの無線ネットワークインタフェース、又はETHERNET(登録商標)、USB又はIEEE-1394などの有線ネットワークインタフェースが含まれる。いくつかの実施形態において、システム100(図1)、方法200(図2)、方法300(図3)又は方法400(図4)の動作は、2つ以上のシステム500において実装され、ネットワーク514を介して、異なるシステム500間で情報が交換される。
本明細書の一態様は、車両データ収集システムに関する。車両データ収集システムは、車載センサを含む。車両データ収集システムは、さらに、命令を格納するように構成された非一時的コンピュータ可読媒体を含む。車両データ収集システムは、非一時的コンピュータ可読媒体に接続されたプロセッサを含む。該プロセッサは、第1のニューラルネットワークを用いて、不変特徴量マップを生成するために命令を実行するように構成されている。プロセッサは、さらに、不変特徴量マップを、サーバから受信されるテンプレートデータと比較して、不変特徴量マップとテンプレートデータの間の類似度を決定するために命令を実行するように構成されている。プロセッサは、さらに、決定された類似度が既定の閾値を上回っているか否かを決定するために命令を実行するように構成されている。プロセッサは、さらに、決定された類似度が既定の閾値を上回っているという決定に応答して、サーバへセンサデータを送信するように伝達部に命令するために命令を実行するように構成されている。いくつかの実施形態において、プロセッサは、さらに、車載センサによって取り込まれたセンサデータ内の物体を検出するために命令を実行し、且つ検出された物体に基づいて不変特徴量マップを生成するように構成されている。いくつかの実施形態において、車載センサは、カメラ、光検出及び測距(LiDAR)センサ、又は電波検出及び測距(RADAR)センサのうちの少なくとも1つを含む。いくつかの実施形態において、テンプレートデータは、目標に基づいて生成される目標不変特徴量マップを含む。いくつかの実施形態において、プロセッサはさらに、センサデータをサーバに送信する前にセンサデータから機密情報を除去するために命令を実行するように構成されている。いくつかの実施形態において、テンプレートデータは、ニューラルネットワークのための重みを含んでおり、プロセッサは重みを用いて第1のニューラルネットワークを使用して不変特徴量マップを生成するために命令を実行するように構成されている。いくつかの実施形態において、テンプレートデータは、ニューラルネットワークのための重みを含んでおり、プロセッサは、さらに、重みを用いて第2のニューラルネットワークを使用して類似度を決定するために命令を実行するように構成されている。
本開示の一態様は、車両データ収集システムに関する。車両データ収集システムは、ユーザから目標情報を受信するように構成されているグラフィカルユーザインタフェース(GUI)を含む。車両データ収集システムは、さらに、命令を格納するように構成された非一時的コンピュータ可読媒体を含む。車両データ収集システムは、さらに、非一時的コンピュータ可読媒体に接続されたプロセッサを含む。プロセッサは、GUIから目標情報を受信するために命令を実行するように構成されている。プロセッサは、さらに、目標情報に基づいて、第1のニューラルネットワークを用いて目標不変特徴量マップを生成するために命令を実行するように構成されている。プロセッサは、さらに、目標不変特徴量マップに基づいてデータ収集コマンドを生成するために命令を実行するように構成されている。プロセッサは、さらに、少なくとも1つの車両へデータ収集コマンドを送信するように伝送部に命令するために命令を実行するように構成されている。プロセッサは、さらに、データ収集コマンドに応答して少なくとも1つの車両からセンサデータを受信するために命令を実行するように構成されている。プロセッサは、さらに、ユーザにセンサデータを報告するために命令を実行するように構成されている。いくつかの実施形態において、目標情報は画像を含んでいる。いくつかの実施形態において、プロセッサは、複数の車両へデータ収集コマンドを送信するように伝送部に命令するために命令を実行するように構成されている。いくつかの実施形態において、プロセッサは、車両からのデータ要求の優先度を含むデータ収集コマンドを生成するために命令を実行するように構成されている。いくつかの実施形態において、プロセッサは、ユーザのアイデンティティに基づいて車両がセンサデータから機密情報を除去するのを防ぐための命令を含むデータ収集コマンドを生成するために命令を実行するように構成されている。いくつかの実施形態において、プロセッサは、センサデータと結び付けられた時間又は場所情報のうちの少なくとも1つと共にユーザにセンサデータを報告するために命令を実行するように構成されている。いくつかの実施形態において、プロセッサは、ユーザにより動作されるモバイルデバイスに対してアラートを生成することによってユーザに対しセンサデータを報告するために命令を実行するように構成されている。
本明細書の少なくとも一態様は、方法に関する。該方法は、少なくとも1つの車載センサを用いてセンサデータを収集するステップを含む。該方法は、さらに、第1のニューラルネットワークを用いて、不変特徴量マップを生成するステップを含む。該方法は、さらに、不変特徴量マップを、サーバから受信されるテンプレートデータと比較して、不変特徴量マップとテンプレートデータの間の類似度を決定するステップを含む。該方法は、決定された類似度が既定の閾値を上回っているか否かを決定するステップを含む。該方法は、さらに、決定された類似度が既定の閾値を上回っているという決定に応答して、サーバへセンサデータを伝送するステップを含む。いくつかの実施形態において、該方法は、さらに、センサデータ内の物体を検出するステップを含み、ここで不変特徴量マップを生成するステップは、検出された物体に基づいている。いくつかの実施形態において、車載センサは、カメラ、光検出及び測距(LiDAR)センサ、又は電波検出及び測距(RADAR)センサのうちの少なくとも1つを含む。いくつかの実施形態において、テンプレートデータは、目標に基づいて生成される目標不変特徴量マップを含む。いくつかの実施形態において、該方法は、さらに、センサデータをサーバに伝送する前にセンサデータから機密情報を除去するステップを含む。いくつかの実施形態において、テンプレートデータは、ニューラルネットワークのための重みを含んでおり、不変特徴量マップを生成するステップは、第1のニューラルネットワーク内の重みを使用するステップを含んでいる。
以上では、当業者が本開示の態様をより良く理解できるように複数の実施形態の特徴の要点が説明されている。当業者であれば、本明細書中で紹介されている実施形態の同じ目的を実施し且つ/又は同じ利点を達成するために他のプロセス及び構造を設計又は修正するための基礎として本開示を容易に使用できるということを認識するはずである。これらの当業者は同様に、このような等価の構造が本開示の精神及び範囲から逸脱しないこと、そして本開示の精神及び範囲から逸脱することなく、本明細書中でさまざまな変更、置換及び改変を行なうことができることも同様に理解するはずである。

Claims (20)

  1. 車載センサと;
    命令を格納するように構成された非一時的コンピュータ可読媒体と;
    前記非一時的コンピュータ可読媒体に接続されたプロセッサであって、
    第1のニューラルネットワークを用いて、センサデータから不変特徴量マップを生成し;
    前記不変特徴量マップをサーバから受信されるテンプレートデータと比較して、前記不変特徴量マップと前記テンプレートデータの間の類似度を決定し;
    前記決定された類似度が既定の閾値を上回っているか否かを決定し;
    前記決定された類似度が既定の閾値を上回っているという決定に応答して、前記サーバへ前記センサデータを送信するように伝送部に命令する;
    ための命令を実行するように構成されているプロセッサと;
    を含む車両データ収集システム。
  2. 前記プロセッサが、さらに、前記車載センサによって取り込まれたセンサデータ内の物体を検出するための前記命令を実行し;且つ前記検出された物体に基づいて前記不変特徴量マップを生成するように構成されている、請求項1に記載の車両データ収集システム。
  3. 前記車載センサが、カメラ、光検出及び測距(LiDAR)センサ、又は電波検出及び測距(RADAR)センサのうちの少なくとも1つを含む、請求項1又は2に記載の車両データ収集システム。
  4. 前記テンプレートデータが、目標に基づいて生成される目標不変特徴量マップを含む、請求項1又は2に記載の車両データ収集システム。
  5. 前記プロセッサが、さらに、前記センサデータを前記サーバに送る前に前記センサデータから機密情報を除去するための前記命令を実行するように構成されている、請求項1又は2に記載の車両データ収集システム。
  6. 前記テンプレートデータが、ニューラルネットワークのための重みを含んでおり、前記プロセッサが前記重みを用いて前記第1のニューラルネットワークを使用して前記不変特徴量マップを生成するための前記命令を実行するように構成されている、請求項1又は2に記載の車両データ収集システム。
  7. 前記テンプレートデータが、ニューラルネットワークのための重みを含んでおり、前記プロセッサが、さらに、前記重みを用いて第2のニューラルネットワークを使用して前記類似度を決定するための前記命令を実行するように構成されている、請求項1又は2に記載の車両データ収集システム。
  8. ユーザから目標情報を受信するように構成されているグラフィカルユーザインタフェース(GUI)と;
    命令を格納するように構成された非一時的コンピュータ可読媒体と;
    前記非一時的コンピュータ可読媒体に接続されたプロセッサであって、
    前記GUIから目標情報を受信し;
    前記目標情報に基づいて、第1のニューラルネットワークを用いて目標不変特徴量マップを生成し;
    前記目標不変特徴量マップに基づいてデータ収集コマンドを生成し;
    少なくとも1つの車両へ前記データ収集コマンドを送信するように伝送部に命令し;
    前記データ収集コマンドに応答して前記少なくとも1つの車両からセンサデータを受信し;
    前記ユーザに前記センサデータを報告する;
    ための前記命令を実行するように構成されているプロセッサと;
    を含む車両データ収集システム。
  9. 前記目標情報が画像を含んでいる、請求項8に記載の車両データ収集システム。
  10. 前記プロセッサが、複数の車両へ前記データ収集コマンドを送信するように前記伝送部に命令するための前記命令を実行するように構成されている、請求項8又は9に記載の車両データ収集システム。
  11. 前記プロセッサが、前記車両からのデータ要求の優先度を含むデータ収集コマンドを生成するための前記命令を実行するように構成されている、請求項8又は9に記載の車両データ収集システム。
  12. 前記プロセッサが、前記ユーザのアイデンティティに基づいて前記車両が前記センサデータから機密情報を除去するのを防ぐための命令を含む前記データ収集コマンドを生成するための前記命令を実行するように構成されている、請求項8又は9に記載の車両データ収集システム。
  13. 前記プロセッサが、前記センサデータと結び付けられた時間又は場所情報のうちの少なくとも1つと共に前記ユーザに前記センサデータを報告するための前記命令を実行するように構成されている、請求項8又は9に記載の車両データ収集システム。
  14. 前記プロセッサが、前記ユーザにより動作されるモバイルデバイスに対してアラートを生成することによって、前記ユーザに対し前記センサデータを報告するための前記命令を実行するように構成されている、請求項8又は9に記載の車両データ収集システム。
  15. 少なくとも1つの車載センサを用いてセンサデータを収集することと;
    第1のニューラルネットワークを用いて、不変特徴量マップを生成することと;
    前記不変特徴量マップを、サーバから受信されるテンプレートデータと比較して、前記不変特徴量マップと前記テンプレートデータの間の類似度を決定することと;
    前記決定された類似度が既定の閾値を上回っているか否かを決定することと;
    前記決定された類似度が既定の閾値を上回っているという決定に応答して、前記サーバへ前記センサデータを伝送することと;
    を含む方法。
  16. 前記センサデータ内の物体を検出することをさらに含み、前記不変特徴量マップを生成することが、前記検出された物体に基づいて前記不変特徴量マップを生成することを含む、請求項15に記載の方法。
  17. 前記車載センサが、カメラ、光検出及び測距(LiDAR)センサ、又は電波検出及び測距(RADAR)センサのうちの少なくとも1つを含む、請求項15又は16に記載の方法。
  18. 前記テンプレートデータが、目標に基づいて生成される目標不変特徴量マップを含む、請求項15又は16に記載の方法。
  19. 前記センサデータを前記サーバに伝送する前に前記センサデータから機密情報を除去することをさらに含む、請求項15又は16に記載の方法。
  20. 前記テンプレートデータが、ニューラルネットワークのための重みを含んでおり、前記不変特徴量マップを生成することが、前記第1のニューラルネットワーク内の重みを使用することを含んでいる、請求項15又は16に記載の方法。
JP2022129018A 2021-09-30 2022-08-12 車両データ収集システム及びその使用方法 Active JP7382465B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/489,791 US11976940B2 (en) 2021-09-30 2021-09-30 Vehicle data collection system and method of using
US17/489,791 2021-09-30

Publications (2)

Publication Number Publication Date
JP2023051757A true JP2023051757A (ja) 2023-04-11
JP7382465B2 JP7382465B2 (ja) 2023-11-16

Family

ID=83362659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022129018A Active JP7382465B2 (ja) 2021-09-30 2022-08-12 車両データ収集システム及びその使用方法

Country Status (4)

Country Link
US (1) US11976940B2 (ja)
EP (1) EP4167193A1 (ja)
JP (1) JP7382465B2 (ja)
CN (1) CN115909537A (ja)

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
US8775341B1 (en) * 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP2013057992A (ja) 2011-09-07 2013-03-28 Clarion Co Ltd 車間距離算出装置およびそれを用いた車両制御システム
JP2014182052A (ja) 2013-03-21 2014-09-29 Aisin Aw Co Ltd 経路案内装置、及び経路案内プログラム
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
JP6226308B1 (ja) 2016-05-10 2017-11-08 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US10317240B1 (en) * 2017-03-30 2019-06-11 Zoox, Inc. Travel data collection and publication
US10085121B1 (en) * 2017-09-15 2018-09-25 Uber Technologies, Inc. Lost device detection using geospatial location data
JP7006159B2 (ja) 2017-11-14 2022-01-24 トヨタ自動車株式会社 サーバ装置
US10963706B2 (en) 2018-01-13 2021-03-30 Toyota Jidosha Kabushiki Kaisha Distributable representation learning for associating observations from multiple vehicles
JP2019125203A (ja) 2018-01-17 2019-07-25 株式会社東芝 目標認識装置、目標認識方法、プログラム及び畳み込みニューラルネットワーク
JP7145622B2 (ja) 2018-03-02 2022-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、被写体検出システム、及び、プログラム
US11263549B2 (en) * 2018-03-22 2022-03-01 Here Global B.V. Method, apparatus, and system for in-vehicle data selection for feature detection model creation and maintenance
JP2020030568A (ja) * 2018-08-22 2020-02-27 株式会社ダイヘン 移動体
JP7040374B2 (ja) 2018-09-14 2022-03-23 トヨタ自動車株式会社 物体検出装置、車両制御システム、物体検出方法及び物体検出用コンピュータプログラム
JP7052660B2 (ja) 2018-09-25 2022-04-12 トヨタ自動車株式会社 学習画像選別装置
JP2020080050A (ja) 2018-11-13 2020-05-28 株式会社Preferred Networks 訓練装置、訓練方法及びプログラム
US20200193552A1 (en) 2018-12-18 2020-06-18 Slyce Acquisition Inc. Sparse learning for computer vision
US11113959B2 (en) * 2018-12-28 2021-09-07 Intel Corporation Crowdsourced detection, identification and sharing of hazardous road objects in HD maps
US11118916B2 (en) * 2019-02-14 2021-09-14 Here Global B.V. Method, apparatus, and system for providing a campaign management platform to discover map data
US10993647B2 (en) * 2019-08-21 2021-05-04 Micron Technology, Inc. Drowsiness detection for vehicle control
KR102270827B1 (ko) * 2020-02-21 2021-06-29 한양대학교 산학협력단 360도 주변 물체 검출 및 인식 작업을 위한 다중 센서 데이터 기반의 융합 정보 생성 방법 및 장치
IT202000010300A1 (it) * 2020-05-08 2021-11-08 Milano Politecnico Sistema e metodo di comunicazione tra un veicolo ed un altro agente
US11720673B2 (en) * 2020-09-25 2023-08-08 Mcafee, Llc Visual classification according to binary memory dump
DE102021202778A1 (de) * 2021-03-23 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Bearbeiten einer digitalen Sicherheitskarte für den Straßenverkehr
CN113096140B (zh) * 2021-04-15 2022-11-22 北京市商汤科技开发有限公司 实例分割方法及装置、电子设备及存储介质
CN112990220B (zh) * 2021-04-19 2022-08-05 烟台中科网络技术研究所 一种图像中目标文本智能识别方法及系统
KR102444672B1 (ko) * 2021-08-27 2022-09-20 (주)뷰런테크놀로지 라이다 센서를 이용하여 동적 맵을 생성하고, 생성된 동적 맵을 이용하여 객체를 판단하는 방법 및 상기 방법을 수행하는 장치

Also Published As

Publication number Publication date
EP4167193A1 (en) 2023-04-19
CN115909537A (zh) 2023-04-04
US11976940B2 (en) 2024-05-07
JP7382465B2 (ja) 2023-11-16
US20230097749A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US20210191979A1 (en) Distributed video storage and search with edge computing
WO2019140906A1 (zh) 车载监控设备的文件处理方法和车载监控设备
EP3707910B1 (en) Driving oriented digital video recorder system
KR101906709B1 (ko) 커넥티드 블랙박스
US11265508B2 (en) Recording control device, recording control system, recording control method, and recording control program
US9230179B2 (en) Driver assistance system, driver assistance method and information storage medium
KR20170051196A (ko) 3채널 차량 상황 감시 장치 및 그 방법
US10752213B2 (en) Detecting an event and automatically obtaining video data
CN112277936B (zh) 车辆碰撞检测处理方法、装置、车载终端和存储介质
JP2023505864A (ja) ターゲット移動軌跡の構築方法、機器及びコンピュータ記憶媒体
US11427146B2 (en) Collision protection
JP7382465B2 (ja) 車両データ収集システム及びその使用方法
US10778937B1 (en) System and method for video recording
WO2023124451A1 (zh) 用于生成告警事件的方法、装置、设备和存储介质
CN110971826A (zh) 视频前端监控装置及方法
CN113011231A (zh) 分类滑窗方法和slam定位方法及其系统和电子设备
CN112084817A (zh) 一种儿童单独滞留车内的检测方法、装置及红外摄像头
KR101527003B1 (ko) 블랙박스시스템
US20230316769A1 (en) Object information obtaining method and system for implementing
CN111753118A (zh) 车辆检索方法、装置、电子设备及可读存储介质
CN115880634A (zh) 车辆监控方法、设备及计算机可读存储介质
KR101439780B1 (ko) 블랙박스의 영상 데이터에서 이슈 구간을 자동으로 분류하기 위한 이슈 구간 자동 분류 장치 및 그 방법
EP4356359A1 (en) System, apparatus, and method of surveillance
JP2020119305A (ja) 画像解析装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7382465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150