JP7032387B2 - 単眼動画データに基づく車両の挙動推定システム及び方法 - Google Patents

単眼動画データに基づく車両の挙動推定システム及び方法 Download PDF

Info

Publication number
JP7032387B2
JP7032387B2 JP2019512864A JP2019512864A JP7032387B2 JP 7032387 B2 JP7032387 B2 JP 7032387B2 JP 2019512864 A JP2019512864 A JP 2019512864A JP 2019512864 A JP2019512864 A JP 2019512864A JP 7032387 B2 JP7032387 B2 JP 7032387B2
Authority
JP
Japan
Prior art keywords
vehicle
video data
neural network
convolutional neural
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019512864A
Other languages
English (en)
Other versions
JP2020500759A (ja
Inventor
レヴコヴァ・ルドミラ
バナジー・コイェル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nauto Inc
Original Assignee
Nauto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nauto Inc filed Critical Nauto Inc
Publication of JP2020500759A publication Critical patent/JP2020500759A/ja
Application granted granted Critical
Publication of JP7032387B2 publication Critical patent/JP7032387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Description

本発明は、現在普及しているデュアルカメラ/ステレオ推定技術とは異なり、全体として、単一のカメラからの単眼動画データに基づく車両の挙動についての変数の推定に関する。
近年、人工知能(「AI」)の分野において、自動車への応用傾向が高まるとともに、改めて注目が集まってきている。しかしながら、適切なAIシステムを車両に統合する際の主な障害の1つは、そのような応用において必須の要件である、大量の生データをリアルタイムで分析及び処理に必要なハードウェアのコストと複雑さである。 ビッグデータに関する巨大なニューラルネットワークのバックエンドトレーニングを容易にするためのGPU(画像処理装置の)技術に関して多くの進歩があったが、そのような高価で洗練されたハードウェアを車両内に設置することはまだ、商業的に実施可能となっていない。
しかしながら、既知のAIアプローチには依然として、特定の用途における実施を阻むいくつかの障害がある。畳み込みニューラルネットワーク(CNN)の大成功にもかかわらず、自動車についてそのようなシステムを統合する際は、大量のデータポイント(例えば、100万)からの学習への主な依存、長いトレーニング時間、計算コスト及び複雑さは、全て大きな経常経費である。これまで、挙動を推定するために使用されるCNNは、ステレオフィードを使用するので、推定時間がかかり、計算上の負担及び一般的なコスト増大となる。1台ではなく2台のカメラを実装することも設計上の課題となるだろう。車両実装の場合GPU(画像装置)が必要であると、さらに設計上の困難が生じるだろう。CNNジョブを実行する標準的なマシンであるGPUは、自動車用の環境で大量の電力を消費する際に発生する熱のために複雑な冷却システムを要する。たとえば、12kgの単純なIntel ROS PCは300Wの電力を消費し、車内での使用には、これだけで実現可能性のハードルは高い。
Konda et al., Learning to encode motion and using spatio-temporal synchrony, International Conference on Learning Representations (ICLR), 2014
したがって、当技術分野では、はるかに高速の計算時間、低消費電力、低グレードのハードウェア上で動作し、商用車のコスト又は商用車の経常経費を押し上げない、はるかに単純でありながら同等又はより正確なシステムが必要とされている。
ここに開示され記載されているのは、時間及び空間に係る挙動の特徴を符号化(エンコード)することによって単眼動画データ(モノキュラービデオデータ)に基づいて車両の挙動を推定するための複数のシステム及び複数の方法である。一実施形態では、車両速度を推定するためのシステムは、車両に搭載され、単眼動画データを取り込むように構成されたカメラと、データ及びプロセッサ実行可能命令を格納するように構成されるメモリと、プロセッサ実行可能命令を実行するように構成されるプロセッサとを含む。一実施形態では、プロセッサは、車両の移動中にキャプチャされたプレトレーニング(事前学習)動画データをカメラから受信し、プレトレーニング動画データを使用して同期オートエンコーダの1つ又は複数のフィルタをトレーニングし、同期オートエンコーダからの訓練された1つ又は複数のフィルタをプレトレーニングする。
畳み込みニューラルネットワークのプレトレーニングに続いて、プロセッサは、車両が動いている間にカメラからリアルタイム動画データを受信し、リアルタイム動画データをプレトレーニングされた畳み込みニューラルネットワークに提供し、プレトレーニングされた畳み込みニューラルネットワークから推定車両挙動変数を受け取り、推定車両挙動変数を、車両のオーディオ/ビジュアルシステム及び運転者支援システムの少なくとも一方に出力する。
本発明の他の態様、特徴、及び技術は、本発明の例示的な実施形態の以下の説明から、当業者に、より明らかとなるであろう。
本発明の特徴、目的、及び利点は、全体を通して同様の参照符号がそれに対応して識別している図面とあわせることで、以下に記載される詳細な説明からより明らかになるであろう。
本発明の1つ又は複数の態様が実施されてもよい例示的な情報処理サブシステムを示すブロック図である。 本発明の原理に従って実行される様々な操作の流れ図である。 本発明に従って構成された畳み込みニューラルネットワークトレーニングアーキテクチャの一実施形態を表す図である。 本発明の原理に従って、図1の情報処理サブシステムによって実行される様々な操作の別の流れ図である。
本発明の一態様は、単一のカメラによってキャプチャされたリアルタイム画像を使用して、速度などの車両の挙動を推定するための改良されたモデル化技法に重点を置いたシステム及び方法を提供することである。特定の実施形態では、リアルタイムカメラでキャプチャされた画像は、本明細書に記載の技術に従ってプレトレーニング(事前学習)された畳み込みニューラルネットワークによって分析される。車両の挙動を推定するために、本発明は、取り込まれた画像内の類似の同期的特徴を認識し、そのように認識された特徴に従って挙動を符号化(エンコード)するように構成される。次いで、符号化された挙動の特徴は、車両のエゴモーション/エゴ速度のような車両の挙動を推定する上で使用される。
本発明の別の態様は、車両の制御に使用するために、推定された車両の挙動に対応する変数を運転者又は運転者補助システムに出力することである。例えば、システムは、任意の所与の時点で、すなわち現在及び/又は近い将来に、車両が有する速度又は有すべき速度を予測する自律駆動システムの構成要素として特に有利であろう。そのようなシステムはまた、車両安定性制御サブシステムの一部として特に有利であろう。例えば、車両が道路の穴部を越えて走行すると、後輪スリップが発生し、車両の振動のために、ハードウェアセンサは車両の位置を特定することも正確な移動変数を提供することもできない。そのような場合、本発明は、例えば、車両のピッチ速度を推定し、そのような後輪スリップがいつ生じるかを検出し、運転者に警告することと、運転者に手動制御を引き継ぐように通知することとの、少なくとも一つのために使用されてもよい。代替として、運転者補助システムは、少なくとも部分的に車両の挙動変数に基づいて、ステアリングと、加速/減速操作との中の一つを実行するように構成されてもよい。
以下により詳細に記載されるように、本発明の特定の態様は、Kondaらによって開発された同期オートエンコーダ(SAE)モデル(非特許文献1)のような既知のモデリング技術を拡張し改良することに基づく。Kondaらのモデルは、市場のほとんどの速度モデルと同様に、ステレオ又はマルチカメラモーションフィードに基づいているのに対し、本発明の一態様は、この概念をシングルカメラフィードに拡張することである。本発明の別の態様は、CaffeNetへの入力を操作することで、従来技術で使用されているものとは異なるとともに非自明な範囲において、CaffeNetモデルを使用することである。この別の態様は、現在の空間及び時間に係る(時空)タスクを調整するため新しい方法で、CaffeNetモデルを使用する。これらの技術革新は、処理メモリ要件を削減しながら、精度の向上とデータの処理速度の向上をもたらす。
本明細書に開示されているシステム及び方法の結果として、リソースに制約のある環境における新しい用途が今や実現可能である。そのようなリソース制約のある環境の1つは、自動車のデータ処理環境である。例えば、本明細書に開示された革新的なシステム及び方法は、Nvidia製のJetson TX1又はTK1、又はQualcomm製のSnapdragon 810及び820プロセッサなどの、それほどパワフルでも高価でもないプラットフォーム上、約15Hzで高速ニューラルネットワークを実行できるようにする。これは、15Hzで実行するにははるかにパワフルなハードウェアが必要となる視覚オドメトリを実行するための既知の手段とは対照的である。たとえば、有名なVGGアーキテクチャは、メモリに収まるものであれば、上記のハードウェア上で1 Hz未満で動作する。近年高い評価を受けたアーキテクチャResNet-152/101も最大で3Hzで動作するとみられる。
やはり、それほどパワフルでないハードウェアを使用して本発明が実施可能ということは、そのようなハードウェアは比較的安価で、適切な温度に維持するのが困難ではないので、車両への適用可能となったことを意味する。加えて、本発明は、非常に小さいメモリフットプリント(メモリの占有領域)(例えば4MB)で実施可能であり、これにより、複数装置への迅速な分配及び無線接続を介した更新を可能となり、これは今や、複数車両の集団への用途を同様に実行可能にする。ネットワークを介して、複数の自律走行車両全体への、モデル更新の実行はこれまで困難であったが、比較的小さなメモリフットプリントにより本発明は有利である。
本発明の1つ又は複数の態様を実施するように構成された1つの車両ベースのシステムを図1の簡略図に示す。図1に示すように、情報処理システム100は、本発明の1つ又は複数の態様を実施するように構成されている。具体的には、システムは少なくとも1つのプロセッサ105を備え、これは上述のJetson TX1又はTK1のような画像処理装置(「GPU」)を備えてもよい。システムは、メモリ110、タッチスクリーンディスプレイ115、及びユーザ入力120を含み、それぞれバス135によって相互接続されている。システム100はまた、GPSトランシーバ及び関連回路125と、カメラ130と、1つ又は複数の無線ネットワーク(図示せず)から無線周波数信号を送信及び受信する機能を実行する無線周波数インターフェース140とを備えてもよい。最後に、システムは音声出力を提供するためのスピーカ145を備えてもよい。システム100は、車両情報処理の分野で一般的に知られている追加の構成要素(例えば、プロセッサ、メモリ、その他など)を備えてもよいことをさらに理解されたい。
ユーザ入力120に関しては、押しボタン式ダイヤルパッド、キーボードなどのキーパッドを使用して実施されるようにしてもよい。タッチスクリーンディスプレイ115は、LCD(液晶型ディスプレイ)又は家庭用電子機器で一般的に使用される他の任意のタイプのディスプレイとしてもよい。ディスプレイ115は好ましくはタッチセンシティブである(接触に反応する)と、ディスプレイ115とユーザ入力120の一部であるという二重の機能を提供するだろう。好ましい実施形態では、情報処理サブシステム100は車両に組み込まれてもよい。ディスプレイ115、ユーザ入力120、及びスピーカ145は、車両のオーディオ/ビジュアルシステムの少なくとも一部を構成してもよいことを理解されたい。
ついに、図1のシステム100は、適応型クルーズコントロール(ACC)、適応型ハイビームシステム、自動駐車システム、ナビゲーションシステム、自動車用暗視システム、死角モニタ、衝突回避システム、運転者眠気検出システム、運転者監視システム、距離ベース速度制御システム、車線逸脱警報システム、車線変更支援、その他などの中の一又は複数を包含し得る、運転者補助システム150を備える。
図2を参照して、本発明の1つ又は複数の態様を実施するためのプロセス200について説明する。特定の実施形態では、プロセス200は、GPU105、メモリ110、及びカメラ130などのシステム100の特定の構成要素を使用して実施するようにしてもよい。基本的な考え方は、ガボールフィルタ間のペアパターンの相違点又は類似点を符号化する。基本的に、トレーニングを受けたオートエンコーダは、入力を回復しようとしている間に複数のガボールフィルタパターンを学習する(教師なし学習)。このプロセスはトレーニング前のステップであり、トレーニング中又はテスト中にリアルタイムで繰り返されることはない。しかしながら、別のCNNは、リアルタイムで車両速度を推定できるようにこれらの生成された特徴フィルタでトレーニングされる。
このように、本発明の一態様は、アルゴリズム又は速度の精度が、ラベル付けされていないキャプチャされた動画データによって低下しないようにしながら、モノカメラフィードを使用することにある。そのために、ブロック210は、車両(例えば、車両の正面)に取り付けられた単一カメラ(単眼カメラ)を用いて動画トレーニングデータを取り込むことからプロセスを開始し、車両が様々な設定(例えば、高速道路、脇道、都会の環境、その他など)を任意の速度の範囲(例えば、0から70mph(約113km毎時))で走行する間、画像が取り込まれる。キャプチャされた動画フィードは、ブロック220で前処理されてもよく、それは以下にさらに記載する。前処理の後、取り込まれたトレーニング動画データはSAEに提供されてもよく、学習されたガボールフィルタを生成するためのプレトレーニング(事前学習)プロセス(ブロック230)として使用されてもよい。その後、多層畳み込みニューラルネットワーク(CNN)の第1の層は、SAE生成重みを使用して初期化され得る(ブロック240)。特定の実施形態では、CNNはN層のCNNであってもよく、このNは使用ケースの複雑さに基づいて必要とされるのと同じ数の層に拡張可能であるとする。CNNをトレーニングするために他のアーキテクチャ(例えば、CaffeNet)を使用してもよいことをさらに理解されたい。
ブロック220の前処理動作は、SAEプレトレーニングプロセスに使用されるデータをZCA白色化することを含む。そのようなZCA白色化前処理は、いくつかの数の時間的に連続したフレームのシーケンスにおいて元のフレームからクロップを取った後に実行されるようにしてもよい。一般的には、隣接する画素値は高度に相関しているので、画像入力値の生データは冗長である。ZCA白色化の結果として、本発明者らは、この冗長性の低減を達成し、これにより結果として生じる特徴は、相関性はより低く、同じ分散を有することになる。例として、大きさが16×16×5ピクセルの256個のフィルタをトレーニングするようにしてもよく、ここで寸法は空間方向と時間方向の両方に及ぶものとする。他の実施形態では、前処理は、データの(ZCA白色化なしで)バッチ正規化を備えるものとしてもよい。ブロック220の前処理操作は、「ぼかしパターン」を作成するためにいくつかの数の入力フレームの平均化をさらに備えてもよいことをさらに理解されたい。これらのパターンは、オブジェクトの速度とカメラからの距離に応じて、表示されるフレーム数を足し合わせると多少ぼやけて見えるため、挙動をエンコードするための新規な方法である。そのような平均化された画像のうちの1つ又は複数がCNNに与えられると、入力フレームのぼけの程度を評価することによって移動中の車の速度を推定するようにトレーニング可能である。
動画ストリーム内の画像の空間的要素と時間的要素との間の橋渡しをマッピングするためには、同じ挙動についての複数の特徴間の同期性の測定が極めて重要である。既存のCNNモデルは、動画のステレオシーケンスを操作して深度マップを作成し、速度を決定する。しかしながら、特定の車両用途の場合のように単一のカメラフィードのみが利用可能である場合、発明者らは、SAEアプローチに加えてさらに改良し、それによって、2つ又はそれ以上の動画フィードからの通常のシーケンス間エンコーディングではなく、シーケンス内エンコーディングを行うように、第1のチャネルの複製を第2のチャネルとして提供する。これは、ガボールパターンをエンコードするためのプレトレーニングプロセスとして使用され、実際の試験段階には単一のフィードのみを使用する。
同期性を検出するための1つの既知の方法は、ディープ(深層)ネットワークにおいてフィルタを符号化するための唯一の許容可能なタイプのモジュールとして単に重み付け合計を使用するのではなく、フィルタ応答間の乗法的(「ゲーティング」)相互作用を可能にすることである。乗法的ゲーティングは、入力間のパターンの類似性を符号化するために使用できる。具体的には、特徴のセットが、両方の入力に少なくとも部分的に存在し、それら二つの特徴のセットが互いに識別されることと、区別されることとの少なくとも一方が可能である。両方の画像において同様に変換された特徴を検出するこの能力が、同期性(の検出)と呼ばれる。
同期オートエンコーダを使用する教師なし学習プロセスに関して、オートエンコーダは、例えば、入力Xを受け取り、それを隠された表現にマッピングする。
Figure 0007032387000001
上記の式は、以下の式により変数化されている。
Figure 0007032387000002
ここで、(数式)記号は通常の意味であるとする。
結果として得られる潜在表現Rは、入力空間の「再構成された」ベクトルZ(次の数式の中で、文字の上に→が付いたZ)にマッピングされる。
Figure 0007032387000003
重み行列W’は、W’=Wとなるように任意に制約可能であり、その場合、オートエンコーダは、転置行列を使うという。ネットワークは再構成誤差(ベクトルXとベクトルZの間の誤差)を最小にするようにトレーニングされる。デュアル入力チャネルX及びYアーキテクチャという状況では、フィルタ応答は次のように定義される。
Figure 0007032387000004
さらに、標準ノイズモデルで入力データが破損していて、オートエンコーダが部分可視の入力シーケンスから出力を再構築するように強制されているときに、ノイズ除去を使用してもよい。符号化は、シグモイド重み減衰とデュアルチャネルの乗法的ゲーティングの両方を使用する。
Figure 0007032387000005
ここで、*は要素単位の乗算を表す。
復号化側では、入力の再構成は次の式で与えられる。
Figure 0007032387000006
Figure 0007032387000007
引き続き図2の操作を参照すると、SAEモデルは、両方のチャネルが同一であり、トレーニングシーケンスからランダムにトリミングされた(例えば、16×16×5(スペース×スペース×時間))ピクセルの所与のサイズを有するローカル動画ブロックペアでトレーニングされてもよい。上記のように、トレーニングサンプルはZCA白色化されてもよい。次いで、所定数(例えば、256)のそのようなフィルタ対が、シーケンスデータからの教師なし学習を使用して挙動を符号化するために使用される。発明者側が知る限りでは、配列内パターンを符号化するためのこの研究は以前に行われたことがないので、モノカメラソリューションは市場で主流ではない。当社の技術革新は、これを研究するだけでなく、市場の他の重たいネットワークや既存のオフザシェルフよりも、検出速度を大幅に向上させて競争力のある結果を達成するようにネットワークを適応させる。再構成誤差を最小にするために、二乗誤差の標準和[15]は次のように計算される。
Figure 0007032387000008
ここで、出力ベクトルX(文字の上に→及び記号が付いたX)及び出力ベクトルY(文字の上に→及び記号が付いたY)はSAEの再構成された出力であり、LはL2損失関数を表す。
重みは、トレーニングの初期段階では256から、高度な段階では1のバッチサイズまで、さまざまなバッチサイズ設定の確率勾配降下法で更新される。
エンコーダ内に乗法的相互作用が存在するため、再構成誤差は、他の入力が与えられたときに、一方の入力に条件付けられる。しかしながら、いったんフィルタがこの依存性を学習すると、本発明者らは、フィルタで初期化されたCNNモデルが、例え第2のデータチャネルがなくてもパターンを正しく識別することを学習することを発見した。
図3は、本発明に従って構成された畳み込みニューラルネットワークトレーニングアーキテクチャの一実施形態の視覚表現の代表的なものである。単眼動画(モノキュラービデオ)フィードの状況において、発明者は、このアーキテクチャは、(SAEをトレーニングするときに使用された)デュアル入力チャネルを不要とすることがわかった。その理由は、デュアル入力チャネルを使わないことにより、(Kondaらからの)デュアル入力チャンネルよりも、速度及び正確さの両方の点で優れる図3の単一チャネルネットワークという結果に至ったからである。
上述のように、ネットワークの第1の畳み込み層のフィルタは、SAEの教師なし学習から得られた特徴で初期化される。一例として、入力データはグレイスケールに変換され、CNNは、比較的高解像度の入力(例えば500×300ピクセル)及び比較的低解像度(150×150ピクセル)のいずれかを使用してトレーニングされる。トレーニングの初期段階中にサンプルのバッチ(例えば、256)のバッチ正規化を実行してもよい。そして特定の実施形態では、ゲーティング操作後のトランケートReLUは、このReLUがシグモイドに置換されてもよく、1のバッチサイズに切り替えられてもよいプラトーに損失が減少するまで、使用されてもよい。このように、ネットワークエラーを最小限に抑えるために、入力データをグローバルに正規化する。5mph(約8km毎時)という低い二乗平均平方根誤差(RMSE)が達成され得る。
一般的に、バッチ正規化は、ディープニューラルネットワークをトレーニングするプロセス全体を加速するものである。ディープネットワークでは、入力層があり、その後にいくつかの隠れ層があり、最後に出力層がある。トレーニングのプロセスは、各層の出力が次の層に渡されることで構成されていて、トレーニングプロセスの速度低下を防ぐために、学習率と、運動量などの他の変数とを反復的に修正する必要がある。比較的高い学習率を維持し、トレーニングプロセスがより高速となることがわかったように、バッチ正規化の使用が好ましいとしてもよい。局所的応答正規化と共にバッチ正規化もまた、特定の実施形態において、改良された結果を得るため使用されてもよいことをさらに理解されたい。
ZCA白色化入力を使用してSAEによって学習されたフィルタは、図3のアーキテクチャに示されるように、CNNの第1の層(複数のこともある)を初期化するために使用される。CNNの第1層の出力は、2つの入力チャネルからの局所的な挙動の複合表現として解釈可能である。CNNの残りの部分は、ローカル表現を所望のラベルに関連付ける(エゴモーション/エゴ速度における変化)。これはオドメトリと方向に容易に拡張可能である。図3は、車両エゴ速度の推定に関して最速かつ最も正確に実行したCNNのアーキテクチャを示す。このアーキテクチャでは、車速度がそれぞれ既知の動画フレームでトレーニングされた。トレーニング中、CNNの各層は、その入力に対して特定の数値変換(多くの場合、これは重み行列による乗算である)を実行し、その出力を次の層に渡す。最後の層は、その出力を車の既知速度と比較し、速度予測と真値との間の不一致の大きさに関する情報を伝える。この違いの大きさに応じて、前の層は、この違いを最小化するために重みを調整する。このような順方向及び逆方向の情報の受け渡しは、所望の性能が達成されるまで数十万回以上繰り返される。CNNが完全にトレーニングされると、その通常の動作は、動画入力の往路通過のみで構成され、最後の層の出力は、予測車両エゴ速度である。
図4は、図1の情報処理サブシステム100の1つ又は複数の構成要素、例えば、GPU105、メモリ110、カメラ130によって実行される様々な操作の図を示す。具体的には、プロセス400はブロック410で始まり、動いている車両に取り付けられた単眼カメラ(モノカメラ)(例えば、カメラ130)によってリアルタイム動画データが取り込まれる。ブロック420において、キャプチャされたリアルタイム動画データは、その後、図2のプロセス200に従って従前にトレーニングされた畳み込みニューラルネットワークに提供されてもよい。
プロセス400はその後ブロック430に進み、そこで、トレーニングされたCNNによって、車両の挙動の変数(例えば、車両速度)が推定されるようにしてもよい。このCNNのフィルタは、モーションブラー(動いている車両の撮像のぶれ)と連続するフレーム間の同期性を理解して符号化するために、いくつかの異なる近傍を動く車の連続パッチを使用してプレトレーニングされている。このことは、CNNによる、各フレーム又は一連のフレームに記録された速度の推論を支援する。速度の真値は、車のIMU(慣性計測装置)から提供される。一実施形態において、推定される車両挙動変数は車両速度であってもよく、他の実施形態において推定される車両挙動変数は、ピッチ速度及び一般的な視覚オドメトリ測定法を含んでもよい。
トレーニングされた畳み込みニューラルネットワークによって推定された車両挙動変数は、その後、ブロック440において、情報処理サブシステムによって、車両のオーディオ/ビジュアルコンポーネント/システム(例えば、ディスプレイ115、スピーカ145など)、あるいは車両の運転者支援システム(例えば、運転者支援システム150)に出力されるようにしてもよい。上述のように、例えば、複数の環境要因が典型的なセンサ類の不正確さを招くようなとき、車両挙動変数は、任意の瞬間における車両速度がいくつであるのか/あるべきかを予測する自律駆動システムと、車両安定性制御サブシステムとの少なくとも一方に、提供されるようにしてもよい。代替として、運転者支援システムは、少なくとも部分的に車両挙動変数に基づいて、ステアリングと、加速/減速操作のうちの一方を少なくとも部分的に実行するように構成されるようにしてもよい。一実施形態では、このケースは、くぼみ又は他の路面障害を通過するときの車輪の機械的滑りを検出することによって行われる。このようなとき、衝撃のため、センサは一時的に正しく機能しなくなる。しかしながら、それは、サイレントエラー(検知できないエラー)と、誤検出と、車の誤作動との結果となる使えないデータを出力する。本発明の方法は、後輪スリップの発生イベントを正確に検出し、ADASを介して警告を送信するために実装される。全6度(前後、上下、左右)の挙動を検出するため別の利用ケースは、車を取り囲む全てのセンサの健全性チェックと、エゴローカリゼーション(自車位置推定)及びオドメトリマッピングのための挙動推定値の構築とのために検討されている。
本明細書で使用されるとき、用語「a」又は「an」は、1つ又は複数を意味するものとする。「複数」という用語は、2つ又は2つ以上を意味するものとする。「他の」という用語は、2番目又はそれ以降の番目として定義される。用語「含む」及び/又は「有する」は、オープンエンド(例えば、備える)の意味である。本明細書で使用される「又は」という用語は、包含的であると解釈されるか、又は任意の1つ又は任意の組合せを意味するものとする。したがって、「A、B又はC」は、「Aと、Bと、Cと、ABと、ACと、BCと、ABCとの中のいずれか」を意味する。この定義の例外は、要素、機能、工程又は行為の組み合わせが何らかの意味で本質的に相互に排他的である場合にのみ生じるとする。
本明細書全体を通して「一実施形態」、「特定の実施形態」、「実施形態」、又は同様の用語は、その実施形態に関して説明した特定の特徴、構造、又は特性が本発明の少なくとも1つの実施形態に含まれることを意味する。これにより、このような句の出現又は本明細書全体にわたる様々な場所での出現は、必ずしも全てが同じ実施形態を参照しているわけではない。さらに、特定の特徴、構造、又は特性は、制限なしに任意の適切な方法で組み合わせてもよい。
コンピュータプログラミングの当業者の実務に従って、本発明を、コンピュータシステム又は同様の電子システムによって実行される動作を参照して以下に説明する。そのような操作はコンピュータ実行されているということがある。象徴的に表される動作は、データビットを表す電気信号の中央処理装置などのプロセッサによる操作と、システムメモリ内などのメモリ位置でのデータビットの維持とを含むことが理解されるであろう。シグナルの処理データビットが維持されるメモリ位置は、データビットに対応する特定の電気的、磁気的、光学的、又は有機的特性を有する物理的位置である。
ソフトウェアで実施されるとき、本発明の(複数の)要素は本質的に必要なタスクを実行するための(複数の)コードセグメントである。コードセグメントは、プロセッサ可読媒体に格納可能であり、コンピュータデータ信号によって送信可能である。「プロセッサ可読媒体」は、情報を記憶可能な任意の媒体を包含してもよい。プロセッサ可読媒体の例には、電子回路、半導体メモリ装置、ROM、フラッシュメモリ又は他の不揮発性メモリ、フロッピー(登録商標)ディスケット、CD-ROM、光ディスク、ハードディスクなどが包含される。
本発明を様々な実施形態に関連して説明したが、本発明はさらなる修正が可能であることを理解されたい。本出願は、一般に本発明の原理に従い、そして本発明に関連する技術の範囲内で公知で通常行われる範囲内にあるような本開示からの逸脱を含む、本発明のあらゆる変形、使用又は適合を網羅することを意図する。
100 情報処理システム
105 プロセッサ
110 メモリ
115 ディスプレイ
120 ユーザ入力
125 GPS
130 カメラ
135 バス
140 送信機/受信機
145 スピーカ
150 運転者補助システム
200 プロセス
210 トレーニング動画データをキャプチャする
220 画像処理を行う
230 オートエンコーダフィルタをトレーニングする
240 畳み込みニューラルネットワークをトレーニングする
400 プロセス
410 リアルタイム動画データをキャプチャする
420 畳み込みニューラルネットワークにデータを提供する
430 車両の挙動を推定する
440 車両の挙動の情報を出力する

Claims (11)

  1. 車両に搭載され、単眼動画データをキャプチャするカメラと、
    データと、プロセッサ実行可能な命令とを格納するメモリと、
    メモリに格納されてあるプロセッサ実行可能な命令を実行する、プロセッサと、
    を備える、空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定するシステムであって、
    プロセッサは、
    車両が動いている間にキャプチャされた、プレトレーニング動画データをカメラから受け取り、
    プレトレーニング動画データを使用して、同期オートエンコーダの一つ又は複数のフィルタをトレーニングし、
    ZCA白色化によってプレトレーニング動画データを前処理してから、同期オートエンコーダのトレーニングされた一つ又は複数のフィルタを使用して、畳み込みニューラルネットワークをプレトレーニングし、
    プレトレーニングされた畳み込みニューラルネットワークに従い、
    プロセッサはさらに、
    車両が動いている間にリアルタイム動画データをカメラから受け取り、
    リアルタイム動画データをプレトレーニングされた畳み込みニューラルネットワークに提供し、
    プレトレーニングされた畳み込みニューラルネットワークから推定された車両挙動変数を受け取り、
    推定された車両挙動変数を、車両の、音声と視覚との少なくとも一方のシステムと、運転者補助システムとの少なくとも一方に、出力する、
    空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定するシステム。
  2. プロセッサは、同期オートエンコーダからのトレーニングされた1つ又は複数のフィルタを使用して、畳み込みニューラルネットワークの第1の層を初期化することによって畳み込みニューラルネットワークをプレトレーニングする、請求項1に記載のシステム。
  3. 畳み込みニューラルネットワークはさらに反復的にトレーニングされ、第1層の出力は畳み込みニューラルネットワークの次の層に渡され、対応する出力を畳み込みニューラルネットワークの別の層に渡す請求項に記載のシステム。
  4. プロセッサは、プレトレーニング動画データの第1のチャネルをトレーニング前動画データのプレトレーニング動画データの第2のチャネルとして複製し、プレトレーニング動画データの第1のチャネルと、プレトレーニング動画データの第2のチャネルとは、同期オートエンコーダの一つ又は複数のフィルタをトレーニングするために提供された、請求項1に記載のシステム。
  5. 前記車両挙動変数は、車両の速度を含む、請求項1に記載のシステム。
  6. 運転者補助システムは、少なくとも部分的に、前記推定された車両挙動変数に基づいて、ステアリングと、加速/減速操作との中の一つを実行する、請求項1に記載のシステム。
  7. 畳み込みニューラルネットワークをプレトレーニングすることを備える、空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定する方法であって、
    プレトレーニングは、
    車両が動いている間にキャプチャされたプレトレーニング動画データを、車両に搭載された単眼カメラから受け取ることと、
    プレトレーニング動画データを使用して、車両メモリに格納された同期オートエンコーダの一つ又は複数のフィルタをトレーニングすることと、
    ZCA白色化によってプレトレーニング動画データを前処理してから、同期オートエンコーダのトレーニングされた一つ又は複数のフィルタを使用して、車両メモリに格納された畳み込みニューラルネットワークをプレトレーニングすることと、
    を備え、
    プレトレーニングされた畳み込みニューラルネットワークに従うことにおいて、さらに、車両が動いている間にリアルタイム動画データをカメラから受け取ることと、
    リアルタイム動画データをプレトレーニングされた畳み込みニューラルネットワークに提供することと、
    プレトレーニングされた畳み込みニューラルネットワークから推定された車両挙動変数を受け取ることと、
    推定された車両挙動変数を、車両の、音声と視覚との少なくとも一方のシステムと、運転者補助システムとの少なくとも一方に、出力することと、
    を備える、空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定する方法。
  8. 畳み込みニューラルネットワークをプレトレーニングすることは、同期オートエンコーダからのトレーニングされた1つ又は複数のフィルタを使用して畳み込みニューラルネットワークの第1層を初期化することによって畳み込みニューラルネットワークをプレトレーニングすることを備える、請求項に記載の方法。
  9. プレトレーニング動画データの第1のチャネルを、プレトレーニング動画データの第2のチャネルとして複製することをさらに備え、プレトレーニング動画データの第1チャネルと、プレトレーニング動画データの第2のチャネルは、同期オートエンコーダの1つ又は複数のフィルタをトレーニングするために提供される、請求項に記載の方法。
  10. 前記車両挙動変数が、車両の速度を含む、請求項に記載の方法。
  11. 少なくとも部分的に前記推定された車両挙動変数に基づいて、ステアリングと、加速/減速操作との中の一つを車両の運転者補助システムによって実行することをさらに備える、請求項に記載の方法。
JP2019512864A 2016-12-02 2017-12-01 単眼動画データに基づく車両の挙動推定システム及び方法 Active JP7032387B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/367,993 2016-12-02
US15/367,993 US10068140B2 (en) 2016-12-02 2016-12-02 System and method for estimating vehicular motion based on monocular video data
PCT/US2017/064234 WO2018102697A1 (en) 2016-12-02 2017-12-01 System and method for estimating vehicular motion based on monocular video data

Publications (2)

Publication Number Publication Date
JP2020500759A JP2020500759A (ja) 2020-01-16
JP7032387B2 true JP7032387B2 (ja) 2022-03-08

Family

ID=62240087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512864A Active JP7032387B2 (ja) 2016-12-02 2017-12-01 単眼動画データに基づく車両の挙動推定システム及び方法

Country Status (4)

Country Link
US (1) US10068140B2 (ja)
EP (1) EP3548353B1 (ja)
JP (1) JP7032387B2 (ja)
WO (1) WO2018102697A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10121103B2 (en) * 2016-12-09 2018-11-06 Cisco Technologies, Inc. Scalable deep learning video analytics
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
US11482018B2 (en) * 2017-07-19 2022-10-25 Nec Corporation Number-of-occupants detection system, number-of-occupants detection method, and program
US10268205B2 (en) * 2017-09-13 2019-04-23 TuSimple Training and testing of a neural network method for deep odometry assisted by static scene optical flow
US10552979B2 (en) * 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
US10671083B2 (en) * 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10875540B2 (en) * 2018-07-19 2020-12-29 Beijing Voyager Technology Co., Ltd. Ballistic estimation of vehicle data
WO2020031586A1 (ja) * 2018-08-10 2020-02-13 古野電気株式会社 船舶操縦支援システム、船舶制御装置、船舶制御方法、及びプログラム
US11783500B2 (en) * 2018-09-05 2023-10-10 Google Llc Unsupervised depth prediction neural networks
US11468575B2 (en) * 2018-11-16 2022-10-11 Uatc, Llc Deep structured scene flow for autonomous devices
US11544620B2 (en) 2019-01-22 2023-01-03 Raytheon Technologies Corporation System and method for context-based training of a machine learning model
CN109919969B (zh) * 2019-01-22 2022-11-22 广东工业大学 一种利用深度卷积神经网络实现视觉运动控制的方法
CN109871778B (zh) * 2019-01-23 2022-11-15 长安大学 基于迁移学习的车道保持控制方法
US10635917B1 (en) * 2019-01-30 2020-04-28 StradVision, Inc. Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition
KR102690429B1 (ko) * 2019-02-28 2024-07-31 에이치디현대인프라코어 주식회사 휠 로더의 제어 방법 및 시스템
CN110084773A (zh) * 2019-03-25 2019-08-02 西北工业大学 一种基于深度卷积自编码网络的图像融合方法
CN111738037B (zh) * 2019-03-25 2024-03-08 广州汽车集团股份有限公司 一种自动驾驶方法及其系统、车辆
US11657694B2 (en) 2019-04-12 2023-05-23 Stoneridge Electronics Ab Mobile device usage monitoring for commercial vehicle fleet management
WO2020210605A1 (en) 2019-04-12 2020-10-15 Stoneridge Electronics, AB Mobile device usage monitoring for commercial vehicle fleet management
CN110211190B (zh) * 2019-05-31 2022-11-01 北京百度网讯科技有限公司 相机自运动参数估计模型的训练方法、装置及存储介质
US11095741B2 (en) * 2019-07-11 2021-08-17 Ghost Locomotion Inc. Value-based transmission in an autonomous vehicle
WO2021108031A1 (en) * 2019-11-26 2021-06-03 Mythic, Inc. Systems and methods for implementing operational transformations for restricted computations of a mixed-signal integrated circuit
JP2021135770A (ja) * 2020-02-27 2021-09-13 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに観測装置
KR102225108B1 (ko) * 2020-08-07 2021-03-09 건국대학교 산학협력단 이동체의 자율 주행 제어 방법 및 이를 수행하는 장치들
GB2597944A (en) * 2020-08-11 2022-02-16 Daimler Ag A method for predicting a user of a user with an autoencoder algorithm, as well as electronic computing device
CN112529104B (zh) * 2020-12-23 2024-06-18 东软睿驰汽车技术(沈阳)有限公司 一种车辆故障预测模型生成方法、故障预测方法及装置
US20240331195A1 (en) * 2021-06-25 2024-10-03 Intel Corporation Methods and apparatus for scale recovery from monocular video
CN114966090A (zh) * 2022-06-15 2022-08-30 南京航空航天大学 一种基于深度学习的船舶视频测速方法
CN117520788B (zh) * 2024-01-05 2024-03-22 成都亚度克升科技有限公司 基于人工智能和大数据分析的音箱参数确定方法和系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005525010A (ja) 2002-04-16 2005-08-18 ソニー エレクトロニクス インク Pidマッピングによるコンテンツの差替え
JP2014501401A (ja) 2010-12-15 2014-01-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両の自己運動を求めるための方法およびシステム
CN103914985A (zh) 2014-04-25 2014-07-09 大连理工大学 一种混合动力客车未来车速轨迹预测方法
US20150170004A1 (en) 2011-11-21 2015-06-18 Google Inc. Evaluating image similarity
US20150274161A1 (en) 2012-09-14 2015-10-01 Robert Bosch Gmbh Method for operating a driver assistance system of a vehicle
WO2016017787A1 (en) 2014-07-30 2016-02-04 Mitsubishi Electric Corporation Method for transforming input signals
WO2016175923A1 (en) 2015-04-28 2016-11-03 Qualcomm Incorporated Filter specificity as training criterion for neural networks
JP2016219004A (ja) 2015-05-18 2016-12-22 ゼロックス コーポレイションXerox Corporation 一般物体提案を用いる複数物体の追跡
CN107430693A (zh) 2015-03-13 2017-12-01 北京市商汤科技开发有限公司 用于车辆分类和验证的设备和系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7242773B2 (en) 2002-09-09 2007-07-10 Sony Corporation Multiple partial encryption using retuning
US9727824B2 (en) 2013-06-28 2017-08-08 D-Wave Systems Inc. Systems and methods for quantum processing of data
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US9392431B2 (en) 2014-09-30 2016-07-12 Verizon Patent And Licensing Inc. Automatic vehicle crash detection using onboard devices
US10046229B2 (en) * 2016-05-02 2018-08-14 Bao Tran Smart device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005525010A (ja) 2002-04-16 2005-08-18 ソニー エレクトロニクス インク Pidマッピングによるコンテンツの差替え
JP2014501401A (ja) 2010-12-15 2014-01-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両の自己運動を求めるための方法およびシステム
US20150170004A1 (en) 2011-11-21 2015-06-18 Google Inc. Evaluating image similarity
US20150274161A1 (en) 2012-09-14 2015-10-01 Robert Bosch Gmbh Method for operating a driver assistance system of a vehicle
CN103914985A (zh) 2014-04-25 2014-07-09 大连理工大学 一种混合动力客车未来车速轨迹预测方法
WO2016017787A1 (en) 2014-07-30 2016-02-04 Mitsubishi Electric Corporation Method for transforming input signals
CN107430693A (zh) 2015-03-13 2017-12-01 北京市商汤科技开发有限公司 用于车辆分类和验证的设备和系统
WO2016175923A1 (en) 2015-04-28 2016-11-03 Qualcomm Incorporated Filter specificity as training criterion for neural networks
JP2016219004A (ja) 2015-05-18 2016-12-22 ゼロックス コーポレイションXerox Corporation 一般物体提案を用いる複数物体の追跡

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KONDA et al.,Learning to encode motion usingspatio-temporal synchrony,Retrieved from the Internet,ドイツ,2014年02月10日,p. 1-9,https://arxiv.org/pdf/1306.3162.pdf

Also Published As

Publication number Publication date
WO2018102697A1 (en) 2018-06-07
EP3548353B1 (en) 2023-07-19
US20180157918A1 (en) 2018-06-07
US10068140B2 (en) 2018-09-04
JP2020500759A (ja) 2020-01-16
EP3548353A4 (en) 2020-07-08
EP3548353A1 (en) 2019-10-09

Similar Documents

Publication Publication Date Title
JP7032387B2 (ja) 単眼動画データに基づく車両の挙動推定システム及び方法
US11449727B2 (en) Method, storage medium and electronic device for detecting vehicle crashes
US10810754B2 (en) Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation
EP3549102B1 (en) Determining structure and motion in images using neural networks
CN108388834B (zh) 利用循环神经网络和级联特征映射的对象检测
JP6812538B2 (ja) イメージ深度予測ニューラルネットワーク
CN107622527B (zh) 支持开发基于视觉的雨水检测算法的虚拟传感器数据生成系统和方法
US20200041276A1 (en) End-To-End Deep Generative Model For Simultaneous Localization And Mapping
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
CN111738037B (zh) 一种自动驾驶方法及其系统、车辆
CN111695717A (zh) 自主机器应用中的时间信息预测
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
WO2019230339A1 (ja) 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置
CN114332907A (zh) 包括使用神经网络进行鲁棒预测的背景修改的数据增强
JP2019091102A (ja) 位置姿勢推定システム及び位置姿勢推定装置
US20230252658A1 (en) Depth map completion in visual content using semantic and three-dimensional information
JP2023039926A (ja) 知覚フィールドベースの運転関連操作
US12112622B2 (en) Systems and methods for heterogeneous multi-agent multi-modal trajectory prediction with evolving interaction graphs
WO2021056327A1 (en) Systems and methods for analyzing human driving behavior
Lee et al. Latency-Free Driving Scene Prediction for On-Road Teledriving With Future-Image-Generation
Wang et al. Time-to-contact control: improving safety and reliability of autonomous vehicles
US20230023126A1 (en) Partial supervision in self-supervised monocular depth estimation
CN113554179B (zh) 信息处理系统
Zhu et al. Multi-frame network feature fusion model and self-attention mechanism for vehicle lane line detection
Zhu et al. Saliency detection for underwater moving object with sonar based on motion estimation and multi-trajectory analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220224

R150 Certificate of patent or registration of utility model

Ref document number: 7032387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150