JP7146122B2 - 制御入力および限られた観測から動的流動を予測するための方法およびシステム - Google Patents
制御入力および限られた観測から動的流動を予測するための方法およびシステム Download PDFInfo
- Publication number
- JP7146122B2 JP7146122B2 JP2021572956A JP2021572956A JP7146122B2 JP 7146122 B2 JP7146122 B2 JP 7146122B2 JP 2021572956 A JP2021572956 A JP 2021572956A JP 2021572956 A JP2021572956 A JP 2021572956A JP 7146122 B2 JP7146122 B2 JP 7146122B2
- Authority
- JP
- Japan
- Prior art keywords
- sample points
- scene
- flow
- state
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Description
上記図面はここに開示する実施形態を記述しているが、明細書に記載されているようにその他の実施形態も意図されている。本開示は、限定ではなく代表として、例示としての実施形態を示す。当業者は、ここに開示する実施形態の原理の範囲と精神に含まれるその他多数の修正および実施形態を考案することができる。
群衆のダイナミクスは、流体の流れの中の粒子の動きとして、ミクロスケールおよびマクロスケールでモデル化することができる。これに代えて、すべてのΩをカバーする実際の映像監視データを利用できる場合は流動情報を映像の動きベクトルを計算することで抽出することができる。
線形モデル
システムダイナミクスが線形である場合、動的システムの状態変数の発展は以下によって与えられる。
本開示のある実施形態に従う、シーン内の対象の流動の状態を求めるためのシステムは、シーンの観測サンプルポイントにおける流動の状態を測定する少なくとも1つのセンサを備える。シーンは、観測サンプルポイントおよび未観測サンプルポイントのサブセットを有するサンプルポイントのセットと、制御入力のセットとを含む。さらに、シーン内の対象の流動の訓練状態の時変ダイナミクスを特定する作用素を格納するメモリを備える。作用素は、シーン内のあるサンプルポイントにおける対象の流動の状態の推定される将来の状態を、シーン内のサンプルポイントのセットにおける対象の流動の状態の現在の測定状態と、流動の初期状態および境界状態を定める制御入力のセットとの関数として、求めるように予め訓練される。さらに、プロセッサを備える。プロセッサは、メモリと通信し、作用素と、観測サンプルポイントのサブセットにおける測定状態とを用いて、シーンの未観測サンプルポイントのサブセットにおける対象の流動の状態を推定するように構成される。観測サンプルポイントのサブセットにおける推定される将来の状態は、観測サンプルポイントのサブセットにおける測定状態と一致する。さらに、出力インターフェイスを備える。出力インターフェイスは、プロセッサと通信し、シーンの未観測サンプルポイントのセットにおける流動の状態を出力することにより、シーン内の対象の流動の管理状態の管理を支援するように構成されている。以下の局面のうちの1つまたは以下の局面の組み合わせが上記実施形態の修正実施形態を構成することが意図されている。
本開示の局面に従い、実験から得た知識に基づいて、以下の定義を構築したが、当然ながらこれらは各表現または用語の完全な定義ではない。提供している定義は、実験から得られた概念の理解とさらなる解釈に基づいて一例として提供しているだけであり、その他の解釈、定義、およびその他の側面が適する場合もある。しかしながら、少なくとも、概念、表現または用語の単なる基本的プレビューとして、このような定義を提供している。
H1.各ポイントにおける歩行者の速度は、そのポイントの周囲の群衆の密度のみによって決まる。
H2.歩行者は共通の目的地を有する(可能性)。
H3.歩行者は、推定移動時間を最短にすることを望み、それと同時に、密集している大きなエリアを避ける。
これらの仮定は以下のPDEに変換できる。
クープマン作用素
以下の説明は、具体例としての実施形態のみを提供し、開示の範囲、適用可能性、または構成を限定することを意図していない。むしろ、具体例としての実施形態の以下の説明は、具体例としての1つ以上の実施形態を実装すること可能にする説明を、当業者に提供するであろう。添付の請求項に記載されている開示された主題の精神および範囲から逸脱することなく、要素の機能および構成に対してなされ得る、各種変更が意図されている。
Claims (15)
- シーン内の対象の流動の状態を求めるためのシステムであって、前記システムは、
前記シーンの観測サンプルポイントにおける前記流動の状態を測定する少なくとも1つのセンサを備え、前記シーンは、観測サンプルポイントおよび未観測サンプルポイントのサブセットを有するサンプルポイントのセットと、制御入力のセットとを含み、前記システムはさらに、
前記シーン内の前記対象の流動の訓練状態の時変ダイナミクスを特定する作用素を格納するメモリを備え、前記作用素は、前記シーン内のあるサンプルポイントにおける前記対象の流動の状態の推定される将来の状態を、前記シーン内の前記サンプルポイントのセットにおける前記対象の流動の状態の現在の測定状態と、前記流動の初期状態および境界状態を定める前記制御入力のセットとの関数として、求めるように予め訓練され、前記システムはさらに、
プロセッサを備え、前記プロセッサは、前記メモリと通信し、前記作用素と、前記観測サンプルポイントのサブセットにおける測定状態とを用いて、前記シーンの前記未観測サンプルポイントのサブセットにおける前記対象の流動の状態を推定するように構成され、前記観測サンプルポイントのサブセットにおける前記推定される将来の状態は、前記観測サンプルポイントのサブセットにおける前記測定状態と一致し、前記システムはさらに、
出力インターフェイスを備え、前記出力インターフェイスは、前記プロセッサと通信し、前記シーンの未観測サンプルポイントのセットにおける前記流動の状態を出力することにより、前記シーン内の対象の流動の管理状態の管理を支援するように構成されている、システム。 - 前記作用素を訓練することは、
前記シーン内の前記サンプルポイントのセット内の前記対象の流動の訓練状態および制御入力の履歴データを取得すること、
モデルに従い、前記シーン内の前記サンプルポイントのセット内の前記対象の流動の前記訓練状態をシミュレートすること、または、
前記シーン内のサンプルポイントの一連のサブセット内の前記対象の流動の前記訓練状態を取得することを含み、前記サンプルポイントの一連のサブセット内の前記サンプルポイントの少なくとも1つのサブセットは、前記シーン内の前記サンプルポイントの一連のサブセット内の前記サンプルポイントの残りのサブセットについての観測可能なサンプルポイントの時点と異なる時点における観測サンプルポイントであり、前記シーン内の前記一連のサンプルポイント内の前記サンプルポイントのすべてのサブセットは、前記シーン内の前記サンプルポイントのセット内のすべてのサンプルポイントを含む、請求項1に記載のシステム。 - 前記シーンの前記未観測サンプルポイントのサブセットにおける前記対象の流動の状態を推定することは、
基底行列のセットについての係数のセットを、前記センサによる前記シーンの前記観測サンプルポイントのセットと、前記作用素の前記観測サンプルポイントのサブセットにおける前記推定される将来の状態との間の誤差を最小にすることにより、求めることと、
前記基底行列のセットについての係数のセットが、前記作用素の固有値のセットに応じた一時的予測条件に従うことを、確認することとを含む、請求項1に記載のシステム。 - 前記作用素はシステムダイナミクス作用素であり、前記システムダイナミクス作用素はカーネル動的モード分解(KDMD)作用素である、請求項1に記載のシステム。
- シーン内の対象の流動の状態を求めるための方法であって、前記方法は、
前記シーンの観測サンプルポイントにおける流動の状態を測定するステップを含み、前記シーンは、観測サンプルポイントおよび未観測サンプルポイントのサブセットを有するサンプルポイントのセットと、制御入力のセットとを含み、前記方法はさらに、
前記シーン内の前記対象の流動の訓練状態の時変ダイナミクスを特定する作用素をメモリに格納するステップを含み、前記作用素は、前記シーン内のあるサンプルポイントにおける前記対象の流動の状態の推定される将来の状態を、前記シーン内の前記サンプルポイントのセットにおける前記対象の流動の状態の現在の測定状態と、前記制御入力のセットとの関数として、求めるように予め訓練され、前記方法はさらに、
前記メモリと通信するプロセッサを使用するステップを含み、前記プロセッサは、前記作用素と、前記観測サンプルポイントのサブセットにおける測定状態とを用いて、前記シーンの前記未観測サンプルポイントのサブセットにおける前記対象の流動の状態を推定するように構成され、前記観測サンプルポイントのサブセットにおける前記推定される将来の状態は、前記観測サンプルポイントのサブセットにおける前記測定状態と一致し、前記方法はさらに、
前記プロセッサと通信する出力インターフェイスを介して、前記シーンの未観測サンプルポイントのセットにおける前記流動の状態を出力することにより、前記シーン内の対象の流動の管理状態の管理を支援するステップを含む、方法。 - 前記作用素を訓練することは、
前記シーン内の前記サンプルポイントのセット内の前記対象の流動の訓練状態の履歴データを取得すること、
モデルに従い、前記シーン内の前記サンプルポイントのセット内の前記対象の流動の前記訓練状態をシミュレートすること、または、
前記シーン内のサンプルポイントの一連のサブセット内の前記対象の流動の前記訓練状態を取得することを含み、前記サンプルポイントの一連のサブセット内の前記サンプルポイントの少なくとも1つのサブセットは、前記シーン内の前記サンプルポイントの一連のサブセット内の前記サンプルポイントの残りのサブセットについての観測可能なサンプルポイントの時点と異なる時点における観測サンプルポイントであり、前記シーン内の前記一連のサンプルポイント内の前記サンプルポイントのすべてのサブセットは、前記シーン内の前記サンプルポイントのセット内のすべてのサンプルポイントを含む、請求項5に記載の方法。 - 前記シーンの前記未観測サンプルポイントのサブセットにおける前記対象の流動の状態を推定することは、
基底行列のセットについての係数のセットを、センサによる前記シーンの前記観測サンプルポイントのセットと、前記作用素の前記観測サンプルポイントのサブセットにおける前記推定される将来の状態との間の誤差を最小にすることにより、求めることと、
前記基底行列のセットについての係数のセットが、前記作用素の固有値のセットに応じた一時的予測条件に従うことを、確認することとを含む、請求項5に記載の方法。 - 前記シーンの観測サンプルポイントにおける前記流動の状態を測定することは、前記シーンの近くに位置する少なくとも1つのセンサを用いて行われる、請求項5に記載の方法。
- 前記作用素はシステムダイナミクス作用素であり、前記システムダイナミクス作用素はカーネル動的モード分解(KDMD)作用素である、請求項5に記載の方法。
- 方法を実行するためにプロセッサが実行可能なプログラムが実現された非一時的なコンピュータ読取可能記憶媒体であって、前記方法はシーン内の対象の流動の状態を求めるための方法であり、前記方法は、
前記シーンの観測サンプルポイントにおける流動の状態を測定するステップを含み、前記シーンは、観測サンプルポイントおよび未観測サンプルポイントのサブセットを有するサンプルポイントのセットと、制御入力のセットとを含み、前記方法はさらに、
前記シーン内の前記対象の流動の訓練状態の時変ダイナミクスを特定する作用素をメモリに格納するステップを含み、前記作用素は、前記シーン内のあるサンプルポイントにおける前記対象の流動の状態の推定される将来の状態を、前記シーン内の前記サンプルポイントのセットにおける前記対象の流動の状態の現在の測定状態と、前記制御入力のセットとの関数として、求めるように予め訓練され、前記方法はさらに、
前記メモリと通信するプロセッサを使用するステップを含み、前記プロセッサは、前記作用素と、前記観測サンプルポイントのサブセットにおける測定状態とを用いて、前記シーンの前記未観測サンプルポイントのサブセットにおける前記対象の流動の状態を推定するように構成され、前記観測サンプルポイントのサブセットにおける前記推定される将来の状態は、前記観測サンプルポイントのサブセットにおける前記測定状態と一致し、前記方法はさらに、
前記プロセッサと通信する出力インターフェイスを介して、前記シーンの未観測サンプルポイントのセットにおける前記流動の状態を出力することにより、前記シーン内の対象の流動の管理状態の管理を支援するステップを含む、非一時的なコンピュータ読取可能媒体。 - 前記作用素を訓練することは、
前記シーン内の前記サンプルポイントのセット内の前記対象の流動の訓練状態の履歴データを取得すること、
モデルに従い、前記シーン内の前記サンプルポイントのセット内の前記対象の流動の前記訓練状態をシミュレートすること、または、
前記シーン内のサンプルポイントの一連のサブセット内の前記対象の流動の前記訓練状態を取得することを含み、前記サンプルポイントの一連のサブセット内の前記サンプルポイントの少なくとも1つのサブセットは、前記シーン内の前記サンプルポイントの一連のサブセット内の前記サンプルポイントの残りのサブセットについての観測可能なサンプルポイントの時点と異なる時点における観測サンプルポイントであり、前記シーン内の前記一連のサンプルポイント内の前記サンプルポイントのすべてのサブセットは、前記シーン内の前記サンプルポイントのセット内のすべてのサンプルポイントを含む、請求項10に記載の非一時的なコンピュータ読取可能媒体。 - 前記作用素はカーネル動的モード分解(KDMD)作用素であり、前記非一時的なコンピュータ読取可能媒体は、流動完成のためのデータ駆動型フレームワークであり、前記メモリから得られる、完全なシーンΩについて定められた訓練データは、前記シーン内の流動のダイナミクスを捕捉する前記KDMD作用素を学習するために利用できる、請求項10に記載の非一時的なコンピュータ読取可能媒体。
- 前記シーンの前記未観測サンプルポイントのサブセットにおける前記対象の流動の状態を推定することは、
基底行列のセットについての係数のセットを、センサによる前記シーンの前記観測サンプルポイントのセットと、前記作用素の前記観測サンプルポイントのサブセットにおける前記推定される将来の状態との間の誤差を最小にすることにより、求めることと、
前記基底行列のセットについての係数のセットが、前記作用素の固有値のセットに応じた一時的予測条件に従うことを、確認することとを含む、請求項10に記載の非一時的なコンピュータ読取可能媒体。 - 前記シーンの観測サンプルポイントにおける前記流動の状態を測定することは、前記シーンの近くに位置する少なくとも1つのセンサを用いて行われる、請求項10に記載の非一時的なコンピュータ読取可能媒体。
- 前記作用素はシステムダイナミクス作用素であり、前記システムダイナミクス作用素はカーネル動的モード分解(KDMD)作用素である、請求項10に記載の非一時的なコンピュータ読取可能媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/367,558 | 2019-03-28 | ||
US16/367,558 US10909387B2 (en) | 2019-03-28 | 2019-03-28 | Method and system for predicting dynamical flows from control inputs and limited observations |
PCT/JP2020/004208 WO2020195191A1 (en) | 2019-03-28 | 2020-01-29 | Method and system for predicting dynamical flows from control inputs and limited observations |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022521559A JP2022521559A (ja) | 2022-04-08 |
JP7146122B2 true JP7146122B2 (ja) | 2022-10-03 |
Family
ID=69740474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572956A Active JP7146122B2 (ja) | 2019-03-28 | 2020-01-29 | 制御入力および限られた観測から動的流動を予測するための方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10909387B2 (ja) |
JP (1) | JP7146122B2 (ja) |
KR (1) | KR20210126690A (ja) |
TW (1) | TWI761787B (ja) |
WO (1) | WO2020195191A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210192681A1 (en) * | 2019-12-18 | 2021-06-24 | Ati Technologies Ulc | Frame reprojection for virtual reality and augmented reality |
CN114139836B (zh) * | 2022-01-29 | 2022-05-31 | 北京航空航天大学杭州创新研究院 | 基于重力学多层三维残差网络的城市od人流预测方法 |
US20230351070A1 (en) * | 2022-04-27 | 2023-11-02 | Armored Things, Inc. | Simulation-driven localization and tracking of people |
CN115330132B (zh) * | 2022-07-20 | 2023-04-07 | 中交上海航道局有限公司 | 一种用于突发污染事故中宽浅型河流的水质分布逆时反演的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017532688A (ja) | 2015-03-06 | 2017-11-02 | 三菱電機株式会社 | 空調システム、並びに空調システムの動作を制御するためのシステム及び方法 |
JP2018113026A (ja) | 2017-01-12 | 2018-07-19 | 三菱電機株式会社 | 物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7595817B1 (en) | 2003-02-12 | 2009-09-29 | The Research Foundation Of State University Of New York | Linear system based, qualitative independent motion detection from compressed MPEG surveillance video |
JPWO2007032329A1 (ja) * | 2005-09-14 | 2009-03-19 | パナソニック株式会社 | 位置追跡方法、位置追跡装置および超音波診断装置 |
US20110205359A1 (en) * | 2010-02-19 | 2011-08-25 | Panasonic Corporation | Video surveillance system |
EP2893422A4 (en) * | 2012-09-06 | 2016-05-18 | Interphase Corp | SENSOR FUSION WITH ABSOLUTE AND RELATIVE POSITIONING IN AN INTERACTIVE DISPLAY SYSTEM |
US9600896B1 (en) * | 2015-11-04 | 2017-03-21 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting pedestrian flows in videos |
US10212410B2 (en) * | 2016-12-21 | 2019-02-19 | Mitsubishi Electric Research Laboratories, Inc. | Systems and methods of fusing multi-angle view HD images based on epipolar geometry and matrix completion |
US10203214B2 (en) * | 2017-02-06 | 2019-02-12 | Here Global B.V. | Method and apparatus for filtering device location points in a sampled trajectory while maintaining path reconstructability |
CN108399618A (zh) * | 2018-02-28 | 2018-08-14 | 清华大学 | 人群的位置和数目获取装置 |
CN109522854B (zh) * | 2018-11-22 | 2021-05-11 | 广州众聚智能科技有限公司 | 一种基于深度学习和多目标跟踪的行人流量统计方法 |
-
2019
- 2019-03-28 US US16/367,558 patent/US10909387B2/en active Active
-
2020
- 2020-01-29 KR KR1020217029375A patent/KR20210126690A/ko not_active Application Discontinuation
- 2020-01-29 JP JP2021572956A patent/JP7146122B2/ja active Active
- 2020-01-29 WO PCT/JP2020/004208 patent/WO2020195191A1/en active Application Filing
- 2020-03-16 TW TW109108540A patent/TWI761787B/zh active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017532688A (ja) | 2015-03-06 | 2017-11-02 | 三菱電機株式会社 | 空調システム、並びに空調システムの動作を制御するためのシステム及び方法 |
JP2018113026A (ja) | 2017-01-12 | 2018-07-19 | 三菱電機株式会社 | 物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 |
Non-Patent Citations (1)
Title |
---|
Dynamic mode decomposition with control,[online],2014年09月22日,[令和4年8月12日検索],インターネット <URL:https://arxiv.org/abs/1409.6358> |
Also Published As
Publication number | Publication date |
---|---|
TWI761787B (zh) | 2022-04-21 |
US20200311439A1 (en) | 2020-10-01 |
CN113632141A (zh) | 2021-11-09 |
TW202105323A (zh) | 2021-02-01 |
US10909387B2 (en) | 2021-02-02 |
KR20210126690A (ko) | 2021-10-20 |
WO2020195191A1 (en) | 2020-10-01 |
JP2022521559A (ja) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7146122B2 (ja) | 制御入力および限られた観測から動的流動を予測するための方法およびシステム | |
Stoffregen et al. | Reducing the sim-to-real gap for event cameras | |
EP3549102B1 (en) | Determining structure and motion in images using neural networks | |
US9767570B2 (en) | Systems and methods for computer vision background estimation using foreground-aware statistical models | |
Huang et al. | Highly accurate moving object detection in variable bit rate video-based traffic monitoring systems | |
DE102020102230A1 (de) | Missbrauchsindex für erklärbare künstliche intelligenz in computerumgebungen | |
JP6879894B2 (ja) | 物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 | |
US20180285689A1 (en) | Rgb-d scene labeling with multimodal recurrent neural networks | |
CN113015978B (zh) | 处理图像以定位新颖对象 | |
US11789466B2 (en) | Event camera based navigation control | |
CN112639878A (zh) | 无监督深度预测神经网络 | |
Vemprala et al. | Representation learning for event-based visuomotor policies | |
Shiba et al. | Fast event-based optical flow estimation by triplet matching | |
Kothandaraman et al. | Differentiable frequency-based disentanglement for aerial video action recognition | |
KR102323671B1 (ko) | 동영상내의 이상 물체 탐지 방법 및 그 장치 | |
Rudol et al. | Evaluation of human body detection using deep neural networks with highly compressed videos for UAV Search and rescue missions | |
CN113632141B (zh) | 用于从控制输入和有限观测预测动力学流的方法和系统 | |
CN108229320A (zh) | 选帧方法和装置、电子设备、程序和介质 | |
CN110753239B (zh) | 视频预测方法、视频预测装置、电子设备和车辆 | |
Kothandaraman et al. | Diffar: Differentiable frequency-based disentanglement for aerial video action recognition | |
KR102679399B1 (ko) | 고화질 영상을 이용한 객체를 검출하는 전자 장치 및 그 방법 | |
US20240089592A1 (en) | Adaptive perceptual quality based camera tuning using reinforcement learning | |
US20230237675A1 (en) | Method, electronic device, and computer program product for processing video | |
Poonguzhali et al. | Enhanced IoT Devices with Intelligent System for Object Detection | |
Wang et al. | Saliency Guided Depth Prediction from a Single Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210820 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7146122 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |