JP7228172B2 - オプティカルフロー推定のための方法 - Google Patents
オプティカルフロー推定のための方法 Download PDFInfo
- Publication number
- JP7228172B2 JP7228172B2 JP2021547880A JP2021547880A JP7228172B2 JP 7228172 B2 JP7228172 B2 JP 7228172B2 JP 2021547880 A JP2021547880 A JP 2021547880A JP 2021547880 A JP2021547880 A JP 2021547880A JP 7228172 B2 JP7228172 B2 JP 7228172B2
- Authority
- JP
- Japan
- Prior art keywords
- optical flow
- occlusion
- estimator
- image frames
- warping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims description 121
- 238000000034 method Methods 0.000 title claims description 51
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005206 flow analysis Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000000746 purification Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Description
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
1つ以上の画素のオプティカルフロー推定を決定するために、複数の画像フレームを処理するための方法であって、
ビデオシーケンスの複数の画像フレームを提供して、前記複数の画像フレームから各画像内の特徴を識別することと、
オクルージョン推定器により、前記ビデオシーケンスの2つ以上の連続画像フレームにおける1つ以上のオクルージョンの存在を、少なくとも前記識別された特徴に基づいて推定することと、
前記オクルージョン推定器により、1つ以上のオクルージョンマップを、前記1つ以上のオクルージョンの前記推定された存在に基づいて生成することと、
前記1つ以上のオクルージョンマップを、オプティカルフローデコーダのオプティカルフロー推定器に提供することと、
前記オプティカルフローデコーダにより、前記識別された特徴および前記1つ以上のオクルージョンマップに基づいて、前記複数の画像フレームにわたる1つ以上の画素に対する推定されたオプティカルフローを生成することと、
を有している、方法。
〔態様2〕
前記識別することは、
特徴抽出器により、前記2つ以上の連続画像フレームのそれぞれから1つ以上の特徴を抽出することにより、1つ以上の特徴ピラミッドを生成することと、
前記1つ以上の特徴ピラミッドのそれぞれの少なくとも1つのレベルを前記オプティカルフロー推定器に提供することと、
を有している、態様1に記載の方法。
〔態様3〕
1つ以上のオクルージョンの存在を推定することは、前記2つ以上の連続画像フレーム間の複数の変位にわたる前記識別された特徴の1つ以上に対する推定された相関コスト量を計算することを含んでいる、態様1から2の何れか一態様に記載の方法。
〔態様4〕
前記オプティカルフローおよび前記1つ以上のオクルージョンマップを、精製されたオプティカルフローを生成するために精製ネットワークに提供することを有している、態様1から3の何れか一態様に記載の方法。
〔態様5〕
前記オプティカルフローデコーダ、前記オクルージョン推定器、および前記精製ネットワークの少なくとも1つに、以前の時間ステップからの推定されたオプティカルフローを提供することを有しており、前記精製ネットワークは好ましくは、畳み込みニューラルネットワークを備えている、態様4に記載の方法。
〔態様6〕
前記オプティカルフローデコーダおよび前記オクルージョン推定器は、1つ以上の畳み込みニューラルネットワークを備えている、態様1から5の何れか一態様に記載の方法。
〔態様7〕
前記オプティカルフローのフロー座標システムを、考慮されている画像フレームのフレーム座標システムに変換することを有しており、前記変換は、バイリニア補間を伴うワーピングを有している、態様1から6の何れか一態様に記載の方法。
〔態様8〕
前記ワーピングは、前方ワーピングと後方ワーピングの少なくとも1つを有している、態様7に記載の方法。
〔態様9〕
前記特徴抽出器は、前記複数の画像フレームの第1および第2画像フレーム間の初期推定オプティカルフローで初期化され、前記初期オプティカルフローは、ワーピングの適用に先行して推定される、態様2から8の何れか一態様に記載の方法。
〔態様10〕
前記1つ以上の畳み込みニューラルネットワークは、前記オプティカルフローデコーダおよびオクルージョン推定器上の重み付けられたマルチタスク損失によりエンドツーエンドでトレーニングされる、態様6に記載の方法。
〔態様11〕
前記トレーニングは、損失方程式に従って、すべてのスケールにおいて実行され、
〔数1〕
ここでα S は個々のスケール損失の重み、α 0 はオクルージョン推定重み、合計はすべてのS空間解像度上で行われ、
〔数2〕
は最適化損失、および
〔数3〕
は、オクルージョン損失に対する画素毎のクロスエントロピ損失である、
態様10に記載の方法。
〔態様12〕
前記ビデオシーケンスは、車両、好ましくは、自律操作されるモータービークルにおける道路シーンから得られる画像フレームを備えている、態様1から11の何れか一態様に記載の方法。
〔態様13〕
プロセッサに、態様1から12の何れか一態様に記載の方法を実行させるように構成されている命令を有している、非一時的コンピュータ可読媒体。
〔態様14〕
前記非一時的コンピュータ可読媒体は、車両、好ましくは、自律操作されるモータービークルに搭載されている、態様13に記載の非一時的コンピュータ可読媒体。
〔態様15〕
態様1から12の何れか一態様に記載されている方法を実行するように構成されているプロセッサを備えているモータービークルであって、
前記プロセッサは、少なくとも部分的には前記オプティカルフローに基づいて車両制御システムを起動するように更に構成されている、モータービークル。
Claims (15)
- 1つ以上の画素のオプティカルフロー推定を決定するために、複数の画像フレームを処理するための方法であって、
ビデオシーケンスの複数の画像フレームを提供して、前記複数の画像フレームから各画像内の特徴を識別することと、
オクルージョン推定器により、前記ビデオシーケンスの2つ以上の連続画像フレームにおける1つ以上のオクルージョンの存在を、少なくとも前記識別された特徴に基づいて推定することと、
前記オクルージョン推定器により、1つ以上のオクルージョンマップを、前記1つ以上のオクルージョンの前記推定された存在に基づいて生成することと、
前記1つ以上のオクルージョンマップを、オプティカルフローデコーダのオプティカルフロー推定器に提供することと、
前記オプティカルフローデコーダにより、前記識別された特徴および前記1つ以上のオクルージョンマップに基づいて、前記複数の画像フレームにわたる1つ以上の画素に対する推定されたオプティカルフローを生成することと、
を有し、
1つ以上のオクルージョンの存在を推定することは、前記2つ以上の連続画像フレーム間の複数の変位にわたる前記識別された特徴の1つ以上に対する推定された相関コスト量を計算することを含んでいる、
方法。 - 前記識別することは、
特徴抽出器により、前記2つ以上の連続画像フレームのそれぞれから1つ以上の特徴を抽出することにより、1つ以上の特徴ピラミッドを生成することと、
前記1つ以上の特徴ピラミッドのそれぞれの少なくとも1つのレベルを前記オプティカルフロー推定器に提供することと、
を有している、請求項1に記載の方法。 - 前記特徴抽出器は、前記複数の画像フレームの第1および第2画像フレーム間の初期推定オプティカルフローで初期化され、前記初期推定オプティカルフローは、ワーピングの適用に先行して推定される、請求項2に記載の方法。
- 前記オプティカルフローおよび前記1つ以上のオクルージョンマップを、精製されたオプティカルフローを生成するために精製ネットワークに提供することを有している、請求項1から3の何れか一項に記載の方法。
- 前記オプティカルフローデコーダ、前記オクルージョン推定器、および前記精製ネットワークの少なくとも1つに、以前の時間ステップからの推定されたオプティカルフローを提供することを有している、請求項4に記載の方法。
- 前記オプティカルフローデコーダおよび前記オクルージョン推定器は、1つ以上の畳み込みニューラルネットワークを備えている、請求項1から5の何れか一項に記載の方法。
- 前記オプティカルフローのフロー座標システムを、考慮されている画像フレームのフレーム座標システムに変換することを有しており、前記変換は、バイリニア補間を伴うワーピングを有している、請求項1から6の何れか一項に記載の方法。
- 前記ワーピングは、前方ワーピングと後方ワーピングの少なくとも1つを有している、請求項7に記載の方法。
- 前記精製ネットワークは、畳み込みニューラルネットワークを含む、請求項5に記載の方法。
- 前記1つ以上の畳み込みニューラルネットワークは、前記オプティカルフローデコーダおよびオクルージョン推定器上の重み付けられたマルチタスク損失によりエンドツーエンドでトレーニングされる、請求項6に記載の方法。
- 前記ビデオシーケンスは、車両における道路シーンから得られる画像フレームを備えている、請求項1から11の何れか一項に記載の方法。
- プロセッサに、請求項1から12の何れか一項に記載の方法を実行させるように構成されている命令を有している、非一時的コンピュータ可読媒体。
- 前記非一時的コンピュータ可読媒体は、車両に搭載されている、請求項13に記載の非一時的コンピュータ可読媒体。
- 請求項1から12の何れか一項に記載されている方法を実行するように構成されているプロセッサを備えているモータービークルであって、
前記プロセッサは、少なくとも部分的には前記オプティカルフローに基づいて車両制御システムを起動するように更に構成されている、モータービークル。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2018/079903 WO2020088766A1 (en) | 2018-10-31 | 2018-10-31 | Methods for optical flow estimation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509375A JP2022509375A (ja) | 2022-01-20 |
JP7228172B2 true JP7228172B2 (ja) | 2023-02-24 |
Family
ID=64109865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021547880A Active JP7228172B2 (ja) | 2018-10-31 | 2018-10-31 | オプティカルフロー推定のための方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7228172B2 (ja) |
WO (1) | WO2020088766A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582483B (zh) * | 2020-05-14 | 2022-12-13 | 哈尔滨工程大学 | 基于空间和通道联合注意力机制的无监督学习光流估计方法 |
CN112132871B (zh) * | 2020-08-05 | 2022-12-06 | 天津(滨海)人工智能军民融合创新中心 | 一种基于特征光流信息的视觉特征点追踪方法、装置、存储介质及终端 |
CN112347996A (zh) * | 2020-11-30 | 2021-02-09 | 上海眼控科技股份有限公司 | 一种场景状态判断方法、装置、设备及存储介质 |
CN112465872B (zh) * | 2020-12-10 | 2022-08-26 | 南昌航空大学 | 一种基于可学习遮挡掩模与二次变形优化的图像序列光流估计方法 |
CN112785629A (zh) * | 2021-01-21 | 2021-05-11 | 陕西师范大学 | 一种基于无监督深度光流网络的极光运动表征方法 |
CN113658231B (zh) * | 2021-07-07 | 2023-09-26 | 北京旷视科技有限公司 | 光流预测方法、装置、电子设备及存储介质 |
CN116546183B (zh) * | 2023-04-06 | 2024-03-22 | 华中科技大学 | 基于单帧图像的具有视差效果的动态图像生成方法及系统 |
CN116883913B (zh) * | 2023-09-05 | 2023-11-21 | 长江信达软件技术(武汉)有限责任公司 | 一种基于视频流相邻帧的船只识别方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5680487A (en) * | 1991-12-23 | 1997-10-21 | Texas Instruments Incorporated | System and method for determining optical flow |
US7760911B2 (en) * | 2005-09-15 | 2010-07-20 | Sarnoff Corporation | Method and system for segment-based optical flow estimation |
US8866821B2 (en) * | 2009-01-30 | 2014-10-21 | Microsoft Corporation | Depth map movement tracking via optical flow and velocity prediction |
-
2018
- 2018-10-31 JP JP2021547880A patent/JP7228172B2/ja active Active
- 2018-10-31 WO PCT/EP2018/079903 patent/WO2020088766A1/en active Application Filing
Non-Patent Citations (5)
Title |
---|
Deqing Sun et al.,PWC-Net: CNNs for Optical Flow Using Pyramid, Warping, and Cost Volume,[online],2018年06月25日,https://arxiv.org/pdf/1709.02371.pdf |
Li Xu et al.,Motion Detail Preserving Optical Flow Estimation,[online],2012年,https://ieeexplore.ieee.org/abstract/document/6104059 |
Lijie Fan et al.,End-to-End Learning of Motion Representation for Video Understanding,[online],2018年04月02日,https://arxiv.org/pdf/1804.00413.pdf |
Ryan Kennedy et al.,Optical Flow with Geometric Occlusion Estimation and Fusion of Multiple Frames,[online],2014年,pp.1-14,https://www.cis.upenn.edu/~cjtaylor/PUBLICATIONS/pdfs/KennedyEMMCVPR2014.pdf |
Yang Wang et al.,Occlusion Aware Unsupervised Learning of Optical Flow,[online],2018年04月04日,https://arxiv.org/pdf/1711.05890.pdf |
Also Published As
Publication number | Publication date |
---|---|
WO2020088766A1 (en) | 2020-05-07 |
JP2022509375A (ja) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7228172B2 (ja) | オプティカルフロー推定のための方法 | |
Nilsson et al. | Semantic video segmentation by gated recurrent flow propagation | |
Shivakumar et al. | Dfusenet: Deep fusion of rgb and sparse depth information for image guided dense depth completion | |
US11182620B2 (en) | Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network | |
US10839543B2 (en) | Systems and methods for depth estimation using convolutional spatial propagation networks | |
EP3298576B1 (en) | Training a neural network | |
KR102235745B1 (ko) | 컨볼루션 순환 신경망을 훈련시키는 방법 및 훈련된 컨볼루션 순환 신경망을 사용하는 입력된 비디오의 의미적 세그먼트화 방법 | |
Yin et al. | Scale recovery for monocular visual odometry using depth estimated with deep convolutional neural fields | |
EP3510561A1 (en) | Predicting depth from image data using a statistical model | |
US11687773B2 (en) | Learning method and recording medium | |
Cherabier et al. | Learning priors for semantic 3d reconstruction | |
CN116686017A (zh) | 一种用于视频动作识别的时间瓶颈注意力体系结构 | |
Chang et al. | Attention-aware feature aggregation for real-time stereo matching on edge devices | |
CN109903315B (zh) | 用于光流预测的方法、装置、设备以及可读存储介质 | |
EP3298579B1 (en) | Visual data processing using energy networks | |
EP3663965A1 (en) | Method for predicting multiple futures | |
CN111325784A (zh) | 一种无监督位姿与深度计算方法及系统 | |
CN116071748A (zh) | 一种基于频域全局滤波的无监督视频目标分割方法 | |
Bayramli et al. | Raft-msf: Self-supervised monocular scene flow using recurrent optimizer | |
Kulkarni et al. | Unified transformer network for multi-weather image restoration | |
Zhang et al. | Dynamic selection of proper kernels for image deblurring: a multistrategy design | |
CN115066691A (zh) | 生成或者处理图像序列的循环单元 | |
US11756219B2 (en) | Multi-scale recurrent decoder for monocular depth estimation | |
Thakur et al. | Sceneednet: A deep learning approach for scene flow estimation | |
CN115147806A (zh) | 一种基于关键点检测车辆伪3d边界框的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7228172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |