KR102201297B1 - 다중 플로우 기반 프레임 보간 장치 및 방법 - Google Patents
다중 플로우 기반 프레임 보간 장치 및 방법 Download PDFInfo
- Publication number
- KR102201297B1 KR102201297B1 KR1020200064766A KR20200064766A KR102201297B1 KR 102201297 B1 KR102201297 B1 KR 102201297B1 KR 1020200064766 A KR1020200064766 A KR 1020200064766A KR 20200064766 A KR20200064766 A KR 20200064766A KR 102201297 B1 KR102201297 B1 KR 102201297B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- map
- interpolation
- target
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/0137—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Television Systems (AREA)
Abstract
Description
도 2는 도 1의 와핑 프레임 획득부의 상세 구성의 일 예를 나타낸다.
도 3은 도 1의 와핑 프레임 획득부가 오프셋 벡터의 시작 위치를 조절하기 위한 팽창 파라미터의 기능을 설명하기 위한 도면이다.
도 4는 도 1의 폐색맵 획득부가 획득하는 폐색맵의 일 예를 나타낸다.
도 5는 인공 신경망을 이용한 도 1의 프레임 보간 장치를 구현 예를 나타낸다.
도 6은 도 1의 프레임 보간 장치의 프레임 보간 방식과 기존의 프레임 보간 기법 사이의 차이를 설명하기 위한 도면이다.
도 7은 도 1의 학습부의 상세 구성의 일 예를 나타낸다.
도 8은 모션이 큰 비디오와 폐색이 발생된 비디오에 대한 성능을 비교하여 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 프레임 보간 방법을 나타낸다.
300: 와핑 프레임 획득부 310: 플로우맵 획득부
311: 제1 플로우맵 획득부 312: 제2 플로우맵 획득부
320: 가중치맵 획득부 321: 제1 가중치맵 획득부
322: 제2 가중치맵 획득부 330: 프레임 와핑부
331: 제1 프레임 와핑부 332: 제2 프레임 와핑부
400: 폐색맵 획득부 500: 보간 프레임 획득부
600: 학습부 610: 프레임 결합부
611: 제1 프레임 결합부 612: 제2 프레임 결합부
620: 랜덤 선택부 630: 프레임 판별부
Claims (18)
- 다수의 프레임으로 구성된 비디오 영상에서 시간적으로 인접한 두 개의 대상 프레임을 인가받고, 미리 학습된 패턴 추정 방식에 따라 인가된 두 개의 대상 프레임 사이에서 픽셀들 간의 관계에 따른 패턴을 추정하여 모션 특징맵을 획득하는 모션 특징 추출부;
미리 학습된 패턴 추정 방식에 따라 상기 모션 특징맵의 패턴을 추정하여, 생성되어야 하는 보간 프레임의 각 픽셀이 상기 두 개의 대상 프레임 각각에서 참조해야하는 적어도 하나의 픽셀 위치를 나타내는 2개의 플로우맵과, 상기 보간 프레임의 각 픽셀에 대한 상기 두 개의 대상 프레임의 각 픽셀의 중요도를 나타내는 2개의 가중치맵을 획득하고, 두 개의 대상 프레임 각각을 상기 2개의 플로우맵과 상기 2개의 가중치맵 중 대응하는 플로우맵과 가중치맵을 이용하여 와핑하여 2개의 와핑 프레임을 획득하는 와핑 프레임 획득부;
미리 학습된 패턴 추정 방식에 따라 상기 모션 특징맵의 패턴을 추정하여, 상기 2개의 대상 프레임의 폐색 영역을 나타내는 폐색맵을 획득하는 폐색맵 획득부; 및
상기 2개의 와핑 프레임과 상기 폐색맵을 기지정된 방식으로 결합하여 상기 보간 프레임을 획득하는 보간 프레임 획득부를 포함하는 프레임 보간 장치. - 제1항에 있어서, 상기 와핑 프레임 획득부는
상기 두 개의 대상 프레임 중 제1 대상 프레임의 다수의 픽셀 중 상기 보간 프레임의 각 픽셀이 참조해야하는 픽셀들의 위치를 추정하여 제1 플로우맵을 획득하고, 제2 대상 프레임의 다수의 픽셀 중 상기 보간 프레임의 각 픽셀이 참조해야하는 적어도 하나의 픽셀들의 추정하여 제2 플로우맵을 획득하는 플로우맵 획득부;
상기 두 개의 대상 프레임 중 제1 대상 프레임의 다수의 픽셀 각각이 상기 보간 프레임의 각 픽셀에 미치는 영향도를 추정하여 제1 가중치맵을 획득하고, 제2 대상 프레임의 다수의 픽셀 각각이 상기 보간 프레임의 각 픽셀에 미치는 영향도를 추정하여 제2 가중치맵을 획득하는 가중치맵 획득부; 및
상기 제1 대상 프레임을 상기 제1 플로우맵과 상기 제1 가중치맵에 따라 와핑하여 제1 와핑 프레임을 획득하고, 상기 제2 대상 프레임을 상기 제2 플로우맵과 상기 제2 가중치맵에 따라 와핑하여 제2 와핑 프레임을 획득하는 프레임 와핑부를 포함하는 프레임 보간 장치. - 제2항에 있어서, 상기 프레임 와핑부는
상기 제1 플로우맵의 벡터 형태로 표현된 픽셀 위치에 상기 제1 가중치맵의 대응하는 가중치를 가중하고 합하여 제1 와핑 프레임의 위치별 픽셀값을 획득하고,
상기 제2 플로우맵의 벡터 형태로 표현된 픽셀 위치에 상기 제2 가중치맵의 대응하는 가중치를 가중하고 합하여 상기 제1 와핑 프레임의 위치별 픽셀값을 획득하는 프레임 보간 장치. - 제2항에 있어서, 상기 폐색맵 획득부는
상기 폐색맵이 상기 제1 대상 프레임의 폐색 영역과 상기 제2 대상 프레임의 폐색 영역이 서로 다른 지정된 값을 갖도록 생성하는 프레임 보간 장치. - 제2항에 있어서, 상기 프레임 보간 장치는
인공 신경망으로 상기 모션 특징 추출부와 상기 플로우맵 획득부, 상기 가중치맵 획득부 및 상기 폐색맵 획득부를 지도 학습 방식 또는 적대적 학습 방식 중 적어도 하나를 이용하여 학습시키기 위한 학습부를 더 포함하는 프레임 보간 장치. - 제5항에 있어서, 상기 학습부는
비디오 영상에서 특정 프레임에 대해 시간적으로 인접한 이전 프레임과 이후 프레임을 2개의 대상 프레임으로 설정하여 상기 모션 특징 추출부로 인가하고, 상기 보간 프레임 획득부에서 획득되는 보간 프레임과 특정 프레임 사이의 차를 지도 학습 손실로 계산하여 역전파하는 프레임 보간 장치. - 제5항에 있어서, 상기 학습부는
시간적 순서에 따라 상기 제1 대상 프레임과 상기 보간 프레임을 순차 배치 결합하여 제1 결합 프레임을 획득하고, 상기 보간 프레임과 상기 제2 대상 프레임을 순차 배치 및 결합하여 제2 결합 프레임을 획득하는 프레임 결합부;
상기 제1 결합 프레임 또는 상기 제2 결합 프레임 중 하나를 랜덤하게 선택하는 랜덤 선택부; 및
선택된 결합 프레임이 상기 제1 결합 프레임인지 또는 상기 제2 결합 프레임인지 여부를 판별하여 적대적 손실을 계산하여 역전파하는 프레임 판별부를 포함하는 프레임 보간 장치. - 제5항에 있어서, 상기 학습부는
비디오 영상에서 특정 프레임에 대해 시간적으로 인접한 이전 프레임과 이후 프레임을 2개의 대상 프레임으로 설정하여 상기 모션 특징 추출부로 인가하고, 상기 보간 프레임 획득부에서 획득되는 보간 프레임과 특정 프레임 사이의 차를 지도 학습 손실로 계산하여 역전파하여 지도 학습을 수행하고,
이후 상기 제1 및 제2 대상 프레임 각각과 상기 보간 프레임을 시간적 순서에 따라 순차 배치 결합하여 2개의 결합 프레임을 획득하고, 2개의 결합 프레임 중 하나를 랜덤하게 선택하여, 상기 제1 및 제2 대상 프레임 중 선택된 결합 프레임에 결합된 프레임을 판별하여 적대적 손실을 계산하고 역전파하는 프레임 보간 장치. - 다수의 프레임으로 구성된 비디오 영상에서 시간적으로 인접한 두 개의 대상 프레임을 인가받고, 미리 학습된 패턴 추정 방식에 따라 인가된 두 개의 대상 프레임 사이에서 픽셀들 간의 관계에 따른 패턴을 추정하여 모션 특징맵을 획득하는 단계;
미리 학습된 패턴 추정 방식에 따라 상기 모션 특징맵의 패턴을 추정하여, 생성되어야 하는 보간 프레임의 각 픽셀이 상기 두 개의 대상 프레임 각각에서 참조해야하는 적어도 하나의 픽셀 위치를 나타내는 2개의 플로우맵과, 상기 보간 프레임의 각 픽셀에 대한 상기 두 개의 대상 프레임의 각 픽셀의 중요도를 나타내는 2개의 가중치맵을 획득하고, 두 개의 대상 프레임 각각을 상기 2개의 플로우맵과 상기 2개의 가중치맵 중 대응하는 플로우맵과 가중치맵을 이용하여 와핑하여 2개의 와핑 프레임을 획득하는 단계;
미리 학습된 패턴 추정 방식에 따라 상기 모션 특징맵의 패턴을 추정하여, 상기 2개의 대상 프레임의 폐색 영역을 나타내는 폐색맵을 획득하는 단계; 및
상기 2개의 와핑 프레임과 상기 폐색맵을 기지정된 방식으로 결합하여 상기 보간 프레임을 획득하는 단계를 포함하는 프레임 보간 방법. - 제10항에 있어서, 상기 와핑 프레임을 획득하는 단계는
상기 두 개의 대상 프레임 중 제1 대상 프레임의 다수의 픽셀 중 상기 보간 프레임의 각 픽셀이 참조해야하는 픽셀들의 위치를 추정하여 제1 플로우맵을 획득하고, 제2 대상 프레임의 다수의 픽셀 중 상기 보간 프레임의 각 픽셀이 참조해야하는 적어도 하나의 픽셀들의 추정하여 제2 플로우맵을 획득하는 단계;
상기 두 개의 대상 프레임 중 제1 대상 프레임의 다수의 픽셀 각각이 상기 보간 프레임의 각 픽셀에 미치는 영향도를 추정하여 제1 가중치맵을 획득하고, 제2 대상 프레임의 다수의 픽셀 각각이 상기 보간 프레임의 각 픽셀에 미치는 영향도를 추정하여 제2 가중치맵을 획득하는 단계; 및
제1 와핑 프레임을 획득하기 위해 상기 제1 대상 프레임을 상기 제1 플로우맵과 상기 제1 가중치맵에 따라 와핑하고, 제2 와핑 프레임을 획득하기 위해 상기 제2 대상 프레임을 상기 제2 플로우맵과 상기 제2 가중치맵에 따라 와핑하는 단계를 포함하는 프레임 보간 방법. - 제11항에 있어서, 상기 와핑하는 단계는
상기 제1 플로우맵의 벡터 형태로 표현된 픽셀 위치에 상기 제1 가중치맵의 대응하는 가중치를 가중하고 합하여 제1 와핑 프레임의 위치별 픽셀값을 획득하는 단계; 및
상기 제2 플로우맵의 벡터 형태로 표현된 픽셀 위치에 상기 제2 가중치맵의 대응하는 가중치를 가중하고 합하여 상기 제1 와핑 프레임의 위치별 픽셀값을 획득하는 단계를 포함하는 프레임 보간 방법. - 제11항에 있어서, 상기 폐색맵을 획득하는 단계는
상기 폐색맵이 상기 제1 대상 프레임의 폐색 영역과 상기 제2 대상 프레임의 폐색 영역이 서로 다른 지정된 값을 갖도록 생성하는 프레임 보간 방법. - 제11항에 있어서, 상기 프레임 보간 방법은
인공 신경망을 이용하여 수행되는 상기 모션 특징맵을 획득하는 단계와 상기 플로우맵을 획득하는 단계, 상기 가중치맵을 획득하는 단계 및 상기 폐색맵을 획득하는 단계를 지도 학습 방식 또는 적대적 학습 방식 중 적어도 하나를 이용하여 학습시키기 위한 학습 단계를 더 포함하는 프레임 보간 방법. - 제14항에 있어서, 상기 학습 단계는
비디오 영상에서 특정 프레임에 대해 시간적으로 인접한 이전 프레임과 이후 프레임을 2개의 대상 프레임으로 설정하는 단계; 및
보간 프레임과 상기 특정 프레임 사이의 차를 지도 학습 손실로 계산하여 역전파하는 단계를 포함하는 프레임 보간 방법. - 제14항에 있어서, 상기 학습 단계는
시간적 순서에 따라 상기 제1 대상 프레임과 상기 보간 프레임을 순차 배치 결합하여 제1 결합 프레임을 획득하고, 상기 보간 프레임과 상기 제2 대상 프레임을 순차 배치 및 결합하여 제2 결합 프레임을 획득하는 단계;
상기 제1 결합 프레임 또는 상기 제2 결합 프레임 중 하나를 랜덤하게 선택하는 단계; 및
선택된 결합 프레임이 상기 제1 결합 프레임인지 또는 상기 제2 결합 프레임인지 여부를 판별하여 적대적 손실을 계산하여 역전파하는 단계를 포함하는 프레임 보간 방법. - 제14항에 있어서, 상기 학습 단계는
비디오 영상에서 특정 프레임에 대해 시간적으로 인접한 이전 프레임과 이후 프레임을 2개의 대상 프레임으로 설정하여 획득되는 보간 프레임과 특정 프레임 사이의 차를 지도 학습 손실로 계산하여 역전파하여 지도 학습을 수행하는 단계; 및
이후 상기 제1 및 제2 대상 프레임 각각과 상기 보간 프레임을 시간적 순서에 따라 순차 배치 결합하여 2개의 결합 프레임을 획득하고, 2개의 결합 프레임 중 하나를 랜덤하게 선택하여, 상기 제1 및 제2 대상 프레임 중 선택된 결합 프레임에 결합된 프레임을 판별하여 적대적 손실을 계산하고 역전파하는 단계를 포함하는 프레임 보간 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200064766A KR102201297B1 (ko) | 2020-05-29 | 2020-05-29 | 다중 플로우 기반 프레임 보간 장치 및 방법 |
PCT/KR2020/011173 WO2021241804A1 (ko) | 2020-05-29 | 2020-08-21 | 다중 플로우 기반 프레임 보간 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200064766A KR102201297B1 (ko) | 2020-05-29 | 2020-05-29 | 다중 플로우 기반 프레임 보간 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102201297B1 true KR102201297B1 (ko) | 2021-01-08 |
Family
ID=74127818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200064766A Active KR102201297B1 (ko) | 2020-05-29 | 2020-05-29 | 다중 플로우 기반 프레임 보간 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102201297B1 (ko) |
WO (1) | WO2021241804A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837136A (zh) * | 2021-09-29 | 2021-12-24 | 深圳市慧鲤科技有限公司 | 视频插帧方法及装置、电子设备和存储介质 |
WO2022197066A1 (en) * | 2021-03-16 | 2022-09-22 | Samsung Electronics Co., Ltd. | Pixel blending for synthesizing video frames with occlusion and watermark handling |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114205648B (zh) * | 2021-12-07 | 2024-06-04 | 网易(杭州)网络有限公司 | 插帧方法及装置 |
US12283060B2 (en) * | 2022-04-06 | 2025-04-22 | Adobe Inc. | Splatting-based digital image synthesis |
CN115883764B (zh) * | 2023-02-08 | 2023-05-23 | 吉林大学 | 一种基于数据协同的水下高速视频插帧方法及其系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005339422A (ja) * | 2004-05-31 | 2005-12-08 | Rikogaku Shinkokai | 時系列画像のモーション推定方法 |
KR100698640B1 (ko) * | 2005-12-30 | 2007-03-21 | 고려대학교 산학협력단 | 와핑 변환을 이용한 프레임 보간 방법 및 그 장치 |
JP2008244846A (ja) * | 2007-03-27 | 2008-10-09 | Toshiba Corp | フレーム補間装置及びその方法 |
KR20100044984A (ko) * | 2008-10-23 | 2010-05-03 | 삼성전자주식회사 | 움직임 궤적을 이용한 프레임률 향상 장치 및 방법 |
KR102066012B1 (ko) | 2017-06-27 | 2020-01-14 | 한양대학교 산학협력단 | 보간 프레임을 생성하기 위한 움직임 예측 방법 및 장치 |
KR20200057844A (ko) * | 2018-11-15 | 2020-05-27 | 이화여자대학교 산학협력단 | 학습네트워크 기반의 비디오 보간 방법 및 비디오 보외 방법 |
-
2020
- 2020-05-29 KR KR1020200064766A patent/KR102201297B1/ko active Active
- 2020-08-21 WO PCT/KR2020/011173 patent/WO2021241804A1/ko active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005339422A (ja) * | 2004-05-31 | 2005-12-08 | Rikogaku Shinkokai | 時系列画像のモーション推定方法 |
KR100698640B1 (ko) * | 2005-12-30 | 2007-03-21 | 고려대학교 산학협력단 | 와핑 변환을 이용한 프레임 보간 방법 및 그 장치 |
JP2008244846A (ja) * | 2007-03-27 | 2008-10-09 | Toshiba Corp | フレーム補間装置及びその方法 |
KR20100044984A (ko) * | 2008-10-23 | 2010-05-03 | 삼성전자주식회사 | 움직임 궤적을 이용한 프레임률 향상 장치 및 방법 |
KR102066012B1 (ko) | 2017-06-27 | 2020-01-14 | 한양대학교 산학협력단 | 보간 프레임을 생성하기 위한 움직임 예측 방법 및 장치 |
KR20200057844A (ko) * | 2018-11-15 | 2020-05-27 | 이화여자대학교 산학협력단 | 학습네트워크 기반의 비디오 보간 방법 및 비디오 보외 방법 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022197066A1 (en) * | 2021-03-16 | 2022-09-22 | Samsung Electronics Co., Ltd. | Pixel blending for synthesizing video frames with occlusion and watermark handling |
US12192673B2 (en) | 2021-03-16 | 2025-01-07 | Samsung Electronics Co., Ltd. | Accurate optical flow interpolation optimizing bi-directional consistency and temporal smoothness |
US12200398B2 (en) | 2021-03-16 | 2025-01-14 | Samsung Electronics Co., Ltd. | Pixel blending for synthesizing video frames with occlusion and watermark handling |
CN113837136A (zh) * | 2021-09-29 | 2021-12-24 | 深圳市慧鲤科技有限公司 | 视频插帧方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021241804A1 (ko) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102201297B1 (ko) | 다중 플로우 기반 프레임 보간 장치 및 방법 | |
Liao et al. | DR-GAN: Automatic radial distortion rectification using conditional GAN in real-time | |
AU2019280047B9 (en) | Correspondence neural networks: a joint appearance and motion representation for video | |
Tokmakov et al. | Learning motion patterns in videos | |
Fischer et al. | Flownet: Learning optical flow with convolutional networks | |
Dosovitskiy et al. | Flownet: Learning optical flow with convolutional networks | |
US12260609B2 (en) | Behavior recognition method and system, electronic device and computer-readable storage medium | |
TW202036461A (zh) | 用於差異估測的系統及用於系統的差異估測的方法 | |
US7986813B2 (en) | Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor | |
CN110163887B (zh) | 基于运动插值估计与前景分割相结合的视频目标跟踪方法 | |
US20140118482A1 (en) | Method and apparatus for 2d to 3d conversion using panorama image | |
EP2966616B1 (en) | Method and apparatus for tracking superpixels between related images | |
CN102025959A (zh) | 从低清晰度视频产生高清晰度视频的系统与方法 | |
WO2009119347A1 (ja) | 画像処理システム、画像処理方法および画像処理用プログラムが格納された記録媒体 | |
WO2017168462A1 (en) | An image processing device, an image processing method, and computer-readable recording medium | |
KR102310789B1 (ko) | 다양한 시점에서 연속적으로 획득된 영상을 활용한 카메라 자세 및 깊이 추정 장치 및 방법 | |
KR100987412B1 (ko) | 멀티프레임을 고려한 비디오 오브젝트 매팅 시스템 및 방법 | |
CN113724155A (zh) | 用于自监督单目深度估计的自提升学习方法、装置及设备 | |
KR20210129503A (ko) | 자기 집중 방식 객체 추적 장치 및 방법 | |
KR102186764B1 (ko) | 사이클 일관성 기반 옵티컬플로우 및 디스패리티 추정 장치 및 방법 | |
CN112131991B (zh) | 一种基于事件相机的数据关联方法 | |
Dong et al. | MAL: motion-aware loss with temporal and distillation hints for self-supervised depth estimation | |
JP2018120402A (ja) | イベント検出装置、イベント検出方法、プログラム | |
KR101919879B1 (ko) | 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치 및 방법 | |
CN110942463A (zh) | 一种基于生成对抗网络的视频目标分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200529 |
|
PA0201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210104 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210105 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210105 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |