KR20240084401A - 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 - Google Patents
연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 Download PDFInfo
- Publication number
- KR20240084401A KR20240084401A KR1020220169217A KR20220169217A KR20240084401A KR 20240084401 A KR20240084401 A KR 20240084401A KR 1020220169217 A KR1020220169217 A KR 1020220169217A KR 20220169217 A KR20220169217 A KR 20220169217A KR 20240084401 A KR20240084401 A KR 20240084401A
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- rgb
- frames
- information
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 152
- 238000013519 translation Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 본 발명의 실시예에 따른 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 실시예에 따른 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 장치를 설명하기 위한 구조도이다.
도 4은 본 발명의 실시예에 따른 학습 과정을 포함하는 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법에서 학습 알고리즘을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법에서 로컬 프레임 세트를 설정하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법에서 정합하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법의 실험 결과에 따른 효과를 설명하기 위한 도면이다.
Claims (6)
- 촬영 대상 객체가 포함되는 현재 RGB-D 프레임과 복수의 이웃 프레임을 포함하는 로컬 프레임 세트를 식별하는 과정;
상기 현재 RGB-프레임에 상기 복수의 이웃 프레임에 포함되는 각각의 프레임을 정합시키는 과정; 및
상기 정합된 로컬 프레임 세트의 화소 단위의 평균 정보를 식별하고, 상기 식별된 평균 정보를 정합된 현재 RGB-D 프레임에 반영하는 과정; 을 포함하며,
상기 복수의 이웃 프레임은 상기 현재 RGB-D 프레임을 기준으로 기 설정된 개수의 이전 프레임 및 이후 프레임을 포함하는,
연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법.
- 제1항에 있어서,
상기 로컬 프레임 세트에 기반하여 비지도 학습(unsupervised learning) 방법에 따른 과정합(overfitting) 학습을 수행하는 과정; 을 더 포함하는,
연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법.
- 제2항에 있어서,
상기 과정합(overfitting) 학습을 수행하는 과정은,
상기 로컬 프레임 세트에 포함되는 각각의 RGB-D 프레임에 대응하는 로테이션(rotation) 정보와 트랜스레이션(translation) 정보를 식별하는 과정; 및
상기 식별된 로테이션 정보와 트랜스레이션 정보에 기초하여 포인트 클라우드를 융합하여 상기 현재 RGB-프레임에 상기 복수의 이웃 프레임 투영(projection)시켰을 때 상기 현재 RGB-프레임과 투영된 결과의 차이가 최소화되도록 정합 파라미터를 학습시키는 과정; 을 포함하는,
연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 방법.
- 촬영 대상 객체가 포함되는 현재 RGB-D 프레임과 복수의 이웃 프레임을 입력 받는 입력부; 및
상기 현재 RGB-D 프레임과 상기 복수의 이웃 프레임을 포함하는 로컬 프레임 세트를 식별하고, 상기 현재 RGB-프레임에 상기 복수의 이웃 프레임에 포함되는 각각의 프레임을 정합시키며, 상기 정합된 로컬 프레임 세트의 화소 단위의 평균 정보를 식별하고, 상기 식별된 평균 정보를 정합된 현재 RGB-D 프레임에 반영하는 제어부;를 포함하며,
상기 복수의 이웃 프레임은 상기 현재 RGB-D 프레임을 기준으로 기 설정된 개수의 이전 프레임 및 이후 프레임을 포함하는,
연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 장치.
- 제5항에 있어서,
상기 제어부는,
상기 로컬 프레임 세트에 기반하여 비지도 학습(unsupervised learning) 방법에 따른 과정합(overfitting) 학습을 수행하는,
연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 장치.
- 제5항에 있어서,
상기 제어부는,
상기 로컬 프레임 세트에 포함되는 각각의 RGB-D 프레임에 대응하는 로테이션(rotation) 정보와 트랜스레이션(translation) 정보를 식별하며,
상기 식별된 로테이션 정보와 트랜스레이션 정보에 기초하여 포인트 클라우드를 융합하여 상기 현재 RGB-프레임에 상기 복수의 이웃 프레임 투영(projection)시켰을 때 상기 현재 RGB-프레임과 투영된 결과의 차이가 최소화되도록 정합 파라미터를 학습시키는,
연속적인 RGB-D 프레임 세트를 활용한 고품질 깊이 영상 생성 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169217A KR102770147B1 (ko) | 2022-12-06 | 2022-12-06 | 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 |
PCT/KR2023/021841 WO2024123159A1 (ko) | 2022-12-06 | 2023-12-28 | 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169217A KR102770147B1 (ko) | 2022-12-06 | 2022-12-06 | 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20240084401A true KR20240084401A (ko) | 2024-06-13 |
KR102770147B1 KR102770147B1 (ko) | 2025-02-18 |
Family
ID=91379794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220169217A Active KR102770147B1 (ko) | 2022-12-06 | 2022-12-06 | 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102770147B1 (ko) |
WO (1) | WO2024123159A1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150031085A (ko) * | 2013-09-13 | 2015-03-23 | 인하대학교 산학협력단 | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 |
KR101901495B1 (ko) | 2016-12-23 | 2018-09-28 | 전자부품연구원 | 다중 시점 카메라 기반 깊이 영상 추정 방법 |
KR20210145802A (ko) * | 2019-04-25 | 2021-12-02 | 베이징 긱플러스 테크놀러지 씨오. 엘티디 | 지능형 지게차 및 컨테이너 위치 및 자세 편이 검출 방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101139930B1 (ko) * | 2010-07-15 | 2012-04-30 | 중앙대학교 산학협력단 | 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 |
KR101309519B1 (ko) * | 2012-02-21 | 2013-09-24 | 중앙대학교 산학협력단 | 객체 추적 장치 및 방법 |
KR101957218B1 (ko) * | 2018-08-03 | 2019-03-12 | 주식회사 다누시스 | 기준 배경이미지 획득 시스템 및 기준 배경이미지 획득 방법 |
-
2022
- 2022-12-06 KR KR1020220169217A patent/KR102770147B1/ko active Active
-
2023
- 2023-12-28 WO PCT/KR2023/021841 patent/WO2024123159A1/ko unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150031085A (ko) * | 2013-09-13 | 2015-03-23 | 인하대학교 산학협력단 | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 |
KR101901495B1 (ko) | 2016-12-23 | 2018-09-28 | 전자부품연구원 | 다중 시점 카메라 기반 깊이 영상 추정 방법 |
KR20210145802A (ko) * | 2019-04-25 | 2021-12-02 | 베이징 긱플러스 테크놀러지 씨오. 엘티디 | 지능형 지게차 및 컨테이너 위치 및 자세 편이 검출 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102770147B1 (ko) | 2025-02-18 |
WO2024123159A1 (ko) | 2024-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636151B2 (en) | Method for estimating the speed of movement of a camera | |
CN107204012B (zh) | 降低飞行时间深度成像的功耗 | |
US12260575B2 (en) | Scale-aware monocular localization and mapping | |
EP3438777B1 (en) | Method, apparatus and computer program for a vehicle | |
US11082633B2 (en) | Method of estimating the speed of displacement of a camera | |
JP2020061128A5 (ko) | ||
CN111950426A (zh) | 目标检测方法、装置及运载工具 | |
CN104685513A (zh) | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 | |
GB2552058A (en) | Method and device for processing image data and driver assistance system for a vehicle | |
CN112184793B (zh) | 深度数据的处理方法、装置及可读存储介质 | |
US11941827B2 (en) | System and method of 3D point cloud registration with multiple 2D images | |
CN112602118A (zh) | 图像处理装置和三维测量系统 | |
JP7184203B2 (ja) | 画像処理装置、3次元計測システム、画像処理方法 | |
CN115359326A (zh) | 单目3d目标检测方法及装置 | |
JP7446320B2 (ja) | 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法 | |
US12183021B2 (en) | High dynamic range viewpoint synthesis | |
CN105335959B (zh) | 成像装置快速对焦方法及其设备 | |
CN110717593B (zh) | 神经网络训练、移动信息测量、关键帧检测的方法及装置 | |
CN119417876A (zh) | 一种单双目融合的海上目标深度估计方法 | |
Li et al. | Multi-view neural surface reconstruction with structured light | |
KR102770147B1 (ko) | 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치 | |
CN117670969A (zh) | 深度估计方法、装置、终端设备以及存储介质 | |
Vaida et al. | Automatic extrinsic calibration of LIDAR and monocular camera images | |
JP3054691B2 (ja) | フレーム処理型ステレオ画像処理装置 | |
CN113724311A (zh) | 深度图获取方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20221206 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231031 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240726 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250213 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250214 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20250214 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |