KR20210067864A - 적응적 포커스 범위 및 계층화 스캐터링을 이용한 보케 이미지들의 생성 - Google Patents
적응적 포커스 범위 및 계층화 스캐터링을 이용한 보케 이미지들의 생성 Download PDFInfo
- Publication number
- KR20210067864A KR20210067864A KR1020200115512A KR20200115512A KR20210067864A KR 20210067864 A KR20210067864 A KR 20210067864A KR 1020200115512 A KR1020200115512 A KR 1020200115512A KR 20200115512 A KR20200115512 A KR 20200115512A KR 20210067864 A KR20210067864 A KR 20210067864A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- focus
- image
- layer
- coc
- Prior art date
Links
- 230000003044 adaptive effect Effects 0.000 title description 12
- 238000000034 method Methods 0.000 claims abstract description 95
- 238000002156 mixing Methods 0.000 claims abstract description 51
- 230000000694 effects Effects 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 description 41
- 230000008569 process Effects 0.000 description 32
- 238000004891 communication Methods 0.000 description 19
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 238000009825 accumulation Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 6
- 230000001186 cumulative effect Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 2
- 244000046052 Phaseolus vulgaris Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 125000001475 halogen functional group Chemical group 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- -1 electricity Substances 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Abstract
Description
도 1은 본 개시에 따른 전자 기기를 포함하는 예시적 네트워크 구성을 도시한다.
도 2는 본 개시에 따른 전자 기기를 이용하여 보케(Bokeh) 이미지를 만들기 위한 예시적 프로세스를 도시한다.
도 3은 본 개시에 따라 계산 상의 보케를 이미지에 적용하기 위한 예시적 프로세스를 도시한다.
도 4는 본 개시에 따라 포커스 범위의 심도를 정의하는 터치 입력들을 수신하기 위한 예시적 사용자 인터페이스를 도시한다.
도 5는 본 개시에 따라 적응적 포커스 범위를 결정하는 예시적 방법을 도시한다.
도 6은 본 개시에 따라 착란원(circle of confusion(CoC)) 곡선을 결정하는 예시적 방법을 도시한다.
도 7은 본 개시에 따라 심도 공간에서 시차(disparity) 공간으로의 예시적 변환을 도시한다.
도 8a, 8b, 8c, 및 8d는 본 개시에 따라 시차 히스토그램을 이용한 예시적 멀티 해상도 시차 포커스 범위 개선을 도시한다.
도 9a 및 9b는 본 개시에 따라 어떤 심도 또는 시차 범위에 대해 정의되는 CoC 곡선들의 예시적 비교를 도시한다.
도 10은 본 개시에 따른 계층 결정 및 계층화된 스캐터링의 예시적 방법을 도시한다.
도 11은 본 개시에 따라 시차에 대해 정의된 CoC 곡선에 기반하는 다수의 계층들에 대한 예시적 정의를 도시한다.
도 12는 본 개시에 따른 예시적 커널을 도시한다.
도 13 및 14는 본 개시에 따른 보케 이미지의 최종 구성을 위한 예시적 프로세스를 도시한다.
도 15a 및 15b는 본 개시에 따른 예시적 알파(alpha) 블렌딩 맵들을 도시한다.
도 16은 본 개시에 따라 최종 보케 이미지를 생성하기 위한 이미지 계층들의 예시적 결합을 도시한다.
도 17a 및 17b는 본 개시에 따른 이미지들의 예시적 비교를 도시한다.
Claims (19)
- 적어도 하나의 프로세서를 이용하여, 한 장면에 대한 포커스 범위의 심도를 결정하는 단계;
상기 적어도 하나의 프로세서를 이용하여, 상기 포커스 범위의 심도에 기초해 상기 장면과 관련된 복수의 계층들을 결정하되, 상기 복수의 계층들 중에서 각각의 계층은 시차(disparity) 값들의 상이한 범위를 가진 이미지 데이터와 관련되는 단계; 및
상기 적어도 하나의 프로세서를 이용하여, 상기 복수의 계층들을 블렌딩하여, 전경 및 배경에 보케(Bokeh) 효과를 가지는 이미지와 상기 포커스 범위의 심도 내에서 포커싱된(focused) 이미지 데이터를 생성하는 단계를 포함하고,
상기 복수의 계층들은 상기 전경과 관련된 제1계층, 상기 포커스 범위의 심도와 관련된 제2계층, 및 상기 배경과 관련된 제3계층 중 적어도 하나를 포함하는 방법. - 제1항에 있어서, 상기 포커스 범위의 심도를 결정하는 단계는
포커스의 최대 심도를 정의하는 사용자 입력을 수신하는 단계; 및
포커스의 최소 심도를 정의하는 사용자 입력을 수신하는 단계를 포함하는 방법. - 제1항에 있어서, 상기 복수의 계층들을 결정하는 단계는
포커스의 최대 심도 및 포커스의 최소 심도를 최대 시차 및 최소 시차로 변환하는 단계;
상기 최대 시차 및 상기 최소 시차에 기반하여 착란원(CoC: circle of confusion) 곡선을 생성하는 단계; 및
상기 CoC 곡선의 상이한 부분들에 기반하여 상기 복수의 계층들을 결정하는 단계를 포함하는 방법. - 제3항에 있어서,
상기 제1계층은 상기 최대 시차 이상의 시차 값들에 대해 정의된, 상기 CoC 곡선의 일부와 관련되고,
상기 제2계층은 상기 최대 시차 및 상기 최소 시차 사이의 시차 값들에 대해 정의된, 상기 CoC 곡선의 일부와 관련되고,
상기 제3계층은 상기 최소 시차 이하의 시차 값들에 대해 정의된, 상기 CoC 곡선의 일부와 관련되는 방법. - 제1항에 있어서, 상기 복수의 계층들을 블렌딩하는 단계는
제1블렌딩 맵을 이용하여 상기 제3계층을 상기 제2계층과 블렌딩하여 블렌딩된 이미지 데이터를 생성하는 단계; 및
제2블렌딩 맵을 이용하여 상기 블렌딩된 이미지 데이터를 상기 제1계층과 블렌딩하는 단계를 포함하는 방법. - 제5항에 있어서,
커널을 이용하여 이미지 데이터에 대해 하나 이상의 스캐터링 동작들을 수행하는 단계를 더 포함하고, 상기 커널은 CoC 곡선에 기반하는 가중치들을 포함하는 방법. - 제6항에 있어서,
상기 CoC 곡선은 복수의 구간들(segments)을 포함하고,
상기 커널의 상기 가중치들은 상기 이미지 데이터와 관련된 상기 복수의 구간들에 기반하여 가변하는 방법. - 한 장면에 대한 이미지 데이터를 촬영하도록 구성되는 복수의 이미지 센서들; 및
상기 복수의 이미지 센서들과 동작가능하게 연결되어,
상기 장면에 대한 포커스 범위의 심도를 결정하고;
상기 포커스 범위의 심도에 기초해 상기 장면과 관련된 복수의 계층들을 결정하되, 상기 복수의 계층들 중에서 각각의 계층은 시차 값들의 상이한 범위를 가진 이미지 데이터와 관련되고;
상기 복수의 계층들을 블렌딩하여, 전경 및 배경에 보케(Bokeh) 효과를 가지는 이미지와 상기 포커스 범위의 심도 내에서 포커싱된 이미지 데이터를 생성하도록 구성된 적어도 하나의 프로세서를 포함하고,
상기 복수의 계층들은 상기 전경과 관련된 제1계층, 상기 포커스 범위의 심도와 관련된 제2계층, 및 상기 배경과 관련된 제3계층 중 적어도 하나를 포함하는 전자 기기. - 제8항에 있어서, 상기 포커스 범위의 심도를 결정하기 위해, 상기 적어도 하나의 프로세서는
포커스의 최대 심도를 정의하는 사용자 입력을 수신하고;
포커스의 최소 심도를 정의하는 사용자 입력을 수신하도록 구성된 전자 기기. - 제8항에 있어서, 상기 복수의 계층들을 결정하기 위해, 상기 적어도 하나의 프로세서는
포커스의 최대 심도 및 포커스의 최소 심도를 최대 시차 및 최소 시차로 변환하고;
상기 최대 시차 및 상기 최소 시차에 기반하여 CoC 곡선을 생성하고;
상기 CoC 곡선의 상이한 부분들에 기반하여 상기 복수의 계층들을 결정하도록 구성되는 전자 기기. - 제10항에 있어서,
상기 제1계층은 상기 최대 시차 이상의 시차 값들에 대해 정의된, 상기 CoC 곡선의 일부와 관련되고,
상기 제2계층은 상기 최대 시차 및 상기 최소 시차 사이의 시차 값들에 대해 정의된, 상기 CoC 곡선의 일부와 관련되고,
상기 제3계층은 상기 최소 시차 이하의 시차 값들에 대해 정의된, 상기 CoC 곡선의 일부와 관련되는 전자 기기. - 제8항에 있어서, 상기 복수의 계층들을 블렌딩하기 위해, 상기 적어도 하나의 프로세서는
제1블렌딩 맵을 이용하여 상기 제3계층을 상기 제2계층과 블렌딩하여 블렌딩된 이미지 데이터를 생성하고;
제2블렌딩 맵을 이용하여 상기 블렌딩된 이미지 데이터를 상기 제1계층과 블렌딩하도록 구성되는 전자 기기. - 제12항에 있어서, 상기 적어도 하나의 프로세서는, 커널을 이용하여 이미지 데이터에 대해 하나 이상의 스캐터링 동작들을 수행하도록 더 구성되고, 상기 커널은 CoC 곡선에 기반하는 가중치들을 포함하는 전자 기기.
- 제13항에 있어서,
상기 CoC 곡선은 복수의 구간들을 포함하고,
상기 커널의 상기 가중치들은 상기 이미지 데이터와 관련된 상기 복수의 구간들에 기반하여 가변하는 전자 기기. - 적어도 하나의 프로세서를 이용해, 입력 터치 지점에 기반하여 장면 내 포커스 위치를 결정하는 단계;
상기 적어도 하나의 프로세서를 이용해, 상기 입력 터치 지점과 관련된 포커스 범위의 심도를 초기화하는 단계; 및
상기 적어도 하나의 프로세서를 이용하여, 상기 포커스 범위의 초기 심도에 기반하여 이미지 미리보기(preview)를 생성하고, 상기 이미지 미리보기는 상기 포커스 범위의 초기 심도 내에서 포커싱되고 상기 포커스 범위의 초기 심도 밖에서 블러링(blurry)되는 단계를 포함하는 방법. - 제15항에 있어서,
상기 이미지 미리보기와 관련된 사용자 입력을 수신하고, 상기 사용자 입력은 상기 포커스 범위의 초기 심도를 수용할지 여부를 결정하는 단계; 및
상기 포커스 범위의 초기 심도를 사용하여 보케 이미지를 생성하는 단계를 더 포함하는 방법. - 제15항에 있어서,
상기 이미지 미리보기와 관련된 사용자 입력을 수신하고, 상기 사용자 입력은 정정된 포커스 범위의 심도를 정의하기 위해 포커스의 최대 심도 또는 포커스의 최소 심도 중 적어도 하나를 변경하는 단계; 및
상기 적어도 하나의 프로세서를 이용하여, 상기 정정된 포커스 범위의 심도에 기반하여 업데이트된 이미지 미리보기를 생성하는 단계를 더 포함하는 방법. - 제15항에 있어서,
상기 입력 터치 지점에 기반하여 대상의 클래스를 결정하는 단계를 더 포함하고,
상기 포커스 범위의 심도를 초기화하는 단계는 상기 대상의 클래스의 기결정된 두께에 기반하는 방법. - 제1항 내지 제7항 및 제15항 내지 제18항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2020/013538 WO2021107384A1 (en) | 2019-11-29 | 2020-10-06 | Generation of bokeh images using adaptive focus range and layered scattering |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/699,371 US11094041B2 (en) | 2019-11-29 | 2019-11-29 | Generation of bokeh images using adaptive focus range and layered scattering |
US16/699,371 | 2019-11-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210067864A true KR20210067864A (ko) | 2021-06-08 |
Family
ID=76091814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200115512A KR20210067864A (ko) | 2019-11-29 | 2020-09-09 | 적응적 포커스 범위 및 계층화 스캐터링을 이용한 보케 이미지들의 생성 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11094041B2 (ko) |
KR (1) | KR20210067864A (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230063237A1 (en) * | 2020-02-19 | 2023-03-02 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
US11727537B1 (en) * | 2022-03-24 | 2023-08-15 | Qualcomm Incorporated | Bokeh effect in variable aperture (VA) camera systems |
CN115661293B (zh) * | 2022-10-27 | 2023-09-19 | 东莘电磁科技(成都)有限公司 | 一种电磁散射中目标瞬态感应特征图像生成方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8233077B2 (en) | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
WO2014165244A1 (en) * | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
JP2014207519A (ja) | 2013-04-11 | 2014-10-30 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、および電子機器 |
US9418400B2 (en) | 2013-06-18 | 2016-08-16 | Nvidia Corporation | Method and system for rendering simulated depth-of-field visual effect |
TWI566601B (zh) | 2015-02-25 | 2017-01-11 | 光寶科技股份有限公司 | 影像處理裝置及影像景深處理方法 |
WO2016199209A1 (ja) | 2015-06-08 | 2016-12-15 | オリンパス株式会社 | ぼけ強調画像処理装置、ぼけ強調画像処理プログラム、ぼけ強調画像処理方法 |
US10104292B2 (en) * | 2016-08-04 | 2018-10-16 | Microsoft Technology Licensing, Llc | Multishot tilt optical image stabilization for shallow depth of field |
US10762649B2 (en) | 2018-03-29 | 2020-09-01 | Samsung Electronics Co., Ltd. | Methods and systems for providing selective disparity refinement |
-
2019
- 2019-11-29 US US16/699,371 patent/US11094041B2/en active Active
-
2020
- 2020-09-09 KR KR1020200115512A patent/KR20210067864A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
US11094041B2 (en) | 2021-08-17 |
US20210166353A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109565551B (zh) | 对齐于参考帧合成图像 | |
US10911691B1 (en) | System and method for dynamic selection of reference image frame | |
US11132772B2 (en) | Asymmetric normalized correlation layer for deep neural network feature matching | |
US11503266B2 (en) | Super-resolution depth map generation for multi-camera or other environments | |
US11615510B2 (en) | Kernel-aware super resolution | |
CN114747200B (zh) | 点击锁定变焦相机用户界面 | |
KR20210067864A (ko) | 적응적 포커스 범위 및 계층화 스캐터링을 이용한 보케 이미지들의 생성 | |
US11556784B2 (en) | Multi-task fusion neural network architecture | |
KR102710803B1 (ko) | 깊이 카메라를 이용한 동적 멀티 카메라 조정을 위한 장치 및 방법 | |
US11449968B2 (en) | System and method for synthetic depth-of-field effect rendering for videos | |
US11823353B2 (en) | System and method for generating bokeh image for DSLR quality depth-of-field rendering and refinement and training method for the same | |
US20240046583A1 (en) | Real-time photorealistic view rendering on augmented reality (ar) device | |
US11532091B2 (en) | Guided backpropagation-gradient updating for image processing task using redundant information from image | |
KR20210059612A (ko) | 심층 신경망 특징 매칭을 위한 비대칭 정규화 상관 계층 | |
US11816855B2 (en) | Array-based depth estimation | |
US11200653B2 (en) | Local histogram matching with global regularization and motion exclusion for multi-exposure image fusion | |
US20240185431A1 (en) | System and method for ai segmentation-based registration for multi-frame processing | |
CN112351212B (zh) | 用于多曝光图像融合的利用全局正则化和运动排除的局部直方图匹配 | |
US12141894B2 (en) | Multi-frame depth-based multi-camera relighting of images | |
US20250045867A1 (en) | Synthetic data generation for machine learning-based post-processing | |
US11847771B2 (en) | Systems and methods for quantitative evaluation of optical map quality and for data augmentation automation | |
US20240121370A1 (en) | System and method for parallax correction for video see-through augmented reality | |
US20240257324A1 (en) | Machine learning segmentation-based tone mapping in high noise and high dynamic range environments or other environments | |
US20240087190A1 (en) | System and method for synthetic data generation using dead leaves images | |
US20230252770A1 (en) | Machine learning model training framework for multi-frame image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200909 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20230911 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20200909 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20241108 Patent event code: PE09021S01D |