KR102500836B1 - 광각 영상 처리 방법 및 이를 위한 장치 - Google Patents
광각 영상 처리 방법 및 이를 위한 장치 Download PDFInfo
- Publication number
- KR102500836B1 KR102500836B1 KR1020160124244A KR20160124244A KR102500836B1 KR 102500836 B1 KR102500836 B1 KR 102500836B1 KR 1020160124244 A KR1020160124244 A KR 1020160124244A KR 20160124244 A KR20160124244 A KR 20160124244A KR 102500836 B1 KR102500836 B1 KR 102500836B1
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- dewarping
- region
- corrected
- regions
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000012545 processing Methods 0.000 title claims description 58
- 238000009877 rendering Methods 0.000 claims abstract description 49
- 238000003672 processing method Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/0012—Context preserving transformation, e.g. by using an importance map
- G06T3/0018—Fisheye, wide-angle transformation
-
- G06T5/77—
-
- G06T3/18—
-
- G06T3/047—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/0006—Affine transformations
-
- G06T3/02—
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/52—Parallel processing
Abstract
본 발명의 일 실시예에 따른 광각 영상 처리 방법은 광각 카메라에서 촬영된 원본 영상을 수신하는 단계, 상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 단계, 상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하는 단계, 및 상기 복수의 디워핑 맵들에 기초하여, 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 단계를 포함한다.
Description
본 발명은 광각 영상 처리 방법 및 이를 위한 장치에 관한 것이다.
어안 카메라는 공공장소, 예컨대 기차역, 시장, 거리의 교차로, 및 에이전시, 도서관, 법정, 교도소 등의 공공빌딩을 모니터링하기 위하여 사용된다. 또한 어안 카메라는 민간부문, 예컨대 경보 시스템 또는 주의가 필요한 개인들을 감시하기 위해 사용된다. 어안 카메라는 실내 및 실외 애플리케이션 모두에 대하여 적합할 수 있다.
본 발명이 해결하고자 하는 과제는 사용자 인터페이스에 대한 선택이 자유로운 광각 영상 처리 기술을 제공하는데 있다.
본 발명의 일 실시예에 따른 광각 영상 처리 방법은 광각 카메라에서 촬영된 원본 영상을 수신하는 단계, 상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 단계, 상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하는 단계, 및 상기 복수의 디워핑 맵들에 기초하여, 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 단계를 포함한다.
본 실시예에서, 상기 복수의 관심 영역들 중 하나인 제1 관심 영역을 삭제하는 사용자 입력을 수신하는 단계 및 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하는 단계를 더 포함할 수 있다.
본 실시예에서, 상기 복수의 관심 영역들 이외의 제2 관심 영역을 선택하는 사용자 입력을 수신하는 단계, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하는 단계, 및 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하는 단계를 더 포함할 수 있다.
본 실시예에서, 상기 복수의 보정 영상들에 우선순위를 부여하는 단계, 상기 제2 관심 영역을 선택하는 사용자 입력에 대응하여, 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상에 대응하는 제1 디워핑 맵을 삭제하는 단계를 포함할 수 있다.
본 실시예에서, 제1 관심 영역을 제2 관심 영역으로 변경하는 사용자 입력을 수신하는 단계, 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하고, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하는 단계, 및 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하는 단계를 더 포함하고, 상기 제1 관심 영역은 상기 복수의 관심 영역들 중 하나이고, 상기 제2 관심 영역은 상기 복수의 관심 영역들과 무관할 수 있다.
본 실시예에서, 상기 광각 카메라는 어안 카메라일 수 있다.
본 실시예에서, 상기 복수의 디워핑 맵들은 각각, 관심 영역에 속하는 원본 픽셀들의 위치 값과 보정 영상을 구성하는 보정 픽셀들의 위치 값을 매핑할 수 있다.
본 실시예에서, 상기 관심 영역에 속하는 상기 원본 픽셀들의 위치 값은, 팬(pan) 각도, 틸트(tilt) 각도, 및 줌(zoom) 배율을 포함하고, 상기 보정 영상을 구성하는 보정 픽셀들의 위치 값은, X좌표 값 및 Y좌표 값을 포함할 수 있다.
본 실시예에서, 상기 복수의 보정 영상들을 렌더링하는 단계는, 상기 원본 영상의 프레임 레이트를 측정하는 단계, 및 상기 프레임 레이트가 기준 프레임 레이트 미만인 경우, 상기 복수의 보정 영상들 중 적어도 하나의 보정 영상의 적어도 일부를 스킵하여 렌더링하는 단계를 포함할 수 있다.
본 실시예에서, 상기 복수의 보정 영상들에 우선순위를 부여하는 단계;를 더 포함하고, 상기 적어도 하나의 보정 영상은 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상을 포함할 수 있다.
본 발명의 일 실시예에 따른 광각 영상 처리 장치는 광각 카메라에서 촬영된 원본 영상을 수신하는 통신 인터페이스, 상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 사용자 인터페이스, 상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하고, 상기 복수의 디워핑 맵들에 기초하여 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 프로세서, 및 상기 복수의 디워핑 맵들을 저장하는 메모리를 포함한다.
본 실시예에서, 상기 사용자 인터페이스는, 상기 복수의 관심 영역들 중 하나인 제1 관심 영역을 삭제하는 사용자 입력을 수신하고, 상기 프로세서는, 상기 메모리로부터 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제할 수 있다.
본 실시예에서, 상기 사용자 인터페이스는, 상기 복수의 관심 영역들 이외의 제2 관심 영역을 선택하는 사용자 입력을 수신하고, 상기 프로세서는, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하고, 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하고, 상기 메모리는, 상기 제2 디워핑 맵을 더 저장할 수 있다.
본 실시예에서, 상기 프로세서는, 상기 복수의 보정 영상들에 우선순위를 부여하고, 상기 제2 관심 영역을 선택하는 사용자 입력에 대응하여 상기 메모리로부터 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상에 대응하는 제1 디워핑 맵을 삭제할 수 있다.
본 실시예에서, 상기 사용자 인터페이스는, 제1 관심 영역을 제2 관심 영역으로 변경하는 사용자 입력을 수신하고, 상기 프로세서는, 상기 메모리로부터 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하고, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하고, 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하고, 상기 제1 관심 영역은 상기 복수의 관심 영역들 중 하나이고, 상기 제2 관심 영역은 상기 복수의 관심 영역들과 무관할 수 있다.
본 실시예에서, 상기 광각 카메라는 어안 카메라일 수 있다.
본 실시예에서, 상기 복수의 디워핑 맵들은 각각, 관심 영역에 속하는 원본 픽셀들의 위치 값과 보정 영상을 구성하는 보정 픽셀들의 위치 값을 매핑할 수 있다.
본 실시예에서, 상기 관심 영역에 속하는 상기 원본 픽셀들의 위치 값은, 팬(pan) 각도, 틸트(tilt) 각도, 및 줌(zoom) 배율을 포함하고, 상기 보정 영상을 구성하는 보정 픽셀들의 위치 값은, X좌표 값 및 Y좌표 값을 포함할 수 있다.
본 실시예에서, 상기 프로세서는, 상기 원본 영상의 프레임 레이트를 측정하고, 상기 프레임 레이트가 기준 프레임 레이트 미만인 경우에는 상기 복수의 보정 영상들 중 적어도 하나의 보정 영상의 적어도 일부를 스킵하여 렌더링할 수 있다.
본 실시예에서, 상기 프로세서는, 상기 복수의 보정 영상들에 우선순위를 부여하고, 상기 적어도 하나의 보정 영상은 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상을 포함할 수 있다.
본 발명의 일 실시예에 따른 광각 영상 처리 방법은, 클라이언트 단말에 의하여 광각 카메라에서 촬영된 원본 영상을 수신하는 단계, 상기 클라이언트 단말에 의하여 상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 단계, 서버에 의하여 상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하는 단계, 및 상기 클라이언트 단말에 의하여 상기 복수의 디워핑 맵들에 기초하여, 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 단계를 포함한다.
본 실시예에서, 상기 클라이언트 단말에 의하여 상기 복수의 관심 영역들 중 하나인 제1 관심 영역을 삭제하는 사용자 입력을 수신하는 단계, 및 상기 서버에 의하여 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하는 단계를 더 포함할 수 있다.
본 실시예에서, 상기 클라이언트 단말에 의하여 상기 복수의 관심 영역들 이외의 제2 관심 영역을 선택하는 사용자 입력을 수신하는 단계, 상기 서버에 의하여 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하는 단계, 및 상기 클라이언트 단말에 의하여 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하는 단계를 더 포함할 수 있다.
본 발명의 실시예들에 따르면, 하나의 원본 영상에 대한 복수의 보정 영상들이 복수의 스레드(thread)들을 통해 병렬 처리되므로, 광각 영상 처리 성능을 향상시킬 수 있다.
또한, 본 발명의 실시예들에 따르면, 새로운 관심 영역이 추가되거나 기존의 관심 영역이 삭제된다 하더라도, 관심 영역 전체에 대한 처리가 반복되는 것을 방지할 수 있으므로, 광각 영상 처리를 위한 자원을 절약할 수 있다.
또한, 본 발명의 실시예들에 따르면, 사업자가 뷰어 애플리케이션에 필요한 모든 경우의 API를 정의하지 않는 경우에도 동적인 사용자 인터페이스 및 감시 화면을 제공할 수 있다.
따라서, 사용자 경험에 보다 적합하고 자유로운 광각 영상 처리 기술을 제공할 수 있다.
도 1은 일 실시예에 따른 광각 영상 처리 장치의 구성도이다.
도 2 및 도 3은 일 실시예에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 일 실시예에 따른 관심 영역 삭제에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 5a 및 도 5b는 일 실시예에 따른 관심 영역 추가에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 6a 및 도 6b는 일 실시예에 따른 관심 영역 변경에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 보정 영상 렌더링에 관한 광각 영상 처리 방법을 설명하기 위한 흐름도이다.
도 2 및 도 3은 일 실시예에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 일 실시예에 따른 관심 영역 삭제에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 5a 및 도 5b는 일 실시예에 따른 관심 영역 추가에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 6a 및 도 6b는 일 실시예에 따른 관심 영역 변경에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 보정 영상 렌더링에 관한 광각 영상 처리 방법을 설명하기 위한 흐름도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
도 1은 일 실시예에 따른 광각 영상 처리 장치의 구성도이다.
도 1을 참조하면, 광각 영상 처리 장치(100)는 광각 카메라(10)로부터 수신한 원본 영상을 처리한다.
광각 카메라(10)는 감시 영역을 촬영하여 감시 영역에 대한 원본 영상을 획득한다. 광각 카메라(10)는 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다.
광각 카메라(10)는 180도 이상의 화각을 가지는 어안 카메라(fisheye camera)일 수 있다. 광각 카메라(10)에서 촬영된 원본 영상(original image)은 광각 영상으로서 다양한 왜곡을 가질 수 있다.
광각 영상 처리 장치(100)는 원본 영상의 왜곡을 보정한 보정 영상을 출력한다. 광각 영상 처리 장치(100)는 보정 영상을 다양한 모드로 출력할 수 있다. 광각 영상 처리 장치(100)는 뷰어 애플리케이션(viewer application)에서 제공되는 정적인 뷰 모드 및 사용자의 자유로운 선택에 따른 동적인 뷰 모드를 제공할 수도 있다.
광각 영상 처리 장치(100)는 통신 인터페이스(110), 사용자 인터페이스(120), 프로세서(130), 메모리(140), 및 디스플레이 모듈(150)을 포함한다.
통신 인터페이스(110)는 광각 카메라(10)에서 촬영된 원본 영상을 수신한다.
통신 인터페이스(110)는 예를 들어, 무선 네트워크, 유선 네트워크, 인터넷과 같은 공용 네트워크, 사설 네트워크, 모바일 통신 네트워크용 광역 시스템(global system for mobile communications, GSM) 네트워크, 범용 패킷 무선 네트워크(general packet radio network, GPRS), 근거리 네트워크(local area network, LAN), 광역 네트워크(wide area network, WAN), 거대도시 네트워크(metropolitan area network, MAN), 셀룰러 네트워크, 공중 전화 교환 네트워크(public switched telephone network, PSTN), 개인 네트워크(personal area network), 블루투스(bluetooth), Wi-Fi 다이렉트(Wi-Fi Direct), 근거리장 통신(Near Field communication), 초 광 대역(Ultra Wide band), 이들의 조합, 또는 임의의 다른 네트워크를 통해 광각 카메라(10)와 통신할 수 있다.
사용자 인터페이스(120)는 키보드, 마우스, 버튼, 돔 스위치(dome switch), 조그 휠, 조그 스위치, 마이크, 포인터, 터치 패널 등과 같이 사용자가 원본 영상의 원하는 영역을 선택할 수 있도록 제공되는 입력 수단을 포함할 수 있다.
사용자 인터페이스(120)는 원본 영상에서 복수의 관심 영역(Region Of Interest, ROI)들을 선택하는 사용자 입력을 수신한다. 예를 들어, 사용자 인터페이스(120)는 터치 스크린 상에 표시된 원본 영상의 복수의 영역을 터치하는 사용자 입력을 수신할 수 있다. 관심 영역은 다각형일 수 있고, 이에 한정하지 않는다.
한편, 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나를 삭제하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나를 터치하여 원본 영상의 외부로 드래그하는 사용자 입력을 수신할 수 있다.
한편, 사용자 인터페이스(120)는 복수의 관심 영역들 이외의 관심 영역을 추가하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(120)는 복수의 관심 영역들 이외의 영역을 터치하는 사용자 입력을 수신할 수 있다.
한편, 사용자 인터페이스(120)는 관심 영역을 변경하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나를 터치하여 복수의 관심 영역들 이외의 영역으로 드래그하는 사용자 입력을 수신할 수 있다.
이처럼, 본 발명의 실시예들에 따르면, 뷰어 애플리케이션의 API(Application Programming Interface) 이외에도 사용자가 관심 영역을 자유롭게 선택할 수 있는 동적인 인터페이스를 제공함으로써, 사용자 경험에 적합한 광각 영상 처리 기술을 제공할 수 있다.
프로세서(130)는 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하고, 복수의 디워핑 맵들에 기초하여 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링한다.
프로세서(130)는 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 각각 생성할 수 있다.
디워핑 맵(dewarping map)은 관심 영역에 속하는 원본 픽셀들의 위치 값과 보정 영상을 구성하는 보정 픽셀들의 위치 값을 매핑하는 룩업 테이블일 수 있다.
원본 픽셀은 원본 영상을 구성하는 픽셀들을 의미할 수 있다. 원본 픽셀의 형상은 왜곡된 사각형일 수 있다. 원본 픽셀의 위치 값은 팬(pan) 각도, 틸트(tilt) 각도, 및 줌(zoom) 배율을 포함할 수 있다.
보정 픽셀의 형상은 사각형일 수 있다. 보정 픽셀의 위치 값은 X좌표 값 및 Y좌표 값을 포함할 수 있다.
프로세서(130)는 복수의 디워핑 맵들에 기초하여 복수의 보정 영상들을 각각 렌더링(rendering)할 수 있다. 프로세서(130)는 복수의 보정 영상들에 우선순위를 부여할 수 있다.
상세하게는, 프로세서(130)는 디워핑 맵에 기초하여 보정 픽셀에 원본 픽셀의 픽셀 값을 기록함으로써, 보정 영상을 렌더링할 수 있다.
한편, 프로세서(130)는 메모리(140)로부터 복수의 디워핑 맵들 중 하나를 삭제할 수 있다. 프로세서(130)는 복수의 관심 영역들 중 하나를 삭제하는 사용자 입력에 대응하여, 삭제된 관심 영역에 대응하는 디워핑 맵을 삭제할 수 있다.
이때, 삭제된 디워핑 맵에 대응하는 보정 영상의 렌더링은 중단되지만, 삭제되지 않은 디워핑 맵에 대응하는 보정 영상의 렌더링은 유지될 수 있다. 이처럼, 본 실시예에 따르면, 복수의 디워핑 맵에 대한 생성 및 복수의 보정 영상들에 대한 렌더링이 병렬적으로 처리되므로, 광각 영상 처리 성능을 향상시킬 수 있다.
한편, 프로세서(130)는 복수의 관심 영역들 이외의 관심 영역을 추가하는 사용자 입력에 대응하여, 추가된 관심 영역에 대응하는 디워핑 맵을 메모리(140)에 추가할 수 있다.
이때, 프로세서(130)는 복수의 관심 영역들 이외의 관심 영역을 추가하는 사용자 입력에 대응하여, 메모리(140)로부터 우선순위가 가장 낮은 보정 영상에 대응하는 디워핑 맵을 삭제할 수 있다.
즉, 사용자가 관심 영역을 추가하고자 하는 경우, 기존의 관심 영역에 대한 디워핑 맵 생성 및 보정 영상의 렌더링은 그대로 유지되면서, 추가된 관심 영역에 대한 디워핑 맵 생성 및 보정 영상 렌더링이 추가될 뿐이다.
또한, 사용자가 새로운 관심 영역을 추가함으로써 기존의 관심 영역에 대한 디워핑 맵이 삭제되고 기존의 관심 영역에 대한 보정 영상의 렌더링이 중단된다 하더라도, 삭제되지 않은 디워핑 맵에 대응하는 보정 영상의 렌더링은 그대로 유지될 수 있다.
이처럼, 본 실시예에 따르면, 새로운 관심 영역이 추가되거나 기존의 관심 영역이 삭제된다 하더라도, 관심 영역 전체에 대한 처리가 반복되는 것을 방지할 수 있으므로, 광각 영상 처리를 위한 자원을 절약할 수 있다.
한편, 프로세서(130)는 관심 영역을 변경하는 사용자 입력에 대응하여, 메모리(140)로부터 변경 전 관심 영역에 대응하는 디워핑 맵을 삭제하고, 변경 후 관심 영역에 대응하는 디워핑 맵을 메모리(140)에 추가할 수 있다.
이때에도, 삭제된 디워핑 맵에 대응하는 보정 영상의 렌더링은 중단되고, 삭제되지 않은 디워핑 맵에 대응하는 보정 영상의 렌더링은 유지되면서, 새로운 디워핑 맵에 대응하는 보정 영상의 렌더링이 추가될 뿐이다. 따라서, 새로운 관심 영역이 추가되거나 기존의 관심 영역이 삭제된다 하더라도, 관심 영역 전체에 대한 처리가 반복되는 것을 방지할 수 있다.
프로세서(130)는 원본 영상의 프레임 레이트(frame rate)를 측정하고, 측정된 프레임 레이트가 기준 프레임 레이트 미만인 경우에는 복수의 보정 영상들 중 적어도 하나의 보정 영상의 적어도 일부를 스킵하여 렌더링할 수 있다.
원본 영상은 스트리밍 데이터일 수 있으며, 프로세서(130)는 원본 영상의 프레임 레이트를 측정할 수 있다.
이때, 프로세서(130)는 측정된 프레임 레이트가 기준 프레임 레이트 미만인 경우, 광각 영상 처리의 부하가 과도하다고 판단할 수 있다.
따라서, 프로세서(130)는 광각 영상 처리의 부하를 줄이기 위하여, 현재 렌더링되고 있는 복수의 보정 영상들 중 적어도 하나의 보정 영상을 선택하고, 선택된 보정 영상의 적어도 일부 프레임을 스킵하여 렌더링할 수 있다. 이때, 프로세서(130)는 현재 렌더링되고 있는 복수의 보정 영상들 중 우선순위가 가장 낮은 보정 영상을 선택할 수 있다.
예를 들어, 기준 프레임 레이트가 16fps(frame per second)이고, 원본 영상의 프레임 레이트가 15fps인 경우, 프로세서(130)는 복수의 보정 영상들 중 적어도 하나의 보정 영상을 선택하고, 선택된 보정 영상의 적어도 일부 프레임을 스킵하여 렌더링할 수 있다.
메모리(140)는 복수의 디워핑 맵들을 서로 구별하여 저장한다.
메모리(140)는 프로세서(130)의 제어에 따라, 복수의 디워핑 맵들을 저장 또는 삭제할 수 있다.
디스플레이 모듈(150)은 원본 영상 및 복수의 보정 영상들 중 적어도 하나를 화면에 표시할 수 있다.
디스플레이 모듈(150)은 원본 영상을 화면에 표시할 수 있다. 원본 영상이 화면에 표시되면, 사용자는 원본 영상에서 복수의 관심 영역들을 선택하거나, 복수의 관심 영역들 중 하나를 삭제하거나, 복수의 관심 영역들 이외의 관심 영역을 추가하거나, 관심 영역을 변경할 수 있다.
디스플레이 모듈(150)은 보정 영상을 화면에 표시할 수 있다. 디스플레이 모듈(150)은 프로세서(130)에 의해 렌더링된 보정 영상을 화면을 통해 출력할 수 있다.
디스플레이 모듈(150)은 화면을 분할하여 원본 영상 및 복수의 보정 영상들 중 적어도 하나를 동시에 표시할 수 있다. 디스플레이 모듈(150)은 뷰어 애플리케이션의 API에 기초하여, 화면이 4분할된 쿼드 뷰(quad view)를 제공할 수 있다. 디스플레이 모듈(150)은 사용자 선택에 기초하여, 화면이 5분할된 펜타 뷰(penta view)를 제공할 수도 있다.
이처럼, 본 실시예들에 따르면, 사업자가 뷰어 애플리케이션에 필요한 모든 경우의 API를 정의하지 않는 경우에도, 동적인 사용자 인터페이스 및 감시 화면을 제공할 수 있다. 따라서, 사용자 경험에 보다 적합하고 자유로운 광각 영상 처리 기술을 제공할 수 있다.
본 발명의 실시 예들에 따른 광각 영상 처리 장치(100)는 하나의 물리적 장치로 구현될 수도 있고, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해 광각 영상 처리 장치(100)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되거나 설치되고, 나머지 일부는 다른 물리적 장치로 구현되거나 설치될 수도 있다. 이때, 어느 하나의 물리적 장치는 클라이언트 단말의 일부로 구현될 수 있고, 다른 물리적 장치는 서버의 일부로 구현될 수 있다. 구현 예에 따라서는, 광각 영상 처리 장치(100)에 포함된 각각의 구성요소(~부) 역시 서로 다른 물리적 장치에 분산 배치될 수 있으며, 분산 배치된 구성들이 유기적으로 결합하여 본 명세서에서 정의하는 기능 및/또는 동작을 수행할 수 있도록 구현될 수도 있다.
이하에서는, 본 발명의 다양한 실시 예들 중에서 클라이언트 단말에 구비되는 광각 영상 처리 장치(100)의 구성 및 동작에 관하여 상세하게 설명하기로 한다. 클라이언트 단말에 구비되는 광각 영상 처리 장치(100)의 동작에 관하여 이하에서 설명하는 내용은, 서버에 구비되는 광각 영상 처리 장치(100)의 동작에 적용 가능하다.
클라이언트 단말은 개인용 컴퓨터 또는 이동 단말일 수 있으며, 이에 한정하지 않는다.
도 2 및 도 3은 일 실시예에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 1, 도 2, 및 도 3을 참조하면, 광각 영상 처리 장치(100)의 통신 인터페이스(110)는 광각 카메라(10)에서 촬영된 원본 영상(11)을 수신한다(S210).
도시하지 않았으나, 광각 영상 처리 장치(100)의 디스플레이 모듈(150)이 화면에 원본 영상(11)을 표시할 수 있다. 원본 영상(11)은 중심의 피사체는 확대되어 촬영되고 주변의 피사체는 축소되어 촬영된 원형 영상일 수 있다.
이어서, 광각 영상 처리 장치(100)의 사용자 인터페이스(120)는 원본 영상(11)에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신한다(S220). 예를 들어, 사용자 인터페이스(120)는 원본 영상(11)에서 제1 관심 영역(ROI1), 제2 관심 영역(ROI2), 및 제3 관심 영역(ROI3)을 선택하는 사용자 입력을 수신할 수 있다.
이어서, 광각 영상 처리 장치(100)의 프로세서(130)는 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성한다(S230). 예를 들어, 프로세서(130)는 제1 관심 영역(ROI1)에 대응하는 제1 디워핑 맵, 제2 관심 영역(ROI2)에 대응하는 제2 디워핑 맵, 및 제3 관심 영역(ROI3)에 대응하는 제3 디워핑 맵을 각각 생성할 수 있다.
도시하지 않았으나, 메모리(140)는 복수의 디워핑 맵들을 저장한다. 예를 들어, 메모리(140)는 제1 디워핑 맵, 제2 디워핑 맵, 및 제3 디워핑 맵이 각각 구분되도록 저장할 수 있다.
이때, 프로세서(130)는 제1 디워핑 맵을 처리하는 제1 스레드(TH1), 제2 디워핑 맵을 처리하는 제2 스레드(TH2), 및 제3 디워핑 맵을 처리하는 제3 스레드(TH3)를 동시에 실행할 수 있다.
이어서, 프로세서(130)는 복수의 디워핑 맵들에 기초하여 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 렌더링한다(S240). 예를 들어, 프로세서(130)는 제1 스레드(TH1)를 실행함으로써, 제1 디워핑 맵에 기초하여 제1 관심 영역(ROI1)의 왜곡을 보정한 제1 보정 영상을 렌더링할 수 있다. 동시에, 프로세서(130)는 제2 스레드(TH2)를 실행함으로써, 제2 디워핑 맵에 기초하여 제2 관심 영역(ROI2)의 왜곡을 보정한 제2 보정 영상을 렌더링할 수 있다. 또한, 프로세서(130)는 제3 스레드(TH3)를 실행함으로써, 제3 디워핑 맵에 기초하여 제3 관심 영역(ROI3)의 왜곡을 보정한 제3 보정 영상을 렌더링할 수 있다.
도시하지 않았으나, 광각 영상 처리 장치(100)의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 제1 내지 제3 보정 영상을 하나의 화면에 동시에 출력할 수 있다. 예를 들어, 디스플레이 모듈(150)은 원본 레이어(LO), 제1 레이어(L1), 제2 레이어(L2), 및 제3 레이어(L3)를 포함하는 쿼드 뷰를 제공할 수 있다. 이때, 원본 영상(11)이 원본 레이어(LO)에, 제1 보정 영상이 제1 레이어(L1)에, 제2 보정 영상이 제2 레이어(L2)에, 제3 보정 영상이 제3 레이어(L3)에 표시될 수 있다.
한편, 이하에서, 광각 영상 처리 장치(100)에 포함된 구성 중 일부가 클라이언트 단말로 구현되고, 나머지 일부가 서버로 구현된 실시예에 관하여 설명한다. 이때, 앞서 설명한 내용과 중복되는 내용은 생략하거나 간단히 설명한다.
클라이언트 단말의 통신 인터페이스(110)는 광각 카메라(10)에서 촬영된 원본 영상(11)을 수신한다(S210).
이어서, 클라이언트 단말의 사용자 인터페이스(120)는 원본 영상(11)에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신한다(S220). 이때, 클라이언트 단말은 서버에 복수의 관심 영역들에 대한 선택 명령을 전송할 수 있다.
이어서, 서버의 프로세서(130)는 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성한다(S230).
도시하지 않았으나, 서버의 메모리(140)는 생성된 복수의 디워핑 맵들을 저장한다. 이때, 서버는 클라이언트 단말에 복수의 디워핑 맵들에 대한 정보를 전송할 수 있다.
이어서, 클라이언트 단말의 프로세서(130)는 복수의 디워핑 맵들에 기초하여 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 렌더링한다(S240).
그리고, 클라이언트 단말의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 복수의 보정 영상들을 하나의 화면에 동시에 출력할 수 있다.
본 실시예에 따르면, 원본 영상을 수신하고 보정 영상을 렌더링하는 물리적 장치와 관심 영역에 대응하는 디워핑 맵을 관리하는 물리적 장치가 분리됨으로써, 보안이 보다 강화될 수 있다.
도 4a 및 도 4b는 일 실시예에 따른 관심 영역 삭제에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 1, 도 2, 도 3, 도 4a, 및 도 4b를 참조하면, 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나인 제1 관심 영역(ROI1)을 삭제하는 사용자 입력을 더 수신한다(S420).
이어서, 프로세서(130)는 메모리(140)에 저장된 복수의 디워핑 맵들로부터 제1 관심 영역(ROI1)에 대응하는 제1 디워핑 맵을 삭제한다(S430).
프로세서(130)는 제1 디워핑 맵을 삭제함에 따라, 제1 스레드(TH1)의 실행을 중단할 수 있다. 제1 스레드(TH1)의 실행이 중단됨에 따라, 제1 보정 영상의 렌더링이 중단될 수 있다.
다만, 프로세서(130)는 제1 스레드(TH1)의 실행을 중단하는 반면, 제2 스레드(TH2) 및 제3 스레드(TH3)의 실행을 각각 유지할 수 있다. 제2 스레드(TH2) 및 제3 스레드(TH3)의 실행이 유지됨에 따라, 제2 보정 영상 및 제3 보정 영상의 렌더링이 각각 유지될 수 있다.
도시하지 않았으나, 광각 영상 처리 장치(100)의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 제2 및 제3 보정 영상을 하나의 화면에 동시에 출력할 수 있다. 예를 들어, 디스플레이 모듈(150)은 원본 레이어(LO), 제2 레이어(L2), 및 제3 레이어(L3)를 포함하는 트리플 뷰(triple view)를 제공할 수 있다.
한편, 이하에서, 광각 영상 처리 장치(100)에 포함된 구성 중 일부가 클라이언트 단말로 구현되고, 나머지 일부가 서버로 구현된 실시예에 관하여 설명한다.
클라이언트 단말의 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나인 제1 관심 영역(ROI1)을 삭제하는 사용자 입력을 더 수신한다(S420). 이때, 클라이언트 단말은 서버에 제1 관심 영역(ROI1)에 대한 삭제 명령을 전송할 수 있다.
이어서, 서버의 프로세서(130)는 서버의 메모리(140)로부터 제1 관심 영역(ROI1)에 대응하는 제1 디워핑 맵을 삭제한다(S430). 이때, 서버는 클라이언트 단말에 제1 디워핑 맵이 삭제된 복수의 디워핑 맵들에 대한 정보를 전송할 수 있다.
이어서, 클라이언트 단말의 프로세서(130)는 제1 보정 영상의 렌더링을 중단하면서, 제2 보정 영상 및 제3 보정 영상의 렌더링을 각각 지속할 수 있다.
도시하지 않았으나, 클라이언트 단말의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 제2 및 제3 보정 영상을 하나의 화면에 동시에 출력할 수 있다.
도 5a 및 도 5b는 일 실시예에 따른 관심 영역 추가에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
이하에서, 도 5a의 S520, S531, 및 S540가 일 실시예에 해당하고, S500, S520, S531, S540, 및 S533가 다른 실시예에 해당한다. 이하에서는 다른 실시예가 일 실시예와 다른 부분에 한하여 설명하고, 일 실시예와 중복되는 부분에 대한 설명은 생략하거나 간단하게 한다.
도 1, 도 2, 도 3, 도 5a, 및 도 5b를 참조하면, 일 실시예에 따른 사용자 인터페이스(120)는 복수의 관심 영역들 이외의 제4 관심 영역을 선택하는 사용자 입력을 수신한다(S520). 제4 관심 영역은 예를 들어, 원본 영상의, 제1 관심 영역(ROI1), 제2 관심 영역(ROI2), 및 제3 관심 영역(ROI3)을 제외한 영역의 적어도 일부일 수 있다.
이어서, 프로세서(130)는 제4 관심 영역에 대응하는 제4 디워핑 맵을 생성한다(S531). 이때, 프로세서(130)는 제4 디워핑 맵을 처리하는 제4 스레드(TH4)를 제1 스레드(TH1), 제2 스레드(TH2), 및 제3 스레드(TH3)와 동시에 실행할 수 있다.
도시하지 않았으나, 메모리(140)는 제4 디워핑 맵을, 제1 디워핑 맵, 제2 디워핑 맵, 및 제3 디워핑 맵과 각각 구분되도록 저장할 수 있다.
이어서, 프로세서(130)는 제4 디워핑 맵에 기초하여 제4 관심 영역의 왜곡을 보정한 제4 보정 영상을 렌더링한다(S540). 예를 들어, 프로세서(130)는 제4 스레드(TH4)를 실행함으로써, 제4 디워핑 맵에 기초하여 제4 관심 영역의 왜곡을 보정한 제4 보정 영상을 렌더링할 수 있다.
도시하지 않았으나, 디스플레이 모듈(150)은 원본 레이어(LO), 제1 레이어(L1), 제2 레이어(L2), 제3 레이어(L3), 및 제4 레이어를 포함하는 펜타 뷰를 제공할 수 있다. 이때, 원본 영상(11)이 원본 레이어(LO)에, 제1 보정 영상이 제1 레이어(L1)에, 제2 보정 영상이 제2 레이어(L2)에, 제3 보정 영상이 제3 레이어(L3)에, 제4 보정 영상이 제4 레이어에 표시될 수 있다.
한편, 이하에서, 광각 영상 처리 장치(100)에 포함된 구성 중 일부가 클라이언트 단말로 구현되고, 나머지 일부가 서버로 구현된 실시예에 관하여 설명한다.
클라이언트 단말의 사용자 인터페이스(120)는 복수의 관심 영역들 이외의 제4 관심 영역을 선택하는 사용자 입력을 수신한다(S520). 이때, 클라이언트 단말은 서버에 제4 관심 영역에 대한 추가 명령을 전송할 수 있다.
이어서, 서버의 프로세서(130)는 제4 관심 영역에 대응하는 제4 디워핑 맵을 생성한다(S531). 도시하지 않았으나, 서버의 메모리(140)는 생성된 제4 디워핑 맵을 제1 디워핑 맵, 제2 디워핑 맵, 및 제3 디워핑 맵과 각각 구분되도록 저장한다. 이때, 서버는 클라이언트 단말에 제4 디워핑 맵이 추가된 복수의 디워핑 맵들에 대한 정보를 전송할 수 있다.
이어서, 클라이언트 단말의 프로세서(130)는 제4 디워핑 맵에 기초하여 제4 관심 영역의 왜곡을 보정한 제4 보정 영상을 렌더링한다(S540).
그리고, 클라이언트 단말의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 제1 내지 제4 보정 영상을 하나의 화면에 동시에 출력할 수 있다.
본 실시예들에 따르면, 프로세서(130)는 관심 영역의 추가에 대응하여 스레드만 하나 더 추가함으로써, 모든 관심 영역에 대응하는 하나의 스레드를 실행하는 종래 기술에 비하여, 자원을 효율적으로 사용할 수 있다.
한편, 다른 실시예에 따른 프로세서(130)는 복수의 보정 영상들에 우선순위를 부여한다(S500). 예를 들면, 프로세서(130)는 제1 보정 영상, 제2 보정 영상, 및 제3 보정 영상 순으로 높은 우선순위를 부여할 수 있다.
이어서, 사용자 인터페이스(120)는 복수의 관심 영역들 이외의 제4 관심 영역을 선택하는 사용자 입력을 수신한다(S520).
이어서, 프로세서(130)는 제4 관심 영역에 대응하는 제4 디워핑 맵을 생성하고(S531), 메모리(140)에서 복수의 보정 영상들 중 우선순위가 가장 낮은 제3 보정 영상에 대응하는 제3 디워핑 맵을 삭제한다(S533).
프로세서(130)는 제3 디워핑 맵을 삭제함에 따라, 제3 스레드(TH3)의 실행을 중단할 수 있다. 제3 스레드(TH3)의 실행이 중단됨에 따라, 제3 보정 영상의 렌더링이 중단될 수 있다.
다만, 프로세서(130)는 제3 스레드(TH3)의 실행을 중단하는 반면, 제1 스레드(TH1), 제2 스레드(TH2), 및 제4 스레드(TH4)의 실행을 각각 유지할 수 있다. 제1 스레드(TH1), 제2 스레드(TH2), 및 제4 스레드(TH4)의 실행이 유지됨에 따라, 제1 보정 영상, 제2 보정 영상, 및 제3 보정 영상의 렌더링이 각각 유지될 수 있다.
도시하지 않았으나, 디스플레이 모듈(150)은 원본 레이어(LO), 제1 레이어(L1), 제2 레이어(L2), 및 제4 레이어를 포함하는 쿼드 뷰를 제공할 수 있다. 이때, 원본 영상(11)이 원본 레이어(LO)에, 제1 보정 영상이 제1 레이어(L1)에, 제2 보정 영상이 제2 레이어(L2)에, 제4 보정 영상이 제4 레이어에 표시될 수 있다.
한편, 이하에서, 광각 영상 처리 장치(100)에 포함된 구성 중 일부가 클라이언트 단말로 구현되고, 나머지 일부가 서버로 구현된 실시예에 관하여 설명한다.
서버의 프로세서(130)는 복수의 보정 영상들에 우선순위를 부여한다(S500).
클라이언트 단말의 사용자 인터페이스(120)는 복수의 관심 영역들 이외의 제4 관심 영역을 선택하는 사용자 입력을 수신한다(S520). 이때, 클라이언트 단말은 서버에 제4 관심 영역에 대한 추가 명령을 전송할 수 있다.
이어서, 서버의 프로세서(130)는 제4 관심 영역에 대응하는 제4 디워핑 맵을 생성하고(S531), 서버의 메모리(140)로부터 제3 디워핑 맵을 삭제한다(S533). 이때, 서버는 클라이언트 단말에 제3 디워핑 앱이 삭제되고 제4 디워핑 맵이 추가된 복수의 디워핑 맵들에 대한 정보를 전송할 수 있다.
이어서, 클라이언트 단말의 프로세서(130)는 제3 보정 영상의 렌더링을 중단하고, 제1 보정 영상 및 제2 보정 영상의 렌더링을 각각 지속하면서 제4 보정 영상의 렌더링을 추가할 수 있다.
도시하지 않았으나, 클라이언트 단말의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 제1, 제2 및 제4 보정 영상을 하나의 화면에 동시에 출력할 수 있다.
여기서, 프로세서(130)는 S531 및 S540의 동작을, S533의 동작과, 동시에 수행할 수 있다. 이처럼, 본 실시예에 따르면 복수의 스레드들을 병렬적으로 처리할 수 있으므로, 처리 성능을 보다 향상시킬 수 있다.
또한, 본 실시예들에 따르면, 프로세서(130)는 새로운 관심 영역의 추가에 대응하여 우선순위가 낮은 기존의 관심 영역을 제외함으로써, 디스플레이 모듈(150)이 출력하는 뷰 모드를 유지할 수 있다.
도 6a 및 도 6b는 일 실시예에 따른 관심 영역 변경에 따른 광각 영상 처리 방법을 설명하기 위한 도면이다.
도 1, 도 2, 도 3, 도 6a, 및 도 6b를 참조하면, 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나인 제1 관심 영역(ROI1)을, 복수의 관심 영역들과 무관한 제4 관심 영역으로 변경하는 사용자 입력을 수신한다(S620).
프로세서(130)는 관심 영역을 변경하는 사용자 입력에 대응하여, 메모리(140)에서 제1 관심 영역(ROI1)에 대응하는 제1 디워핑 맵을 삭제한다(S631).
프로세서(130)는 제1 디워핑 맵을 삭제함에 따라, 제1 스레드(TH1)의 실행을 중단할 수 있다. 제1 스레드(TH1)의 실행이 중단됨에 따라, 제1 보정 영상의 렌더링이 중단될 수 있다.
동시에, 프로세서(130)는 관심 영역을 변경하는 사용자 입력에 대응하여, 제4 관심 영역에 대응하는 제4 디워핑 맵을 생성하고(S633), 제4 디워핑 맵에 기초하여 제4 관심 영역의 왜곡을 보정한 제4 보정 영상을 렌더링한다(S640).
여기서, 프로세서(130)는 제4 디워핑 맵을 처리하는 제4 스레드(TH4)를 제2 스레드(TH2) 및 제3 스레드(TH3)와 동시에 실행할 수 있다.
도시하지 않았으나, 메모리(140)는 제4 디워핑 맵을, 제2 디워핑 맵 및 제3 디워핑 맵과 각각 구분되도록 저장할 수 있다.
도시하지 않았으나, 광각 영상 처리 장치(100)의 디스플레이 모듈(150)은 원본 영상(11) 및 프로세서(130)에 의해 렌더링된 제2 내지 제4 보정 영상을 하나의 화면에 동시에 출력할 수 있다. 예를 들어, 디스플레이 모듈(150)은 원본 레이어(LO), 제1 레이어(L1), 제2 레이어(L2), 및 제3 레이어(L3)를 포함하는 쿼드 뷰를 제공할 수 있다. 이때, 원본 영상(11)이 원본 레이어(LO)에, 제4 보정 영상이 제1 레이어(L1)에, 제2 보정 영상이 제2 레이어(L2)에, 제3 보정 영상이 제3 레이어(L3)에 표시될 수 있다.
한편, 이하에서, 광각 영상 처리 장치(100)에 포함된 구성 중 일부가 클라이언트 단말로 구현되고, 나머지 일부가 서버로 구현된 실시예에 관하여 설명한다.
클라이언트 단말의 사용자 인터페이스(120)는 복수의 관심 영역들 중 하나인 제1 관심 영역(ROI1)을, 복수의 관심 영역들과 무관한 제4 관심 영역으로 변경하는 사용자 입력을 수신한다(S620). 이때, 클라이언트 단말은 서버에 제1 관심 영역(ROI1)에 대한 제4 관심 영역으로의 변경 명령을 전송할 수 있다.
이어서, 서버의 프로세서(130)는 메모리(140)에서 제1 관심 영역(ROI1)에 대응하는 제1 디워핑 맵을 삭제하고(S631), 제4 관심 영역에 대응하는 제4 디워핑 맵을 생성한다(S633). 이때, 서버는 클라이언트 단말에 제1 디워핑 맵이 삭제되고 제4 디워핑 맵이 추가된 복수의 디워핑 맵들에 대한 정보를 전송할 수 있다.
이어서, 클라이언트 단말의 프로세서(130)는 제1 보정 영상의 렌더링을 중단하고, 제2 보정 영상 및 제3 보정 영상의 렌더링을 각각 지속하면서 제4 보정 영상의 렌더링을 추가할 수 있다.
도 7은 일 실시예에 따른 보정 영상 렌더링에 관한 광각 영상 처리 방법을 설명하기 위한 흐름도이다.
도 1, 도 2, 및 도 7을 참조하면, 프로세서(130)는 복수의 보정 영상들에 우선순위를 부여한다(S700). 예를 들면, 프로세서(130)는 제1 보정 영상, 제2 보정 영상, 및 제3 보정 영상 순으로 낮은 우선순위를 부여할 수 있다.
한편, 프로세서(130)는 원본 영상의 프레임 레이트를 측정한다(S711).
이어서, 프로세서(130)는 측정된 프레임 레이트가 기준 프레임 레이트 미만인지 여부를 판단한다(S713). 기준 프레임 레이트는 예를 들어, 16fps일 수 있다.
측정된 프레임 레이트가 기준 프레임 레이트 미만인 경우, 프로세서(130)는 복수의 보정 영상들 중 우선순위가 가장 낮은 제1 보정 영상의 적어도 일부를 스킵하여 렌더링한다(S741). 원본 영상의 측정된 프레임 레이트가 예를 들어, 15렌인 경우, 프로세서(130)는 제1 보정 영상의 적어도 일부 프레임을 스킵하여 렌더링할 수 있다.
스킵되는 제1 보정 영상의 프레임은 이벤트가 발생하지 않은 시점의 프레임일 수 있으며, 이에 한정하지 않는다. 예를 들어, 스킵되는 제1 보정 영상의 프레임은 이동하는 피사체가 없이 배경만 촬영된 프레임일 수 있다.
측정된 프레임 레이트가 기준 프레임 레이트 이상인 경우, 프로세서(130)는 복수의 디워핑 맵들에 기초하여 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 렌더링한다(S743). 즉, 프로세서(130)는 제1 보정 영상, 제2 보정 영상, 및 제3 보정 영상을 병렬적으로 렌더링할 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
10: 광각 카메라
100: 광각 영상 처리 장치
110: 통신 인터페이스
120: 사용자 인터페이스
130: 프로세서
140: 메모리
150: 디스플레이 모듈
100: 광각 영상 처리 장치
110: 통신 인터페이스
120: 사용자 인터페이스
130: 프로세서
140: 메모리
150: 디스플레이 모듈
Claims (20)
- 광각 카메라에서 촬영된 원본 영상을 수신하는 단계;
상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 단계;
상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하는 단계; 및
상기 복수의 디워핑 맵들에 기초하여, 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 단계;를 포함하며,
상기 복수의 보정 영상들을 렌더링하는 단계는,
상기 원본 영상의 프레임 레이트를 측정하는 단계; 및
상기 프레임 레이트가 기준 프레임 레이트 미만인 경우, 상기 복수의 보정 영상들 중 적어도 하나의 보정 영상의 적어도 일부를 스킵하여 렌더링하는 단계;를 포함하는, 광각 영상 처리 방법. - 제1항에 있어서,
상기 복수의 관심 영역들 중 하나인 제1 관심 영역을 삭제하는 사용자 입력을 수신하는 단계; 및
상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하는 단계;를 더 포함하는, 광각 영상 처리 방법. - 제1항에 있어서,
상기 복수의 관심 영역들 이외의 제2 관심 영역을 선택하는 사용자 입력을 수신하는 단계;
상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하는 단계; 및
상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하는 단계;를 더 포함하는, 광각 영상 처리 방법. - 제3항에 있어서,
상기 복수의 보정 영상들에 우선순위를 부여하는 단계;
상기 제2 관심 영역을 선택하는 사용자 입력에 대응하여, 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상에 대응하는 제1 디워핑 맵을 삭제하는 단계;를 포함하는, 광각 영상 처리 방법. - 제1항에 있어서,
제1 관심 영역을 제2 관심 영역으로 변경하는 사용자 입력을 수신하는 단계;
상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하고, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하는 단계; 및
상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하는 단계;를 더 포함하고,
상기 제1 관심 영역은 상기 복수의 관심 영역들 중 하나이고, 상기 제2 관심 영역은 상기 복수의 관심 영역들과 무관한, 광각 영상 처리 방법. - 제1항에 있어서,
상기 광각 카메라는 어안 카메라인, 광각 영상 처리 방법. - 제1항에 있어서,
상기 복수의 디워핑 맵들은 각각,
관심 영역에 속하는 원본 픽셀들의 위치 값과 보정 영상을 구성하는 보정 픽셀들의 위치 값을 매핑하는, 광각 영상 처리 방법. - 제7항에 있어서,
상기 관심 영역에 속하는 상기 원본 픽셀들의 위치 값은, 팬(pan) 각도, 틸트(tilt) 각도, 및 줌(zoom) 배율을 포함하고,
상기 보정 영상을 구성하는 보정 픽셀들의 위치 값은, X좌표 값 및 Y좌표 값을 포함하는, 광각 영상 처리 방법. - 삭제
- 제1항에 있어서,
상기 복수의 보정 영상들에 우선순위를 부여하는 단계;를 더 포함하고,
상기 적어도 하나의 보정 영상은 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상을 포함하는, 광각 영상 처리 방법. - 광각 카메라에서 촬영된 원본 영상을 수신하는 통신 인터페이스;
상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 사용자 인터페이스;
상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하고, 상기 복수의 디워핑 맵들에 기초하여 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 프로세서; 및
상기 복수의 디워핑 맵들을 저장하는 메모리;를 포함하며,
상기 프로세서는, 상기 원본 영상의 프레임 레이트를 측정하고, 상기 프레임 레이트가 기준 프레임 레이트 미만인 경우에는 상기 복수의 보정 영상들 중 적어도 하나의 보정 영상의 적어도 일부를 스킵하여 렌더링하는, 광각 영상 처리 장치. - 제11항에 있어서,
상기 사용자 인터페이스는, 상기 복수의 관심 영역들 중 하나인 제1 관심 영역을 삭제하는 사용자 입력을 수신하고,
상기 프로세서는, 상기 메모리로부터 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하는, 광각 영상 처리 장치. - 제11항에 있어서,
상기 사용자 인터페이스는, 상기 복수의 관심 영역들 이외의 제2 관심 영역을 선택하는 사용자 입력을 수신하고,
상기 프로세서는, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하고, 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하고,
상기 메모리는, 상기 제2 디워핑 맵을 더 저장하는, 광각 영상 처리 장치. - 제13항에 있어서,
상기 프로세서는, 상기 복수의 보정 영상들에 우선순위를 부여하고, 상기 제2 관심 영역을 선택하는 사용자 입력에 대응하여 상기 메모리로부터 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상에 대응하는 제1 디워핑 맵을 삭제하는, 광각 영상 처리 장치. - 제11항에 있어서,
상기 사용자 인터페이스는, 제1 관심 영역을 제2 관심 영역으로 변경하는 사용자 입력을 수신하고,
상기 프로세서는, 상기 메모리로부터 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하고, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하고, 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하고,
상기 제1 관심 영역은 상기 복수의 관심 영역들 중 하나이고, 상기 제2 관심 영역은 상기 복수의 관심 영역들과 무관한, 광각 영상 처리 장치. - 제11항에 있어서,
상기 복수의 디워핑 맵들은 각각, 관심 영역에 속하는 원본 픽셀들의 위치 값과 보정 영상을 구성하는 보정 픽셀들의 위치 값을 매핑하고,
상기 관심 영역에 속하는 상기 원본 픽셀들의 위치 값은, 팬(pan) 각도, 틸트(tilt) 각도, 및 줌(zoom) 배율을 포함하고,
상기 보정 영상을 구성하는 보정 픽셀들의 위치 값은, X좌표 값 및 Y좌표 값을 포함하는, 광각 영상 처리 장치. - 제11항에 있어서,
상기 프로세서는, 상기 복수의 보정 영상들에 우선순위를 부여하고,
상기 프로세서는, 상기 원본 영상의 프레임 레이트를 측정하고, 상기 프레임 레이트가 기준 프레임 레이트 미만인 경우에는 상기 복수의 보정 영상들 중 상기 우선순위가 가장 낮은 제1 보정 영상의 적어도 일부를 스킵하여 렌더링하는, 광각 영상 처리 장치. - 클라이언트 단말에 의하여, 광각 카메라에서 촬영된 원본 영상을 수신하는 단계;
상기 클라이언트 단말에 의하여, 상기 원본 영상에서 복수의 관심 영역들을 선택하는 사용자 입력을 수신하는 단계;
서버에 의하여, 상기 복수의 관심 영역들에 대응하는 복수의 디워핑 맵들을 병렬로 생성하는 단계; 및
상기 클라이언트 단말에 의하여, 상기 복수의 디워핑 맵들에 기초하여, 상기 복수의 관심 영역들의 왜곡을 보정한 복수의 보정 영상들을 병렬로 렌더링하는 단계;를 포함하며,
상기 복수의 보정 영상들을 렌더링하는 단계는,
상기 원본 영상의 프레임 레이트를 측정하는 단계; 및
상기 프레임 레이트가 기준 프레임 레이트 미만인 경우, 상기 복수의 보정 영상들 중 적어도 하나의 보정 영상의 적어도 일부를 스킵하여 렌더링하는 단계;는, 광각 영상 처리 방법. - 제18항에 있어서,
상기 클라이언트 단말에 의하여, 상기 복수의 관심 영역들 중 하나인 제1 관심 영역을 삭제하는 사용자 입력을 수신하는 단계; 및
상기 서버에 의하여, 상기 제1 관심 영역에 대응하는 제1 디워핑 맵을 삭제하는 단계;를 더 포함하는, 광각 영상 처리 방법. - 제18항에 있어서,
상기 클라이언트 단말에 의하여, 상기 복수의 관심 영역들 이외의 제2 관심 영역을 선택하는 사용자 입력을 수신하는 단계;
상기 서버에 의하여, 상기 제2 관심 영역에 대응하는 제2 디워핑 맵을 생성하는 단계; 및
상기 클라이언트 단말에 의하여, 상기 제2 디워핑 맵에 기초하여 상기 제2 관심 영역의 왜곡을 보정한 제2 보정 영상을 렌더링하는 단계;를 더 포함하는, 광각 영상 처리 방법.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160124244A KR102500836B1 (ko) | 2016-09-27 | 2016-09-27 | 광각 영상 처리 방법 및 이를 위한 장치 |
US15/427,530 US10529050B2 (en) | 2016-09-27 | 2017-02-08 | Method and apparatus for processing wide angle image |
CN201710650651.9A CN107871308B (zh) | 2016-09-27 | 2017-08-02 | 用于处理广角图像的方法和设备 |
EP17193494.6A EP3300017B1 (en) | 2016-09-27 | 2017-09-27 | Method and apparatus for processing wide angle image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160124244A KR102500836B1 (ko) | 2016-09-27 | 2016-09-27 | 광각 영상 처리 방법 및 이를 위한 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180034118A KR20180034118A (ko) | 2018-04-04 |
KR102500836B1 true KR102500836B1 (ko) | 2023-02-16 |
Family
ID=59982305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160124244A KR102500836B1 (ko) | 2016-09-27 | 2016-09-27 | 광각 영상 처리 방법 및 이를 위한 장치 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10529050B2 (ko) |
EP (1) | EP3300017B1 (ko) |
KR (1) | KR102500836B1 (ko) |
CN (1) | CN107871308B (ko) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102500836B1 (ko) * | 2016-09-27 | 2023-02-16 | 한화테크윈 주식회사 | 광각 영상 처리 방법 및 이를 위한 장치 |
CN109345467B (zh) * | 2018-08-14 | 2021-06-04 | 深圳市麦极客图像技术有限公司 | 成像畸变校正方法、装置、计算机设备及存储介质 |
CN109461213B (zh) * | 2018-11-16 | 2023-11-28 | 京东方科技集团股份有限公司 | 基于虚拟现实的图像处理方法、装置、设备和存储介质 |
CN111380668B (zh) * | 2018-12-27 | 2022-10-11 | 浙江舜宇智能光学技术有限公司 | 一种深度相机的精度检测系统及其精度检测方法 |
CN111243317B (zh) * | 2019-04-03 | 2020-11-27 | 六安志成智能科技有限公司 | 公交路线数据调控方法 |
KR102193984B1 (ko) * | 2019-05-31 | 2020-12-22 | 주식회사 아이디스 | 감시시스템, 그 시스템에서의 어안 카메라를 이용한 ptz 카메라 제어 방법 |
US11669942B2 (en) | 2019-09-20 | 2023-06-06 | Synaptics Incorporated | Image de-warping system |
CN112313673A (zh) * | 2019-11-15 | 2021-02-02 | 深圳市大疆创新科技有限公司 | 感兴趣区域-池化层的计算方法与装置、以及神经网络系统 |
CN111050083B (zh) * | 2019-12-31 | 2022-02-18 | 联想(北京)有限公司 | 一种电子设备及处理方法 |
US11335022B2 (en) * | 2020-06-10 | 2022-05-17 | Snap Inc. | 3D reconstruction using wide-angle imaging devices |
TWI824321B (zh) * | 2021-07-02 | 2023-12-01 | 創惟科技股份有限公司 | 影像控制器、影像處理系統及影像修正方法 |
US11847807B2 (en) * | 2021-07-02 | 2023-12-19 | Genesys Logic, Inc. | Image processing system and processing method of video stream |
US11900687B2 (en) * | 2021-07-06 | 2024-02-13 | Canoo Technologies Inc. | Fisheye collage transformation for road object detection or other object detection |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090027383A1 (en) * | 2003-11-19 | 2009-01-29 | Lucid Information Technology, Ltd. | Computing system parallelizing the operation of multiple graphics processing pipelines (GPPLs) and supporting depth-less based image recomposition |
US20140368606A1 (en) * | 2012-03-01 | 2014-12-18 | Geo Semiconductor Inc. | Method and system for adaptive perspective correction of ultra wide-angle lens images |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02127877A (ja) | 1988-11-08 | 1990-05-16 | Casio Comput Co Ltd | 魚眼レンズを備えた電子スチルカメラ |
KR20000000080A (ko) | 1999-09-08 | 2000-01-15 | 강범수 | 어안렌즈를 이용한 전방향 감시카메라 |
US6987892B2 (en) * | 2001-04-19 | 2006-01-17 | Eastman Kodak Company | Method, system and software for correcting image defects |
US7058237B2 (en) | 2002-06-28 | 2006-06-06 | Microsoft Corporation | Real-time wide-angle image correction system and method for computer image viewing |
US7529424B2 (en) | 2003-05-02 | 2009-05-05 | Grandeye, Ltd. | Correction of optical distortion by image processing |
KR100926231B1 (ko) | 2007-12-28 | 2009-11-09 | 주식회사 케이티 | 360도 동영상 이미지 기반 공간정보 구축 시스템 및 그구축 방법 |
KR101058274B1 (ko) | 2008-10-08 | 2011-08-22 | 삼성에스디에스 주식회사 | 가상현실 이미지 관리 시스템 및 방법 |
US8068695B2 (en) * | 2008-11-07 | 2011-11-29 | Xerox Corporation | Positional distortion compensation |
JP2011203811A (ja) * | 2010-03-24 | 2011-10-13 | Fujifilm Corp | 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ |
KR101230909B1 (ko) | 2010-05-27 | 2013-02-12 | (주) 에투시스템 | 차량용 광각 영상 처리장치 및 그 방법 |
US8989493B1 (en) * | 2012-02-06 | 2015-03-24 | Marvell International Ltd. | Method and apparatus for identifying regions of an image to be filtered during processing of the image |
US9214013B2 (en) * | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
US9299127B2 (en) | 2012-09-21 | 2016-03-29 | ImmerVision | Splitting of elliptical images |
KR101970563B1 (ko) * | 2012-11-23 | 2019-08-14 | 엘지디스플레이 주식회사 | 3차원 입체 영상용 깊이지도 보정장치 및 보정방법 |
GB2512621A (en) * | 2013-04-04 | 2014-10-08 | Sony Corp | A method and apparatus |
JP5944055B2 (ja) * | 2013-08-01 | 2016-07-05 | 富士フイルム株式会社 | 撮像装置、撮像方法及び画像処理装置 |
KR20170007069A (ko) * | 2015-07-08 | 2017-01-18 | 주식회사 케이티 | 파노라믹 비디오의 왜곡보정 방법 및 장치 |
KR102500836B1 (ko) * | 2016-09-27 | 2023-02-16 | 한화테크윈 주식회사 | 광각 영상 처리 방법 및 이를 위한 장치 |
-
2016
- 2016-09-27 KR KR1020160124244A patent/KR102500836B1/ko active IP Right Grant
-
2017
- 2017-02-08 US US15/427,530 patent/US10529050B2/en active Active
- 2017-08-02 CN CN201710650651.9A patent/CN107871308B/zh active Active
- 2017-09-27 EP EP17193494.6A patent/EP3300017B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090027383A1 (en) * | 2003-11-19 | 2009-01-29 | Lucid Information Technology, Ltd. | Computing system parallelizing the operation of multiple graphics processing pipelines (GPPLs) and supporting depth-less based image recomposition |
US20140368606A1 (en) * | 2012-03-01 | 2014-12-18 | Geo Semiconductor Inc. | Method and system for adaptive perspective correction of ultra wide-angle lens images |
Non-Patent Citations (1)
Title |
---|
Louis Brun et al., ‘Enabling 360° visual communications: Next-level applications and connections’, IEEE Consumer Electronics Magazine, Vol.5, Issue 2, April 2016.* |
Also Published As
Publication number | Publication date |
---|---|
CN107871308A (zh) | 2018-04-03 |
US10529050B2 (en) | 2020-01-07 |
CN107871308B (zh) | 2022-11-15 |
EP3300017A1 (en) | 2018-03-28 |
KR20180034118A (ko) | 2018-04-04 |
US20180089795A1 (en) | 2018-03-29 |
EP3300017B1 (en) | 2021-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102500836B1 (ko) | 광각 영상 처리 방법 및 이를 위한 장치 | |
US9392167B2 (en) | Image-processing system, image-processing method and program which changes the position of the viewing point in a first range and changes a size of a viewing angle in a second range | |
US9319635B2 (en) | Window blanking for pan/tilt/zoom camera | |
US10474343B2 (en) | Image processing apparatus, image processing method, and program | |
US20190391778A1 (en) | Apparatus, system, and method for controlling display, and recording medium | |
TW201730841A (zh) | 圖像資料處理系統和相關方法以及相關圖像融合方法 | |
US8982135B2 (en) | Information processing apparatus and image display method | |
US9826145B2 (en) | Method and system to assist a user to capture an image or video | |
US11501731B2 (en) | Method and device for assigning video streams to watcher devices | |
JP2010124381A (ja) | 監視システム | |
KR102231795B1 (ko) | 대용량 cctv 영상 제공 및 저장 서버와 이를 포함하는 cctv 영상 제공 및 저장 시스템 | |
JP2018026670A (ja) | 映像配信システム、端末装置、配信サーバ、映像配信方法、映像表示方法、映像配信プログラム及び映像表示プログラム | |
CN116017018A (zh) | 直播特效渲染方法、装置、设备、可读存储介质及产品 | |
CN111352560B (zh) | 分屏方法、装置、电子设备和计算机可读存储介质 | |
KR102239851B1 (ko) | 공간 활용도 향상을 위한 이벤트 발생 감지 기반의 cctv 영상 제공 및 저장 시스템 | |
KR102239848B1 (ko) | 설치공간 확보를 위한 사용자 맞춤형 영상 레이아웃 기반의 cctv 영상 제공 및 저장 시스템 | |
JP2008046608A (ja) | ビデオウィンドウ検出器 | |
JP2019149785A (ja) | 映像変換装置及びプログラム | |
KR20230035299A (ko) | 광각 영상 처리 방법 및 이를 위한 장치 | |
KR102239850B1 (ko) | 전기 에너지 절감을 위한 모니터링 대상의 특성을 고려한 추천 영상 레이아웃 기반의 cctv 영상 제공 및 저장 시스템 | |
US9449364B2 (en) | Information processing apparatus, information processing method, and program to recognize circumstances of a subject from a moving image | |
KR102239852B1 (ko) | 에너지효율 향상을 위한 cctv 영상에 최적화된 영상 레이아웃 기반의 cctv 영상 제공 및 저장 시스템 | |
KR102239849B1 (ko) | 소비전력 감소를 위한 cctv 영상 모니터링의 목적에 따른 맞춤형 영상 레이아웃 기반의 cctv 영상 제공 및 저장 시스템 | |
KR102239846B1 (ko) | 전력 절감을 위한 cctv 영상 제공 및 저장 시스템 | |
KR102239847B1 (ko) | 에너지 절감을 위한 가변형 영상 레이아웃 기반의 cctv 영상 제공 및 저장 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |