KR20190009972A - An image processing apparatus and method for image parallel rendering processing - Google Patents
An image processing apparatus and method for image parallel rendering processing Download PDFInfo
- Publication number
- KR20190009972A KR20190009972A KR1020170092010A KR20170092010A KR20190009972A KR 20190009972 A KR20190009972 A KR 20190009972A KR 1020170092010 A KR1020170092010 A KR 1020170092010A KR 20170092010 A KR20170092010 A KR 20170092010A KR 20190009972 A KR20190009972 A KR 20190009972A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image data
- frame
- graphic
- adapter
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
Abstract
Description
본 발명은 영상 병렬 랜더링 처리를 위한 영상 처리 장치 및 방법에 관한 것으로서, 더 구체적으로는, 소스 영상에 대한 어떠한 영상 처리도 수행하지 않고, 소스 영상 신호로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 영상 신호를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송하고 디스플레이하는, 영상 병렬 랜더링 처리를 위한 영상 처리 장치 및 방법에 관한 것이다. The present invention relates to an image processing apparatus and method for image parallel rendering, and more particularly, to an image processing apparatus and method for performing image parallel rendering, And simultaneously transmitting and displaying the image data in parallel with each of the graphic adapters, and to an image processing apparatus and method for image parallel rendering processing.
정보 통신 기술의 발달로 인하여 다양한 유형의 디스플레이 장치들이 널리 이용되고 있는 추세이다. 특히, 사용자들의 개인적인 취향, 특정 용도(예를 들어, 공연/스포츠 중계, 관제 상황 제어) 등에 기인하여 대형 디스플레이 화면에 대한 필요성이 나날이 증가하고 있다. 대형 디스플레이 화면을 제조하기 위한 기술적인 한계, 비싼 제조 비용 등에 기인하여, 이러한 대형 디스플레이 화면을 구성하기 위해 복수의 개별적인 디스플레이 장치를 하나의 대형 멀티 디스플레이 장치를 구성하는 기술이 널리 이용되고 있다.Due to the development of information and communication technology, various types of display devices are widely used. Particularly, the necessity for a large display screen is increasing day by day due to personal taste of users, specific use (for example, performance / sport relay, control of control situation) and the like. Techniques for constructing one large multi-display device with a plurality of individual display devices to constitute such a large display screen are widely used due to technical limitations for manufacturing a large display screen and expensive manufacturing costs.
도 1은 종래 기술에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다. 도 1을 참조하여 종래 기술에 따른 멀티 디스플레이 시스템에 대하여 간략히 살펴보도록 한다. 종래 기술에 따른 멀티 디스플레이 시스템은 멀티 디스플레이 장치(100) 및 종래 기술에 따른 영상 처리 장치(10)를 포함한다.1 is a schematic block diagram of a multi-display system according to the prior art. A multi-display system according to the related art will be briefly described with reference to FIG. A multi-display system according to the prior art includes a
도 1에 도시된 멀티 디스플레이 장치(100)는 총 12개의 개별적인 디스플레이 장치(110a~110l)로 구성된 24면 멀티 디스플레이 장치로서, 영상 처리 장치(10)로부터 출력되는 영상 데이터를 디스플레이한다. 특히, 도 1에 도시된 멀티 디스플레이 장치(100)의 디스플레이 화면은 제 1 서브-영역(120a), 제 2 서브-영역(120b), 제 3 서브-영역(120c), 및 제 4 서브-영역(120d)으로 구성되며, 각각의 서브-영역(120a~120d)은 종래 기술에 따른 영상 처리 장치(10) 내의 대응하는 그래픽 어댑터(12a~12d)에 의해 제어된다.The
종래 기술에 따른 영상 처리 장치(10)는 영상 소스(300)로부터 소스 영상을 수신하고, 수신된 소스 영상을 멀티 디스플레이 장치(100)를 통해 출력하도록 구성된다. 보다 구체적으로, 종래 기술에 따른 영상 처리 장치(10)는 제 1 그래픽 어댑터(12a), 제 2 그래픽 어댑터(12b), 제 3 그래픽 어댑터(12c), 제 4 그래픽 어댑터(12d), 제 1 PCI 슬롯(14a), 제 2 PCI 슬롯(14b), 제 3 PCI 슬롯(14c), 제 4 PCI 슬롯(14d), 및 디코딩 모듈(16)을 포함할 수 있다.The
디코딩 모듈(16)은 영상 소스(300)로부터 인코딩된 소스 영상을 수신하고, 수신된 소스 영상을 로우(raw) 영상 데이터(320)로 디코딩하여 그래픽 어댑터들로 출력하도록 구성된다. 제 1 그래픽 어댑터(12a) 내지 제 4 그래픽 어댑터(12d)는 각기 제 1 PCI 슬롯(14a) 내지 제 4 PCI 슬롯(14d)에 설치되며, 디코딩 모듈(16)로부터 출력되는 디코딩된 로우 영상 데이터를 수신하여 멀티 디스플레이 장치(100)의 제 1 서브-영역(120a) 내지 제 4 서브-영역(120d) 중 대응하는 서브-영역 상에 디스플레이하도록 구성된다.The
특히 주목해야 하는 점은, 전술한 바와 같이 구성된 종래 기술에 따른 영상 처리 장치(10)는 순차적이고 직렬적인 방식으로 디코딩된 로우 영상 데이터(320)를 처리하도록 구성된다는 점이다. 이를 보다 구체적으로 살펴보도록 한다. 먼저, 도면에 도시된 바와 같이, 로우 영상 데이터(320)는 제 1 그래픽 어댑터(12a)에 의해 제 1 서브-영역(120a)에 디스플레이되어야 하는 제 1 분할 영상 데이터(320a), 제 2 그래픽 어댑터(12b)에 의해 제 2 서브-영역(120b)에 디스플레이되어야 하는 제 2 분할 영상 데이터(320b), 제 3 그래픽 어댑터(12c)에 의해 제 3 서브-영역(120c)에 디스플레이되어야 하는 제 3 분할 영상 데이터(320c), 및 제 4 그래픽 어댑터(12d)에 의해 제 4 서브-영역(120d)에 디스플레이되어야 하는 제 4 분할 영상 데이터(320d)를 포함한다. It should be noted that the
먼저, 디코딩 모듈(16)은 제 1 분할 영상 데이터(320a) 내지 제 4 분할 영상 데이터(320d)를 모두 포함하는 전체 로우 영상 데이터(320)를 제 1 그래픽 어댑터(12a)로 전송하며, 제 1 그래픽 어댑터는 모든 분할 영상 데이터를 포함하는 전체 로우 영상 데이터(320)를 수신하고, 전체 로우 영상 데이터(320) 중 제 1 분할 영상 데이터(320a)를 추출하여 제 1 서브-영역(120a) 상에 디스플레이한다. 그런 다음, 제 1 그래픽 어댑터(12a)는 제 1 분할 영상 데이터(320a)가 제거된 로우 영상 데이터(320)를 제 2 그래픽 어댑터(12b)로 전송하며, 제 2 그래픽 어댑터(12b)가 로우 영상 데이터(320')를 수신하고 수신된 로우 영상 데이터(320') 중 제 2 분할 영상 데이터(320b)를 추출하여 제 2 서브-영역(120b) 상에 디스플레이한다. 마찬가지로, 제 2 그래픽 어댑터(12b)는 제 1 분할 영상 데이터(320a) 및 제 2 분할 영상 데이터(320b)가 제거된 로우 영상 데이터(320'')를 제 3 그래픽 어댑터(12c)로 전송하며, 제 3 그래픽 어댑터(12c)가 로우 영상 데이터(320'')를 수신하고 수신된 로우 영상 데이터(320'') 중 제 3 분할 영상 데이터(320c)를 추출하여 제 3 서브-영역(120c) 상에 디스플레이한다. 마지막으로, 제 3 그래픽 어댑터(12c)는 제 1 분할 영상 데이터(320a) 내지 제 3 분할 영상 데이터(320c)가 제거된 로우 영상 데이터(320''')(즉, 제 4 분할 영상 데이터(320d))를 제 4 그래픽 어댑터(12d)로 전송하며, 제 4 그래픽 어댑터(12d)가 로우 영상 데이터(320''')를 수신하고 제 4 분할 영상 데이터(320d)를 제 4 서브-영역(120d) 상에 디스플레이한다.The
이상에서 살펴본 바와 같이, 종래 기술에 따른 영상 처리 장치(10)는 멀티 디스플레이 장치(100)를 지원하기 위하여 순차적이고 직렬적인 방식으로 영상 데이터를 처리하도록 구성된다. 이러한 순차적이고 직렬적인 랜더링 방식은 영상 처리를 위하여 상당한 시간과 자원을 필요로 한다는 문제점이 있다. As described above, the
본 발명의 목적은 위에서 언급한 종래 기술의 문제점을 해결하는 것이다. An object of the present invention is to solve the above-mentioned problems of the prior art.
본 발명의 일 목적은, 멀티 디스플레이 시스템에 있어서 소스 영상에 대한 어떠한 영상 처리도 수행하지 않고, 소스 영상 신호로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 분할 영상 신호를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송할 수 있는 영상 처리 장치 및 영상 처리 방법을 제공하는 것이다.It is an object of the present invention to extract a divided video signal to be displayed from each graphics adapter from a source video signal and to simultaneously output the divided video signals to each graphics adapter in parallel And to provide a video processing apparatus and an image processing method capable of transmitting video data.
본 발명의 다른 목적은, 추출된 분할 영상 신호를 시간적으로 그리고 프레임별로 동기화하여 디스플레이할 수 있는 영상 처리 장치 및 영상 처리 방법을 제공하는 것이다.It is another object of the present invention to provide an image processing apparatus and an image processing method capable of displaying an extracted divided image signal synchronously in time and frame.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 특징적인 구성은 하기와 같다. In order to achieve the above-described object of the present invention and to achieve the specific effects of the present invention described below, the characteristic structure of the present invention is as follows.
본 발명의 일 측면에 따르면, 멀티 디스플레이 장치에 대한 영상 병렬 랜더링 처리를 수행하기 위하여 영상 처리 장치에 의해 수행되는 영상 처리 방법으로서, 상기 영상 처리 장치는 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들을 포함하며, 상기 방법은, (a) 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하고, 디스플레이 영역 매칭 결과 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계; (b) 상기 영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우 영상 데이터로 디코딩하는 단계; (c) 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는 단계; 및 (d) 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 단계를 포함하는, 영상 처리 방법이 제공된다.According to an aspect of the present invention, there is provided an image processing method performed by an image processing apparatus to perform an image parallel rendering processing on a multi-display apparatus, the image processing apparatus comprising: (A) comparing and matching the display area between the image source and the multi-display device, and based on the display area matching result and the sub-area setting information for each graphics adapter, Determining a divided image area of a source image to be displayed by each of the plurality of graphic adapters, and allocating a video memory area in which divided image data for each graphic adapter is to be stored; (b) receiving a source image frame from the image source and decoding the received source image frame into raw image data; (c) storing corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphic adapter in a video memory area allocated to the corresponding graphic adapter; And (d) synchronizing the respective divided image data stored in the video memory area allocated for each of the graphics adapters on a frame-by-frame basis and simultaneously transmitting the image data in parallel to the corresponding graphics adapter.
바람직하게는, 상기 (a) 단계는, (a1) 상기 멀티 디스플레이 장치에 연결된 상기 복수의 그래픽 어댑터들의 리스트를 추출하는 단계; (a2) 상기 복수의 그래픽 어댑터들 각각에 대한 상기 그래픽 어댑터별 서브-영역 설정 정보를 포함하는 그래픽 어댑터별 디스플레이 정보를 추출하거나 또는 입력받는 단계; (a3) 상기 영상 소스로부터의 상기 소스 영상의 해상도와 상기 멀티 디스플레이 장치의 전체 해상도를 비교하여, 상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율을 결정하는 단계; 및 (a4) 상기 결정된 픽셀 비율 및 상기 그래픽 어댑터별 서브-영역 설정 정보에 기초하여, 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계를 포함할 수 있다.Advantageously, step (a) comprises the steps of: (a1) extracting a list of the plurality of graphics adapters connected to the multi-display device; (a2) extracting or receiving display information for each of the plurality of graphic adapters, the display information for each of the plurality of graphic adapters including the sub-area setting information for each of the plurality of graphic adapters; (a3) comparing the resolution of the source image from the image source with the full resolution of the multi-display device to determine a pixel ratio between the source image and the multi-display device; And (a4) determining, based on the determined pixel ratio and the graphics adapter-specific sub-area setting information, a divided image area of the source image to be displayed by each of the plurality of graphics adapters, And allocating a video memory area in which the video data is to be stored.
바람직하게는, 상기 (b) 단계는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하는 단계를 더 포함할 수 있다.Advantageously, the step (b) may further comprise the step of providing a data time stamp (DTS) to the received source image frame based on the reception time of the source image frame.
바람직하게는, 상기 (c) 단계는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장할 수 있다.Advantageously, the step (c) may store each divided image data together with frame attribute information including the data time stamp in a video memory area allocated to the corresponding graphics adapter.
바람직하게는, 상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함할 수 있다.Advantageously, the frame attribute information may include the data time stamp, frame per second (FPS), and sequence number.
바람직하게는, 상기 (d) 단계는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송할 수 있다.Preferably, the step (d) comprises: receiving each of the divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter, and, based on the frame attribute information, May be synchronized on a frame-by-frame basis and simultaneously transmitted in parallel to a corresponding graphics adapter.
바람직하게는, 상기 (d) 단계는, (d1) 메인 핸들러(main handler)와 상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러(distributor handler)들을 서로 시간적으로 동기화시키는 단계; (d2) 상기 복수의 분산 핸들러 각각이 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하는 단계; (d3) 상기 복수의 분산 핸들러 각각이 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하는 단계; (d4) 상기 메인 핸들러가 상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 단계로서, 상기 영상 재생 정보는 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는, 단계; 및 (d5) 상기 복수의 분산 핸들러들이 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는 단계를 포함할 수 있다.Advantageously, step (d) comprises the steps of: (d1) synchronizing the main handler and the plurality of distributor handlers corresponding to each of the plurality of graphics adapters to each other in time; (d2) receiving the divided image data and the frame attribute information from a video memory area allocated to a corresponding graphic adapter of each of the plurality of distribution handlers; (d3) transmitting, by the plurality of distribution handlers, image reception information including the frame attribute information to the main handler; (d4) receiving, by the main handler, the image reception information transmitted from each of the plurality of distribution handlers, generating image reproduction information based on the received image reception information, and transmitting the generated image reproduction information to each of the plurality of distribution handlers, The video playback information includes a playback start time, a data time stamp of the playback subject division video data, and a sequence number; And (d5) receiving, by the plurality of distribution handlers, the image reproduction information transmitted from the main handler, generating, based on the received image reproduction information, the data time stamp and the divided image data corresponding to the sequence number To a corresponding graphics adapter in parallel.
바람직하게는, 상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성될 수 있다.Advantageously, said plurality of distribution handlers may be dynamically generated by said main handler.
본 발명의 다른 일 측면에 따르면, 멀티 디스플레이 장치에 대한 영상 병렬 랜더링 처리를 수행하는 영상 처리 장치로서, 각기 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들; 영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우 영상 데이터로 디코딩하는 디코딩 모듈; 및 상기 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하며, 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분산 랜더링 모듈을 포함하는, 영상 처리 장치가 제공된다.According to another aspect of the present invention, there is provided an image processing apparatus for performing an image parallel rendering processing on a multi-display apparatus, the apparatus comprising: a plurality of graphic adapters each controlling display of a predetermined sub-area of the multi-display apparatus; A decoding module that receives the source image frame from the image source and decodes the received source image frame into raw image data; And a display area between the image source and the multi-display device are compared and matched to determine a divided image area of a source image to be displayed by each of the plurality of graphic adapters, and the divided image data for each graphic adapter is stored And allocating corresponding video data of the decoded raw video data to the video memory area allocated to the corresponding graphics adapter based on the determined divided video area of the graphics adapter, There is provided an image processing apparatus including an image distributing and rendering module for simultaneously synchronizing each divided image data stored in a video memory area on a frame-by-frame basis and simultaneously transmitting the image data in parallel to a corresponding graphics adapter.
바람직하게는, 상기 영상 분산 랜더링 모듈은, 상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 디스플레이 영역 처리부; 디코딩된 로우 영상 데이터의 복수의 분할 영상 데이터가 각기 대응하는 그래픽 어댑터에 할당된 각각의 비디오 메모리 영역에 저장되는 비디오 메모리; 및 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분할 처리부를 포함할 수 있다.Preferably, the image distribution rendering module is configured to perform a division of the source image to be displayed by each of the plurality of graphic adapters based on the pixel ratio between the source image and the multi-display device and the sub- A display area processing unit for determining an image area and allocating a video memory area in which divided image data for each graphic adapter is to be stored; A video memory in which a plurality of pieces of divided image data of decoded row image data are stored in respective video memory areas assigned to corresponding graphic adapters; And storing the corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphics adapter in a video memory area allocated to the corresponding graphic adapter, And an image division processing unit for simultaneously transmitting the divided image data in parallel to the corresponding graphic adapter in synchronization with each frame.
바람직하게는, 상기 영상 분할 처리부는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하할 수 있다.Preferably, the image segmentation processing unit may provide a data time stamp (DTS) to the received source image frame based on the reception time of the source image frame.
바람직하게는, 상기 영상 분할 처리부는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장할 수 있다.Preferably, the image segmentation processing unit may store the segmented image data together with the frame attribute information including the data time stamp in a video memory area allocated to the corresponding graphic adapter.
바람직하게는, 상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함할 수 있다.Advantageously, the frame attribute information may include the data time stamp, frame per second (FPS), and sequence number.
바람직하게는, 상기 영상 분할 처리부는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송할 수 있다.Preferably, the image division processing unit receives each of the divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter, and stores the received respective divided image data on the basis of the frame attribute information It can be synchronized on a frame-by-frame basis and simultaneously transmitted in parallel to a corresponding graphics adapter.
바람직하게는, 상기 영상 분할 처리부는, 상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러로서, 상기 복수의 분산 핸들러 각각은 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하며, 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 상기 복수의 분산 핸들러; 및 상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 메인 핸들러를 포함할 수 있다.Preferably, the image division processing unit includes a plurality of distribution handlers corresponding to each of the plurality of graphic adapters, wherein each of the plurality of distribution handlers extracts, from the video memory area allocated to the corresponding graphics adapter, Receiving frame attribute information, transmitting image reception information including the frame attribute information to the main handler, receiving image playback information transmitted from the main handler, and receiving the playback start time To the corresponding graphics adapter in parallel, the data time stamp and the segmented image data corresponding to the sequence number in parallel; And image reproduction information including a reproduction start time, a data time stamp of the reproduction target division image data, and a sequence number, based on the received image reception information And a main handler for transmitting to each of the plurality of distribution handlers.
바람직하게는, 상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성될 수 있다.Advantageously, said plurality of distribution handlers may be dynamically generated by said main handler.
본 발명의 바람직한 일 실시예에 따르면, 멀티 디스플레이 시스템에 있어서 소스 영상에 대한 어떠한 영상 처리도 수행하지 않고, 소스 영상 신호로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 영상 신호를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송함으로써 영상 처리에 필요한 시간 및 자원을 크게 감소시키는 효과를 기대할 수 있다.According to a preferred embodiment of the present invention, in a multi-display system, a video signal to be displayed by each graphics adapter is extracted from a source video signal without performing any image processing on the source video, It is possible to expect the effect of greatly reducing the time and resources required for image processing by transmitting in parallel.
도 1은 종래 기술에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다.
도 3은 본 발명의 일 실시예에 따른 영상 분산 랜더링 모듈의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 영상 병렬 랜더링 처리 과정을 도시하는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 디스플레이 영역 비교/매칭 과정을 도시하는 순서도이다.
도 6a는 각각의 분할 영상의 획득 시점을 개념적으로 도시하는 도면이다.
도 6b는 본 발명에 따라 동기화되어 재생되는 분할 영상의 표출 시간을 개념적으로 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 재생 시간 및 재생 프레임 동기화 과정을 도시하는 순서도이다.1 is a schematic block diagram of a multi-display system according to the prior art.
2 is a schematic block diagram of a multi-display system according to an embodiment of the present invention.
3 is a block diagram of an image distribution and rendering module according to an embodiment of the present invention.
4 is a flowchart illustrating an image parallel rendering process performed by an image processing apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating a display area comparison / matching process performed by the image processing apparatus according to an exemplary embodiment of the present invention.
FIG. 6A is a diagram conceptually showing the acquisition time of each divided image.
FIG. 6B is a diagram conceptually illustrating display times of divided images reproduced in synchronization with the present invention.
7 is a flowchart illustrating a process of synchronizing a reproduction time and a reproduction frame performed by an image processing apparatus according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.
[본 발명의 바람직한 실시예][Preferred Embodiment of the Present Invention]
본 발명의 실시예에서, 용어 '멀티 디스플레이 장치'는 디스플레이 화면을 복수의 서브-영역들로 분할하고 각각의 서브-영역들을 하나의 그래픽 어댑터가 지원하는 방식의 디스플레이 장치를 의미한다. 이러한 '멀티 디스플레이 장치'는 예를 들어, 복수의 개별적인 디스플레이 장치들이 하나의 멀티 디스플레이 장치를 구성하는 멀티비전 방식의 디스플레이 장치일 수 있다. 그러나, 본 발명이 특정 디스플레이 장치에 한정되는 것은 아니며, 전술한 바와 같은 기능을 수행할 수 있는 모든 방식의 디스플레이 장치를 포괄한다.In an embodiment of the present invention, the term 'multi-display device' means a display device in which a display screen is divided into a plurality of sub-areas and each of the sub-areas is supported by one graphic adapter. This 'multi-display device' may be, for example, a multi-vision display device in which a plurality of individual display devices constitute one multi-display device. However, the present invention is not limited to a specific display device, and covers all kinds of display devices capable of performing the functions as described above.
또한, 용어 '소스 영상의 분할 영상 영역'이란 하나의 그래픽 어댑터가 디스플레이 해야하는 소스 영상의 일 영역을 의미하며, '분할 영상 데이터'란 전체 소스 영상 데이터 중 분할 영상 영역에 대응되는 영상 데이터를 의미한다.The term 'divided image region of a source image' means one region of a source image that one graphic adapter should display, and 'segmented image data' means image data corresponding to a segmented image region of the entire source image data .
멀티 디스플레이 시스템의 개괄An overview of multi-display systems
도 2는 본 발명의 일 실시예에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다. 이하에서, 도 2를 참조하여, 본 발명에 따른 멀티 디스플레이 시스템의 개략적인 구성과 기능에 대하여 살펴보도록 한다.2 is a schematic block diagram of a multi-display system according to an embodiment of the present invention. Hereinafter, a schematic configuration and functions of the multi-display system according to the present invention will be described with reference to FIG.
먼저, 본 발명에 따른 멀티 디스플레이 시스템의 구체적인 설명에 앞서, 본 발명의 가장 중요한 개념에 대하여 살펴보도록 한다. 본 발명은, 이상에서 살펴본 바와 같이 종래 기술에 따른 영상 처리 장치가 순차적이고 직렬적인 방식으로 영상 데이터를 처리함에 따라 발생하는 문제점을 해결하고자 한다. 따라서, 본 발명의 기본적인 개념은 소스 영상 데이터로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 분할 영상 데이터를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송하는 것이다. 이러한 개념을 구현하기 위하여, 본 발명은 전체 소스 영상 데이터로부터 각각의 그래픽 어댑터별 분할 영상 데이터를 추출하고, 추출된 그래픽 어댑터별 분할 영상 데이터를 대응하는 그래픽 어댑터로 동시에 병렬로 전송하도록 구성되는 영상 분산 랜더링 모듈(230)을 제안한다. 이러한 영상 분산 랜더링 모듈(230)에 대해서는 이하에서 도 2 및 도 3을 참조하여 구체적으로 설명하도록 한다.First, prior to a detailed description of the multi-display system according to the present invention, the most important concept of the present invention will be described. As described above, the present invention is intended to solve the problems caused by processing image data in a sequential and serial manner in the image processing apparatus according to the related art. Therefore, the basic idea of the present invention is to extract the segmented image data to be displayed in each graphic adapter from the source image data, and simultaneously transmit them in parallel to each of the graphic adapters. In order to realize such a concept, the present invention provides an image distributing system configured to extract segment image data for each graphic adapter from the entire source image data, and simultaneously transmit the segment image data for each of the graphic adapters to the corresponding graphic adapter in parallel, A
이제 도 2를 참조하면, 도 2에 도시된 바와 같이, 본 발명에 따른 멀티 디스플레이 시스템은 멀티 디스플레이 장치(100), 멀티 디스플레이 장치(100)에 대한 영상 병렬 랜더링 처리를 수행하기 위한 영상 처리 장치(200)(이하 '영상 처리 장치(200)'라 함), 및 영상 소스(300)를 포함할 수 있다.2, a multi-display system according to the present invention includes a
도 2의 영상 소스(300)는 인코딩된 다양한 소스 영상을 유선 및/또는 무선으로 영상 처리 장치(200)로 전송할 수 있는 다양한 정보 통신 기기일 수 있다. 예를 들어, 영상 소스(300)는 CCTV, 디지털 카메라, 디지털 캠코더, 개인용 컴퓨터, 노트북, 태블릿, 스마트 폰 등을 포함할 수 있지만, 이에 한정되지는 않는다. 또한, 도 2의 영상 소스(300)는 도 1의 영상 소스(300)와 실질적으로 동일한 영상 소스일 수 있다. 영상 소스(300)는 하나의 정지 영상을 전송하거나, 또는 복수의 순차적인 영상 프레임들을 포함하는 영상 스트림을 전송할 수도 있다. 이하에서, 영상 소스가 영상 스트림을 전송하는 실시예를 기준으로 설명하지만, 본 발명의 사상 및 원리가 정지 영상을 전송하는 실시예에도 동일하게 적용될 수 있다는 것을 주의해야 한다.The
도 2의 멀티 디스플레이 장치(100)는 도 1의 멀티 디스플레이 장치(100)와 실질적으로 동일한 디스플레이 장치일 수 있으며, 또는 상이한 디스플레이 장치일 수도 있다. 이하에서는, 종래 기술과 본 발명의 비교를 보다 더 명확하게 하기 위하여, 도 1과 동일한 서브-영역들을 가진 동일한 멀티 디스플레이 장치(100)가 사용되며 동일한 로우 영상 데이터가 사용되는 것으로 가정한 상태에서, 본 발명에 따른 멀티 디스플레이 시스템에 대하여 설명하도록 한다. 도 2에 도시된 멀티 디스플레이 장치(100)는 총 12개의 개별적인 디스플레이 장치(110a~110l)로 구성된 24면 멀티 디스플레이 장치로서, 본 발명에 따른 영상 처리 장치(200)로부터 출력되는 영상 데이터를 디스플레이한다. 특히, 도 2에 도시된 멀티 디스플레이 장치(100)의 디스플레이 화면은 제 1 서브-영역(120a), 제 2 서브-영역(120b), 제 3 서브-영역(120c), 및 제 4 서브-영역(120d)으로 구성되며, 각각의 서브-영역(120a~120d)은 본 발명에 따른 영상 처리 장치(200) 내의 대응하는 그래픽 어댑터(210a~210d)에 의해 제어된다. 다만, 멀티 디스플레이 장치(100)의 서브-영역들의 위치, 크기, 이를 제어하는 그래픽 어댑터 등의 디스플레이 설정은 필요에 따라 또는 사용자의 설정에 따라 변경될 수 있다는 점을 주의해야 한다.The
본 발명에 따른 영상 처리 장치(200)는 영상 소스(300)로부터 소스 영상(예를 들어, 소스 영상 스트림)을 수신하고, 수신된 소스 영상을 멀티 디스플레이 장치(100)를 통해 출력하도록 구성된다. 보다 구체적으로, 본 발명에 따른 영상 처리 장치(200)는 제 1 그래픽 어댑터(210a), 제 2 그래픽 어댑터(210b), 제 3 그래픽 어댑터(210c), 제 4 그래픽 어댑터(210d), 제 1 PCI 슬롯(212a), 제 2 PCI 슬롯(212b), 제 3 PCI 슬롯(212c), 제 4 PCI 슬롯(212d), 디코딩 모듈(220) 및 영상 분산 랜더링 모듈(230)을 포함할 수 있다. 이상의 구성 요소들 중 영상 분산 랜더링 모듈(230)을 제외한 나머지 구성 요소들은 도 1을 참조하여 설명한 대응되는 구성 요소들과 실질적으로 동일하므로, 이러한 구성 요소들에 대한 상세한 설명은 이상의 설명을 원용하기로 한다. 또한, 이상의 복수의 그래픽 어댑터들 각각은 일반적으로 널리 이용되고 있는 통상적인 그래픽 어댑터일 수 있다. 또한, 본 발명에서 이용되는 이러한 그래픽 어댑터는 그래픽 프로세싱을 가속하기 위한 백 버퍼(back buffer) 및 프론트 버퍼(front buffer)를 포함할 수 있다.The
이하에서는, 본 발명의 특징적인 구성 요소인 영상 분산 랜더링 모듈(230)을 중심으로 본 발명에 따른 영상 처리 장치(200)의 구성 및 기능에 대하여 설명하도록 한다. 전술한 바와 같이, 본 발명에 따른 영상 분산 랜더링 모듈(230)은 동시적이고 병렬적인 방식으로 디코딩 모듈(220)에 의해 디코딩된 로우 영상 데이터(320)를 처리하도록 구성될 수 있다. 이를 보다 구체적으로 살펴보도록 한다. 먼저, 도 1과 동일하게, 로우 영상 데이터(320)는 제 1 그래픽 어댑터(210a)에 의해 제 1 서브-영역(120a)에 디스플레이되어야 하는 제 1 분할 영상 데이터(320a), 제 2 그래픽 어댑터(210b)에 의해 제 2 서브-영역(120b)에 디스플레이되어야 하는 제 2 분할 영상 데이터(320b), 제 3 그래픽 어댑터(210c)에 의해 제 3 서브-영역(120c)에 디스플레이되어야 하는 제 3 분할 영상 데이터(320c), 및 제 4 그래픽 어댑터(210d)에 의해 제 4 서브-영역(120d)에 디스플레이되어야 하는 제 4 분할 영상 데이터(320d)를 포함한다. 영상 분산 랜더링 모듈(230)은 로우 영상 데이터(320)로부터 제 1 분할 영상 데이터(320a)를 추출하여 이를 제 1 그래픽 어댑터(210a)에 할당된 비디오 메모리의 제 1 메모리 영역에 저장하고, 로우 영상 데이터(320)로부터 제 2 분할 영상 데이터(320b)를 추출하여 이를 제 2 그래픽 어댑터(210b)에 할당된 비디오 메모리의 제 2 메모리 영역에 저장하며, 로우 영상 데이터(320)로부터 제 3 분할 영상 데이터(320c)를 추출하고 이를 제 3 그래픽 어댑터(210c)에 할당된 비디오 메모리의 제 3 메모리 영역에 저장하고, 로우 영상 데이터(320)로부터 제 4 분할 영상 데이터(320d)를 추출하고 이를 제 4 그래픽 어댑터(210d)에 할당된 비디오 메모리의 제 4 메모리 영역에 저장할 수 있다. 그런 다음, 도 2에 도시된 바와 같이, 영상 분산 랜더링 모듈(230)은 제 1 분할 영상 데이터(320a) 내지 제 4 분할 영상 데이터(320d)를 동시에 병렬로 대응하는 그래픽 어댑터(더 구체적으로는, 대응하는 그래픽 어댑터의 백 버퍼)로 전송함으로써, 영상의 병렬 랜더링 처리를 수행하도록 구성된다. 이러한 영상 병렬 랜더링 처리를 수행하기 위한 본 발명에 따른 영상 분산 랜더링 모듈(230)의 상세한 구성과 기능에 대해서는 이하에서 도 3을 참조하여 상세하게 설명하도록 한다.Hereinafter, the configuration and functions of the
영상 분산 랜더링 모듈의 구성 및 기능Configuration and Function of Image Distributed Rendering Module
도 3은 본 발명의 일 실시예에 따른 영상 분산 랜더링 모듈의 블록도이다. 이하에서 도 3을 참조하여, 본 발명에 따른 영상 분산 랜더링 모듈(230)의 구성 및 기능에 대하여 상세하게 설명하도록 한다.3 is a block diagram of an image distribution and rendering module according to an embodiment of the present invention. Hereinafter, the configuration and functions of the image distribution and
도 3에 도시된 바와 같이, 본 발명에 따른 영상 분산 랜더링 모듈(230)은 디스플레이 영역 처리부(240), 비디오 메모리(242), 및 영상 분할 처리부(246)를 포함할 수 있다.3, the image distribution and
먼저, 디스플레이 영역 처리부(240)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 화면을 비교하여 매칭하고, 매칭 결과 및 각 그래픽 어댑터의 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하도록 구성될 수 있다. 즉, 이상에서 설명된 바와 같이, 본 발명에 따른 영상 분산 랜더링 모듈(230)은 로우 영상 데이터(320)로부터 각 그래픽 어댑터가 멀티 디스플레이 장치(100) 상에 디스플레이해야 할 분할 영상 데이터만를 별도로 추출하고 저장하도록 구성되기 때문에, 각 그래픽 어댑터가 담당하고 있는 멀티 디스플레이 장치(100)의 서브-영역이 소스 영상의 어떠한 부분에 대응하는지를 먼저 결정해야 한다. 이러한 기능을 수행하기 위하여 먼저 그래픽 어댑터별 서브-영역 설정 정보가 필요하다. 이러한 그래픽 어댑터별 서브-영역 설정 정보는 시스템 기동 시에 사용자(예를 들어, 운영자)에 의해 입력될 수 있다. 예를 들어, 디스플레이 영역 처리부(240)는 사용자에게 그래픽 어댑터별 디스플레이 정보를 입력할 수 있는 디스플레이 설정 인터페이스를 제공하고, 디스플레이 설정 인터페이스를 통해 입력되는 그래픽 어댑터별 디스플레이 정보를 수신/저장하도록 구성된다. 이러한 그래픽 어댑터별 디스플레이 정보는 해당 그래픽 어댑터가 담당하는 서브-영역 설정 정보, 해상도 정보 등을 포함할 수 있다. 이러한 디스플레이 설정 과정은 영상 처리 장치(200)의 초기 세팅 과정에서 한 번만 수행될 수 있으며, 그 이후에는 저장된 설정 정보를 추출하여 사용할 수 있다. 물론, 필요에 따라 사용자는 언제든지 서브-영역 설정을 변경할 수 있다. First, the display
또한, 디스플레이 영역 처리부(240)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100) 사이의 픽셀 비율을 비교하여 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 화면을 매칭시키도록 구성될 수 있다. 예를 들어, 소스 영상이 1920x1080의 해상도이며, 멀티 디스플레이 장치(100)가 동일한 해상도를 가진 12개의 디스플레이 장치가 가로 4개 x 세로 3개의 어레이로 배열되어 구성된 경우, 디스플레이 영역 처리부(240)는 소스 영상을 4*3 마스크로 분할하고, 마스크 비율에 따라 각 그래픽 어댑터가 처리해야 할 분할 영상 영역의 픽셀 범위를 결정할 수 있다. 유사하게, 소스 영상이 1920x1080의 해상도이며, 멀티 디스플레이 장치(100)가 동일한 해상도를 가진 30개의 디스플레이 장치가 가로 6개 x 세로 5개의 어레이로 배열되어 구성된 경우, 디스플레이 영역 처리부(240)는 소스 영상을 6*5 마스크로 분할하고, 마스크 비율에 따라 각 그래픽 어댑터가 처리해야 할 분할 영상 영역의 픽셀 범위를 결정할 수 있다. In addition, the display
전술한 바와 같은 과정을 통해 각각의 그래픽 어댑터의 분할 영상 영역이 결정되면, 디스플레이 영역 처리부(240)는 비디오 메모리(242)에 그래픽 어댑터별 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하도록 구성된다. 예를 들어, 도 2에 도시된 실시예에 있어서, 제 1 그래픽 어댑터(210a)에 대응되는 제 1 분할 영상 데이터(320a)는 비디오 메모리(242) 내의 제 1 메모리 영역에 저장되도록 할당되고, 제 2 그래픽 어댑터(210b)에 대응되는 제 2 분할 영상 데이터(320b)는 비디오 메모리(242) 내의 제 2 메모리 영역에 저장되도록 할당되는 등이다. 한편, 이상에서 언급한 바와 같이, 본 발명에 따른 영상 처리 장치(200)는 소스 영상 스트림을 수신하여 처리하도록 구성되기 때문에, 분할 영상들의 프레임별 동기화 디스플레이를 달성하기 위하여 복수의 프레임들의 분할 영상 데이터를 저장해야 할 필요가 있다. 따라서, 그래픽 어댑터별로 할당되는 메모리 영역의 크기는 미리 설정된 수의 프레임들의 분할 영상 데이터를 저장하기에 충분하도록 설정될 수 있다. The display
전술한 바와 같은 과정을 통해 그래픽 어댑터별 분할 영상 영역 및 분할 영상 데이터가 저장될 비디오 메모리 영역이 결정되면, 디스플레이 영역 처리부(240)는 이러한 정보를 영상 분할 처리부(246)로 전송하고, 영상 분할 처리부(246)는 이러한 정보를 수신하여 영상 분산 랜더링 처리를 위하여 사용하도록 구성된다.When the video memory area for storing the divided image area and the divided image data for each graphic adapter is determined through the above-described process, the display
비디오 메모리(242)는 디코딩된 로우 영상 데이터의 복수의 분할 영상 데이터를 각기 대응하는 그래픽 어댑터에 할당된 각각의 비디오 메모리 영역에 저장하도록 구성된다. 이러한 비디오 메모리(242) 자체는 이미 공지된 기술을 사용하고 있는 바, 더 이상의 상세한 설명은 생략하기로 한다.The
본 발명에 따른 영상 분할 처리부(246)는 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하도록 구성된다.The image
보다 바람직하게, 본 발명에 따른 영상 분할 처리부(246)는, 전술한 바와 같이 소스 영상 스트림을 수신하는 실시예에 있어서 프레임별 동기화 분할 영상 처리를 수행하기 위하여 영상 소스(300)로부터의 소스 영상 프레임의 수신 시간에 기초하여 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하도록 구성될 수 있다. 또한, 영상 분할 처리부(246)는 데이터 타임 스탬프를 포함하는 프레임 속성 정보를 각각의 분할 영상 데이터에 부가하여 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하도록 구성될 수 있다. 이러한 프레임 속성 정보는 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함할 수 있다. The image
이러한 프레임 속성 정보는, 그 이후에 영상 분할 처리부(246)가 비디오 메모리(242)에 저장된 분할 영상 데이터들을 프레임적으로 동기화하여 동시에 병렬로 전송하기 위하여 사용된다. 보다 구체적으로, 영상 분할 처리부(246)는 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 분할 영상 데이터에 부가된 프레임 속성 정보를 수신하고(또는 추출하거나 또는 판독하고), 프레임 속성 정보에 기초하여 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송하도록 구성된다. This frame attribute information is used to frame-synchronize the segmented image data stored in the
이러한 동기화 기능을 달성하기 위하여, 본 발명에 따른 영상 분할 처리부(246)는 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러(distributor handler)들(250a~250d) 및 하나의 메인 핸들러(main handler)(248)를 포함할 수 있다. 메인 핸들러(248)는 각각의 분산 핸들러(250a~250d)가 대응하는 그래픽 어댑터로 프레임별로 동기화된 분할 영상 데이터를 동시에 병렬로 전송하게끔 복수의 분산 핸들러들(250a~250d)을 전체적으로 제어하도록 구성된다. 보다 구체적으로, 본 발명에 따른 메인 핸들러(248)는 복수의 분산 핸들러들(205a~250d)과의 시간적 동기화, 및 그래픽 어댑터들(210a~210d)로 출력해야 할 분할 영상 데이터의 프레임 동기화를 수행할 수 있다. 즉, 본 발명에 따른 메인 핸들러(248)는 복수의 분산 핸들러들(205a~250d)로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는 영상 재생 정보를 생성하여 복수의 분산 핸들러들(205a~250d)로 전송하도록 구성된다. 이러한 영상 재생 정보는 분산 핸들러들(205a~250d)에서 담당하는 그래픽 어댑터들(210a~210d)로 전송해야 할 프레임에 해당되는 분할 영상 데이터 및 전송해야 할 시간을 지정하기 위하여 사용된다.In order to achieve this synchronization function, the image
복수의 분산 핸들러들(205a~250d) 각각은 메인 핸들러(248)의 제어에 따라 복수의 그래픽 어댑터들(210a~210d) 각각에 대하여 프레임별로 동기화된 분할 영상 데이터를 동시에 병렬로 전송하도록 구성된다. 보다 구체적으로, 복수의 분산 핸들러들(205a~250d) 각각은 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 분할 영상 데이터 및 프레임 속성 정보를 수신하거나 또는 판독하고, 프레임 속성 정보를 포함하는 영상 수신 정보를 메인 핸들러(248)로 전송하며, 메인 핸들러(248)로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 지정된 분할 영상 데이터를 지정된 동시에 대응하는 그래픽 어댑터들(210a~210d)로 병렬로 전송하도록 구성된다. 도 3에 도시된 실시예에 있어서, 4개의 그래픽 어댑터들을 포함하는 도 2의 실시예를 기준으로 하기 때문에 영상 분할 처리부(246)는 이에 대응하여 제 1 그래픽 어댑터(210a)에 대한 제 1 분할 영상 데이터(320a)의 동기화 및 전송을 담당하는 제 1 분산 핸들러(250a), 제 2 그래픽 어댑터(210b)에 대한 제 2 분할 영상 데이터(320b)의 동기화 및 전송을 담당하는 제 2 분산 핸들러(250b), 제 3 그래픽 어댑터(210c)에 대한 제 3 분할 영상 데이터(320c)의 동기화 및 전송을 담당하는 제 3 분산 핸들러(250c), 및 제 4 그래픽 어댑터(210d)에 대한 제 4 분할 영상 데이터(320d)의 동기화 및 전송을 담당하는 제 4 분산 핸들러(250d)를 포함한다. 분산 핸들러의 수는 그래픽 어댑터들의 수에 따라 변화될 수 있다는 것이 당업자에게 자명할 것이다.Each of the plurality of distribution handlers 205a to 250d is configured to simultaneously transmit the divided image data synchronized on a frame-by-frame basis to each of the plurality of
한편, 전술한 바와 같은 메인 핸들러(248) 및 분산 핸들러들(205a~250d)은 소프트웨어, 또는 하드웨어, 또는 이들의 조합으로 구현될 수 있다. 또한, 분산 핸들러들(205a~250d)은 메인 핸들러(248)에 의해 동적으로 생성될 수도 있다. 즉, 일 실시예에 있어서, 분산 핸들러들(205a~250d)은 메인 핸들러(248)에 의해 그래픽 어댑터들의 수에 따라 동적으로 생성되는 프로그램 스레드일 수 있다. 이러한 실시예에 있어서, 메인 핸들러(248)는 분산 핸들러들(205a~250d)을 생성하고, 생성된 분산 핸들러들(205a~250d)로 영상 처리 장치(200)의 시스템 시간을 기준 시간으로서 전송함으로써 메인 핸들러(248)는 분산 핸들러들(205a~250d) 사이의 시간을 동기화시킬 수 있다. 또한, 메인 핸들러(248)는 생성된 분산 핸들러들(205a~250d)로 각각의 분산 핸들러가 담당해야 할 그래픽 어댑터에 대한 처리 요청 정보(그래픽 어댑터 ID, 해당 그래픽 어댑터의 분할 영상 정보, 해당 그래픽 어댑터에 할당된 비디오 메모리 영역, 출력 해상도, 디스플레이 서브-영역 등)를 전송함으로써, 각각의 분산 핸들러들(205a~250d)에 대응하는 그래픽 어댑터를 할당하도록 구성될 수 있다.Meanwhile, the
한편, 전술한 바와 같은 동기화 처리 과정에 대해서는 도 6a, 도 6b 및 도 7을 참조하여 이하에서 더 상세하게 설명하도록 한다.The above-described synchronization process will be described in more detail with reference to FIGS. 6A, 6B, and 7. FIG.
영상 병렬 랜더링 처리 과정의 일 예An Example of Image Parallel Rendering Process
도 4는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 영상 병렬 랜더링 처리 과정을 도시하는 순서도이다. 이하에서 도 4를 참조하여 본 발명에 따른 영상 병렬 랜더링 처리 과정에 대하여 살펴보도록 한다.4 is a flowchart illustrating an image parallel rendering process performed by an image processing apparatus according to an embodiment of the present invention. Hereinafter, an image parallel rendering process according to the present invention will be described with reference to FIG.
먼저, 본 발명에 따른 영상 처리 장치(200)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 화면을 비교하여 매칭함으로써, 소스 영상과 멀티 디스플레이 장치(100) 사이의 픽셀 비율을 결정한다(S400). First, the
소스 영상과 멀티 디스플레이 장치(100) 사이의 픽셀 비율이 결정되면, 영상 처리 장치(200)는 픽셀 비율과 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 그래픽 어댑터들(210a~210d) 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정한다(S402). 또한, 영상 처리 장치(200)는 비디오 메모리(242)에 그래픽 어댑터별 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당한다(S404). Once the pixel ratio between the source image and the
전술한 바와 같은 이러한 과정은 초기 설정 시에 한 번만 수행되고 저장될 수 있으며, 그 이후에는 저장된 설정 정보에 따라 영상 분산 랜더링을 처리할 수 있다. 물론, 영상 소스(300), 영상 처리 장치(200), 멀티 디스플레이 장치(100) 중 임의의 구성이 변경되는 경우에는, 전술한 바와 같은 과정을 다시 수행해야 할 것이다.Such a process as described above can be performed and stored only once at the initial setting, and thereafter, it is possible to process the image dispersion rendering according to the stored setting information. Of course, when any of the configurations of the
다음으로, 영상 처리 장치(200)는 영상 소스(300)로부터 전송되는 소스 영상을 수신하고, 수신된 소스 영상을 로우 영상 데이터로 디코딩한다(S406). 전술한 바와 같이, 영상 소스(300)로부터 소스 영상 스트림이 전송될 수 있으며, 이러한 경우, 영상 처리 장치(200)는 영상 소스(300)로부터 연속적으로 전송되는 소스 영상 스트림의 소스 영상 프레임 각각을 수신하고 디코딩할 수 있다. 이때, 영상 처리 장치(200)는 추후 분할 영상 데이터의 프레임별 동기화를 위하여, 수신된 소스 영상 프레임 각각에 데이터 타임 스탬프를 부여할 수 있다.Next, the
다음으로, 영상 처리 장치(200)는 디코딩된 영상 로우 데이터의 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장한다(S408). 한편, 전술한 바와 같이, 그래픽 어댑터에 할당된 비디오 메모리 영역에는 복수의 프레임 영상들의 복수의 분할 영상 데이터들이 저장될 수 있다. 예를 들어, 제 1 그래픽 어댑터(210a)에 대응되는 제 1 메모리 영역에는 제 1 프레임 영상의 제 1 분할 영상 데이터, 제 2 프레임 영상의 제 1 분할 영상 데이터, 제 3 프레임 프레임 영상의 제 1 분할 영상 데이터가 저장될 수 있는 등이다. 따라서, 영상 처리 장치(200)는 이러한 동일한 분할 영역에 대응되는 복수의 프레임의 분할 영상 데이터를 프레임별로 구별하기 위하여 데이터 타임 스탬프를 포함하는 프레임 속성 정보를 각각의 분할 영상 데이터에 부가하여 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장할 수 있다. 이러한 프레임 속성 정보는, 그 이후에 영상 처리 장치(200)가 비디오 메모리(242)에 저장된 분할 영상 데이터들을 프레임적으로 동기화하여 동시에 병렬로 대응하는 그래픽 어댑터들(210a~210d)로 전송하기 위하여 사용된다. Next, the
다음으로, 영상 처리 장치(200)는 그래픽 어댑터별 비디오 메모리 영역에 저장된 분할 영상 데이터들의 프레임 속성 정보를 체크한다(S410). 분할 영상 데이터들의 프레임 속성 정보에 기초하여, 영상 처리 장치(200)는 표출 프레임 및 표출 시간을 결정한다(S412).Next, the
표출 프레임 및 표출 시간이 결정되면, 영상 처리 장치(200)는 그래픽 어댑터별 비디오 메모리 영역에 저장된 복수의 분할 영상 데이터들 중 표출 프레임으로 결정된 프레임의 분할 영상 데이터를 추출하여 동시에 병렬로 대응하는 그래픽 어댑터들(210a~210d)로 전송한다(S414).When the display frame and the display time are determined, the
도 5는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 디스플레이 영역 비교/매칭 과정을 도시하는 순서도이다. 이하에서는, 도 5를 참조하여, 본 발명에 따른 디스플레이 영역 비교/매칭 과정을 살펴보도록 한다.5 is a flowchart illustrating a display area comparison / matching process performed by the image processing apparatus according to an exemplary embodiment of the present invention. Hereinafter, a display area comparison / matching process according to the present invention will be described with reference to FIG.
먼저, 영상 처리 장치(200)는 멀티 디스플레이 장치(100)에 연결된 내장된 그래픽 어댑터들의 리스트를 추출한다(S500). First, the
그래픽 어댑터들의 리스트가 추출되면, 영상 처리 장치(200)는 그래픽 어댑터별 디스플레이 정보를 추출하거나 또는 입력받는다(S502). 즉, 이상에서 설명된 바와 같이, 사용자에 의해 그래픽 어댑터별 서브-영역 설정 정보를 포함하는 그래픽 어댑터별 디스플레이 정보가 입력되어 저장되어 있는 경우 영상 처리 장치(200)는 저장된 그래픽 어댑터별 디스플레이 정보를 추출하며, 저장되어 있지 않은 경우 영상 처리 장치(200)는 사용자에게 입력 인터페이스를 제공하여 그래픽 어댑터별 디스플레이 정보를 입력받는다.When the list of graphic adapters is extracted, the
그래픽 어댑터별 디스플레이 정보가 획득되면, 영상 처리 장치(200)는 멀티 디스플레이 장치(100)를 구성하는 복수의 디스플레이 장치들(110a~110l)을 그래픽 어댑터별로 그룹핑한다(S504). 즉, 이렇게 그룹핑된 디스플레이 장치들의 디스플레이 영역이 해당되는 그래픽 어댑터가 담당하는 서브-영역에 해당될 수 있다.Once the display information for each graphic adapter is obtained, the
그런 다음 전술한 바와 같이, 영상 처리 장치(200)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 영역을 비교하여 매칭하고(S506), 각각의 그래픽 어댑터가 디스플레이할 소스 영상의 분할 영상 영역을 결정한다(S508). Then, as described above, the
도 6a는 각각의 분할 영상의 획득 시점을 개념적으로 도시하는 도면이다. 또한, 도 6b는 본 발명에 따라 동기화되어 재생되는 분할 영상의 표출 시간을 개념적으로 도시하는 도면이다. FIG. 6A is a diagram conceptually showing the acquisition time of each divided image. FIG. 6B is a diagram conceptually illustrating display times of divided images reproduced in synchronization according to the present invention.
먼저, 도 6a에 도시된 바와 같이, 본 발명에 따른 영상 처리 장치(200)에서 프레임별로 각각의 분할 영상 데이터(예를 들어, 프레임별 제 1 분할 영상 데이터(320a) 내지 제 4 분할 영상 데이터(320d))를 획득하는 시점이 시간적으로 달라질 수밖에 없다는 문제점이 있다. 따라서, 이러한 상태에서 각각의 분할 영상 데이터를 표출하게 되면 표출되는 화면의 동기화가 어긋나는 문제점이 발생한다.6A, in the
따라서, 본 발명에 따른 영상 처리 장치(200)는, 각각의 분할 영상 데이터의 획득 시점이 다르기 때문에 발생하는 동기화 문제점을 해결하기 위하여, 도 6b에 도시된 바와 같이 지정된 재생 시작 시간에 지정된 프레임에 해당되는 분할 영상 데이터를 동시에 병렬로 대응하는 그래픽 어댑터(210a~210d)로 전송하도록 구성된다. 이하에서, 이러한 동기화 프로세스에 대하여 구체적으로 설명하도록 한다.Accordingly, in order to solve the synchronization problem that occurs because the acquisition time of each divided image data is different, the
도 7은 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 재생 시간 및 재생 프레임 동기화 과정을 도시하는 순서도이다. 보다 더 구체적으로, 도 7은 본 발명에 따른 메인 핸들러(248)와 복수의 분산 핸들러들(205a~250d)에 사이에서 수행되는 동기화 프로세스를 도시한다.7 is a flowchart illustrating a process of synchronizing a reproduction time and a reproduction frame performed by an image processing apparatus according to an embodiment of the present invention. More specifically, FIG. 7 illustrates a synchronization process performed between a
일단, 메인 핸들러(248)가 동적으로 복수의 분산 핸들러들(205a~250d)을 생성하고, 분산 핸들러들(205a~250d) 각각에 그래픽 어댑터에 대한 처리 요청 정보를 전송하여 각각의 분산 핸들러들(205a~250d)에 대응하는 그래픽 어댑터의 할당을 완료한 상태를 가정하도록 한다.Once the
먼저, 메인 핸들러(248)는 영상 처리 장치(200)의 시스템 시간을 기준 시간으로서 복수의 분산 핸들러들(205a~250d)에 전송함으로써 복수의 분산 핸들러들(205a~250d)과의 시간 동기화를 수행한다(S700).First, the
시간 동기화가 이루어진 상태에서, 각각의 분산 핸들러(250a~250d)는 대응하는 그래픽 어댑터(210a-210d)에 할당된 비디오 메모리 영역으로부터 분할 영상 데이터 및 분할 영상 데이터에 대한 프레임 속성 정보를 수신하거나 또는 판독하거나 또는 추출하고(S702, S706, S710, S714), 해당 분할 영상 데이터에 부가된 프레임 속성 정보를 포함하는 영상 수신 정보를 메인 핸들러(248)로 전송한다(S704, S708, S712, S716). 이때, 분산 핸들러들(205a~250d)로부터 메인 핸들러(248)로 전송되는 영상 수신 정보는, 프레임 속성 정보(입력 수신 시간, DTS, FPS, 시퀀스 번호 등), 분산 핸들러 ID, 그래픽 어댑터 ID 등을 포함할 수 있다. 한편, 다른 실시예에 있어서, 각각의 분산 핸들러(250a~250d)는 분할 영상 데이터 자체가 아니라 분할 영상 데이터가 저장된 비디오 메모리 어드레스를 수신하도록 구성될 수도 있다. 또한, 또 다른 실시예에 있어서, 각각의 분산 핸들러(250a~250d)는 대응하는 그래픽 어댑터(210a-210d)에 할당된 비디오 메모리 영역을 실시간으로 모니터링하고, 새로운 분할 영상 데이터가 해당 비디오 메모리 영역에 저장되는 경우 대응되는 프레임 속성 정보를 추출하고 영상 수신 정보를 생성하여 메인 핸들러(248)로 전송하도록 구성될 수도 있다.With the time synchronization in progress, each of the
한편, 여기에서 주의해야 할 점은, 도면에 도시된 분할 영상 데이터의 수신(또는 판독 또는 추출) 시점 및 영상 수신 정보 전송 시점은 오로지 예시적인 것이며, 분할 영상 데이터의 수신(또는 판독 또는 추출) 및 영상 수신 정보의 전송이 도면에 도시된 것과 상이한 순서로 일어날 수 있다는 것이다. 즉, 예를 들어, 제 2 분산 핸들러(250b)가 제 3 분산 핸들러(250c)보다 분할 영상 데이터를 더 늦은 시점에 획득할 수 있으며, 따라서 제 2 분산 핸들러(250b)가 제 3 분산 핸들러(250c)보다 더 늦은 시점에 영상 수신 정보를 전송할 수도 있다.It should be noted here that the receiving (or reading or extracting) time point and the image receiving information transmitting time point of the divided image data shown in the drawings are merely exemplary and the receiving (or reading or extracting) of the divided image data and The transmission of the video reception information can take place in an order different from that shown in the figure. That is, for example, the second distribution handler 250b may acquire the partition image data at a later time than the
메인 핸들러(248)는 복수의 분산 핸들러들(250a~250d) 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간 및 재생 대상 프레임을 결정하고(S718), 재생 시작 시간 및 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및/또는 시퀀스 번호(즉, 재생할 프레임을 식별할 수 있는 정보)를 포함하는 영상 재생 정보를 생성하여 복수의 분산 핸들러들(250a~250d) 각각으로 전송한다(S720).The
복수의 분산 핸들러들(250a~250d)은 메인 핸들러(248)로부터 전송되는 영상 재생 정보를 수신하고, 영상 재생 정보 내에 지정된 재생 시작 시간에 지정된 프레임에 해당되는 분할 영상 데이터를 대응하는 그래픽 어댑터들(210a~210d)로 동시에 병렬로 전송한다(S722).The plurality of
따라서, 이상과 같은 동기화 프로세스에 의하여, 본 발명에 따른 영상 처리 장치(200)는 도 6b에 도시된 바와 같이, 정확히 동기화된 시점에 동기화된 프레임의 분할 영상 데이터들을 대응하는 그래픽 어댑터들(210a~210d)을 통해 멀티 디스플레이 장치(100) 상에 표출할 수 있다.Accordingly, by the above-described synchronization process, the
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(megneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동되도록 구성될 수 있으며, 그 역도 마찬가지다. Embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk, and a magnetic tape; optical media such as CD-ROM and DVD; magnetic recording media such as a floppy disk; Includes hardware devices specifically configured to store and perform program instructions such as megneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .
Claims (16)
(a) 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하고, 디스플레이 영역 매칭 결과 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계;
(b) 상기 영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우(raw) 영상 데이터로 디코딩하는 단계;
(c) 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는 단계; 및
(d) 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 단계를 포함하는, 영상 처리 방법.
A video processing method performed by an image processing apparatus for performing an image parallel rendering processing on a multi-display apparatus, the image processing apparatus including a plurality of graphic adapters for controlling display of a predetermined sub- The method comprising:
(a) comparing and matching display regions between an image source and the multi-display device, and based on display region matching results and sub-region setting information for each graphics adapter, dividing a source image to be displayed by each of the plurality of graphics adapters Determining a video area and allocating a video memory area in which divided video data for each graphics adapter is to be stored;
(b) receiving a source image frame from the image source and decoding the received source image frame into raw image data;
(c) storing corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphic adapter in a video memory area allocated to the corresponding graphic adapter; And
(d) synchronizing the respective divided image data stored in the video memory area allocated for each of the graphic adapters on a frame-by-frame basis, and simultaneously transmitting the image data in parallel to the corresponding graphics adapter.
상기 (a) 단계는,
(a1) 상기 멀티 디스플레이 장치에 연결된 상기 복수의 그래픽 어댑터들의 리스트를 추출하는 단계;
(a2) 상기 복수의 그래픽 어댑터들 각각에 대한 상기 그래픽 어댑터별 서브-영역 설정 정보를 포함하는 그래픽 어댑터별 디스플레이 정보를 추출하거나 또는 입력받는 단계;
(a3) 상기 영상 소스로부터의 상기 소스 영상의 해상도와 상기 멀티 디스플레이 장치의 전체 해상도를 비교하여, 상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율을 결정하는 단계; 및
(a4) 상기 결정된 픽셀 비율 및 상기 그래픽 어댑터별 서브-영역 설정 정보에 기초하여, 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계를 포함하는, 영상 처리 방법.
The method according to claim 1,
The step (a)
(a1) extracting a list of the plurality of graphics adapters connected to the multi-display device;
(a2) extracting or receiving display information for each of the plurality of graphic adapters, the display information for each of the plurality of graphic adapters including the sub-area setting information for each of the plurality of graphic adapters;
(a3) comparing the resolution of the source image from the image source with the full resolution of the multi-display device to determine a pixel ratio between the source image and the multi-display device; And
(a4) determining a divided image area of the source image to be displayed by each of the plurality of graphic adapters, based on the determined pixel ratio and the sub-area setting information for each of the graphics adapters, And allocating a video memory area in which data is to be stored.
상기 (b) 단계는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하는 단계를 더 포함하는, 영상 처리 방법.
The method according to claim 1,
Wherein the step (b) further comprises the step of providing a data time stamp (DTS) to the received source image frame based on the reception time of the source image frame.
상기 (c) 단계는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는, 영상 처리 방법.
The method of claim 3,
Wherein the step (c) stores each divided image data together with frame attribute information including the data time stamp in a video memory area assigned to a corresponding graphics adapter.
상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함하는, 영상 처리 방법.
The method of claim 4,
Wherein the frame attribute information includes the data time stamp, a frame per second (FPS), and a sequence number.
상기 (d) 단계는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 영상 처리 방법.
The method of claim 4,
Wherein the step (d) comprises: receiving each divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter, and synchronizing the received divided image data on a frame-by-frame basis, And simultaneously transmitting in parallel to a corresponding graphics adapter.
상기 (d) 단계는,
(d1) 메인 핸들러(main handler)와 상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러(distributor handler)들을 서로 시간적으로 동기화시키는 단계;
(d2) 상기 복수의 분산 핸들러 각각이 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하는 단계;
(d3) 상기 복수의 분산 핸들러 각각이 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하는 단계;
(d4) 상기 메인 핸들러가 상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 단계로서, 상기 영상 재생 정보는 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는, 단계; 및
(d5) 상기 복수의 분산 핸들러들이 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는 단계를 포함하는, 영상 처리 방법.
The method of claim 6,
The step (d)
(d1) temporally synchronizing a main handler and a plurality of distributor handlers corresponding to each of the plurality of graphics adapters with each other;
(d2) receiving the divided image data and the frame attribute information from a video memory area allocated to a corresponding graphic adapter of each of the plurality of distribution handlers;
(d3) transmitting, by the plurality of distribution handlers, image reception information including the frame attribute information to the main handler;
(d4) receiving, by the main handler, the image reception information transmitted from each of the plurality of distribution handlers, generating image reproduction information based on the received image reception information, and transmitting the generated image reproduction information to each of the plurality of distribution handlers, The video playback information includes a playback start time, a data time stamp of the playback subject division video data, and a sequence number; And
(d5) receiving the image reproduction information transmitted from the main handler by the plurality of distribution handlers, and dividing the divided image data corresponding to the data time stamp and the sequence number at the reproduction start time on the basis of the received image reproduction information At the same time, in parallel to a corresponding graphics adapter.
상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성되는, 영상 처리 방법.
The method of claim 7,
Wherein the plurality of distribution handlers are dynamically generated by the main handler.
각기 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들;
영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우 영상 데이터로 디코딩하는 디코딩 모듈; 및
상기 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하며, 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분산 랜더링 모듈을 포함하는, 영상 처리 장치.
An image processing apparatus for performing image parallel rendering processing on a multi-display apparatus,
A plurality of graphics adapters each controlling display of a predetermined sub-area of the multi-display device;
A decoding module that receives the source image frame from the image source and decodes the received source image frame into raw image data; And
A display area between the image source and the multi-display device is compared and matched to determine a divided image area of a source image to be displayed by each of the plurality of graphic adapters, A memory area allocated to each of the graphics adapters, and stores corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphics adapter in a video memory area assigned to the corresponding graphic adapter, And an image distribution rendering module that synchronizes the respective divided image data stored in the memory area on a frame-by-frame basis and simultaneously transmits the image data in parallel to a corresponding graphics adapter.
상기 영상 분산 랜더링 모듈은,
상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 디스플레이 영역 처리부;
디코딩된 로우 영상 데이터의 복수의 분할 영상 데이터가 각기 대응하는 그래픽 어댑터에 할당된 각각의 비디오 메모리 영역에 저장되는 비디오 메모리; 및
상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분할 처리부를 포함하는, 영상 처리 장치.
The method of claim 9,
Wherein the image distribution rendering module comprises:
Determining a divided image area of the source image to be displayed by each of the plurality of graphic adapters based on a pixel ratio between the source image and the multi-display device and sub-area setting information per graphic adapter, A display area processing unit for allocating a video memory area in which the divided image data is to be stored;
A video memory in which a plurality of pieces of divided image data of decoded row image data are stored in respective video memory areas assigned to corresponding graphic adapters; And
Storing the corresponding divided image data of the decoded raw image data based on the determined divided image area of each graphic adapter in a video memory area allocated to the corresponding graphic adapter, And an image division processing unit for synchronizing the divided image data on a frame-by-frame basis and simultaneously transmitting them in parallel to a corresponding graphics adapter.
상기 영상 분할 처리부는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하는, 영상 처리 장치.
The method of claim 10,
Wherein the image segmentation processing unit gives a data time stamp (DTS) to the received source image frame based on a reception time of the source image frame.
상기 영상 분할 처리부는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는, 영상 처리 장치.
The method of claim 11,
Wherein the image segmentation processing unit stores each divided image data together with frame attribute information including the data time stamp in a video memory area assigned to a corresponding graphics adapter.
상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함하는, 영상 처리 장치.
The method of claim 12,
Wherein the frame attribute information includes the data time stamp, a frame per second (FPS), and a sequence number.
상기 영상 분할 처리부는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 영상 처리 장치.
The method of claim 12,
Wherein the image division processing unit receives the divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter and synchronizes the received divided image data on a frame-by-frame basis based on the frame attribute information And at the same time to the corresponding graphics adapter in parallel.
상기 영상 분할 처리부는,
상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러로서, 상기 복수의 분산 핸들러 각각은 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하며, 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 상기 복수의 분산 핸들러; 및
상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 메인 핸들러를 포함하는, 영상 처리 장치.
15. The method of claim 14,
Wherein the image division processing unit comprises:
A plurality of distribution handlers corresponding to each of the plurality of graphics adapters, wherein each of the plurality of distribution handlers receives the divided image data and the frame attribute information from a video memory area assigned to a corresponding graphics adapter, Receiving the video reproduction information transmitted from the main handler, and transmitting the data time stamp and the sequence number at the reproduction start time based on the received video reproduction information to the main handler The plurality of distribution handlers transmitting the corresponding divided image data in parallel to a corresponding graphics adapter at the same time; And
Receiving image transmission information transmitted from each of the plurality of distribution handlers, generating image reproduction information including a reproduction start time, a data time stamp of the reproduction target division image data, and a sequence number based on the received image reception information, And a main handler for transmitting the main handler to each of the plurality of distribution handlers.
상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성되는, 영상 처리 장치.16. The method of claim 15,
Wherein the plurality of distribution handlers are dynamically generated by the main handler.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170092010A KR101987356B1 (en) | 2017-07-20 | 2017-07-20 | An image processing apparatus and method for image parallel rendering processing |
CN201710637447.3A CN109285108B (en) | 2017-07-20 | 2017-07-28 | Image processing device and method for image parallel rendering processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170092010A KR101987356B1 (en) | 2017-07-20 | 2017-07-20 | An image processing apparatus and method for image parallel rendering processing |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190009972A true KR20190009972A (en) | 2019-01-30 |
KR101987356B1 KR101987356B1 (en) | 2019-06-10 |
Family
ID=65185597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170092010A KR101987356B1 (en) | 2017-07-20 | 2017-07-20 | An image processing apparatus and method for image parallel rendering processing |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101987356B1 (en) |
CN (1) | CN109285108B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110381267B (en) * | 2019-08-21 | 2021-08-20 | 成都索贝数码科技股份有限公司 | Method for realizing large-format multilayer real-time editing based on intra-frame segmentation clustering |
CN112057852B (en) * | 2020-09-02 | 2021-07-13 | 北京蔚领时代科技有限公司 | Game picture rendering method and system based on multiple display cards |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110037051A (en) * | 2009-10-05 | 2011-04-13 | 주식회사 글로벌미디어테크 | High speed processing method for image data using parallel processors on graphics processing unit |
KR20120008741A (en) * | 2010-07-20 | 2012-02-01 | 엘지전자 주식회사 | Multi-vision system and picture visualizing method the same |
KR20140077757A (en) * | 2012-12-14 | 2014-06-24 | 한국전자통신연구원 | Method for displaying of digital signage |
KR101513413B1 (en) * | 2014-03-07 | 2015-04-22 | 큐보스 주식회사 | Android-based Device of providing matrix-type UHD video |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008108469A1 (en) * | 2007-03-07 | 2008-09-12 | Sony Corporation | Display control device, display control method, display control program and display system |
CN202422104U (en) * | 2012-02-10 | 2012-09-05 | 广州瀚阳信息科技有限公司 | Multi-screen parallel massive information display system |
CN102541501A (en) * | 2012-02-10 | 2012-07-04 | 广州瀚阳信息科技有限公司 | Multi-screen parallel massive information display system |
CN103049926B (en) * | 2012-12-24 | 2016-04-13 | 广东威创视讯科技股份有限公司 | Distributed three-dimensional rendering system |
-
2017
- 2017-07-20 KR KR1020170092010A patent/KR101987356B1/en active IP Right Grant
- 2017-07-28 CN CN201710637447.3A patent/CN109285108B/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110037051A (en) * | 2009-10-05 | 2011-04-13 | 주식회사 글로벌미디어테크 | High speed processing method for image data using parallel processors on graphics processing unit |
KR20120008741A (en) * | 2010-07-20 | 2012-02-01 | 엘지전자 주식회사 | Multi-vision system and picture visualizing method the same |
KR20140077757A (en) * | 2012-12-14 | 2014-06-24 | 한국전자통신연구원 | Method for displaying of digital signage |
KR101513413B1 (en) * | 2014-03-07 | 2015-04-22 | 큐보스 주식회사 | Android-based Device of providing matrix-type UHD video |
Also Published As
Publication number | Publication date |
---|---|
CN109285108A (en) | 2019-01-29 |
KR101987356B1 (en) | 2019-06-10 |
CN109285108B (en) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6771278B2 (en) | Image processing system, image display method, recording medium and image display apparatus | |
CN101388992B (en) | Information processing apparatus and information processing method | |
US7145947B2 (en) | Video data processing apparatus and method, data distributing apparatus and method, data receiving apparatus and method, storage medium, and computer program | |
US8401339B1 (en) | Apparatus for partitioning and processing a digital image using two or more defined regions | |
US11483629B2 (en) | Providing virtual content based on user context | |
KR102229927B1 (en) | Multi-Screen System, Picture Partition Server and Picture Processing Method thereof, Divided Picture Terminal and Multi-Screen Control Method thereof | |
US20140292619A1 (en) | Display system, display control apparatus, and image provision apparatus thereof | |
WO2017118078A1 (en) | Image processing method, playing method and related device and system | |
EP2441269A2 (en) | Signal processing method and apparatus therefor using screen size of display device | |
CN105407252A (en) | Method and device for synchronous display of pictures | |
CN102024445A (en) | Method and apparatus for displaying video signals from plurality of input sources | |
KR101987356B1 (en) | An image processing apparatus and method for image parallel rendering processing | |
US10848837B2 (en) | Device and method for processing high-definition 360-degree VR image | |
CN101132506B (en) | Video receiving apparatus and video receiving method | |
US20080180467A1 (en) | Ultra-resolution display technology | |
JP2017072644A (en) | Display control device | |
US10572209B2 (en) | Multi-display system | |
KR20180052255A (en) | Method and Apparatus for Providing and Storing Streaming Contents | |
US20020190979A1 (en) | System and method for parallel rendering of images | |
CN113691862B (en) | Video processing method, electronic device for video playing and video playing system | |
KR101513413B1 (en) | Android-based Device of providing matrix-type UHD video | |
KR101500968B1 (en) | Video processing device and method based on space and location sensing | |
WO2019017695A1 (en) | Display apparatus, method of controlling the same, and computer program product thereof | |
CN112099745B (en) | Image display method, device and system | |
WO2020204253A1 (en) | Region-of-interest-based vr image receiving apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |