KR20190009972A - An image processing apparatus and method for image parallel rendering processing - Google Patents

An image processing apparatus and method for image parallel rendering processing Download PDF

Info

Publication number
KR20190009972A
KR20190009972A KR1020170092010A KR20170092010A KR20190009972A KR 20190009972 A KR20190009972 A KR 20190009972A KR 1020170092010 A KR1020170092010 A KR 1020170092010A KR 20170092010 A KR20170092010 A KR 20170092010A KR 20190009972 A KR20190009972 A KR 20190009972A
Authority
KR
South Korea
Prior art keywords
image
image data
frame
graphic
adapter
Prior art date
Application number
KR1020170092010A
Other languages
Korean (ko)
Other versions
KR101987356B1 (en
Inventor
박경식
이주상
Original Assignee
이에스이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이에스이 주식회사 filed Critical 이에스이 주식회사
Priority to KR1020170092010A priority Critical patent/KR101987356B1/en
Priority to CN201710637447.3A priority patent/CN109285108B/en
Publication of KR20190009972A publication Critical patent/KR20190009972A/en
Application granted granted Critical
Publication of KR101987356B1 publication Critical patent/KR101987356B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware

Abstract

Disclosed are an apparatus for processing an image for a multi-display system and a method thereof which can extract a division image signal to be displayed in each graphic adaptor from a source image signal to simultaneously transmit the division image signal to each graphic adaptor in parallel without performing any image processing on a source image.

Description

영상 병렬 랜더링 처리를 위한 영상 처리 장치 및 방법{AN IMAGE PROCESSING APPARATUS AND METHOD FOR IMAGE PARALLEL RENDERING PROCESSING}TECHNICAL FIELD [0001] The present invention relates to an image processing apparatus and a method for image parallel rendering,

본 발명은 영상 병렬 랜더링 처리를 위한 영상 처리 장치 및 방법에 관한 것으로서, 더 구체적으로는, 소스 영상에 대한 어떠한 영상 처리도 수행하지 않고, 소스 영상 신호로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 영상 신호를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송하고 디스플레이하는, 영상 병렬 랜더링 처리를 위한 영상 처리 장치 및 방법에 관한 것이다. The present invention relates to an image processing apparatus and method for image parallel rendering, and more particularly, to an image processing apparatus and method for performing image parallel rendering, And simultaneously transmitting and displaying the image data in parallel with each of the graphic adapters, and to an image processing apparatus and method for image parallel rendering processing.

정보 통신 기술의 발달로 인하여 다양한 유형의 디스플레이 장치들이 널리 이용되고 있는 추세이다. 특히, 사용자들의 개인적인 취향, 특정 용도(예를 들어, 공연/스포츠 중계, 관제 상황 제어) 등에 기인하여 대형 디스플레이 화면에 대한 필요성이 나날이 증가하고 있다. 대형 디스플레이 화면을 제조하기 위한 기술적인 한계, 비싼 제조 비용 등에 기인하여, 이러한 대형 디스플레이 화면을 구성하기 위해 복수의 개별적인 디스플레이 장치를 하나의 대형 멀티 디스플레이 장치를 구성하는 기술이 널리 이용되고 있다.Due to the development of information and communication technology, various types of display devices are widely used. Particularly, the necessity for a large display screen is increasing day by day due to personal taste of users, specific use (for example, performance / sport relay, control of control situation) and the like. Techniques for constructing one large multi-display device with a plurality of individual display devices to constitute such a large display screen are widely used due to technical limitations for manufacturing a large display screen and expensive manufacturing costs.

도 1은 종래 기술에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다. 도 1을 참조하여 종래 기술에 따른 멀티 디스플레이 시스템에 대하여 간략히 살펴보도록 한다. 종래 기술에 따른 멀티 디스플레이 시스템은 멀티 디스플레이 장치(100) 및 종래 기술에 따른 영상 처리 장치(10)를 포함한다.1 is a schematic block diagram of a multi-display system according to the prior art. A multi-display system according to the related art will be briefly described with reference to FIG. A multi-display system according to the prior art includes a multi-display device 100 and an image processing apparatus 10 according to the prior art.

도 1에 도시된 멀티 디스플레이 장치(100)는 총 12개의 개별적인 디스플레이 장치(110a~110l)로 구성된 24면 멀티 디스플레이 장치로서, 영상 처리 장치(10)로부터 출력되는 영상 데이터를 디스플레이한다. 특히, 도 1에 도시된 멀티 디스플레이 장치(100)의 디스플레이 화면은 제 1 서브-영역(120a), 제 2 서브-영역(120b), 제 3 서브-영역(120c), 및 제 4 서브-영역(120d)으로 구성되며, 각각의 서브-영역(120a~120d)은 종래 기술에 따른 영상 처리 장치(10) 내의 대응하는 그래픽 어댑터(12a~12d)에 의해 제어된다.The multi-display device 100 shown in FIG. 1 is a 24-screen multi-display device composed of a total of twelve individual display devices 110a to 110l, and displays image data output from the image processing device 10. FIG. In particular, the display screen of the multi-display device 100 shown in FIG. 1 includes a first sub-area 120a, a second sub-area 120b, a third sub-area 120c, And each of the sub-areas 120a to 120d is controlled by a corresponding graphics adapter 12a to 12d in the image processing apparatus 10 according to the related art.

종래 기술에 따른 영상 처리 장치(10)는 영상 소스(300)로부터 소스 영상을 수신하고, 수신된 소스 영상을 멀티 디스플레이 장치(100)를 통해 출력하도록 구성된다. 보다 구체적으로, 종래 기술에 따른 영상 처리 장치(10)는 제 1 그래픽 어댑터(12a), 제 2 그래픽 어댑터(12b), 제 3 그래픽 어댑터(12c), 제 4 그래픽 어댑터(12d), 제 1 PCI 슬롯(14a), 제 2 PCI 슬롯(14b), 제 3 PCI 슬롯(14c), 제 4 PCI 슬롯(14d), 및 디코딩 모듈(16)을 포함할 수 있다.The image processing apparatus 10 according to the related art is configured to receive a source image from an image source 300 and output the received source image through the multi-display device 100. More specifically, the image processing apparatus 10 according to the related art includes a first graphics adapter 12a, a second graphics adapter 12b, a third graphics adapter 12c, a fourth graphics adapter 12d, a first PCI Slot 14a, a second PCI slot 14b, a third PCI slot 14c, a fourth PCI slot 14d, and a decoding module 16.

디코딩 모듈(16)은 영상 소스(300)로부터 인코딩된 소스 영상을 수신하고, 수신된 소스 영상을 로우(raw) 영상 데이터(320)로 디코딩하여 그래픽 어댑터들로 출력하도록 구성된다. 제 1 그래픽 어댑터(12a) 내지 제 4 그래픽 어댑터(12d)는 각기 제 1 PCI 슬롯(14a) 내지 제 4 PCI 슬롯(14d)에 설치되며, 디코딩 모듈(16)로부터 출력되는 디코딩된 로우 영상 데이터를 수신하여 멀티 디스플레이 장치(100)의 제 1 서브-영역(120a) 내지 제 4 서브-영역(120d) 중 대응하는 서브-영역 상에 디스플레이하도록 구성된다.The decoding module 16 is configured to receive the encoded source image from the image source 300 and to decode the received source image into raw image data 320 and output to the graphics adapters. The first to fourth graphic adapters 12a to 12d are installed in the first to fourth PCI slots 14a to 14d respectively and decode the decoded raw video data output from the decoding module 16 Area 120a to the fourth sub-area 120d on the corresponding sub-area of the multi-display device 100. The display of the first sub-

특히 주목해야 하는 점은, 전술한 바와 같이 구성된 종래 기술에 따른 영상 처리 장치(10)는 순차적이고 직렬적인 방식으로 디코딩된 로우 영상 데이터(320)를 처리하도록 구성된다는 점이다. 이를 보다 구체적으로 살펴보도록 한다. 먼저, 도면에 도시된 바와 같이, 로우 영상 데이터(320)는 제 1 그래픽 어댑터(12a)에 의해 제 1 서브-영역(120a)에 디스플레이되어야 하는 제 1 분할 영상 데이터(320a), 제 2 그래픽 어댑터(12b)에 의해 제 2 서브-영역(120b)에 디스플레이되어야 하는 제 2 분할 영상 데이터(320b), 제 3 그래픽 어댑터(12c)에 의해 제 3 서브-영역(120c)에 디스플레이되어야 하는 제 3 분할 영상 데이터(320c), 및 제 4 그래픽 어댑터(12d)에 의해 제 4 서브-영역(120d)에 디스플레이되어야 하는 제 4 분할 영상 데이터(320d)를 포함한다. It should be noted that the image processing apparatus 10 according to the related art constructed as described above is configured to process the decoded raw image data 320 in a sequential and serial manner. Let's look at this in more detail. First, as shown in the drawing, the row image data 320 includes first divided image data 320a to be displayed in the first sub-area 120a by the first graphic adapter 12a, The second divided image data 320b to be displayed in the second sub-area 120b by the third graphic adapter 12b, the third divided image data 320b to be displayed in the third sub-area 120c by the third graphic adapter 12c, Image data 320c and fourth divided image data 320d to be displayed in the fourth sub-area 120d by the fourth graphic adapter 12d.

먼저, 디코딩 모듈(16)은 제 1 분할 영상 데이터(320a) 내지 제 4 분할 영상 데이터(320d)를 모두 포함하는 전체 로우 영상 데이터(320)를 제 1 그래픽 어댑터(12a)로 전송하며, 제 1 그래픽 어댑터는 모든 분할 영상 데이터를 포함하는 전체 로우 영상 데이터(320)를 수신하고, 전체 로우 영상 데이터(320) 중 제 1 분할 영상 데이터(320a)를 추출하여 제 1 서브-영역(120a) 상에 디스플레이한다. 그런 다음, 제 1 그래픽 어댑터(12a)는 제 1 분할 영상 데이터(320a)가 제거된 로우 영상 데이터(320)를 제 2 그래픽 어댑터(12b)로 전송하며, 제 2 그래픽 어댑터(12b)가 로우 영상 데이터(320')를 수신하고 수신된 로우 영상 데이터(320') 중 제 2 분할 영상 데이터(320b)를 추출하여 제 2 서브-영역(120b) 상에 디스플레이한다. 마찬가지로, 제 2 그래픽 어댑터(12b)는 제 1 분할 영상 데이터(320a) 및 제 2 분할 영상 데이터(320b)가 제거된 로우 영상 데이터(320'')를 제 3 그래픽 어댑터(12c)로 전송하며, 제 3 그래픽 어댑터(12c)가 로우 영상 데이터(320'')를 수신하고 수신된 로우 영상 데이터(320'') 중 제 3 분할 영상 데이터(320c)를 추출하여 제 3 서브-영역(120c) 상에 디스플레이한다. 마지막으로, 제 3 그래픽 어댑터(12c)는 제 1 분할 영상 데이터(320a) 내지 제 3 분할 영상 데이터(320c)가 제거된 로우 영상 데이터(320''')(즉, 제 4 분할 영상 데이터(320d))를 제 4 그래픽 어댑터(12d)로 전송하며, 제 4 그래픽 어댑터(12d)가 로우 영상 데이터(320''')를 수신하고 제 4 분할 영상 데이터(320d)를 제 4 서브-영역(120d) 상에 디스플레이한다.The decoding module 16 transmits the entire low image data 320 including the first divided image data 320a to the fourth divided image data 320d to the first graphic adapter 12a, The graphic adapter receives the entire row image data 320 including all the divided image data and extracts the first divided image data 320a of the entire row image data 320 and outputs the extracted first divided image data 320a on the first sub- Display. Then, the first graphic adapter 12a transmits the row image data 320 from which the first divided image data 320a has been removed to the second graphic adapter 12b, and the second graphic adapter 12b transmits the row image data 320, And displays the second divided image data 320b on the second sub-area 120b by receiving the data 320 'and extracting the second divided image data 320b from the received row image data 320'. Similarly, the second graphic adapter 12b transmits the row image data 320 '', from which the first divided image data 320a and the second divided image data 320b have been removed, to the third graphic adapter 12c, The third graphic adapter 12c receives the row image data 320 "and extracts the third divided image data 320c from the received row image data 320" . Finally, the third graphic adapter 12c receives the row image data 320 '' '(i.e., the fourth divided image data 320d') from which the first divided image data 320a to the third divided image data 320c are removed ) To the fourth graphics adapter 12d and the fourth graphics adapter 12d receives the row image data 320 '' 'and the fourth segment image data 320d to the fourth sub-region 120d ).

이상에서 살펴본 바와 같이, 종래 기술에 따른 영상 처리 장치(10)는 멀티 디스플레이 장치(100)를 지원하기 위하여 순차적이고 직렬적인 방식으로 영상 데이터를 처리하도록 구성된다. 이러한 순차적이고 직렬적인 랜더링 방식은 영상 처리를 위하여 상당한 시간과 자원을 필요로 한다는 문제점이 있다. As described above, the image processing apparatus 10 according to the related art is configured to process image data in a sequential and serial manner in order to support the multi-display device 100. This sequential and serial rendering method requires a considerable amount of time and resources for image processing.

본 발명의 목적은 위에서 언급한 종래 기술의 문제점을 해결하는 것이다. An object of the present invention is to solve the above-mentioned problems of the prior art.

본 발명의 일 목적은, 멀티 디스플레이 시스템에 있어서 소스 영상에 대한 어떠한 영상 처리도 수행하지 않고, 소스 영상 신호로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 분할 영상 신호를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송할 수 있는 영상 처리 장치 및 영상 처리 방법을 제공하는 것이다.It is an object of the present invention to extract a divided video signal to be displayed from each graphics adapter from a source video signal and to simultaneously output the divided video signals to each graphics adapter in parallel And to provide a video processing apparatus and an image processing method capable of transmitting video data.

본 발명의 다른 목적은, 추출된 분할 영상 신호를 시간적으로 그리고 프레임별로 동기화하여 디스플레이할 수 있는 영상 처리 장치 및 영상 처리 방법을 제공하는 것이다.It is another object of the present invention to provide an image processing apparatus and an image processing method capable of displaying an extracted divided image signal synchronously in time and frame.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 특징적인 구성은 하기와 같다. In order to achieve the above-described object of the present invention and to achieve the specific effects of the present invention described below, the characteristic structure of the present invention is as follows.

본 발명의 일 측면에 따르면, 멀티 디스플레이 장치에 대한 영상 병렬 랜더링 처리를 수행하기 위하여 영상 처리 장치에 의해 수행되는 영상 처리 방법으로서, 상기 영상 처리 장치는 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들을 포함하며, 상기 방법은, (a) 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하고, 디스플레이 영역 매칭 결과 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계; (b) 상기 영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우 영상 데이터로 디코딩하는 단계; (c) 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는 단계; 및 (d) 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 단계를 포함하는, 영상 처리 방법이 제공된다.According to an aspect of the present invention, there is provided an image processing method performed by an image processing apparatus to perform an image parallel rendering processing on a multi-display apparatus, the image processing apparatus comprising: (A) comparing and matching the display area between the image source and the multi-display device, and based on the display area matching result and the sub-area setting information for each graphics adapter, Determining a divided image area of a source image to be displayed by each of the plurality of graphic adapters, and allocating a video memory area in which divided image data for each graphic adapter is to be stored; (b) receiving a source image frame from the image source and decoding the received source image frame into raw image data; (c) storing corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphic adapter in a video memory area allocated to the corresponding graphic adapter; And (d) synchronizing the respective divided image data stored in the video memory area allocated for each of the graphics adapters on a frame-by-frame basis and simultaneously transmitting the image data in parallel to the corresponding graphics adapter.

바람직하게는, 상기 (a) 단계는, (a1) 상기 멀티 디스플레이 장치에 연결된 상기 복수의 그래픽 어댑터들의 리스트를 추출하는 단계; (a2) 상기 복수의 그래픽 어댑터들 각각에 대한 상기 그래픽 어댑터별 서브-영역 설정 정보를 포함하는 그래픽 어댑터별 디스플레이 정보를 추출하거나 또는 입력받는 단계; (a3) 상기 영상 소스로부터의 상기 소스 영상의 해상도와 상기 멀티 디스플레이 장치의 전체 해상도를 비교하여, 상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율을 결정하는 단계; 및 (a4) 상기 결정된 픽셀 비율 및 상기 그래픽 어댑터별 서브-영역 설정 정보에 기초하여, 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계를 포함할 수 있다.Advantageously, step (a) comprises the steps of: (a1) extracting a list of the plurality of graphics adapters connected to the multi-display device; (a2) extracting or receiving display information for each of the plurality of graphic adapters, the display information for each of the plurality of graphic adapters including the sub-area setting information for each of the plurality of graphic adapters; (a3) comparing the resolution of the source image from the image source with the full resolution of the multi-display device to determine a pixel ratio between the source image and the multi-display device; And (a4) determining, based on the determined pixel ratio and the graphics adapter-specific sub-area setting information, a divided image area of the source image to be displayed by each of the plurality of graphics adapters, And allocating a video memory area in which the video data is to be stored.

바람직하게는, 상기 (b) 단계는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하는 단계를 더 포함할 수 있다.Advantageously, the step (b) may further comprise the step of providing a data time stamp (DTS) to the received source image frame based on the reception time of the source image frame.

바람직하게는, 상기 (c) 단계는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장할 수 있다.Advantageously, the step (c) may store each divided image data together with frame attribute information including the data time stamp in a video memory area allocated to the corresponding graphics adapter.

바람직하게는, 상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함할 수 있다.Advantageously, the frame attribute information may include the data time stamp, frame per second (FPS), and sequence number.

바람직하게는, 상기 (d) 단계는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송할 수 있다.Preferably, the step (d) comprises: receiving each of the divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter, and, based on the frame attribute information, May be synchronized on a frame-by-frame basis and simultaneously transmitted in parallel to a corresponding graphics adapter.

바람직하게는, 상기 (d) 단계는, (d1) 메인 핸들러(main handler)와 상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러(distributor handler)들을 서로 시간적으로 동기화시키는 단계; (d2) 상기 복수의 분산 핸들러 각각이 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하는 단계; (d3) 상기 복수의 분산 핸들러 각각이 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하는 단계; (d4) 상기 메인 핸들러가 상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 단계로서, 상기 영상 재생 정보는 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는, 단계; 및 (d5) 상기 복수의 분산 핸들러들이 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는 단계를 포함할 수 있다.Advantageously, step (d) comprises the steps of: (d1) synchronizing the main handler and the plurality of distributor handlers corresponding to each of the plurality of graphics adapters to each other in time; (d2) receiving the divided image data and the frame attribute information from a video memory area allocated to a corresponding graphic adapter of each of the plurality of distribution handlers; (d3) transmitting, by the plurality of distribution handlers, image reception information including the frame attribute information to the main handler; (d4) receiving, by the main handler, the image reception information transmitted from each of the plurality of distribution handlers, generating image reproduction information based on the received image reception information, and transmitting the generated image reproduction information to each of the plurality of distribution handlers, The video playback information includes a playback start time, a data time stamp of the playback subject division video data, and a sequence number; And (d5) receiving, by the plurality of distribution handlers, the image reproduction information transmitted from the main handler, generating, based on the received image reproduction information, the data time stamp and the divided image data corresponding to the sequence number To a corresponding graphics adapter in parallel.

바람직하게는, 상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성될 수 있다.Advantageously, said plurality of distribution handlers may be dynamically generated by said main handler.

본 발명의 다른 일 측면에 따르면, 멀티 디스플레이 장치에 대한 영상 병렬 랜더링 처리를 수행하는 영상 처리 장치로서, 각기 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들; 영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우 영상 데이터로 디코딩하는 디코딩 모듈; 및 상기 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하며, 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분산 랜더링 모듈을 포함하는, 영상 처리 장치가 제공된다.According to another aspect of the present invention, there is provided an image processing apparatus for performing an image parallel rendering processing on a multi-display apparatus, the apparatus comprising: a plurality of graphic adapters each controlling display of a predetermined sub-area of the multi-display apparatus; A decoding module that receives the source image frame from the image source and decodes the received source image frame into raw image data; And a display area between the image source and the multi-display device are compared and matched to determine a divided image area of a source image to be displayed by each of the plurality of graphic adapters, and the divided image data for each graphic adapter is stored And allocating corresponding video data of the decoded raw video data to the video memory area allocated to the corresponding graphics adapter based on the determined divided video area of the graphics adapter, There is provided an image processing apparatus including an image distributing and rendering module for simultaneously synchronizing each divided image data stored in a video memory area on a frame-by-frame basis and simultaneously transmitting the image data in parallel to a corresponding graphics adapter.

바람직하게는, 상기 영상 분산 랜더링 모듈은, 상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 디스플레이 영역 처리부; 디코딩된 로우 영상 데이터의 복수의 분할 영상 데이터가 각기 대응하는 그래픽 어댑터에 할당된 각각의 비디오 메모리 영역에 저장되는 비디오 메모리; 및 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분할 처리부를 포함할 수 있다.Preferably, the image distribution rendering module is configured to perform a division of the source image to be displayed by each of the plurality of graphic adapters based on the pixel ratio between the source image and the multi-display device and the sub- A display area processing unit for determining an image area and allocating a video memory area in which divided image data for each graphic adapter is to be stored; A video memory in which a plurality of pieces of divided image data of decoded row image data are stored in respective video memory areas assigned to corresponding graphic adapters; And storing the corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphics adapter in a video memory area allocated to the corresponding graphic adapter, And an image division processing unit for simultaneously transmitting the divided image data in parallel to the corresponding graphic adapter in synchronization with each frame.

바람직하게는, 상기 영상 분할 처리부는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하할 수 있다.Preferably, the image segmentation processing unit may provide a data time stamp (DTS) to the received source image frame based on the reception time of the source image frame.

바람직하게는, 상기 영상 분할 처리부는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장할 수 있다.Preferably, the image segmentation processing unit may store the segmented image data together with the frame attribute information including the data time stamp in a video memory area allocated to the corresponding graphic adapter.

바람직하게는, 상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함할 수 있다.Advantageously, the frame attribute information may include the data time stamp, frame per second (FPS), and sequence number.

바람직하게는, 상기 영상 분할 처리부는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송할 수 있다.Preferably, the image division processing unit receives each of the divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter, and stores the received respective divided image data on the basis of the frame attribute information It can be synchronized on a frame-by-frame basis and simultaneously transmitted in parallel to a corresponding graphics adapter.

바람직하게는, 상기 영상 분할 처리부는, 상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러로서, 상기 복수의 분산 핸들러 각각은 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하며, 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 상기 복수의 분산 핸들러; 및 상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 메인 핸들러를 포함할 수 있다.Preferably, the image division processing unit includes a plurality of distribution handlers corresponding to each of the plurality of graphic adapters, wherein each of the plurality of distribution handlers extracts, from the video memory area allocated to the corresponding graphics adapter, Receiving frame attribute information, transmitting image reception information including the frame attribute information to the main handler, receiving image playback information transmitted from the main handler, and receiving the playback start time To the corresponding graphics adapter in parallel, the data time stamp and the segmented image data corresponding to the sequence number in parallel; And image reproduction information including a reproduction start time, a data time stamp of the reproduction target division image data, and a sequence number, based on the received image reception information And a main handler for transmitting to each of the plurality of distribution handlers.

바람직하게는, 상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성될 수 있다.Advantageously, said plurality of distribution handlers may be dynamically generated by said main handler.

본 발명의 바람직한 일 실시예에 따르면, 멀티 디스플레이 시스템에 있어서 소스 영상에 대한 어떠한 영상 처리도 수행하지 않고, 소스 영상 신호로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 영상 신호를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송함으로써 영상 처리에 필요한 시간 및 자원을 크게 감소시키는 효과를 기대할 수 있다.According to a preferred embodiment of the present invention, in a multi-display system, a video signal to be displayed by each graphics adapter is extracted from a source video signal without performing any image processing on the source video, It is possible to expect the effect of greatly reducing the time and resources required for image processing by transmitting in parallel.

도 1은 종래 기술에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다.
도 3은 본 발명의 일 실시예에 따른 영상 분산 랜더링 모듈의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 영상 병렬 랜더링 처리 과정을 도시하는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 디스플레이 영역 비교/매칭 과정을 도시하는 순서도이다.
도 6a는 각각의 분할 영상의 획득 시점을 개념적으로 도시하는 도면이다.
도 6b는 본 발명에 따라 동기화되어 재생되는 분할 영상의 표출 시간을 개념적으로 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 재생 시간 및 재생 프레임 동기화 과정을 도시하는 순서도이다.
1 is a schematic block diagram of a multi-display system according to the prior art.
2 is a schematic block diagram of a multi-display system according to an embodiment of the present invention.
3 is a block diagram of an image distribution and rendering module according to an embodiment of the present invention.
4 is a flowchart illustrating an image parallel rendering process performed by an image processing apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating a display area comparison / matching process performed by the image processing apparatus according to an exemplary embodiment of the present invention.
FIG. 6A is a diagram conceptually showing the acquisition time of each divided image.
FIG. 6B is a diagram conceptually illustrating display times of divided images reproduced in synchronization with the present invention.
7 is a flowchart illustrating a process of synchronizing a reproduction time and a reproduction frame performed by an image processing apparatus according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

[본 발명의 바람직한 실시예][Preferred Embodiment of the Present Invention]

본 발명의 실시예에서, 용어 '멀티 디스플레이 장치'는 디스플레이 화면을 복수의 서브-영역들로 분할하고 각각의 서브-영역들을 하나의 그래픽 어댑터가 지원하는 방식의 디스플레이 장치를 의미한다. 이러한 '멀티 디스플레이 장치'는 예를 들어, 복수의 개별적인 디스플레이 장치들이 하나의 멀티 디스플레이 장치를 구성하는 멀티비전 방식의 디스플레이 장치일 수 있다. 그러나, 본 발명이 특정 디스플레이 장치에 한정되는 것은 아니며, 전술한 바와 같은 기능을 수행할 수 있는 모든 방식의 디스플레이 장치를 포괄한다.In an embodiment of the present invention, the term 'multi-display device' means a display device in which a display screen is divided into a plurality of sub-areas and each of the sub-areas is supported by one graphic adapter. This 'multi-display device' may be, for example, a multi-vision display device in which a plurality of individual display devices constitute one multi-display device. However, the present invention is not limited to a specific display device, and covers all kinds of display devices capable of performing the functions as described above.

또한, 용어 '소스 영상의 분할 영상 영역'이란 하나의 그래픽 어댑터가 디스플레이 해야하는 소스 영상의 일 영역을 의미하며, '분할 영상 데이터'란 전체 소스 영상 데이터 중 분할 영상 영역에 대응되는 영상 데이터를 의미한다.The term 'divided image region of a source image' means one region of a source image that one graphic adapter should display, and 'segmented image data' means image data corresponding to a segmented image region of the entire source image data .

멀티 디스플레이 시스템의 개괄An overview of multi-display systems

도 2는 본 발명의 일 실시예에 따른 멀티 디스플레이 시스템의 개략적인 블록도이다. 이하에서, 도 2를 참조하여, 본 발명에 따른 멀티 디스플레이 시스템의 개략적인 구성과 기능에 대하여 살펴보도록 한다.2 is a schematic block diagram of a multi-display system according to an embodiment of the present invention. Hereinafter, a schematic configuration and functions of the multi-display system according to the present invention will be described with reference to FIG.

먼저, 본 발명에 따른 멀티 디스플레이 시스템의 구체적인 설명에 앞서, 본 발명의 가장 중요한 개념에 대하여 살펴보도록 한다. 본 발명은, 이상에서 살펴본 바와 같이 종래 기술에 따른 영상 처리 장치가 순차적이고 직렬적인 방식으로 영상 데이터를 처리함에 따라 발생하는 문제점을 해결하고자 한다. 따라서, 본 발명의 기본적인 개념은 소스 영상 데이터로부터 각각의 그래픽 어댑터에서 디스플레이해야 할 분할 영상 데이터를 추출하여 각각의 그래픽 어댑터로 동시에 병렬로 전송하는 것이다. 이러한 개념을 구현하기 위하여, 본 발명은 전체 소스 영상 데이터로부터 각각의 그래픽 어댑터별 분할 영상 데이터를 추출하고, 추출된 그래픽 어댑터별 분할 영상 데이터를 대응하는 그래픽 어댑터로 동시에 병렬로 전송하도록 구성되는 영상 분산 랜더링 모듈(230)을 제안한다. 이러한 영상 분산 랜더링 모듈(230)에 대해서는 이하에서 도 2 및 도 3을 참조하여 구체적으로 설명하도록 한다.First, prior to a detailed description of the multi-display system according to the present invention, the most important concept of the present invention will be described. As described above, the present invention is intended to solve the problems caused by processing image data in a sequential and serial manner in the image processing apparatus according to the related art. Therefore, the basic idea of the present invention is to extract the segmented image data to be displayed in each graphic adapter from the source image data, and simultaneously transmit them in parallel to each of the graphic adapters. In order to realize such a concept, the present invention provides an image distributing system configured to extract segment image data for each graphic adapter from the entire source image data, and simultaneously transmit the segment image data for each of the graphic adapters to the corresponding graphic adapter in parallel, A rendering module 230 is proposed. The image distribution and rendering module 230 will be described in detail with reference to FIGS. 2 and 3. FIG.

이제 도 2를 참조하면, 도 2에 도시된 바와 같이, 본 발명에 따른 멀티 디스플레이 시스템은 멀티 디스플레이 장치(100), 멀티 디스플레이 장치(100)에 대한 영상 병렬 랜더링 처리를 수행하기 위한 영상 처리 장치(200)(이하 '영상 처리 장치(200)'라 함), 및 영상 소스(300)를 포함할 수 있다.2, a multi-display system according to the present invention includes a multi-display device 100, an image processing device (not shown) for performing image parallel rendering processing on the multi-display device 100 200) (hereinafter referred to as an 'image processing apparatus 200'), and an image source 300.

도 2의 영상 소스(300)는 인코딩된 다양한 소스 영상을 유선 및/또는 무선으로 영상 처리 장치(200)로 전송할 수 있는 다양한 정보 통신 기기일 수 있다. 예를 들어, 영상 소스(300)는 CCTV, 디지털 카메라, 디지털 캠코더, 개인용 컴퓨터, 노트북, 태블릿, 스마트 폰 등을 포함할 수 있지만, 이에 한정되지는 않는다. 또한, 도 2의 영상 소스(300)는 도 1의 영상 소스(300)와 실질적으로 동일한 영상 소스일 수 있다. 영상 소스(300)는 하나의 정지 영상을 전송하거나, 또는 복수의 순차적인 영상 프레임들을 포함하는 영상 스트림을 전송할 수도 있다. 이하에서, 영상 소스가 영상 스트림을 전송하는 실시예를 기준으로 설명하지만, 본 발명의 사상 및 원리가 정지 영상을 전송하는 실시예에도 동일하게 적용될 수 있다는 것을 주의해야 한다.The image source 300 of FIG. 2 may be various information communication devices capable of transmitting various encoded source images to the image processing apparatus 200 by wire and / or wirelessly. For example, the video source 300 may include, but is not limited to, a CCTV, a digital camera, a digital camcorder, a personal computer, a notebook, a tablet, a smart phone, and the like. Also, the video source 300 of FIG. 2 may be substantially the same video source as the video source 300 of FIG. The image source 300 may transmit one still image, or may transmit a video stream including a plurality of sequential image frames. Hereinafter, it should be noted that although the video source describes an embodiment in which a video stream is transmitted, the idea and principle of the present invention can be equally applied to an embodiment for transmitting a still image.

도 2의 멀티 디스플레이 장치(100)는 도 1의 멀티 디스플레이 장치(100)와 실질적으로 동일한 디스플레이 장치일 수 있으며, 또는 상이한 디스플레이 장치일 수도 있다. 이하에서는, 종래 기술과 본 발명의 비교를 보다 더 명확하게 하기 위하여, 도 1과 동일한 서브-영역들을 가진 동일한 멀티 디스플레이 장치(100)가 사용되며 동일한 로우 영상 데이터가 사용되는 것으로 가정한 상태에서, 본 발명에 따른 멀티 디스플레이 시스템에 대하여 설명하도록 한다. 도 2에 도시된 멀티 디스플레이 장치(100)는 총 12개의 개별적인 디스플레이 장치(110a~110l)로 구성된 24면 멀티 디스플레이 장치로서, 본 발명에 따른 영상 처리 장치(200)로부터 출력되는 영상 데이터를 디스플레이한다. 특히, 도 2에 도시된 멀티 디스플레이 장치(100)의 디스플레이 화면은 제 1 서브-영역(120a), 제 2 서브-영역(120b), 제 3 서브-영역(120c), 및 제 4 서브-영역(120d)으로 구성되며, 각각의 서브-영역(120a~120d)은 본 발명에 따른 영상 처리 장치(200) 내의 대응하는 그래픽 어댑터(210a~210d)에 의해 제어된다. 다만, 멀티 디스플레이 장치(100)의 서브-영역들의 위치, 크기, 이를 제어하는 그래픽 어댑터 등의 디스플레이 설정은 필요에 따라 또는 사용자의 설정에 따라 변경될 수 있다는 점을 주의해야 한다.The multi-display device 100 of FIG. 2 may be substantially the same display device as the multi-display device 100 of FIG. 1, or may be a different display device. Hereinafter, in order to further clarify the comparison between the prior art and the present invention, it is assumed that the same multi-display device 100 having the same sub-areas as in FIG. 1 is used and that the same row image data is used, A multi-display system according to the present invention will be described. The multi-display device 100 shown in FIG. 2 is a 24-screen multi-display device composed of twelve individual display devices 110a to 110l, and displays image data output from the image processing device 200 according to the present invention . In particular, the display screen of the multi-display device 100 shown in FIG. 2 includes a first sub-area 120a, a second sub-area 120b, a third sub-area 120c, And each sub-region 120a to 120d is controlled by a corresponding graphic adapter 210a to 210d in the image processing apparatus 200 according to the present invention. However, it should be noted that the display settings such as the position, size, and graphics adapter for controlling the position and size of the sub-areas of the multi-display device 100 may be changed as needed or according to the user's setting.

본 발명에 따른 영상 처리 장치(200)는 영상 소스(300)로부터 소스 영상(예를 들어, 소스 영상 스트림)을 수신하고, 수신된 소스 영상을 멀티 디스플레이 장치(100)를 통해 출력하도록 구성된다. 보다 구체적으로, 본 발명에 따른 영상 처리 장치(200)는 제 1 그래픽 어댑터(210a), 제 2 그래픽 어댑터(210b), 제 3 그래픽 어댑터(210c), 제 4 그래픽 어댑터(210d), 제 1 PCI 슬롯(212a), 제 2 PCI 슬롯(212b), 제 3 PCI 슬롯(212c), 제 4 PCI 슬롯(212d), 디코딩 모듈(220) 및 영상 분산 랜더링 모듈(230)을 포함할 수 있다. 이상의 구성 요소들 중 영상 분산 랜더링 모듈(230)을 제외한 나머지 구성 요소들은 도 1을 참조하여 설명한 대응되는 구성 요소들과 실질적으로 동일하므로, 이러한 구성 요소들에 대한 상세한 설명은 이상의 설명을 원용하기로 한다. 또한, 이상의 복수의 그래픽 어댑터들 각각은 일반적으로 널리 이용되고 있는 통상적인 그래픽 어댑터일 수 있다. 또한, 본 발명에서 이용되는 이러한 그래픽 어댑터는 그래픽 프로세싱을 가속하기 위한 백 버퍼(back buffer) 및 프론트 버퍼(front buffer)를 포함할 수 있다.The image processing apparatus 200 according to the present invention is configured to receive a source image (e.g., a source image stream) from an image source 300 and output the received source image through the multi-display device 100. More specifically, the image processing apparatus 200 according to the present invention includes a first graphics adapter 210a, a second graphics adapter 210b, a third graphics adapter 210c, a fourth graphics adapter 210d, a first PCI And may include a slot 212a, a second PCI slot 212b, a third PCI slot 212c, a fourth PCI slot 212d, a decoding module 220, and an image scattering rendering module 230. The remaining components except for the image distribution and rendering module 230 are substantially the same as the corresponding components described with reference to FIG. 1, so that detailed description of these components will be omitted herein do. Also, each of the plurality of graphics adapters above may be a commonly used conventional graphics adapter. Also, such a graphics adapter used in the present invention may include a back buffer and a front buffer for accelerating graphics processing.

이하에서는, 본 발명의 특징적인 구성 요소인 영상 분산 랜더링 모듈(230)을 중심으로 본 발명에 따른 영상 처리 장치(200)의 구성 및 기능에 대하여 설명하도록 한다. 전술한 바와 같이, 본 발명에 따른 영상 분산 랜더링 모듈(230)은 동시적이고 병렬적인 방식으로 디코딩 모듈(220)에 의해 디코딩된 로우 영상 데이터(320)를 처리하도록 구성될 수 있다. 이를 보다 구체적으로 살펴보도록 한다. 먼저, 도 1과 동일하게, 로우 영상 데이터(320)는 제 1 그래픽 어댑터(210a)에 의해 제 1 서브-영역(120a)에 디스플레이되어야 하는 제 1 분할 영상 데이터(320a), 제 2 그래픽 어댑터(210b)에 의해 제 2 서브-영역(120b)에 디스플레이되어야 하는 제 2 분할 영상 데이터(320b), 제 3 그래픽 어댑터(210c)에 의해 제 3 서브-영역(120c)에 디스플레이되어야 하는 제 3 분할 영상 데이터(320c), 및 제 4 그래픽 어댑터(210d)에 의해 제 4 서브-영역(120d)에 디스플레이되어야 하는 제 4 분할 영상 데이터(320d)를 포함한다. 영상 분산 랜더링 모듈(230)은 로우 영상 데이터(320)로부터 제 1 분할 영상 데이터(320a)를 추출하여 이를 제 1 그래픽 어댑터(210a)에 할당된 비디오 메모리의 제 1 메모리 영역에 저장하고, 로우 영상 데이터(320)로부터 제 2 분할 영상 데이터(320b)를 추출하여 이를 제 2 그래픽 어댑터(210b)에 할당된 비디오 메모리의 제 2 메모리 영역에 저장하며, 로우 영상 데이터(320)로부터 제 3 분할 영상 데이터(320c)를 추출하고 이를 제 3 그래픽 어댑터(210c)에 할당된 비디오 메모리의 제 3 메모리 영역에 저장하고, 로우 영상 데이터(320)로부터 제 4 분할 영상 데이터(320d)를 추출하고 이를 제 4 그래픽 어댑터(210d)에 할당된 비디오 메모리의 제 4 메모리 영역에 저장할 수 있다. 그런 다음, 도 2에 도시된 바와 같이, 영상 분산 랜더링 모듈(230)은 제 1 분할 영상 데이터(320a) 내지 제 4 분할 영상 데이터(320d)를 동시에 병렬로 대응하는 그래픽 어댑터(더 구체적으로는, 대응하는 그래픽 어댑터의 백 버퍼)로 전송함으로써, 영상의 병렬 랜더링 처리를 수행하도록 구성된다. 이러한 영상 병렬 랜더링 처리를 수행하기 위한 본 발명에 따른 영상 분산 랜더링 모듈(230)의 상세한 구성과 기능에 대해서는 이하에서 도 3을 참조하여 상세하게 설명하도록 한다.Hereinafter, the configuration and functions of the image processing apparatus 200 according to the present invention will be described, focusing on the image distribution and rendering module 230, which is a characteristic component of the present invention. As described above, the image distribution rendering module 230 according to the present invention can be configured to process the raw image data 320 decoded by the decoding module 220 in a simultaneous and parallel manner. Let's look at this in more detail. 1, the row image data 320 includes first divided image data 320a to be displayed in the first sub-area 120a by the first graphic adapter 210a, The second divided image data 320b to be displayed in the second sub-area 120b by the third graphic adapter 210b and the third divided image data 320b to be displayed in the third sub- Data 320c and fourth divided image data 320d to be displayed in the fourth sub-area 120d by the fourth graphic adapter 210d. The image distribution rendering module 230 extracts the first divided image data 320a from the row image data 320 and stores the extracted first divided image data 320a in the first memory area of the video memory allocated to the first graphic adapter 210a, Extracts the second divided image data 320b from the data 320 and stores the extracted second divided image data 320b in the second memory area of the video memory allocated to the second graphic adapter 210b, And extracts the fourth divided image data 320d from the row image data 320 and stores it in the third memory area of the video memory allocated to the third graphic adapter 210c, And may be stored in the fourth memory area of the video memory allocated to the adapter 210d. 2, the image distribution rendering module 230 may include a graphics adapter corresponding to the first divided image data 320a to the fourth divided image data 320d in parallel at the same time (more specifically, To the back buffer of the corresponding graphics adapter), thereby performing the parallel rendering process of the image. The detailed configuration and function of the image distributing and rendering module 230 according to the present invention for performing the image parallel rendering process will be described in detail with reference to FIG.

영상 분산 랜더링 모듈의 구성 및 기능Configuration and Function of Image Distributed Rendering Module

도 3은 본 발명의 일 실시예에 따른 영상 분산 랜더링 모듈의 블록도이다. 이하에서 도 3을 참조하여, 본 발명에 따른 영상 분산 랜더링 모듈(230)의 구성 및 기능에 대하여 상세하게 설명하도록 한다.3 is a block diagram of an image distribution and rendering module according to an embodiment of the present invention. Hereinafter, the configuration and functions of the image distribution and rendering module 230 according to the present invention will be described in detail with reference to FIG.

도 3에 도시된 바와 같이, 본 발명에 따른 영상 분산 랜더링 모듈(230)은 디스플레이 영역 처리부(240), 비디오 메모리(242), 및 영상 분할 처리부(246)를 포함할 수 있다.3, the image distribution and rendering module 230 according to the present invention may include a display area processing unit 240, a video memory 242, and an image division processing unit 246.

먼저, 디스플레이 영역 처리부(240)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 화면을 비교하여 매칭하고, 매칭 결과 및 각 그래픽 어댑터의 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하도록 구성될 수 있다. 즉, 이상에서 설명된 바와 같이, 본 발명에 따른 영상 분산 랜더링 모듈(230)은 로우 영상 데이터(320)로부터 각 그래픽 어댑터가 멀티 디스플레이 장치(100) 상에 디스플레이해야 할 분할 영상 데이터만를 별도로 추출하고 저장하도록 구성되기 때문에, 각 그래픽 어댑터가 담당하고 있는 멀티 디스플레이 장치(100)의 서브-영역이 소스 영상의 어떠한 부분에 대응하는지를 먼저 결정해야 한다. 이러한 기능을 수행하기 위하여 먼저 그래픽 어댑터별 서브-영역 설정 정보가 필요하다. 이러한 그래픽 어댑터별 서브-영역 설정 정보는 시스템 기동 시에 사용자(예를 들어, 운영자)에 의해 입력될 수 있다. 예를 들어, 디스플레이 영역 처리부(240)는 사용자에게 그래픽 어댑터별 디스플레이 정보를 입력할 수 있는 디스플레이 설정 인터페이스를 제공하고, 디스플레이 설정 인터페이스를 통해 입력되는 그래픽 어댑터별 디스플레이 정보를 수신/저장하도록 구성된다. 이러한 그래픽 어댑터별 디스플레이 정보는 해당 그래픽 어댑터가 담당하는 서브-영역 설정 정보, 해상도 정보 등을 포함할 수 있다. 이러한 디스플레이 설정 과정은 영상 처리 장치(200)의 초기 세팅 과정에서 한 번만 수행될 수 있으며, 그 이후에는 저장된 설정 정보를 추출하여 사용할 수 있다. 물론, 필요에 따라 사용자는 언제든지 서브-영역 설정을 변경할 수 있다. First, the display area processing unit 240 compares and matches the source image transmitted from the image source 300 with the display screen of the multi-display device 100, and outputs the matching result and the sub-area setting information Based on a plurality of graphics adapters, each of the plurality of graphics adapters may be configured to determine a segmented image area of a source image to display. That is, as described above, the image distribution rendering module 230 separately extracts only the divided image data to be displayed on the multi-display device 100 by the respective graphic adapters from the row image data 320 It is necessary to first determine which part of the source image corresponds to the sub-area of the multi-display device 100 in which each graphics adapter is responsible. In order to perform this function, first, sub-area setting information for each graphics adapter is required. Such sub-area setting information per graphics adapter can be input by a user (e.g., an operator) at system startup. For example, the display area processing unit 240 is configured to provide a display setting interface capable of inputting display information for each of the graphic adapters to the user, and receive / store display information for each of the graphic adapters input through the display setting interface. Such display information for each graphics adapter may include sub-area setting information, resolution information, and the like, which the graphics adapter is responsible for. The display setting process can be performed only once in the initial setting process of the image processing apparatus 200, and after that, the stored setting information can be extracted and used. Of course, the user can change the sub-area settings at any time as needed.

또한, 디스플레이 영역 처리부(240)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100) 사이의 픽셀 비율을 비교하여 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 화면을 매칭시키도록 구성될 수 있다. 예를 들어, 소스 영상이 1920x1080의 해상도이며, 멀티 디스플레이 장치(100)가 동일한 해상도를 가진 12개의 디스플레이 장치가 가로 4개 x 세로 3개의 어레이로 배열되어 구성된 경우, 디스플레이 영역 처리부(240)는 소스 영상을 4*3 마스크로 분할하고, 마스크 비율에 따라 각 그래픽 어댑터가 처리해야 할 분할 영상 영역의 픽셀 범위를 결정할 수 있다. 유사하게, 소스 영상이 1920x1080의 해상도이며, 멀티 디스플레이 장치(100)가 동일한 해상도를 가진 30개의 디스플레이 장치가 가로 6개 x 세로 5개의 어레이로 배열되어 구성된 경우, 디스플레이 영역 처리부(240)는 소스 영상을 6*5 마스크로 분할하고, 마스크 비율에 따라 각 그래픽 어댑터가 처리해야 할 분할 영상 영역의 픽셀 범위를 결정할 수 있다. In addition, the display area processing unit 240 compares the source image transmitted from the image source 300 with the pixel ratio between the multi-display device 100 to configure the source image and the display screen of the multi- . For example, if the source image is a resolution of 1920 x 1080, and the 12 display devices having the same resolution of the multi-display device 100 are arranged in a matrix of 4 x 3 arrays, The image can be divided into 4 * 3 masks, and the pixel range of the divided image area to be processed by each graphics adapter can be determined according to the mask ratio. Similarly, when the source image is a resolution of 1920 x 1080, and the 30 display devices having the same resolution of the multi-display device 100 are arranged in a matrix of 6 x 5 arrays, the display area processing unit 240 generates a source image Can be divided into 6 * 5 masks, and the pixel range of the divided image area to be processed by each graphics adapter can be determined according to the mask ratio.

전술한 바와 같은 과정을 통해 각각의 그래픽 어댑터의 분할 영상 영역이 결정되면, 디스플레이 영역 처리부(240)는 비디오 메모리(242)에 그래픽 어댑터별 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하도록 구성된다. 예를 들어, 도 2에 도시된 실시예에 있어서, 제 1 그래픽 어댑터(210a)에 대응되는 제 1 분할 영상 데이터(320a)는 비디오 메모리(242) 내의 제 1 메모리 영역에 저장되도록 할당되고, 제 2 그래픽 어댑터(210b)에 대응되는 제 2 분할 영상 데이터(320b)는 비디오 메모리(242) 내의 제 2 메모리 영역에 저장되도록 할당되는 등이다. 한편, 이상에서 언급한 바와 같이, 본 발명에 따른 영상 처리 장치(200)는 소스 영상 스트림을 수신하여 처리하도록 구성되기 때문에, 분할 영상들의 프레임별 동기화 디스플레이를 달성하기 위하여 복수의 프레임들의 분할 영상 데이터를 저장해야 할 필요가 있다. 따라서, 그래픽 어댑터별로 할당되는 메모리 영역의 크기는 미리 설정된 수의 프레임들의 분할 영상 데이터를 저장하기에 충분하도록 설정될 수 있다. The display area processing unit 240 is configured to allocate the video memory area in which the divided image data for each graphics adapter is to be stored in the video memory 242. In this case, For example, in the embodiment shown in FIG. 2, the first divided image data 320a corresponding to the first graphic adapter 210a is allocated to be stored in the first memory area in the video memory 242, The second divided image data 320b corresponding to the second graphics adapter 210b is allocated to be stored in the second memory area in the video memory 242 and the like. As described above, since the image processing apparatus 200 according to the present invention is configured to receive and process a source video stream, in order to achieve a frame-by-frame synchronized display of divided images, Need to be stored. Thus, the size of the memory area allocated for each graphics adapter can be set to be sufficient to store the divided image data of the predetermined number of frames.

전술한 바와 같은 과정을 통해 그래픽 어댑터별 분할 영상 영역 및 분할 영상 데이터가 저장될 비디오 메모리 영역이 결정되면, 디스플레이 영역 처리부(240)는 이러한 정보를 영상 분할 처리부(246)로 전송하고, 영상 분할 처리부(246)는 이러한 정보를 수신하여 영상 분산 랜더링 처리를 위하여 사용하도록 구성된다.When the video memory area for storing the divided image area and the divided image data for each graphic adapter is determined through the above-described process, the display area processing part 240 transmits the information to the image division processing part 246, (246) is configured to receive this information and use it for image distribution rendering processing.

비디오 메모리(242)는 디코딩된 로우 영상 데이터의 복수의 분할 영상 데이터를 각기 대응하는 그래픽 어댑터에 할당된 각각의 비디오 메모리 영역에 저장하도록 구성된다. 이러한 비디오 메모리(242) 자체는 이미 공지된 기술을 사용하고 있는 바, 더 이상의 상세한 설명은 생략하기로 한다.The video memory 242 is configured to store a plurality of segmented image data of the decoded row image data in respective video memory areas assigned to corresponding graphic adapters. Since this video memory 242 itself uses a known technique, the detailed description will be omitted.

본 발명에 따른 영상 분할 처리부(246)는 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하도록 구성된다.The image division processing unit 246 according to the present invention stores the corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphic adapter in the video memory area allocated to the corresponding graphic adapter, And synchronizes the respective divided image data stored in the allocated video memory area on a frame-by-frame basis and simultaneously transmits them in parallel to the corresponding graphics adapter.

보다 바람직하게, 본 발명에 따른 영상 분할 처리부(246)는, 전술한 바와 같이 소스 영상 스트림을 수신하는 실시예에 있어서 프레임별 동기화 분할 영상 처리를 수행하기 위하여 영상 소스(300)로부터의 소스 영상 프레임의 수신 시간에 기초하여 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하도록 구성될 수 있다. 또한, 영상 분할 처리부(246)는 데이터 타임 스탬프를 포함하는 프레임 속성 정보를 각각의 분할 영상 데이터에 부가하여 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하도록 구성될 수 있다. 이러한 프레임 속성 정보는 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함할 수 있다. The image segmentation processing unit 246 according to the present invention further includes a source image frame from the image source 300 in order to perform frame- And to provide a data time stamp (DTS) to the received source video frame based on the reception time of the source video frame. In addition, the image division processing unit 246 may be configured to add frame attribute information including a data time stamp to each divided image data and store the divided image data in a video memory area allocated to a corresponding graphics adapter. Such frame attribute information may include a data time stamp, a frame per second (FPS), and a sequence number.

이러한 프레임 속성 정보는, 그 이후에 영상 분할 처리부(246)가 비디오 메모리(242)에 저장된 분할 영상 데이터들을 프레임적으로 동기화하여 동시에 병렬로 전송하기 위하여 사용된다. 보다 구체적으로, 영상 분할 처리부(246)는 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 분할 영상 데이터에 부가된 프레임 속성 정보를 수신하고(또는 추출하거나 또는 판독하고), 프레임 속성 정보에 기초하여 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송하도록 구성된다. This frame attribute information is used to frame-synchronize the segmented image data stored in the video memory 242 by the image segmentation processing unit 246 thereafter and to transmit them in parallel at the same time. More specifically, the image division processing unit 246 receives (or extracts or reads) the frame attribute information added to each of the divided image data and the divided image data stored in the video memory area allocated for each graphic adapter, And synchronizes the received divided image data on a frame-by-frame basis and simultaneously transmits the synchronized image data to a corresponding graphics adapter in parallel.

이러한 동기화 기능을 달성하기 위하여, 본 발명에 따른 영상 분할 처리부(246)는 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러(distributor handler)들(250a~250d) 및 하나의 메인 핸들러(main handler)(248)를 포함할 수 있다. 메인 핸들러(248)는 각각의 분산 핸들러(250a~250d)가 대응하는 그래픽 어댑터로 프레임별로 동기화된 분할 영상 데이터를 동시에 병렬로 전송하게끔 복수의 분산 핸들러들(250a~250d)을 전체적으로 제어하도록 구성된다. 보다 구체적으로, 본 발명에 따른 메인 핸들러(248)는 복수의 분산 핸들러들(205a~250d)과의 시간적 동기화, 및 그래픽 어댑터들(210a~210d)로 출력해야 할 분할 영상 데이터의 프레임 동기화를 수행할 수 있다. 즉, 본 발명에 따른 메인 핸들러(248)는 복수의 분산 핸들러들(205a~250d)로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는 영상 재생 정보를 생성하여 복수의 분산 핸들러들(205a~250d)로 전송하도록 구성된다. 이러한 영상 재생 정보는 분산 핸들러들(205a~250d)에서 담당하는 그래픽 어댑터들(210a~210d)로 전송해야 할 프레임에 해당되는 분할 영상 데이터 및 전송해야 할 시간을 지정하기 위하여 사용된다.In order to achieve this synchronization function, the image division processing unit 246 according to the present invention includes a plurality of distributor handlers 250a to 250d corresponding to each of a plurality of graphic adapters, and a main handler ) ≪ / RTI > The main handler 248 is configured to control the plurality of distribution handlers 250a to 250d as a whole so that each of the distribution handlers 250a to 250d simultaneously transmits the divided image data synchronized frame by frame to the corresponding graphics adapter . More specifically, the main handler 248 according to the present invention performs temporal synchronization with the plurality of distribution handlers 205a to 250d and frame synchronization of the divided image data to be output to the graphics adapters 210a to 210d can do. That is, the main handler 248 according to the present invention receives image reception information transmitted from a plurality of distribution handlers 205a to 250d, and based on the received image reception information, A data time stamp, and a sequence number, and transmits the generated image playback information to the plurality of distribution handlers 205a to 250d. This image reproduction information is used to designate the divided image data corresponding to the frame to be transmitted to the graphic adapters 210a to 210d, which are handled by the distribution handlers 205a to 250d, and the time to be transmitted.

복수의 분산 핸들러들(205a~250d) 각각은 메인 핸들러(248)의 제어에 따라 복수의 그래픽 어댑터들(210a~210d) 각각에 대하여 프레임별로 동기화된 분할 영상 데이터를 동시에 병렬로 전송하도록 구성된다. 보다 구체적으로, 복수의 분산 핸들러들(205a~250d) 각각은 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 분할 영상 데이터 및 프레임 속성 정보를 수신하거나 또는 판독하고, 프레임 속성 정보를 포함하는 영상 수신 정보를 메인 핸들러(248)로 전송하며, 메인 핸들러(248)로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 지정된 분할 영상 데이터를 지정된 동시에 대응하는 그래픽 어댑터들(210a~210d)로 병렬로 전송하도록 구성된다. 도 3에 도시된 실시예에 있어서, 4개의 그래픽 어댑터들을 포함하는 도 2의 실시예를 기준으로 하기 때문에 영상 분할 처리부(246)는 이에 대응하여 제 1 그래픽 어댑터(210a)에 대한 제 1 분할 영상 데이터(320a)의 동기화 및 전송을 담당하는 제 1 분산 핸들러(250a), 제 2 그래픽 어댑터(210b)에 대한 제 2 분할 영상 데이터(320b)의 동기화 및 전송을 담당하는 제 2 분산 핸들러(250b), 제 3 그래픽 어댑터(210c)에 대한 제 3 분할 영상 데이터(320c)의 동기화 및 전송을 담당하는 제 3 분산 핸들러(250c), 및 제 4 그래픽 어댑터(210d)에 대한 제 4 분할 영상 데이터(320d)의 동기화 및 전송을 담당하는 제 4 분산 핸들러(250d)를 포함한다. 분산 핸들러의 수는 그래픽 어댑터들의 수에 따라 변화될 수 있다는 것이 당업자에게 자명할 것이다.Each of the plurality of distribution handlers 205a to 250d is configured to simultaneously transmit the divided image data synchronized on a frame-by-frame basis to each of the plurality of graphic adapters 210a to 210d under the control of the main handler 248. [ More specifically, each of the plurality of distribution handlers 205a to 250d receives or reads the divided image data and frame attribute information from the video memory area allocated to the corresponding graphic adapter, To the main handler 248, receives the image reproduction information transmitted from the main handler 248, specifies the designated divided image data based on the received image reproduction information, and simultaneously specifies the corresponding graphics adapters 210a to 210d, In parallel. In the embodiment shown in FIG. 3, since the embodiment of FIG. 2 including four graphic adapters is used as a reference, the image division processing unit 246 corresponds to the first divided image for the first graphic adapter 210a A first distribution handler 250a for synchronizing and transferring the data 320a and a second distribution handler 250b for synchronizing and transferring the second divisional image data 320b to the second graphics adapter 210b, A third distribution handler 250c for synchronizing and transferring the third divisional image data 320c to the third graphic adapter 210c and a fourth divisional image data 320d for the fourth graphic adapter 210d, And a fourth distribution handler 250d responsible for synchronization and transmission of the data. Those skilled in the art will appreciate that the number of distribution handlers can vary depending on the number of graphics adapters.

한편, 전술한 바와 같은 메인 핸들러(248) 및 분산 핸들러들(205a~250d)은 소프트웨어, 또는 하드웨어, 또는 이들의 조합으로 구현될 수 있다. 또한, 분산 핸들러들(205a~250d)은 메인 핸들러(248)에 의해 동적으로 생성될 수도 있다. 즉, 일 실시예에 있어서, 분산 핸들러들(205a~250d)은 메인 핸들러(248)에 의해 그래픽 어댑터들의 수에 따라 동적으로 생성되는 프로그램 스레드일 수 있다. 이러한 실시예에 있어서, 메인 핸들러(248)는 분산 핸들러들(205a~250d)을 생성하고, 생성된 분산 핸들러들(205a~250d)로 영상 처리 장치(200)의 시스템 시간을 기준 시간으로서 전송함으로써 메인 핸들러(248)는 분산 핸들러들(205a~250d) 사이의 시간을 동기화시킬 수 있다. 또한, 메인 핸들러(248)는 생성된 분산 핸들러들(205a~250d)로 각각의 분산 핸들러가 담당해야 할 그래픽 어댑터에 대한 처리 요청 정보(그래픽 어댑터 ID, 해당 그래픽 어댑터의 분할 영상 정보, 해당 그래픽 어댑터에 할당된 비디오 메모리 영역, 출력 해상도, 디스플레이 서브-영역 등)를 전송함으로써, 각각의 분산 핸들러들(205a~250d)에 대응하는 그래픽 어댑터를 할당하도록 구성될 수 있다.Meanwhile, the main handler 248 and the distribution handlers 205a to 250d as described above can be implemented by software, hardware, or a combination thereof. In addition, the distribution handlers 205a-d may be dynamically generated by the main handler 248. [ That is, in one embodiment, the distribution handlers 205a-d may be program threads that are dynamically generated by the main handler 248 according to the number of graphics adapters. In this embodiment, the main handler 248 generates the distribution handlers 205a to 250d and transmits the system time of the image processing apparatus 200 as the reference time to the generated distribution handlers 205a to 250d The main handler 248 can synchronize the time between the distribution handlers 205a through 250d. In addition, the main handler 248 transmits the processing request information (the graphics adapter ID, the divided image information of the corresponding graphics adapter, and the corresponding graphics adapter) to the distributed handlers 205a to 250d, , By assigning a graphics adapter corresponding to each of the distribution handlers 205a through 250d by sending a video memory area, an output resolution, a display sub-area, etc.,

한편, 전술한 바와 같은 동기화 처리 과정에 대해서는 도 6a, 도 6b 및 도 7을 참조하여 이하에서 더 상세하게 설명하도록 한다.The above-described synchronization process will be described in more detail with reference to FIGS. 6A, 6B, and 7. FIG.

영상 병렬 랜더링 처리 과정의 일 예An Example of Image Parallel Rendering Process

도 4는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 영상 병렬 랜더링 처리 과정을 도시하는 순서도이다. 이하에서 도 4를 참조하여 본 발명에 따른 영상 병렬 랜더링 처리 과정에 대하여 살펴보도록 한다.4 is a flowchart illustrating an image parallel rendering process performed by an image processing apparatus according to an embodiment of the present invention. Hereinafter, an image parallel rendering process according to the present invention will be described with reference to FIG.

먼저, 본 발명에 따른 영상 처리 장치(200)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 화면을 비교하여 매칭함으로써, 소스 영상과 멀티 디스플레이 장치(100) 사이의 픽셀 비율을 결정한다(S400). First, the image processing apparatus 200 according to the present invention compares and matches the source image transmitted from the image source 300 with the display screen of the multi-display device 100, Pixel ratio is determined (S400).

소스 영상과 멀티 디스플레이 장치(100) 사이의 픽셀 비율이 결정되면, 영상 처리 장치(200)는 픽셀 비율과 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 그래픽 어댑터들(210a~210d) 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정한다(S402). 또한, 영상 처리 장치(200)는 비디오 메모리(242)에 그래픽 어댑터별 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당한다(S404). Once the pixel ratio between the source image and the multi-display device 100 is determined, the image processing apparatus 200 determines whether the graphics adapter 210a-210d displays each pixel based on the pixel ratio and the sub- A divided image area of the source image is determined (S402). In addition, the image processing apparatus 200 allocates a video memory area to be stored in the video memory 242 according to the graphics adapter (S404).

전술한 바와 같은 이러한 과정은 초기 설정 시에 한 번만 수행되고 저장될 수 있으며, 그 이후에는 저장된 설정 정보에 따라 영상 분산 랜더링을 처리할 수 있다. 물론, 영상 소스(300), 영상 처리 장치(200), 멀티 디스플레이 장치(100) 중 임의의 구성이 변경되는 경우에는, 전술한 바와 같은 과정을 다시 수행해야 할 것이다.Such a process as described above can be performed and stored only once at the initial setting, and thereafter, it is possible to process the image dispersion rendering according to the stored setting information. Of course, when any of the configurations of the image source 300, the image processing apparatus 200, and the multi-display apparatus 100 is changed, the above-described process must be performed again.

다음으로, 영상 처리 장치(200)는 영상 소스(300)로부터 전송되는 소스 영상을 수신하고, 수신된 소스 영상을 로우 영상 데이터로 디코딩한다(S406). 전술한 바와 같이, 영상 소스(300)로부터 소스 영상 스트림이 전송될 수 있으며, 이러한 경우, 영상 처리 장치(200)는 영상 소스(300)로부터 연속적으로 전송되는 소스 영상 스트림의 소스 영상 프레임 각각을 수신하고 디코딩할 수 있다. 이때, 영상 처리 장치(200)는 추후 분할 영상 데이터의 프레임별 동기화를 위하여, 수신된 소스 영상 프레임 각각에 데이터 타임 스탬프를 부여할 수 있다.Next, the image processing apparatus 200 receives the source image transmitted from the image source 300 and decodes the received source image into raw image data (S406). As described above, a source video stream may be transmitted from the video source 300, in which case the video processing apparatus 200 receives each of the source video frames of the source video stream continuously transmitted from the video source 300 And decode it. At this time, the image processing apparatus 200 may assign a data time stamp to each of the received source image frames for the purpose of frame-by-frame synchronization of the divided image data.

다음으로, 영상 처리 장치(200)는 디코딩된 영상 로우 데이터의 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장한다(S408). 한편, 전술한 바와 같이, 그래픽 어댑터에 할당된 비디오 메모리 영역에는 복수의 프레임 영상들의 복수의 분할 영상 데이터들이 저장될 수 있다. 예를 들어, 제 1 그래픽 어댑터(210a)에 대응되는 제 1 메모리 영역에는 제 1 프레임 영상의 제 1 분할 영상 데이터, 제 2 프레임 영상의 제 1 분할 영상 데이터, 제 3 프레임 프레임 영상의 제 1 분할 영상 데이터가 저장될 수 있는 등이다. 따라서, 영상 처리 장치(200)는 이러한 동일한 분할 영역에 대응되는 복수의 프레임의 분할 영상 데이터를 프레임별로 구별하기 위하여 데이터 타임 스탬프를 포함하는 프레임 속성 정보를 각각의 분할 영상 데이터에 부가하여 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장할 수 있다. 이러한 프레임 속성 정보는, 그 이후에 영상 처리 장치(200)가 비디오 메모리(242)에 저장된 분할 영상 데이터들을 프레임적으로 동기화하여 동시에 병렬로 대응하는 그래픽 어댑터들(210a~210d)로 전송하기 위하여 사용된다. Next, the image processing apparatus 200 stores each divided image data of the decoded image row data in a video memory area allocated to the corresponding graphic adapter (S408). On the other hand, as described above, a plurality of divided image data of a plurality of frame images can be stored in the video memory area allocated to the graphic adapter. For example, in the first memory area corresponding to the first graphic adapter 210a, the first divided image data of the first frame image, the first divided image data of the second frame image, the first divided image data of the third frame image, Video data can be stored, and the like. Accordingly, the image processing apparatus 200 adds the frame attribute information including the data time stamp to each divided image data to distinguish the divided image data of the plurality of frames corresponding to the same divided area by frame, It can be stored in the video memory area allocated to the adapter. The frame attribute information is used to frame-synchronize the segmented image data stored in the video memory 242 by the image processing apparatus 200 thereafter and transmit the frame attribute information to the corresponding graphic adapters 210a to 210d in parallel at the same time do.

다음으로, 영상 처리 장치(200)는 그래픽 어댑터별 비디오 메모리 영역에 저장된 분할 영상 데이터들의 프레임 속성 정보를 체크한다(S410). 분할 영상 데이터들의 프레임 속성 정보에 기초하여, 영상 처리 장치(200)는 표출 프레임 및 표출 시간을 결정한다(S412).Next, the image processing apparatus 200 checks the frame attribute information of the divided image data stored in the video memory area of the graphics adapter (S410). Based on the frame attribute information of the divided image data, the image processing apparatus 200 determines the display frame and the display time (S412).

표출 프레임 및 표출 시간이 결정되면, 영상 처리 장치(200)는 그래픽 어댑터별 비디오 메모리 영역에 저장된 복수의 분할 영상 데이터들 중 표출 프레임으로 결정된 프레임의 분할 영상 데이터를 추출하여 동시에 병렬로 대응하는 그래픽 어댑터들(210a~210d)로 전송한다(S414).When the display frame and the display time are determined, the image processing apparatus 200 extracts the divided image data of the frame determined as the display frame among the plurality of divided image data stored in the video memory area of the graphics adapter, (210a to 210d) (S414).

도 5는 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 디스플레이 영역 비교/매칭 과정을 도시하는 순서도이다. 이하에서는, 도 5를 참조하여, 본 발명에 따른 디스플레이 영역 비교/매칭 과정을 살펴보도록 한다.5 is a flowchart illustrating a display area comparison / matching process performed by the image processing apparatus according to an exemplary embodiment of the present invention. Hereinafter, a display area comparison / matching process according to the present invention will be described with reference to FIG.

먼저, 영상 처리 장치(200)는 멀티 디스플레이 장치(100)에 연결된 내장된 그래픽 어댑터들의 리스트를 추출한다(S500). First, the image processing apparatus 200 extracts a list of embedded graphics adapters connected to the multi-display device 100 (S500).

그래픽 어댑터들의 리스트가 추출되면, 영상 처리 장치(200)는 그래픽 어댑터별 디스플레이 정보를 추출하거나 또는 입력받는다(S502). 즉, 이상에서 설명된 바와 같이, 사용자에 의해 그래픽 어댑터별 서브-영역 설정 정보를 포함하는 그래픽 어댑터별 디스플레이 정보가 입력되어 저장되어 있는 경우 영상 처리 장치(200)는 저장된 그래픽 어댑터별 디스플레이 정보를 추출하며, 저장되어 있지 않은 경우 영상 처리 장치(200)는 사용자에게 입력 인터페이스를 제공하여 그래픽 어댑터별 디스플레이 정보를 입력받는다.When the list of graphic adapters is extracted, the image processing apparatus 200 extracts or receives display information for each graphic adapter (S502). That is, as described above, when the display information for each graphics adapter including the sub-area setting information for each graphic adapter is inputted and stored by the user, the image processing apparatus 200 extracts the display information for each stored graphics adapter If not stored, the image processing apparatus 200 provides an input interface to the user and receives display information for each graphics adapter.

그래픽 어댑터별 디스플레이 정보가 획득되면, 영상 처리 장치(200)는 멀티 디스플레이 장치(100)를 구성하는 복수의 디스플레이 장치들(110a~110l)을 그래픽 어댑터별로 그룹핑한다(S504). 즉, 이렇게 그룹핑된 디스플레이 장치들의 디스플레이 영역이 해당되는 그래픽 어댑터가 담당하는 서브-영역에 해당될 수 있다.Once the display information for each graphic adapter is obtained, the image processing apparatus 200 groups the plurality of display devices 110a to 110l constituting the multi-display device 100 according to graphic adapters (S504). That is, the display area of the grouped display devices may correspond to the sub-area of the corresponding graphic adapter.

그런 다음 전술한 바와 같이, 영상 처리 장치(200)는 영상 소스(300)로부터 전송되는 소스 영상과 멀티 디스플레이 장치(100)의 디스플레이 영역을 비교하여 매칭하고(S506), 각각의 그래픽 어댑터가 디스플레이할 소스 영상의 분할 영상 영역을 결정한다(S508). Then, as described above, the image processing apparatus 200 compares and matches the source image transmitted from the image source 300 with the display area of the multi-display device 100 (S506) A divided image area of the source image is determined (S508).

도 6a는 각각의 분할 영상의 획득 시점을 개념적으로 도시하는 도면이다. 또한, 도 6b는 본 발명에 따라 동기화되어 재생되는 분할 영상의 표출 시간을 개념적으로 도시하는 도면이다. FIG. 6A is a diagram conceptually showing the acquisition time of each divided image. FIG. 6B is a diagram conceptually illustrating display times of divided images reproduced in synchronization according to the present invention.

먼저, 도 6a에 도시된 바와 같이, 본 발명에 따른 영상 처리 장치(200)에서 프레임별로 각각의 분할 영상 데이터(예를 들어, 프레임별 제 1 분할 영상 데이터(320a) 내지 제 4 분할 영상 데이터(320d))를 획득하는 시점이 시간적으로 달라질 수밖에 없다는 문제점이 있다. 따라서, 이러한 상태에서 각각의 분할 영상 데이터를 표출하게 되면 표출되는 화면의 동기화가 어긋나는 문제점이 발생한다.6A, in the image processing apparatus 200 according to an embodiment of the present invention, each divided image data (for example, the first divided image data 320a through the fourth divided image data 320a through 320f) 320d) are time-varying. Therefore, if each divided image data is displayed in such a state, there arises a problem that synchronization of displayed images is out of synchronization.

따라서, 본 발명에 따른 영상 처리 장치(200)는, 각각의 분할 영상 데이터의 획득 시점이 다르기 때문에 발생하는 동기화 문제점을 해결하기 위하여, 도 6b에 도시된 바와 같이 지정된 재생 시작 시간에 지정된 프레임에 해당되는 분할 영상 데이터를 동시에 병렬로 대응하는 그래픽 어댑터(210a~210d)로 전송하도록 구성된다. 이하에서, 이러한 동기화 프로세스에 대하여 구체적으로 설명하도록 한다.Accordingly, in order to solve the synchronization problem that occurs because the acquisition time of each divided image data is different, the image processing apparatus 200 according to the present invention has a problem in that, as shown in FIG. 6B, To the corresponding graphics adapters 210a to 210d in parallel. Hereinafter, this synchronization process will be described in detail.

도 7은 본 발명의 일 실시예에 따른 영상 처리 장치에 의해 수행되는 재생 시간 및 재생 프레임 동기화 과정을 도시하는 순서도이다. 보다 더 구체적으로, 도 7은 본 발명에 따른 메인 핸들러(248)와 복수의 분산 핸들러들(205a~250d)에 사이에서 수행되는 동기화 프로세스를 도시한다.7 is a flowchart illustrating a process of synchronizing a reproduction time and a reproduction frame performed by an image processing apparatus according to an embodiment of the present invention. More specifically, FIG. 7 illustrates a synchronization process performed between a main handler 248 and a plurality of distribution handlers 205a-d according to the present invention.

일단, 메인 핸들러(248)가 동적으로 복수의 분산 핸들러들(205a~250d)을 생성하고, 분산 핸들러들(205a~250d) 각각에 그래픽 어댑터에 대한 처리 요청 정보를 전송하여 각각의 분산 핸들러들(205a~250d)에 대응하는 그래픽 어댑터의 할당을 완료한 상태를 가정하도록 한다.Once the main handler 248 dynamically creates a plurality of distribution handlers 205a-d and sends processing request information for the graphics adapter to each of the distribution handlers 205a-d, 205a to 250d are completed.

먼저, 메인 핸들러(248)는 영상 처리 장치(200)의 시스템 시간을 기준 시간으로서 복수의 분산 핸들러들(205a~250d)에 전송함으로써 복수의 분산 핸들러들(205a~250d)과의 시간 동기화를 수행한다(S700).First, the main handler 248 performs time synchronization with a plurality of distribution handlers 205a to 250d by transmitting the system time of the image processing apparatus 200 as a reference time to a plurality of distribution handlers 205a to 250d (S700).

시간 동기화가 이루어진 상태에서, 각각의 분산 핸들러(250a~250d)는 대응하는 그래픽 어댑터(210a-210d)에 할당된 비디오 메모리 영역으로부터 분할 영상 데이터 및 분할 영상 데이터에 대한 프레임 속성 정보를 수신하거나 또는 판독하거나 또는 추출하고(S702, S706, S710, S714), 해당 분할 영상 데이터에 부가된 프레임 속성 정보를 포함하는 영상 수신 정보를 메인 핸들러(248)로 전송한다(S704, S708, S712, S716). 이때, 분산 핸들러들(205a~250d)로부터 메인 핸들러(248)로 전송되는 영상 수신 정보는, 프레임 속성 정보(입력 수신 시간, DTS, FPS, 시퀀스 번호 등), 분산 핸들러 ID, 그래픽 어댑터 ID 등을 포함할 수 있다. 한편, 다른 실시예에 있어서, 각각의 분산 핸들러(250a~250d)는 분할 영상 데이터 자체가 아니라 분할 영상 데이터가 저장된 비디오 메모리 어드레스를 수신하도록 구성될 수도 있다. 또한, 또 다른 실시예에 있어서, 각각의 분산 핸들러(250a~250d)는 대응하는 그래픽 어댑터(210a-210d)에 할당된 비디오 메모리 영역을 실시간으로 모니터링하고, 새로운 분할 영상 데이터가 해당 비디오 메모리 영역에 저장되는 경우 대응되는 프레임 속성 정보를 추출하고 영상 수신 정보를 생성하여 메인 핸들러(248)로 전송하도록 구성될 수도 있다.With the time synchronization in progress, each of the distribution handlers 250a-d receives frame attribute information for the segmented image data and the segmented image data from the video memory area allocated to the corresponding graphics adapter 210a-210d, (S702, S706, S710, S714), and transmits the image reception information including the frame attribute information added to the divided image data to the main handler 248 (S704, S708, S712, S716). The image reception information transmitted from the distribution handlers 205a to 250d to the main handler 248 includes frame attribute information (input reception time, DTS, FPS, sequence number, etc.), distribution handler ID, . On the other hand, in another embodiment, each of the distribution handlers 250a to 250d may be configured not to receive the divided image data itself, but to receive the video memory address where the divided image data is stored. Further, in another embodiment, each of the distribution handlers 250a-d monitors in real time the video memory area allocated to the corresponding graphics adapter 210a-210d, and the new split image data is stored in the corresponding video memory area And if so, extracts corresponding frame attribute information, generates image reception information, and transmits the image reception information to the main handler 248.

한편, 여기에서 주의해야 할 점은, 도면에 도시된 분할 영상 데이터의 수신(또는 판독 또는 추출) 시점 및 영상 수신 정보 전송 시점은 오로지 예시적인 것이며, 분할 영상 데이터의 수신(또는 판독 또는 추출) 및 영상 수신 정보의 전송이 도면에 도시된 것과 상이한 순서로 일어날 수 있다는 것이다. 즉, 예를 들어, 제 2 분산 핸들러(250b)가 제 3 분산 핸들러(250c)보다 분할 영상 데이터를 더 늦은 시점에 획득할 수 있으며, 따라서 제 2 분산 핸들러(250b)가 제 3 분산 핸들러(250c)보다 더 늦은 시점에 영상 수신 정보를 전송할 수도 있다.It should be noted here that the receiving (or reading or extracting) time point and the image receiving information transmitting time point of the divided image data shown in the drawings are merely exemplary and the receiving (or reading or extracting) of the divided image data and The transmission of the video reception information can take place in an order different from that shown in the figure. That is, for example, the second distribution handler 250b may acquire the partition image data at a later time than the third distribution handler 250c, so that the second distribution handler 250b may acquire the partition image data from the third distribution handler 250c The image reception information may be transmitted at a later time point than the image reception information.

메인 핸들러(248)는 복수의 분산 핸들러들(250a~250d) 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간 및 재생 대상 프레임을 결정하고(S718), 재생 시작 시간 및 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및/또는 시퀀스 번호(즉, 재생할 프레임을 식별할 수 있는 정보)를 포함하는 영상 재생 정보를 생성하여 복수의 분산 핸들러들(250a~250d) 각각으로 전송한다(S720).The main handler 248 receives the image reception information transmitted from each of the plurality of distribution handlers 250a to 250d, determines a reproduction start time and a frame to be reproduced based on the received image reception information (S718) (I.e., information capable of identifying a frame to be reproduced) of the reproduction start time and the reproduction start time and the reproduction start time and the reproduction start time and the start time and the reproduction target division image data, (S720).

복수의 분산 핸들러들(250a~250d)은 메인 핸들러(248)로부터 전송되는 영상 재생 정보를 수신하고, 영상 재생 정보 내에 지정된 재생 시작 시간에 지정된 프레임에 해당되는 분할 영상 데이터를 대응하는 그래픽 어댑터들(210a~210d)로 동시에 병렬로 전송한다(S722).The plurality of distribution handlers 250a to 250d receive the image reproduction information transmitted from the main handler 248 and output the divided image data corresponding to the frame designated at the reproduction start time designated in the image reproduction information to the corresponding graphics adapters 210a to 210d simultaneously (S722).

따라서, 이상과 같은 동기화 프로세스에 의하여, 본 발명에 따른 영상 처리 장치(200)는 도 6b에 도시된 바와 같이, 정확히 동기화된 시점에 동기화된 프레임의 분할 영상 데이터들을 대응하는 그래픽 어댑터들(210a~210d)을 통해 멀티 디스플레이 장치(100) 상에 표출할 수 있다.Accordingly, by the above-described synchronization process, the image processing apparatus 200 according to the present invention can display the divided image data of the frame synchronized at the exactly synchronized time point with corresponding graphics adapters 210a- 210d to display on the multi-display device 100. FIG.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(megneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동되도록 구성될 수 있으며, 그 역도 마찬가지다. Embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk, and a magnetic tape; optical media such as CD-ROM and DVD; magnetic recording media such as a floppy disk; Includes hardware devices specifically configured to store and perform program instructions such as megneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

Claims (16)

멀티 디스플레이 장치에 대한 영상 병렬 랜더링 처리를 수행하기 위하여 영상 처리 장치에 의해 수행되는 영상 처리 방법으로서, 상기 영상 처리 장치는 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들을 포함하며, 상기 방법은,
(a) 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하고, 디스플레이 영역 매칭 결과 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계;
(b) 상기 영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우(raw) 영상 데이터로 디코딩하는 단계;
(c) 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는 단계; 및
(d) 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 단계를 포함하는, 영상 처리 방법.
A video processing method performed by an image processing apparatus for performing an image parallel rendering processing on a multi-display apparatus, the image processing apparatus including a plurality of graphic adapters for controlling display of a predetermined sub- The method comprising:
(a) comparing and matching display regions between an image source and the multi-display device, and based on display region matching results and sub-region setting information for each graphics adapter, dividing a source image to be displayed by each of the plurality of graphics adapters Determining a video area and allocating a video memory area in which divided video data for each graphics adapter is to be stored;
(b) receiving a source image frame from the image source and decoding the received source image frame into raw image data;
(c) storing corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphic adapter in a video memory area allocated to the corresponding graphic adapter; And
(d) synchronizing the respective divided image data stored in the video memory area allocated for each of the graphic adapters on a frame-by-frame basis, and simultaneously transmitting the image data in parallel to the corresponding graphics adapter.
청구항 1에 있어서,
상기 (a) 단계는,
(a1) 상기 멀티 디스플레이 장치에 연결된 상기 복수의 그래픽 어댑터들의 리스트를 추출하는 단계;
(a2) 상기 복수의 그래픽 어댑터들 각각에 대한 상기 그래픽 어댑터별 서브-영역 설정 정보를 포함하는 그래픽 어댑터별 디스플레이 정보를 추출하거나 또는 입력받는 단계;
(a3) 상기 영상 소스로부터의 상기 소스 영상의 해상도와 상기 멀티 디스플레이 장치의 전체 해상도를 비교하여, 상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율을 결정하는 단계; 및
(a4) 상기 결정된 픽셀 비율 및 상기 그래픽 어댑터별 서브-영역 설정 정보에 기초하여, 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하며, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 단계를 포함하는, 영상 처리 방법.
The method according to claim 1,
The step (a)
(a1) extracting a list of the plurality of graphics adapters connected to the multi-display device;
(a2) extracting or receiving display information for each of the plurality of graphic adapters, the display information for each of the plurality of graphic adapters including the sub-area setting information for each of the plurality of graphic adapters;
(a3) comparing the resolution of the source image from the image source with the full resolution of the multi-display device to determine a pixel ratio between the source image and the multi-display device; And
(a4) determining a divided image area of the source image to be displayed by each of the plurality of graphic adapters, based on the determined pixel ratio and the sub-area setting information for each of the graphics adapters, And allocating a video memory area in which data is to be stored.
청구항 1에 있어서,
상기 (b) 단계는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하는 단계를 더 포함하는, 영상 처리 방법.
The method according to claim 1,
Wherein the step (b) further comprises the step of providing a data time stamp (DTS) to the received source image frame based on the reception time of the source image frame.
청구항 3에 있어서,
상기 (c) 단계는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는, 영상 처리 방법.
The method of claim 3,
Wherein the step (c) stores each divided image data together with frame attribute information including the data time stamp in a video memory area assigned to a corresponding graphics adapter.
청구항 4에 있어서,
상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함하는, 영상 처리 방법.
The method of claim 4,
Wherein the frame attribute information includes the data time stamp, a frame per second (FPS), and a sequence number.
청구항 4에 있어서,
상기 (d) 단계는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 영상 처리 방법.
The method of claim 4,
Wherein the step (d) comprises: receiving each divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter, and synchronizing the received divided image data on a frame-by-frame basis, And simultaneously transmitting in parallel to a corresponding graphics adapter.
청구항 6에 있어서,
상기 (d) 단계는,
(d1) 메인 핸들러(main handler)와 상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러(distributor handler)들을 서로 시간적으로 동기화시키는 단계;
(d2) 상기 복수의 분산 핸들러 각각이 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하는 단계;
(d3) 상기 복수의 분산 핸들러 각각이 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하는 단계;
(d4) 상기 메인 핸들러가 상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 단계로서, 상기 영상 재생 정보는 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는, 단계; 및
(d5) 상기 복수의 분산 핸들러들이 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는 단계를 포함하는, 영상 처리 방법.
The method of claim 6,
The step (d)
(d1) temporally synchronizing a main handler and a plurality of distributor handlers corresponding to each of the plurality of graphics adapters with each other;
(d2) receiving the divided image data and the frame attribute information from a video memory area allocated to a corresponding graphic adapter of each of the plurality of distribution handlers;
(d3) transmitting, by the plurality of distribution handlers, image reception information including the frame attribute information to the main handler;
(d4) receiving, by the main handler, the image reception information transmitted from each of the plurality of distribution handlers, generating image reproduction information based on the received image reception information, and transmitting the generated image reproduction information to each of the plurality of distribution handlers, The video playback information includes a playback start time, a data time stamp of the playback subject division video data, and a sequence number; And
(d5) receiving the image reproduction information transmitted from the main handler by the plurality of distribution handlers, and dividing the divided image data corresponding to the data time stamp and the sequence number at the reproduction start time on the basis of the received image reproduction information At the same time, in parallel to a corresponding graphics adapter.
청구항 7에 있어서,
상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성되는, 영상 처리 방법.
The method of claim 7,
Wherein the plurality of distribution handlers are dynamically generated by the main handler.
멀티 디스플레이 장치에 대한 영상 병렬 랜더링 처리를 수행하는 영상 처리 장치로서,
각기 상기 멀티 디스플레이 장치의 미리 설정된 서브-영역의 디스플레이를 제어하는 복수의 그래픽 어댑터들;
영상 소스로부터 소스 영상 프레임을 수신하고, 수신된 소스 영상 프레임을 로우 영상 데이터로 디코딩하는 디코딩 모듈; 및
상기 영상 소스와 상기 멀티 디스플레이 장치 사이의 디스플레이 영역을 비교하여 매칭하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하며, 상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분산 랜더링 모듈을 포함하는, 영상 처리 장치.
An image processing apparatus for performing image parallel rendering processing on a multi-display apparatus,
A plurality of graphics adapters each controlling display of a predetermined sub-area of the multi-display device;
A decoding module that receives the source image frame from the image source and decodes the received source image frame into raw image data; And
A display area between the image source and the multi-display device is compared and matched to determine a divided image area of a source image to be displayed by each of the plurality of graphic adapters, A memory area allocated to each of the graphics adapters, and stores corresponding divided image data of the decoded raw image data based on the determined divided image area for each graphics adapter in a video memory area assigned to the corresponding graphic adapter, And an image distribution rendering module that synchronizes the respective divided image data stored in the memory area on a frame-by-frame basis and simultaneously transmits the image data in parallel to a corresponding graphics adapter.
청구항 9에 있어서,
상기 영상 분산 랜더링 모듈은,
상기 소스 영상과 상기 멀티 디스플레이 장치 사이의 픽셀 비율 및 그래픽 어댑터별 서브-영역 설정 정보에 기초하여 상기 복수의 그래픽 어댑터들 각각이 디스플레이할 상기 소스 영상의 분할 영상 영역을 결정하고, 각각의 그래픽 어댑터에 대한 분할 영상 데이터가 저장될 비디오 메모리 영역을 할당하는 디스플레이 영역 처리부;
디코딩된 로우 영상 데이터의 복수의 분할 영상 데이터가 각기 대응하는 그래픽 어댑터에 할당된 각각의 비디오 메모리 영역에 저장되는 비디오 메모리; 및
상기 결정된 그래픽 어댑터별 분할 영상 영역에 기초하여 디코딩된 로우 영상 데이터 중 대응하는 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하고, 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터를 프레임별로 동기화하여 대응하는 그래픽 어댑터로 동시에 병렬로 전송하는 영상 분할 처리부를 포함하는, 영상 처리 장치.
The method of claim 9,
Wherein the image distribution rendering module comprises:
Determining a divided image area of the source image to be displayed by each of the plurality of graphic adapters based on a pixel ratio between the source image and the multi-display device and sub-area setting information per graphic adapter, A display area processing unit for allocating a video memory area in which the divided image data is to be stored;
A video memory in which a plurality of pieces of divided image data of decoded row image data are stored in respective video memory areas assigned to corresponding graphic adapters; And
Storing the corresponding divided image data of the decoded raw image data based on the determined divided image area of each graphic adapter in a video memory area allocated to the corresponding graphic adapter, And an image division processing unit for synchronizing the divided image data on a frame-by-frame basis and simultaneously transmitting them in parallel to a corresponding graphics adapter.
청구항 10에 있어서,
상기 영상 분할 처리부는 상기 소스 영상 프레임의 수신 시간에 기초하여 상기 수신된 소스 영상 프레임에 데이터 타임 스탬프(data time stamp; DTS)를 부여하는, 영상 처리 장치.
The method of claim 10,
Wherein the image segmentation processing unit gives a data time stamp (DTS) to the received source image frame based on a reception time of the source image frame.
청구항 11에 있어서,
상기 영상 분할 처리부는 상기 데이터 타임 스탬프를 포함하는 프레임 속성 정보와 함께 각각의 분할 영상 데이터를 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역에 저장하는, 영상 처리 장치.
The method of claim 11,
Wherein the image segmentation processing unit stores each divided image data together with frame attribute information including the data time stamp in a video memory area assigned to a corresponding graphics adapter.
청구항 12에 있어서,
상기 프레임 속성 정보는 상기 데이터 타임 스탬프, 초당 프레임 전송수(Frame Per Second; FPS), 시퀀스 번호를 포함하는, 영상 처리 장치.
The method of claim 12,
Wherein the frame attribute information includes the data time stamp, a frame per second (FPS), and a sequence number.
청구항 12에 있어서,
상기 영상 분할 처리부는 상기 그래픽 어댑터별로 할당된 비디오 메모리 영역에 저장된 각각의 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보에 기초하여 상기 수신된 각각의 분할 영상 데이터를 프레임별로 동기화하여 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 영상 처리 장치.
The method of claim 12,
Wherein the image division processing unit receives the divided image data and the frame attribute information stored in the video memory area allocated for each graphic adapter and synchronizes the received divided image data on a frame-by-frame basis based on the frame attribute information And at the same time to the corresponding graphics adapter in parallel.
청구항 14에 있어서,
상기 영상 분할 처리부는,
상기 복수의 그래픽 어댑터들 각각에 대응되는 복수의 분산 핸들러로서, 상기 복수의 분산 핸들러 각각은 대응하는 그래픽 어댑터에 할당된 비디오 메모리 영역으로부터 상기 분할 영상 데이터 및 상기 프레임 속성 정보를 수신하고, 상기 프레임 속성 정보를 포함하는 영상 수신 정보를 상기 메인 핸들러로 전송하며, 상기 메인 핸들러로부터 전송되는 영상 재생 정보를 수신하고, 수신된 영상 재생 정보에 기초하여 상기 재생 시작 시간에 상기 데이터 타임 스탬프 및 상기 시퀀스 번호에 대응하는 분할 영상 데이터를 동시에 대응하는 그래픽 어댑터로 병렬로 전송하는, 상기 복수의 분산 핸들러; 및
상기 복수의 분산 핸들러 각각으로부터 전송되는 영상 수신 정보를 수신하고, 수신된 영상 수신 정보에 기초하여 재생 시작 시간, 재생 대상 분할 영상 데이터의 데이터 타임 스탬프 및 시퀀스 번호를 포함하는 영상 재생 정보를 생성하여 상기 복수의 분산 핸들러 각각으로 전송하는 메인 핸들러를 포함하는, 영상 처리 장치.
15. The method of claim 14,
Wherein the image division processing unit comprises:
A plurality of distribution handlers corresponding to each of the plurality of graphics adapters, wherein each of the plurality of distribution handlers receives the divided image data and the frame attribute information from a video memory area assigned to a corresponding graphics adapter, Receiving the video reproduction information transmitted from the main handler, and transmitting the data time stamp and the sequence number at the reproduction start time based on the received video reproduction information to the main handler The plurality of distribution handlers transmitting the corresponding divided image data in parallel to a corresponding graphics adapter at the same time; And
Receiving image transmission information transmitted from each of the plurality of distribution handlers, generating image reproduction information including a reproduction start time, a data time stamp of the reproduction target division image data, and a sequence number based on the received image reception information, And a main handler for transmitting the main handler to each of the plurality of distribution handlers.
청구항 15에 있어서,
상기 복수의 분산 핸들러는 상기 메인 핸들러에 의해 동적으로 생성되는, 영상 처리 장치.
16. The method of claim 15,
Wherein the plurality of distribution handlers are dynamically generated by the main handler.
KR1020170092010A 2017-07-20 2017-07-20 An image processing apparatus and method for image parallel rendering processing KR101987356B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170092010A KR101987356B1 (en) 2017-07-20 2017-07-20 An image processing apparatus and method for image parallel rendering processing
CN201710637447.3A CN109285108B (en) 2017-07-20 2017-07-28 Image processing device and method for image parallel rendering processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170092010A KR101987356B1 (en) 2017-07-20 2017-07-20 An image processing apparatus and method for image parallel rendering processing

Publications (2)

Publication Number Publication Date
KR20190009972A true KR20190009972A (en) 2019-01-30
KR101987356B1 KR101987356B1 (en) 2019-06-10

Family

ID=65185597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170092010A KR101987356B1 (en) 2017-07-20 2017-07-20 An image processing apparatus and method for image parallel rendering processing

Country Status (2)

Country Link
KR (1) KR101987356B1 (en)
CN (1) CN109285108B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110381267B (en) * 2019-08-21 2021-08-20 成都索贝数码科技股份有限公司 Method for realizing large-format multilayer real-time editing based on intra-frame segmentation clustering
CN112057852B (en) * 2020-09-02 2021-07-13 北京蔚领时代科技有限公司 Game picture rendering method and system based on multiple display cards

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037051A (en) * 2009-10-05 2011-04-13 주식회사 글로벌미디어테크 High speed processing method for image data using parallel processors on graphics processing unit
KR20120008741A (en) * 2010-07-20 2012-02-01 엘지전자 주식회사 Multi-vision system and picture visualizing method the same
KR20140077757A (en) * 2012-12-14 2014-06-24 한국전자통신연구원 Method for displaying of digital signage
KR101513413B1 (en) * 2014-03-07 2015-04-22 큐보스 주식회사 Android-based Device of providing matrix-type UHD video

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108469A1 (en) * 2007-03-07 2008-09-12 Sony Corporation Display control device, display control method, display control program and display system
CN202422104U (en) * 2012-02-10 2012-09-05 广州瀚阳信息科技有限公司 Multi-screen parallel massive information display system
CN102541501A (en) * 2012-02-10 2012-07-04 广州瀚阳信息科技有限公司 Multi-screen parallel massive information display system
CN103049926B (en) * 2012-12-24 2016-04-13 广东威创视讯科技股份有限公司 Distributed three-dimensional rendering system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037051A (en) * 2009-10-05 2011-04-13 주식회사 글로벌미디어테크 High speed processing method for image data using parallel processors on graphics processing unit
KR20120008741A (en) * 2010-07-20 2012-02-01 엘지전자 주식회사 Multi-vision system and picture visualizing method the same
KR20140077757A (en) * 2012-12-14 2014-06-24 한국전자통신연구원 Method for displaying of digital signage
KR101513413B1 (en) * 2014-03-07 2015-04-22 큐보스 주식회사 Android-based Device of providing matrix-type UHD video

Also Published As

Publication number Publication date
CN109285108A (en) 2019-01-29
KR101987356B1 (en) 2019-06-10
CN109285108B (en) 2023-02-28

Similar Documents

Publication Publication Date Title
US6771278B2 (en) Image processing system, image display method, recording medium and image display apparatus
CN101388992B (en) Information processing apparatus and information processing method
US7145947B2 (en) Video data processing apparatus and method, data distributing apparatus and method, data receiving apparatus and method, storage medium, and computer program
US8401339B1 (en) Apparatus for partitioning and processing a digital image using two or more defined regions
US11483629B2 (en) Providing virtual content based on user context
KR102229927B1 (en) Multi-Screen System, Picture Partition Server and Picture Processing Method thereof, Divided Picture Terminal and Multi-Screen Control Method thereof
US20140292619A1 (en) Display system, display control apparatus, and image provision apparatus thereof
WO2017118078A1 (en) Image processing method, playing method and related device and system
EP2441269A2 (en) Signal processing method and apparatus therefor using screen size of display device
CN105407252A (en) Method and device for synchronous display of pictures
CN102024445A (en) Method and apparatus for displaying video signals from plurality of input sources
KR101987356B1 (en) An image processing apparatus and method for image parallel rendering processing
US10848837B2 (en) Device and method for processing high-definition 360-degree VR image
CN101132506B (en) Video receiving apparatus and video receiving method
US20080180467A1 (en) Ultra-resolution display technology
JP2017072644A (en) Display control device
US10572209B2 (en) Multi-display system
KR20180052255A (en) Method and Apparatus for Providing and Storing Streaming Contents
US20020190979A1 (en) System and method for parallel rendering of images
CN113691862B (en) Video processing method, electronic device for video playing and video playing system
KR101513413B1 (en) Android-based Device of providing matrix-type UHD video
KR101500968B1 (en) Video processing device and method based on space and location sensing
WO2019017695A1 (en) Display apparatus, method of controlling the same, and computer program product thereof
CN112099745B (en) Image display method, device and system
WO2020204253A1 (en) Region-of-interest-based vr image receiving apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant