KR101500968B1 - Video processing device and method based on space and location sensing - Google Patents

Video processing device and method based on space and location sensing Download PDF

Info

Publication number
KR101500968B1
KR101500968B1 KR20140027288A KR20140027288A KR101500968B1 KR 101500968 B1 KR101500968 B1 KR 101500968B1 KR 20140027288 A KR20140027288 A KR 20140027288A KR 20140027288 A KR20140027288 A KR 20140027288A KR 101500968 B1 KR101500968 B1 KR 101500968B1
Authority
KR
South Korea
Prior art keywords
unit
unit terminal
vision
group display
operating platform
Prior art date
Application number
KR20140027288A
Other languages
Korean (ko)
Inventor
천대호
조희준
Original Assignee
큐보스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐보스 주식회사 filed Critical 큐보스 주식회사
Priority to KR20140027288A priority Critical patent/KR101500968B1/en
Application granted granted Critical
Publication of KR101500968B1 publication Critical patent/KR101500968B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4108Peripherals receiving signals from specially adapted client devices characterised by an identification number or address, e.g. local network address
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/72Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using ultrasonic, sonic or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

The present invention relates to a video transmission technology which optimizes a multi-vision display by sensing a shape of an entire multi-vision space and a terminal arrangement in a multi-vision display formed by combining a plurality of unit terminals, and automatically forming, by each individual terminal, a split video to display. More specifically, the present invention relates to a technology which can be applied to all high-definition videos expected to be actively introduced to a large-sized PR center or interior work in the future, and optimizes a multi-vision display with minimum involvement of a user (manager) by sensing a shape of an entire multi-vision space (e.g. tunnel, pyramid) or a display arrangement, individually determining, by each display device, a split video to display, and automatically performing corrections. According to the present invention, an apparatus for transmitting a video based on space and location sensing comprises: a group display for displaying a video by including a plurality of unit terminals, and dividing an entire video to correspond to the arrangement of the unit terminals; and a multi-vision operation platform for controlling a split playback. The group display obtains relative location information on the unit terminals, and provides the information to the multi-vision operation platform. The multi-vision platform: identifies the arrangement of the unit terminals in the group display based on the relative location information; generates playback area data to correspond to the arrangement of the unit terminals by individually identifying a playback area of each unit terminal which is divided from the entire video; and provides video file data on the entire video, scheduling data on playback points, and playback area data to the group display. The unit terminals constituting the group display: obtain the entire video by decoding the video file data; obtain each split video from the entire video based on the playback area data; and display each split video at each playback point according the scheduling data.

Description

공간 및 위치 감응형 영상 송출 장치 및 방법{Video processing device and method based on space and location sensing}Technical Field [0001] The present invention relates to a spatial and position sensitive video transmission apparatus and method,

본 발명은 복수 개의 유닛단말을 조합하여 형성한 멀티비전 디스플레이에서 전체 멀티비전 공간의 형태 및 단말 배치에 감응하여 개별 유닛단말이 표시할 분할영상을 자동적으로 형성함으로써 멀티비전 디스플레이를 최적화하는 영상 송출 기술에 관한 것이다.The present invention relates to a video transmission technology for optimizing a multi-vision display by automatically forming divided images to be displayed by individual unit terminals in response to the shape and terminal arrangement of the entire multi-vision space in a multi-vision display formed by combining a plurality of unit terminals .

더욱 상세하게는, 본 발명은 대형 홍보관이나 인테리어 작품 등을 중심으로 향후 적극적으로 도입될 것으로 예상되는 고해상도 전체 영상에 효과적으로 적용할 수 있는 기술로서 전체 멀티비전 공간의 형태(예: 터널, 피라미드) 내지 디스플레이 배치에 감응하여 개별 디스플레이 장치에서 표시할 분할영상을 개별적으로 판단하여 자동으로 수정함으로써 사용자(관리자)의 개입을 최소화한 상태에서 멀티비전 디스플레이를 최적화하는 기술에 관한 것이다.
More specifically, the present invention is a technology that can be effectively applied to a high-resolution entire image that is expected to be actively introduced in the future, centering on a large public relations center or an interior work, as a form of the entire multivision space (for example, a tunnel or a pyramid) The present invention relates to a technique of optimizing a multivision display in a state in which the intervention of a user (a manager) is minimized by individually judging and automatically correcting a divided image to be displayed on an individual display device in response to a display arrangement.

대형 홍보관 등에서 사용되는 멀티비전 시스템은 일반적으로 윈도우 운영체제 기반의 컴퓨터 시스템으로 구성된다. 이러한 종래기술의 멀티비전 시스템을 통해 고해상도 영상을 구현하려면 컴퓨터에 고사양 프로세서와 멀티전용 그래픽카드가 장착되어야 한다. 이에 따라 멀티비전 시스템을 구축할 때, 영상의 해상도 레벨과 멀티비전을 형성하는 디스플레이 유닛의 갯수에 맞도록 상당한 투자를 통해 전용 시스템을 구축하고 있다.Multi-vision systems used in large public relations centers are generally composed of computer systems based on Windows operating system. In order to realize a high resolution image through such a conventional multi-vision system, a high-performance processor and a multi-purpose graphics card must be installed in the computer. Accordingly, when constructing a multi-vision system, a dedicated system is being built through a considerable investment to meet the resolution level of the image and the number of display units forming the multi-vision.

최근에는 Full-HD의 4배인 3840x2160 해상도를 갖는 고해상도 영상이 도입되고 있는데, 향후 영상처리 기술의 발달에 따라서는 이보다 더 높은 해상도를 갖는 영상이 도입될 수도 있다. 이러한 고해상도 전체 영상은 댁내의 50 ~ 60 인치급의 디지털 텔레비전에서는 Full-HD 레벨에 비해 별달리 장점을 발견하기 어렵지만, 대화면 디스플레이가 활용되는 장소, 예컨대 대형 홍보관이나 인테리어 작품 등에서는 확실한 장점을 보여준다. 따라서, 이들 분야를 중심으로 고해상도 전체 영상이 적극적으로 시도될 것으로 예상된다.In recent years, high-resolution images with a resolution of 3840x2160, which is four times the size of Full-HD, have been introduced. Depending on the development of image processing technology, higher resolution images may be introduced. Such a high-resolution full-size image can not be found in a 50-60 inch digital television of the house in comparison with a full-HD level, but it shows a clear advantage in a place where a large-screen display is utilized, for example, a large publicity hall or an interior work. Therefore, it is expected that high-resolution whole images will be actively attempted in these fields.

이러한 고해상도 전체 영상을 단일 디스플레이 장치에서 구현하는 것은 어려움이 많을 뿐만 아니라 바람직하지도 않다. 그러한 대화면 고화질 디스플레이 장치의 가격이 매우 고가일 뿐만 아니라 보관하거나 운반하는 것이 매우 어렵다. 또한, 관계자 혹은 관람자의 실수로 인해 디스플레이 일부가 파손되는 경우에는 한동안 홍보관을 닫아야 하는 상황이 발생할 수도 있다. 또한, 단일 디스플레이 장치에서는 일반적으로 전형적인 형태의 화면을 표현할 뿐이어서 다양하고 창조적인 영상 화면을 구성하기 어렵다.Implementing such a high resolution full image in a single display device is not only difficult, but also undesirable. Such a large-screen, high-definition display device is very expensive and very difficult to store or transport. In addition, if a part of the display is damaged due to a mistake of the person concerned or the spectator, it may happen that the public relations hall is closed for a while. In addition, in a single display device, it is generally difficult to form a variety of creative image screens because it only displays a typical type of screen.

그에 따라, 여러 디스플레이 유닛을 조합한 멀티비전으로 구현하는 것이 예전부터 활용되어 왔다. 멀티비전의 형태로 화면을 구성함에 따라 앞서 살펴보았던 대부분의 문제를 해결할 수 있다.Accordingly, it has been used in the past to implement a multivision combining a plurality of display units. By constructing a screen in the form of a multi-vision, we can solve most of the problems we have seen.

하지만, 종래의 윈도우 기반의 멀티비전 시스템으로 고해상도 전체 영상을 수용하려면 상당한 비용투자가 필요하며, 멀티비전 사양이 변경될 때마다 신규로 투자해야 하는 문제가 있다. 또한, 멀티비전의 디스플레이 형태를 변경할 때마다 멀티비전 시스템의 구성을 처음부터 완전히 새로 설정해야만 하는 불편함이 있어 유연성과 확장성이 부족하다는 단점이 있었다.However, conventional window-based multivision systems require significant cost investment to accommodate high-resolution full images and require new investments whenever the multivision specification changes. Further, there is a disadvantage that the configuration of the multivision system must be completely newly set from the beginning every time the display form of the multivision is changed, so that flexibility and scalability are insufficient.

또한, 종래의 멀티비전 시스템에서는 마지막 단계에서 전체 영상을 분해한 여러 개별 화면을 각자의 위치에 맞게 정밀하게 튜닝하는 과정이 매우 힘들고 시간을 많이 소모한다는 단점이 있었다. 개별 화면은 전체 화면에서 각자의 위치에 따른 영상을 표시해야 하는데, 일반적인 6x4 매트릭스 방식이라면 그나마 수월하게 튜닝할 수 있겠지만, 디스플레이 유닛을 비정형으로 배치한다거나 일부를 회전시킨다거나 입체 구조, 예컨대 터널 형태로 배치하는 경우라면 각자 유닛에 맞도록 화면을 튜닝하는 것이 매우 곤란해진다.Also, in the conventional multi-vision system, it is very difficult and time-consuming to precisely tune various individual screens, which are obtained by disassembling the entire image at the last stage, according to their respective positions. The individual screens need to display an image according to their position on the entire screen. If a general 6x4 matrix system is used, the display unit can be easily tuned. However, the display unit can be irregularly arranged, rotated partially, or arranged in a three- It becomes very difficult to tune the screen to suit each unit.

이와 같은 종래기술의 단점을 극복하기 위해 본 발명은 예컨대 안드로이드 기반으로 독자적으로 동작하는 유닛단말을 활용하여 멀티비전 화면에서 자신이 배치된 공간 및 위치를 자동으로 감응하여 디스플레이 영상을 튜닝할 수 있는 멀티비전 플랫폼을 제공한다.
In order to overcome the disadvantages of the related art, the present invention provides a multi-vision display device capable of automatically tuning a display image by automatically sensing the space and position of the multi- It provides a vision platform.

1. 대한민국 특허출원 제10-2009-0108773호 "멀티비전, 멀티비전 구현 방법 및 이를 적용한 디스플레이 장치"1. Korean Patent Application No. 10-2009-0108773 entitled " Multivision, Multivision Implementation Method and Display Apparatus Using the Same "

2. 대한민국 특허출원 제10-2010-0081797호 "3차원 컨텐츠를 출력하는 멀티비전 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 멀티비전 디스플레이 기기"
2. Korean Patent Application No. 10-2010-0081797 "Image processing method of multi-vision display device for outputting three-dimensional content and multi-vision display device employing the method"

본 발명의 목적은 복수 개의 유닛단말을 조합하여 형성한 멀티비전 디스플레이에서 전체 멀티비전 공간의 형태 및 단말 배치에 감응하여 개별 유닛단말이 표시할 분할영상을 자동적으로 형성함으로써 멀티비전 디스플레이를 최적화하는 영상 송출 기술을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a multi-vision display in which a plurality of unit terminals are combined to form a divided image to be displayed by an individual unit terminal in response to the shape of the entire multi- Transmission technology.

더욱 상세하게는, 본 발명의 목적은 대형 홍보관이나 인테리어 작품 등을 중심으로 향후 적극적으로 도입될 것으로 예상되는 고해상도 전체 영상에 효과적으로 적용할 수 있는 기술로서 전체 멀티비전 공간의 형태(예: 터널, 피라미드) 내지 디스플레이 배치에 감응하여 개별 디스플레이 장치에서 표시할 분할영상을 개별적으로 판단하여 자동으로 수정함으로써 사용자(관리자)의 개입을 최소화한 상태에서 멀티비전 디스플레이를 최적화하는 기술을 제공하는 것이다.
More specifically, the object of the present invention is to provide a technology that can be effectively applied to a high-resolution entire image that is expected to be positively introduced in the future centered on a large publicity hall or an interior work, ) To the display arrangement so that the divided images to be displayed on the individual display devices are individually judged and automatically corrected so as to optimize the multi-vision display in a state in which the intervention of the user (manager) is minimized.

이러한 과제를 달성하기 위한 본 발명은 복수 개의 유닛단말을 구비하여 전체 영상을 유닛단말 배치에 대응하도록 분할하여 재생 표시하기 위한 그룹 디스플레이(30)와 분할 재생을 제어하는 멀티비전 운영플랫폼(10)를 포함하여 구성되는 공간 및 위치 감응형 영상 송출 장치로서, 그룹 디스플레이(30)는 유닛단말들의 상대적 위치 정보를 획득하여 멀티비전 운영플랫폼(10)으로 제공하고, 멀티비전 운영플랫폼(10)은 상대적 위치 정보에 기초하여 그룹 디스플레이(30)의 유닛단말 배치를 식별하고, 유닛단말 배치에 대응하도록 전체 영상에서 분할된 유닛단말들의 재생 영역을 개별적으로 식별하여 재생영역 데이터를 생성하고, 전체 영상에 대한 영상파일 데이터와 재생 시점에 관한 스케쥴링 데이터와 재생영역 데이터를 그룹 디스플레이(30)로 제공하며, 그룹 디스플레이(30)를 구성하는 유닛단말들이 영상파일 데이터를 디코딩하여 전체 영상을 획득하고 재생영역 데이터로부터 전체 영상으로부터 각자의 분할 영상을 획득한 후, 스케쥴링 데이터에 따른 재생 시점에 분할 영상을 디스플레이 구현한다.In order to accomplish the above object, the present invention provides a video display device including a group display (30) for dividing and reproducing a whole image corresponding to a unit terminal arrangement by a plurality of unit terminals, and a multi-vision operating platform Wherein the group display (30) obtains relative position information of the unit terminals and provides the acquired position information to the multi-vision operating platform (10), and the multi-vision operating platform (10) Identifies the unit terminal arrangement of the group display 30 based on the information, individually identifies the reproduction regions of the unit terminals divided in the entire image so as to correspond to the unit terminal arrangement, generates the reproduction region data, Provides the group data (30) with scheduling data and playback area data relating to file data and playback timing, The unit terminals constituting the group display 30 decode the video file data to acquire the entire image, acquire respective divided images from the entire image from the reproduction area data, and display the divided images at the reproduction time according to the scheduling data do.

이때, 그룹 디스플레이(30)는 각 면에 초음파 송신부(T1)를 구비한 마스터 유닛단말(30a) 및 각 면에 복수 개의 초음파 수신부(T2)를 구비한 하나 이상의 슬레이브 유닛단말(30b)을 포함하여 구성되고, 슬레이브 유닛단말(30b)은 자신에게 구비된 초음파 수신부와 마스터 유닛단말의 초음파 송신부 간의 거리 정보를 각각 측정하고, 그룹 디스플레이(30)는 슬레이브 유닛단말(30b)에 대해 측정된 복수 개의 거리 정보에 대하여 삼각함수 연산을 적용하여 마스터 유닛단말(30a)에 대한 슬레이브 유닛단말(30b)의 상대적인 위치 정보를 획득하여 멀티비전 운영플랫폼(10)으로 제공하도록 구성된다.At this time, the group display 30 includes a master unit terminal 30a having an ultrasonic transmission unit T1 and at least one slave unit terminal 30b having a plurality of ultrasonic reception units T2 on each side, And the slave unit terminal 30b measures the distance information between the ultrasonic wave receiving unit of the slave unit terminal 30b and the ultrasonic transmitting unit of the master unit terminal respectively and the group display 30 measures the distance Information on the slave unit terminal 30b to obtain the relative position information of the slave unit terminal 30b with respect to the master unit terminal 30a and provide it to the multi-vision operating platform 10. [

이때, 그룹 디스플레이(30)는 유닛단말들에 구비된 3축 가속도 센서를 통해 자세 정보를 개별적으로 획득하여 멀티비전 운영플랫폼(10)으로 더 제공하고, 멀티비전 운영플랫폼(10)은 유닛단말 배치와 개별 유닛단말의 자세 정보에 대응하여 전체 영상에서 재생 영역을 식별한다.At this time, the group display 30 individually acquires attitude information through a three-axis acceleration sensor provided in the unit terminals, and further provides the attitude information to the multi-vision operating platform 10, And the attitude information of the individual unit terminal to identify the reproduction area in the entire image.

또한, 그룹 디스플레이(30)는 개별 유닛단말의 재생 상태에 관한 재생정보 데이터를 멀티비전 운영플랫폼(10)으로 제공하고, 멀티비전 운영플랫폼(10)은 재생정보 데이터에 기초하여 재생 타이밍을 개별 유닛단말별로 제어하기 위한 동기제어 데이터를 생성하여 그룹 디스플레이(30)로 제공하고, 그룹 디스플레이(30)은 동기제어 데이터를 수신하면 그에 대응하여 개별 유닛단말의 재생 타이밍을 미세 조정함으로써 재생 동기화를 달성한다.In addition, the group display 30 provides playback information data regarding the playback status of the individual unit terminals to the multi-vision operating platform 10, and the multi-vision operating platform 10 provides the playback timings to the individual units Generates synchronous control data for controlling each terminal, and provides the synchronous control data to the group display 30, and when receiving the synchronous control data, the group display 30 achieves reproduction synchronization by finely adjusting the reproduction timing of the individual unit terminals corresponding thereto .

또한, 본 발명은 전체 영상을 분할 재생하기 위한 복수 개의 유닛단말을 구비하는 그룹 디스플레이(30)와 분할 재생을 제어하는 멀티비전 운영플랫폼(10)에 의해 전체 영상을 유닛단말 배치에 대응하도록 분할하여 재생 표시하기 위한 공간 및 위치 감응형 영상 송출 방법으로서, 그룹 디스플레이가 유닛단말들의 상대적 위치 정보를 획득하여 멀티비전 운영플랫폼으로 제공하는 제 1 단계; 멀티비전 운영플랫폼이 상대적 위치 정보에 기초하여 그룹 디스플레이의 유닛단말 배치를 식별하는 제 2 단계; 멀티비전 운영플랫폼이 유닛단말 배치에 대응하여 전체 영상에서 분할된 유닛단말들의 재생 영역을 개별적으로 식별하여 재생영역 데이터를 생성하는 제 3 단계; 멀티비전 운영플랫폼이 전체 영상의 재생 시점에 관한 스케쥴링 데이터를 획득하는 제 4 단계; 멀티비전 운영플랫폼이 전체 영상에 대한 영상파일 데이터와 재생 시점에 관한 스케쥴링 데이터와 재생영역 데이터를 그룹 디스플레이로 제공하는 제 5 단계; 그룹 디스플레이의 포함되는 유닛단말들이 영상파일 데이터를 디코딩하여 전체 영상을 획득하고 재생영역 데이터로부터 전체 영상으로부터 각자의 분할 영상을 획득한 후, 스케쥴링 데이터에 따른 재생 시점에 분할 영상을 디스플레이 구현하는 제 6 단계;를 포함하여 구성된다.Further, the present invention divides the entire image into a unit terminal arrangement by the group display 30 having a plurality of unit terminals for dividing and reproducing the entire image and the multi-vision operating platform 10 controlling divisional reproduction A method of transmitting spatial and position sensitive images for playback and display, the method comprising: a first step in which a group display acquires relative position information of unit terminals and provides them to a multi-vision operating platform; A second step of the multi-vision operating platform to identify the unit terminal arrangement of the group display based on the relative location information; A third step of individually identifying reproduction regions of unit terminals divided in the entire image corresponding to unit terminal placement of the multi-vision operation platform to generate reproduction region data; A fourth step of the multivision operating platform acquiring the scheduling data related to the reproduction time point of the entire image; The multivision operating platform providing the group display of the video file data of the entire image, the scheduling data of the reproduction time point, and the reproduction area data; The unit terminals included in the group display decode the video file data to acquire the entire image, acquire respective divided images from the entire image from the reproduction area data, and display the divided images at the reproduction time according to the scheduling data. Step.

이때, 그룹 디스플레이는 각 면에 초음파 송신부(T1)를 구비한 마스터 유닛단말(30a) 및 각 면에 복수 개의 초음파 수신부(T2)를 구비한 하나 이상의 슬레이브 유닛단말(30b)을 포함하여 구성되고, 제 1 단계는, 슬레이브 유닛단말이 자신에게 구비된 초음파 수신부와 마스터 유닛단말의 초음파 송신부 간의 거리 정보를 각각 측정하는 단계; 그룹 디스플레이(30)가 슬레이브 유닛단말(30b)에 대해 측정된 복수 개의 거리 정보에 대하여 삼각함수 연산을 적용하여 마스터 유닛단말에 대한 슬레이브 유닛단말의 상대적인 위치 정보를 획득하는 단계; 그룹 디스플레이(30)가 상대적인 위치 정보를 멀티비전 운영플랫폼으로 제공하는 단계;를 포함하여 구성된다.The group display includes a master unit terminal 30a having an ultrasonic transmission unit T1 on one side and one or more slave unit terminals 30b having a plurality of ultrasonic reception units T2 on each side. The first step may include measuring the distance information between the slave unit terminal and the ultrasonic transmission unit of the master unit terminal, respectively; Obtaining the relative position information of the slave unit terminal with respect to the master unit terminal by applying a trigonometric function operation to the plurality of distance information measured by the group display 30 with respect to the slave unit terminal 30b; And the group display 30 providing relative position information to the multi-vision operating platform.

또한, 그룹 디스플레이의 유닛단말들은 3축 가속도 센서를 구비하고, 제 1 단계에서 그룹 디스플레이는 3축 가속도 센서를 통해 각각의 유닛단말에 대한 자세 정보를 개별적으로 획득하여 멀티비전 운영플랫폼으로 더 제공하고, 제 3 단계에서 멀티비전 운영플랫폼은 유닛단말 배치와 개별 유닛단말의 자세 정보에 대응하여 전체 영상에서 유닛단말들의 재생 영역을 개별적으로 식별한다.In addition, the unit terminals of the group display include a three-axis acceleration sensor. In the first step, the group display individually obtains attitude information for each unit terminal through the three-axis acceleration sensor, and further provides the attitude information to the multi- In the third step, the multi-vision operating platform individually identifies the reproduction regions of the unit terminals in the entire image corresponding to the unit terminal arrangement and the individual unit terminal attitude information.

또한, 본 발명은 그룹 디스플레이가 개별 유닛단말의 재생 상태에 관한 재생정보 데이터를 멀티비전 운영플랫폼으로 제공하는 단계; 멀티비전 운영플랫폼이 재생정보 데이터에 기초하여 재생 타이밍을 개별 유닛단말별로 제어하기 위한 동기제어 데이터를 생성하여 그룹 디스플레이로 제공하는 단계; 그룹 디스플레이의 개별 유닛단말이 동기제어 데이터를 수신하면 그에 대응하여 개별 유닛단말의 재생 타이밍을 미세 조정함으로써 재생 동기화를 달성하는 단계;를 더 포함하여 구성될 수 있다.The present invention also provides a method for providing a multi-vision operating platform, the method comprising: providing group information to a multi-vision operating platform; Generating a synchronization control data for controlling reproduction timings of individual unit terminals based on reproduction information data and providing the synchronization control data to a group display; And when the individual unit terminals of the group display receive the synchronization control data, the playback timing of the individual unit terminals is finely adjusted corresponding to the synchronization control data, thereby achieving the playback synchronization.

한편, 본 발명에 따른 컴퓨터로 판독가능한 기록매체는 이상과 같은 공간 및 위치 감응형 영상 송출 방법을 실행시키기 위한 프로그램을 기록한 것이다.
Meanwhile, the computer-readable recording medium according to the present invention records a program for executing the spatial and position sensitive image transmission method as described above.

본 발명에 따르면 멀티비전 시스템을 구성함에 있어서 개별 유닛단말에 표시할 화면들을 유닛단말 각자가 배치된 물리적 위치에 맞도록 자동적으로 튜닝하여 디스플레이를 최적화함으로써 멀티비전 튜닝 과정을 간편화하여 설치 시간과 비용을 절감할 수 있는 장점이 있다.According to the present invention, in configuring the multivision system, the screens to be displayed on the individual unit terminals are automatically tuned to match the physical location where each unit terminal is arranged, thereby optimizing the display, thereby simplifying the multivision tuning process, There is an advantage to be saved.

또한, 본 발명에 따르면 유닛단말 상호 간의 상대적 위치 변화에 따라 실시간으로 디스플레이 화면을 자동 최적화할 수 있어 다이나믹하고 창조적인 멀티비전 화면을 구성할 수 있는 장점을 제공한다.In addition, according to the present invention, a display screen can be automatically optimized in real time according to a change in relative position between unit terminals, thereby providing a dynamic and creative multi-vision screen.

또한, 본 발명에 따르면 다양한 디지털 아트 조형물 구현이 가능하고, 다양한 컨텐츠 활용이 가능하며, 멀티비전에 모션을 접목함으로써 움직이는 디스플레이 구현이 가능한 장점을 제공한다.In addition, according to the present invention, various digital artworks can be implemented, various contents can be utilized, and moving display can be implemented by combining motion with multi-vision.

또한, 본 발명에 따르면 개별 유닛단말은 모든 해상도의 LCD 디바이스를 적용할 수 있고 기 검증된 안드로이드 운영체제로 구성할 수 있어 전체 멀티비전 시스템의 안정성을 높일 수 있는 장점이 있다.
In addition, according to the present invention, the individual unit terminal can apply LCD devices of all resolutions and can be configured with a proven Android operating system, thereby enhancing the stability of the entire multivision system.

[도 1]은 본 발명에 따른 공간 및 위치 감응형 영상 송출 장치를 설명하기 위한 전체 멀티비전 시스템을 나타내는 도면.
[도 2]는 본 발명에서 멀티비전 운영플랫폼의 기능적인 내부 구성을 개념적으로 나타내는 도면.
[도 3]은 본 발명에서 유닛단말의 기능적인 내부 구성을 개념적으로 나타내는 도면.
[도 4]는 본 발명에서 유닛단말의 자세를 식별하기 위해 사용되는 3축 가속도 센서를 설명하기 위한 도면.
[도 5]는 본 발명에서 슬레이브 유닛단말의 위치 연산 과정을 개념적으로 나타내기 위한 도면.
[도 6]은 본 발명에 따른 공간 및 위치 감응형 영상 송출 방법을 개념적으로 나타내는 순서도.
[도 7]은 본 발명에서 구현 가능한 다양한 멀티비전 화면의 구성 예를 나타내는 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating an entire multi-vision system for explaining a spatial and position sensitive video delivery apparatus according to the present invention;
FIG. 2 conceptually illustrates a functional internal structure of a multi-vision operating platform according to the present invention. FIG.
[Fig. 3] conceptually shows a functional internal structure of a unit terminal in the present invention. [Fig.
4 is a diagram for explaining a three-axis acceleration sensor used for identifying a posture of a unit terminal in the present invention.
FIG. 5 is a conceptual illustration of a position calculation process of a slave unit terminal in the present invention. FIG.
FIG. 6 is a flowchart conceptually showing a spatial and position sensitive video transmission method according to the present invention. FIG.
7 is a view showing an example of the configuration of various multi-vision screens that can be implemented in the present invention.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

[도 1]은 본 발명에 따른 공간 및 위치 감응형 영상 송출 장치를 설명하기 위한 전체 멀티비전 시스템을 나타내는 도면이다. [도 2]는 본 발명에서 멀티비전 운영플랫폼(10)의 기능적인 내부 구성을 개념적으로 나타내는 도면이고, [도 3]은 본 발명에서 그룹 디스플레이(30)를 구성하는 단위 객체인 유닛단말(30u)의 구성을 개념적으로 설명하기 위한 도면이다.FIG. 1 is a diagram illustrating an entire multi-vision system for explaining a spatial and position sensitive video transmission apparatus according to the present invention. FIG. 2 is a conceptual diagram illustrating a functional internal configuration of the multi-vision operating platform 10 according to the present invention. FIG. 3 illustrates a unit terminal 30u In the figure).

먼저, [도 1]을 참조하면 본 발명에 따라 구현된 전체 멀티비전 시스템은 멀티비전 운영플랫폼(10), 멀티비전 운영서버(20), 그룹 디스플레이(30)를 포함하여 이루어진다. 이때, 멀티비전 운영서버(20)에 형성된 멀티비전 운영플랫폼(10) 및 그룹 디스플레이(30)를 구성하는 개별 유닛단말(30a, 30b-1 내지 30b-n)은 서로 원격지에 설치가능하며 네트워크를 통해 상호 데이터 송수신을 수행할 수 있다. 바람직하게는 유닛단말(30a, 30b-1 내지 30b-n)은 무선랜 모듈을 구비하여 무선으로 데이터 통신을 수행할 수 있으며, 이를 통해 현장에서 멀티비전을 구성할 때 작업의 편의성을 제고한다.Referring first to FIG. 1, the entire multi-vision system implemented in accordance with the present invention includes a multi-vision operating platform 10, a multi-vision operating server 20, and a group display 30. At this time, the multivision operating platform 10 formed in the multivision operating server 20 and the individual unit terminals 30a and 30b-1 to 30b-n constituting the group display 30 can be installed at remote locations from each other, Data transmission / reception can be performed through the network. Preferably, the unit terminals 30a and 30b-1 to 30b-n are equipped with a wireless LAN module to perform data communication wirelessly, thereby improving the convenience of work when a multi-vision is configured in the field.

한편, [도 1]은 기능적인 면에서 개념적으로 제시된 것이며, 구현 예에 따라서는 멀티비전 운영플랫폼(10)이 별도의 서버 장치 또는 개인용 컴퓨터로 구현될 수도 있다. 또한, 멀티비전 운영플랫폼(10)의 전체 또는 일부 기능요소가 유닛단말(30a, 30b-1 내지 30b-n) 중의 어느 하나, 예컨대 마스터 유닛단말(30a)에 통합적으로 구현될 수도 있다. 어느 경우라도 일반적으로는 별도의 컴퓨터 장치(미도시)에서 전체 영상 파일(원본영상)을 멀티비전 운영플랫폼(10)으로 제공한다. 이러한 원본영상은 커머셜 광고 동영상, 방송 프로그램 동영상, 각종의 홍보 동영상, 행사안내 동영상 등으로 이루어질 수 있다.1 is conceptually presented in terms of functions. Depending on the implementation, the multi-vision operating platform 10 may be implemented as a separate server device or a personal computer. All or some functional elements of the multi-vision operating platform 10 may be integrally implemented in any one of the unit terminals 30a, 30b-1 to 30b-n, for example, the master unit terminal 30a. In any case, generally, a separate computer device (not shown) provides the entire image file (original image) to the multi-vision operating platform 10. Such an original image may be composed of a commercial advertisement video, a broadcast program video, various promotional videos, an event guide video, and the like.

멀티비전 운영플랫폼(10)은 멀티비전 시스템을 통해 표시할 고해상도 전체 영상 파일을 구비하며, 이를 그룹 디스플레이(30)를 통해 일종의 멀티비전 형식으로 구현한다.The multi-vision operating platform 10 has a high-resolution entire image file to be displayed through the multi-vision system, and implements the multi-vision type through a group display 30.

멀티비전 운영플랫폼(10)은 그룹 디스플레이(30)에서 마스터 유닛단말(30a)과 슬레이브 유닛단말(30b)의 배치 상태를 식별하며, 그에 따라 각자의 배치에 따라 전체 화면에서 개별 유닛단말이 어느 영역을 분할하여 표시해야 하는지 개별적으로 식별한다. 그리고 나서, 멀티비젼 운영플랫폼(10)은 각 유닛단말에 전체 영상에 대한 파일 데이터(영상파일 데이터)를 제공하면서, 그룹 디스플레이(30)에서 개별 유닛단말의 재생영역 데이터를 함께 제공한다. 유닛단말은 자신에게 할당된 재생영역에 따른 영상을 재생한다. 이를 위해, 멀티비전 운영플랫폼(10)에는 멀티비전 관리 소프트웨어가 설치되어 있다.The multivision operating platform 10 identifies the arrangement state of the master unit terminal 30a and the slave unit terminal 30b in the group display 30 and accordingly arranges the individual unit terminal in any area Are individually identified. Then, the multivision operating platform 10 provides file data (image file data) for the entire image to each unit terminal while providing playback area data of the individual unit terminals in the group display 30 together. The unit terminal reproduces an image corresponding to the reproduction area assigned to itself. To this end, the multi-vision management platform 10 is equipped with multi-vision management software.

여기서 그룹 디스플레이(30)는 마스터 유닛단말(30a)과 하나 이상의 슬레이브 유닛단말(30b)로 이루어지는데, 도면에서는 편이상 슬레이브 유닛단말(30b)을 제 1 내지 제 n 슬레이브 유닛단말(30b-1 내지 30b-n, n은 2 이상의 자연수)로 표시하였다. 이들 유닛단말은 안드로이드 기반의 셋톱박스 하드웨어를 활용하여 구성하는 것이 시스템 안정성 측면에서 바람직하며, 각각의 디스플레이부(31) 뒤에 안드로이드 보드(A1)를 개별 탑재하고 안드로이드 보드(A1)의 제어에 따라 전체 영상에 대한 분할영상을 표시한다.The group display 30 is composed of a master unit terminal 30a and one or more slave unit terminals 30b. In the figure, the slave unit terminals 30b are connected to the first to nth slave unit terminals 30b-1 to 30b -n, n is a natural number of 2 or more). It is preferable from the standpoint of system stability that these unit terminals are configured using the Android-based set-top box hardware, and the Android board A1 is mounted separately after each of the display sections 31, And displays a divided image for the image.

유닛단말(30u)의 안드로이드 보드(A1)는 각각 대응하는 디스플레이부(31)에 표시될 영상 화면을 담당하며, 멀티비전 운영플랫폼(10)은 개별 영상을 통합하여 고해상도 전체 영상을 구현하기 위한 제어를 담당한다. 또한, 멀티비전 운영플랫폼(10)은 스케쥴링 데이터를 통해 복수 개의 유닛단말(30a, 30b-1 내지 30b-n)이 영상 출력을 언제 시작할지에 관한 재생 시점을 제어하고, 동기제어 데이터를 통해 이들 유닛단말의 재생 타이밍을 개별적으로 미세 조절함으로써 전체적으로 통일화된 단일 영상이 구현되도록 제어한다.The Android board A1 of the unit terminal 30u is responsible for the image screen to be displayed on the corresponding display unit 31. The multi-vision operating platform 10 is a control unit for integrating individual images to implement a high- . In addition, the multi-vision operating platform 10 controls the playback timing of when the plurality of unit terminals 30a and 30b-1 to 30b-n start video output through the scheduling data, The unit timings of the unit terminals are finely adjusted individually so that a single uniformized image is realized.

또한, 본 발명에서는 [도 1]의 하단부에 도시된 바와 같이 각각의 유닛단말(30u)은 자신의 위치와 자세에 감응하여 분할영상을 구성한다. 이를 위해 유닛단말(30u)은 자신의 위치와 자세를 검출하기 위한 센서 모듈(35)를 포함한다. 이들 센서 모듈(35)에서 획득되는 정보에 기초하여 멀티비전 운영플랫폼(10)에서는 그룹 디스플레이(30)가 정의하는 형태 내지 개별 유닛단말이 차지하는 상대적인 위치를 식별하고 그에 따라 각각의 재생영역을 식별할 수 있게 된다. 이때, 바람직하게는 마스터 유닛단말(30a)을 그룹 디스플레이(30)의 기준으로 삼아 전체 영상의 좌상단 또는 센터를 할당하고, 나머지 슬레이브 유닛단말(30b)에 대해서는 상대적 위치에 따른 재생 영역을 할당한다.In addition, in the present invention, as shown in the bottom part of FIG. 1, each unit terminal 30u is configured to respond to the position and posture thereof to form a divided image. To this end, the unit terminal 30u includes a sensor module 35 for detecting its position and orientation. Based on the information obtained from these sensor modules 35, the multi-vision operating platform 10 identifies the relative position occupied by the individual display terminal or the type defined by the group display 30, . At this time, the upper left end or the center of the entire image is preferably allocated using the master unit terminal 30a as the reference of the group display 30, and the remaining slave unit terminal 30b is assigned a playback area according to the relative position.

이때, 후술하는 바와 같이 3축 가속도 센서나 G센서와 같이 유닛단말(30u)의 자세를 식별할 수 있는 센서 모듈을 구비하는 것이 바람직하다. 이러한 센서 모듈을 통해 유닛단말(30u)의 자세를 판단하는 것이 가능하며, 이를 통해 [도 1]의 하단부에 도시된 바와 같이 유닛단말(30u)이 평면에서 회전된 경우, 그리고 나아가서는 유닛단말(30u)이 입체적으로 배치된 경우까지도 대응할 수 있게 된다. 즉, 그룹 디스플레이(30)가 터널이나 피라미드 등과 같이 입체 형태로 구성된 경우에도 대응할 수 있게 되는 것이다.At this time, it is preferable to provide a sensor module such as a three-axis acceleration sensor or a G sensor, which can identify the posture of the unit terminal 30u, as will be described later. It is possible to determine the posture of the unit terminal 30u through the sensor module, and when the unit terminal 30u is rotated in the plane as shown in the lower part of FIG. 1, 30u are arranged in a three-dimensional manner. That is, even when the group display 30 is configured in a three-dimensional form such as a tunnel or a pyramid, it can be handled.

이러한 구성을 통하여 멀티비전 시스템에서 유닛단말(30u)을 편리하게 증가시킬 수 있고 배열 형태도 자유롭게 변경할 수 있다. 사용자가 유닛단말(30u)을 새로 추가하거나 배열 형태를 변경하면, 이에 감응하여 멀티비전 운영플랫폼(10)이 해당 유닛단말(30u)의 재생영역을 변경하여 그룹 디스플레이(30)로 제공하며, 이를 통해 유닛단말(30u)의 추가 또는 배열 변경이 멀티비전 디스플레이 화면에 즉시 반영될 수 있도록 한다. 한편, 개별 유닛단말의 면에서 본다면 그래픽 카드의 랜더링 프로세스를 통해 화면 해상도를 늘이거나 줄이는 것이 아니라 디스플레이부(31)의 LCD 자체의 고유 해상도 그대로 출력이 가능하므로 자연스러운 고화질 멀티비전이 가능해진다.With this configuration, the unit terminal 30u can be easily increased in the multivision system and the arrangement form can be changed freely. When the user newly adds or changes the arrangement type of the unit terminal 30u, the multi-vision operating platform 10 changes the reproduction area of the corresponding unit terminal 30u and provides the changed display area to the group display 30, So that the addition or arrangement change of the unit terminal 30u can be immediately reflected on the multi-vision display screen. On the other hand, when viewed from the viewpoint of the individual unit terminal, it is possible to output a native resolution of the LCD itself of the display unit 31 instead of increasing or decreasing the screen resolution through the rendering process of the graphic card, so that a natural high definition multi vision can be realized.

멀티비전 운영플랫폼(10)은 멀티비전 운영서버(20)에 형성되며, 그룹 디스플레이(30)를 구성하는 마스터 유닛단말(30a) 및 슬레이브 유닛단말(30b-1 내지 30b-n)의 수량, 그리고 화면 구성(위치, 자세)에 관한 정보를 관리한다. 또한, 멀티비전 운영플랫폼(10)은 이들 유닛단말(30a, 30b-1 내지 30b-n)의 위치 및 자세에 대응하도록 고해상도 전체 영상에서 일부가 분할된 재생영역을 식별하여 해당 대응하는 유닛단말로 제공한다.The multivision operating platform 10 is formed in the multivision operating server 20 and the number of master unit terminals 30a and slave unit terminals 30b-1 to 30b-n constituting the group display 30, And manages information on the screen configuration (position, posture). In addition, the multi-vision operating platform 10 identifies a playback region that is partially divided in the high-resolution entire image so as to correspond to the positions and postures of the unit terminals 30a, 30b-1 to 30b-n, to provide.

[도 7]은 본 발명에서 구현 가능한 다양한 멀티비전 화면의 구성 예를 나타내는 도면이다. 동일한 전체 영상에 대해서 본 발명에서는 이처럼 다양한 형태의 멀티비전 레이아웃이 가능하다. 사용자가 유닛단말을 어떻게 배치하더라도 멀티비전 운영플랫폼(10)은 이에 감응하여 재생영역 데이터를 업데이트하고 그룹 디스플레이(30)는 해당 배치에 따른 영상을 구현한다.FIG. 7 is a diagram illustrating an exemplary configuration of various multi-vision screens that can be implemented in the present invention. In the present invention, various types of multi-vision layouts are possible for the same overall image. Regardless of how the user arranges the unit terminal, the multivision operating platform 10 responds to this and updates the reproduction area data, and the group display 30 implements the image according to the arrangement.

한편, 멀티비전 운영플랫폼(10)은 그룹 디스플레이(30)에 대해 스케쥴링 데이터를 제공함으로써 각각의 유닛단말들이 분할영역 영상을 재생 표시하는 시점을 식별할 수 있도록 한다. 이러한 스케쥴링 데이터는 트리거 신호(trigger signal)나 타임스탬프(timestamp)로 구현될 수도 있다. 복수의 유닛단말(30a, 30b-1 내지 30b-n)에 대해 재생시점은 동일 시각으로 설정될 수도 있고, 영상 시나리오에 따라서는 상이한 시각으로 설정될 수도 있다.Meanwhile, the multi-vision operating platform 10 provides scheduling data to the group display 30 so that each unit terminal can identify the time point at which to reproduce and display the divided region image. Such scheduling data may be implemented with a trigger signal or a timestamp. The playback time may be set to the same time for the plurality of unit terminals 30a, 30b-1 to 30b-n, or may be set to different times depending on the video scenario.

이처럼 스케쥴링 데이터를 통해 그룹 디스플레이(30)의 유닛단말(30a, 30b-1 내지 30b-n)의 재생 시점을 일정하게 설정함에도 불구하고 각자 독립적으로 작동하는 유닛단말(30a, 30b-1 내지 30b-n) 간의 재생 타이밍은 미세하게 틀어질 수가 있다. 예를 들어 하드웨어 사양이 상이한 유닛단말이 섞여있거나 클럭 오프셋(clock offset)이 있는 경우에는 분할영역 영상 간에 재생 타이밍이 맞지 않을 수가 있는데, 동기화 제어를 통해 이를 해소하는 것이 바람직하다.Even though the playback timings of the unit terminals 30a, 30b-1 to 30b-n of the group display 30 are set to be constant through the scheduling data, the unit terminals 30a, 30b-1 to 30b- n can be finely tuned. For example, in the case where unit terminals having different hardware specifications are mixed or have a clock offset, the playback timing may not be matched between the divided region images, and it is preferable to resolve the timing by synchronization control.

이를 위해, 각자의 재생영역을 구현하는 유닛단말(30a, 30b-1 내지 30b-n)은 자신의 영상 재생상태에 관한 정보(재생상태 데이터)를 멀티비전 운영플랫폼(10)으로 제공한다. 이러한 재생상태 데이터로는 저속 이미지(예: 초당 4 프레임) 또는 프레임 넘버를 바람직하게 사용할 수 있다. 멀티비전 운영플랫폼(10)에서는 이러한 재생상태 데이터로부터 유닛단말(30a, 30b-1 내지 30b-n)의 재생 타이밍을 사실상 실시간으로 파악할 수 있으며, 이에 기초하여 특정 유닛단말의 재생 타이밍을 조금 앞으로 보내거나 혹은 조금 뒤로 보내는 동기제어 데이터를 해당 유닛단말로 제공한다.To this end, the unit terminals 30a, 30b-1 to 30b-n implementing their respective playback regions provide information on their video playback status (playback status data) to the multi-vision operating platform 10. As such playback status data, a low-speed image (e.g., 4 frames per second) or a frame number can be preferably used. In the multi-vision operating platform 10, it is possible to grasp the reproduction timing of the unit terminals 30a, 30b-1 to 30b-n in real time in real time from such reproduction state data, and based on this, Or to send the synchronization control data to the corresponding unit terminal.

유닛단말(30a, 30b-1 내지 30b-n)은 이와 같은 동기제어 데이터를 수신하면 그에 따라 재생 타이밍을 미세 조정하며 이를 통해 전체 매트릭스 배열의 형태로 이루어지는 멀티비전 영상의 재생 동기화가 달성된다. 한편, 멀티비전 운영플랫폼(10)에서 동기제어 데이터를 생성하는 방식은 멀티비전 관리 소프트웨어 상에서 사용자가 명령을 직접 입력할 수도 있고, 재생상태 데이터의 오차로부터 생성하는 방식이 있는데, 이에 대해서는 후술한다.
Upon receiving such synchronization control data, the unit terminals 30a and 30b-1 to 30b-n finely adjust the reproduction timings accordingly, thereby achieving reproduction synchronization of the multi-vision video in the form of an entire matrix array. On the other hand, a method of generating synchronization control data in the multivision operating platform 10 is a method in which a user can directly input a command on the multivision management software and generates the synchronization control data from the error of the reproduction status data, which will be described later.

[도 2]는 본 발명에서 멀티비전 운영플랫폼(10)의 기능적인 내부 구성을 개념적으로 나타내는 도면이다. 도시된 바와 같이, 멀티비전 운영플랫폼(10)은 사용자 UI 모듈(11), 네트워크 모듈(12), 매트릭스 식별모듈(13), 재생영역 식별모듈(14), 스케쥴링 관리모듈(15), 동기화 제어모듈(16), 스토리지 모듈(17)을 포함하여 구성된다.FIG. 2 is a conceptual diagram illustrating a functional internal structure of the multi-vision operating platform 10 according to the present invention. As shown, the multi-vision operating platform 10 includes a user UI module 11, a network module 12, a matrix identification module 13, a playback area identification module 14, a scheduling management module 15, A module 16, and a storage module 17.

사용자 UI 모듈(11)은 멀티비전 관리 소프트웨어의 각종 사용자 인터페이스를 제공한다. 예를 들어, 센서를 통해 자동 파악된 유닛단말(30a, 30b-1 내지 30b-n)의 배치 현황, 재생 스케쥴링 설정, 재생상태 데이터의 디스플레이 표시, 특정 유닛단말에 대하여 사용자에 의해 선택적으로 입력되는 동기제어 명령의 식별 등을 위한 사용자 인터페이스가 제공된다.The user UI module 11 provides various user interfaces of the multi-vision management software. For example, the arrangement status of the unit terminals 30a, 30b-1 to 30b-n automatically grasped through the sensors, the playback scheduling setting, the display of the playback status data, A user interface for identification of a synchronous control command and the like is provided.

네트워크 모듈(12)은 멀티비전 운영플랫폼(10)을 외부 시스템(예: 고해상도 전체 영상을 제공해주는 컨텐츠 제공 시스템)과 유닛단말(30a, 30b-1 내지 30b-n)과 연결하기 위한 네트워크 인터페이스이다. 유선랜 모듈, 무선랜 모듈, 와이브로 모듈, 이동통신 모듈 등으로 구성될 수 있다.The network module 12 is a network interface for connecting the multivision operating platform 10 to an external system (for example, a content providing system that provides a high-resolution full image) and the unit terminals 30a and 30b-1 to 30b-n . A wired line module, a wireless LAN module, a WiBro module, and a mobile communication module.

매트릭스 식별모듈(13)은 그룹 디스플레이(30)의 유닛단말(30a, 30b-1 내지 30b-n)의 배치로부터 자동 인식되는 매트릭스 배열을 식별하는 모듈이다. 본 발명에서는 마스터 유닛단말(30a)과 슬레이브 유닛단말(30b) 간의 상대적 위치정보 및 각자의 자세정보가 멀티비전 운영플랫폼(10)으로 제공되는데, 매트릭스 식별모듈(13)은 이들 정보에 기초하여 그룹 디스플레이(30)의 유닛단말 배치, 즉 매트릭스 배열을 식별한다.The matrix identification module 13 is a module for identifying the matrix arrangement which is automatically recognized from the arrangement of the unit terminals 30a, 30b-1 to 30b-n of the group display 30. In the present invention, the relative position information and the individual attitude information between the master unit terminal 30a and the slave unit terminal 30b are provided to the multi-vision operating platform 10. The matrix identification module 13, Thereby identifying the unit terminal arrangement of the display 30, i.e., the matrix arrangement.

재생영역 식별모듈(14)은 유닛단말 배치에 대응하여 고해상도 전체 영상에서 유닛단말(30a, 30b-1 내지 30b-n) 각각에 대한 분할된 영역(즉, 유닛단말 각자의 재생영역)을 개별적으로 식별하는 모듈이다. 즉, 매트릭스 식별모듈(13)에 의해 그룹 디스플레이(30)의 유닛단말 배치(위치, 자세)가 식별되면, 재생영역 식별모듈(14)은 고해상도 전체 영상에서 각각의 유닛단말이 표시해야 하는 분할 영역을 개별적으로 식별해낸다.The playback region identification module 14 individually divides the divided regions (i.e., the playback regions of the unit terminals) for each of the unit terminals 30a, 30b-1 to 30b-n in the high resolution full video corresponding to the unit terminal placement . That is, when the unit terminal arrangement (position, posture) of the group display 30 is identified by the matrix identification module 13, the reproduction area identification module 14 identifies a unit area Respectively.

스케쥴링 관리모듈(15)은 복수 개의 유닛단말(30a, 30b-1 내지 30b-n)이 자신에게 배정된 분할 영상을 언제 재생 표시해야 하는지에 관한 스케쥴링 정보를 관리한다. 멀티비전 운영플랫폼(10)은 스케쥴링 관리모듈(15)이 관리하는 스케쥴링 정보에 기초하여 트리거 신호 또는 타임스탬프 등의 형태로 스케쥴링 데이터를 유닛단말로 제공한다.The scheduling management module 15 manages scheduling information as to when the plurality of unit terminals 30a and 30b-1 to 30b-n should display and reproduce the divided images assigned thereto. The multivision operating platform 10 provides the scheduling data to the unit terminal in the form of a trigger signal or a time stamp based on the scheduling information managed by the scheduling management module 15. [

동기화 제어모듈(16)은 개별 유닛단말의 재생 타이밍을 미세 조정하기 위한 동기제어 데이터를 생성하여 해당 유닛단말로 제공함으로써 매트릭스 배열 형태로 구현되는 고해상도 전체 영상의 재생 동기화를 달성한다. 동기화 제어모듈(16)이 특정 유닛단말에 대해 동기제어 데이터를 생성하는 방식으로는 다음의 2가지를 생각할 수 있다.The synchronization control module 16 generates synchronization control data for fine-tuning the reproduction timing of the individual unit terminals and provides the synchronization control data to the corresponding unit terminal, thereby achieving reproduction synchronization of the high-resolution whole image implemented in a matrix arrangement. The following two methods are conceivable for the synchronization control module 16 to generate synchronization control data for a specific unit terminal.

첫번째로, 매트릭스 관리 소프트웨어가 제공하는 화면에 멀티비전을 구성하는 유닛단말(30a, 30b-1 내지 30b-n)의 재생상태 정보(예: 저해상도 이미지, 프레임 넘버)가 디스플레이 표시됨에 따라 사용자는 유닛단말의 재생 타이밍을 확인할 수 있다. 그에 따라, 사용자가 특정의 유닛단말을 선택한 후, 매트릭스 관리 소프트웨어의 메뉴를 통해 그 재생 타이밍을 미세하게 앞으로 당기거나 뒤로 미루는 명령을 입력하고, 동기화 제어모듈(16)은 해당 사용자 명령에 대응하여 동기제어 데이터를 생성하도록 구현할 수 있다.First, as the playback status information (e.g., low resolution image, frame number) of the unit terminals 30a, 30b-1 to 30b-n constituting the multivision is displayed and displayed on the screen provided by the matrix management software, The playback timing of the terminal can be confirmed. Accordingly, after the user selects a specific unit terminal, a command for finely pulling forward or backward the playback timing is input through the menu of the matrix management software, and the synchronization control module 16 generates synchronization And generate control data.

두번째로, 멀티비전을 구성하는 복수 개의 유닛단말(30a, 30b-1 내지 30b-n)이 제공하는 재생정보 데이터 중에서 하나를 레퍼런스로 설정한다. 바람직하게는 중간 정도의 재생 타이밍을 레퍼런스로 설정한다. 그리고 나서, 다른 유닛단말에 대해서는 각자의 재생정보 데이터와 위 레퍼런스 간의 차이(재생 타이밍의 차이)에 기초하여 개별 유닛단말에 대한 동기제어 데이터를 자동적으로 생성하도록 구현할 수 있다. 이때, 재생 타이밍의 차이가 일반 사용자가 감지가능한 수준으로 미리 설정한 임계치(예: 0.25초)를 초과하는 유닛단말에 대해서만 동기제어 데이터를 생성하는 것이 바람직하다.Second, one of the reproduction information data provided by the plurality of unit terminals 30a, 30b-1 to 30b-n constituting the multivision is set as a reference. Preferably, an intermediate playback timing is set as a reference. Then, for other unit terminals, the synchronization control data for the individual unit terminals may be automatically generated based on the difference (difference in reproduction timing) between the respective pieces of reproduction information data and the above reference. At this time, it is preferable that the synchronization control data is generated only for a unit terminal whose difference in reproduction timing exceeds a threshold (for example, 0.25 seconds) preset to a level that can be detected by a general user.

스토리지 모듈(17)은 고해상도 전체 영상의 파일 데이터를 저장하는 공간으로서 하드디스크, 플래시메모리, 웹디스크, 클라우드 디스크 등을 비롯한 다양한 스토리지 기술로 구현될 수 있다.
The storage module 17 may be implemented by various storage technologies including a hard disk, a flash memory, a web disk, a cloud disk, and the like as a space for storing file data of a high resolution full image.

[도 3]은 본 발명에서 유닛단말(30u)의 기능적인 내부 구성을 개념적으로 나타내는 도면이다. 본 명세서에서는 그룹 디스플레이(30)를 구성하는 마스터 유닛단말(30a)과 슬레이브 유닛단말(30b-1 내지 30b-n)을 유닛단말(30u)로 통칭하여 설명한다. 따라서, 마스터 유닛단말(30a)는 [도 3]의 구성요소 중에서 일부만 구비하여 구성될 수 있고, 슬레이브 유닛단말(30b-1 내지 30b-n)도 [도 3]의 구성요소 중에서 일부만 구비하여 구성될 수 있다.3 is a diagram conceptually showing a functional internal structure of the unit terminal 30u in the present invention. In this specification, the master unit terminal 30a and the slave unit terminals 30b-1 to 30b-n constituting the group display 30 will be collectively referred to as a unit terminal 30u. 3, and the slave unit terminals 30b-1 to 30b-n are also provided with only a part of the constituent elements of FIG. 3 (FIG. 3) to constitute the master unit terminal 30a .

한편, 유닛단말(30u)은 디스플레이부(31)와 안드로이드 보드(A1)가 일체로 이루어진 안드로이드 기반의 단말장치로서, 그룹 디스플레이(30)의 단말 배치를 식별하기 위해 센서 모듈(35)을 구비한다.On the other hand, the unit terminal 30u is an Android-based terminal device in which the display unit 31 and the Android board A1 are integrated, and has a sensor module 35 for identifying the terminal arrangement of the group display 30 .

안드로이드 보드(A1)는 디스플레이 화면을 구성하기 위한 구성으로서 무선랜 모듈(32), 단말식별 모듈(33), 프로세싱 모듈(34)을 포함하여 구성되며, 이때 프로세싱 모듈(34)은 디코딩 수단(34a), 재생정보 수단(34b), 동기화 수단(34c), 위치연산 수단(34d), 자세식별 수단(34e), 수집중계 수단(34f)의 기능 모듈을 포함하여 이루어진다.The Android board A1 is configured to include a wireless LAN module 32, a terminal identification module 33 and a processing module 34 for constituting a display screen, wherein the processing module 34 includes decoding means 34a A reproduction information means 34b, a synchronization means 34c, a position calculation means 34d, an attitude identification means 34e and a collection relay means 34f.

무선랜 모듈(32)은 유닛단말(30u)을 멀티비전 운영플랫폼(10)과 연결하기 위한 네트워크 인터페이스이다. 그룹 디스플레이(30)를 구성함에 있어서 작업 편의성을 제고하기 위해 무선랜 기술이 바람직하다. 무선랜 모듈(32)을 통해 유닛단말(30u)은 멀티비전 운영플랫폼(10)으로부터 영상파일 데이터, 재생영역 데이터, 스케쥴링 데이터, 동기제어 데이터를 수신하고 재생상태 데이터와 위치/자세 데이터를 멀티비전 운영플랫폼(10)으로 송신한다.The wireless LAN module 32 is a network interface for connecting the unit terminal 30u to the multivision operating platform 10. [ In configuring the group display 30, a wireless LAN technology is preferable in order to improve work convenience. Via the wireless LAN module 32, the unit terminal 30u receives image file data, playback area data, scheduling data, and synchronization control data from the multi-vision operating platform 10 and outputs playback state data and position / To the operating platform (10).

단말식별 모듈(33)은 유닛단말(30u)의 고유 식별정보(예: 디바이스 ID)를 저장하는 공간이다. 멀티비전 운영플랫폼(10)은 고유 식별정보를 통해 그룹 디스플레이(30)에서 유닛단말(30u)을 개별적으로 식별할 수 있다.The terminal identification module 33 is a space for storing unique identification information (e.g., device ID) of the unit terminal 30u. The multi-vision operating platform 10 can individually identify the unit terminals 30u in the group display 30 through the unique identification information.

디코딩 수단(34a)은 멀티비전 운영플랫폼(10)으로부터 제공된 영상파일 데이터를 재생하여 전체 영상을 획득한다. 그리고 나서, 이러한 전체 영상으로부터 자신의 재생영역 데이터에 따른 분할 영상을 추출하여 자신의 디스플레이 화면(분할 영상 화면)을 구현한다. 이때, 분할영상 데이터를 재생하는 시점은 스케쥴링 데이터에 기초하여 판단한다.The decoding means 34a reproduces the image file data provided from the multi-vision operating platform 10 to acquire the entire image. Then, a divided image corresponding to the own reproduction area data is extracted from the whole image to implement a display screen (a divided image screen) of the user. At this time, the time point at which the divided video data is reproduced is determined based on the scheduling data.

재생정보 수단(34b)은 당해 유닛단말(30u)의 영상 재생상태에 관한 정보인 재생상태 데이터를 생성하여 멀티비전 운영플랫폼(10)으로 제공한다. 이러한 재생상태 데이터로는 예컨대 저속 이미지나 프레임 넘버를 사용할 수 있다. 재생상태 데이터는 그룹 디스플레이(30)를 구성하는 여러 유닛단말(30u)의 재생 타이밍을 멀티비전 운영플랫폼(10)이 파악하기 위한 것이다. 멀티비전 운영플랫폼(10)은 재생상태 데이터에 기초하여 재생 동기화를 달성하기 위한 동기제어 데이터를 생성하여 유닛단말(30u)로 제공한다.The reproduction information means 34b generates reproduction status data, which is information on the video reproduction status of the unit terminal 30u, and provides the reproduction status data to the multivision operating platform 10. As such reproduction status data, for example, a low-speed image or a frame number can be used. The reproduction status data is for the multi-vision operating platform 10 to grasp the reproduction timings of the plurality of unit terminals 30u constituting the group display 30. [ The multivision operating platform 10 generates synchronization control data for achieving playback synchronization based on playback status data and provides it to the unit terminal 30u.

동기화 수단(34c)은 2단계 조작에 의해 재생 동기화를 수행한다. 1단계에서는 스케쥴링 데이터로 디코딩 수단(34a)이 영상파일 데이터를 재생하는 시점을 결정한다. 2단계에서는 동기제어 데이터로 재생 타이밍을 미세하게 조정함으로써 정교한 재생 동기화를 달성한다. 이때, 멀티비전 운영플랫폼(10)에 의해 제공되는 동기화 제어 정책은 다양하게 구현될 수 있다. 멀티비전 운영플랫폼(10)은 제일 앞서 재생하고 있는 유닛단말을 기준으로 하거나 제일 뒤쳐져서 재생하는 유닛단말을 기준으로 하거나 아니면 중간의 유닛단말을 레퍼런스로 설정한 후에, 나머지에 대해 재생 타이밍을 조금씩 밀거나 당기는 방식으로 동기화를 맞출 수 있다. 이때, 일정 임계치(예: 0.25초) 이내의 오차를 보이는 유닛단말(30a, 30b-1 내지 30b-n)에 대해서는 동기화 제어를 하지 않는 것이 바람직한데, 이 정도면 사람이 좀처럼 느끼지 못하기 때문이다.The synchronization means 34c performs playback synchronization by a two-step operation. In the first step, the decoding means 34a decides when to reproduce the video file data as the scheduling data. In the second step, precise reproduction synchronization is achieved by finely adjusting the reproduction timing with the synchronization control data. At this time, the synchronization control policy provided by the multi-vision operating platform 10 may be variously implemented. The multivision operating platform 10 may set the reference of the unit terminal playing back first or the unit terminal playing back the most or the intermediate unit terminal as a reference, The synchronization can be tailored by pulling or pulling. At this time, it is desirable not to perform synchronization control for the unit terminals 30a, 30b-1 to 30b-n having an error within a certain threshold value (for example, 0.25 sec) .

위치연산 수단(34d)은 유닛단말의 상대적 위치를 삼각함수 연산을 통해 계산해내는 모듈이다. 멀티비전 운영플랫폼(10)이 모든 유닛단말에 대한 삼각함수 연산을 수행하도록 구성할 수도 있고, 유닛단말 별로 자신의 위치정보를 획득하기 위한 삼각함수 연산을 수행하도록 구성할 수도 있다. 또한, 마스터 유닛단말(30a)이 해당 그룹 디스플레이(30)에 속하는 모든 슬레이브 유닛단말(30b-1 내지 30b-n)을 위해 삼각함수 연산을 수행하도록 구성할 수도 있다. 멀티비전 운영플랫폼(10)이 삼각함수 연산을 수행하는 경우라면 위치연산 수단(34d)은 유닛단말(30u)이 아닌 [도 2]의 멀티비전 운영플랫폼(10)에 구비된다.The position calculating means 34d is a module for calculating the relative position of a unit terminal through a trigonometric function calculation. The multivision operating platform 10 may be configured to perform a trigonometric function operation on all unit terminals or may be configured to perform trigonometric function operation to acquire position information of each unit terminal. Further, the master unit terminal 30a may be configured to perform a trigonometric function operation for all the slave unit terminals 30b-1 to 30b-n belonging to the group display 30. In the case where the multi-vision operating platform 10 performs the trigonometric function operation, the position calculating means 34d is provided in the multi-vision operating platform 10 (FIG. 2) rather than the unit terminal 30u.

자세식별 수단(34e)은 유닛단말(30u)에 구비된 3축 가속도 센서(35a)의 센싱 정보로부터 자신의 자세 정보를 획득하는 모듈이다. [도 4]를 참조하면 3축 가속도 센서(35a)에 의해 유닛단말(30u)의 3축(X, Y, Z)에 관한 정보가 생성되는데, 자세식별 수단(34e)은 이러한 정보로부터 자세를 식별할 수 있다. 즉, 유닛단말(30u)이 평면 상에서 얼마나 회전되어 있는지 또는 바람직하게는 입체적으로 어떻게 배치되어 있는지 판단할 수 있다.The attitude identification means 34e is a module for acquiring its own attitude information from the sensing information of the three-axis acceleration sensor 35a provided in the unit terminal 30u. 4, information about the three axes (X, Y, Z) of the unit terminal 30u is generated by the three-axis acceleration sensor 35a. The attitude identifying means 34e obtains the attitude from the information Can be identified. That is, it is possible to determine how much the unit terminal 30u is rotated on the plane, or preferably, how the unit terminal 30u is arranged in three dimensions.

수집중계 수단(34f)은 그룹 디스플레이(30)에 속하는 모든 유닛단말(30a, 30b-1 내지 30b-n)의 센싱 데이터를 하나의 유닛단말, 바람직하게는 마스터 유닛단말(30a)이 수집하여 멀티비전 운영플랫폼(10)으로 중계하는 모듈이다. 모든 유닛단말이 개별적으로 멀티비전 운영플랫폼(10)으로 자신의 센싱 데이터를 전송하도록 구성하는 것도 가능하다. 하지만, 마스터 유닛단말(30a)이 슬레이브 유닛단말들(30b)의 센싱 데이터를 취합하여 중계하도록 구성한다면 멀티비전 운영플랫폼(10)의 프로세싱을 최적화할 수 있다.The acquisition relay means 34f collects the sensing data of all the unit terminals 30a, 30b-1 to 30b-n belonging to the group display 30 by one unit terminal, preferably the master unit terminal 30a, To the vision operating platform 10. It is also possible that all the unit terminals individually transmit their own sensing data to the multi-vision operating platform 10. However, if the master unit terminal 30a is configured to collect and relay the sensing data of the slave unit terminals 30b, the processing of the multi-vision operating platform 10 can be optimized.

다음으로, 센서 모듈(35)은 유닛단말(30u)의 자세를 식별하기 위한 3축 가속도 센서(34a)와 다른 유닛단말과의 상대적 위치를 측정하기 위한 고주파용의 초음파 센서(34b, 35c)를 포함하여 구성된다.Next, the sensor module 35 includes a three-axis acceleration sensor 34a for identifying the posture of the unit terminal 30u and ultrasonic sensors 34b and 35c for measuring the relative positions of the other unit terminals .

먼저, 3축 가속도 센서(34a)는 [도 4]에 도시된 바와 같이 유닛단말(30u) 자체의 X축, Y축, Z축의 값을 구하는데 사용한다.First, the three-axis acceleration sensor 34a is used to obtain values of the X-axis, Y-axis, and Z-axis of the unit terminal 30u itself as shown in FIG.

초음파 센서(34b, 35c)는 다른 유닛단말과의 상대적 위치를 측정하기 위한 것으로, 바람직하게는 마스터 유닛단말(30a)을 기준으로 슬레이브 유닛단말(30b)의 거리와 각도를 연산하는데 사용한다.The ultrasonic sensors 34b and 35c are for measuring relative positions with respect to other unit terminals and are preferably used to calculate the distance and angle of the slave unit terminal 30b with reference to the master unit terminal 30a.

바람직하게는, 미리 설정된 마스터 유닛단말(30a)를 기준으로 하나의 슬레이브 유닛단말(30b-j)이 증가할 때마다 이들 유닛단말에 장착된 센서 모듈(35)을 통해 그 추가된 슬레이브 유닛단말(30b-j)의 상대적 위치를 파악한 뒤, 그 파악된 위치에 해당하는 재생영역 데이터를 멀티비전 운영플랫폼(10)이 생성하여 그 추가된 슬레이브 유닛단말(30b)로 전송한다. 이를 통해, 슬레이브 유닛단말(30b-j)은 전체 영상으로부터 자신이 놓여진 위치와 자세에 대응되는 분할 영상을 획득하여 화면에 디스플레이한다. 이는 새로 추가되는 경우 뿐만 아니라 바람직하게는 기존의 슬레이브 유닛단말(30b)의 위치나 자세가 변경되는 경우에도 동일하게 적용되어 분할 영상이 재조정된다.Preferably, every time one slave unit terminal 30b-j increases based on a predetermined master unit terminal 30a, the added slave unit terminal 30b-j is connected to the added slave unit terminal 30b- The multivision operating platform 10 generates playback zone data corresponding to the identified position and transmits the playback zone data to the added slave unit terminal 30b. Thus, the slave unit terminal 30b-j acquires a divided image corresponding to the position and posture of the slave unit terminal 30b-j from the entire image and displays the divided image on the screen. This is applied not only to the newly added slave unit terminal 30b but also to the case where the position or posture of the existing slave unit terminal 30b is changed, and the divided images are readjusted.

이러한 [도 1] 내지 [도 3]과 같은 구성을 통해 다수의 유닛단말(30u)을 사용하여 멀티비전 형태의 그룹 디스플레이(30)을 구성함에 있어서 멀티비전 운영플랫폼(10)에 유닛단말(30u)의 개수 및 배치를 미리 설정할 필요가 없고, 유닛단말(30u)이 증가하거나 위치를 조정할 때마다 이를 자동으로 인식하여 분할 영상을 적절하게 설정하는 것이 가능해진다.
In configuring the group display 30 of the multi-vision type using the plurality of unit terminals 30u through the configuration as shown in FIG. 1 to FIG. 3, the multi-vision operating platform 10 is provided with the unit terminals 30u It is not necessary to set the number and arrangement of the unit terminals 30u in advance, and it is possible to automatically recognize the unit terminal 30u every time the unit terminal 30u increases or adjust its position, and set the divided image appropriately.

[도 5]는 본 발명에서 슬레이브 유닛단말(30b)의 위치 연산 과정을 개념적으로 나타내기 위한 도면이다. 예를 들어, 제 1 슬레이브 유닛단말(30b-1)은 마스터 유닛단말(30a)과 수직 라인상에 존재하고 제 2 슬레이브 유닛단말(30b-2)은 마스터 유닛단말(30a)과 대각선 방향으로 존재한다고 가정한다. 상대적인 위치 측정을 위하여 마스터 유닛단말(30a)은 각 면에 초음파 송신부(T1)을 구비하고 있고, 슬레이브 유닛단말(30b)은 각 면에 복수 개의 초음파 수신부(T2)를 구비하였다. 이들 초음파 송신부(T1)와 초음파 수신부(T2)는 [도 3]에서 구성요소(35b, 35c)에 각각 대응되는 모듈이다.5 is a diagram for conceptually illustrating a position calculation process of the slave unit terminal 30b in the present invention. For example, the first slave unit terminal 30b-1 is present on the vertical line with the master unit terminal 30a and the second slave unit terminal 30b-2 is present in the diagonal direction with respect to the master unit terminal 30a . The master unit terminal 30a has an ultrasonic transmission unit T1 on each side and the slave unit terminal 30b has a plurality of ultrasonic reception units T2 on each side. The ultrasonic wave transmitting unit T1 and the ultrasonic wave receiving unit T2 correspond to the components 35b and 35c in FIG. 3, respectively.

제 1 슬레이브 유닛단말(30b-1)과 같이 동일한 X축 또는 Y축에 마스터 유닛단말(30a)과 슬레이브 유닛단말(30b)이 위치할 때는 초음파 송신부(T1) 1개와 초음파 수신부(T2) 2개를 이용하여 위치를 구한다. 반대로, 대각선 방향에 마스터 유닛단말(30a)과 슬레이브 유닛단말(30b)이 위치할 때는 초음파 송신부(T1) 2개와 초음파 수신부(T2) 1개를 이용하여 위치를 구한다.When the master unit terminal 30a and the slave unit terminal 30b are located on the same X axis or Y axis as the first slave unit terminal 30b-1, one ultrasonic transmission unit T1 and two ultrasonic reception units T2 To obtain the position. Conversely, when the master unit terminal 30a and the slave unit terminal 30b are positioned in the diagonal direction, the position is obtained using two ultrasonic transmission units T1 and one ultrasonic reception unit T2.

"거리 = 속도 × 시간" 의 관계를 이용하면 이들 초음파 송신부(T1)과 이들 초음파 수신부(T2) 간의 거리를 개별적으로 파악할 수 있다. 주파수를 다르게 하거나 시간구간을 다르게 함으로써 복수의 초음파 송신부(T1)를 어렵지 않게 식별할 수 있으므로 초음파 송신부/수신부 간의 거리는 개별적으로 모두 파악할 수 있다고 가정해도 무방하다.The distance between the ultrasonic wave transmitting unit T1 and the ultrasonic wave receiving unit T2 can be grasped individually by using the relationship of "distance = velocity x time ". Since it is possible to identify the plurality of ultrasonic transmission units T1 with difficulty by changing the frequencies or the time intervals, it is also possible to assume that the distances between the ultrasonic transmission units / reception units can be grasped individually.

이처럼 [도 5]에서와 같이 삼각형의 세 빗변의 길이 a, b, c를 모두 알고 있으므로 삼각함수 연산을 이용하여 내각 A, B, C를 구한다. 여기서 내각 A, B, C는 초음파 송신부(T1) 1개와 초음파 수신부(T2) 2개 상호간에 이루는 삼각형 내각(A, B, C), 또는 초음파 송신부(T1) 2개와 초음파 수신부(T2) 1개 상호간에 이루는 삼각형 내각(A, B, C)에 해당한다. 삼각형의 내각 A, B, C를 획득하기 위한 삼각함수 연산은 다음과 같다.As described above, since the lengths a, b, and c of the three hypotenuses of the triangle are all known as in [Fig. 5], the cabinets A, B, and C are obtained using trigonometric functions. In this case, the cabinets A, B and C are triangular internal chambers (A, B and C) formed between one ultrasonic transmitter T1 and two ultrasonic receivers T2, two ultrasonic transmitters T1 and one ultrasonic receiver T2 Corresponding to the triangular cabinets (A, B, C) formed between each other. The trigonometric functions for obtaining the triangles A, B, and C are as follows.

Figure 112014022574010-pat00001
Figure 112014022574010-pat00001

예를 들어 a=3, b=6, c=8 인 삼각형에서 내각 A를 구하는 경우를 살펴본다.For example, consider the case of finding the interior angle A in a triangle with a = 3, b = 6, c = 8.

Figure 112014022574010-pat00002
Figure 112014022574010-pat00002

따라서, 0.9479 에 cos-1 연산을 적용하면 내각 A를 구할 수 있는데,Therefore, applying the cos- 1 operation to 0.9479 gives the cabinet A,

Figure 112014022574010-pat00003
Figure 112014022574010-pat00003

에 의해 내각 A는 18.57335°임을 식별하게 된다. 이와 동일한 방식의 연산을 적용하여 내각 B와 C를 연산할 수 있다.The interior angle A is 18.57335 °. The same method of operation can be applied to compute the cabinets B and C.

이처럼, 마스터 유닛단말(30a)을 기준으로 슬레이브 유닛단말(30b)의 상대적 위치를 획득하며, 멀티비전 운영플랫폼(10)은 이러한 정보에 기초하여 그룹 디스플레이(30)의 단말 배치를 식별할 수 있다.
As such, the relative position of the slave unit terminal 30b is obtained based on the master unit terminal 30a, and the multi-vision operating platform 10 can identify the terminal arrangement of the group display 30 based on this information .

[도 6]은 본 발명에 따른 공간 및 위치 감응형 영상 송출 방법을 개념적으로 나타내는 순서도이다. FIG. 6 is a flowchart conceptually showing a spatial and position sensitive video transmission method according to the present invention.

먼저, 마스터 유닛단말(30a)의 고주파용 초음파 센서(34b)는 송신부(T1)로 설정하고, 슬레이브 유닛단말(30b)의 고주파용 초음파 센서(34c)는 수신부(T2)로 설정한다(S11). 이는 멀티비전 운영플랫폼(10)이 설정할 수도 있고 이처럼 미리 설정되어 있을 수도 있다.First, the high frequency ultrasonic sensor 34b of the master unit terminal 30a is set to the transmission unit T1 and the high frequency ultrasonic sensor 34c of the slave unit terminal 30b is set to the reception unit T2 (S11) . Which may or may not be set by the multi-vision operating platform 10.

단계(S11) 이후, 멀티비전 운영플랫폼(10)은 고해상도 전체 영상에서 마스터 유닛단말(30a)의 기준 위치를 설정한다(S12). 마스터 유닛단말(30a)이 표시할 분할 영상은 [도 1]의 하단부에 도시된 바와 같이 전체 영상의 좌상부로 설정될 수도 있고, [도 7]의 (b)에 도시된 바와 같이 전체 영상의 중앙부로 설정될 수도 있다. 마스터 유닛단말(30a)의 기준 위치는 바람직하게는 그룹 디스플레이(30)의 설계 목적에 따라 설정할 수 있다.After step S11, the multivision operating platform 10 sets the reference position of the master unit terminal 30a in the high resolution whole image (S12). The divided images to be displayed by the master unit terminal 30a may be set to the upper left portion of the entire image as shown in the lower end of [Figure 1] . The reference position of the master unit terminal 30a is preferably set according to the design purpose of the group display 30. [

단계(S12) 이후, 슬레이브 유닛단말(30b)이 추가되거나 상대적 위치가 변동되는 경우에는 마스터 유닛단말(30a)의 초음파 송신부(35b)와 슬레이브 유닛단말(30b)의 초음파 수신부(35c) 간에서 얻어지는 길이 정보에 기초하여 [도 5]에서 앞서 살펴본 바와 같은 삼각함수 연산을 통해 유닛단말 간의 상대적인 거리와 각도를 획득할 수 있다(S13). 삼각함수 연산은 구현 방식에 따라서 멀티비전 운영플랫폼(10), 마스터 유닛단말(30a), 슬레이브 유닛단말(30b)의 어디에서 구현하도록 구성할 수 있다.If the slave unit terminal 30b is added or the relative position is changed after the step S12, the ultrasonic wave is obtained between the ultrasonic wave transmitting part 35b of the master unit terminal 30a and the ultrasonic wave receiving part 35c of the slave unit terminal 30b The relative distances and angles between the unit terminals can be obtained through the trigonometric function calculation as described above with reference to FIG. 5 based on the length information (S13). The trigonometric function operation can be implemented anywhere in the multivision operating platform 10, the master unit terminal 30a, and the slave unit terminal 30b according to the implementation method.

단계(S13) 이후, 슬레이브 유닛단말(30b)은 3축 가속도 센서(35a)를 통해 자신의 자세를 식별한다(S14). 이러한 자세 정보는 멀티비전 운영플랫폼(10)으로 제공되어 분할 인코딩에 반영된다.After step S13, the slave unit terminal 30b identifies its own posture via the three-axis acceleration sensor 35a (S14). This attitude information is provided to the multi-vision operating platform 10 and is reflected in the split encoding.

단계(S13, S14)을 통해 멀티비전 운영플랫폼(10)은 그룹 디스플레이(30)의 유닛단말 배치를 식별할 수 있고, 그에 따라 개별 유닛단말에 대해 각자의 위치와 자세에 따른 재생영역을 식별할 수 있다. 멀티비전 운영플랫폼(10)은 전체 영상에 대한 영상파일 데이터와 각자 유닛단말별로 식별한 재생영역 데이터를 그룹 디스플레이(30)로 전송한다(S16).Through the steps S13 and S14, the multi-vision operating platform 10 can identify the unit terminal arrangement of the group display 30 and thereby identify the reproduction area according to its position and attitude for the individual unit terminals . The multivision operating platform 10 transmits the video file data for the entire image and the playback area data identified for each unit terminal to the group display 30 (S16).

단계(S16) 이후, 그룹 디스플레이(30)를 구성하는 다수의 유닛단말(30a, 30b-1 내지 30b-n)은 영상파일 데이터를 재생하여 전체 영상을 획득한 후에 재생영역 데이터에 따라 각자에게 할당된 재생영역에 대응하도록 분할 영상을 획득하여 화면에 표시한다(S17). 그에 따라 [도 1] 및 [도 7]에 나타낸 바와 같은 멀티비전 영상이 구현된다.After step S16, the plurality of unit terminals 30a, 30b-1 to 30b-n constituting the group display 30 reproduce the image file data to acquire the entire image, and then allocate each unit according to the reproduction area data And displays the divided images on the screen (S17). Accordingly, a multi-vision image as shown in Fig. 1 and Fig. 7 is realized.

그리고 나서, 재생상태 데이터에 따라 멀티비전 운영플랫폼(10)이 동기제어 데이터를 생성하여 유닛단말을 개별적으로 미세 조정함으로써 그룹 디스플레이(30)의 재생 화면에 대해 재생 동기화를 수행한다(S18).
Then, the multivision operating platform 10 generates synchronization control data according to the reproduction status data, and finely adjusts the unit terminals individually (S18) by performing playback synchronization on the playback screen of the group display 30.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied in the form of computer readable code on a computer readable recording medium. At this time, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예: 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage, and the like, and may be implemented in the form of a carrier wave . The computer-readable recording medium can also be stored and executed by a computer-readable code in a distributed manner on a networked computer system. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.
As described above, the embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention. And is not intended to limit the scope of the invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

10: 멀티비전 운영플랫폼
11; 사용자 UI 모듈
12: 네트워크 모듈
13: 매트릭스 식별모듈
14: 재생영역 식별
15: 스케쥴링 관리모듈
16: 동기화 제어모듈
17: 스토리지 모듈
20: 멀티비전 운영서버
30: 그룹 디스플레이
30a: 마스터 유닛단말
30b: 슬레이브 유닛단말
30u: 유닛단말
31: 디스플레이부
32: 무선랜 모듈
33: 단말식별 모듈
34: 프로세싱 모듈
34a: 디코딩 수단
34b: 재생정보 수단
34c: 동기화 수단
34d: 위치연산 수단
34e: 자세식별 수단
34f: 수집중계 수단
35: 센서 모듈
35a: 3축 가속도 센서
35b: (고주파용) 초음파 송신부
35c: (고주파용) 초음파 수신부
A1: 안드로이드 보드
10: Multi-Vision Operating Platform
11; User UI module
12: Network module
13: Matrix identification module
14: Identification of playback area
15: Scheduling management module
16: Synchronization control module
17: Storage module
20: Multivision operating server
30: Group display
30a: master unit terminal
30b: Slave unit terminal
30u: Unit terminal
31:
32: Wireless LAN module
33: terminal identification module
34: Processing module
34a: decoding means
34b: reproduction information means
34c: synchronization means
34d: Position calculation means
34e: attitude identification means
34f: collection relay means
35: Sensor module
35a: 3-axis acceleration sensor
35b: (for high frequency) ultrasonic transmitter
35c: ultrasonic receiver (for high frequency)
A1: Android board

Claims (9)

복수 개의 유닛단말을 구비하여 전체 영상을 유닛단말 배치에 대응하도록 분할하여 재생 표시하기 위한 그룹 디스플레이(30)와 상기 분할 재생을 제어하는 멀티비전 운영플랫폼(10)를 포함하여 구성되는 공간 및 위치 감응형 영상 송출 장치로서,
상기 그룹 디스플레이(30)는 상기 유닛단말들의 상대적 위치 정보를 획득하여 상기 멀티비전 운영플랫폼(10)으로 제공하고,
상기 멀티비전 운영플랫폼(10)은 상기 상대적 위치 정보에 기초하여 상기 그룹 디스플레이(30)의 유닛단말 배치를 식별하고, 상기 유닛단말 배치에 대응하도록 상기 전체 영상에서 분할된 상기 유닛단말들의 재생 영역을 개별적으로 식별하여 재생영역 데이터를 생성하고, 상기 전체 영상에 대한 영상파일 데이터와 재생 시점에 관한 스케쥴링 데이터와 상기 재생영역 데이터를 상기 그룹 디스플레이(30)로 제공하며,
상기 그룹 디스플레이(30)를 구성하는 상기 유닛단말들이 상기 영상파일 데이터를 디코딩하여 전체 영상을 획득하고 상기 재생영역 데이터로부터 상기 전체 영상으로부터 각자의 분할 영상을 획득한 후에 상기 스케쥴링 데이터에 따른 재생 시점에 상기 분할 영상을 디스플레이 구현하고,
상기 그룹 디스플레이(30)는 각 면에 초음파 송신부(T1)를 구비한 마스터 유닛단말(30a) 및 각 면에 복수 개의 초음파 수신부(T2)를 구비한 하나 이상의 슬레이브 유닛단말(30b)을 포함하여 구성되고,
상기 슬레이브 유닛단말(30b)은 자신에게 구비된 상기 초음파 수신부와 상기 마스터 유닛단말의 초음파 송신부 간의 거리 정보를 각각 측정하고,
상기 그룹 디스플레이(30)는 상기 슬레이브 유닛단말(30b)에 대해 측정된 상기 복수 개의 거리 정보에 대하여 삼각함수 연산을 적용하여 상기 마스터 유닛단말(30a)에 대한 상기 슬레이브 유닛단말(30b)의 상대적인 위치 정보를 획득하여 상기 멀티비전 운영플랫폼(10)으로 제공하는 것을 특징으로 하는 공간 및 위치 감응형 영상 송출 장치.
A video display device comprising: a group display (30) for dividing and reproducing and displaying an entire image corresponding to a unit terminal arrangement, and a multi-vision operating platform (10) Type video delivery apparatus,
The group display 30 obtains relative position information of the unit terminals and provides the relative position information to the multivision operating platform 10,
The multi-vision operating platform (10) identifies a unit terminal arrangement of the group display (30) based on the relative position information, and identifies a reproduction area of the unit terminals And providing the group display 30 with the video file data for the entire video, the scheduling data for the playback time and the playback area data,
The unit terminals constituting the group display 30 decode the video file data to acquire a full image and acquire respective divided images from the entire image from the reproduction area data, The divided image is displayed,
The group display 30 includes a master unit terminal 30a having an ultrasonic transmission unit T1 on one side and one or more slave unit terminals 30b having a plurality of ultrasonic reception units T2 on each side And,
The slave unit terminal 30b measures the distance information between the ultrasonic wave receiving unit of the slave unit terminal 30b and the ultrasonic wave transmitting unit of the master unit terminal,
The group display 30 applies a trigonometric function operation to the plurality of distance information measured with respect to the slave unit terminal 30b to determine a relative position of the slave unit terminal 30b with respect to the master unit terminal 30a And provides the information to the multi-vision operating platform (10).
삭제delete 청구항 1에 있어서,
상기 그룹 디스플레이(30)는 상기 유닛단말들에 구비된 3축 가속도 센서를 통해 자세 정보를 개별적으로 획득하여 상기 멀티비전 운영플랫폼(10)으로 더 제공하고,
상기 멀티비전 운영플랫폼(10)은 상기 유닛단말 배치와 상기 개별 유닛단말의 자세 정보에 대응하여 상기 전체 영상에서 상기 재생 영역을 식별하는 것을 특징으로 하는 공간 및 위치 감응형 영상 송출 장치.
The method according to claim 1,
The group display 30 individually acquires attitude information through a three-axis acceleration sensor provided in the unit terminals and further provides the attitude information to the multi-vision operating platform 10,
Wherein the multivision operating platform (10) identifies the reproduction area in the entire image in correspondence with the unit terminal arrangement and the attitude information of the individual unit terminal.
청구항 3에 있어서,
상기 그룹 디스플레이(30)는 개별 유닛단말의 재생 상태에 관한 재생정보 데이터를 상기 멀티비전 운영플랫폼(10)으로 제공하고,
상기 멀티비전 운영플랫폼(10)은 상기 재생정보 데이터에 기초하여 재생 타이밍을 개별 유닛단말별로 제어하기 위한 동기제어 데이터를 생성하여 상기 그룹 디스플레이(30)로 제공하고,
상기 그룹 디스플레이(30)은 상기 동기제어 데이터를 수신하면 그에 대응하여 상기 개별 유닛단말의 재생 타이밍을 미세 조정함으로써 재생 동기화를 달성하는 것을 특징으로 하는 공간 및 위치 감응형 영상 송출 장치.
The method of claim 3,
The group display 30 provides playback information data regarding the playback status of the individual unit terminals to the multi-vision operating platform 10,
The multivision operating platform 10 generates synchronization control data for controlling reproduction timings for individual unit terminals based on the reproduction information data and provides the synchronization control data to the group display 30,
Wherein the group display (30) performs playback synchronization by fine-tuning the reproduction timing of the individual unit terminal in response to the synchronization control data.
전체 영상을 분할 재생하기 위한 복수 개의 유닛단말로서 각 면에 초음파 송신부(T1)를 구비한 마스터 유닛단말(30a) 및 각 면에 복수 개의 초음파 수신부(T2)를 구비한 하나 이상의 슬레이브 유닛단말(30b)을 구비하는 그룹 디스플레이(30)와 상기 유닛단말들의 분할 재생을 제어하는 멀티비전 운영플랫폼(10)에 의해 전체 영상을 유닛단말 배치에 대응하도록 분할하여 재생 표시하기 위한 공간 및 위치 감응형 영상 송출 방법으로서,
상기 슬레이브 유닛단말이 자신에게 구비된 상기 초음파 수신부와 상기 마스터 유닛단말의 초음파 송신부 간의 거리 정보를 각각 측정하고, 상기 그룹 디스플레이(30)가 상기 슬레이브 유닛단말(30b)에 대해 측정된 상기 복수 개의 거리 정보에 대하여 삼각함수 연산을 적용하여 상기 마스터 유닛단말에 대한 상기 슬레이브 유닛단말의 상대적인 위치 정보를 획득하고, 상기 그룹 디스플레이(30)가 상기 상대적인 위치 정보를 상기 멀티비전 운영플랫폼으로 제공하여 상기 그룹 디스플레이가 상기 유닛단말들의 상대적 위치 정보를 획득하여 상기 멀티비전 운영플랫폼으로 제공하는 제 1 단계;
상기 멀티비전 운영플랫폼이 상기 상대적 위치 정보에 기초하여 상기 그룹 디스플레이의 유닛단말 배치를 식별하는 제 2 단계;
상기 멀티비전 운영플랫폼이 상기 유닛단말 배치에 대응하여 상기 전체 영상에서 분할된 상기 유닛단말들의 재생 영역을 개별적으로 식별하여 재생영역 데이터를 생성하는 제 3 단계;
상기 멀티비전 운영플랫폼이 상기 전체 영상의 재생 시점에 관한 스케쥴링 데이터를 획득하는 제 4 단계;
상기 멀티비전 운영플랫폼이 상기 전체 영상에 대한 영상파일 데이터와 재생 시점에 관한 스케쥴링 데이터와 상기 재생영역 데이터를 상기 그룹 디스플레이로 제공하는 제 5 단계;
상기 그룹 디스플레이의 포함되는 상기 유닛단말들이 상기 영상파일 데이터를 디코딩하여 전체 영상을 획득하고 상기 재생영역 데이터로부터 상기 전체 영상으로부터 각자의 분할 영상을 획득한 후, 상기 스케쥴링 데이터에 따른 재생 시점에 상기 분할 영상을 디스플레이 구현하는 제 6 단계;
를 포함하여 구성되는 공간 및 위치 감응형 영상 송출 방법.
A plurality of unit terminals for dividing and reproducing an entire image are provided with a master unit terminal 30a having an ultrasonic transmitter T1 on each side and one or more slave unit terminals 30b having a plurality of ultrasonic receivers T2 on each side ) And a multi-vision operating platform (10) for controlling the division and reproduction of the unit terminals to divide and reproduce the entire image corresponding to the unit terminal arrangement and to reproduce and display the space and position sensitive video As a method,
The slave unit terminal measures the distance information between the ultrasonic wave receiving unit and the ultrasonic wave transmitting unit of the master unit terminal, and the group display 30 measures the distance between the plurality of distances measured with respect to the slave unit terminal 30b Information about the slave unit terminal to the master unit terminal by applying a trigonometric function operation to the group display, and the group display 30 provides the relative position information to the multi-vision operating platform, A first step of acquiring relative position information of the unit terminals and providing the relative position information to the multi-vision operating platform;
A second step in which the multi-vision operating platform identifies a unit terminal arrangement of the group display based on the relative position information;
A third step of separately identifying reproduction regions of the unit terminals divided in the entire image corresponding to the unit terminal arrangement of the multi-vision operation platform to generate reproduction region data;
A fourth step of the multivision operating platform acquiring scheduling data related to a reproduction time point of the entire image;
The multivision operating platform providing video file data for the entire video, scheduling data for the playback time, and the playback area data to the group display;
The unit terminals included in the group display decode the video file data to acquire a full image, acquire respective divided images from the entire image from the playback area data, A sixth step of displaying an image;
And transmitting the position and the position of the mobile terminal.
삭제delete 청구항 5에 있어서,
상기 그룹 디스플레이의 유닛단말들은 3축 가속도 센서를 구비하고,
상기 제 1 단계에서 상기 그룹 디스플레이는 상기 3축 가속도 센서를 통해 각각의 유닛단말에 대한 자세 정보를 개별적으로 획득하여 상기 멀티비전 운영플랫폼으로 더 제공하고,
상기 제 3 단계에서 상기 멀티비전 운영플랫폼은 상기 유닛단말 배치와 상기 개별 유닛단말의 자세 정보에 대응하여 상기 전체 영상에서 상기 유닛단말들의 재생 영역을 개별적으로 식별하는 것을 특징으로 하는 공간 및 위치 감응형 영상 송출 방법.
The method of claim 5,
The unit terminals of the group display include a three-axis acceleration sensor,
In the first step, the group display individually obtains attitude information for each unit terminal through the three-axis acceleration sensor, further provides the attitude information to the multi-vision operating platform,
Wherein in the third step, the multi-vision operating platform individually identifies a reproduction region of the unit terminals in the entire image corresponding to the unit terminal arrangement and the attitude information of the individual unit terminal. A video transmission method.
청구항 7에 있어서,
상기 제 7 단계 이후에 수행되는,
상기 그룹 디스플레이가 개별 유닛단말의 재생 상태에 관한 재생정보 데이터를 상기 멀티비전 운영플랫폼으로 제공하는 단계;
상기 멀티비전 운영플랫폼이 상기 재생정보 데이터에 기초하여 재생 타이밍을 개별 유닛단말별로 제어하기 위한 동기제어 데이터를 생성하여 상기 그룹 디스플레이로 제공하는 단계;
상기 그룹 디스플레이의 개별 유닛단말이 상기 동기제어 데이터를 수신하면 그에 대응하여 상기 개별 유닛단말의 재생 타이밍을 미세 조정함으로써 재생 동기화를 달성하는 단계;
를 더 포함하여 구성되는 공간 및 위치 감응형 영상 송출 방법.
The method of claim 7,
The method of claim 1,
Providing the group display to the multivision operating platform with playback information data regarding playback status of the individual unit terminals;
Generating synchronization control data for controlling reproduction timings for individual unit terminals based on the reproduction information data and providing the synchronization control data to the group display;
When the individual unit terminal of the group display receives the synchronization control data, performing playback synchronization by finely adjusting the playback timing of the individual unit terminal corresponding thereto;
And transmitting the position and the position of the mobile terminal.
컴퓨터에 청구항 5, 7, 8 중 어느 하나의 항에 따른 공간 및 위치 감응형 영상 송출 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.A computer-readable recording medium having recorded thereon a program for executing a spatial and position sensitive image transmission method according to any one of claims 5, 7 and 8.
KR20140027288A 2014-03-07 2014-03-07 Video processing device and method based on space and location sensing KR101500968B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140027288A KR101500968B1 (en) 2014-03-07 2014-03-07 Video processing device and method based on space and location sensing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140027288A KR101500968B1 (en) 2014-03-07 2014-03-07 Video processing device and method based on space and location sensing

Publications (1)

Publication Number Publication Date
KR101500968B1 true KR101500968B1 (en) 2015-03-12

Family

ID=53027032

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140027288A KR101500968B1 (en) 2014-03-07 2014-03-07 Video processing device and method based on space and location sensing

Country Status (1)

Country Link
KR (1) KR101500968B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101838608B1 (en) 2016-08-30 2018-03-14 에스케이텔레콤 주식회사 Multi play synchronization apparatus and control method thereof, contents play program
KR20180101970A (en) * 2017-03-06 2018-09-14 엘지전자 주식회사 Electronic Device and Method For Setting Digital Signage Using The Same
KR20200107776A (en) * 2019-03-04 2020-09-16 칩원 테크놀로지(베이징) 컴퍼니 리미티드 Parameter setting method and display device and display device using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040062724A (en) * 2003-01-03 2004-07-09 엘지전자 주식회사 Multi vision system
KR20120050041A (en) * 2010-11-10 2012-05-18 주식회사 디지털존 Multivision system and 3-dimensional image reproducing method including multi 3-dimentional image reproducing appparatus
KR20120064212A (en) * 2010-12-09 2012-06-19 엘지디스플레이 주식회사 Multi vision display apparatus and method for displaying the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040062724A (en) * 2003-01-03 2004-07-09 엘지전자 주식회사 Multi vision system
KR20120050041A (en) * 2010-11-10 2012-05-18 주식회사 디지털존 Multivision system and 3-dimensional image reproducing method including multi 3-dimentional image reproducing appparatus
KR20120064212A (en) * 2010-12-09 2012-06-19 엘지디스플레이 주식회사 Multi vision display apparatus and method for displaying the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101838608B1 (en) 2016-08-30 2018-03-14 에스케이텔레콤 주식회사 Multi play synchronization apparatus and control method thereof, contents play program
KR20180101970A (en) * 2017-03-06 2018-09-14 엘지전자 주식회사 Electronic Device and Method For Setting Digital Signage Using The Same
KR102408384B1 (en) 2017-03-06 2022-06-13 엘지전자 주식회사 Electronic Device and Method For Setting Digital Signage Using The Same
KR20200107776A (en) * 2019-03-04 2020-09-16 칩원 테크놀로지(베이징) 컴퍼니 리미티드 Parameter setting method and display device and display device using the same
KR102283722B1 (en) 2019-03-04 2021-08-02 칩원 테크놀로지(베이징) 컴퍼니 리미티드 Parameter setting method and display device and display device using same

Similar Documents

Publication Publication Date Title
CN108139803B (en) Method and system for automatic calibration of dynamic display configuration
US9596443B2 (en) Methods and systems for providing sensor data and image data to an application processor in a digital image format
JP6276475B2 (en) Method, apparatus and medium for synchronizing color and depth video
US10652284B2 (en) Method and apparatus for session control support for field of view virtual reality streaming
JPH09238367A (en) Television signal transmission method, television signal transmitter, television signal reception method, television signal receiver, television signal transmission/ reception method and television signal transmitter-receiver
CN108924538A (en) The screen expanding method of AR equipment
KR102229927B1 (en) Multi-Screen System, Picture Partition Server and Picture Processing Method thereof, Divided Picture Terminal and Multi-Screen Control Method thereof
KR102336997B1 (en) Server, display apparatus and control method thereof
KR101500968B1 (en) Video processing device and method based on space and location sensing
US9752892B2 (en) Methods and systems for acquiring sensor data on a device using multiple acquisition modes
CN109213464A (en) A kind of image mosaic display methods and system
US11431909B2 (en) Electronic device and operation method thereof
KR102296139B1 (en) Method and apparatus for transmitting virtual reality images
JP2019022151A (en) Information processing apparatus, image processing system, control method, and program
CN112672131A (en) Panoramic video image display method and display equipment
KR101513413B1 (en) Android-based Device of providing matrix-type UHD video
KR20150127450A (en) Display apparatus and method for alignment
CN105359183A (en) Guide image generation device and method using parameters
KR102170367B1 (en) Method and system for outputting image with plurality of image displaying devices
KR101987356B1 (en) An image processing apparatus and method for image parallel rendering processing
US20210210051A1 (en) Methods and apparatus to configure multiple displays
KR20180045359A (en) Electronic apparatus and control method thereof
CN111385504B (en) Control method of spliced television
AU2017438990B2 (en) Electronic shelf label system with positioned virtual shelf labels and a method of positioning said virtual shelf labels
CN106681674A (en) Display control method and system of virtual reality display

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190403

Year of fee payment: 5