KR100413162B1 - Method and system for displaying panoramic videos using server-client configuration - Google Patents
Method and system for displaying panoramic videos using server-client configuration Download PDFInfo
- Publication number
- KR100413162B1 KR100413162B1 KR10-2000-0082685A KR20000082685A KR100413162B1 KR 100413162 B1 KR100413162 B1 KR 100413162B1 KR 20000082685 A KR20000082685 A KR 20000082685A KR 100413162 B1 KR100413162 B1 KR 100413162B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- client
- server
- sound
- screen
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/654—Transmission by server directed to the client
- H04N21/6547—Transmission by server directed to the client comprising parameters, e.g. for client setup
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
Abstract
본 발명은 서버와 여러 대의 클라이언트 컴퓨터를 네트워크로 연결하여 서버의 음향과 환경설정에 따라, 각각의 클라이언트 컴퓨터에 연결된 영상투사기로 광각 스크린에 연속적인 영상을 디스플레이하는 방법 및 시스템에 관한 것이다. 이를 위해 서버 컴퓨터는 음원으로부터 특성을 추출하여 각 클라이언트가 담당할 투사각의 범위, 배경영상, 환경설정이 이루어진 후에 적합한 영상 이미지에 대한 정보를 조합하고 이를 각 클라이언트에 전송한다. 이러한 상세정보의 전송에 따라, 각 클라이언트는 이미지 파일, 주로 동영상 파일을 클라이언트의 이미지 파일 저장부로부터 서버의 요청에 따라, 영상 투사기를 통하여 스크린에 디스플레이하게 된다. 따라서, 각 클라이언트는 자신들에게 할당된 투사각의 화면을 담당하여 이미지 파일 중 해당 영역만을 스크린에 투사하게 되고 이러한 클라이언트의 투사범위가 완성되어 전 화면을 연속적인 파노라마식 영상으로 디스플레이하게 된다.The present invention relates to a method and system for displaying a continuous image on a wide-angle screen by an image projector connected to each client computer according to the sound and configuration of the server by connecting the server and a plurality of client computers by a network. To this end, the server computer extracts the characteristics from the sound source, combines the information about the appropriate image image after the projection angle range, background image, and environment setting for each client, and transmits them to each client. According to the transmission of such detailed information, each client displays an image file, mainly a video file, on the screen through an image projector according to a request of a server from the image file storage of the client. Therefore, each client is responsible for the screen of the projection angle assigned to them to project only the corresponding area of the image file on the screen, and the projection range of the client is completed to display the entire screen as a continuous panoramic image.
Description
본 발명은 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 음향이 서버의 음향 입력부에 의해 입력되면 서버가 음향의 특성을 추출하여 그에 따른 영상의 변화를 계산하여 이를 이미지 정보와 조합하여 클라이언트에 전송하고 클라이언트는 서버의 명령에 의해 네트위크로 연결된 각각의 클라이언트마다 할당된 일정의 영사각 범위에 해당하는 해당영역에 해당 동영상 이미지를 영상 투사기를 통해 디스플레이하는 방법 및 시스템을 제공하는 것이다.The present invention relates to a method and a system for implementing a panoramic image using a server and a client. More particularly, when a sound is inputted by a sound input unit of the server, the server extracts characteristics of the sound and changes the image accordingly. It calculates and combines it with the image information and sends it to the client, and the client displays the video image through the image projector in the corresponding area corresponding to the predetermined projection angle range allocated to each networked client by the command of the server. And to provide a system.
종래의 기술로는 컴퓨터에 영상 투사기(이를테면 프로젝터를 들 수 있다)를 연결하여 스크린에 일면만 투사하여 영상을 상영하는 정도이다. 즉, 실세계에서 공간은 3차원으로 구성되어 있어 3차원의 좌표계로 매핑될 수 있으나, 인간신체 구조상 눈은 전면의 약 120도 정도밖에 가시(可視)할 수 없다.In the conventional technology, an image projector (such as a projector) is connected to a computer to project an image by projecting only one surface onto a screen. That is, in the real world, the space is composed of three dimensions and thus can be mapped to a three-dimensional coordinate system. However, due to the structure of the human body, the eye is only visible about 120 degrees in front of the human body.
따라서, 나머지 240도는 전혀 인지할 수 없기 때문에 눈의 화각을 벗어나는 물체는 눈이나 몸을 돌리거나 이동하여야만 볼 수 있어 기존의 그래픽이나 영상은 이러한 화각의 범위 내에서만 구성되어 있다.Therefore, the remaining 240 degrees are not recognizable at all, so objects outside the eye's angle of view can only be seen by turning or moving the eye or body, and existing graphics and images are constructed only within the range of this angle of view.
이러한 제한을 벗어나 360도를 전부 영상투사기로 디스플레이하려면 서로 다른 화면을 구성하는 영상 투사기에 컴퓨터를 연결하여 사용해야 하므로 여러 대의 컴퓨터와 이에 대응하는 영상 투사기를 갖추어야만 하였다.In order to display 360-degree full image projectors beyond these limitations, a computer must be connected to an image projector constituting different screens, and thus, multiple computers and corresponding image projectors had to be provided.
이럴 경우, 수작업으로 일일이 각각의 컴퓨터마다 일정분의 상이한 동영상 데이터와 투사각, 그리고 수직각, 수평각을 맞추어 주어야만 하였고, 무엇보다도실시간으로 신호처리 및 애니메이션 등을 처리하기에는 계산량이 너무 많기 때문에 중앙에서의 통제가 어려웠다.In this case, it was necessary to manually adjust each computer for a certain amount of different video data, projection angle, vertical angle and horizontal angle. Was difficult.
따라서, 연속적으로 화면이 360도 전면으로 디스플레이되게 한다는 것은 상기 방법을 대체하여 다른 시스템으로 구성한다고 하더라도 효율적이지 못했다. 왜냐하면, 각각의 시스템이나 컴퓨터에서 정확한 시간을 계산하여 영상을 디스플레이해야 하기 때문에 계산상 많은 시행착오가 발생하고 각각의 컴퓨터 관리가 어렵기 때문이다.Therefore, it is not efficient to continuously display the screen 360 degrees in front of the above method even if configured as another system. This is because a large amount of trial and error occurs in the calculation because it is necessary to calculate the exact time in each system or computer and each computer management is difficult.
상기 전술한 문제점을 해결하고자 안출된 본 발명은 모든 영상이나 그래픽을 화각의 범위에서 벗어난 영역까지 구성하여, 음악/음향에 반응하는 실내/외의 360도 전면 디스플레이 등의 용도로 이용할 수 있도록 하는 방법 및 시스템을 제공하는 것을 목적으로 한다.The present invention devised to solve the above-described problem is to configure all the images or graphics to the area outside the range of view, so that it can be used for purposes such as indoor / outdoor 360-degree front display in response to music / sound and It is an object to provide a system.
또한, 네트워크를 통하여 서버에서 각각의 투사각과 각각의 클라이언트를 제어하는 방법 및 시스템을 제공하는 것을 목적으로 한다.It is also an object of the present invention to provide a method and system for controlling each projection angle and each client in a server through a network.
도 1은 사용자의 음향 입력과 환경설정에 따른 서버의 구성을 보여주는 블럭도이다.1 is a block diagram showing a configuration of a server according to a user's sound input and environment setting.
도 2는 서버에 연결된 클라이언트의 구성을 보여주는 블럭도이다.2 is a block diagram showing a configuration of a client connected to a server.
도 3은 본 발명에 따른 서버와 클라이언트, 그리고 영상 투사기로 이루어지는 네트워크 구성도이다.3 is a network diagram illustrating a server, a client, and an image projector according to the present invention.
도 4는 사용자가 음향을 입력함에 따라, 서버가 이를 처리하는 과정을 보여주는 순서도이다.4 is a flowchart illustrating a process of processing a server as a user inputs a sound.
도 5는 본 발명에 따른 서버와 클라이언트간의 데이터전송 과정과 데이터처리 과정을 보여주는 순서도이다.5 is a flowchart illustrating a data transmission process and a data processing process between a server and a client according to the present invention.
도 6은 본 발명이 실제 공간상에서 구현되는 실시예를 보여주는 도면이다.6 is a view showing an embodiment in which the present invention is implemented in real space.
상기에 전술한 목적을 달성하기 위해서, 본 발명은 서버와 여러 대의 클라이언트 컴퓨터를 네트워크로 연결하여 서버의 음향과 환경설정에 따라, 각각의 클라이언트 컴퓨터에 연결된 영상투사기로 360도 전면의 스크린에 연속적인 영상을 디스플레이하는 방법 및 시스템을 제공한다.In order to achieve the above-described object, the present invention is connected to the server and a plurality of client computers in a network, according to the sound and configuration of the server, a continuous projection on the front screen of the 360-degree image projector connected to each client computer A method and system for displaying an image are provided.
이를 위해 서버 컴퓨터는 음원으로부터 특성을 추출하여 각 클라이언트가 담당할 투사각의 범위, 배경영상, 환경설정이 이루어진 후에 적합한 영상 이미지에 대한 정보를 조합하고 이를 각 클라이언트에 전송한다. 이러한 상세정보의 전송에 따라, 각 클라이언트는 이미지 파일, 주로 동영상 파일을 클라이언트의 이미지 파일 저장부로부터 서버의 요청에 따라, 영상 투사기를 통하여 스크린에 디스플레이하게 된다.To this end, the server computer extracts the characteristics from the sound source, combines the information about the appropriate image image after the projection angle range, background image, and environment setting for each client, and transmits them to each client. According to the transmission of such detailed information, each client displays an image file, mainly a video file, on the screen through an image projector according to a request of a server from the image file storage of the client.
즉, 각 클라이언트는 360도 중에서 자신에게 할당된 투사각의 화면만을 담당하여 이미지 파일 중 해당 영역만을 스크린에 투사하게 되고 이러한 클라이언트의 투사범위가 구성되어 전 화면을 연속적인 파노라마식 영상으로 디스플레이하게 된다.That is, each client is responsible for only the screen of the projection angle assigned to it among the 360 degrees to project only the corresponding area of the image file on the screen, and the projection range of the client is configured to display the entire screen as a continuous panoramic image.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 사용자의 음향 입력과 환경설정에 따른 서버의 구성을 보여주는 블럭도이다.1 is a block diagram showing a configuration of a server according to a user's sound input and environment setting.
서버는 크게 6개의 부분으로 이루어지는 데, 이를 설명하면 음향 입력부(110), 음향신호 처리부(120), 사용자 인터페이스(130), 제어부(140), 이미지 파일 저장부(150), 네트위크 인터페이스(150)로 구성된다.The server is largely composed of six parts, which will be described in detail. The audio input unit 110, the audio signal processor 120, the user interface 130, the controller 140, the image file storage unit 150, and the network interface 150 are described. It consists of.
음향 입력부(110)는 마이크 또는 음향기기, 사운드 카드 등의 출력을 직접입력받는 입력수단으로서, 이를 서버의 음향 처리부(120)에 전송하는 역할을 담당하게 된다. 마이크나 음향기기로부터의 아날로그신호는 음의 장단, 높낮이, 피치(Pitch), 에너지, 비트(Beat) 등을 포함하고 있다.The sound input unit 110 is an input unit for directly receiving an output of a microphone, an audio device, a sound card, etc., and serves to transmit the same to the sound processor 120 of the server. Analog signals from microphones and sound equipment include long and short pitches, pitches, pitches, energy, beats, and the like.
서버의 음향 신호처리부(120)는 상기 음향 입력부(110)로부터 입력받은 음원(音源)인 아날로그신호를 디지털신호로 변환하게 되고 여기서 상기 음원 중에 음의 장단, 고저, 피치, 에너지, 비트 등을 추출하여 제어부(140)에 전송하게 된다.The sound signal processing unit 120 of the server converts an analog signal, which is a sound source received from the sound input unit 110, into a digital signal, and extracts long and short, high, pitch, energy, and beat of the sound from the sound source. To transmit to the control unit 140.
또는, 음향 입력부(110)로 음향에 관한 디지털 신호를 직접입력할 수도 있다.Alternatively, the digital signal related to sound may be directly input to the sound input unit 110.
음향 입력부와는 별도로 서버에는 사용자 인터페이스(130)가 구비되는 데, 사용자 인터페이스를 통하여 사용자는 음원에 맞는 배경화면을 선택 지정하게 되고 또한, 각 클라이언트의 디스플레이영역 등의 환경설정도 지정하면 이러한 선택정보는 제어부(140)에 전송된다. 물론 사용자 인터페이스로 특정물을 한정할 필요 없이 키보드나 마우스, 터치스크린도 가능하다.In addition to the sound input unit, the server is provided with a user interface 130. Through the user interface, the user selects and selects a wallpaper suitable for a sound source, and also sets preferences such as display areas of each client. Is transmitted to the controller 140. Of course, a keyboard, mouse, and touch screen can be used without having to define a specific object as a user interface.
이에 따라 제어부(140)는 상기 음향처리부(120)와 사용자 인터페이스부(130)를 통하여 디지털로 변화된 정보를 처리하여 네트위크 인터페이스부(160)를 거쳐 각 정보들을 클라이언트 컴퓨터에 전송된다.Accordingly, the controller 140 processes the digitally changed information through the sound processor 120 and the user interface 130 and transmits the information to the client computer through the network interface 160.
이미지 파일 저장부(150)는 하드 디스크에 각종 이미지 파일 즉, 동영상 파일을 저장해둔다.The image file storage unit 150 stores various image files, that is, video files, on the hard disk.
도 2는 서버에 연결된 클라이언트의 구성을 보여주는 블록도이다.2 is a block diagram showing a configuration of a client connected to a server.
상기 도 1의 서버시스템에 의하여 전송된 정보를 처리하는 클라이언트 컴퓨터를 보여주는 데, 여기에는 4개 부분 즉, 네트워크 인터페이스부(200), 제어부(210), 이미지 파일 저장부(220), 그리고 영상출력부(230) 등으로 이루어져 있다.1 illustrates a client computer processing information transmitted by the server system of FIG. 1, which includes four parts, that is, a network interface unit 200, a controller 210, an image file storage unit 220, and an image output. It consists of a portion 230 and the like.
네트워크 인터페이스부(200)는 네트워크 케이블로 연결된 서버로부터 제어와 데이터정보를 받아 이를 제어부(210)에 전송한다. 제어부(210)는 서버와 실시간으로 정보를 주고받으며 이에 따라 이미지 파일 저장부(220)로부터 이미지 파일 즉, 동영상 정보를 영상출력부(230)에 전송한다.The network interface unit 200 receives control and data information from a server connected with a network cable and transmits it to the control unit 210. The controller 210 exchanges information with the server in real time and accordingly transmits an image file, that is, video information, from the image file storage unit 220 to the image output unit 230.
여기서 이미지 파일 저장부(220)는 각 클라이언트 별로 할당된 영상정보가 아니라 일체의 영상정보를 하드 디스크 드라이브에 저장하여 이를 제어부와 수시로 입출력제어정보를 교환한다. 또한, 서버측 이미지 파일 저장부(150)와 동일한 이미지 파일을 유지해야 하므로 동기화를 행하여 서버로부터 최신 이미지 파일을 전송받아 저장해둔다.Here, the image file storage unit 220 stores all image information on the hard disk drive, not image information allocated to each client, and exchanges input / output control information with the controller from time to time. In addition, since the same image file as the server-side image file storage unit 150 must be maintained, the latest image file is received from the server and stored in synchronization.
마지막으로 영상출력부(230)는 제어부(210)에서 완성된 영상정보의 조합정보 이를테면 어느 특정 이미지를 지정시간동안 스크린에 디스플레이하는 장비로서 일 예로 LCD 프로젝터, PDP 프로젝터 등의 영상 투사기이다. 이러한 장비는 클라이언트 컴퓨터와 USB나 RS-232-C 등의 연결수단을 통해 연결되며 데이터를 프레임으로 처리한다.Lastly, the image output unit 230 is a device for displaying a combination of image information completed by the controller 210, for example, a specific image on a screen for a predetermined time, for example, an image projector such as an LCD projector or a PDP projector. These devices connect to client computers via USB or RS-232-C, and process the data into frames.
도 3은 본 발명에 따른 서버와 클라이언트, 그리고 영상 투사기로 이루어지는 네트워크 구성도이다.3 is a network diagram illustrating a server, a client, and an image projector according to the present invention.
도 3은 상기 도 1과 도 2의 서버(100)와 클라이언트(300a 내지 300n), 그리고 영상 투사기(350a 내지 350n)로 구성되고 이를 네트워크를 통하여 서버가 각 클라이언트를 제어하는 도면을 보여준다. 따라서, 서버는 각각의 클라이언트와 수시로 정보를 교환하여 현재의 작동중인 클라이언트의 수와 어떤 클라이언트가 끊어 졌는지 등을 알 수 있게 되고 중앙에서 통제가 가능해 지게 되다.3 is a diagram illustrating a server 100, clients 300a to 300n, and image projectors 350a to 350n of FIG. 1 and FIG. 2, in which a server controls each client through a network. Therefore, the server can exchange information with each client from time to time, so that the number of currently running clients and which clients are disconnected can be controlled centrally.
도 4는 사용자가 음향을 입력함에 따라, 서버가 이를 처리하는 과정을 보여주는 순서도이다.4 is a flowchart illustrating a process of processing a server as a user inputs a sound.
사용자가 마이크나 음향기기 등을 이용하여 음원을 입력하면(단계 S400), 서버의 음향 신호 처리부는 이를 전송받아 신호처리를 하게 된다(단계 S410). 신호처리에 따라, 신호 중의 일부특징들을 이를테면 음의 장단, 고저, 피치, 에너지, 비트 등을 추출하여 음향신호 정보로 만든다(단계 S420).When the user inputs a sound source using a microphone or an acoustic device (step S400), the sound signal processor of the server receives the signal and performs signal processing (step S410). According to the signal processing, some features of the signal, for example, the long and short, the high and low, the pitch, the energy, the beat, etc. of the sound are extracted and made into sound signal information (step S420).
음향신호로부터 그 특징을 추출해내는 방법에 관한 보다 상세한 내용은 "음악의 실시간 시각화 방법"(특허출원 제2000-0013428호)에 기술되어 있다.More details on how to extract the feature from the acoustic signal are described in "Method of Real-Time Visualization of Music" (Patent Application 2000-0013428).
도 5는 본 발명에 따른 서버와 클라이언트간의 데이터 전송과정과 데이터 처리과정을 보여주는 순서도이다.5 is a flowchart illustrating a data transmission process and a data processing process between a server and a client according to the present invention.
우선 본 발명이 네트워크 상으로 구현되기 위해서는 사용되는 모든 이미지파일을 서버 컴퓨터의 이미지 파일 저장부(150)에 저장해 둔다. 또한 각각의 클라이언트 컴퓨터의 이미지 파일 저장부(220)에도 동일한 이미지 파일을 저장한다.First, in order to implement the present invention on a network, all image files used are stored in the image file storage unit 150 of the server computer. The same image file is also stored in the image file storage unit 220 of each client computer.
여기서 클라이언트와 서버의 이미지 파일을 동일화하기 위해 동기화를 사용하거나 사용자가 직접 서버에서 클라이언트로 이미지 파일을 복사하여 저장할 수도 있다.Here, synchronization can be used to identify image files on the client and server, or users can copy and save image files directly from the server to the client.
이러한 방법으로 만일 사용자가 서버에 새로운 이미지 파일을 저장시켰을 경우(단계 S500), 이미지 파일을 각 클라이언트에 전송하기 위해 동기화를 실행한다(단계 S501). 이에 따라 각 클라이언트는 서버의 이미지 파일과 저장된 이미지 파일을 비교하고(단계 S502), 만일 이미지 파일에 차이가 있을 경우(단계 S503), 클라이언트는 서버에 이미지 파일을 전송 요청하게 된다(단계 S504).In this way, if the user has stored a new image file on the server (step S500), synchronization is performed to transfer the image file to each client (step S501). Accordingly, each client compares the image file of the server with the stored image file (step S502). If there is a difference in the image file (step S503), the client requests the server to transmit the image file (step S504).
여기서 동기화는 프로그램에 따라 일정시간 주기적으로 동기화할 수도 있고 사용자가 강제적으로 동기화를 실행할 수도 있다.In this case, the synchronization may be periodically performed according to a program, or the user may perform the synchronization forcibly.
전송요청을 받은 서버는 해당 이미지 파일을 클라이언트에 전송하며(단계 S505), 상기 이미지 파일을 전송받은 클라이언트는 이미지 파일을 하드 디스크에 저장한다(단계 S506).The server receiving the transfer request transmits the image file to the client (step S505), and the client receiving the image file stores the image file on the hard disk (step S506).
이렇게 모든 이미지 파일이 서버와 클라이언트 컴퓨터에서 동일화된 후, 사용자가 사용자 인터페이스부(130)를 통하여 배경영상을 설정하고(단계 S510), 각 클라이언트 컴퓨터의 디스플레이 영역에 대한 환경을 설정한다(단계 S511).After all the image files are identified in the server and the client computer, the user sets the background image through the user interface 130 (step S510), and sets the environment for the display area of each client computer (step S511). .
즉, 만약 A, B, C 3개의 클라이언트 컴퓨터가 있고 360도를 표현하고자 한다면 A는 0 ∼ 120도, B는 120 ∼ 240도, 그리고 C는 240 ∼ 360도를 표현하게 하고,만약 A를 -60 ∼ 60도로 하면 B는 60 ∼ 180도, C는 180 ∼ 300도가 되도록 디스플레이 영역을 할당한다. 그리고 이에 해당하는 각각의 클라이언트가 수행할 이미지 파일의 정보와 상기 도 4에서 생성된 음원의 특성을 합성하게 된다(단계 S512).In other words, if you have three client computers, A, B, and C, and you want to represent 360 degrees, let A represent 0 to 120 degrees, B to 120 to 240 degrees, and C to 240 to 360 degrees. If it is 60-60 degree, B will allocate a display area so that it may be 60-180 degree, and C may be 180-300 degree. Then, the information of the image file to be performed by each client corresponding thereto and the characteristics of the sound source generated in FIG. 4 are synthesized (step S512).
즉, 음원에 비트가 있으면 비트부분이 연주될 때, 이미지 파일 중에서 특정 이미지 파일을 어느 클라이언트가 일정시간 수행하는 것을 계산하여 영상의 변화에 대한 정보를 만들어 내는 것을 의미한다.In other words, when a beat part is played, it means that a client performs a certain time on a specific image file among the image files to generate information about the change of the image when the beat part is played.
서버는 각 클라이언트들이 자신에 할당된 처리할 이미지에 대한 상세 정보를 클라이언트에 전송한다(단계 S513). 이에 따라, 각 클라이언트 컴퓨터는 상기 데이터를 전송받게 된다.The server transmits detailed information about the image to be processed by each client to the client (step S513). Accordingly, each client computer receives the data.
그런데 이러한 데이터를 전송받는 중에 서버와 각 클라이언트를 연결하는 물리적인 케이블의 길이가 달라서 또는 다른 이유로 인하여 데이터의 도착시간이 어떤 경우에는 지연되게 된다. 따라서, 그 시간차가 누적되면 서버와 클라이언트간에 동기가 틀어지게 된다.However, during the transmission of the data, the arrival time of the data is delayed in some cases due to the different lengths of physical cables connecting the server and each client. Therefore, when the time difference accumulates, synchronization between the server and the client is lost.
이런 경우, 예를 들면 약 10초의 주기적 동기화 프레임을 삽입하여 이전에 수신한 데이터를 무시하고 동기 프레임을 최우선적으로 실행하도록 한다(단계 S521).In this case, for example, a periodic synchronization frame of about 10 seconds is inserted so as to ignore previously received data and to execute the synchronization frame firstly (step S521).
즉, 서버는 일정시간 마다 동기화 프레임을 보내게 되고 클라이언트는 동기화 프레임을 수신하면 이전에 수신된 데이터를 무시하고 동기화 프레임에 포함된 데이터를 처리한다. 예를 들어, 이전에 수신한 데이터에 따르면 물고기의 위치가 "a"라는 좌표에 있고, 동기화 프레임에 포함된 데이터에 따르면 물고기 위치가 "b"좌표에 있는 경우, "b"좌표에 물고기를 그리게 되는 것이다.That is, the server sends a synchronization frame every predetermined time, and when the client receives the synchronization frame, the server ignores the previously received data and processes the data included in the synchronization frame. For example, if the position of the fish is in the coordinate "a" according to previously received data and the position of the fish is in the coordinate "b" according to the data included in the synchronization frame, the fish is drawn in the "b" coordinate. Will be.
이와 같이 하면, 예를 들어 도 6에서와 같이 B스크린에 있던 물고기가 C스크린으로 진입할 때, 클라이언트(610)에서의 지연에 의해 B스크린에서의 물고기 이미지와 C스크린에서의 물고기 이미지가 부자연스럽게 연결되는 것을 방지할 수 있다.In this way, for example, when the fish on the screen B enters the screen C as shown in FIG. 6, the fish image on the screen B and the fish image on the screen C are unnatural due to the delay in the client 610. The connection can be prevented.
여기서, 데이터를 전송하기 위한 전송프로토콜은 UDP(User data protocol), TCP(Transmission control protocol) 등의 기존 프로토콜을 이용하여 서버가 모든 클라이언트에 동일한 데이터를 단 한번에 전송하여 모든 클라이언트가 데이터를 받을 수 있도록 멀티캐스트(Multicast)IP를 이용하게 된다.Here, the transmission protocol for transmitting data uses the existing protocols such as UDP (User data protocol) and TCP (Transmission control protocol) so that the server transmits the same data to all clients at once, so that all clients can receive the data. Multicast IP is used.
각 클라이언트 컴퓨터는 전송받은 데이터로부터 디스플레이할 화각, 즉 수평각과 수직각의 정보를 추출한다(단계 S530). 그리고, 배경영상과 음원특성에 따른 이미지를 합성한다. 이때, 상기 수평각과 수직각의 정보에 따라 자신이 디스플레이할 영역 바깥에 있는 이미지들은 클리핑하여 연산을 줄이게 된다(단계 531).Each client computer extracts information of an angle of view to be displayed, that is, a horizontal angle and a vertical angle, from the received data (step S530). Then, the background image and the image according to the sound source characteristics are synthesized. In this case, according to the information of the horizontal angle and the vertical angle, images outside the area to be displayed are clipped to reduce the operation (step 531).
이에 따라, 클라이언트 컴퓨터는 합성된 이미지를 영상 투사기가 연결된 영상 출력부로 전송한다(단계 532).Accordingly, the client computer transmits the synthesized image to the image output unit to which the image projector is connected (step 532).
상기 서버와 클라이언트 사이에 주고받는 데이터규정을 보면 아래와 같으며 주요 역할들은 우측 칸에 주석이 되어 있다.The data rules exchanged between the server and the client are as follows and the main roles are annotated in the right column.
<서버와 클라이언트간의 데이터 규정><Data specification between server and client>
// 송수신 프레임의 기본 프로토콜// basic protocol of transmission / reception frame
// 클라이언트 컨트롤// client control
//백그라운드나 포그라운드에서 사용하는 에너지(energy)// energy used in the background or foreground
//포그라운드 인포메이션// foreground information
//백그라운드 인포메이션// background information
//특정 애니메이션 관련 데이터// specific animation related data
상기 표는 추출된 음악특성에 따라 피아노 건반이 눌려지는 애니메이션인 피아노 애니메이션의 경우를 예로 든 것이다. 이외에도 다양한 애니메이션 효과를 줄수 있으며, 그에 따라 적절한 데이터 규정을 마련하면 된다.The above table is an example of the case of the piano animation which is an animation in which the piano keys are pressed according to the extracted music characteristics. In addition, various animation effects can be provided, and accordingly, an appropriate data regulation can be prepared.
도 6은 본 발명이 실제 공간상에서 구현되는 실시예를 보여주는 도면이다.6 is a view showing an embodiment in which the present invention is implemented in real space.
상기 화면은 3개의 영상투사기와 이에 해당하는 3개의 클라이언트로 180도의 화면을 구성하는 예를 보여주는 것으로 스크린(A, B, C)은 각각 다른 동영상을 보여준다.The screen shows an example of configuring a 180-degree screen with three image projectors and three corresponding clients. Screens A, B, and C show different moving images.
물론 상기에서 설명한 것처럼 스크린 A, B, C의 동영상 또는 배경 이미지를 담고 있는 이미지파일은 3개의 클라이언트에 각기 부분으로 나뉘어서 저장되는 것이 아니고 A, B, C를 포함하는 전체 이미지가 저장된다. 따라서, 서버에서 설정된 환경에 따라 각기 클라이언트들은 전체 이미지 중에서 담당 이미지 부분만을 추출하여 서로 다른 화면을 구성하게 된다.Of course, as described above, the image file containing the video or background image of the screen A, B, C is not divided into three parts and stored in each of the three clients, but the entire image including A, B, C is stored. Therefore, according to the environment set in the server, each client is configured to extract different parts of the entire image from the entire image.
즉, 제 1 영상 투사기(600)에 연결된 제 1 클라이언트는 스크린 A를 특정 수직각도와 수평각도, 여기서는 수평각을 60도로 하여 영상을 스크린에 투사하게 된다. 제 2 영상 투사기(610)에 연결된 제 2 클라이언트가 스크린 B를, 그리고 제 3 영상 투사기(620)에 연결된 제 3 클라이언트가 스크린 C를 디스플레이하면서 입체적으로 구성하는 것이 가능하다.That is, the first client connected to the first image projector 600 projects the image on the screen by setting the screen A to a specific vertical angle and horizontal angle, in this case, a horizontal angle of 60 degrees. It is possible to configure stereoscopically while the second client connected to the second image projector 610 displays the screen B and the third client connected to the third image projector 620 displays the screen C. FIG.
이에 따라, 물고기들이 음악에 맞추어서 A 내지 C스크린 상에서 유영하는 모습을 표현할 수 있게 된다.Accordingly, it is possible to express the fish swimming on the A-C screen in accordance with the music.
이상, 본 발명을 도면과 실시예를 가지고 설명하였으나, 본 발명은 특정 실시 예에 한정되지는 않으며, 이 기술분야에서 통상의 지식을 가진 자라면, 본 발명의 범위에서 벗어나지 않으면서 많은 수정과 변형이 가능함을 이해할 것이다.As mentioned above, although this invention was demonstrated with drawing and Example, this invention is not limited to a specific Example, The person of ordinary skill in the art, many corrections and a change without departing from the scope of this invention. I will understand this possible.
또한, 본 발명의 보호범위는 첨부된 특허 청구범위에 의해 정해져야 할 것이다.In addition, the protection scope of the present invention will be defined by the appended claims.
본 발명에 따르면, 여러 대의 클라이언트를 배치하여 화각에 따라 영상 투사기를 조종함으로써 저렴하고 또한 용이하게 광각의 스크린에 음향에 반응하는 영상을 디스플레이하는 효과가 있다.According to the present invention, by arranging a plurality of clients to control the image projector according to the angle of view, it is inexpensive and easy to display an image responsive to sound on a wide-angle screen.
또한, 서버와 클라이언트를 통하여 네트워크를 구성함으로써 서버에서의 중앙통제가 용이하게 이루어지는 효과가 있다.In addition, by configuring the network through the server and the client has the effect that the central control in the server can be easily.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2000-0082685A KR100413162B1 (en) | 2000-12-27 | 2000-12-27 | Method and system for displaying panoramic videos using server-client configuration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2000-0082685A KR100413162B1 (en) | 2000-12-27 | 2000-12-27 | Method and system for displaying panoramic videos using server-client configuration |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20020054062A KR20020054062A (en) | 2002-07-06 |
KR100413162B1 true KR100413162B1 (en) | 2003-12-31 |
Family
ID=27686504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2000-0082685A KR100413162B1 (en) | 2000-12-27 | 2000-12-27 | Method and system for displaying panoramic videos using server-client configuration |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100413162B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095084A (en) * | 2016-06-06 | 2016-11-09 | 乐视控股(北京)有限公司 | Throw screen method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970007676A (en) * | 1995-07-12 | 1997-02-21 | 이데이 노부유키 | A three-dimensional virtual reality space sharing method, a three-dimensional virtual reality space sharing system, an information recording medium, an information recording method, an information transmission medium, an information transmission method, an information processing method, |
KR200200290Y1 (en) * | 2000-02-11 | 2000-10-16 | 최두일 | Real-time music visualization apparatus |
KR20000072269A (en) * | 2000-08-24 | 2000-12-05 | 김웅순 | An Obtain and Display Method of Panorama Moving Picture having High Resolution |
-
2000
- 2000-12-27 KR KR10-2000-0082685A patent/KR100413162B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970007676A (en) * | 1995-07-12 | 1997-02-21 | 이데이 노부유키 | A three-dimensional virtual reality space sharing method, a three-dimensional virtual reality space sharing system, an information recording medium, an information recording method, an information transmission medium, an information transmission method, an information processing method, |
KR200200290Y1 (en) * | 2000-02-11 | 2000-10-16 | 최두일 | Real-time music visualization apparatus |
KR20000072269A (en) * | 2000-08-24 | 2000-12-05 | 김웅순 | An Obtain and Display Method of Panorama Moving Picture having High Resolution |
Also Published As
Publication number | Publication date |
---|---|
KR20020054062A (en) | 2002-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10602121B2 (en) | Method, system and apparatus for capture-based immersive telepresence in virtual environment | |
US20210001216A1 (en) | Method and device for generating video frames | |
CN109644294B (en) | Live broadcast sharing method, related equipment and system | |
WO2019026765A1 (en) | Rendering device, head-mounted display, image transmission method, and image correction method | |
CN112205005A (en) | Adapting acoustic rendering to image-based objects | |
US20160217615A1 (en) | Method and System for Implementing a Multi-User Virtual Environment | |
US20020154145A1 (en) | Arrangement and method for spatial visualization | |
US10359988B2 (en) | Shared experience of virtual environments | |
JP2013099511A (en) | Rendering system, rendering server, control method thereof, program, and recording medium | |
TWI629086B (en) | Dynamic adjustment of cloud game data streams to output device and network quality | |
JP2016013172A (en) | Game system | |
US11676330B2 (en) | 3d conversations in an artificial reality environment | |
US20200125312A1 (en) | Image generating apparatus and image generating method | |
WO2023143217A1 (en) | Special effect prop display method, apparatus, device, and storage medium | |
CN107846584B (en) | The adaptive desktop synchronized projection method of virtual reality based on scene management development library | |
WO2009078909A1 (en) | Virtual object rendering system and method | |
WO2020129115A1 (en) | Information processing system, information processing method and computer program | |
JP3610423B2 (en) | Video display system and method for improving its presence | |
KR100413162B1 (en) | Method and system for displaying panoramic videos using server-client configuration | |
CN112565883A (en) | Video rendering processing system and computer equipment for virtual reality scene | |
JP2022188335A (en) | Avatar output device, terminal device, avatar output method and program | |
JP2005094271A (en) | Virtual space sound reproducing program and device | |
Isakovic et al. | X-rooms | |
JP2004310470A (en) | System for deciding and combining eye-gaze position and computer-executable program | |
CN112423014A (en) | Remote review method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20111209 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20121217 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |