KR100413162B1 - Method and system for displaying panoramic videos using server-client configuration - Google Patents

Method and system for displaying panoramic videos using server-client configuration Download PDF

Info

Publication number
KR100413162B1
KR100413162B1 KR10-2000-0082685A KR20000082685A KR100413162B1 KR 100413162 B1 KR100413162 B1 KR 100413162B1 KR 20000082685 A KR20000082685 A KR 20000082685A KR 100413162 B1 KR100413162 B1 KR 100413162B1
Authority
KR
South Korea
Prior art keywords
image
client
server
sound
screen
Prior art date
Application number
KR10-2000-0082685A
Other languages
Korean (ko)
Other versions
KR20020054062A (en
Inventor
최두일
Original Assignee
(주)아이뮤직소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이뮤직소프트 filed Critical (주)아이뮤직소프트
Priority to KR10-2000-0082685A priority Critical patent/KR100413162B1/en
Publication of KR20020054062A publication Critical patent/KR20020054062A/en
Application granted granted Critical
Publication of KR100413162B1 publication Critical patent/KR100413162B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Abstract

본 발명은 서버와 여러 대의 클라이언트 컴퓨터를 네트워크로 연결하여 서버의 음향과 환경설정에 따라, 각각의 클라이언트 컴퓨터에 연결된 영상투사기로 광각 스크린에 연속적인 영상을 디스플레이하는 방법 및 시스템에 관한 것이다. 이를 위해 서버 컴퓨터는 음원으로부터 특성을 추출하여 각 클라이언트가 담당할 투사각의 범위, 배경영상, 환경설정이 이루어진 후에 적합한 영상 이미지에 대한 정보를 조합하고 이를 각 클라이언트에 전송한다. 이러한 상세정보의 전송에 따라, 각 클라이언트는 이미지 파일, 주로 동영상 파일을 클라이언트의 이미지 파일 저장부로부터 서버의 요청에 따라, 영상 투사기를 통하여 스크린에 디스플레이하게 된다. 따라서, 각 클라이언트는 자신들에게 할당된 투사각의 화면을 담당하여 이미지 파일 중 해당 영역만을 스크린에 투사하게 되고 이러한 클라이언트의 투사범위가 완성되어 전 화면을 연속적인 파노라마식 영상으로 디스플레이하게 된다.The present invention relates to a method and system for displaying a continuous image on a wide-angle screen by an image projector connected to each client computer according to the sound and configuration of the server by connecting the server and a plurality of client computers by a network. To this end, the server computer extracts the characteristics from the sound source, combines the information about the appropriate image image after the projection angle range, background image, and environment setting for each client, and transmits them to each client. According to the transmission of such detailed information, each client displays an image file, mainly a video file, on the screen through an image projector according to a request of a server from the image file storage of the client. Therefore, each client is responsible for the screen of the projection angle assigned to them to project only the corresponding area of the image file on the screen, and the projection range of the client is completed to display the entire screen as a continuous panoramic image.

Description

서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법 및 시스템 { Method and system for displaying panoramic videos using server-client configuration }Method and system for displaying panoramic videos using server-client configuration}

본 발명은 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 음향이 서버의 음향 입력부에 의해 입력되면 서버가 음향의 특성을 추출하여 그에 따른 영상의 변화를 계산하여 이를 이미지 정보와 조합하여 클라이언트에 전송하고 클라이언트는 서버의 명령에 의해 네트위크로 연결된 각각의 클라이언트마다 할당된 일정의 영사각 범위에 해당하는 해당영역에 해당 동영상 이미지를 영상 투사기를 통해 디스플레이하는 방법 및 시스템을 제공하는 것이다.The present invention relates to a method and a system for implementing a panoramic image using a server and a client. More particularly, when a sound is inputted by a sound input unit of the server, the server extracts characteristics of the sound and changes the image accordingly. It calculates and combines it with the image information and sends it to the client, and the client displays the video image through the image projector in the corresponding area corresponding to the predetermined projection angle range allocated to each networked client by the command of the server. And to provide a system.

종래의 기술로는 컴퓨터에 영상 투사기(이를테면 프로젝터를 들 수 있다)를 연결하여 스크린에 일면만 투사하여 영상을 상영하는 정도이다. 즉, 실세계에서 공간은 3차원으로 구성되어 있어 3차원의 좌표계로 매핑될 수 있으나, 인간신체 구조상 눈은 전면의 약 120도 정도밖에 가시(可視)할 수 없다.In the conventional technology, an image projector (such as a projector) is connected to a computer to project an image by projecting only one surface onto a screen. That is, in the real world, the space is composed of three dimensions and thus can be mapped to a three-dimensional coordinate system. However, due to the structure of the human body, the eye is only visible about 120 degrees in front of the human body.

따라서, 나머지 240도는 전혀 인지할 수 없기 때문에 눈의 화각을 벗어나는 물체는 눈이나 몸을 돌리거나 이동하여야만 볼 수 있어 기존의 그래픽이나 영상은 이러한 화각의 범위 내에서만 구성되어 있다.Therefore, the remaining 240 degrees are not recognizable at all, so objects outside the eye's angle of view can only be seen by turning or moving the eye or body, and existing graphics and images are constructed only within the range of this angle of view.

이러한 제한을 벗어나 360도를 전부 영상투사기로 디스플레이하려면 서로 다른 화면을 구성하는 영상 투사기에 컴퓨터를 연결하여 사용해야 하므로 여러 대의 컴퓨터와 이에 대응하는 영상 투사기를 갖추어야만 하였다.In order to display 360-degree full image projectors beyond these limitations, a computer must be connected to an image projector constituting different screens, and thus, multiple computers and corresponding image projectors had to be provided.

이럴 경우, 수작업으로 일일이 각각의 컴퓨터마다 일정분의 상이한 동영상 데이터와 투사각, 그리고 수직각, 수평각을 맞추어 주어야만 하였고, 무엇보다도실시간으로 신호처리 및 애니메이션 등을 처리하기에는 계산량이 너무 많기 때문에 중앙에서의 통제가 어려웠다.In this case, it was necessary to manually adjust each computer for a certain amount of different video data, projection angle, vertical angle and horizontal angle. Was difficult.

따라서, 연속적으로 화면이 360도 전면으로 디스플레이되게 한다는 것은 상기 방법을 대체하여 다른 시스템으로 구성한다고 하더라도 효율적이지 못했다. 왜냐하면, 각각의 시스템이나 컴퓨터에서 정확한 시간을 계산하여 영상을 디스플레이해야 하기 때문에 계산상 많은 시행착오가 발생하고 각각의 컴퓨터 관리가 어렵기 때문이다.Therefore, it is not efficient to continuously display the screen 360 degrees in front of the above method even if configured as another system. This is because a large amount of trial and error occurs in the calculation because it is necessary to calculate the exact time in each system or computer and each computer management is difficult.

상기 전술한 문제점을 해결하고자 안출된 본 발명은 모든 영상이나 그래픽을 화각의 범위에서 벗어난 영역까지 구성하여, 음악/음향에 반응하는 실내/외의 360도 전면 디스플레이 등의 용도로 이용할 수 있도록 하는 방법 및 시스템을 제공하는 것을 목적으로 한다.The present invention devised to solve the above-described problem is to configure all the images or graphics to the area outside the range of view, so that it can be used for purposes such as indoor / outdoor 360-degree front display in response to music / sound and It is an object to provide a system.

또한, 네트워크를 통하여 서버에서 각각의 투사각과 각각의 클라이언트를 제어하는 방법 및 시스템을 제공하는 것을 목적으로 한다.It is also an object of the present invention to provide a method and system for controlling each projection angle and each client in a server through a network.

도 1은 사용자의 음향 입력과 환경설정에 따른 서버의 구성을 보여주는 블럭도이다.1 is a block diagram showing a configuration of a server according to a user's sound input and environment setting.

도 2는 서버에 연결된 클라이언트의 구성을 보여주는 블럭도이다.2 is a block diagram showing a configuration of a client connected to a server.

도 3은 본 발명에 따른 서버와 클라이언트, 그리고 영상 투사기로 이루어지는 네트워크 구성도이다.3 is a network diagram illustrating a server, a client, and an image projector according to the present invention.

도 4는 사용자가 음향을 입력함에 따라, 서버가 이를 처리하는 과정을 보여주는 순서도이다.4 is a flowchart illustrating a process of processing a server as a user inputs a sound.

도 5는 본 발명에 따른 서버와 클라이언트간의 데이터전송 과정과 데이터처리 과정을 보여주는 순서도이다.5 is a flowchart illustrating a data transmission process and a data processing process between a server and a client according to the present invention.

도 6은 본 발명이 실제 공간상에서 구현되는 실시예를 보여주는 도면이다.6 is a view showing an embodiment in which the present invention is implemented in real space.

상기에 전술한 목적을 달성하기 위해서, 본 발명은 서버와 여러 대의 클라이언트 컴퓨터를 네트워크로 연결하여 서버의 음향과 환경설정에 따라, 각각의 클라이언트 컴퓨터에 연결된 영상투사기로 360도 전면의 스크린에 연속적인 영상을 디스플레이하는 방법 및 시스템을 제공한다.In order to achieve the above-described object, the present invention is connected to the server and a plurality of client computers in a network, according to the sound and configuration of the server, a continuous projection on the front screen of the 360-degree image projector connected to each client computer A method and system for displaying an image are provided.

이를 위해 서버 컴퓨터는 음원으로부터 특성을 추출하여 각 클라이언트가 담당할 투사각의 범위, 배경영상, 환경설정이 이루어진 후에 적합한 영상 이미지에 대한 정보를 조합하고 이를 각 클라이언트에 전송한다. 이러한 상세정보의 전송에 따라, 각 클라이언트는 이미지 파일, 주로 동영상 파일을 클라이언트의 이미지 파일 저장부로부터 서버의 요청에 따라, 영상 투사기를 통하여 스크린에 디스플레이하게 된다.To this end, the server computer extracts the characteristics from the sound source, combines the information about the appropriate image image after the projection angle range, background image, and environment setting for each client, and transmits them to each client. According to the transmission of such detailed information, each client displays an image file, mainly a video file, on the screen through an image projector according to a request of a server from the image file storage of the client.

즉, 각 클라이언트는 360도 중에서 자신에게 할당된 투사각의 화면만을 담당하여 이미지 파일 중 해당 영역만을 스크린에 투사하게 되고 이러한 클라이언트의 투사범위가 구성되어 전 화면을 연속적인 파노라마식 영상으로 디스플레이하게 된다.That is, each client is responsible for only the screen of the projection angle assigned to it among the 360 degrees to project only the corresponding area of the image file on the screen, and the projection range of the client is configured to display the entire screen as a continuous panoramic image.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 사용자의 음향 입력과 환경설정에 따른 서버의 구성을 보여주는 블럭도이다.1 is a block diagram showing a configuration of a server according to a user's sound input and environment setting.

서버는 크게 6개의 부분으로 이루어지는 데, 이를 설명하면 음향 입력부(110), 음향신호 처리부(120), 사용자 인터페이스(130), 제어부(140), 이미지 파일 저장부(150), 네트위크 인터페이스(150)로 구성된다.The server is largely composed of six parts, which will be described in detail. The audio input unit 110, the audio signal processor 120, the user interface 130, the controller 140, the image file storage unit 150, and the network interface 150 are described. It consists of.

음향 입력부(110)는 마이크 또는 음향기기, 사운드 카드 등의 출력을 직접입력받는 입력수단으로서, 이를 서버의 음향 처리부(120)에 전송하는 역할을 담당하게 된다. 마이크나 음향기기로부터의 아날로그신호는 음의 장단, 높낮이, 피치(Pitch), 에너지, 비트(Beat) 등을 포함하고 있다.The sound input unit 110 is an input unit for directly receiving an output of a microphone, an audio device, a sound card, etc., and serves to transmit the same to the sound processor 120 of the server. Analog signals from microphones and sound equipment include long and short pitches, pitches, pitches, energy, beats, and the like.

서버의 음향 신호처리부(120)는 상기 음향 입력부(110)로부터 입력받은 음원(音源)인 아날로그신호를 디지털신호로 변환하게 되고 여기서 상기 음원 중에 음의 장단, 고저, 피치, 에너지, 비트 등을 추출하여 제어부(140)에 전송하게 된다.The sound signal processing unit 120 of the server converts an analog signal, which is a sound source received from the sound input unit 110, into a digital signal, and extracts long and short, high, pitch, energy, and beat of the sound from the sound source. To transmit to the control unit 140.

또는, 음향 입력부(110)로 음향에 관한 디지털 신호를 직접입력할 수도 있다.Alternatively, the digital signal related to sound may be directly input to the sound input unit 110.

음향 입력부와는 별도로 서버에는 사용자 인터페이스(130)가 구비되는 데, 사용자 인터페이스를 통하여 사용자는 음원에 맞는 배경화면을 선택 지정하게 되고 또한, 각 클라이언트의 디스플레이영역 등의 환경설정도 지정하면 이러한 선택정보는 제어부(140)에 전송된다. 물론 사용자 인터페이스로 특정물을 한정할 필요 없이 키보드나 마우스, 터치스크린도 가능하다.In addition to the sound input unit, the server is provided with a user interface 130. Through the user interface, the user selects and selects a wallpaper suitable for a sound source, and also sets preferences such as display areas of each client. Is transmitted to the controller 140. Of course, a keyboard, mouse, and touch screen can be used without having to define a specific object as a user interface.

이에 따라 제어부(140)는 상기 음향처리부(120)와 사용자 인터페이스부(130)를 통하여 디지털로 변화된 정보를 처리하여 네트위크 인터페이스부(160)를 거쳐 각 정보들을 클라이언트 컴퓨터에 전송된다.Accordingly, the controller 140 processes the digitally changed information through the sound processor 120 and the user interface 130 and transmits the information to the client computer through the network interface 160.

이미지 파일 저장부(150)는 하드 디스크에 각종 이미지 파일 즉, 동영상 파일을 저장해둔다.The image file storage unit 150 stores various image files, that is, video files, on the hard disk.

도 2는 서버에 연결된 클라이언트의 구성을 보여주는 블록도이다.2 is a block diagram showing a configuration of a client connected to a server.

상기 도 1의 서버시스템에 의하여 전송된 정보를 처리하는 클라이언트 컴퓨터를 보여주는 데, 여기에는 4개 부분 즉, 네트워크 인터페이스부(200), 제어부(210), 이미지 파일 저장부(220), 그리고 영상출력부(230) 등으로 이루어져 있다.1 illustrates a client computer processing information transmitted by the server system of FIG. 1, which includes four parts, that is, a network interface unit 200, a controller 210, an image file storage unit 220, and an image output. It consists of a portion 230 and the like.

네트워크 인터페이스부(200)는 네트워크 케이블로 연결된 서버로부터 제어와 데이터정보를 받아 이를 제어부(210)에 전송한다. 제어부(210)는 서버와 실시간으로 정보를 주고받으며 이에 따라 이미지 파일 저장부(220)로부터 이미지 파일 즉, 동영상 정보를 영상출력부(230)에 전송한다.The network interface unit 200 receives control and data information from a server connected with a network cable and transmits it to the control unit 210. The controller 210 exchanges information with the server in real time and accordingly transmits an image file, that is, video information, from the image file storage unit 220 to the image output unit 230.

여기서 이미지 파일 저장부(220)는 각 클라이언트 별로 할당된 영상정보가 아니라 일체의 영상정보를 하드 디스크 드라이브에 저장하여 이를 제어부와 수시로 입출력제어정보를 교환한다. 또한, 서버측 이미지 파일 저장부(150)와 동일한 이미지 파일을 유지해야 하므로 동기화를 행하여 서버로부터 최신 이미지 파일을 전송받아 저장해둔다.Here, the image file storage unit 220 stores all image information on the hard disk drive, not image information allocated to each client, and exchanges input / output control information with the controller from time to time. In addition, since the same image file as the server-side image file storage unit 150 must be maintained, the latest image file is received from the server and stored in synchronization.

마지막으로 영상출력부(230)는 제어부(210)에서 완성된 영상정보의 조합정보 이를테면 어느 특정 이미지를 지정시간동안 스크린에 디스플레이하는 장비로서 일 예로 LCD 프로젝터, PDP 프로젝터 등의 영상 투사기이다. 이러한 장비는 클라이언트 컴퓨터와 USB나 RS-232-C 등의 연결수단을 통해 연결되며 데이터를 프레임으로 처리한다.Lastly, the image output unit 230 is a device for displaying a combination of image information completed by the controller 210, for example, a specific image on a screen for a predetermined time, for example, an image projector such as an LCD projector or a PDP projector. These devices connect to client computers via USB or RS-232-C, and process the data into frames.

도 3은 본 발명에 따른 서버와 클라이언트, 그리고 영상 투사기로 이루어지는 네트워크 구성도이다.3 is a network diagram illustrating a server, a client, and an image projector according to the present invention.

도 3은 상기 도 1과 도 2의 서버(100)와 클라이언트(300a 내지 300n), 그리고 영상 투사기(350a 내지 350n)로 구성되고 이를 네트워크를 통하여 서버가 각 클라이언트를 제어하는 도면을 보여준다. 따라서, 서버는 각각의 클라이언트와 수시로 정보를 교환하여 현재의 작동중인 클라이언트의 수와 어떤 클라이언트가 끊어 졌는지 등을 알 수 있게 되고 중앙에서 통제가 가능해 지게 되다.3 is a diagram illustrating a server 100, clients 300a to 300n, and image projectors 350a to 350n of FIG. 1 and FIG. 2, in which a server controls each client through a network. Therefore, the server can exchange information with each client from time to time, so that the number of currently running clients and which clients are disconnected can be controlled centrally.

도 4는 사용자가 음향을 입력함에 따라, 서버가 이를 처리하는 과정을 보여주는 순서도이다.4 is a flowchart illustrating a process of processing a server as a user inputs a sound.

사용자가 마이크나 음향기기 등을 이용하여 음원을 입력하면(단계 S400), 서버의 음향 신호 처리부는 이를 전송받아 신호처리를 하게 된다(단계 S410). 신호처리에 따라, 신호 중의 일부특징들을 이를테면 음의 장단, 고저, 피치, 에너지, 비트 등을 추출하여 음향신호 정보로 만든다(단계 S420).When the user inputs a sound source using a microphone or an acoustic device (step S400), the sound signal processor of the server receives the signal and performs signal processing (step S410). According to the signal processing, some features of the signal, for example, the long and short, the high and low, the pitch, the energy, the beat, etc. of the sound are extracted and made into sound signal information (step S420).

음향신호로부터 그 특징을 추출해내는 방법에 관한 보다 상세한 내용은 "음악의 실시간 시각화 방법"(특허출원 제2000-0013428호)에 기술되어 있다.More details on how to extract the feature from the acoustic signal are described in "Method of Real-Time Visualization of Music" (Patent Application 2000-0013428).

도 5는 본 발명에 따른 서버와 클라이언트간의 데이터 전송과정과 데이터 처리과정을 보여주는 순서도이다.5 is a flowchart illustrating a data transmission process and a data processing process between a server and a client according to the present invention.

우선 본 발명이 네트워크 상으로 구현되기 위해서는 사용되는 모든 이미지파일을 서버 컴퓨터의 이미지 파일 저장부(150)에 저장해 둔다. 또한 각각의 클라이언트 컴퓨터의 이미지 파일 저장부(220)에도 동일한 이미지 파일을 저장한다.First, in order to implement the present invention on a network, all image files used are stored in the image file storage unit 150 of the server computer. The same image file is also stored in the image file storage unit 220 of each client computer.

여기서 클라이언트와 서버의 이미지 파일을 동일화하기 위해 동기화를 사용하거나 사용자가 직접 서버에서 클라이언트로 이미지 파일을 복사하여 저장할 수도 있다.Here, synchronization can be used to identify image files on the client and server, or users can copy and save image files directly from the server to the client.

이러한 방법으로 만일 사용자가 서버에 새로운 이미지 파일을 저장시켰을 경우(단계 S500), 이미지 파일을 각 클라이언트에 전송하기 위해 동기화를 실행한다(단계 S501). 이에 따라 각 클라이언트는 서버의 이미지 파일과 저장된 이미지 파일을 비교하고(단계 S502), 만일 이미지 파일에 차이가 있을 경우(단계 S503), 클라이언트는 서버에 이미지 파일을 전송 요청하게 된다(단계 S504).In this way, if the user has stored a new image file on the server (step S500), synchronization is performed to transfer the image file to each client (step S501). Accordingly, each client compares the image file of the server with the stored image file (step S502). If there is a difference in the image file (step S503), the client requests the server to transmit the image file (step S504).

여기서 동기화는 프로그램에 따라 일정시간 주기적으로 동기화할 수도 있고 사용자가 강제적으로 동기화를 실행할 수도 있다.In this case, the synchronization may be periodically performed according to a program, or the user may perform the synchronization forcibly.

전송요청을 받은 서버는 해당 이미지 파일을 클라이언트에 전송하며(단계 S505), 상기 이미지 파일을 전송받은 클라이언트는 이미지 파일을 하드 디스크에 저장한다(단계 S506).The server receiving the transfer request transmits the image file to the client (step S505), and the client receiving the image file stores the image file on the hard disk (step S506).

이렇게 모든 이미지 파일이 서버와 클라이언트 컴퓨터에서 동일화된 후, 사용자가 사용자 인터페이스부(130)를 통하여 배경영상을 설정하고(단계 S510), 각 클라이언트 컴퓨터의 디스플레이 영역에 대한 환경을 설정한다(단계 S511).After all the image files are identified in the server and the client computer, the user sets the background image through the user interface 130 (step S510), and sets the environment for the display area of each client computer (step S511). .

즉, 만약 A, B, C 3개의 클라이언트 컴퓨터가 있고 360도를 표현하고자 한다면 A는 0 ∼ 120도, B는 120 ∼ 240도, 그리고 C는 240 ∼ 360도를 표현하게 하고,만약 A를 -60 ∼ 60도로 하면 B는 60 ∼ 180도, C는 180 ∼ 300도가 되도록 디스플레이 영역을 할당한다. 그리고 이에 해당하는 각각의 클라이언트가 수행할 이미지 파일의 정보와 상기 도 4에서 생성된 음원의 특성을 합성하게 된다(단계 S512).In other words, if you have three client computers, A, B, and C, and you want to represent 360 degrees, let A represent 0 to 120 degrees, B to 120 to 240 degrees, and C to 240 to 360 degrees. If it is 60-60 degree, B will allocate a display area so that it may be 60-180 degree, and C may be 180-300 degree. Then, the information of the image file to be performed by each client corresponding thereto and the characteristics of the sound source generated in FIG. 4 are synthesized (step S512).

즉, 음원에 비트가 있으면 비트부분이 연주될 때, 이미지 파일 중에서 특정 이미지 파일을 어느 클라이언트가 일정시간 수행하는 것을 계산하여 영상의 변화에 대한 정보를 만들어 내는 것을 의미한다.In other words, when a beat part is played, it means that a client performs a certain time on a specific image file among the image files to generate information about the change of the image when the beat part is played.

서버는 각 클라이언트들이 자신에 할당된 처리할 이미지에 대한 상세 정보를 클라이언트에 전송한다(단계 S513). 이에 따라, 각 클라이언트 컴퓨터는 상기 데이터를 전송받게 된다.The server transmits detailed information about the image to be processed by each client to the client (step S513). Accordingly, each client computer receives the data.

그런데 이러한 데이터를 전송받는 중에 서버와 각 클라이언트를 연결하는 물리적인 케이블의 길이가 달라서 또는 다른 이유로 인하여 데이터의 도착시간이 어떤 경우에는 지연되게 된다. 따라서, 그 시간차가 누적되면 서버와 클라이언트간에 동기가 틀어지게 된다.However, during the transmission of the data, the arrival time of the data is delayed in some cases due to the different lengths of physical cables connecting the server and each client. Therefore, when the time difference accumulates, synchronization between the server and the client is lost.

이런 경우, 예를 들면 약 10초의 주기적 동기화 프레임을 삽입하여 이전에 수신한 데이터를 무시하고 동기 프레임을 최우선적으로 실행하도록 한다(단계 S521).In this case, for example, a periodic synchronization frame of about 10 seconds is inserted so as to ignore previously received data and to execute the synchronization frame firstly (step S521).

즉, 서버는 일정시간 마다 동기화 프레임을 보내게 되고 클라이언트는 동기화 프레임을 수신하면 이전에 수신된 데이터를 무시하고 동기화 프레임에 포함된 데이터를 처리한다. 예를 들어, 이전에 수신한 데이터에 따르면 물고기의 위치가 "a"라는 좌표에 있고, 동기화 프레임에 포함된 데이터에 따르면 물고기 위치가 "b"좌표에 있는 경우, "b"좌표에 물고기를 그리게 되는 것이다.That is, the server sends a synchronization frame every predetermined time, and when the client receives the synchronization frame, the server ignores the previously received data and processes the data included in the synchronization frame. For example, if the position of the fish is in the coordinate "a" according to previously received data and the position of the fish is in the coordinate "b" according to the data included in the synchronization frame, the fish is drawn in the "b" coordinate. Will be.

이와 같이 하면, 예를 들어 도 6에서와 같이 B스크린에 있던 물고기가 C스크린으로 진입할 때, 클라이언트(610)에서의 지연에 의해 B스크린에서의 물고기 이미지와 C스크린에서의 물고기 이미지가 부자연스럽게 연결되는 것을 방지할 수 있다.In this way, for example, when the fish on the screen B enters the screen C as shown in FIG. 6, the fish image on the screen B and the fish image on the screen C are unnatural due to the delay in the client 610. The connection can be prevented.

여기서, 데이터를 전송하기 위한 전송프로토콜은 UDP(User data protocol), TCP(Transmission control protocol) 등의 기존 프로토콜을 이용하여 서버가 모든 클라이언트에 동일한 데이터를 단 한번에 전송하여 모든 클라이언트가 데이터를 받을 수 있도록 멀티캐스트(Multicast)IP를 이용하게 된다.Here, the transmission protocol for transmitting data uses the existing protocols such as UDP (User data protocol) and TCP (Transmission control protocol) so that the server transmits the same data to all clients at once, so that all clients can receive the data. Multicast IP is used.

각 클라이언트 컴퓨터는 전송받은 데이터로부터 디스플레이할 화각, 즉 수평각과 수직각의 정보를 추출한다(단계 S530). 그리고, 배경영상과 음원특성에 따른 이미지를 합성한다. 이때, 상기 수평각과 수직각의 정보에 따라 자신이 디스플레이할 영역 바깥에 있는 이미지들은 클리핑하여 연산을 줄이게 된다(단계 531).Each client computer extracts information of an angle of view to be displayed, that is, a horizontal angle and a vertical angle, from the received data (step S530). Then, the background image and the image according to the sound source characteristics are synthesized. In this case, according to the information of the horizontal angle and the vertical angle, images outside the area to be displayed are clipped to reduce the operation (step 531).

이에 따라, 클라이언트 컴퓨터는 합성된 이미지를 영상 투사기가 연결된 영상 출력부로 전송한다(단계 532).Accordingly, the client computer transmits the synthesized image to the image output unit to which the image projector is connected (step 532).

상기 서버와 클라이언트 사이에 주고받는 데이터규정을 보면 아래와 같으며 주요 역할들은 우측 칸에 주석이 되어 있다.The data rules exchanged between the server and the client are as follows and the main roles are annotated in the right column.

<서버와 클라이언트간의 데이터 규정><Data specification between server and client>

// 송수신 프레임의 기본 프로토콜// basic protocol of transmission / reception frame

unsigned char sendcheckunsigned char sendcheck 송수신 루프에서 송신되어야 함을 알려줌Signals that it should be sent in a transmit / receive loop unsigned char recvcheckunsigned char recvcheck 송수신 루프에서 수신되었음을 알려줌Indicated that the transmission loop is received unsigned char readalreadyunsigned char readalready 수신시 더블 버퍼에서 데이터의 손실을 막아주는 정보Information to prevent data loss in double buffer when receiving

// 클라이언트 컨트롤// client control

unsigned char DiplayModeunsigned char DiplayMode 클라이언트의 디스플레이 화면을 풀 또는 윈도우즈드(windowsed)스크린으로의 결정Determination of the Client's Display Screen to Full or Windowsed Screen unsigned char IsBeatunsigned char IsBeat 현 프레임에 음악비트가 있는 지 여부Whether there is music beat in the current frame unsigned char BeatModeunsigned char BeatMode 비트가 검출되면 자동적으로 포그라운드나 백그라운드를 바꾸는 역할Automatically change foreground or background when a bit is detected unsigned char avimodeunsigned char avimode 백그라운드에 동영상을 텍스춰로의 사용여부Whether to use video as a texture in the background unsigned char FpsOnunsigned char FpsOn 디버그 모드에서 초당 디스플레이되는 프레임수를 표시Shows the number of frames displayed per second in debug mode unsigned char ClientAddr[13]unsigned char ClientAddr [13] 클라이언트의 IP 주소IP address of the client unsigned char HorDispunsigned char HorDisp 디스플레이할 화면에 대한 수평각(관찰자의 수평화각)The horizontal angle of the screen to be displayed (the horizontal angle of view of the observer) unsigned char VerDispunsigned char VerDisp 디스플레이할 화면에 대한 수직각(관찰자의 수직화각)Vertical angle to the screen to be displayed (viewer's vertical angle)

//백그라운드나 포그라운드에서 사용하는 에너지(energy)// energy used in the background or foreground

int energyint energy 1프레임 (256 samples/frame, 11㎑/sample) 에너지1 frame (256 samples / frame, 11㎑ / sample) energy

//포그라운드 인포메이션// foreground information

unsigned char selFrontAnimunsigned char selFrontAnim 포그라운드에 사용할 애니메이션Animation to use in the foreground unsigned short FSelTexunsigned short FSelTex 포그라운드 애니메이션에 사용할 텍스춰 종류Type of texture to use for foreground animation short Tab_Spectrum[TAB_S]short Tab_Spectrum [TAB_S] 로고(포그라운드의 한 종류) 애니메이션에 사용하는 각 주파수 대역의 스펙트럼 크기(현재는 8개 대역)Spectrum size (currently 8 bands) for each frequency band used for logo (a kind of foreground) animation short gxTshort gxT 원점기준의 x축 이동좌표X-axis moving coordinate of origin short gyTshort gyT 원점기준의 y축 이동좌표Y-axis moving coordinate of origin short gzTshort gzT 원점기준의 z축 이동좌표Z-axis moving coordinate of origin short gxRshort gxR 원점기준의 x축 회전좌표X-axis rotation coordinate of origin short gyRshort gyR 원점기준의 y축 회전좌표Y-axis rotation coordinate of origin short gzRshort gzR 원점기준의 z축 회전좌표Z-axis rotation coordinate of origin short rgblndexshort rgblndex 애니메이션 중 텍스춰를 사용하지 않을 경우의 컬러지정Specify color when not using texture during animation

//백그라운드 인포메이션// background information

unsigned short BselTexunsigned short BselTex 백그라운드 효과에 사용할 텍스춰 종류Type of texture to use for the background effect unsigned char selBackEffectunsigned char selBackEffect 백그라운드에 사용할 효과종류Type of effect to use for the background short Thetashort Theta 초기 회전 각Initial rotation angle

//특정 애니메이션 관련 데이터// specific animation related data

short Cepstrum[45]short Cepstrum [45] 피아노 애니메이션의 건반 추출에서 사용Use in keyboard extraction of piano animations short gxRdjshort gxRdj 피아노 애니메이션의 피아노 x 회전Piano x rotation of piano animation short gyRdjshort gyRdj 피아노 애니메이션의 피아노 y 회전Piano y rotation of piano animation short gzRdjshort gzRdj 피아노 애니메이션의 피아노 z 회전Piano z rotation of piano animation short gHandAngshort gHandAng 핸즈(hands) 애니메이션Hands animation short SphereModeshort SphereMode 스피어 모드 결정(텍스춰 고정)Determine Sphere Mode (Texture Fixed) short SideSphereModeshort SideSphereMode 스펙트럼 스피어 모드 결정Determining the Spectral Sphere Mode

상기 표는 추출된 음악특성에 따라 피아노 건반이 눌려지는 애니메이션인 피아노 애니메이션의 경우를 예로 든 것이다. 이외에도 다양한 애니메이션 효과를 줄수 있으며, 그에 따라 적절한 데이터 규정을 마련하면 된다.The above table is an example of the case of the piano animation which is an animation in which the piano keys are pressed according to the extracted music characteristics. In addition, various animation effects can be provided, and accordingly, an appropriate data regulation can be prepared.

도 6은 본 발명이 실제 공간상에서 구현되는 실시예를 보여주는 도면이다.6 is a view showing an embodiment in which the present invention is implemented in real space.

상기 화면은 3개의 영상투사기와 이에 해당하는 3개의 클라이언트로 180도의 화면을 구성하는 예를 보여주는 것으로 스크린(A, B, C)은 각각 다른 동영상을 보여준다.The screen shows an example of configuring a 180-degree screen with three image projectors and three corresponding clients. Screens A, B, and C show different moving images.

물론 상기에서 설명한 것처럼 스크린 A, B, C의 동영상 또는 배경 이미지를 담고 있는 이미지파일은 3개의 클라이언트에 각기 부분으로 나뉘어서 저장되는 것이 아니고 A, B, C를 포함하는 전체 이미지가 저장된다. 따라서, 서버에서 설정된 환경에 따라 각기 클라이언트들은 전체 이미지 중에서 담당 이미지 부분만을 추출하여 서로 다른 화면을 구성하게 된다.Of course, as described above, the image file containing the video or background image of the screen A, B, C is not divided into three parts and stored in each of the three clients, but the entire image including A, B, C is stored. Therefore, according to the environment set in the server, each client is configured to extract different parts of the entire image from the entire image.

즉, 제 1 영상 투사기(600)에 연결된 제 1 클라이언트는 스크린 A를 특정 수직각도와 수평각도, 여기서는 수평각을 60도로 하여 영상을 스크린에 투사하게 된다. 제 2 영상 투사기(610)에 연결된 제 2 클라이언트가 스크린 B를, 그리고 제 3 영상 투사기(620)에 연결된 제 3 클라이언트가 스크린 C를 디스플레이하면서 입체적으로 구성하는 것이 가능하다.That is, the first client connected to the first image projector 600 projects the image on the screen by setting the screen A to a specific vertical angle and horizontal angle, in this case, a horizontal angle of 60 degrees. It is possible to configure stereoscopically while the second client connected to the second image projector 610 displays the screen B and the third client connected to the third image projector 620 displays the screen C. FIG.

이에 따라, 물고기들이 음악에 맞추어서 A 내지 C스크린 상에서 유영하는 모습을 표현할 수 있게 된다.Accordingly, it is possible to express the fish swimming on the A-C screen in accordance with the music.

이상, 본 발명을 도면과 실시예를 가지고 설명하였으나, 본 발명은 특정 실시 예에 한정되지는 않으며, 이 기술분야에서 통상의 지식을 가진 자라면, 본 발명의 범위에서 벗어나지 않으면서 많은 수정과 변형이 가능함을 이해할 것이다.As mentioned above, although this invention was demonstrated with drawing and Example, this invention is not limited to a specific Example, The person of ordinary skill in the art, many corrections and a change without departing from the scope of this invention. I will understand this possible.

또한, 본 발명의 보호범위는 첨부된 특허 청구범위에 의해 정해져야 할 것이다.In addition, the protection scope of the present invention will be defined by the appended claims.

본 발명에 따르면, 여러 대의 클라이언트를 배치하여 화각에 따라 영상 투사기를 조종함으로써 저렴하고 또한 용이하게 광각의 스크린에 음향에 반응하는 영상을 디스플레이하는 효과가 있다.According to the present invention, by arranging a plurality of clients to control the image projector according to the angle of view, it is inexpensive and easy to display an image responsive to sound on a wide-angle screen.

또한, 서버와 클라이언트를 통하여 네트워크를 구성함으로써 서버에서의 중앙통제가 용이하게 이루어지는 효과가 있다.In addition, by configuring the network through the server and the client has the effect that the central control in the server can be easily.

Claims (10)

사용자가 영상 이미지 파일을 서버 컴퓨터와 클라이언트 컴퓨터에 저장하고, 배경영상, 애니메이션 효과의 종류, 각 클라이언트 컴퓨터가 담당할 영역 등의 환경설정을 하는 제 1 단계;A first step in which the user stores the video image file on the server computer and the client computer, and sets environment settings such as a background image, an animation effect type, and an area to be in charge of each client computer; 상기 서버가 입력되는 음원의 특성에 따라 상기 애니메이션 효과에 따른 영상의 변화를 계산하여 상세정보를 생성하고 이에 관한 데이터를 모든 클라이언트 컴퓨터에 전송하되, 일정시간마다 동기화 프레임을 전송하는 제 2 단계;A second step of generating detailed information by calculating the change of the image according to the animation effect according to the characteristics of the sound source inputted by the server and transmitting data related thereto to all client computers, and transmitting a synchronization frame every predetermined time; 상기 서버로부터 전송받은 상기 데이터에 따라, 각 클라이언트가 상기 영상 이미지 파일과 서버로부터의 상세정보에 따른 이미지를 합성하여, 상기 설정된 자신의 영역에 해당하는 영상을 영상투사기로 전송하되, 전송받은 데이터가 동기화 프레임인 경우에는 이전에 수신된 데이터를 무시하고 동기화 프레임에 포함된 데이터를 처리하는 제 3 단계According to the data received from the server, each client synthesizes the image according to the image image file and the detailed information from the server, and transmits the image corresponding to the set area of the client to the image projector, the received data In the case of a synchronization frame, the third step of disregarding previously received data and processing data included in the synchronization frame 를 포함하여 이루어지는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법.A method of implementing a panoramic image using a server and a client comprising a. 제 1 항에 있어서,The method of claim 1, 각 클라이언트 컴퓨터마다 영상 투사기가 1 대 연결됨을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법.A method of implementing a panoramic image using a server and a client, characterized in that one image projector is connected to each client computer. 제 1 항에 있어서,The method of claim 1, 상기 제 1 단계에서 서버 컴퓨터에 영상 이미지 파일을 저장하면, 서버 컴퓨터에서 이를 각 클라이언트 컴퓨터로 전송하는 것을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법.And storing the image image file in the server computer in the first step, and transmitting the image image file to the client computer. 제 1 항에 있어서,The method of claim 1, 상기 제 1 단계의 각 클라이언트 컴퓨터가 담당할 영역의 환경설정은 각 클라이언트별로 디스플레이할 수평각과 수직각의 화각으로 이루어지는 디스플레이영역을 할당하는 것임을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법.The configuration of the area to be in charge of each client computer in the first step is to allocate a display area having a horizontal angle and a vertical angle of view to be displayed for each client. Way. 제 1 항에 있어서,The method of claim 1, 상기 제 2 단계의 음원은 마이크를 통해 입력되는 소리임을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 방법.And the sound source of the second step is a sound input through a microphone. 삭제delete 음향을 입력받는 음향 입력부,A sound input unit for receiving sound; 상기 음향 입력부로부터의 음향신호의 특징을 추출해내는 음향신호 처리부,An audio signal processing unit for extracting a feature of an audio signal from the sound input unit; 사용자의 입력을 받기 위한 사용자 인터페이스부,A user interface unit for receiving input from a user, 음향신호 처리부에서 추출된 음향신호에 따라 애니메이션 효과에 따른 영상의 변화를 계산하여 상세정보를 추출하고, 일정시간마다 동기화 프레임을 생성하는 제어부,A controller for extracting detailed information by calculating a change in an image according to an animation effect according to the sound signal extracted by the sound signal processor, and generating a synchronization frame at a predetermined time; 이미지를 저장하는 이미지 파일 저장부,Image file storage for storing images, 상기 상세정보와 동기화 프레임을 클라이언트로 전송하기 위한 네트워크 인터페이스부로 이루어진 서버와,A server comprising a network interface unit for transmitting the detailed information and a synchronization frame to a client; 상기 서버로부터 수신한 상세정보를 이용하여 이미지를 합성하여 영상출력부로 출력하되, 동기화 프레임이 수신된 경우에는 이전에 수신한 데이터를 무시하고 동기화 프레임에 포함된 데이터를 처리하는 제어부,A control unit for synthesizing an image using the detailed information received from the server and outputting the synthesized image to an image output unit, in case a synchronization frame is received, ignoring previously received data and processing data included in the synchronization frame; 이미지를 저장하는 이미지 파일 저장부,Image file storage for storing images, 네트워크상에 연결된 서버와 정보를 주고받기 위한 네트워크 인터페이스부,A network interface unit for exchanging information with a server connected to a network, 이미지를 전송하기 위한 영상출력부로 이루어진 하나 또는 그 이상의 클라이언트와,One or more clients comprising an image output unit for transmitting an image, 상기 클라이언트의 영상출력부와 연결되어 영상 이미지를 화면을 투사하는 하나 또는 그 이상의 영상 투사기One or more image projectors connected to the image output unit of the client to project the image image on the screen. 를 포함하여 이루어지는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 시스템.A system for implementing a panoramic image using a server and a client comprising a. 제 7 항에 있어서,The method of claim 7, wherein 각 클라이언트 컴퓨터마다 영상 투사기가 1 대 연결됨을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 시스템.A system for implementing a panoramic image using a server and a client, characterized in that one image projector is connected to each client computer. 제 7 항에 있어서,The method of claim 7, wherein 상기 음향 입력부는 음향을 직접 입력받는 마이크 또는 음향기기로부터의 전기신호를 직접 입력받는 입력수단 중의 어느 하나 또는 그 이상을 포함하는 것을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 시스템.And the sound input unit comprises any one or more of a microphone for directly receiving sound or an input means for directly receiving an electric signal from an acoustic device. 제 7 항에 있어서,The method of claim 7, wherein 상기 사용자 인터페이스는 키보드, 마우스, 터치스크린 중의 어느 하나 또는 그 이상을 포함하는 것을 특징으로 하는 서버와 클라이언트를 이용하여 파노라마식 영상을 구현하는 시스템.And the user interface includes any one or more of a keyboard, a mouse, and a touch screen.
KR10-2000-0082685A 2000-12-27 2000-12-27 Method and system for displaying panoramic videos using server-client configuration KR100413162B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0082685A KR100413162B1 (en) 2000-12-27 2000-12-27 Method and system for displaying panoramic videos using server-client configuration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0082685A KR100413162B1 (en) 2000-12-27 2000-12-27 Method and system for displaying panoramic videos using server-client configuration

Publications (2)

Publication Number Publication Date
KR20020054062A KR20020054062A (en) 2002-07-06
KR100413162B1 true KR100413162B1 (en) 2003-12-31

Family

ID=27686504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0082685A KR100413162B1 (en) 2000-12-27 2000-12-27 Method and system for displaying panoramic videos using server-client configuration

Country Status (1)

Country Link
KR (1) KR100413162B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095084A (en) * 2016-06-06 2016-11-09 乐视控股(北京)有限公司 Throw screen method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970007676A (en) * 1995-07-12 1997-02-21 이데이 노부유키 A three-dimensional virtual reality space sharing method, a three-dimensional virtual reality space sharing system, an information recording medium, an information recording method, an information transmission medium, an information transmission method, an information processing method,
KR200200290Y1 (en) * 2000-02-11 2000-10-16 최두일 Real-time music visualization apparatus
KR20000072269A (en) * 2000-08-24 2000-12-05 김웅순 An Obtain and Display Method of Panorama Moving Picture having High Resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970007676A (en) * 1995-07-12 1997-02-21 이데이 노부유키 A three-dimensional virtual reality space sharing method, a three-dimensional virtual reality space sharing system, an information recording medium, an information recording method, an information transmission medium, an information transmission method, an information processing method,
KR200200290Y1 (en) * 2000-02-11 2000-10-16 최두일 Real-time music visualization apparatus
KR20000072269A (en) * 2000-08-24 2000-12-05 김웅순 An Obtain and Display Method of Panorama Moving Picture having High Resolution

Also Published As

Publication number Publication date
KR20020054062A (en) 2002-07-06

Similar Documents

Publication Publication Date Title
US10602121B2 (en) Method, system and apparatus for capture-based immersive telepresence in virtual environment
US20210001216A1 (en) Method and device for generating video frames
CN109644294B (en) Live broadcast sharing method, related equipment and system
WO2019026765A1 (en) Rendering device, head-mounted display, image transmission method, and image correction method
CN112205005A (en) Adapting acoustic rendering to image-based objects
US20160217615A1 (en) Method and System for Implementing a Multi-User Virtual Environment
US20020154145A1 (en) Arrangement and method for spatial visualization
US10359988B2 (en) Shared experience of virtual environments
JP2013099511A (en) Rendering system, rendering server, control method thereof, program, and recording medium
TWI629086B (en) Dynamic adjustment of cloud game data streams to output device and network quality
JP2016013172A (en) Game system
US11676330B2 (en) 3d conversations in an artificial reality environment
US20200125312A1 (en) Image generating apparatus and image generating method
WO2023143217A1 (en) Special effect prop display method, apparatus, device, and storage medium
CN107846584B (en) The adaptive desktop synchronized projection method of virtual reality based on scene management development library
WO2009078909A1 (en) Virtual object rendering system and method
WO2020129115A1 (en) Information processing system, information processing method and computer program
JP3610423B2 (en) Video display system and method for improving its presence
KR100413162B1 (en) Method and system for displaying panoramic videos using server-client configuration
CN112565883A (en) Video rendering processing system and computer equipment for virtual reality scene
JP2022188335A (en) Avatar output device, terminal device, avatar output method and program
JP2005094271A (en) Virtual space sound reproducing program and device
Isakovic et al. X-rooms
JP2004310470A (en) System for deciding and combining eye-gaze position and computer-executable program
CN112423014A (en) Remote review method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111209

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20121217

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee