KR101621496B1 - System and method of replaying presentation using touch event information - Google Patents
System and method of replaying presentation using touch event information Download PDFInfo
- Publication number
- KR101621496B1 KR101621496B1 KR1020130014565A KR20130014565A KR101621496B1 KR 101621496 B1 KR101621496 B1 KR 101621496B1 KR 1020130014565 A KR1020130014565 A KR 1020130014565A KR 20130014565 A KR20130014565 A KR 20130014565A KR 101621496 B1 KR101621496 B1 KR 101621496B1
- Authority
- KR
- South Korea
- Prior art keywords
- terminal
- touch event
- lecture
- client terminal
- event information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Abstract
본 발명은 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것으로서, 더욱 상세하게는, 강의자 단말기와 클라이언트 단말기가 서로 발표자료를 공유하되, 강의자에 의한 터치이벤트가 발생하면 터치이벤트에 대응하는 화면출력을 수행하는 동시에 터치이벤트에 대한 터치이벤트정보를 클라이언트 단말기로 전송하고, 클라이언트 단말기는 전송된 터치이벤트정보에 대응하는 화면출력을 수행함으로써, 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있는 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것이다.
본 발명에 의하면, 터치이벤트정보를 이용함으로써 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있다.The present invention relates to a system and method for reproducing presentation data using touch event information. More particularly, the present invention relates to a system and method for reproducing presentation data using touch event information. More specifically, And simultaneously transmits touch event information for a touch event to the client terminal. The client terminal performs a screen output corresponding to the transmitted touch event information, thereby reducing the burden on the network. In addition, in the slow network environment, The present invention relates to a presentation data reproducing system and method using touch event information capable of reproducing an image.
According to the present invention, it is possible to reduce the network load by using the touch event information, and reproduce presentation data or lecture images even in a slow network environment.
Description
본 발명은 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것으로서, 더욱 상세하게는, 강의자 단말기와 클라이언트 단말기가 서로 발표자료를 공유하되, 강의자에 의한 터치이벤트가 발생하면 터치이벤트에 대응하는 화면출력을 수행하는 동시에 터치이벤트에 대한 터치이벤트정보를 클라이언트 단말기로 전송하고, 클라이언트 단말기는 전송된 터치이벤트정보에 대응하는 화면출력을 수행함으로써, 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있는 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for reproducing presentation data using touch event information. More particularly, the present invention relates to a system and method for reproducing presentation data using touch event information. More specifically, And simultaneously transmits touch event information for a touch event to the client terminal. The client terminal performs a screen output corresponding to the transmitted touch event information, thereby reducing the burden on the network. In addition, in the slow network environment, The present invention relates to a presentation data reproducing system and method using touch event information capable of reproducing an image.
기본적으로 동영상 파일은 용량이 큰 편이다. 스마트폰의 보급이 확산되고 이동통신기술도 계속 발전하고 있지만 아직까지도 고화질의 동영상파일을 주고받기에는 무리가 있다. By default, video files are large. Although the spread of smart phones is spreading and mobile communication technology is continuing to develop, it is still difficult to send high quality video files.
특히 학교 수업 이후에 스마트폰으로 들었던 수업을 다시 듣고자 할 때 큰 용량 때문에 제한되는 부분이 많다. 수업뿐만 아니라 동영상을 전송하거나 받는 과정에서도 큰 용량 때문에 제한되는 부분이 많다. Especially, when I want to listen to the class that I used to listen to on my smartphone after school class, there are a lot of limitations due to large capacity. Not only in class, but also in the process of sending or receiving videos, there are many restrictions due to the large capacity.
따라서 작은 용량으로도 발표자료나 강의 영상을 재현함으로써 무리 없이 영상을 볼 수 있도록 하는 기술이 필요하다.Therefore, there is a need for a technique to reproduce presentation data or lecture images even with a small capacity so that the image can be seen without difficulty.
본 발명이 해결하고자 하는 과제는, 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있는 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법을 제공하는 데 있다.A problem to be solved by the present invention is to provide a system and method for reproducing presentation data using touch event information that can reproduce presentation data or lecture images even in a slow network environment while reducing network burden.
상기한 과제를 해결하기 위해 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법은, (a) 터치 입력이 가능한 강의자 단말기가 각 페이지별로 텍스트와 이미지를 포함하는 발표자료를 클라이언트 단말기와 공유하는 단계; (b) 강의자 단말기와 클라이언트 단말기가 발표자료를 화면으로 출력하는 단계; (c) 발표 개시가 입력되면, 강의자 단말기가 강의자 음성을 녹음하는 동시에 페이지 이동이나 필기와 관련된 터치이벤트들을 수집하는 단계; (d) 터치이벤트가 감지되면, 강의자 단말기는 감지된 터치이벤트에 대응하는 화면 출력을 수행하되, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 클라이언트 단말기로 전송하는 단계; 및 (e) 클라이언트 단말기가 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above problems, a method for reproducing presentation data using touch event information according to the present invention includes the steps of (a) sharing a presentation data including text and images for each page with a client terminal, ; (b) outputting presentation data to the lecture terminal and the client terminal on a screen; (c) when the presentation start is input, collecting touch events related to page movement or handwriting while the lecture terminal records the lecture voice; (d) When the touch event is detected, the lecture terminal performs screen output corresponding to the sensed touch event, generates touch event information including the touch input time, the type of touch event, and the content of the touch event, ; And (e) performing a screen output corresponding to the touch event information received by the client terminal.
바람직하게는, 제1항에 있어서, 발표자료 재현 방법은, (f) 발표 종료가 입력되면, 강의자 단말기는 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성하는 단계를 더 포함하고, 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 녹음 파일과 터치이벤트정보가 동기화된 파일일 수 있다.Preferably, the method for reproducing the presentation data according to claim 1, wherein: (f) when the end of the presentation is input, the lecture terminal includes a collection event file including each touch event information, a recording file recording the lecturer's voice, The reproduced file may be a file in which the voice of the lecturer is output and the presentation data is changed in accordance with the touch event information and the recorded file and the touch event information are synchronized with each other.
또한 상기한 과제를 해결하기 위해 본 발명에 따른 터치이벤트정보를 이용한 발표자료 시스템은, 터치 입력이 가능한 강의자 단말기 및 강의자 단말기와 네트워크로 연결된 클라이언트 단말기를 포함하는 발표자료 재현 시스템으로서, 강의자 단말기는, 발표자료를 화면으로 출력하되, 페이지 이동이나 필기와 관련된 강의자의 터치이벤트가 감지되면 감지된 터치이벤트에 대응하는 화면 출력을 수행하고, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 클라이언트 단말기로 전송하는 발표자료 처리부; 및 강의자의 음성을 녹음하여 녹음 파일을 생성하는 녹음부를 포함하고, 클라이언트 단말기는, 발표자료를 화면으로 출력하되, 터치이벤트정보를 수신하면 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a presentation data system using touch event information, comprising: a lecture terminal capable of touch input; and a client terminal connected to the lecture terminal through a network, And outputs a presentation material to a screen. When a touch event of a lecturer related to page movement or handwriting is detected, a screen output corresponding to the sensed touch event is performed, and a touch including touch input time, touch event type, A presentation data processing unit for generating event information and transmitting the generated event information to the client terminal; And a recording unit for recording a voice of the lecturer and generating a recording file. The client terminal outputs the presentation data to the screen, and upon receiving the touch event information, performs a screen output corresponding to the received touch event information .
바람직하게는, 강의자 단말기는, 각 터치이벤트정보를 포함하는 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성하는 재현파일 생성부를 더 포함하고, 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 녹음 파일과 터치이벤트정보가 동기화된 파일일 수 있다.Preferably, the lecture terminal further comprises a reproduction file generating section for generating a collection event file including each touch event information, a recording file recording a lecturer's voice, and a reproduction file containing presentation data, The lecturer's voice may be outputted and the presentation data may be changed in accordance with the touch event information and the recorded file and the touch event information may be synchronized to be output.
한편, 상기한 목적을 달성하기 위해서 본 발명은 터치이벤트정보를 이용한 발표자료 재현 방법을 실현시키기 위한 프로그램을 구현한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.According to another aspect of the present invention, there is provided a computer readable recording medium embodying a program for realizing a presentation data reproducing method using touch event information.
본 발명에 의하면, 영상을 스트리밍 방식으로 전송하는 것이 아니라 용량이 작은 터치이벤트정보를 전송함으로써 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있다.According to the present invention, it is possible to reproduce presentation data or lecture images even in a slow network environment, while reducing the burden on the network by transmitting touch event information having a small capacity instead of transmitting the images in a streaming manner.
도 1은 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법을 예시한 도면.
도 2는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템을 나타낸 블록도.
도 3은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템을 예시한 도면.
도 4는 재현파일을 예시한 도면.
도 5는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도.
도 6은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도.1 is a view illustrating a system and method for reproducing presentation data using touch event information according to the present invention.
2 is a block diagram illustrating a presentation data reproducing system using touch event information according to the present invention.
3 is a view illustrating a presentation data reproducing system using touch event information according to another embodiment of the present invention.
FIG. 4 illustrates a reproduction file. FIG.
5 is a flowchart illustrating a method of reproducing presentation data using touch event information according to the present invention.
6 is a flowchart illustrating a method of reproducing presentation data using touch event information according to another embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprising" or "having ", and the like, are intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted as ideal or overly formal in meaning unless explicitly defined in the present application Do not.
이하에서 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법을 예시한 도면이다.1 is a diagram illustrating a presentation data reproducing system and method using touch event information according to the present invention.
본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법은 발표자료를 발표하는 강의자가 사용하는 강의자 단말기 및 강의자 단말기와 네트워크로 연결된 클라이언트 단말기를 포함하여 구성된다.The presentation data reproducing system and method using touch event information according to the present invention comprises a lecture terminal and a lecture terminal used by a lecturer to present a presentation data and a client terminal connected to a network.
발표자료란 강의자가 발표나 강의를 하는데 이용하는 자료로서, 각 페이지별로 텍스트와 이미지를 포함하는 자료이다. 이러한 발표자료는 일반적으로 널리 이용되는 파워포인트용 파일이나 PDF 파일 등의 발표용 파일을 의미한다. Presentations are materials used by lecturers to present or teach lectures, including text and images on each page. These presentations are commonly used files for presentation such as PowerPoint files or PDF files.
강의자 단말기(110)는 터치 입력 및 화면 출력이 가능한 터치스크린을 가진 단말기로서, 발표에 사용되는 발표자료를 자신의 스크린 화면에 출력하고, 그와 동시에 강의자가 화면을 터치함으로써 발표자료의 페이지 이동이나 발표자료의 내용에 필기 등의 표시를 하는 동작을 수행한다. 이를 위해 강의자 단말기(110)는 발표자료를 화면에 출력하는 동시에, 화면에 대한 터치 입력이 감지되면 감지된 각 터치이벤트에 대응하는 화면 출력을 수행하고, 각 터치이벤트에 대한 터치이벤트정보를 클라이언트 단말기(120_1~120_n)로 전송한다.The
클라이언트 단말기(120_1~120_n)는 강의자 단말기(110)와 네트워크를 통해 연결된 단말기로서, 강의자 단말기(110)에서 출력되는 발표자료와 동일한 발표자료를 저장부에 미리 저장하고 있으며, 저장하고 있는 발표자료를 자신의 화면에 출력한다. 그리고 강의자 단말기(110)로부터 터치이벤트정보가 수신되면, 클라이언트 단말기(120_1~120_n)는 수신한 터치이벤트정보를 분석하여 그에 대응하는 화면 출력을 수행한다.The client terminals 120_1 to 120_n are terminals connected to the
강의자 단말기(110)는 클라이언트 단말기(120_1~120_n)로 터치이벤트에 대한 정보를 전송하고 클라이언트 단말기(120_1~120_n)는 수신한 터치이벤트정보에 대응하여 화면 출력을 변경시킴으로써, 강의자 단말기(110)와 클라이언트 단말기(120_1~120_n)에서는 네트워크 속도로 인한 약간의 시간차를 두고 동일 또는 유사한 화면이 출력된다. The
본 발명에서 강의자 단말기(110)는 터치 입력 및 영상 출력이 가능한 단말기로서, 태블릿 컴퓨터, 노트북 컴퓨터, 및 스마트폰 등 영상을 출력하고 터치 입력이 가능한 단말기이면 어떠한 단말기가 이용되어도 상관없다.In the present invention, the
또한 클라이언트 단말기(120_1~120_n)는 데스크탑 컴퓨터, 태블릿 컴퓨터, 노트북 컴퓨터, 스마트폰, 컴퓨터와 연결된 프로젝터나 텔레비젼 등 화면으로 발표자료를 출력하고 네트워크를 통해 강의자 단말기(110)로부터 터치이벤트정보를 수신할 수 있는 단말기이면 어떠한 단말기가 이용되어도 상관없다. Also, the client terminals 120_1 to 120_n may output presentation data on a screen such as a desktop computer, a tablet computer, a notebook computer, a smart phone, a projector or a television connected to the computer, and receive touch event information from the
본 발명은 강의자를 촬영한 영상이나 강의자 단말기(110)의 화면에서 출력되는 영상을 스캔하여 각 클라이언트 단말기(120_1~120_n)로 스트리밍 방식으로 전송하는 방식을 이용하는 것이 아니라 강의자 단말기(110)에서 감지된 각 터치이벤트에 대한 터치이벤트정보를 각 클라이언트 단말기(120_1~120_n)로 전송함으로써 강의자 단말기(110)와 각 클라이언트 단말기(120_1~120_n)가 동일 또는 유사한 내용을 화면에 출력될 수 있도록 한다. 터치이벤트정보를 전송하여 강의자 단말기(110)와 각 클라이언트 단말기(120_1~120_n)의 화면에 동일 또는 유사한 내용을 출력하게 함으로써, 스트리밍 방식과 비교하여 네트워크 부담을 줄여주며 저속의 네트워크 환경에서도 무리 없이 동작할 수 있다.The present invention does not use a method of scanning a video image of a lecturer or an image output from a screen of the lecturer's
도 2는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템의 블록도이다.2 is a block diagram of a presentation data reproducing system using touch event information according to the present invention.
본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템(100)은 강의자 단말기(110)와 클라이언트 단말기(120)를 포함한다. The presentation
도 1에서 복수 개의 클라이언트 단말기(120_1~120_n)가 도시되었지만, 도 2에서는 설명의 편의를 위해 하나의 클라이언트 단말기(120)를 기준으로 설명하도록 한다.In FIG. 1, a plurality of client terminals 120_1 to 120 - n are illustrated. In FIG. 2, one
강의자 단말기(110)는 터치스크린(111), 접속부(112), 발표자료 처리부(113), 저장부(114), 녹음부(115), 재현파일 생성부(116), 및 타이머(117)를 포함한다.The
터치스크린(111)은 저장부(114)에 저장되어 있는 발표자료를 화면으로 출력하고, 강의자로부터 화면 터치를 입력받는 역할을 수행한다.The
접속부(112)는 클라이언트 단말기(120)와 네트워크를 통해 통신 연결하는 구성요소로서, 발표자료의 공유 여부를 확인하는 역할도 수행할 수 있다.The connection unit 112 is a component for communicating with the
클라이언트 단말기(120)는 강의자 단말기(110)나 후술할 관리서버(130)로부터 발표자료를 미리 다운로드하여 보관한다. 강의자 단말기(110)와 클라이언트 단말기(120)가 상호 간에 통신 연결되면, 접속부(112)는 클라이언트 단말기(120)와 강의자 단말기(110)에 동일한 발표자료가 존재하는지 여부를 확인한다. The
만일 클라이언트 단말기(120)에 발표자료가 존재하지 않으면, 접속부(112)가클라이언트 단말기(120)로 발표자료를 자동으로 전송하거나, 클라이언트 단말기(120)의 접속부(121)가 강의자 단말기(110)나 후술할 관리서버(130)로부터 발표자료를 자동으로 다운로드한다. 한편, 발표자료를 가지고 있지 않는 단말기(110, 120) 측으로 공유하고자 하는 발표자료의 파일명 및 파일 위치를 알려주고 이를 다운로드하라는 메시지를 전송하는 방식으로 발표자료의 공유를 구현할 수도 있다. If the presentation data does not exist in the
발표자료 처리부(113)는 발표자료를 화면으로 출력하도록 제어하고, 페이지 이동이나 필기와 관련된 강의자의 터치이벤트가 감지되면 감지된 각 터치이벤트에 대응하는 화면 출력을 수행한다. The presentation
발표자료 처리부(113)는 강의자의 터치 입력을 분석하여, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하고, 생성한 터치이벤트정보를 클라이언트 단말기(120)로 전송하는 터치이벤트 생성부(1131)를 포함한다.The presentation
터치이벤트란 사용자의 터치 제스쳐에 대응하는 이벤트로서, 각 터치 제스쳐에 대응하여 발표의 개시나 종료, 페이지 이동, 클릭, 더블클릭, 드래그, 스크롤링, 다양한 기능버튼 클릭, 필기, 가상키보드 호출, 가상키보드에서의 타이핑 등 구현될 수 있는 다양한 동작을 수행하는 이벤트를 의미한다. 한편 필기란 발표자료에 포함된 텍스트나 이미지 위에 덧붙여서 글자를 쓰거나, 그림을 그리거나, 선, 도형, 또는 기호를 그리는 등의 입력행위를 의미한다.A touch event is an event corresponding to a touch gesture of a user. The event corresponds to each touch gesture. The touch event includes a start, an end, a page movement, a click, a double click, a drag, a scrolling, ≪ / RTI > < RTI ID = 0.0 > and / or < / RTI > On the other hand, handwriting refers to input actions such as writing letters, painting, drawing lines, figures, or symbols in addition to the text or images contained in the presentation.
강의자는 터치스크린(111)에서 다양한 터치 제스쳐를 수행함으로써, 발표자료의 페이지를 넘기고, 발표자료에 글자나 그림을 그리는 등의 필기를 수행할 수 있다.The lecturer can perform various types of touch gestures on the
한편, 터치이벤트는 특정 웹페이지에 접속하거나 또는 로컬이나 웹상에 존재하는 특정 이미지를 삽입하도록 지시하는 이벤트일 수도 있다. 이러한 경우 발표자료 처리부(113)는 특정 웹페이지를 지시하거나 특정 이미지의 위치를 지시하는 링크정보를 더 포함하는 터치이벤트정보를 생성한다. 터치이벤트정보에 더 링크정보가 포함되어 클라이언트 단말기(120)로 전송됨으로써, 클라이언트 단말기(120)는 링크정보로 참조되는 웹페이지를 자신의 웹브라우저 창에 출력하거나 링크정보로 참조되는 이미지를 발표자료 위에 오버래핑하여 출력할 수 있다.Meanwhile, the touch event may be an event that connects to a specific web page, or instructs to insert a specific image existing locally or on the web. In this case, the presentation
한편 터치이벤트는 강의자 단말기(110)에만 출력되는 이벤트 및 강의자 단말기(110)와 클라이언트 단말기(120)에 모두 출력되는 이벤트로 구분될 수 있다. 강의자가 보는 화면과 강의자 외의 다른 사람이 보는 화면을 달리해서 보여주거나 서로 공유하고 싶은 부분만 보여주도록 구현할 필요성도 있기 때문이다.Meanwhile, the touch event may be classified into an event output only to the
이를 위해 발표자료 처리부(113)는 강의자 단말기(110)에만 출력되는 이벤트 및 강의자 단말기(110)와 클라이언트 단말기(120)에 모두 출력되는 이벤트를 각각 구별하여 처리하는 분리 처리부(1132)를 더 포함할 수 있다. The presentation
분리 처리부(1132)는 강의자의 터치 제스쳐에 따른 터치이벤트를 분석하고, 터치이벤트가 강의자 단말기(110)에만 출력되는 이벤트인 경우 터치이벤트에 대응하는 화면 출력만을 수행하고 터치이벤트정보를 생성하지 않는다. 만일 터치이벤트가 강의자 단말기(110)와 클라이언트 단말기(120)에 모두 출력되는 이벤트인 경우, 분리 처리부(1132)는 터치이벤트에 대응하는 화면 출력을 수행하는 동시에 터치이벤트정보를 생성하고, 생성한 터치이벤트정보를 클라이언트 단말기(120)로 전송한다.The
저장부(114)는 발표자료를 저장하며, 후술할 재현파일이 생성되면 생성된 재현파일도 함께 저장하는 역할을 수행한다.The storage unit 114 stores the presentation data and also stores the generated reproduction file when the reproduction file to be described later is generated.
녹음부(115)는 강의자의 음성을 녹음하여 녹음 파일을 생성하는 역할을 수행한다.The
한편 발표자료 처리부(113)는 터치스크린(111)을 통해 강의자로부터 발표 개시를 입력받을 수 있다. 발표 개시가 입력된 순간부터 터치이벤트 생성부(1131)는 터치이벤트정보의 생성을 시작하고, 발표 개시가 입력된 순간부터 녹음부(115)는 강의자의 음성을 녹음하는 것을 시작할 수 있다. On the other hand, the presentation
재현파일 생성부(116)는 각 터치이벤트정보를 포함하는 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성한다.The reproduction
재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 녹음 파일과 터치이벤트정보가 동기화된 파일이다. The reproduction file is a file in which the voice of the lecturer is output and the presentation data is changed in accordance with the touch event information and the recording file and the touch event information are synchronized.
재현파일 생성부(116)는 타이머(117)를 참조하여 터치이벤트정보를 구성하는 터치이벤트의 입력 시간을 모두 기록한다.The reproduction
한편, 원격 회의나 원격 강의에서처럼 강의자와 강의를 듣는 사람이 서로 격리되어 있을 수 있다. 이러한 경우 강의자 단말기(110)는 강의자의 음성을 녹음하는 동시에 녹음한 음성을 스트리밍 방식으로 클라이언트 단말기(120)로 전송해야 한다. 이를 위해 원격 강의나 원격 회의의 경우, 강의자 단말기(110)의 녹음부(115)는 녹음된 강의자의 음성을 스트리밍 방식으로 클라이언트 단말기(120)로 전송할 수 있다. 클라이언트 단말기(120)는 수신한 강의자의 음성을 후술할 스피커(124)를 통해 출력할 수 있다. On the other hand, lecturers and lecturers may be isolated from each other as in teleconferences or remote lectures. In this case, the
도 4는 재현파일을 예시한 도면이다.4 is a diagram illustrating a reproduction file.
도 4름 참조하면, 재현파일은 발표자료(10), 수집이벤트 파일(20), 강의자의 음성을 녹음한 녹음 파일(30)을 포함한다.Referring to FIG. 4, the reproduction file includes a
클라이언트 단말기(120)는 강의자의 음성을 녹음한 녹음 파일(30)을 스피커로 출력하는 동시에 시간의 흐름에 따라 수집이벤트 파일(20)에 포함된 각 터치이벤트정보(20_1~20_n)에 따라 발표자료를 변경하며 출력한다. 수집이벤트 파일의 각 터치이벤트정보에는 터치 입력 시간이 포함되어 있으므로, 클라이언트 단말기(120)는 수집이벤트 파일과 녹음 파일을 동기화하여 출력할 수 있다.The
전술한 것처럼 발표자료(10)는 파워포인트용 파일이나 PDF 파일 등의 발표용 파일을 의미하며, 각 페이지(10_1~10_n)별로 텍스트(11_1~11_n)와 이미지(12_1~12_n)를 포함한다. As described above, the
수집이벤트 파일(20)은 강의자의 터치 입력에 의해 생성된 각각의 터치이벤트정보를 모아놓은 파일을 의미하며, 각 터치이벤트정보(20_1~20_n)는 터치 입력 시간(21_1~21_n), 터치이벤트 종류(22_1~22_n), 및 터치이벤트 내용(23_1~23_n)을 포함한다.Each of the touch event information 20_1 to 20_n includes a touch input time 21_1 to 21_n, a touch event type 21_1 to 21_n, (22_1 to 22_n), and touch event contents (23_1 to 23_n).
터치 입력 시간(21_1~21_n)은 터치가 입력된 연월일시와 시각에 대한 정보를 포함한다. The touch input times 21_1 to 21_n include information on the date and time when the touch was input.
터치이벤트 종류(22_1~22_n)는 페이지 이동, 클릭, 더블클릭, 드래그, 스크롤링, 다양한 기능버튼 클릭, 정보 입력, 멀티 터치 등의 터치 제스처를 구분하기 위한 정보를 포함하고, 터치이벤트 내용(23_1~23_n)은 터치 위치와 터치 속성에 대한 정보를 포함한다. The touch event types 22_1 to 22_n include information for distinguishing touch gestures such as page shift, click, double click, drag, scrolling, various function button clicks, information input, multi-touch, 23_n include information on the touch position and the touch attribute.
강의자는 터치스크린(111)에서 다양한 터치 동작을 수행함으로써, 발표자료의 페이지를 넘기고, 발표자료에 글자나 그림을 그리고, 또는 각종 다양한 기능버튼을 클릭함으로써 웹페이지를 출력하거나 이미지를 삽입하는 등의 다양한 기능을 수행할 수 있다. The lecturer can perform a variety of touch operations on the
이처럼 수집이벤트 파일(20)의 각 터치이벤트정보(20_1~20_n)에는 터치 입력 시간이 포함되어 있으므로, 녹음 파일(30)과 각 터치이벤트정보(20_1~20_n)는 동기화될 수 있다.Since each touch event information 20_1 to 20_n of the
30분간 강의자가 발표한 내용을 바탕으로 재현파일을 생성하는 과정을 예로 들어 설명하도록 한다. The process of generating a reproduction file based on the contents of the lecturer's presentation for 30 minutes will be described as an example.
이러한 경우, 재현파일(40)에는 30분간 강의자의 음성이 녹음된 녹음 파일(30)과 강의자의 터치 입력에 따른 각각의 터치이벤트정보를 수집한 수집이벤트 파일(20)과 원본 발표자료가 포함된다.In this case, the
재현파일(40)을 재생하는 경우, 클라이언트 단말기(120)는 녹음 파일(30)을 스피커로 출력하는 동시에 화면에서는 녹음 파일(30)의 시간 흐름과 동기화하여 터치이벤트정보에 따른 화면 출력을 수행한다.When the
다시 도 2로 되돌아가 설명하도록 한다.Returning to Fig. 2, description will be made again.
도 2를 참조하면, 클라이언트 단말기(120)는 접속부(121), 출력부(122), 스크린(123), 스피커(124)를 포함한다.2, the
접속부(121)는 강의자 단말기(110)와 네트워크를 통해 통신 연결하는 구성요소로서, 발표자료의 공유 여부를 확인하는 역할도 수행할 수 있다.The
강의자 단말기(110)와 클라이언트 단말기(120)가 상호 간에 통신 연결되면, 접속부(121)는 클라이언트 단말기(120)와 강의자 단말기(110)에 동일한 발표자료가 존재하는지 여부를 확인한다. When the
만일 클라이언트 단말기(120)에 발표자료가 존재하지 않으면, 클라이언트 단말기(120)는 로컬 저장소에 발표자료가 존재하지 않는다는 메시지를 화면에 출력함으로써, 사용자가 강의자 단말기(110)나 후술할 관리서버(130)로부터 발표자료를 다운로드할 수 있도록 알려준다.If the presentation data does not exist in the
출력부(122)는 발표자료를 화면으로 출력하도록 제어한다.The
출력부(122)는 강의자 단말기(110)로부터 터치이벤트정보를 수신하면 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하도록 제어하는 터치이벤트 처리부(1221)를 포함한다.The
한편, 출력부(122)는 재현파일을 수신하고, 수신한 재현파일을 재생하는 재현파일 재생부(1222)를 더 포함할 수 있다. Meanwhile, the
재현파일 재생부(1222)는 녹음 파일과 수집이벤트 파일을 동기화하여 재생한다. 즉 재현파일 재생부(1222)는 녹음 파일(30)을 스피커(124)로 출력하는 동시에 녹음 파일(30)의 시간 흐름과 동기화하여 터치이벤트정보에 따른 화면 변경이 스크린(123)에서 출력되도록 한다.The reproduction
도 3은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템을 예시한 도면이다.FIG. 3 is a diagram illustrating a presentation data reproducing system using touch event information according to another embodiment of the present invention.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템(100)은 강의자 단말기(110)와 클라이언트 단말기(120) 외에 관리서버(130)를 더 포함한다. Referring to FIG. 3, a presentation
관리서버(130)는 강의자 단말기(110)와 클라이언트 단말기(120) 사이에 위치하며, 강의자 단말기(110)와 클라이언트 단말기(120) 간에 터치이벤트정보를 중계하고, 발표자료 및 재현파일을 배포하는 역할을 수행한다.The
접속 처리부(131)는 강의자 단말기(110)와 클라이언트 단말기(120)와의 통신 연결을 수행하는 구성요소이다.The
중계부(132)는 강의자 단말기(110)와 클라이언트 단말기(120)로 각각 발표자료를 전송하고, 강의자 단말기(110)로부터 터치이벤트정보를 수신하면 수신한 터치이벤트정보를 클라이언트 단말기(120)로 전송한다.The
자료 데이터베이스(133)는 발표자료 및 재현파일을 저장하는 데이터베이스로서, 강의자 단말기(110)와 클라이언트 단말기(120)가 요청하는 발표자료 또는 재현파일을 검색하여 해당하는 발표자료 또는 재현파일을 전송한다.The
사용자 데이터베이스(134)는 사용자의 유저 아이디와 비밀번호 등의 사용자정보를 저장하고 있는 데이터베이스로서, 강의자 단말기(110)와 클라이언트 단말기(120)로부터 전송된 사용자정보를 기초로 각 사용자를 식별한다.The
이하에서는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명하도록 한다. 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법은 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템과 본질적으로 동일하므로, 상세한 설명 및 중복되는 설명은 생략하도록 한다.Hereinafter, a method of reproducing presentation data using touch event information according to the present invention will be described. The presentation data reproduction method using the touch event information according to the present invention is essentially the same as the presentation data presentation system using the touch event information according to the present invention and therefore detailed description and duplicate description will be omitted.
도 5는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도이다.5 is a flowchart illustrating a method of reproducing presentation data using touch event information according to the present invention.
도 5를 참조하면, 우선 강의자 단말기(110)와 클라이언트 단말기(120)는 서로 발표자료의 공유를 확인한다(S10). Referring to FIG. 5, the
전술한 것처럼, 강의자 단말기(110)와 클라이언트 단말기(120)는 동일한 발표자료를 로컬에 존재하는 저장부에 보관함으로써 발표자료를 공유한다. 클라이언트 단말기(120)가 사용자의 요청에 의해 강의자 단말기(110)로부터 발표자료를 미리 다운로드하거나, 강의자 단말기(110)와 클라이언트 단말기(120)가 도 3에서의 관리서버(130)로부터 발표자료를 미리 다운로드하는 방식으로 발표자료가 공유될 수 있다. As described above, the
강의자 단말기(110)나 클라이언트 단말기(120)에 동일한 발표자료가 없는 경우, 즉 발표자료가 강의자 단말기(110)와 클라이언트 단말기(120) 간에 공유가 되지 않은 경우, 각 단말기(110, 120)를 사용하는 사용자가 키 입력에 의해 발표자료의 다운로드를 요청하거나, 발표자료를 기지고 있지 않은 단말기(110, 120)가 발표자료를 자동으로 다운로드하는 방식으로 발표자료의 공유가 수행될 수 있다. When the presentation data is not shared between the
강의자 단말기(110)와 클라이언트 단말기(120)의 접속부(112, 121)에 의해 발표자료의 공유가 확인되면, 강의자 단말기(110)와 클라이언트 단말기(120)는 각각 화면으로 발표자료를 출력한다(S20).When the sharing of presentation data is confirmed by the
강의자 단말기(110)는 강의자의 터치 입력에 의한 발표 개시가 입력되는지 여부를 체크하고(S30), 발표 개시가 입력되면 강의자 단말기(110)는 강의자의 음성 녹음을 시작한다(S40). 발표 개시가 입력되지 않은 경우, 강의자 단말기(110)는 발표자료를 출력한 채로 발표 개시가 입력될 때까지 대기한다.The
강의자 단말기(110)는 강의자의 음성을 녹음하는 동시에 터치스크린(111)에서 강의자의 터치이벤트가 발생하는지 여부를 감지한다(S50).The
터치스크린(111)에서 터치이벤트가 감지되면, 강의자 단말기(110)는 감지된 터치이벤트에 대응하는 화면 출력을 수행하고 그와 동시에 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성한다(S60). 전술한 것처럼, 강의자 단말기(110)는 터치이벤트에 대응하여 발표자료에 대한 페이지 이동이나 발표자료에 글씨나 그림을 그리는 등의 다양한 화면 출력을 수행할 수 있다.When a touch event is detected on the
강의자 단말기(110)는 생성한 터치이벤트정보를 클라이언트 단말기(120)로 전송한다(S70).The
터치이벤트정보를 수신하면, 클라이언트 단말기(120)는 수신한 터치이벤트정보에 대응하는 화면 출력을 수행한다. 클라이언트 단말기(120)가 수신한 터치이벤트정보에 대응하는 화면 출력을 수행함으로써, 강의자 단말기(110)와 클라이언트 단말기(120)의 화면에는 동일한 내용이 출력될 수 있다.Upon receiving the touch event information, the
발표자료를 이용한 발표나 강의를 종료하면 강의자는 터치 입력을 통해 강의자 단말기(110)에 발표 종료를 입력할 수 있다(S90). 강의자 단말기(110)에서 발표 종료가 입력되면, 강의자 단말기(110)는 음성 녹음을 중단하고, 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성한다(S100). When the presentation or lecture using the presentation material is finished, the lecturer can input the presentation end to the
강의자 단말기(110)에서 발표 종료가 입력되기 전까지, S40 단계 내지 S80 단계가 반복된다.Steps S40 to S80 are repeated until the
도면에 도시되지는 않았지만, 클라이언트 단말기(120)가 요청하는 경우, 강의자 단말기(110)는 생성된 재현파일을 클라이언트 단말기(120)로 전송한다. 클라이언트 단말기(120)는 재현파일을 재생하되, 녹음 파일과 수집이벤트 파일을 동기화함으로써 강의자의 음성이 출력되는 동시에 시간의 흐름에 맞추어 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 재현파일을 재생한다.Although not shown in the figure, when the
도 6은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도이다.6 is a flowchart illustrating a method of reproducing presentation data using touch event information according to another embodiment of the present invention.
우선 강의자 단말기(110)와 클라이언트 단말기(120)는 관리서버(130)에 접속하고, 관리서버(130)로부터 발표자료를 수신한다(S100). 이때 강의자 단말기(110)의 강의자와 클라이언트 단말기(120)의 사용자는 관리서버(130)의 자료 데이터베이스(133)에서 발표자료를 검색한 후 검색된 해당 발표자료를 다운로드한다.First, the
강의자 단말기(110)는 네트워크를 통해 직접 연결되거나 관리서버(130)를 매개하여 연결된 클라이언트 단말기(120)에 발표자료가 존재하는지 여부를 확인하는 방식으로 발표자료의 공유 여부를 확인한다. 만일 클라이언트 단말기(120)에 발표자료가 존재하지 않는 경우, 강의자 단말기(110)는 클라이언트 단말기(120)로 발표자료를 자동 전송하거나, 또는 강의자 단말기(110)가 해당 발표자료를 다운로드하라는 알림 메시지를 클라이언트 단말기(120)로 전송할 수도 있다. 또는 클라이언트 단말기(120)가 강의자 단말기(110)나 관리서버(130)에 존재하는 발표자료를 자동으로 다운로드할 수도 있다.The
강의자 단말기(110)와 클라이언트 단말기(120)에 모두 발표자료가 존재하여 발표자료에 대한 공유가 확인된 경우, 강의자 단말기(110)는 터치스크린을 통해 발표자료를 출력하고(S120), 클라이언트 단말기(120)는 스크린을 통해 발표자료를 출력한다.When the presentation data is present in both the lecturer's terminal 110 and the
강의자 단말기(110)는 강의자의 터치 입력에 의한 발표 개시를 입력받는다(S140). The
발표 개시가 강의자에 의해 입력되면, 강의자 단말기(110)는 강의자의 음성을 녹음하는 것을 시작하고(S150), 터치스크린(111)에 강의자의 터치에 의한 터치이벤트를 감지한다.When the start of presentation is input by the lecturer, the
강의자에 의한 터치이벤트가 감지되면, 강의자 단말기(110)는 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 관리서버를 경유하여 클라이언트 단말기(120)로 전송한다(S170, S180).When the touch event is detected by the lecturer, the
그와 동시에 강의자 단말기(110)는 감지된 터치이벤트에 대응하는 화면 출력을 수행한다(S190).At the same time, the
한편, 클라이언트 단말기(120)는 수신한 터치이벤트정보에 대응하는 화면 출력을 수행한다(S200).Meanwhile, the
강의자 단말기(110)는 강의자의 터치 입력에 의한 발표 종료를 입력받는다(S210). The
발표 종료가 강의자에 의해 입력되면, 강의자 단말기(110)는 음성 녹음을 중단하고(S220), 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성한다. 여기서, 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 상기 녹음 파일과 상기 터치이벤트정보가 동기화된 파일이다.When the end of the presentation is input by the lecturer, the
재현파일이 생성되면, 강의자 단말기(110)는 생성한 재현파일을 관리서버(130)로 전송한다(S240). 관리서버(130)는 수신한 재현파일을 자료 데이터베이스(133)에 저장한다.When the reproduction file is generated, the
그리고 나서 클라이언트 단말기(120)가 관리서버(130)로 재현파일을 요청한다(S250).Then, the
관리서버(130)는 클라이언트 단말기(120)가 요청한 재현파일을 클라이언트 단말기(120)로 전송한다(S260).The
클라이언트 단말기(120)는 재현파일을 재생하되, 녹음 파일과 수집이벤트 파일을 동기화함으로써 강의자의 음성이 출력되는 동시에 시간의 흐름에 맞추어 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 재현파일을 재생한다(S270).The
본 발명에서 재현파일은 인터넷 강의처럼 강의자의 얼굴과 신체의 제스쳐 같은 것들이 촬영된 일반적으로 녹화된 동영상이 아니라, 컴퓨터나 태블릿 컴퓨터의 화면을 기반으로 발표자료 상의 필기를 재현하고 강의자의 음성을 함께 들을 수 있는 파일을 의미한다.In the present invention, the reproduction file is not a generally recorded video in which a lecturer's face and a gesture of a body are photographed such as an Internet lecture, but reproduces handwriting on presentation materials based on a screen of a computer or a tablet computer, It means the file can be.
발표자료에 대한 페이지 넘김이나 필기 기록은 터치 제스쳐를 인식할 수 있는 터치스크린을 가진 디바이스 상에서 이루어지며, 발표자료를 실시간으로 재현하거나 후에 재현파일을 통해 재현할 때에는 웹, 모바일, PC 응용프로그램 등 어디에서나 가능하다. 발표자료를 실시간으로 재현하면 원격 강의나 원격 회의가 되고, 시간차를 두고 재현한다면 동영상 강의가 될 수 있다. Page turnover or handwriting record for presentations is done on device with touch screen that can recognize touch gesture. When reproduce presentations in real time or reproduce later, It is possible. If you reproduce the presentations in real time, you can become a remote lecture or a teleconference, and if you reproduce it with a time difference, it can become a video lecture.
본 발명에서 영상을 녹화하는 것이 아닌 재현하기 위해서 필요한 요소는 크게 3가지이다. 발표 시 사용하는 발표자료, 페이지를 넘기거나 발표자료에 필기 조작을 하기 위한 강의자의 터치이벤트정보, 마지막으로 강의자의 음성을 녹음한 녹음 파일이다. 이 3가지만 있으면 작은 용량으로도 무리 없이 발표 영상이나 강의 영상을 재현할 수 있다. In the present invention, there are mainly three factors necessary for reproducing the video, not the video. It is a recording file that records the presentation materials used at the presentation, the touch event information of the lecturer to turn the page, the handwriting manipulation on the presentation material, and the voice of the lecturer. With these three, it is possible to reproduce presentation image or lecture image even with small capacity.
또한 영상을 녹화하여 재생하는 것이 아니라 재현파일을 재생하는 것이기 때문에 화면을 이원화하여 사용할 수 있다는 장점이 있다. 예를 들어서 강의자가 보는 화면과 강의자 외의 다른 사람이 보는 화면을 달리해서 보여줄 수 있고, 서로 공유하고 싶은 부분만 보여주는 방식으로 활용될 수도 있다. In addition, since the reproduced file is reproduced instead of recording and reproducing the image, there is an advantage that the screen can be used in a dual format. For example, a lecturer can show different views of the screen and other people than the lecturer, and it can be used in a way that shows only the parts that you want to share.
그리고 강의 영상을 재현하기 위한 첫 번째 요소인 발표자료는 미리 공유할 수 있기 때문에 실질적으로 터치이벤트정보와 음성을 녹음한 녹음 파일이라는 작은 용량의 파일을 P2P나 네트워크를 통해 전송함으로써 강의 영상을 재현할 수 있다. Since the presentation material, which is the first element to reproduce the lecture image, can be shared in advance, it is possible to reproduce the lecture image by transmitting a small capacity file called a recording file recording the touch event information and voice through P2P or network .
녹화가 아닌 재현이기 때문에, 미리 데이터를 공유할 수 있는 모든 멀티미디어 파일에도 쉽게 적용할 수 있다. 또한 실시간으로 연동되는 웹 화면이나 지도 데이타 등에도 사용할 수 있는 등 확장성이 높다. Since it is reproduction not recording, it can be easily applied to all multimedia files that can share data in advance. It can also be used for web screens and map data that are linked in real time.
본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.
이상에서는 도면에 도시된 구체적인 실시예를 참고하여 본 발명을 설명하였으나 이는 예시적인 것에 불과하므로, 본 발명이 속하는 기술 분야에서 통상의 기술을 가진 자라면 이로부터 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 보호 범위는 후술하는 특허청구범위에 의하여 해석되어야 하고, 그와 동등 및 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 보호 범위에 포함되는 것으로 해석되어야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention. Accordingly, the scope of protection of the present invention should be construed in accordance with the following claims, and all technical ideas within the scope of equivalents and equivalents thereof should be construed as being covered by the scope of the present invention.
110, 강의자 단말기 120, 클라이언트 단말기
130, 관리서버 111, 터치스크린
112, 접속부 113, 발표자료 처리부
114, 저장부 115, 녹음부
116, 재현파일 생성부 117, 타이머110, a
130, a
112, a
114, a
116, a reproduction
Claims (15)
(b) 상기 강의자 단말기와 상기 클라이언트 단말기가 발표자료를 화면으로 출력하는 단계;
(c) 발표 개시가 입력되면, 상기 강의자 단말기가 강의자 음성을 녹음하는 동시에 페이지 이동이나 필기와 관련된 터치이벤트들을 수집하는 단계;
(d) 터치이벤트가 감지되면, 상기 강의자 단말기는 감지된 터치이벤트에 대응하는 화면 출력을 수행하되, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 상기 클라이언트 단말기로 전송하는 단계;
(e) 상기 클라이언트 단말기가 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 단계; 및
(f) 발표 종료가 입력되면, 상기 강의자 단말기는 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성하는 단계를 포함하고,
상기 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 상기 녹음 파일과 상기 터치이벤트정보가 동기화된 파일이고,
상기 터치이벤트는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트로 구분되고,
상기 강의자 단말기는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트를 각각 구분하여 처리하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.(a) a lecture note terminal capable of touch input sharing presentation data including text and images for each page with a client terminal;
(b) outputting presentation data to the lecture terminal and the client terminal on a screen;
(c) when the presentation start is input, collecting touch events related to page movement or handwriting while the lecture terminal records lecture voice;
(d) When the touch event is detected, the lecture terminal performs screen output corresponding to the sensed touch event, generates touch event information including the touch input time, the touch event type, and the touch event contents, ;
(e) performing a screen output corresponding to the touch event information received by the client terminal; And
(f) when the presentation end is inputted, the lecture terminal includes a collection event file including each touch event information, a recording file recording a lecturer's voice, and a reproduction file including presentation data,
Wherein the reproduction file is a file in which the voice of the lecturer is output and the presentation data is changed and output according to the touch event information and the recording file and the touch event information are synchronized,
Wherein the touch event is divided into an event output only to the lecture terminal and an event output to both the lecture terminal and the client terminal,
Wherein the lecture terminal identifies and processes an event output only to the lecture terminal and an event output to both the lecture terminal and the client terminal.
상기 강의자 단말기가 강의자 음성을 상기 클라이언트 단말기로 전송하는 단계; 및
상기 클라이언트 단말기가 수신한 강의자 음성을 스피커를 통해 출력하는 단계를 포함하는, 터치이벤트정보를 이용한 발표자료 재현 방법.The method of claim 1, wherein the step (c)
Transmitting the lecture voice to the client terminal by the lecture terminal; And
And outputting the voice of the lecturer received by the client terminal through a speaker.
(g) 상기 강의자 단말기가 상기 재현파일을 자료 데이터베이스에 등록하는 단계; 및
(h) 상기 자료 데이터베이스에 접속한 클라이언트 단말기가 상기 재현파일을 다운로드하여 재생하는 단계를 더 포함하는, 터치이벤트정보를 이용한 발표자료 재현 방법.The method according to claim 1,
(g) registering the reproduction file in the data base by the lecture terminal; And
(h) downloading and reproducing the reproduction file from the client terminal connected to the data base, and reproducing the presentation data using the touch event information.
상기 터치이벤트정보는 특정 웹페이지의 주소 또는 특정 이미지의 위치를 지시하는 링크정보를 더 포함하고,
상기 클라이언트 단말기는 상기 링크정보를 참조하여 웹페이지나 이미지를 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.The method according to claim 1,
Wherein the touch event information further includes link information indicating an address of a specific web page or a position of a specific image,
Wherein the client terminal refers to the link information and outputs a web page or an image to a screen.
상기 강의자 단말기는 수신한 질문 내용을 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.The method of claim 1, wherein the client terminal receives a question content from a user and transmits the received question content to the lecture terminal in a message form,
And the lecturer terminal outputs the received question content to the screen.
상기 강의자 단말기는, 발표자료를 화면으로 출력하되, 페이지 이동이나 필기와 관련된 강의자의 터치이벤트가 감지되면 감지된 터치이벤트에 대응하는 화면 출력을 수행하고, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 상기 클라이언트 단말기로 전송하는 발표자료 처리부; 강의자의 음성을 녹음하여 녹음 파일을 생성하는 녹음부; 및 상기 각 터치이벤트정보를 포함하는 수집이벤트 파일, 강의자의 음성을 녹음한 상기 녹음 파일, 및 상기 발표자료를 포함하는 재현파일을 생성하는 재현파일 생성부를 포함하고,
상기 클라이언트 단말기는, 상기 발표자료를 화면으로 출력하되, 터치이벤트정보를 수신하면 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하고,
상기 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 상기 녹음 파일과 상기 터치이벤트정보가 동기화된 파일이며,
상기 터치이벤트는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트로 구분되고,
상기 강의자 단말기는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트를 각각 구분하여 처리하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.A presentation data reproducing system comprising a lecture terminal capable of touch input and a client terminal connected to the lecture terminal through a network,
The lecture terminal outputs the presentation data to the screen. When the touch event of the lecturer related to the page movement or handwriting is detected, the lecture terminal performs a screen output corresponding to the sensed touch event and displays the touch input time, the touch event type, A presentation data processing unit for generating touch event information including content and transmitting the generated touch event information to the client terminal; A recording unit for recording a lecturer's voice to generate a recording file; And a reproduction file generation unit for generating a collection event file including the touch event information, the recording file recording the lecturer's voice, and the reproduction file including the presentation data,
The client terminal outputs the presentation data to the screen, and upon receiving the touch event information, performs a screen output corresponding to the received touch event information,
Wherein the reproduction file is a file in which the recording file and the touch event information are synchronized so that the lecture player's voice is output and the presentation data is changed and output according to the touch event information,
Wherein the touch event is divided into an event output only to the lecture terminal and an event output to both the lecture terminal and the client terminal,
Wherein the lecture terminal identifies and processes an event output to only the lecture terminal and an event output to both the lecture terminal and the client terminal.
상기 강의자 단말기는 강의자 음성을 상기 클라이언트 단말기로 전송하고,
상기 클라이언트 단말기는 수신한 강의자 음성을 스피커를 통해 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.9. The method of claim 8,
The lecture terminal transmits a lecture voice to the client terminal,
Wherein the client terminal outputs the received lecture voice through a speaker.
상기 발표자료 재현 시스템은 상기 재현파일을 저장하는 자료 데이터베이스를 더 포함하고,
상기 클라이언트 단말기는, 상기 자료 데이터베이스에 접속하여 상기 재현파일을 요청한 후 다운로드하고, 다운로드한 상기 재현파일을 재생하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.9. The method of claim 8,
Wherein the presentation data reproducing system further comprises a data base for storing the reproduction file,
Wherein the client terminal accesses the data base, requests the reproduction file, downloads the reproduction file, and reproduces the downloaded reproduction file.
상기 터치이벤트정보는 특정 웹페이지의 주소 또는 특정 이미지의 위치를 지시하는 링크정보를 더 포함하고,
상기 클라이언트 단말기는 상기 링크정보를 참조하여 웹페이지나 이미지를 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.9. The method of claim 8,
Wherein the touch event information further includes link information indicating an address of a specific web page or a position of a specific image,
Wherein the client terminal refers to the link information and outputs a web page or an image to a screen.
상기 클라이언트 단말기는 사용자로부터 질문 내용을 입력받으면 입력받은 질문 내용을 메시지 형태로 상기 강의자 단말기로 전송하고,
상기 강의자 단말기는 수신한 질문 내용을 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.9. The method of claim 8,
The client terminal, when receiving the question contents from the user, transmits the inputted question contents to the lecture terminal in the form of a message,
And the lecture terminal outputs the received question content to the screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130014565A KR101621496B1 (en) | 2013-02-08 | 2013-02-08 | System and method of replaying presentation using touch event information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130014565A KR101621496B1 (en) | 2013-02-08 | 2013-02-08 | System and method of replaying presentation using touch event information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140101190A KR20140101190A (en) | 2014-08-19 |
KR101621496B1 true KR101621496B1 (en) | 2016-05-16 |
Family
ID=51746708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130014565A KR101621496B1 (en) | 2013-02-08 | 2013-02-08 | System and method of replaying presentation using touch event information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101621496B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6739837B2 (en) * | 2016-03-17 | 2020-08-12 | 株式会社キャニオン・マインド | program |
KR102031739B1 (en) * | 2019-06-27 | 2019-10-14 | 보은전자방송통신(주) | Interactive whiteboard supporting real-time internet broadcasting by constructing a lecture screen according to the class progress mode separately from the display screen |
KR102346668B1 (en) * | 2020-01-30 | 2022-01-03 | (주)아큐플라이에이아이 | apparatus for interpreting conference |
KR102359962B1 (en) * | 2020-01-30 | 2022-02-09 | (주)아큐플라이에이아이 | Apparatus for interpreting presentation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002202941A (en) | 2000-08-25 | 2002-07-19 | 4C Soft Inc | Multimedia electronic learning system and learning method |
-
2013
- 2013-02-08 KR KR1020130014565A patent/KR101621496B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002202941A (en) | 2000-08-25 | 2002-07-19 | 4C Soft Inc | Multimedia electronic learning system and learning method |
Also Published As
Publication number | Publication date |
---|---|
KR20140101190A (en) | 2014-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108881429B (en) | Method and apparatus for sharing presentation data and annotations | |
KR101702659B1 (en) | Appratus and method for syncronizing moving picture contents and e-book contents and system thereof | |
US8977779B2 (en) | Augmentative and alternative communication system with personalized user interface and content | |
US9372864B2 (en) | Online binders | |
KR101470346B1 (en) | Screen Share Method Between User Stations through RCS Mobile Communication Service Network | |
US11190557B1 (en) | Collaborative remote interactive platform | |
CN102292713A (en) | A multimedia collaboration system | |
KR101621496B1 (en) | System and method of replaying presentation using touch event information | |
JP2004207948A (en) | Video browsing system | |
US20120284426A1 (en) | Method and system for playing a datapod that consists of synchronized, associated media and data | |
US11349889B1 (en) | Collaborative remote interactive platform | |
US10452719B2 (en) | Terminal apparatus and method for search contents | |
US9569546B2 (en) | Sharing of documents with semantic adaptation across mobile devices | |
WO2023274124A1 (en) | Information replay method and apparatus, electronic device, computer storage medium, and product | |
WO2016000638A1 (en) | Networking cooperation method and machine using such method | |
US20150067056A1 (en) | Information processing system, information processing apparatus, and information processing method | |
US20170149578A1 (en) | Networking cooperation method and machine using such method | |
US10567577B2 (en) | Information processing system and information processing method | |
CN114969580A (en) | Conference content recording method, device, conference system and storage medium | |
JP2021060949A (en) | Communication system, information processing apparatus, communication method, and program | |
KR20190032754A (en) | A layer sharing system in which the screen is displayed uniformly using the same coordinate interval regardless of the device size | |
WO2013005282A1 (en) | Terminal device for conferencing and conferencing system | |
US11650867B2 (en) | Providing access to related content in media presentations | |
KR102133535B1 (en) | Method and Device for annotating a web page | |
Lee | Design of tablet-based live mobile learning system supporting improved annotation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190501 Year of fee payment: 4 |