KR20140101190A - 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법 - Google Patents

터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법 Download PDF

Info

Publication number
KR20140101190A
KR20140101190A KR1020130014565A KR20130014565A KR20140101190A KR 20140101190 A KR20140101190 A KR 20140101190A KR 1020130014565 A KR1020130014565 A KR 1020130014565A KR 20130014565 A KR20130014565 A KR 20130014565A KR 20140101190 A KR20140101190 A KR 20140101190A
Authority
KR
South Korea
Prior art keywords
terminal
touch event
lecture
client terminal
event information
Prior art date
Application number
KR1020130014565A
Other languages
English (en)
Other versions
KR101621496B1 (ko
Inventor
김태형
Original Assignee
주식회사 모바일유틸리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모바일유틸리티 filed Critical 주식회사 모바일유틸리티
Priority to KR1020130014565A priority Critical patent/KR101621496B1/ko
Publication of KR20140101190A publication Critical patent/KR20140101190A/ko
Application granted granted Critical
Publication of KR101621496B1 publication Critical patent/KR101621496B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Transfer Between Computers (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것으로서, 더욱 상세하게는, 강의자 단말기와 클라이언트 단말기가 서로 발표자료를 공유하되, 강의자에 의한 터치이벤트가 발생하면 터치이벤트에 대응하는 화면출력을 수행하는 동시에 터치이벤트에 대한 터치이벤트정보를 클라이언트 단말기로 전송하고, 클라이언트 단말기는 전송된 터치이벤트정보에 대응하는 화면출력을 수행함으로써, 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있는 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것이다.
본 발명에 의하면, 터치이벤트정보를 이용함으로써 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있다.

Description

터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법{System and method of replaying presentation using touch event information}
본 발명은 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것으로서, 더욱 상세하게는, 강의자 단말기와 클라이언트 단말기가 서로 발표자료를 공유하되, 강의자에 의한 터치이벤트가 발생하면 터치이벤트에 대응하는 화면출력을 수행하는 동시에 터치이벤트에 대한 터치이벤트정보를 클라이언트 단말기로 전송하고, 클라이언트 단말기는 전송된 터치이벤트정보에 대응하는 화면출력을 수행함으로써, 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있는 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법에 관한 것이다.
기본적으로 동영상 파일은 용량이 큰 편이다. 스마트폰의 보급이 확산되고 이동통신기술도 계속 발전하고 있지만 아직까지도 고화질의 동영상파일을 주고받기에는 무리가 있다.
특히 학교 수업 이후에 스마트폰으로 들었던 수업을 다시 듣고자 할 때 큰 용량 때문에 제한되는 부분이 많다. 수업뿐만 아니라 동영상을 전송하거나 받는 과정에서도 큰 용량 때문에 제한되는 부분이 많다.
따라서 작은 용량으로도 발표자료나 강의 영상을 재현함으로써 무리 없이 영상을 볼 수 있도록 하는 기술이 필요하다.
본 발명이 해결하고자 하는 과제는, 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있는 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법을 제공하는 데 있다.
상기한 과제를 해결하기 위해 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법은, (a) 터치 입력이 가능한 강의자 단말기가 각 페이지별로 텍스트와 이미지를 포함하는 발표자료를 클라이언트 단말기와 공유하는 단계; (b) 강의자 단말기와 클라이언트 단말기가 발표자료를 화면으로 출력하는 단계; (c) 발표 개시가 입력되면, 강의자 단말기가 강의자 음성을 녹음하는 동시에 페이지 이동이나 필기와 관련된 터치이벤트들을 수집하는 단계; (d) 터치이벤트가 감지되면, 강의자 단말기는 감지된 터치이벤트에 대응하는 화면 출력을 수행하되, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 클라이언트 단말기로 전송하는 단계; 및 (e) 클라이언트 단말기가 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 제1항에 있어서, 발표자료 재현 방법은, (f) 발표 종료가 입력되면, 강의자 단말기는 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성하는 단계를 더 포함하고, 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 녹음 파일과 터치이벤트정보가 동기화된 파일일 수 있다.
또한 상기한 과제를 해결하기 위해 본 발명에 따른 터치이벤트정보를 이용한 발표자료 시스템은, 터치 입력이 가능한 강의자 단말기 및 강의자 단말기와 네트워크로 연결된 클라이언트 단말기를 포함하는 발표자료 재현 시스템으로서, 강의자 단말기는, 발표자료를 화면으로 출력하되, 페이지 이동이나 필기와 관련된 강의자의 터치이벤트가 감지되면 감지된 터치이벤트에 대응하는 화면 출력을 수행하고, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 클라이언트 단말기로 전송하는 발표자료 처리부; 및 강의자의 음성을 녹음하여 녹음 파일을 생성하는 녹음부를 포함하고, 클라이언트 단말기는, 발표자료를 화면으로 출력하되, 터치이벤트정보를 수신하면 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 것을 특징으로 한다.
바람직하게는, 강의자 단말기는, 각 터치이벤트정보를 포함하는 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성하는 재현파일 생성부를 더 포함하고, 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 녹음 파일과 터치이벤트정보가 동기화된 파일일 수 있다.
한편, 상기한 목적을 달성하기 위해서 본 발명은 터치이벤트정보를 이용한 발표자료 재현 방법을 실현시키기 위한 프로그램을 구현한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
본 발명에 의하면, 영상을 스트리밍 방식으로 전송하는 것이 아니라 용량이 작은 터치이벤트정보를 전송함으로써 네트워크 부담을 줄여주는 동시에 느린 네트워크 환경에서도 발표자료나 강의 영상을 재현할 수 있다.
도 1은 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법을 예시한 도면.
도 2는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템을 나타낸 블록도.
도 3은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템을 예시한 도면.
도 4는 재현파일을 예시한 도면.
도 5는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도.
도 6은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법을 예시한 도면이다.
본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법은 발표자료를 발표하는 강의자가 사용하는 강의자 단말기 및 강의자 단말기와 네트워크로 연결된 클라이언트 단말기를 포함하여 구성된다.
발표자료란 강의자가 발표나 강의를 하는데 이용하는 자료로서, 각 페이지별로 텍스트와 이미지를 포함하는 자료이다. 이러한 발표자료는 일반적으로 널리 이용되는 파워포인트용 파일이나 PDF 파일 등의 발표용 파일을 의미한다.
강의자 단말기(110)는 터치 입력 및 화면 출력이 가능한 터치스크린을 가진 단말기로서, 발표에 사용되는 발표자료를 자신의 스크린 화면에 출력하고, 그와 동시에 강의자가 화면을 터치함으로써 발표자료의 페이지 이동이나 발표자료의 내용에 필기 등의 표시를 하는 동작을 수행한다. 이를 위해 강의자 단말기(110)는 발표자료를 화면에 출력하는 동시에, 화면에 대한 터치 입력이 감지되면 감지된 각 터치이벤트에 대응하는 화면 출력을 수행하고, 각 터치이벤트에 대한 터치이벤트정보를 클라이언트 단말기(120_1~120_n)로 전송한다.
클라이언트 단말기(120_1~120_n)는 강의자 단말기(110)와 네트워크를 통해 연결된 단말기로서, 강의자 단말기(110)에서 출력되는 발표자료와 동일한 발표자료를 저장부에 미리 저장하고 있으며, 저장하고 있는 발표자료를 자신의 화면에 출력한다. 그리고 강의자 단말기(110)로부터 터치이벤트정보가 수신되면, 클라이언트 단말기(120_1~120_n)는 수신한 터치이벤트정보를 분석하여 그에 대응하는 화면 출력을 수행한다.
강의자 단말기(110)는 클라이언트 단말기(120_1~120_n)로 터치이벤트에 대한 정보를 전송하고 클라이언트 단말기(120_1~120_n)는 수신한 터치이벤트정보에 대응하여 화면 출력을 변경시킴으로써, 강의자 단말기(110)와 클라이언트 단말기(120_1~120_n)에서는 네트워크 속도로 인한 약간의 시간차를 두고 동일 또는 유사한 화면이 출력된다.
본 발명에서 강의자 단말기(110)는 터치 입력 및 영상 출력이 가능한 단말기로서, 태블릿 컴퓨터, 노트북 컴퓨터, 및 스마트폰 등 영상을 출력하고 터치 입력이 가능한 단말기이면 어떠한 단말기가 이용되어도 상관없다.
또한 클라이언트 단말기(120_1~120_n)는 데스크탑 컴퓨터, 태블릿 컴퓨터, 노트북 컴퓨터, 스마트폰, 컴퓨터와 연결된 프로젝터나 텔레비젼 등 화면으로 발표자료를 출력하고 네트워크를 통해 강의자 단말기(110)로부터 터치이벤트정보를 수신할 수 있는 단말기이면 어떠한 단말기가 이용되어도 상관없다.
본 발명은 강의자를 촬영한 영상이나 강의자 단말기(110)의 화면에서 출력되는 영상을 스캔하여 각 클라이언트 단말기(120_1~120_n)로 스트리밍 방식으로 전송하는 방식을 이용하는 것이 아니라 강의자 단말기(110)에서 감지된 각 터치이벤트에 대한 터치이벤트정보를 각 클라이언트 단말기(120_1~120_n)로 전송함으로써 강의자 단말기(110)와 각 클라이언트 단말기(120_1~120_n)가 동일 또는 유사한 내용을 화면에 출력될 수 있도록 한다. 터치이벤트정보를 전송하여 강의자 단말기(110)와 각 클라이언트 단말기(120_1~120_n)의 화면에 동일 또는 유사한 내용을 출력하게 함으로써, 스트리밍 방식과 비교하여 네트워크 부담을 줄여주며 저속의 네트워크 환경에서도 무리 없이 동작할 수 있다.
도 2는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템의 블록도이다.
본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템(100)은 강의자 단말기(110)와 클라이언트 단말기(120)를 포함한다.
도 1에서 복수 개의 클라이언트 단말기(120_1~120_n)가 도시되었지만, 도 2에서는 설명의 편의를 위해 하나의 클라이언트 단말기(120)를 기준으로 설명하도록 한다.
강의자 단말기(110)는 터치스크린(111), 접속부(112), 발표자료 처리부(113), 저장부(114), 녹음부(115), 재현파일 생성부(116), 및 타이머(117)를 포함한다.
터치스크린(111)은 저장부(114)에 저장되어 있는 발표자료를 화면으로 출력하고, 강의자로부터 화면 터치를 입력받는 역할을 수행한다.
접속부(112)는 클라이언트 단말기(120)와 네트워크를 통해 통신 연결하는 구성요소로서, 발표자료의 공유 여부를 확인하는 역할도 수행할 수 있다.
클라이언트 단말기(120)는 강의자 단말기(110)나 후술할 관리서버(130)로부터 발표자료를 미리 다운로드하여 보관한다. 강의자 단말기(110)와 클라이언트 단말기(120)가 상호 간에 통신 연결되면, 접속부(112)는 클라이언트 단말기(120)와 강의자 단말기(110)에 동일한 발표자료가 존재하는지 여부를 확인한다.
만일 클라이언트 단말기(120)에 발표자료가 존재하지 않으면, 접속부(112)가클라이언트 단말기(120)로 발표자료를 자동으로 전송하거나, 클라이언트 단말기(120)의 접속부(121)가 강의자 단말기(110)나 후술할 관리서버(130)로부터 발표자료를 자동으로 다운로드한다. 한편, 발표자료를 가지고 있지 않는 단말기(110, 120) 측으로 공유하고자 하는 발표자료의 파일명 및 파일 위치를 알려주고 이를 다운로드하라는 메시지를 전송하는 방식으로 발표자료의 공유를 구현할 수도 있다.
발표자료 처리부(113)는 발표자료를 화면으로 출력하도록 제어하고, 페이지 이동이나 필기와 관련된 강의자의 터치이벤트가 감지되면 감지된 각 터치이벤트에 대응하는 화면 출력을 수행한다.
발표자료 처리부(113)는 강의자의 터치 입력을 분석하여, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하고, 생성한 터치이벤트정보를 클라이언트 단말기(120)로 전송하는 터치이벤트 생성부(1131)를 포함한다.
터치이벤트란 사용자의 터치 제스쳐에 대응하는 이벤트로서, 각 터치 제스쳐에 대응하여 발표의 개시나 종료, 페이지 이동, 클릭, 더블클릭, 드래그, 스크롤링, 다양한 기능버튼 클릭, 필기, 가상키보드 호출, 가상키보드에서의 타이핑 등 구현될 수 있는 다양한 동작을 수행하는 이벤트를 의미한다. 한편 필기란 발표자료에 포함된 텍스트나 이미지 위에 덧붙여서 글자를 쓰거나, 그림을 그리거나, 선, 도형, 또는 기호를 그리는 등의 입력행위를 의미한다.
강의자는 터치스크린(111)에서 다양한 터치 제스쳐를 수행함으로써, 발표자료의 페이지를 넘기고, 발표자료에 글자나 그림을 그리는 등의 필기를 수행할 수 있다.
한편, 터치이벤트는 특정 웹페이지에 접속하거나 또는 로컬이나 웹상에 존재하는 특정 이미지를 삽입하도록 지시하는 이벤트일 수도 있다. 이러한 경우 발표자료 처리부(113)는 특정 웹페이지를 지시하거나 특정 이미지의 위치를 지시하는 링크정보를 더 포함하는 터치이벤트정보를 생성한다. 터치이벤트정보에 더 링크정보가 포함되어 클라이언트 단말기(120)로 전송됨으로써, 클라이언트 단말기(120)는 링크정보로 참조되는 웹페이지를 자신의 웹브라우저 창에 출력하거나 링크정보로 참조되는 이미지를 발표자료 위에 오버래핑하여 출력할 수 있다.
한편 터치이벤트는 강의자 단말기(110)에만 출력되는 이벤트 및 강의자 단말기(110)와 클라이언트 단말기(120)에 모두 출력되는 이벤트로 구분될 수 있다. 강의자가 보는 화면과 강의자 외의 다른 사람이 보는 화면을 달리해서 보여주거나 서로 공유하고 싶은 부분만 보여주도록 구현할 필요성도 있기 때문이다.
이를 위해 발표자료 처리부(113)는 강의자 단말기(110)에만 출력되는 이벤트 및 강의자 단말기(110)와 클라이언트 단말기(120)에 모두 출력되는 이벤트를 각각 구별하여 처리하는 분리 처리부(1132)를 더 포함할 수 있다.
분리 처리부(1132)는 강의자의 터치 제스쳐에 따른 터치이벤트를 분석하고, 터치이벤트가 강의자 단말기(110)에만 출력되는 이벤트인 경우 터치이벤트에 대응하는 화면 출력만을 수행하고 터치이벤트정보를 생성하지 않는다. 만일 터치이벤트가 강의자 단말기(110)와 클라이언트 단말기(120)에 모두 출력되는 이벤트인 경우, 분리 처리부(1132)는 터치이벤트에 대응하는 화면 출력을 수행하는 동시에 터치이벤트정보를 생성하고, 생성한 터치이벤트정보를 클라이언트 단말기(120)로 전송한다.
저장부(114)는 발표자료를 저장하며, 후술할 재현파일이 생성되면 생성된 재현파일도 함께 저장하는 역할을 수행한다.
녹음부(115)는 강의자의 음성을 녹음하여 녹음 파일을 생성하는 역할을 수행한다.
한편 발표자료 처리부(113)는 터치스크린(111)을 통해 강의자로부터 발표 개시를 입력받을 수 있다. 발표 개시가 입력된 순간부터 터치이벤트 생성부(1131)는 터치이벤트정보의 생성을 시작하고, 발표 개시가 입력된 순간부터 녹음부(115)는 강의자의 음성을 녹음하는 것을 시작할 수 있다.
재현파일 생성부(116)는 각 터치이벤트정보를 포함하는 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성한다.
재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 녹음 파일과 터치이벤트정보가 동기화된 파일이다.
재현파일 생성부(116)는 타이머(117)를 참조하여 터치이벤트정보를 구성하는 터치이벤트의 입력 시간을 모두 기록한다.
한편, 원격 회의나 원격 강의에서처럼 강의자와 강의를 듣는 사람이 서로 격리되어 있을 수 있다. 이러한 경우 강의자 단말기(110)는 강의자의 음성을 녹음하는 동시에 녹음한 음성을 스트리밍 방식으로 클라이언트 단말기(120)로 전송해야 한다. 이를 위해 원격 강의나 원격 회의의 경우, 강의자 단말기(110)의 녹음부(115)는 녹음된 강의자의 음성을 스트리밍 방식으로 클라이언트 단말기(120)로 전송할 수 있다. 클라이언트 단말기(120)는 수신한 강의자의 음성을 후술할 스피커(124)를 통해 출력할 수 있다.
도 4는 재현파일을 예시한 도면이다.
도 4름 참조하면, 재현파일은 발표자료(10), 수집이벤트 파일(20), 강의자의 음성을 녹음한 녹음 파일(30)을 포함한다.
클라이언트 단말기(120)는 강의자의 음성을 녹음한 녹음 파일(30)을 스피커로 출력하는 동시에 시간의 흐름에 따라 수집이벤트 파일(20)에 포함된 각 터치이벤트정보(20_1~20_n)에 따라 발표자료를 변경하며 출력한다. 수집이벤트 파일의 각 터치이벤트정보에는 터치 입력 시간이 포함되어 있으므로, 클라이언트 단말기(120)는 수집이벤트 파일과 녹음 파일을 동기화하여 출력할 수 있다.
전술한 것처럼 발표자료(10)는 파워포인트용 파일이나 PDF 파일 등의 발표용 파일을 의미하며, 각 페이지(10_1~10_n)별로 텍스트(11_1~11_n)와 이미지(12_1~12_n)를 포함한다.
수집이벤트 파일(20)은 강의자의 터치 입력에 의해 생성된 각각의 터치이벤트정보를 모아놓은 파일을 의미하며, 각 터치이벤트정보(20_1~20_n)는 터치 입력 시간(21_1~21_n), 터치이벤트 종류(22_1~22_n), 및 터치이벤트 내용(23_1~23_n)을 포함한다.
터치 입력 시간(21_1~21_n)은 터치가 입력된 연월일시와 시각에 대한 정보를 포함한다.
터치이벤트 종류(22_1~22_n)는 페이지 이동, 클릭, 더블클릭, 드래그, 스크롤링, 다양한 기능버튼 클릭, 정보 입력, 멀티 터치 등의 터치 제스처를 구분하기 위한 정보를 포함하고, 터치이벤트 내용(23_1~23_n)은 터치 위치와 터치 속성에 대한 정보를 포함한다.
강의자는 터치스크린(111)에서 다양한 터치 동작을 수행함으로써, 발표자료의 페이지를 넘기고, 발표자료에 글자나 그림을 그리고, 또는 각종 다양한 기능버튼을 클릭함으로써 웹페이지를 출력하거나 이미지를 삽입하는 등의 다양한 기능을 수행할 수 있다.
이처럼 수집이벤트 파일(20)의 각 터치이벤트정보(20_1~20_n)에는 터치 입력 시간이 포함되어 있으므로, 녹음 파일(30)과 각 터치이벤트정보(20_1~20_n)는 동기화될 수 있다.
30분간 강의자가 발표한 내용을 바탕으로 재현파일을 생성하는 과정을 예로 들어 설명하도록 한다.
이러한 경우, 재현파일(40)에는 30분간 강의자의 음성이 녹음된 녹음 파일(30)과 강의자의 터치 입력에 따른 각각의 터치이벤트정보를 수집한 수집이벤트 파일(20)과 원본 발표자료가 포함된다.
재현파일(40)을 재생하는 경우, 클라이언트 단말기(120)는 녹음 파일(30)을 스피커로 출력하는 동시에 화면에서는 녹음 파일(30)의 시간 흐름과 동기화하여 터치이벤트정보에 따른 화면 출력을 수행한다.
다시 도 2로 되돌아가 설명하도록 한다.
도 2를 참조하면, 클라이언트 단말기(120)는 접속부(121), 출력부(122), 스크린(123), 스피커(124)를 포함한다.
접속부(121)는 강의자 단말기(110)와 네트워크를 통해 통신 연결하는 구성요소로서, 발표자료의 공유 여부를 확인하는 역할도 수행할 수 있다.
강의자 단말기(110)와 클라이언트 단말기(120)가 상호 간에 통신 연결되면, 접속부(121)는 클라이언트 단말기(120)와 강의자 단말기(110)에 동일한 발표자료가 존재하는지 여부를 확인한다.
만일 클라이언트 단말기(120)에 발표자료가 존재하지 않으면, 클라이언트 단말기(120)는 로컬 저장소에 발표자료가 존재하지 않는다는 메시지를 화면에 출력함으로써, 사용자가 강의자 단말기(110)나 후술할 관리서버(130)로부터 발표자료를 다운로드할 수 있도록 알려준다.
출력부(122)는 발표자료를 화면으로 출력하도록 제어한다.
출력부(122)는 강의자 단말기(110)로부터 터치이벤트정보를 수신하면 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하도록 제어하는 터치이벤트 처리부(1221)를 포함한다.
한편, 출력부(122)는 재현파일을 수신하고, 수신한 재현파일을 재생하는 재현파일 재생부(1222)를 더 포함할 수 있다.
재현파일 재생부(1222)는 녹음 파일과 수집이벤트 파일을 동기화하여 재생한다. 즉 재현파일 재생부(1222)는 녹음 파일(30)을 스피커(124)로 출력하는 동시에 녹음 파일(30)의 시간 흐름과 동기화하여 터치이벤트정보에 따른 화면 변경이 스크린(123)에서 출력되도록 한다.
도 3은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템을 예시한 도면이다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템(100)은 강의자 단말기(110)와 클라이언트 단말기(120) 외에 관리서버(130)를 더 포함한다.
관리서버(130)는 강의자 단말기(110)와 클라이언트 단말기(120) 사이에 위치하며, 강의자 단말기(110)와 클라이언트 단말기(120) 간에 터치이벤트정보를 중계하고, 발표자료 및 재현파일을 배포하는 역할을 수행한다.
접속 처리부(131)는 강의자 단말기(110)와 클라이언트 단말기(120)와의 통신 연결을 수행하는 구성요소이다.
중계부(132)는 강의자 단말기(110)와 클라이언트 단말기(120)로 각각 발표자료를 전송하고, 강의자 단말기(110)로부터 터치이벤트정보를 수신하면 수신한 터치이벤트정보를 클라이언트 단말기(120)로 전송한다.
자료 데이터베이스(133)는 발표자료 및 재현파일을 저장하는 데이터베이스로서, 강의자 단말기(110)와 클라이언트 단말기(120)가 요청하는 발표자료 또는 재현파일을 검색하여 해당하는 발표자료 또는 재현파일을 전송한다.
사용자 데이터베이스(134)는 사용자의 유저 아이디와 비밀번호 등의 사용자정보를 저장하고 있는 데이터베이스로서, 강의자 단말기(110)와 클라이언트 단말기(120)로부터 전송된 사용자정보를 기초로 각 사용자를 식별한다.
이하에서는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명하도록 한다. 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법은 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 시스템과 본질적으로 동일하므로, 상세한 설명 및 중복되는 설명은 생략하도록 한다.
도 5는 본 발명에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도이다.
도 5를 참조하면, 우선 강의자 단말기(110)와 클라이언트 단말기(120)는 서로 발표자료의 공유를 확인한다(S10).
전술한 것처럼, 강의자 단말기(110)와 클라이언트 단말기(120)는 동일한 발표자료를 로컬에 존재하는 저장부에 보관함으로써 발표자료를 공유한다. 클라이언트 단말기(120)가 사용자의 요청에 의해 강의자 단말기(110)로부터 발표자료를 미리 다운로드하거나, 강의자 단말기(110)와 클라이언트 단말기(120)가 도 3에서의 관리서버(130)로부터 발표자료를 미리 다운로드하는 방식으로 발표자료가 공유될 수 있다.
강의자 단말기(110)나 클라이언트 단말기(120)에 동일한 발표자료가 없는 경우, 즉 발표자료가 강의자 단말기(110)와 클라이언트 단말기(120) 간에 공유가 되지 않은 경우, 각 단말기(110, 120)를 사용하는 사용자가 키 입력에 의해 발표자료의 다운로드를 요청하거나, 발표자료를 기지고 있지 않은 단말기(110, 120)가 발표자료를 자동으로 다운로드하는 방식으로 발표자료의 공유가 수행될 수 있다.
강의자 단말기(110)와 클라이언트 단말기(120)의 접속부(112, 121)에 의해 발표자료의 공유가 확인되면, 강의자 단말기(110)와 클라이언트 단말기(120)는 각각 화면으로 발표자료를 출력한다(S20).
강의자 단말기(110)는 강의자의 터치 입력에 의한 발표 개시가 입력되는지 여부를 체크하고(S30), 발표 개시가 입력되면 강의자 단말기(110)는 강의자의 음성 녹음을 시작한다(S40). 발표 개시가 입력되지 않은 경우, 강의자 단말기(110)는 발표자료를 출력한 채로 발표 개시가 입력될 때까지 대기한다.
강의자 단말기(110)는 강의자의 음성을 녹음하는 동시에 터치스크린(111)에서 강의자의 터치이벤트가 발생하는지 여부를 감지한다(S50).
터치스크린(111)에서 터치이벤트가 감지되면, 강의자 단말기(110)는 감지된 터치이벤트에 대응하는 화면 출력을 수행하고 그와 동시에 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성한다(S60). 전술한 것처럼, 강의자 단말기(110)는 터치이벤트에 대응하여 발표자료에 대한 페이지 이동이나 발표자료에 글씨나 그림을 그리는 등의 다양한 화면 출력을 수행할 수 있다.
강의자 단말기(110)는 생성한 터치이벤트정보를 클라이언트 단말기(120)로 전송한다(S70).
터치이벤트정보를 수신하면, 클라이언트 단말기(120)는 수신한 터치이벤트정보에 대응하는 화면 출력을 수행한다. 클라이언트 단말기(120)가 수신한 터치이벤트정보에 대응하는 화면 출력을 수행함으로써, 강의자 단말기(110)와 클라이언트 단말기(120)의 화면에는 동일한 내용이 출력될 수 있다.
발표자료를 이용한 발표나 강의를 종료하면 강의자는 터치 입력을 통해 강의자 단말기(110)에 발표 종료를 입력할 수 있다(S90). 강의자 단말기(110)에서 발표 종료가 입력되면, 강의자 단말기(110)는 음성 녹음을 중단하고, 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성한다(S100).
강의자 단말기(110)에서 발표 종료가 입력되기 전까지, S40 단계 내지 S80 단계가 반복된다.
도면에 도시되지는 않았지만, 클라이언트 단말기(120)가 요청하는 경우, 강의자 단말기(110)는 생성된 재현파일을 클라이언트 단말기(120)로 전송한다. 클라이언트 단말기(120)는 재현파일을 재생하되, 녹음 파일과 수집이벤트 파일을 동기화함으로써 강의자의 음성이 출력되는 동시에 시간의 흐름에 맞추어 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 재현파일을 재생한다.
도 6은 본 발명의 다른 실시예에 따른 터치이벤트정보를 이용한 발표자료 재현 방법을 설명한 흐름도이다.
우선 강의자 단말기(110)와 클라이언트 단말기(120)는 관리서버(130)에 접속하고, 관리서버(130)로부터 발표자료를 수신한다(S100). 이때 강의자 단말기(110)의 강의자와 클라이언트 단말기(120)의 사용자는 관리서버(130)의 자료 데이터베이스(133)에서 발표자료를 검색한 후 검색된 해당 발표자료를 다운로드한다.
강의자 단말기(110)는 네트워크를 통해 직접 연결되거나 관리서버(130)를 매개하여 연결된 클라이언트 단말기(120)에 발표자료가 존재하는지 여부를 확인하는 방식으로 발표자료의 공유 여부를 확인한다. 만일 클라이언트 단말기(120)에 발표자료가 존재하지 않는 경우, 강의자 단말기(110)는 클라이언트 단말기(120)로 발표자료를 자동 전송하거나, 또는 강의자 단말기(110)가 해당 발표자료를 다운로드하라는 알림 메시지를 클라이언트 단말기(120)로 전송할 수도 있다. 또는 클라이언트 단말기(120)가 강의자 단말기(110)나 관리서버(130)에 존재하는 발표자료를 자동으로 다운로드할 수도 있다.
강의자 단말기(110)와 클라이언트 단말기(120)에 모두 발표자료가 존재하여 발표자료에 대한 공유가 확인된 경우, 강의자 단말기(110)는 터치스크린을 통해 발표자료를 출력하고(S120), 클라이언트 단말기(120)는 스크린을 통해 발표자료를 출력한다.
강의자 단말기(110)는 강의자의 터치 입력에 의한 발표 개시를 입력받는다(S140).
발표 개시가 강의자에 의해 입력되면, 강의자 단말기(110)는 강의자의 음성을 녹음하는 것을 시작하고(S150), 터치스크린(111)에 강의자의 터치에 의한 터치이벤트를 감지한다.
강의자에 의한 터치이벤트가 감지되면, 강의자 단말기(110)는 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 관리서버를 경유하여 클라이언트 단말기(120)로 전송한다(S170, S180).
그와 동시에 강의자 단말기(110)는 감지된 터치이벤트에 대응하는 화면 출력을 수행한다(S190).
한편, 클라이언트 단말기(120)는 수신한 터치이벤트정보에 대응하는 화면 출력을 수행한다(S200).
강의자 단말기(110)는 강의자의 터치 입력에 의한 발표 종료를 입력받는다(S210).
발표 종료가 강의자에 의해 입력되면, 강의자 단말기(110)는 음성 녹음을 중단하고(S220), 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성한다. 여기서, 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 상기 녹음 파일과 상기 터치이벤트정보가 동기화된 파일이다.
재현파일이 생성되면, 강의자 단말기(110)는 생성한 재현파일을 관리서버(130)로 전송한다(S240). 관리서버(130)는 수신한 재현파일을 자료 데이터베이스(133)에 저장한다.
그리고 나서 클라이언트 단말기(120)가 관리서버(130)로 재현파일을 요청한다(S250).
관리서버(130)는 클라이언트 단말기(120)가 요청한 재현파일을 클라이언트 단말기(120)로 전송한다(S260).
클라이언트 단말기(120)는 재현파일을 재생하되, 녹음 파일과 수집이벤트 파일을 동기화함으로써 강의자의 음성이 출력되는 동시에 시간의 흐름에 맞추어 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 재현파일을 재생한다(S270).
본 발명에서 재현파일은 인터넷 강의처럼 강의자의 얼굴과 신체의 제스쳐 같은 것들이 촬영된 일반적으로 녹화된 동영상이 아니라, 컴퓨터나 태블릿 컴퓨터의 화면을 기반으로 발표자료 상의 필기를 재현하고 강의자의 음성을 함께 들을 수 있는 파일을 의미한다.
발표자료에 대한 페이지 넘김이나 필기 기록은 터치 제스쳐를 인식할 수 있는 터치스크린을 가진 디바이스 상에서 이루어지며, 발표자료를 실시간으로 재현하거나 후에 재현파일을 통해 재현할 때에는 웹, 모바일, PC 응용프로그램 등 어디에서나 가능하다. 발표자료를 실시간으로 재현하면 원격 강의나 원격 회의가 되고, 시간차를 두고 재현한다면 동영상 강의가 될 수 있다.
본 발명에서 영상을 녹화하는 것이 아닌 재현하기 위해서 필요한 요소는 크게 3가지이다. 발표 시 사용하는 발표자료, 페이지를 넘기거나 발표자료에 필기 조작을 하기 위한 강의자의 터치이벤트정보, 마지막으로 강의자의 음성을 녹음한 녹음 파일이다. 이 3가지만 있으면 작은 용량으로도 무리 없이 발표 영상이나 강의 영상을 재현할 수 있다.
또한 영상을 녹화하여 재생하는 것이 아니라 재현파일을 재생하는 것이기 때문에 화면을 이원화하여 사용할 수 있다는 장점이 있다. 예를 들어서 강의자가 보는 화면과 강의자 외의 다른 사람이 보는 화면을 달리해서 보여줄 수 있고, 서로 공유하고 싶은 부분만 보여주는 방식으로 활용될 수도 있다.
그리고 강의 영상을 재현하기 위한 첫 번째 요소인 발표자료는 미리 공유할 수 있기 때문에 실질적으로 터치이벤트정보와 음성을 녹음한 녹음 파일이라는 작은 용량의 파일을 P2P나 네트워크를 통해 전송함으로써 강의 영상을 재현할 수 있다.
녹화가 아닌 재현이기 때문에, 미리 데이터를 공유할 수 있는 모든 멀티미디어 파일에도 쉽게 적용할 수 있다. 또한 실시간으로 연동되는 웹 화면이나 지도 데이타 등에도 사용할 수 있는 등 확장성이 높다.
본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서는 도면에 도시된 구체적인 실시예를 참고하여 본 발명을 설명하였으나 이는 예시적인 것에 불과하므로, 본 발명이 속하는 기술 분야에서 통상의 기술을 가진 자라면 이로부터 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 보호 범위는 후술하는 특허청구범위에 의하여 해석되어야 하고, 그와 동등 및 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 보호 범위에 포함되는 것으로 해석되어야 할 것이다.
110, 강의자 단말기 120, 클라이언트 단말기
130, 관리서버 111, 터치스크린
112, 접속부 113, 발표자료 처리부
114, 저장부 115, 녹음부
116, 재현파일 생성부 117, 타이머

Claims (15)

  1. (a) 터치 입력이 가능한 강의자 단말기가 각 페이지별로 텍스트와 이미지를 포함하는 발표자료를 클라이언트 단말기와 공유하는 단계;
    (b) 상기 강의자 단말기와 상기 클라이언트 단말기가 발표자료를 화면으로 출력하는 단계;
    (c) 발표 개시가 입력되면, 상기 강의자 단말기가 강의자 음성을 녹음하는 동시에 페이지 이동이나 필기와 관련된 터치이벤트들을 수집하는 단계;
    (d) 터치이벤트가 감지되면, 상기 강의자 단말기는 감지된 터치이벤트에 대응하는 화면 출력을 수행하되, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 상기 클라이언트 단말기로 전송하는 단계; 및
    (e) 상기 클라이언트 단말기가 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 단계를 포함하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  2. 제1항에 있어서, 상기 발표자료 재현 방법은,
    (f) 발표 종료가 입력되면, 상기 강의자 단말기는 각 터치이벤트정보를 포함한 수집이벤트 파일, 강의자의 음성을 녹음한 녹음 파일, 및 발표자료를 포함하는 재현파일을 생성하는 단계를 더 포함하고,
    상기 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 상기 녹음 파일과 상기 터치이벤트정보가 동기화된 파일인 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  3. 제1항에 있어서, 상기 (c) 단계는,
    상기 강의자 단말기가 강의자 음성을 상기 클라이언트 단말기로 전송하는 단계; 및
    상기 클라이언트 단말기가 수신한 강의자 음성을 스피커를 통해 출력하는 단계를 포함하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  4. 제2항에 있어서, 상기 발표자료 재현 방법은,
    (g) 상기 강의자 단말기가 상기 재현파일을 자료 데이터베이스에 등록하는 단계; 및
    (h) 상기 자료 데이터베이스에 접속한 클라이언트 단말기가 상기 재현파일을 다운로드하여 재생하는 단계를 더 포함하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  5. 제1항에 있어서,
    상기 터치이벤트정보는 특정 웹페이지의 주소 또는 특정 이미지의 위치를 지시하는 링크정보를 더 포함하고,
    상기 클라이언트 단말기는 상기 링크정보를 참조하여 웹페이지나 이미지를 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  6. 제1항에 있어서,
    상기 터치이벤트는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트로 구분되고,
    상기 강의자 단말기는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트를 각각 구분하여 처리하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  7. 제1항에 있어서, 상기 클라이언트 단말기는 사용자로부터 질문 내용을 입력받으면 입력받은 질문 내용을 메시지 형태로 상기 강의자 단말기로 전송하고,
    상기 강의자 단말기는 수신한 질문 내용을 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 방법.
  8. 터치 입력이 가능한 강의자 단말기 및 상기 강의자 단말기와 네트워크로 연결된 클라이언트 단말기를 포함하는 발표자료 재현 시스템으로서,
    상기 강의자 단말기는, 발표자료를 화면으로 출력하되, 페이지 이동이나 필기와 관련된 강의자의 터치이벤트가 감지되면 감지된 터치이벤트에 대응하는 화면 출력을 수행하고, 터치 입력 시간, 터치이벤트 종류, 및 터치이벤트 내용을 포함하는 터치이벤트정보를 생성하여 상기 클라이언트 단말기로 전송하는 발표자료 처리부; 및 강의자의 음성을 녹음하여 녹음 파일을 생성하는 녹음부를 포함하고,
    상기 클라이언트 단말기는, 발표자료를 화면으로 출력하되, 터치이벤트정보를 수신하면 수신한 터치이벤트정보에 대응하는 화면 출력을 수행하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  9. 제8항에 있어서,
    상기 강의자 단말기는, 상기 각 터치이벤트정보를 포함하는 수집이벤트 파일, 강의자의 음성을 녹음한 상기 녹음 파일, 및 상기 발표자료를 포함하는 재현파일을 생성하는 재현파일 생성부를 더 포함하고,
    상기 재현파일은 강의자의 음성이 출력되는 동시에 발표자료가 터치이벤트정보에 따라 변경되며 출력되도록 상기 녹음 파일과 상기 터치이벤트정보가 동기화된 파일인 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  10. 제8항에 있어서,
    상기 강의자 단말기는 강의자 음성을 상기 클라이언트 단말기로 전송하고,
    상기 클라이언트 단말기는 수신한 강의자 음성을 스피커를 통해 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  11. 제9항에 있어서,
    상기 발표자료 재현 시스템은 상기 재현파일을 저장하는 자료 데이터베이스를 더 포함하고,
    상기 클라이언트 단말기는, 상기 자료 데이터베이스에 접속하여 상기 재현파일을 요청한 후 다운로드하고, 다운로드한 상기 재현파일을 재생하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  12. 제8항에 있어서,
    상기 터치이벤트정보는 특정 웹페이지의 주소 또는 특정 이미지의 위치를 지시하는 링크정보를 더 포함하고,
    상기 클라이언트 단말기는 상기 링크정보를 참조하여 웹페이지나 이미지를 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  13. 제8항에 있어서,
    상기 터치이벤트는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트로 구분되고,
    상기 강의자 단말기는 상기 강의자 단말기에만 출력되는 이벤트 및 상기 강의자 단말기와 상기 클라이언트 단말기에 모두 출력되는 이벤트를 각각 구분하여 처리하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  14. 제8항에 있어서,
    상기 클라이언트 단말기는 사용자로부터 질문 내용을 입력받으면 입력받은 질문 내용을 메시지 형태로 상기 강의자 단말기로 전송하고,
    상기 강의자 단말기는 수신한 질문 내용을 화면에 출력하는 것을 특징으로 하는, 터치이벤트정보를 이용한 발표자료 재현 시스템.
  15. 제8항 내지 제14항 중의 어느 한 항에 따른 방법을 실현시키기 위한 프로그램을 구현한 컴퓨터로 읽을 수 있는 기록매체.
KR1020130014565A 2013-02-08 2013-02-08 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법 KR101621496B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130014565A KR101621496B1 (ko) 2013-02-08 2013-02-08 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130014565A KR101621496B1 (ko) 2013-02-08 2013-02-08 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20140101190A true KR20140101190A (ko) 2014-08-19
KR101621496B1 KR101621496B1 (ko) 2016-05-16

Family

ID=51746708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130014565A KR101621496B1 (ko) 2013-02-08 2013-02-08 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101621496B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017175590A (ja) * 2016-03-17 2017-09-28 株式会社キャニオン・マインド プログラム
KR102031739B1 (ko) * 2019-06-27 2019-10-14 보은전자방송통신(주) 디스플레이 화면과 별도로 수업 진행모드에 따른 강의화면을 구성하여 실시간 인터넷 방송을 지원하는 인터랙티브 화이트보드
KR20210097392A (ko) * 2020-01-30 2021-08-09 (주)아큐플라이에이아이 회의 통역 장치
KR20210097393A (ko) * 2020-01-30 2021-08-09 (주)아큐플라이에이아이 강의 통역 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202941A (ja) 2000-08-25 2002-07-19 4C Soft Inc マルチメディア電子学習システムおよび学習方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017175590A (ja) * 2016-03-17 2017-09-28 株式会社キャニオン・マインド プログラム
KR102031739B1 (ko) * 2019-06-27 2019-10-14 보은전자방송통신(주) 디스플레이 화면과 별도로 수업 진행모드에 따른 강의화면을 구성하여 실시간 인터넷 방송을 지원하는 인터랙티브 화이트보드
KR20210097392A (ko) * 2020-01-30 2021-08-09 (주)아큐플라이에이아이 회의 통역 장치
KR20210097393A (ko) * 2020-01-30 2021-08-09 (주)아큐플라이에이아이 강의 통역 장치

Also Published As

Publication number Publication date
KR101621496B1 (ko) 2016-05-16

Similar Documents

Publication Publication Date Title
CN108881429B (zh) 用于共享演示数据和注释的方法和设备
KR101702659B1 (ko) 동영상 콘텐츠와 전자책 콘텐츠의 동기화 장치와 방법 및 시스템
US20150304330A1 (en) System and method for managing several mobile devices simultaneously
US9372864B2 (en) Online binders
US11190557B1 (en) Collaborative remote interactive platform
CN102292713A (zh) 多媒体协作系统
WO2020102006A2 (en) System and management of semantic indicators during document presentations
US20150304254A1 (en) Information processing system, information processing apparatus, and storage medium
KR101621496B1 (ko) 터치이벤트정보를 이용한 발표자료 재현 시스템 및 방법
JP2024056770A (ja) 教室環境での進捗を追跡するためのソフトウェアフレームワーク
JP2004207948A (ja) ビデオ閲覧システム
US11349889B1 (en) Collaborative remote interactive platform
US10452719B2 (en) Terminal apparatus and method for search contents
US20120331060A1 (en) Sharing of Documents with Semantic Adaptation Across Mobile Devices
WO2023274124A1 (zh) 信息回复方法、装置、电子设备、计算机存储介质和产品
WO2016000638A1 (en) Networking cooperation method and machine using such method
US20150067056A1 (en) Information processing system, information processing apparatus, and information processing method
US20140258348A1 (en) Methods and systems for association of e-book and multimedia content
US10567577B2 (en) Information processing system and information processing method
US20170149578A1 (en) Networking cooperation method and machine using such method
CN114969580A (zh) 会议内容记录方法、装置、会议系统和存储介质
JP2021060949A (ja) 通信システム、情報処理装置、通信方法、プログラム
KR20190032754A (ko) 디바이스 크기와 무관하게 동일 좌표 간격을 이용하여 화면이 동일하게 표시되는 레이어 공유 시스템
Lee Design of tablet-based live mobile learning system supporting improved annotation
KR102133535B1 (ko) 웹 페이지에 주석을 부가하는 방법 및 그 디바이스

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190501

Year of fee payment: 4