KR20020016509A - The multimedia electronic education system and the method thereof - Google Patents

The multimedia electronic education system and the method thereof Download PDF

Info

Publication number
KR20020016509A
KR20020016509A KR1020010049016A KR20010049016A KR20020016509A KR 20020016509 A KR20020016509 A KR 20020016509A KR 1020010049016 A KR1020010049016 A KR 1020010049016A KR 20010049016 A KR20010049016 A KR 20010049016A KR 20020016509 A KR20020016509 A KR 20020016509A
Authority
KR
South Korea
Prior art keywords
event
time
lecture
data
file
Prior art date
Application number
KR1020010049016A
Other languages
Korean (ko)
Inventor
배정훈
Original Assignee
권혁빈
주식회사 포씨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 권혁빈, 주식회사 포씨소프트 filed Critical 권혁빈
Priority to JP2001254613A priority Critical patent/JP2002202941A/en
Priority to US09/938,363 priority patent/US20020091658A1/en
Publication of KR20020016509A publication Critical patent/KR20020016509A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: A multimedia electronic education system and a method thereof are provided to execute lecture at real time, to record contents of lecture, and to edit the recorded contents. CONSTITUTION: The system comprises many client PCs(108) including an instructor(106) and students, a recording server(110) recording a lecture in real time, automatically converting the recorded data into a format used by a non-real time tele-program, an MDBM(Multimedia Data Broadcasting Module) server(102) interconnecting the client PCs and broadcasting the data exchanged during the lecture to the client PCs and the recording server, and a management server transmitting a correspondence course to the client PCs and the recording server and in charge of user authentication. The students record the lecture, store the recorded lecture in files, and edit and correct the files. During the lecture, the function for the right to speak, chatting using a voice and a text, and a screen share are offered to the students. The time to start, finish and maintain all events is predetermined to occur at a proper time.

Description

멀티미디어 전자 학습 시스템 및 방법{THE MULTIMEDIA ELECTRONIC EDUCATION SYSTEM AND THE METHOD THEREOF}MULTIMEDIA ELECTRONIC EDUCATION SYSTEM AND THE METHOD THEREOF

본 발명은 학습 시스템 및 방법에 관한 것으로서, 보다 상세하게는 오프라인 교육과 온라인 교육의 적절한 조화를 통한 네티즌의 온라인 교육에 대한 불편함을 해소시킬 수 있는 멀티미디어 전자 학습 시스템 및 방법에 관한 것이다.The present invention relates to a learning system and method, and more particularly, to a multimedia electronic learning system and method that can solve the inconvenience of online education of the netizen through the appropriate combination of offline education and online education.

종래의 멀티미디어 전자 학습으로는 교육용 CD를 제작하여 학습자에게 제공함으로써 학습자가 PC의 CD-ROM 드라이브에 넣고 실행시키는 방법을 이용해 학습을 할 수 있었다. CD의 경우에는 저장용량이 크기 때문에 데이터의 크기가 비교적 큰 동영상을 제공하는데 유용한 있다. 그러나, CD는 저장되어 있는 학습 강의 최신 정보 갱신이 변동 사항이 있을 경우 다시 제작해야 하는 번거로움이있을 뿐만 아니라, 일방적으로 학습자에게 학습 내용을 전달하게 때문에 높은 학습 효과 및 학습 능률을 기대하기 어려우며, 오프라인과 같이 선생님과 학습자의 직접적인 교류를 통해 학습하기에는 불가능하였다.In the conventional multimedia electronic learning, the educational CD was produced and provided to the learner, thereby enabling the learner to learn by inserting the CD into the CD-ROM drive of the PC. In the case of a CD, since the storage capacity is large, it is useful to provide a moving image having a relatively large data size. However, the CD is not only hassle to be re-created when the latest information of the stored lessons is changed, and it is difficult to expect high learning effects and learning efficiency because it unilaterally delivers the learning contents to the learners. It was impossible to learn through direct exchange between teacher and learner like offline.

또한, 최근에는 인터넷의 발달로 온라인을 이용한 학습 서비스가 제공되고 있는데, 상기 의 경우에서 발생되는 문제점인 최신 정보의 갱신이 어려운 것을 해결할 수 있으나 단순히 CD에 저장된 강의 컨텐츠 내용을 단순히 온라인상에 제공한 것으로 학습자들이 인터넷을 통해 학습할 수 있도록 한 것에 불과하였다.In addition, in recent years, the development of the Internet has provided online learning services, which can solve the difficulty of updating the latest information, which is a problem caused in the above case, but simply provides the contents of the lecture contents stored on the CD online. It was merely to allow learners to learn through the Internet.

상기 종래 기술에 따른 학습 내용의 제작은 실시간으로 음성을 녹음하면서 동시에 동영상을 포함한 모든 이벤트(중요한 부분의 체크, 밑줄, 참고자료 등 강의화면에 적용되는 강의수단을 말함)들을 레코딩하게 되는데, 이러한 방법을 사용하다 보면 원하는 시간에 이벤트를 발생시키는데 실패할 경우 다시 동일한 음성 녹음을 반복하면서 이벤트 발생순서 및 시간을 동기화하는 불필요한 과정을 반복해야 하고 정해진 강의시간 내에서 이벤트 유지시간을 정확하게 배정하기 어려웠다.The production of the learning content according to the prior art, while recording the voice in real time at the same time recording all events (including lecture means applied to the lecture screen, such as checks, underlines, reference material of important parts), such a method, In the case of using the event, if it fails to generate the event at the desired time, it is necessary to repeat the unnecessary process of synchronizing the sequence and time of event occurrence while repeating the same voice recording again.

그리고, 실시간으로 음성을 녹음하면서 동영상을 포함한 모든 이벤트들을 레코딩하게 되면 이벤트의 동시 입력이 불가능하므로 동시에 이벤트가 발생하기도 불가능하며, 실시간 방식으로 레코딩하는 프로그램으로 제작된 컨텐츠의 경우에 이미 제작 완료된 강의에서 이벤트를 편집할 수 있는 방법이 제공되지 못하고 있는 실정이다. 비실시간으로 이벤트를 입력하는 경우 각각의 데이터가 시간값을 가지고 있지 못하므로 제작자가 원하는 시간에 특정 이벤트를 발생시키기 원하는 경우 컴퓨터의 키보드나 마우스 조작 등의 방법을 통해 직접 발생시켜야 하며, 한 이벤트가 위치하고 있는 곳에 다른 이벤트를 발생시키기 원할 때 각각의 이벤트가 발생 또는종료되는 시간값을 가지고 있지 않으므로 이벤트가 겹쳐서 발생하여 제작자가 원하는 이벤트 효과를 발생하는데 한계가 있을 뿐만 아니라 겹쳐서 입력되어 있는 이벤트 중 원하는 이벤트를 선택하여 작업하기가 불편하였다.In addition, if all the events including video are recorded while recording voice in real time, it is impossible to simultaneously input the events, so it is impossible to generate events at the same time. In the case of contents produced by the program recording in real time, There is no way to edit an event. If you input an event in non-real time, each data does not have a time value, so if the author wants to trigger a specific event at a desired time, you must fire it directly through the computer keyboard or mouse. When you want to trigger other events where you are located, each event does not have a time value that occurs or ends.Therefore, there is a limit to generating the event effect that the producer wants as well as the event that the producer wants. It was inconvenient to work with.

그리고, 실시간 원격 화상회의나 화상교육, 프리젠테이션을 진행하면서 실시간으로 진행 내용을 녹음하여 재생하는 경우 실시간으로 강의하다가 발생하는 이벤트의 입력 실수나 진행자 또는 참여자의 발음 실수와 같은 수정 사항을 편집할 수 있도록 비실시간 편집 프로그램과 연동되어 있지 않아 그대로 컨텐츠를 재생할 수밖에 없었으며, 제작된 강의 컨텐츠를 플레이어(Player)로 재생하는 도중 특정 페이지로 임의 전환을 시도하는 경우 종래의 플레이어는 페이지만 전환될 뿐, 전환된 페이지의 시간에 해당하는 음성 데이터가 동기되지 않고 계속 진행상태를 유지해서 음성 데이터와 페이지 내용이 따로 진행되기 때문에 원하는 부분부터 재생하기가 불가능하였다.And, if you are recording and playing the progress in real time during a real-time teleconference, video training, or presentation, you can edit corrections such as mistakes in input of events or pronunciation errors of the presenter or participants during real-time lectures. Since it is not linked with the non-real-time editing program, the contents cannot be played as it is, and when a player attempts to randomly switch to a specific page while playing the produced contents of the lecture, the conventional player only switches pages. Since the voice data corresponding to the time of the switched page is not synchronized and keeps progressing, the voice data and the page contents are progressed separately.

본 발명은 상기 문제점들을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 실시간 강의 교육 진행과 동시에 강의내용이 실시간으로 녹화 저장되고 저장된 컨텐츠가 비실시간으로 편집될 수 있도록 하는 것이다.The present invention has been made to solve the above problems, and an object of the present invention is to allow the contents of the lectures to be recorded and stored in real time and the stored contents can be edited in real time at the same time as the real-time lectures progress.

본 발명의 다른 목적은 강의 진행 중 질의 응답을 위한 발언권 부여, 음성 및 텍스트를 이용한 채팅, 화면 공유 등의 기능과, 컨텐츠에 적용되는 모든 이벤트의 발생, 종료시간, 또는 유지시간을 설정함으로써 컨텐츠 재생시 이벤트가 적절한 때에 발생할 수 있는 멀티미디어 전자 학습 시스템 및 방법을 제공하기 위한 것이다.Another object of the present invention is to play content by setting a function such as giving voice for a question and answer during a lecture, chatting using voice and text, sharing a screen, and setting occurrence, end time, or retention time of all events applied to the content. To provide a multimedia electronic learning system and method that can occur when the time event is appropriate.

도 1은 본 발명에 따른 멀티미디어 전자 학습의 운영에 필요한 주변기기들의 구성도.1 is a block diagram of peripheral devices required for the operation of multimedia e-learning according to the present invention.

도 2는 관리서버의 역할을 설명하는 도면.2 is a diagram illustrating a role of a management server.

도 3a는 MDBM 서버, 레코딩 서버, 및 각각의 클라이언트의 접속관계를 설명하는 도면.3A is a diagram illustrating a connection relationship between an MDBM server, a recording server, and each client.

도 3b는 MDBM 서버가 각각의 클라이언트 및 레코딩 서버와 주고 받는 데이터 내역을 설명하는 도면.3B is a diagram for explaining details of data exchanged with an MDBM server with each client and a recording server.

도 3c는 강사(I), 클리이언트(C) 및 특정 클라이언트(SC)가 전송하는 데이터 내역을 보다 구체적으로 설명하는 도면.3C is a diagram illustrating in more detail the data details transmitted by the instructor I, the client C, and the specific client SC.

도 4는 클라이언트측으로부터의 데이터가 MDBM 서버로 전송되는 과정을 설명하는 도면.4 is a diagram illustrating a process in which data from a client side is transmitted to an MDBM server.

도 5는 실시간으로 진행되는 강의 내용이 클라이언트측에 브로드캐스팅되는 과정을 설명하는 도면.FIG. 5 is a diagram illustrating a process of broadcasting lecture contents in real time to a client side; FIG.

도 6은 레코딩 서버가 MDBM 서버와 관리 서버로부터 전송받은 데이터를 처리하는 과정을 설명하는 도면.6 is a diagram illustrating a process of a recording server processing data received from an MDBM server and a management server.

도 7은 클라이언트가 MDBM 서버에 접속하기 위한 환경을 설명하는 도면.7 illustrates an environment for a client to connect to an MDBM server.

도 8a는 비실시간 강의 제작프로그램의 레코더를 사용하여 오디오 클립을 제작하고 편집하는 방법, 동영상 데이터 파일을 삽입하는 방법, 및 강의 파일을 저장하는 과정을 설명하는 도면.8A illustrates a method of creating and editing an audio clip using a recorder of a non-real-time lecture production program, a method of inserting a video data file, and a process of storing a lecture file.

도 8b는 다운로드 방식의 강의를 제작하여 서비스하는 방법을 설명하는 도면.8B is a diagram for explaining a method of producing and providing a lecture in a download method.

도 8c는 스트리밍 방식의 강의를 제작하여 서비스하는 방법을 설명하는 도면.8C is a diagram for explaining a method of producing and providing a lecture in a streaming method.

도 9와 도 10은 각각 실시간 원격교육 프로그램의 강사용 프로그램과 학생용 프로그램의 화면구성예를 도시하는 도면.9 and 10 are diagrams showing screen configuration examples of a lecturer program and a student program of a real-time distance education program, respectively.

도 11과 도 12는 비실시간 원격교육 프로그램의 레코더와 플레이어를 설명하는 도면.11 and 12 illustrate a recorder and a player of a non-real-time distance education program.

도 13은 상기 도 11의 타임라인 윈도우를 보다 구체적으로 설명하는 도면.FIG. 13 illustrates the timeline window of FIG. 11 in more detail. FIG.

도 14는 상기 도 11의 이벤트 리스트를 보다 구체적으로 설명하는 도면.14 illustrates the event list of FIG. 11 in more detail.

도 15는 상기 도 11의 이벤트 툴 바를 보다 구체적으로 설명하는 도면.FIG. 15 illustrates the event toolbar of FIG. 11 in more detail.

도 16은 비실시간 프로그램 레코더의 이벤트 입력 화면을 설명하는 도면.Fig. 16 is a diagram explaining an event input screen of a non-real-time program recorder.

도 17은 본 발명에 있어서, 음성편집에 사용되는 음성편집기의 일례를 나타내는 도면.Fig. 17 is a diagram showing an example of a voice editor used for voice editing in the present invention.

도 18은 강의 컨텐츠를 비실시간 재생용 프로그램에서 로딩할 때 타임테이블 어레이와 이벤트 데이터 체계, 그리고 이벤트 데이터 체계를 구성하는 발생이벤트어레이와 종료 이벤트 어레이의 구조와 입력된 각각의 이벤트들이 동기화되어 플레이되는 과정을 설명하는 도면.FIG. 18 illustrates a structure of a timetable array, an event data system, an occurrence event array and an end event array constituting the event data system, and each of the inputted events when the lecture contents are loaded in a program for non-real time playback. Drawing to explain the process.

도 19는 타임 테이블, 이벤트 리스트, 및 타임 라인 윈도우의 연동으로 각 이벤트의 발생 및 종료시간이 관리되는 과정을 설명하는 도면.19 is a diagram illustrating a process of managing occurrence and end times of each event by interworking a time table, an event list, and a timeline window;

도 20은 본 발명에 따른 멀티미디어 플레이어 알고리즘 설명하는 순서도.20 is a flowchart illustrating a multimedia player algorithm according to the present invention.

※ 도면의 주요부분에 대한 부호의 설명 ※※ Explanation of code about main part of drawing ※

100 : 관리 서버 102 : MDBM 서버100: management server 102: MDBM server

110 : 레코딩 서버110: recording server

상기한 목적을 달성하기 위하여 본 발명에 따른 멀티미디어 전자 학습 시스템은Multimedia electronic learning system according to the present invention to achieve the above object

강사와 학생을 포함하는 다수의 클라이언트 PC; 실시간 강의를 녹화하여 비실시간 원격 프로그램에서 사용할 수 있는 포맷으로 자동 변환, 저장하는 레코딩 서버; 상기 다수의 클라이언트 PC를 서로연결하고 실시간 강의가 진행되는 동안 교환되는 데이터를 모든 클라이언트 PC와 레코딩 서버에 브로드캐스팅하는 MDBM 서버; 및 클라이언트 PC 및 레코딩 서버로 강의 교안을 전송해주고 사용자 인증을 담당하는 관리 서버를 포함하는 것을 특징으로 한다.Multiple client PCs including instructors and students; A recording server that records live lectures and automatically converts and stores them in a format that can be used by a non-real time remote program; An MDBM server connecting the plurality of client PCs to each other and broadcasting the data exchanged to all the client PCs and the recording server during the real-time lecture; And a management server that transmits the syllabus to the client PC and the recording server and is responsible for user authentication.

또한, 본 발명에 따른 멀티미디어 전자 학습 방법은 강의 제작과 관련하여 강사가 강의 제작 프로그램의 레코더를 이용하여 강의 파일을 생성하는데 있어서, 강의 시간을 카운팅하면서 이벤트 리스트를 준비하는 단계; 강사의 음성이 입력될 경우 카운팅된 강의 시간 정보와 함께 음성파일을 생성하는 단계; 이벤트 입력시 그 이벤트 발생 또는 종료의 시각과 이벤트의 형식을 상기 이벤트 리스트에 저장하는 단계; 및 상기 음성 파일과 상기 이벤트 리스트에 등록된 이벤트를 강의 시간 정보에 따라 동기시켜 별도 또는 통합 저장하는 단계를 포함하는 것을 특징으로 하는 강의 제작에 관한 멀티미디어 전자 학습 방법과,In addition, the multimedia e-learning method according to the present invention comprises the steps of preparing an event list while counting the lecture time in the lecturer to create a lecture file by using the recorder of the lecture production program associated with the lecture production; Generating a voice file together with counted lecture time information when a voice of an instructor is input; Storing the time of occurrence or termination of the event and the format of the event in the event list when an event is input; And synchronizing and separately storing the voice file and the event registered in the event list according to the lecture time information.

상기 강의 재생에 관련하여, 상기 강의 파일을 로딩하여 전체 강의 시간을 체크하는 단계와; 전체 강의시간에 해당하는 크기를 갖는 타임 테이블 어레이를 생성하는 단계와; 상기 이벤트 리스트내의 모든 이벤트의 발생 및 종료시간을 검색하는 단계와; 상기 모든 이벤트의 발생 및 종료시간에 따라 이벤트가 있는 시간에 해당하는 타임 테이블 어레이에 이벤트 데이터 체계를 생성하고 상기 체계의 주소를 타임 테이블 어레이에 저장한 후, 상기 이벤트 데이터 체계내에 발생 및 종료 이벤트 어레이를 생성하고 상기 발생 및 종료 이벤트 어레이에 해당 발생 및 종료 이벤트 주소를 저장하는 단계와; 강의 시간을 증가시키면서 상기 강의 시간에 해당하는 타임 테이블 어레이에 이벤트 데이터 체계의 주소가 있는 경우, 이벤트 데이터 체계의 발생 및 종료 이벤트 어레이에 저장된 해당 발생 및 종료 이벤트 주소의 이벤트를 로딩하여 이벤트를 발생 또는 종료시키는 단계를 포함하는 것을 특징으로 하는 재생에 관한 멀티미디어 전자 학습 방법을 포함한다.In relation to the playing of the lecture, loading the lecture file to check the total lecture time; Generating a time table array having a size corresponding to an entire lecture time; Retrieving the occurrence and end times of all events in the event list; After generating an event data system in a time table array corresponding to a time when an event occurs according to the occurrence and end time of all the events, storing the address of the system in the time table array, and then generating and ending event arrays in the event data system. Generating and storing corresponding occurrence and termination event addresses in the occurrence and termination event arrays; If there is an address of the event data system in the time table array corresponding to the lecture time while increasing the lecture time, the event is generated by loading the event of the corresponding event occurrence and end event addresses stored in the event data generation and end event array. Multimedia electronic learning method for playback characterized in that it comprises a step of terminating.

이하, 첨부한 도면을 참조하여 본 발명을 보다 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described the present invention in more detail.

도 1은 본 발명에 따른 멀티미디어 전자 학습의 운영에 필요한 주변기기를 나타낸 것으로, 사용자는 관리서버에 접속하여 사용자 인증을 받고 강의 교안을 다운받은 후 강의실 입장버튼을 클릭하여 클라이언트 프로그램을 실행시켜 MDBM서버(100)에 접속하고 이후 사용자로부터 전송되는 모든 데이터들은 MDBM(Multimedia Data Broadcasting Module) 서버(102)로 보내지며, 카메라, 모니터, 키보드, 마우스, 마이크, 스피커와 같은 각각의 주변기기들은 주변기기 제어장치(104)에 의해 제어된다.1 shows a peripheral device required for the operation of multimedia e-learning according to the present invention. A user accesses a management server, receives a user authentication, downloads a syllabus, and clicks a lecture room entry button to execute a client program to execute an MDBM server ( 100) and then all data transmitted from the user is sent to the Multimedia Data Broadcasting Module (MDBM) server 102. Each peripheral device such as a camera, monitor, keyboard, mouse, microphone, and speaker is connected to the peripheral controller 104. Is controlled by

예를 들면, 발언권을 가지고 있는 클라이언트는 카메라를 통하여 실시간 강의 진행시 자신의 모습을 캡처하여 MDBM 서버(102)로 전송할 수 있다. 또한, 발언권을 가지고 있는 클라이언트는 키보드와 마우스를 이용하여 프로그램 제어 뿐만 아니라 이벤트를 발생시키고, 마이크를 통해 입력된 음성을 사운드 캡처장치로 캡처한후 MDBM 서버를 거쳐 모든 클라이언트에게 전송할 수 있으며, 발언권을 가지고 있지 않은 나머지 클라이언트들은 MDBM 서버로부터 전송된 클라이언트의 음성을 스피커를 통하여 청취할 수 있다.For example, a client having a voice can capture his / her appearance during the real-time lecture through a camera and transmit it to the MDBM server 102. In addition, the client who has the right to speak can generate events as well as program control using the keyboard and mouse, capture the voice input through the microphone to the sound capture device, and send it to all clients through the MDBM server. The rest of the clients that do not have can listen to the voice of the client transmitted from the MDBM server through the speaker.

상기 MDBM 서버(102)는 이후에 상세히 설명되는 바와 같이 실시간 강의가 진행되는 동안 교환되는 데이터를 모든 클라이언트 프로그램과 레코딩 서버에 브로드캐스팅하는 역할을 수행한다.The MDBM server 102 serves to broadcast data exchanged to all client programs and recording servers during the real-time lecture as described in detail later.

도 2는 관리서버의 역할을 설명하는 도면으로서, 강의 슬라이더 이미지 파일을 저장하며, 또한 클라이언트들(108)로부터 강의에 필요한 강의(또는 교안) 슬라이더 이미지 파일의 전송명령을 받는 경우에 클라이언트 PC로 상기 강의 슬라이더 이미지 파일을 전송해 준다.FIG. 2 is a diagram illustrating the role of the management server. The lecture server stores a lecture slider image file, and also transmits the lecture (or instructional) slider image file required from the client 108 to the client PC when receiving the instruction of transferring the lecture (or instructional) slider image file required for the lecture. Transfer the lecture slider image file.

도 3a는 MDBM 서버, 레코딩 서버, 및 각각의 클라이언트의 접속관계를 설명하는 도면이다.3A is a diagram illustrating a connection relationship between an MDBM server, a recording server, and each client.

상기 MDBM 서버(102)는 실시간 강의에 참석하는 클라이언트(강사 포함)중 발언권을 가지고 있는 클라이언트가 전송하는 데이터를 실시간으로 받아들여 접속되어 있는 모든 클라이언트들(108)와[과] 레코딩 서버(110)에 브로드캐스팅하는 역할을 수행한다.The MDBM server 102 accepts in real time data transmitted by a client having a voice among clients (including a lecturer) attending a real-time lecture, and [and] a recording server 110 connected to all clients 108. It is responsible for broadcasting to.

상기 레코딩 서버(110)는 브로드캐스팅되는 모든 데이터를 입력받고 있으며, 강사(106)가 녹화버튼을 선택하여 녹화신호가 MDBM 서버를 통해 입력될 경우 브로드스팅되는 강의를 녹화하여 비실시간 원격 교육프로그램에서 사용할 수 있는 포맷으로 자동 변환, 저장하는 역할을 수행한다.The recording server 110 receives all broadcast data, and the instructor 106 selects a recording button to record a broadcast lecture when a recording signal is input through the MDBM server in a non-real-time distance education program. It automatically converts and saves into a usable format.

도 3b는 MDBM 서버가 각각의 클라이언트 및 레코딩 서버와 주고 받는 데이터 내역을 설명하는 도면이다.3B is a diagram for explaining details of data exchanged with MDBM server with each client and recording server.

참고로, 이하에서 사용되는 각각의 데이터 종류는 다음과 같다.For reference, each data type used below is as follows.

약칭Abbreviation 명칭designation 데이터 종류Data type II InstructorInstructor 강사teacher CC ClientsClients 강사를 제외한 서버에 접속되어 있는모든 클라이언트들All clients connected to the server except the instructor SCSC Specific ClientSpecific Client 특정 클라이언트Specific client SS ServerServer 서버server RSRS Recording ServerRecording Server 레코딩 서버Recording server DIDI Data of InstructorData of instructor 강사의 비디오/화상, 음성, 텍스트, 이벤트Instructor's Video / Video, Voice, Text, Events DCDC Data of ClientData of Client 클라이언트(학생)의 비디오/화상, 음성, 텍스트, 이벤트Video / Video, Voice, Text, Events from Clients (Students) DICDIC Data/Instructor/Control DataData / Instructor / Control Data 발언권 허가, 강제퇴장, 쪽지전송, Time DataPermission to speak, forced leave, message transfer, Time Data DCCDCC Data/Client/Control DataData / Client / Control Data 발언권 신청, 쪽지신청, 출석, Time DataRequest for voice, note application, attendance, time data

상기 비디오/화상 데이터는 MDBM 서버에 접속되어 있는 강사(I)와 클라이언트(C)중 발언권을 부여받은 사람의 데이터만 MDBM 서버를 통해 모든 클라이언트와 레코딩 서버에 브로드케스팅 된다.The video / image data is only broadcasted to all clients and recording servers through the MDBM server, only the data of the instructor (I) and the client (C) who have been given a voice in the MDBM server.

도 3b를 참조하면, MDBM 서버(102)에 접속되어 있는 강사(I)와 모든 클라이언트들(C1...Cn)로부터의 데이터는 MDBM 서버(102)로 전송되며, 상기 MDBM 서버(102)는 수신된 모든 데이터들(DI, DC)을 강사(I)를 포함한 모든 클라이언트들(C1...Cn) 및 레코딩 서버(108)로 브로드캐스팅된다. 따라서, 강사 및 다른 클라이언트들이 전송하는 제어신호 또한 브로드캐스팅되며, 강사를 포함한 모든 클라이언트들의 제어데이터(DIC,DCC)는 MDBM 서버를 통해 각 클라이언트가 지정한 수신인에게만 브로드캐스팅 된다.Referring to FIG. 3B, data from the instructor I and all the clients C1... Cn connected to the MDBM server 102 are transmitted to the MDBM server 102, and the MDBM server 102 may be configured as follows. All received data DI, DC are broadcast to all clients C1... Cn and recording server 108 including instructor I. Therefore, the control signals transmitted by the instructor and other clients are also broadcasted, and the control data (DIC, DCC) of all clients including the instructor are broadcast only to recipients designated by each client through the MDBM server.

도 3c는 강사(I), 클리이언트(C) 및 특정 클라이언트(SC)가 전송하는 데이터 내역을 보다 구체적으로 설명하는 도면으로서, 각각의 Case에서 발생하는 데이터들은 모두 MDBM서버(S)를 경유하여 전달된다.FIG. 3C is a diagram illustrating in detail the data details transmitted from the instructor (I), the client (C), and the specific client (SC), and all data generated in each case are via the MDBM server (S). Delivered.

Case 1은 특정 클라이언트(SC)가 발언권 신청, 메세지 전송, 질문에 대한 O/X응답, 출석체크 데이터를 강사(I)에게 전송하는 예를 보여준다.Case 1 shows an example in which a specific client (SC) sends a voice request, a message, an O / X response to a question, and attendance check data to the instructor (I).

Case 2는 특정 클라이언트(SC)가 화상, 음성, 이벤트, 메시지 데이터를 다른 클라이언트(C)와 강사(I)에게 전송하는 예를 보여준다.Case 2 shows an example in which a specific client SC transmits video, audio, event, and message data to another client C and an instructor I.

Case 3은 강사(I)가 메세지, 화상, 음성, 이벤트, 발언권 박탈, 발언권 허가, 강제퇴장 데이터를 특정 클라이언트(SC)으로 전송하는 예를 보여준다.Case 3 shows an example in which the instructor I transmits a message, a video, a voice, an event, a voice deprivation, a permission to speak, and a forced leave data to a specific client SC.

Case 4는 다수의 클라이언트들(C)이 동시에 메세지, 발언권 신청, 출석체크, 질문에 대한 O/X 응답 데이터를 강사(I)에게 전송하는 예를 보여준다.Case 4 shows an example in which multiple clients (C) simultaneously transmit message, voice request, attendance check, and O / X response data to the instructor (I).

Case 5는 강사(I)가 현재 진행중인 강의에 대한 강의 녹화 시작/정지 명령을 내리는 경우로서, 강사(I)의 명령에 따라 레코딩 서버(108)가 강의 녹화를 시작하거나 또는 중지한다.Case 5 is a case in which the instructor I issues a lecture recording start / stop command for the current lecture, and the recording server 108 starts or stops recording the lecture according to the instruction of the lecturer I.

Case 6은 강사(I)가 메세지, 화상, 음성, 이벤트 데이터를 모든 클라이언트(C)에게 전송하는 예를 보여준다.Case 6 shows an example in which the instructor (I) transmits message, video, audio, and event data to all clients (C).

도 4는 클라이언트측, 즉 주변기기 제어부(104)를 통해 입력된 데이터가 클라이언트 프로그램부(112a)를 통해 MDBM 서버로 전송되는 과정을 설명하는 도면이다.4 is a diagram illustrating a process in which data input through the client side, that is, the peripheral device controller 104 is transmitted to the MDBM server through the client program unit 112a.

사용자로부터 입력받는 데이터는 크게 화상 데이터, 음성 데이터, 이벤트 객체 데이터 및 컨트롤 데이터로 구분되며, 상기 데이터 처리 방법 및 순서는 다음과 같다.Data received from the user is largely divided into image data, audio data, event object data, and control data. The data processing method and order are as follows.

예를 들면, 카메라를 통해 입력받는 화상 데이터는 VFW(Video For Windows)에 의한 이미지 캡처후 자동으로 데이터 입력 시간값을 입력하여 스플리터로 전송되며, 상기 스플리터는 상기 VFW에서 캡처된 이미지를 복사하여 하나는 BMP 포맷으로 H.263+ 엔코더에 의해 엔코딩된후 멀티플렉서(multiplexor : 이하 MUX라고 함)로 전송되고 다른 하나는 윈도우 비디오 랜더러를 통해 클라이언트 프로그램의 동영상 창으로 전시된다. 따라서, 클라이언트는 캡처된 자신의 이미지를 확인할 수 있게 된다. 여기서, H.263+은 영상 회의나 비디오, 전화 등을 위한 멀티미디어 통신 서비스의 동영상 부분에 대한 압축에 쓰이는 국제 표준 알고리즘을 말한다.For example, the image data received through the camera is automatically input to the data input time value after the image capture by the VFW (Video For Windows) is sent to the splitter, the splitter is a copy of the image captured by the VFW Is encoded by the H.263 + encoder in BMP format and sent to a multiplexer (hereinafter referred to as MUX), and the other is displayed in the client program's video window via the Windows video renderer. Thus, the client can check his captured image. Here, H.263 + is an international standard algorithm used to compress the video portion of a multimedia communication service for video conferencing, video, and telephone.

또한, 사운드카드를 통해 입력된 음성 데이터는 웨이브 인(Wave In) 프로그램에서 샘플링되어 PCM 데이터로 변환되는데, 상기 PCM 데이터는 데이터가 입력된 시간값과 함께 G.723.1 엔코더에서 엔코딩되어 MUX로 전송된다. 여기서, G.723.1은 영상 회의나 비디오, 전화 등을 위한 멀티미디어 통신 서비스의 음성 부분에 대한 압축에 쓰이는 국제 표준 알고리즘을 말한다.In addition, the voice data input through the sound card is sampled by the Wave In program and converted into PCM data, which is encoded by the G.723.1 encoder with the time value of the data input and transmitted to the MUX. . Here, G.723.1 refers to the international standard algorithm used for the compression of the voice part of multimedia communication service for video conferencing, video, telephone, etc.

또한, 키보드 또는 마우스를 통해 입력받은 이벤트 데이터와 컨트롤 데이터 중에서 이벤트 데이터는 MUX로 전송되는데, 이때 이벤트 데이터는 데이터 입력 시간값이 첨부되어 MUX로 전송되고, 컨트롤 데이터 역시 데이터 입력 시간값이 첨부되어 MDBM 서버로 전송된다.In addition, event data is transmitted from the event data and control data input through the keyboard or the mouse to the MUX. At this time, the event data is transmitted to the MUX with the data input time value attached, and the control data is also attached with the data input time value. Is sent to the server.

상기 MUX는 상기 H.263+ 엔코더, G.723.1 엔코더와 키보드 및 마우스를 통해각각 입력된 화상, 음성 및 이벤트 데이터에 첨부된 시간값을 검색하여 동일한 시간값을 가지는 데이터를 추출하고 그런 데이터들을 하나의 데이터로 묶은 후 원래의 시간값을 다시 첨부하여 MDBM 서버로 전송한다.The MUX extracts data having the same time value by searching the time values attached to the image, audio, and event data respectively inputted through the H.263 + encoder, the G.723.1 encoder, the keyboard, and the mouse. After enclosing the data, the original time value is attached again and sent to the MDBM server.

도 5는 실시간으로 진행되는 강의 내용이 클라이언트측에 브로드캐스팅되는 과정을 설명하는 도면으로서, MDBM 서버(102)는 MUX로부터 전송받은 데이터를 클라이언트 프로그램부(112b)를 통해 다시 각각의 클라이언트에게 전송한다.FIG. 5 is a diagram illustrating a process of broadcasting a lecture in real time to a client, and the MDBM server 102 transmits data received from the MUX to each client through the client program 112b. .

상기 MDBM 서버(102)로부터의 화상과 음성 데이터들은 디멀티플렉서(demultiplexor : 이하 DEMUX라고 함)에서 디먹싱된후 첨부되어 있던 시간값이 화상과 음성 데이터 각각에 다시 첨부되어 H.263+ 디코더와 G.723.1 디코더에서 디코딩된다. 즉, H.263+ 화상 엔코더로 압축된 화상 데이터는 H.263+ 디코더로 디코딩 되어 BMP 데이터로 변환된후 비디오 랜더러(Video Randerer)를 거쳐 동영상 창으로 보여지게 된다. 또한, G.723.1 음성 엔코더로 압축된 음성 데이터는 G.723.1 디코더로 디코딩되어 PCM 데이터로 변환된 후 오디오 랜더러(Audio Randerer)를 거쳐 사운드카드로 전송된다.The video and audio data from the MDBM server 102 are demuxed in a demultiplexer (hereinafter referred to as DEMUX), and the attached time value is attached to each of the video and audio data again so that the H.263 + decoder and the G. 723.1 is decoded at the decoder. That is, the image data compressed by the H.263 + picture encoder is decoded by the H.263 + decoder, converted into BMP data, and then displayed as a video window through the video renderer. In addition, the voice data compressed by the G.723.1 voice encoder is decoded by the G.723.1 decoder, converted into PCM data, and then transmitted to the sound card via an audio renderer.

상기 이벤트 데이터는 DEMUX에서 디먹싱된후 첨부되어 있던 시간값이 다시 첨부되어 관리 서버(100)로부터 이미 다운받은 강의 슬라이드(교안)와 함께 클라이언트 PC에 보여지며, MDBM서버에서 전송된 컨트롤 데이터 또한 클라이언트 PC에 전달된다.The event data is shown on the client PC along with the lecture slides (drafts) already downloaded from the management server 100 with the time value attached after being demuxed in DEMUX, and the control data transmitted from the MDBM server. Is delivered to the PC.

도 6은 레코딩 서버가 MDBM 서버와 관리 서버로부터 전송받은 데이터를 처리하는 과정을 나타낸 것이다.6 shows a process in which a recording server processes data received from an MDBM server and a management server.

상기 레코딩 서버(108)는 관리 서버(100)로부터 강의 슬라이드 파일을 전송받고 MDBM 서버(102)로부터 실시간 강의 내용을 브로드캐스팅받게 되는데, 이때 MDBM 서버(102)로부터 수신한 데이터들은 DEMUX에서 디먹싱된후 첨부되어 있던 시간값이 화상과 음성 데이터 각각에 다시 첨부되어 각각 H.263+ 디코더와 G.723.1 디코더에서 디코딩된다. 즉, H.263+ 화상 엔코더로 인코딩된 화상 데이터는 H.263+ 디코더로 디코딩 되어 BMP 데이터로 변환되고 G.723.1 음성 엔코더로 인코딩된 음성 데이터는 G.723.1 디코더로 디코딩되어 PCM 데이터로 변환된다. 다음에, 상기 BMP 데이터와 PCM 데이터는 AVI 파일 생성기에 의해 AVI파일로 변환되고, 또한 윈도우즈 미디어 엔코더에 의해 WMV 파일로 변환된다.The recording server 108 receives the lecture slide file from the management server 100 and broadcasts the contents of the lecture in real time from the MDBM server 102, wherein the data received from the MDBM server 102 is demuxed in DEMUX. The attached time values are then appended back to the picture and audio data respectively and decoded by the H.263 + decoder and the G.723.1 decoder, respectively. That is, picture data encoded with an H.263 + picture encoder is decoded by a H.263 + decoder and converted into BMP data, and voice data encoded with a G.723.1 voice encoder is decoded by a G.723.1 decoder and converted into PCM data. . Next, the BMP data and PCM data are converted into AVI files by the AVI file generator, and further converted into WMV files by the Windows Media Encoder.

한편, 상기 디먹싱된 데이터 중에서 클라이언트들의 이벤트 데이터 역시 디먹싱 된 다른 데이터와 마찬가지로 디먹싱 과정에서 분리되었던 시간값이 다시 첨부되고, 미리 관리서버로부터 전송받아 저장하고 있는 이미지 강의 파일과 함께 ARF 파일로 저장된다.On the other hand, the event data of the clients among the demuxed data, like other demuxed data, is reattached to the time value separated in the demuxing process, and is transferred to the ARF file along with the image lecture file previously received and stored from the management server. Stored.

최종적으로, 상기 레코딩 서버(108)에는 WMV 파일과 ARF 파일이 자동으로 저장된다. 다운로드 버전은 상기 WMV 파일과 ARF파일을 통합저장하는 방식이며, 스트리밍 버전은 WMV 파일과 ARF 파일을 별도로 저장하여 전송용량이 큰 WMV 파일을 스트리밍 방식으로 제공하기 위한 방식으로서 이것은 비 실시간 저작툴에서 관리자가 두 가지 방식 중 선택하여 저장할 수 있게 된다.Finally, the recording server 108 automatically stores WMV files and ARF files. The download version is a method of integrating and storing the WMV file and the ARF file, and the streaming version is a method of providing a WMV file with a large transmission capacity by streaming the WMV file and the ARF file separately. There are two ways to save.

도 7은 실시간 강사용 또는 학생용 프로그램을 가지고 있는 클라이언트가 MDBM 서버에 접속할 수 있는 환경을 나타낸 것으로, 클라이언트는 모뎀, ISDN, 네트워크, xDSL 등 다양한 접속환경을 이용하여 MDBM 서버에 접속할 수 있다.FIG. 7 illustrates an environment in which a client having a real-time instructor or student program may access an MDBM server. The client may access an MDBM server using various connection environments such as a modem, an ISDN, a network, and an xDSL.

도 8a는 비실시간 강의 제작프로그램의 레코더를 사용하여 오디오 클립을 제작하고 편집하는 방법, 동영상 데이터 파일을 삽입하는 방법, 및 강의 파일을 저장하는 과정을 설명하는 도면이다.FIG. 8A illustrates a method of creating and editing an audio clip using a recorder of a non-real-time lecture production program, a method of inserting a video data file, and a process of storing a lecture file.

오디오 클립 제작방법How to make an audio clip

오디오(즉, 음성)의 경우에는 이벤트를 입력하면서 마이크를 통해 동시에 녹음할 수 있는데, 음성을 동시 녹음하는 경우 상기 음성은 WAV 파일로 저장된 후 바로 G.723.1 음성 엔코더를 통해 인코딩 된 후 ADT 음성 파일포맷으로 변환되어 자동 압축 저장된다. 여기서 ADT 음성 파일 포맷은, 이건 특허의 출원인인 (주)포씨소프트가 고안한 자체 음성 압축 포맷으로서, G.723.1 음성 코덱을 이용하여 인코딩을 수행하는 음성 파일 변환기에 의하여 WAV 파일이 변환된 음성 압축파일 포맷으로, 비 실시간 강사용, 학생용 프로그램에서 사용된다. 이건 발명에 적용될 수 있는 음성 포맷은 상기 ADT 파일에 한정되는 것은 아니며, 당업자에 의해 적절한 음성 포맷으로 변환가능하다.In the case of audio (i.e. voice), an event can be recorded at the same time through the microphone while the voice is recorded simultaneously. The format is converted and automatically compressed. Here, the ADT voice file format is a self-contained voice compression format devised by the patent applicant, PoCsoft Co., Ltd., and is a voice compression in which a WAV file is converted by a voice file converter that performs encoding using a G.723.1 voice codec. File format used by non-real-time instructor and student programs. This voice format applicable to the present invention is not limited to the ADT file, and can be converted into an appropriate voice format by those skilled in the art.

또한 이미 녹음된 음성 파일을 사용하여 오디오 클립을 제작할 수 있다. 상기 제작시 사용되는 음성 파일 포맷은 ADT 파일 포맷이며, 이미 녹음된 음성파일이 WAV 파일등의 다른 형식인 경우 음성 파일 변환기를 통해 ADT 음성 포맷으로 변환후 사용한다.You can also create audio clips using already recorded voice files. The audio file format used in the production is an ADT file format. If the previously recorded voice file is another format such as a WAV file, the voice file format is converted into an ADT voice format through a voice file converter.

이러한 오디오 클립 제작 방법은 실시간 강의를 제작할 때 반드시 음성을 같이 입력할 필요 없이 미리 만들어 놓은 음성 데이터 파일을 사용할 수 있다는 장점을 가진다.This audio clip production method has the advantage that it is possible to use a pre-created voice data file without necessarily inputting a voice when producing a real-time lecture.

오디오 클립 편집방법How to edit audio clips

상기와 같이 제작된 ADT 파일 포맷의 오디오 클립은 비 실시간 강사용 프로그램에서의 음성편집기 또는 타임 라인 윈도우를 이용하여 복사, 이동, 삭제 등의 편집 및 수정작업을 수행한다.The audio clip of the ADT file format produced as described above is edited and modified such as copying, moving, and deleting using a voice editor or a timeline window in a non-real-time instructor program.

동영상 데이터 파일 삽입방법How to insert a video data file

강의내용에 포함되는 동영상 데이터 파일은 윈도우 미디어 플레이어에서 지원하는 파일형식으로 녹화되어 있는 파일을 '미디어 파일 선택 메뉴'를 통하여 삽입되어 동영상창에서 재생되거나 또는 이벤트 툴 바에서 '미디어 이벤트 삽입 메뉴'를 통하여 강의 슬라이드에 삽입될 수 있다. 도 8a에서 미디어 파일 선택메뉴를 통하여 삽입된 비디오 클립은 도 9의 동영상창을 통해 재생된다.The video data file included in the lecture content can be played in the video window by inserting the file recorded in the file format supported by Windows Media Player through the 'Media file selection menu' or by clicking the 'Media event insertion menu' in the event toolbar. Can be inserted into the lecture slide through. In FIG. 8A, a video clip inserted through the media file selection menu is played through the video window of FIG. 9.

강의 파일 저장과정Course File Saving Process

강의 파일은 다운로드 방식과 스트리밍 방식으로 구분되는데, 강의 파일 제작자는 다운로드 방식과 스트리밍 방식중 원하는 방식으로 선택하여 저장할 수 있다.The lecture file is divided into the download method and the streaming method. The lecture file creator can select and save the download method and the streaming method as desired.

도 8b는 도 8a에서 다운로드 방식으로 제작된 강의 파일을 제공하는 방법을 설명하는 도면으로서, 상기 강의 파일이 미디어 파일을 포함하는 경우에 상기 미디어 파일은 *.ARF 포맷의 강의 파일에 삽입 첨부되어 DB 서버에 저장되며, 클라이언트가 해당 강의 파일(*.ARF 파일 포맷)을 클릭할때 웹서버는 강의 파일이 저장되어있는 DB 서버로부터 강의 파일을 클라이언트의 PC에 저장시켜준다. 다음에, 클라이언트는 다운로드가 완료된후 클라이언트 PC에 설치되어 있는 로컬 플레이어를 실행함으로써 강의 파일을 재생한다.FIG. 8B is a diagram illustrating a method of providing a lecture file produced by the download method in FIG. 8A. When the lecture file includes a media file, the media file is inserted into and attached to a lecture file in * .ARF format. When the client clicks the course file (* .ARF file format), the web server saves the course file on the client's PC from the DB server where the course file is stored. Next, the client plays the lecture file after the download is completed by executing a local player installed on the client PC.

도 8c는 도 8b에서 스트리밍 방식으로 제작된 강의 파일을 제공하는 방법을 설명하는 도면으로서, 상기 강의 파일이 스트리밍용 미디어 파일(예를 들어, *.asf, *.wmv, *.wma)을 포함하는 경우에 상기 미디어 파일은 별도의 미디어 서버에 저장되고 미디어 파일을 제외한 나머지 강의 데이터를 *.ARF 포맷의 강의 파일로 DB 서버에 저장한다. 이때, 상기 강의 파일은 해당 스트리밍 미디어 파일의 경로를 저장하고 있다. 클라이언트가 웹서버에서 해당 강의 파일을 클릭하면 상기 강의 파일이 저장되어 있는 DB 서버는, 강의 파일을 클라이언트의 PC에 저장시켜 로컬 플레이어에서 재생시키거나 또는 OCX형 플레이어를 웹브라우저에서 호출하여 재생시키는데, 플레이어가 상기 강의 파일에서 해당 스트리밍 미디어 파일의 저장경로를 판독한 후 해당 미디어 파일이 저장된 미디어 서버로 접속하여 해당 미디어 파일의 스트리밍 서비스가 진행된다.FIG. 8C is a diagram illustrating a method of providing a lecture file produced by the streaming method in FIG. 8B, wherein the lecture file includes a streaming media file (eg, * .asf, * .wmv, * .wma). In this case, the media file is stored in a separate media server, and the remaining lecture data except the media file is stored in the DB server as a lecture file in * .ARF format. At this time, the lecture file stores the path of the streaming media file. When the client clicks the lecture file on the web server, the DB server that stores the lecture file stores the lecture file on the client's PC and plays the file in the local player or calls the OCX-type player in the web browser. After the player reads the storage path of the streaming media file from the lecture file, the player accesses the media server where the media file is stored, and the streaming service of the media file is performed.

도 9와 도 10은 각각 강사용 실시간 원격교육 프로그램과 학생용 실시간 원격교육 프로그램의 화면 구성예(User Interface)를 보여주고 있다.9 and 10 show an example of the screen configuration (User Interface) of the real-time distance education program for students and real-time distance education program for students.

실시간 원격교육 프로그램 접속Real-time distance education program access

기존 관리 시스템이 구축되어 있는 경우에는 먼저 기존 관리 시스템의 웹서버에 접속하고, 사용자 인증(강사 또는 학생 자격)을 거친 후 강의 관리서버에 접속하며, 서버접속후 강의 시작 버튼을 클릭하면 강사용 또는 학생용 원격교육 프로그램이 실행되면서 강의가 시작된다.If an existing management system is established, first connect to the web server of the existing management system, go through the user authentication (teacher or student qualification), and then access the lecture management server. Lectures begin as student distance learning programs run.

기존 관리 시스템이 구축되어 있지 않은 경우에는 곧바로 실시간 강의 관리서버에 접속하여 인증과정을 거친후 상기와 동일한 과정으로 진행한다.If the existing management system is not established, it immediately accesses the real-time lecture management server, goes through the authentication process, and proceeds to the same process as above.

실시간 원격교육 프로그램 기능Real-time distance education program function

1) 동영상, 음성 데이터1) Video, voice data

강의가 시작되면 학생용 원격교육 프로그램의 동영상 창에 현재[현재 발언권을 가지고] 강의를 진행하고 있는 강사의 동영상 화면과 함께 강사 음성이 출력된다. 강의 도중에 학생이 발언권을 신청하는 경우에, 강사가 발언권을 부여하면 상기 동영상 창에는 발언권을 부여받은 학생의 동영상 화면과 음성이 출력된다. 만약 학생의 단말기에 카메라가 설치되지 않은 경우에는 음성만 출력된다.When the lecture begins, the lecturer's voice is displayed on the video window of the student distance learning program along with the video screen of the lecturer currently in lecture [with current voice]. In the case where the student applies for the right to speak during the lecture, if the instructor grants the right to speak, the video window and the voice of the student who has been given the right to speak are output. If no camera is installed in the student's terminal, only the voice is output.

2) 채팅기능2) Chat function

강사용 원격교육 프로그램과 학생용 원격교육 프로그램은 모두 텍스트 채팅 기능을 가진다. 강사가 채팅 입력창에 텍스트를 입력하여 전송하는 경우에는 MDBM 서버에 접속하고 있는 모든 클라이언트에게 메시지가 전달되며, 학생이 채팅 입력창에 텍스트를 입력하는 경우에는 해당 강사에게만 메시지를 전달할 것인지 또는 강사를 포함한 모든 클라이언트에게 메시지를 전달할 것인지 선택할 수 있다.Instructor distance education programs and student distance education programs both have text chat capabilities. If the instructor enters text in the chat input box and sends it, the message is delivered to all clients connected to the MDBM server. If the instructor enters text in the chat input box, the message is sent only to the instructor. You can choose to deliver the message to all clients you include.

3) 질문 및 답변 기능3) Question and answer function

질문 기능은 실시간 강의 진행 도중에 학생이 강사에게 질문하고자 하는 경우에 사용되고 답변 기능은 학생의 질문에 대해 강사가 답변할 때 사용된다.The question function is used when the student wants to ask the instructor during the real-time lecture, and the answer function is used when the instructor answers the student's question.

학생은 질문 기능을 이용하여 질문내용을 입력한후 전송을 누르게 되면 MDBM서버를 통해 강사의 메시지 박스에 저장되며, 강사는 질문 리스트 박스에서 그 내용을 확인후 답변 기능을 이용하여 각각의 질문에 대해 답변하고 질문 및 답변한 내용에 대한 상황을 파악할 수 있다.When the student inputs the question contents using the question function and presses transmit, the student is saved in the message box of the instructor through the MDBM server, and the instructor checks the contents in the question list box and uses the answer function for each question. You can answer and understand the situation of the question and the answer.

4) 발언권 신청 및 부여 기능4) Request and grant of voice

학생용 원격교육 프로그램은 학생이 강사에게 실시간으로 발언권을 신청할 수 있는 발언권 신청 기능을 가지며, 강사용 원격교육 프로그램은 발언권 신청에 대한 발언권 부여 및 발언권 해제 기능을 가진다. 학생이 발언권을 신청한 경우에, 강사용 원격교육 프로그램에는 실시간 강의에 참석한 학생의 리스트에서 발언권 신청자를 확인할 수 있으며 , 강사는 원하는 시간에 발언권 신청자중에서 특정 신청자에게 발언권을 부여할 수 있다. 이때 발언권이 부여된 특정신청자의 동영상이 MDBM 서버를 통해 모든 클라이언트의 동영상창에 전시되고 음성이 출력된다. 강사는 발언권 해제를 통해 원래의 강사 동영상과 음성으로 전환할 수 있다.The distance learning program for students has a voice application function that allows a student to apply for the right to speak to the instructor in real time, and the instructor distance education program has a function to grant and release the voice for the voice application. In the case of a student applying for a voice, the instructor distance education program can identify the speaker of the speaker in the list of students who attended the real-time lecture, and the instructor may give a voice to a specific applicant among the speaker of the speaker at any time. At this time, the video of the specific applicant granted the right to speak is displayed in the video window of all clients through the MDBM server and the audio is output. The instructor can switch back to the original instructor video and audio by releasing the voice.

5) 웹 싱크 기능5) Web sink function

강의가 진행되는 동안 실시간 강사용 프로그램과 학생용 프로그램에서 웹브라우저 기능을 실행할 수 있고, 교안의 내용과 관련이 있는 사이트의 검색이 가능하며 발언권을 가지고 있는 클라이언트가 웹브라우저 실행 중, 웹싱크 활성화 버튼을 누르면 해당 URL이 MDBM 서버에 접속하고 있는 모든 클라이언트에게 전달됨으로써 동일한 웹 페이지의 공유가 가능해진다.While the lecture is in progress, the web browser function can be executed in the real-time instructor program and the student program, the site related to the contents of the lesson can be searched, and the client who has the voice can activate the web sync button while the web browser is running. When pressed, the URL is sent to all clients connecting to the MDBM server, allowing the same web page to be shared.

6) 문제 출제 및 답변 기능6) Question and answer function

강사는 실시간 강의 진행중 학생들에게 퀴즈내용을 작성하여 전송할 수 있으며, 이에 대해 각각의 학생들은 답변 기능을 통하여 답을 전송할 수 있다. 이때,각 학생들이 전송한 답변은 강의 참석자 확인시 어떠한 답변을 하였는지 확인할 수 있다.The instructor can create and send quiz contents to students during the real-time lecture, and each student can send an answer through the answer function. At this time, the responses sent by each student can check what kind of answers they gave when checking the lecture attendees.

7) 강의 참석자 확인 기능7) Lecture attendee check function

실시간 강의 도중에 강사는 강사용 원격교육 프로그램에서 '강의 참석자 버튼'을 누르게 되면 현재 강의에 참석한 학생의 명단을 확인할 수 있으며, 학생들이 전송한 퀴즈 답변 내용을 확인할 수 있다.During the real-time lecture, the instructor can press the 'lecture attendee button' in the instructor distance education program to check the list of students who are currently attending the lecture, and check the quiz responses sent by the students.

8) 이벤트 입력 기능8) Event input function

현재 발언권을 가지고 있는 강사 또는 학생은 실시간으로 강의를 진행하는 도중 현재 진행되고 있는 강의 교안에 이벤트를 삽입할 수 있는데, 이때 입력된 이벤트는 현재 MDBM 서버에 접속하고 있는 모든 클라이언트들에게 전송된다.The current lecturer or student can insert an event into the current lecture course during the lecture in real time, and the input event is sent to all clients currently connected to the MDBM server.

9) 실시간 강의 녹화 기능9) Real-time lecture recording function

강사가 레코딩 버튼을 누르는 순간부터 MDBM 서버를 통해 레코딩 서버로 전송되는 모든 데이터는 실시간으로 녹화되기 시작한다. 상기 녹화된 데이터는 비실시간 프로그램에서 그대로 사용할 수 있는 데이터 포맷(*.ARF)으로 저장되므로 비실시간 프로그램에서 다시 수정, 편집이 가능하며, 또한 비실시간 플레이어를 사용하여 재생가능하다.From the moment the instructor presses the record button, all data sent from the MDBM server to the recording server begins to be recorded in real time. The recorded data is stored in a data format (* .ARF) that can be used as it is in a non-real-time program, so that the recorded data can be modified and edited again in a non-real-time program and reproduced using a non-real-time player.

도 11과 도 12는 각각 비실시간 원격교육 프로그램의 레코더와 플레이어를 나타낸 것으로, 상기 레코더는 비실시간 환경에서 원격교육 강의 컨텐츠를 제작 및 편집 하는 저작 프로그램이고 상기 플레이어는 레코더로 제작된 컨텐츠를 재생하는 프로그램이다.11 and 12 illustrate a recorder and a player of a non-real-time distance education program, respectively, wherein the recorder is an authoring program for creating and editing a distance education lecture content in a non-real-time environment, and the player plays back the content produced by the recorder. Program.

도 11을 참조하면, 상기 레코더는 강의에 사용되는 이벤트의 재생시각을 편집하는 타임 라인 윈도우와 이벤트 리스트 창, 레코딩 도구들을 제공하는 레코딩 툴, 이벤트 편집 도구들을 제공하는 이벤트 툴 바, 메인 윈도우 화면 및, 강의 페이지를 표시하는 페이지 탭 등으로 구성된다.Referring to FIG. 11, the recorder includes a timeline window and an event list window for editing a playback time of an event used in a lecture, a recording tool for providing recording tools, an event toolbar for providing event editing tools, a main window screen, , Page tabs that display lecture pages.

도 12를 참조하면, 상기 플레이어는 강의 진행을 제어하는 강의진행 툴, 동영상이 재생되는 동영상 창 및 메뉴 등으로 구성된다.Referring to FIG. 12, the player includes a lecture progress tool for controlling the progress of the lecture, a video window in which a video is played, a menu, and the like.

도 13은 상기 도 11에 따른 레코더의 타임라인 윈도우를 보다 구체적으로 나타낸 도면으로서, 그 세부적인 기능은 다음과 같다.FIG. 13 is a view illustrating the timeline window of the recorder according to FIG. 11 in more detail. Details of the functions are as follows.

- 각각의 페이지가 얼마동안의 시간동안 유지되고 있는지 전시한다.-Display how long each page is held for.

- 마우스로 이벤트를 선택하여 삭제, 복사, 원하는 위치로의 이동이 가능하며, 변경된 내용들은 그대로 이벤트 리스트에 적용된다.-You can delete, copy and move to the desired location by selecting an event with the mouse, and the changed contents are applied to the event list as it is.

- 마우스를 이용한 영역지정으로 원하는 부분의 음성을 선택하여 삭제, 복사, 이동 등의 편집이 가능하다.-You can select the voice of the part you want to edit by deleting, copying, moving, etc. by specifying the area using the mouse.

- 음성편집을 원하는 시간대에 있는 이벤트를 드래그 영역에 음성데이터와 함께 포함시키게 되면 음성 데이터와 동시에 이벤트의 삭제, 복사, 이동 등의 편집이 가능하며, 변경된 내용들은 그대로 이벤트 리스트에 적용된다.-If you include an event in the desired time zone with voice data in the drag area, you can edit, delete, copy, and move the event simultaneously with the voice data, and the changed contents are applied to the event list as it is.

- 타임라인 윈도우내의 이벤트 객체를 한번 클릭하게 되면 종료시간이 설정되어 있는 이벤트의 경우 이벤트 객체 옆으로 이벤트 유지시간을 나타내는 바가 생기는데, 상기 바를 마우스로 클릭하여 늘이거나 줄이면 자동으로 유지시간이 조절되고 변경된 유지시간에 따라 이벤트 리스트 창의 종료시간이 자동으로 설정된다.-When an event object in the timeline window is clicked once, in case of an event whose end time is set, a bar indicating the event holding time is displayed next to the event object.When the mouse is clicked on the bar, the holding time is automatically adjusted and changed. The end time of the event list window is automatically set according to the holding time.

도 14는 도 11에 따른 레코더의 이벤트 리스트 창을 확대한 도면으로서, 그 세부적인 기능은 다음과 같다.FIG. 14 is an enlarged view of an event list window of the recorder of FIG. 11, and the detailed functions thereof are as follows.

강의를 구성하는 이벤트는 크게 다음과 같이 일반 이벤트와 미디어 이벤트로 분류되며, 일반 이벤트에는 직선, 자유선, 호선, 직사각형, 타원, 글상자, 그룹상자, 그림, OLE 개체, 수식 등이 있고 미디어 이벤트에는 윈도우 미디어 파일, 리얼 미디오 파일, 플래시 파일 등이 있다.The events that make up a lecture are classified into general events and media events as follows: General events include straight lines, free lines, arcs, rectangles, ellipses, text boxes, group boxes, pictures, OLE objects, and formulas. These include Windows media files, real media files, and flash files.

또한, 순서 항목은 이벤트의 입력 순서를 나타내고, 종류 항목은 이벤트의 종류를 나타내고, 시작시간 항목은 이벤트가 발생할 시간을 나타내며, 종료시간 항목은 해당 이벤트가 종료될 시간을 나타낸다.In addition, the order item indicates an input order of events, the type item indicates a type of event, a start time item indicates a time when an event occurs, and an end time item indicates a time when the corresponding event ends.

이벤트 입력방법Event input method

이벤트의 발생시간과 종료시간을 입력하는 방법에는, 강의를 녹음하면서 발생하거나 종료되기 원하는 이벤트를 원하는 시간에 이미 입력되어 있는 이벤트 리스트 창의 이벤트 중에서 선택하는 방법과 이벤트 리스트 창에 나열되어 있는 이벤트의 시작시간과 종료시간을 직접 입력하는 방법이 있다.To enter the event's occurrence time and end time, select the event that you want to occur or end while recording a lecture from the events already in the Event List window, and start the events listed in the Event List window. There is a way to enter the time and end time directly.

1) 이벤트를 직접 선택하는 방법1) How to select an event yourself

녹음을 시작하게 되면 타임라인 윈도우 상에서 타임 바가 1초 단위로 이동하면서 시간이 카운트 되는데, 이때 발생하기 원하는 시간에 이벤트 리스트 창에서 원하는 이벤트를 선택하여 이벤트 모양을 나타내는 박스를 누르면 타임 바가 가리키는 시간이 선택된 이벤트의 발생시간으로 자동으로 입력된다.When recording starts, the time is counted as the time bar moves by 1 second in the timeline window. At this time, select the desired event in the event list window and press the box indicating the event shape to select the time indicated by the time bar. Automatically entered as the event time.

또한, 이벤트 유지시간이 지나 종료되기 원하는 이벤트가 있을 경우 타임 바가 원하는 시각에 도달하였을 때버튼을 누르게 되면 타임 바가 가리키는 시간이, 선택된 이벤트의 종료시간으로 자동으로 입력된다. 이벤트를 직접 선택하면서 변동되는 이벤트 오브젝트 각각의 발생시간 및 종료시간에 대한 정보는 변동사항이 발생하는 즉시 그대로 타임라인 윈도우에 적용된다.Also, when there is an event that you want to end after the event holding time, when the time bar reaches the desired time When the button is pressed, the time indicated by the time bar is automatically entered as the end time of the selected event. Information on the occurrence time and end time of each event object that is changed while directly selecting an event is applied to the timeline window as soon as the change occurs.

2) 시간을 직접 입력하는 방법2) How to enter the time directly

이벤트 리스트 창에서 원하는 이벤트의 발생시간을 클릭하면 직접 시간을 입력할 수 있으며, 시간이 입력된 이벤트는 해당시간에 발생하게 된다.You can enter the time directly by clicking the occurrence time of the desired event in the event list window, and the event with the input time will occur at the corresponding time.

원하는 시간에 이벤트가 종료되기를 원한다면 해당 이벤트의 종료시간을 클릭하여 직접 시간을 입력할 수 있으며, 종료시간이 입력된 이벤트는 입력된 종료시간에 해당 페이지에서 사라지게 된다. 또한, 시간을 직접 입력하면서 변동되는 이벤트 오브젝트 각각의 발생시간 및 종료시간에 대한 정보는 변동 즉시 그대로 타임라인 윈도우에 적용된다.If you want the event to end at the desired time, you can enter the time directly by clicking the end time of the event, and the event with the end time entered will disappear from the page. In addition, information on the occurrence time and the end time of each event object that is changed while directly inputting the time is immediately applied to the timeline window as it is changed.

도 15는 상기 도 11에 따른 비 실시간 레코더의 이벤트를 선택하여 입력할 수 있는 이벤트 툴 바를 나타내며, 그 세부 기능은 다음과 같다.FIG. 15 is a view illustrating an event toolbar for selecting and inputting an event of a non-real time recorder according to FIG. 11, and the detailed functions thereof are as follows.

이벤트 입력번호Event entry number

이벤트 입력도구에서아이콘을 활성화 시키게 되면, 각각의 이벤트를 입력할 때마다 각 이벤트의 순서에 맞게 해당 번호가 입력된다. 이러한 이벤트 번호는 이벤트가 많을 경우에 원하는 이벤트를 찾기 쉽도록 한다.In the event input tool When the icon is activated, each time you input each event, the corresponding number is entered in the order of each event. These event numbers make it easy to find the desired event when there are many events.

편집상태Edit status

이벤트 입력도구의아이콘으로 페이지 편집모드와 이벤트 편집 모드로 전환할 수 있는데, 이벤트 편집 모드는 이벤트를 입력할 수 있는 모드로서 언제든지 이벤트를 수정할 수 있으며 입력된 이벤트는 타임라인 윈도우에서 표시된다.Of the event input tool You can switch between page editing mode and event editing mode by using the icon. The event editing mode is a mode for inputting an event. The event can be modified at any time.

상기 페이지 편집모드에서 작업한 내용은 페이지의 내용을 입력하는 모드로 여기서 입력되는 이벤트들은 시간값이 주어지지 않는다. 따라서, 비 실시간 플레이어에서 컨텐츠를 불러왔을 때 상기 편집모드에서 편집된 이벤트들은 시간과 관계없이 해당 페이지가 로딩되는 시간과 동시에 호출된다.The work done in the page edit mode is a mode for inputting the content of the page. The events input here are not given a time value. Thus, when content is loaded from a non real-time player, the events edited in the edit mode are invoked simultaneously with the time the page is loaded, regardless of time.

도 16은 도 11에 따른 레코더의 이벤트 입력시 화면을 나타내며, 그 세부 기능은 다음과 같다.FIG. 16 illustrates a screen when an event is input by the recorder of FIG. 11, and the detailed functions thereof are as follows.

현재 위치의 객체들The objects at the current position

비실시간으로 이벤트 편집 모드에서 이벤트를 입력하는 경우 해당 페이지에서 적용될 이벤트들을 미리 페이지 내에 삽입시켜 놓을 수 있는데, 마우스 오른쪽 버튼을 두번 클릭하면 현재 위치에 포함되어 있는 이벤트들의 항목이 이벤트 이름과 함께 나열되는 창이 생긴다. 이는 이벤트들이 비슷한 위치에 겹쳐 있을 경우에 위치 이동 또는 편집이 어렵다는 점을 고려한 것이다. 상기 창의 내용에 포함되어 있는 이벤트 이름중 원하는 이벤트의 이름을 마우스로 선택하게 되면 원하는 이벤트가 자동으로 선택되어 이동, 복사, 삭제 등을 할 수 있다.If you enter an event in non-real-time event editing mode, you can insert events to be applied on the page in advance. If you double-click the mouse right button, the items of the events included in the current location will be listed along with the event name. A window will appear. This takes into account the difficulty in moving or editing the location if the events overlap in similar locations. If a desired event name is selected from the event names included in the contents of the window with a mouse, the desired event is automatically selected to move, copy, delete, and the like.

도 17은 본 발명에 있어서, 음성편집에 사용되는 음성편집기의 일례를 나타내는 도면으로서, 음성편집 방법은 내장된 음성편집기를 이용하여 편집하는 방법과타임라인 윈도우에서 직접 편집하는 방법이 있다.FIG. 17 is a view showing an example of a voice editor used for voice editing in the present invention. There are two voice editing methods, a method of editing using a built-in voice editor and a method of directly editing in a timeline window.

음성편집기 이용 방법How to use the voice editor

도 17에 도시된 바와 같은 음성편집기를 이용하는 것으로, 원하는 음성 데이터 부분을 선택하여 복사, 삭제, 이동이 가능하며, 원본은 음성편집기의 상단부에 두고 수정할 부분을 음성편집기의 하단에 다시 녹음하여 두 파일을 대조해 가면서 음성편집 작업을 수행할 수 있다.By using the voice editor as shown in FIG. 17, the desired voice data portion can be selected, copied, deleted, and moved. The original is placed at the top of the voice editor, and the portion to be modified is re-recorded at the bottom of the voice editor. In contrast, you can perform voice editing.

타임라인 윈도우 이용 방법How to use the timeline window

음성만을 편집할 경우에는 타임라인 윈도우내에서 편집을 원하는 영역을 설정한후 음성데이터 부분만을 선택하여 편집, 수정, 삭제 등의 작업을 할 수 있는데, 편집되는 부분의 음성데이터에 해당되는 시간에 포함되어 있는 이벤트를 동시에 삭제, 복사, 이동 등의 작업을 원한다면 타임라인 윈도우상의 이벤트 오브젝트들을 음성편집 영역에 포함시킴으로써 음성데이터와 함께 동시에 편집이 가능하다.If you want to edit only the voice, you can set the area you want to edit in the timeline window and select only the voice data part to edit, modify, delete, etc., which is included in the time corresponding to the voice data of the edited part. If you want to delete, copy, move, etc. the event at the same time, the event objects on the timeline window can be included in the voice edit area to edit them together with the voice data.

도 18은 강의 수강시 입력된 각각의 이벤트들이 동기화되어 플레이되는 과정을 보여주고 있다.18 illustrates a process of synchronizing and playing each event inputted during a lecture.

*.ARF 파일에는 제작된 강의 교안의 전체 강의 시간값과 각각의 이벤트들이 발생하는 시간값, 종료되는 시간값이 모두 저장되어 있으며, 플레이어가 실행되면 가장 먼저 전체 강의 시간을 초단위로 읽어서 해당 시간만큼 해당 초단위의 크기에 해당하는 타임 테이블 어레이를 생성하고 상기 어레이내의 모든 데이터가 Null 값으로 초기화된다.The * .ARF file stores the total time of the lecture, the time when each event occurs, and the time when the event ends.When the player starts, the first time the entire lecture is read in seconds By creating a time table array corresponding to the size of the corresponding second unit, all data in the array is initialized to a null value.

다음에, *.ARF 파일내에 입력되어 있는 모든 이벤트 오브젝트들의 시간값을읽어들인다. 이때, 발생하거나 종료하는 이벤트가 없는 시간에는 해당시간 타임 테이블 어레이의 데이터가 처음에 설정된 Null값으로 유지된다. 대조적으로, 발생하거나 종료할 이벤트가 있는 시간이 있는 경우에는 해당 시간에 이벤트 데이터(EventData) 체계가 자동으로 생성되고 타임 테이블 어레이내의 어레이값에는 생성된 이벤트 데이터 체계의 주소가 저장된다. 상기 이벤트 데이터 체계는 ShowEvent와 HideEvent라는 두개의 어레이로 구성되어 있는데, 이벤트 데이터 체계가 지정되어 있는 시간에 속하는 이벤트 중에서 발생할 이벤트는 ShowEvent 어레이에, 종료될 이벤트는 HideEvent 어레이에 해당 오브젝트의 주소가 저장된다.Next, the time value of all event objects entered in the * .ARF file is read. At this time, when there is no event that occurs or ends, the data of the corresponding time table array is maintained at the initially set null value. In contrast, when there is a time when there is an event to occur or end, an event data system is automatically generated at that time, and the address of the generated event data system is stored in an array value in the time table array. The event data system consists of two arrays, ShowEvent and HideEvent. Among the events belonging to the time specified by the event data system, the event to be occurred is stored in the ShowEvent array, and the event to be terminated is stored in the HideEvent array. .

각각의 이벤트들의 모든 시간값을 검색 완료하고 이벤트 데이터 체계의 구성이 완료되면 타임테이블을 0초부터 종료시간까지 검색하게 되는데, 타임 테이블 어레이내의 값중 Null인 경우에는 다음 시간으로 넘어가고 Null이 아닌 경우에는 해당 이벤트 데이터 체계를 호출하며, 이때 ShowEvent 어레이와 HideEvent 어레이가 검색되어 해당 이벤트를 발생시키거나 종료시킨다.When all the time value of each event is completed and the configuration of event data system is completed, the time table is searched from 0 second to the end time. If the value in the time table array is Null, it moves to the next time and is not Null. Calls the event data system, and the ShowEvent and HideEvent arrays are retrieved to raise or terminate the event.

도 19는 타임 테이블, 이벤트 리스트 창, 및 타임 라인 윈도우가 서로 연동되어 각각의 이벤트 발생 및 종료시간을 관리함을 보여주고 있다.19 shows that a time table, an event list window, and a timeline window interoperate with each other to manage each event occurrence and end time.

도 20은 본 발명에 따른 멀티미디어 플레이어 알고리즘을 설명하는 순서도이다.20 is a flowchart illustrating a multimedia player algorithm according to the present invention.

먼저, 플레이어를 실행시키고(S100), 원하는 강의파일(*.ARF)을 연다(S102).First, the player is executed (S100), and the desired lecture file (* .ARF) is opened (S102).

상기 강의 파일의 전체 강의시간을 체크한다(S104).The entire lecture time of the lecture file is checked (S104).

상기 전체 강의시간에 해당하는 크기를 갖는 타임 테이블 어레이를 생성하고상기 타임 테이블 어레이내의 모든 데이터를 Null로 설정한다(S106).A time table array having a size corresponding to the entire lecture time is generated and all data in the time table array is set to null (S106).

상기 강의 파일내의 모든 페이지와 오브젝트의 발생 및 종료시간을 검색한다(S108).The generation and end times of all pages and objects in the lecture file are retrieved (S108).

다음에 발생 또는 종료할 이벤트가 있는 시간에 이벤트 데이터 체계를 생성한다(S110).The event data system is generated at a time when an event to be generated or terminated next occurs (S110).

S112 단계에서, 발생 또는 종료할 이벤트가 있는 시간에 생성된 이벤트 데이터 체계 내에 ShowEvent 또는 HideEvent 어레이를 생성하고 해당 이벤트의 주소를 저장한다.In step S112, a ShowEvent or HideEvent array is generated in the event data system generated at the time of occurrence or termination of the event and stores the address of the corresponding event.

다음에, 현재시간(CurTime)을 0으로 설정한다(S114).Next, the current time CurTime is set to 0 (S114).

임의의 페이지를 클릭하는 경우에, 선택된 페이지의 발생시간이 현재시간(CurTime)으로 저장된다.When clicking on any page, the occurrence time of the selected page is stored as the current time (CurTime).

다음에, 타임 테이블(현재시간)((Time Table(CurTime))의 값이 Null인지의 여부를 체크한다(S116). 이때, 타임 테이블(현재시간)((Time Table(CurTime))의 값이 Null이 아니라면, 상기 타임 테이블(현재시간)((Time Table(CurTime))에 해당하는 이벤트 데이터 체계(structure)를 호출하고(S118), 이벤트 데이터 체계내의 ShowEvent 어레이에 저장되어 있는 주소에 해당하는 모든 이벤트를 발생시키고(S120), 이벤트 데이터 체계내의 HideEvent 어레이에 저장되어 있는 주소에 해당하는 모든 이벤트를 종료시키며(S122), 현재시간(CurTime)을 1씩 증가시킨다(S124).Next, it is checked whether or not the value of the time table (current time) ((Time Table (CurTime)) is Null (S116). At this time, the value of the time table (current time) ((Time Table (CurTime)) If not null, the event data structure corresponding to the time table (CurTime) is called (S118), and all the addresses corresponding to the addresses stored in the ShowEvent array in the event data system are called. An event is generated (S120), all events corresponding to addresses stored in the HideEvent array in the event data system are terminated (S122), and the current time (CurTime) is increased by one (S124).

다음에, 현재시간(CurTime)이 전체 강의시간을 초과하였는지 여부를 체크한다(S126). 현재시간(CurTime)이 전체 강의시간을 초과한 경우에는 강의를 종료하고(S128), 그렇지 않다면 S116 내지 S124 단계를 반복한다.Next, it is checked whether the current time CurTime exceeds the entire lecture time (S126). If the current time (CurTime) exceeds the total lecture time, the lecture ends (S128), otherwise, steps S116 to S124 are repeated.

본 발명은 이상에서 설명한 바에 한정되는 것은 아니며, 강의 내용이나 시스템 환경 또는 사용자들의 선택에 따라 각 시스템 및 단계의 가감은 가능한 것으로 본 발명의 요지 내에 해당함은 자명하다.The present invention is not limited to the above description, and it is apparent that each system and step can be added or subtracted according to the contents of the lecture, the system environment, or the user's selection.

이상에서 설명한 본 발명에 따르면 다음과 같은 효과들을 기대할 수 있다.According to the present invention described above it can be expected the following effects.

첫째, 음성을 미리 녹음하여 WAV 또는 ADT 파일로 저장해 두었다가 레코딩을 시작하기 전에 레코더에서 음성 파일을 지정한 다음 레코딩을 시작하면 동시에 음성 녹음 작업을 병행하지 않고 이벤트 입력 작업만 진행하면 되므로 컨텐츠 제작 작업이 기존의 작업보다 훨씬 효율적이다.First, record your voice in advance, save it as a WAV or ADT file, and then specify the voice file in the recorder before starting recording, and then start recording, instead of simultaneously recording the voice. It's much more efficient than its work.

둘째, 비실시간으로 입력된 이벤트와 음성 데이터 파일을 수정 또는 편집할 수 있는 방법을 제공하기 때문에 기존 컨텐츠를 수정 또는 편집을 원할 경우 처음부터 다시 제작할 필요 없이 원하는 부분만 부분 편집 작업을 할 수 있다.Second, because it provides a way to modify or edit the event and voice data files input in real time, if you want to modify or edit the existing content, you can do partial editing work without having to re-create from scratch.

세째, 각각의 이벤트에 발생 또는 종료할 시간값을 지정함으로써 제작자가 의도한 시간에 해당 이벤트가 발생하므로 제작자가 직접 컨텐츠를 조작하지 않고서도 이벤트 발생시간을 조정할 수 있므며, 기존의 이벤트를 종료시키고 그 시간 이후로 다음 이벤트의 발생 시간을 지정함으로써 비슷한 위치에 여러개의 이벤트를 활용할 수 있다.Third, by assigning a time value to occur or end in each event, the event occurs at the author's intended time. Therefore, the event occurrence time can be adjusted without the creator directly manipulating the content. After that time, you can use multiple events at similar locations by specifying the time of the next event.

네째, 이벤트들이 여러개 겹쳐있는 지점에서 오른쪽 마우스를 더블 클릭하면포인터가 위치한 지점에 있는 모든 이벤트들의 리스트를 보여주도록 함으로써 이벤트의 수정, 편집방법을 개선하였다.Fourthly, double-clicking the right mouse button at the point where multiple events overlap to display the list of all the events at the point where the pointer is located improved the editing and editing method of the event.

다섯째, 각각의 이벤트마다 관련된 홈페이지를 링크시킬 수 있으므로 컨텐츠가 실행되고 있는 중에도 언제든지 이벤트를 선택하면 웹브라우저가 자동으로 실행되면서 이벤트의 속성에 제작자가 설정한 홈페이지 주소로 이동할 수 있다.Fifth, the homepage associated with each event can be linked, so if a user selects an event at any time while the content is running, the web browser is automatically executed and can move to the homepage address set by the producer in the event property.

여섯째, 컨텐츠를 구성하는 음성, 동영상, 페이지를 비롯한 모든 이벤트들이 발생 시간 및 종료 시간값을 가지고 동기화되어 조합되기 때문에 컨텐츠 내용의 어느 부분이라도 타임 바를 이용하여 언제든지 구간 반복 재생할 수 있다.Sixth, since all events including voice, video, and page constituting the content are synchronized and combined with the occurrence time and the end time value, any part of the content can be repeatedly played at any time using the time bar.

일곱째, 실시간 강의를 진행하면서 녹화된 동영상, 음성, 이벤트, 강의 교안의 내용을 그대로 녹화, 저장하여 비실시간 강사용 프로그램에서 다시 로딩하여 기존 비실시간 버전의 컨텐츠 수정방식과 같은 방법으로 수정, 편집할 수 있다.Seventh, during the real-time lecture, the recorded video, voice, event, and contents of the lecture syllabus are recorded and saved as they are, and reloaded in the non-real-time lecturer program to be modified and edited in the same manner as the existing non-real-time version contents modification method. Can be.

Claims (22)

강사와 학생을 포함하는 다수의 클라이언트 PC;Multiple client PCs including instructors and students; 실시간 강의를 녹화하여 비실시간 원격 프로그램에서 사용할 수 있는 포맷으로 자동 변환, 저장하는 레코딩 서버;A recording server that records live lectures and automatically converts and stores them in a format that can be used by a non-real time remote program; 상기 다수의 클라이언트 PC들을 서로 연결해주고 실시간 강의 동안 교환되는 데이터를 모든 클라이언트 PC와 레코딩 서버에 브로드캐스팅하는 MDBM 서버; 및An MDBM server connecting the plurality of client PCs to each other and broadcasting data exchanged during a real-time lecture to all client PCs and a recording server; And 상기 클라이언트 PC와 레코딩 서버로 강의 교안을 전송해주고 사용자 인증을 담당하는 관리 서버를 포함하는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.And a management server that transmits a syllabus to the client PC and the recording server and is responsible for user authentication. 청구항 1에 있어서,The method according to claim 1, 상기 클라이언트 PC는,The client PC, 카메라를 통해 입력된 화상 데이터를 이미지 캡처후 자동으로 데이터 입력 시간값을 입력하여 스플리터로 전송하는 이미지 입력부(VFW);An image input unit (VFW) for automatically inputting a data input time value to a splitter after capturing image data input through a camera; 상기 캡처된 이미지를 복사하여 하나는 MUX로 전송되고 다른 하나는 윈도우 비디오 랜더러를 통해 클라이언트 프로그램의 동영상 창으로 전시시키는 스플리터부;A splitter unit for copying the captured image, one of which is transmitted to a MUX and the other of which is displayed as a video window of a client program through a window video renderer; 사운드카드를 통해 입력된 음성 데이터를 샘플링 후 데이터가 입력된 시간값과 함께 다른 포맷으로 변환시키는 음성 변환부; 및A voice conversion unit for converting the voice data input through the sound card into another format after sampling the data; And 상기 캡처된 화상 데이터, 변환된 음성 데이터, 및 키보드 또는 마우스를 통해 입력된 이벤트 데이터를 먹싱하여 MDBM 서버로 전송하는 MUX를 포함하는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.And a mux to mux the captured image data, the converted voice data, and the event data input through a keyboard or a mouse to an MDBM server. 청구항 2에 있어서,The method according to claim 2, 상기 MUX는 상기 각각 입력된 화상, 음성 및 이벤트 데이터에 첨부된 시간값을 검색하여 동일한 시간값을 가지는 데이터를 추출하고 상기 추출된 데이터들을 하나의 데이터로 병합한 후 원래의 시간값을 다시 첨부하여 MDBM 서버로 전송하는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.The MUX extracts data having the same time value by searching the time values attached to the respective input image, audio, and event data, merges the extracted data into one data, and attaches the original time value again. Multimedia e-learning system, characterized in that the transmission to the MDBM server. 청구항 2에 있어서,The method according to claim 2, 상기 클라이언트 PC는,The client PC, MDBM 서버에서 전송된 데이터를 상기 캡처된 화상 데이터, 변환된 음성 데이터, 이벤트 데이터로 디먹싱하는 DEMUX;A DEMUX demuxing data transmitted from an MDBM server into the captured image data, converted audio data, and event data; 상기 화상데이터를 동영상 창으로 전시하는 이미지 출력부;An image output unit which displays the image data in a moving picture window; 상기 음성데이터를 사운드 카드로 전송하는 음성 출력부; 및A voice output unit for transmitting the voice data to a sound card; And 상기 이벤트 데이터를 관리 서버로부터 이미 다운받은 강의 교안과 함께 클라이언트 PC에 전시하는 강의 출력부를 더 포함하는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.And a lecture output unit configured to display the event data on a client PC together with a lecture instruction downloaded from a management server. 청구항 4에 있어서,The method according to claim 4, 상기 DEMUX는 각각 입력된 화상, 음성, 및 이벤트 데이터에 원래의 시간값을 다시 첨부하여 디먹싱하는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.And the DEMUX demuxes the original time value to the input image, audio, and event data, respectively. 청구항 1에 있어서,The method according to claim 1, 상기 레코딩 서버가 MDBM 서버와 관리 서버로부터 전송받은 데이터를 처리할 때,When the recording server processes the data received from the MDBM server and the management server, 상기 MDBM 서버로부터 수신한 데이터는 DEMUX에서 화상데이터, 음성데이터 및 이벤트 데이터로 디먹싱된후 화상 데이터와 음성 데이터는 병합되어 전송을 위한 소정의 멀티미디어 파일로 변환 저장되며, 상기 이벤트 데이터는 관리 서버에서 전송받아 저장하고 있는 이미지 강의 파일과 동기화된후 강의 파일로 저장되는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.The data received from the MDBM server is demuxed into image data, audio data and event data in DEMUX, and then the image data and audio data are merged and converted into a predetermined multimedia file for transmission, and the event data is stored in a management server. Multimedia e-learning system, characterized in that the received and stored in the lecture file and synchronized with the image lecture file. 청구항 6에 있어서, 상기 멀티미디어 파일과 상기 강의 파일은 이후 하나의 파일로 병합되어 별도의 저장 매체에 저장되는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.The multimedia e-learning system of claim 6, wherein the multimedia file and the lecture file are then merged into one file and stored in a separate storage medium. 청구항 6에 있어서, 상기 멀티미디어 파일과 상기 강의 파일은 별도의 저장 매체에 저장되는데, 상기 강의 파일은 상기 멀티미디어 파일이 저장된 주소에 관한 정보를 포함하는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.The multimedia e-learning system of claim 6, wherein the multimedia file and the lecture file are stored in a separate storage medium, wherein the lecture file includes information about an address where the multimedia file is stored. 청구항 7에 있어서, 상기 병합된 상기 멀티미디어 파일과 상기 강의 파일은 클라이언트 PC에서 재생가능한 것을 특징으로 하는 멀티미디어 전자 학습 시스템.The multimedia e-learning system of claim 7, wherein the merged multimedia file and the lecture file are playable on a client PC. 청구항 8에 있어서, 상기 강의 파일은 클라이언트 PC에서 재생가능하며, 상기 재생시 클라이언트 PC는, 상기 별도의 강의 파일에 포함된 멀티미디어 저장 주소를 판독하고 상기 멀티미디어 저장 주소에서 멀티미디어 파일을 전송받는 것을 특징으로 하는 멀티미디어 전자 학습 시스템.The method of claim 8, wherein the lecture file is playable on a client PC, and the client PC reads the multimedia storage address included in the separate lecture file and receives the multimedia file from the multimedia storage address. Multimedia electronic learning system. 강사가 강의 제작 프로그램의 레코더를 이용하여 강의 파일을 생성하는데,The instructor uses the recorder in the course creation program to create the course file. 강의 시간을 카운팅하면서 이벤트 리스트를 준비하는 단계;Preparing an event list while counting lecture times; 강사의 음성이 입력될 경우 카운팅된 강의 시간 정보와 함께 음성파일을 생성하는 단계;Generating a voice file together with counted lecture time information when a voice of an instructor is input; 이벤트 입력시 그 이벤트 발생 또는 종료의 시각과 이벤트의 형식을 상기 이벤트 리스트에 저장하는 단계; 및Storing the time of occurrence or termination of the event and the format of the event in the event list when an event is input; And 상기 음성 파일과 상기 이벤트 리스트에 등록된 이벤트를 강의 시간 정보에 따라 동기시켜 별도 또는 통합 저장하는 단계를 포함하는 것을 특징으로 하는 멀티미디어 학습 방법.And synchronizing and storing the voice file and the event registered in the event list according to lecture time information. 청구항 11에 있어서, 상기 음성파일을 생성하는 단계는, 이미 저장된 음성파일에 강의 시간 정보를 병합하는 단계인 것을 특징으로 하는 멀티미디어 학습 방법.The method of claim 11, wherein the generating of the voice file comprises merging lecture time information with an already stored voice file. 청구항 11에 있어서, 상기 이벤트 발생 시각 또는 종료 시각은 강사가 직접 입력하는 것을 특징으로 하는 멀티미디어 학습 방법.The multimedia learning method of claim 11, wherein the event generation time or end time is directly input by an instructor. 청구항 11에 있어서, 상기 이벤트는 선, 원, 상자, OLE 개체 및 멀티 미디어 파일을 포함하는 것을 특징으로 하는 멀티미디어 학습 방법.The method of claim 11 wherein the event comprises a line, a circle, a box, an OLE object and a multimedia file. 청구항 11에 있어서, 상기 이벤트 리스트는 하나의 발생 또는 종료 시각에 다수의 이벤트 정보를 포함하는 것을 특징으로 하는 멀티미디어 학습 방법.The method of claim 11, wherein the event list includes a plurality of event information at one occurrence or end time. 청구항 15에 있어서, 상기 동일한 발생 또는 종료 시각에 다수의 이벤트 정보가 포함된 경우, 상기 다수의 이벤트 정보는 별도의 식별 정보를 더 포함하며, 상기 별도의 식별 정보에 따라 동일한 시각에서 상기 다수의 이벤트 정보는 구분가능하며, 그리고 별도의 식별 정보를 선택함으로써 해당 이벤트를 전시할 수 있는 것을 특징으로 하는 멀티미디어 학습 방법.The method of claim 15, wherein when the same occurrence or end time includes a plurality of event information, the plurality of event information further includes separate identification information, and the plurality of events at the same time according to the separate identification information. The information is distinguishable, and the multimedia learning method can display the corresponding event by selecting separate identification information. 청구항 16에 있어서, 상기 레코더는 강의 및 이벤트의 발생 및 종료 시각을 편집하는 타임 라인 윈도우, 레코딩 도구들을 제공하는 레코딩 툴, 각 이벤트의 발생 및 종료시각을 편집하는 이벤트 리스트 창, 이벤트 편집 도구들을 제공하는 이벤트 툴 바, 및 강의 교안 및 이벤트가 전시되는 메인 윈도우 화면으로 구성되는 것을 특징으로 하는 멀티미디어 학습 방법.17. The apparatus of claim 16, wherein the recorder provides a timeline window for editing the occurrence and end times of lectures and events, a recording tool for providing recording tools, an event list window for editing the occurrence and end times of each event, and event editing tools. And an event toolbar, and a main window screen on which lecture lectures and events are displayed. 청구항 17에 있어서, 상기 타임 라인 윈도우에 전시된 이벤트 발생 및 종료시각을 조정하여 상기 이벤트 리스트 창에 입력된 상기 이벤트 발생 시각 또는 종료 시각을 수정할 수 있는 것을 특징으로 하는 멀티미디어 학습 방법.The multimedia learning method of claim 17, wherein the event occurrence time or the end time input to the event list window may be modified by adjusting an event occurrence and end time displayed in the timeline window. 청구항 18에 있어서, 상기 타임 라인 윈도우에 전시된 이벤트 발생 및 종료시각과 상기 이벤트창에 입력된 이벤트 발생 및 종료시각은 서로 연동되는 것을 특징으로 하는 멀티미디어 학습 방법.The multimedia learning method of claim 18, wherein an event occurrence and end time displayed in the timeline window and an event occurrence and end time input to the event window are interlocked with each other. 강의 파일을 로딩하여 전체 강의 시간을 체크하는 단계와;Loading a lecture file to check the entire lecture time; 전체 강의시간에 해당하는 크기를 갖는 타임 테이블 어레이를 생성하는 단계와;Generating a time table array having a size corresponding to an entire lecture time; 상기 이벤트 리스트내의 모든 이벤트의 발생 및 종료시간을 검색하는 단계와;Retrieving the occurrence and end times of all events in the event list; 상기 모든 이벤트의 발생 및 종료시간에 따라 이벤트가 있는 시간에 해당하는 타임 테이블 어레이에 이벤트 데이터 체계를 생성하고 상기 체계의 주소를 타임 테이블 어레이에 저장한 후, 상기 이벤트 데이터 체계내에 발생 및 종료 이벤트 어레이를 생성하고 상기 발생 및 종료 이벤트 어레이에 해당 발생 및 종료 이벤트 주소를 저장하는 단계와;After generating an event data system in a time table array corresponding to a time when an event occurs according to the occurrence and end time of all the events, storing the address of the system in the time table array, and then generating and ending event arrays in the event data system. Generating and storing corresponding occurrence and termination event addresses in the occurrence and termination event arrays; 강의 시간을 증가시키면서 상기 강의 시간에 해당하는 타임 테이블 어레이에서 이벤트 데이터 체계의 주소가 있는 경우, 이벤트 데이터 체계 내의 발생 이벤트 어레이와 종료 이벤트 어레이에 저장된 해당 발생 및 종료 이벤트 주소의 이벤트를 로딩하여 이벤트를 발생 또는 종료시키는 단계를 포함하는 것을 특징으로 하는 멀티미디어 전자 학습 방법.If there is an address of the event data system in the time table array corresponding to the lecture time while increasing the lecture time, the event is loaded by loading an event of the corresponding event occurrence and end event addresses stored in the event event array and the end event array in the event data system. Generating or terminating the multimedia electronic learning method. 청구항 20에 있어서, 이벤트가 없는 시간에 해당하는 상기 타임 테이블 어레이는 모두 Null로 지정되는 것을 특징으로 하는 멀티미디어 전자 학습 방법.21. The method of claim 20, wherein all of the time table arrays corresponding to the time without an event are designated as Null. 청구항 20에 있어서, 증가되는 강의 시간에 따라 상기 음성파일을 재생하는 단계를 더 포함하는 것을 특징으로 하는 멀티미디어 전자 학습 방법.21. The method of claim 20, further comprising playing the voice file according to an increased lecture time.
KR1020010049016A 2000-08-25 2001-08-14 The multimedia electronic education system and the method thereof KR20020016509A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001254613A JP2002202941A (en) 2000-08-25 2001-08-24 Multimedia electronic learning system and learning method
US09/938,363 US20020091658A1 (en) 2000-08-25 2001-08-24 Multimedia electronic education system and method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20000049668 2000-08-25
KR1020000049668 2000-08-25
KR20010042980 2001-07-12
KR1020010042980 2001-07-12

Publications (1)

Publication Number Publication Date
KR20020016509A true KR20020016509A (en) 2002-03-04

Family

ID=26638336

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010049016A KR20020016509A (en) 2000-08-25 2001-08-14 The multimedia electronic education system and the method thereof

Country Status (1)

Country Link
KR (1) KR20020016509A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101653501B1 (en) * 2015-08-28 2016-09-01 에스케이 주식회사 Online Education/Conference Method and System using the Remote Control System for Mobile Terminal
KR20170107027A (en) * 2015-11-19 2017-09-22 선전 이글소울 테크놀로지 컴퍼니 리미티드 Method and apparatus for synchronizing display on an image
CN109065058A (en) * 2018-09-30 2018-12-21 合肥鑫晟光电科技有限公司 Voice communication method, apparatus and system
WO2024101488A1 (en) * 2022-11-10 2024-05-16 (주) 이즈커뮤니케이션즈 Method of reproducing lecture recording file

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101653501B1 (en) * 2015-08-28 2016-09-01 에스케이 주식회사 Online Education/Conference Method and System using the Remote Control System for Mobile Terminal
KR20170107027A (en) * 2015-11-19 2017-09-22 선전 이글소울 테크놀로지 컴퍼니 리미티드 Method and apparatus for synchronizing display on an image
CN109065058A (en) * 2018-09-30 2018-12-21 合肥鑫晟光电科技有限公司 Voice communication method, apparatus and system
US10873661B2 (en) 2018-09-30 2020-12-22 Hefei Xinsheng Optoelectronics Technology Co., Ltd. Voice communication method, voice communication apparatus, and voice communication system
CN109065058B (en) * 2018-09-30 2024-03-15 合肥鑫晟光电科技有限公司 Voice communication method, device and system
WO2024101488A1 (en) * 2022-11-10 2024-05-16 (주) 이즈커뮤니케이션즈 Method of reproducing lecture recording file

Similar Documents

Publication Publication Date Title
JP2002202941A (en) Multimedia electronic learning system and learning method
CN105120195B (en) Content recordal, playback system and method
US9837077B2 (en) Enhanced capture, management and distribution of live presentations
Chiu et al. LiteMinutes: an Internet-based system for multimedia meeting minutes
WO2018227761A1 (en) Correction device for recorded and broadcasted data for teaching
US20030124502A1 (en) Computer method and apparatus to digitize and simulate the classroom lecturing
EP0469850A2 (en) Method and apparatus for pre-recording, editing and playing back presentations on a computer system
KR20060035729A (en) Methods and systems for presenting and recording class sessions in a virtual classroom
EP2737442B1 (en) A method and system for distance education based on asynchronous interaction
KR20010056342A (en) Effective user interfaces and data structure of a multi-media lecture, and a system structure for transferring and management of the multi-media lecture for distance education in computer networks
Hayes et al. Internet distance learning: The problems, the pitfalls, and the future
JP2008066794A (en) Video conference reservation/execution control/recording control unit, video conference reservation/execution control/recording control method, and video conference reservation/execution control/recording control program
Braun Listen up!: podcasting for schools and libraries
Yi Xiao et al. Full stream ahead: database instruction through online videos
KR20020016509A (en) The multimedia electronic education system and the method thereof
DE69631831T2 (en) DYNAMIC IMAGE RECORDING BASED ON A PHONE
US20080222505A1 (en) Method of capturing a presentation and creating a multimedia file
Bell Cyber-guest lecturers: Using webcasts as a teaching tool
GB2352845A (en) System for recording and retrieval of multimedia conferences
JP2001350775A (en) Method and device for presenting a plurality of information
KR20030025771A (en) System for providing educational contents on Internet and method thereof
JP3757229B2 (en) Lectures at academic conferences, editing systems for lectures, and knowledge content distribution systems
KR100459668B1 (en) Index-based authoring and editing system for video contents
Anderson et al. Using desktop video to enhance music instruction
CA3079444C (en) Systems and methods for processing image data to coincide in a point of time with audio data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application