KR20190080472A - Method of generating content data, content data structure, and collaboration method based on content data - Google Patents
Method of generating content data, content data structure, and collaboration method based on content data Download PDFInfo
- Publication number
- KR20190080472A KR20190080472A KR1020170182951A KR20170182951A KR20190080472A KR 20190080472 A KR20190080472 A KR 20190080472A KR 1020170182951 A KR1020170182951 A KR 1020170182951A KR 20170182951 A KR20170182951 A KR 20170182951A KR 20190080472 A KR20190080472 A KR 20190080472A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- content data
- event object
- event
- user terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000012986 modification Methods 0.000 claims description 16
- 230000004048 modification Effects 0.000 claims description 16
- 239000000463 material Substances 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 9
- 238000012217 deletion Methods 0.000 description 7
- 230000037430 deletion Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 콘텐츠 데이터 생성 기술에 관한 것으로, 보다 상세하게는, 외부로부터 입력되는 점들의 좌표 값에 기초하여 콘텐츠 데이터를 생성하는 콘텐츠 데이터의 생성 방법, 콘텐츠 데이터의 생성 방법에 의해 생성된 콘텐츠 데이터의 구조 및 콘텐츠 데이터 기반의 컬래버레이션 방법에 관한 것이다.The present invention relates to a content data generation technique, and more particularly, to a content data generation method for generating content data based on coordinate values of points input from outside, a method for generating content data, Structure and content data based collaborative methods.
과학기술이 발달하면서 칠판에 분필로 판서를 하며 말로만 진행되었던 수업은, 각종 전자장비들이 동원되어 스마트한 수업으로 탈바꿈되고 있다. 전자장비가 동원된 수업은 수업에 필요한 이미지, 동영상 등의 자료를 쉽게 연출할 수 있고, 수업중에 바로 웹서핑을 통해, 필요한 자료를 찾을 수 있어 수강자들의 이해를 수월하게 한다.As the science and technology developed, the lessons that were written and written in chalk on the blackboard were transformed into smart lessons by using various electronic equipments. Classes with electronic equipment can easily produce images, videos and other materials needed for classes, and students can find necessary materials through web surfing during class.
또한, 비디오 카메라로 수업을 녹화해서 수강자가 언제든지 수업을 다시 볼 수 있게 되었고, 수업에 참여하지 못해도, 녹화된 수업 동영상을 시청할 수 있게 되었으며 스마트폰이나 PDA 등의 발달로 특히 시간과 공간의 제약 없이 수강할 수 있게 되었다.In addition, by recording videos with video cameras, students can view classes again at any time. Even if they can not participate in classes, they can watch recorded video clips. With the development of smart phones and PDAs, I can take classes.
여러 가지 학습자료 중 특히, 전자칠판은 강의의 편리성과 유용성을 증대시키는 전자 펜으로 쓸 수 있는 칠판으로 태블릿이 대형화된 형태와 유사하다.Among the various learning materials, the electronic board is similar to the large-sized tablet, which can be used as an electronic pen to enhance the convenience and usefulness of lectures.
한편, 전자칠판은 판서(또는, 판서된 문자, 도형 등)을 이미지 형태로 저장하거나, 판서된 내용에 포함된 점좌표들 만을 저장하고 있다. 판서를 이미지 형태로 저장하는 경우, 판서 데이터의 용량이 상대적으로 클 뿐만 아니라 판서의 확대 또는 축소에 의해 판서가 선명하게 표시되지 않는 문제점을 가지며, 판서 데이터가 점좌표들만을 포함하는 경우, 문자, 도형의 편집 등이 어려운 문제점이 있다.On the other hand, the electronic board stores the plan (or written characters, figures, etc.) in the image form or stores only the point coordinates included in the written contents. When the form writing is stored in the form of an image, the capacity of the form writing data is relatively large, and the writing form is not displayed clearly by enlarging or reducing the writing form. If the writing form data includes only the point coordinates, It is difficult to edit a figure.
본 발명의 일 목적은 편집 및 관리가 용이한 콘텐츠 데이터를 생성하는 콘텐츠 데이터 생성 방법을 제공하는 것이다.An object of the present invention is to provide a content data generation method for generating content data that is easy to edit and manage.
본 발명의 일 목적은 편집 및 관리가 용이한 콘텐츠 데이터 구조를 제공하는 것이다.It is an object of the present invention to provide a content data structure that is easy to edit and manage.
본 발명의 일 목적은 콘텐츠 데이터 기반의 컬래버레이션 방법을 제공하는 것이다.An object of the present invention is to provide a method of content-data-based collation.
상기 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 콘텐츠 데이터 생성 방법은, 전자펜, 적외선 카메라 및 콘텐츠 데이터 생성 장치를 포함하는 콘텐츠 데이터 생성 시스템에서 수행될 수 있다. 상기 콘텐츠 데이터 생성 방법은, 상기 전자펜에서 발산되어 제1 영역 상에 포인팅 된 적외선 포인트들을 상기 적외선 카메라를 통해 주기적으로 센싱하는 단계; 상기 제1 영역에 대응하여 기 설정된 기준 좌표계에 기초하여 상기 적외선 포인트들에 대한 복수의 좌표 정보들을 생성하는 단계; 및 상기 좌표 정보들 중에서 상호 연속적으로 제공된 연속 좌표 정보들을 제1 이벤트 객체로 설정하고, 상기 제1 이벤트 객체의 기본 정보, 세부 정보 및 상기 좌표 정보들을 계층화하여 상기 제1 이벤트 객체에 대응하는 제1 콘텐츠 데이터를 생성하는 단계를 포함 할 수 있다.In order to accomplish the above object, a content data generation method according to embodiments of the present invention may be performed in a content data generation system including an electronic pen, an infrared camera, and a content data generation device. The method of generating content data includes: periodically sensing infrared points pointed out on the first area on the first area through the infrared camera; Generating a plurality of coordinate information for the infrared points based on a predetermined reference coordinate system corresponding to the first area; And setting consecutive coordinate information continuously provided from among the coordinate information as a first event object, layering the basic information, the detailed information, and the coordinate information of the first event object to form a first And generating content data.
일 실시예에 의하면, 상기 제1 콘텐츠 데이터를 생성하는 단계는, 상기 연속 좌표 정보들의 생성 시점 정보들 및 상기 연속 좌표 정보들을 대응시켜 상기 제1 콘텐츠 데이터의 제3 레벨 영역에 저장하는 단계; 상기 제1 이벤트 객체의 세부 정보를 상기 제1 콘텐츠 데이터의 제2 레벨 영역에 저장하는 단계; 및 상기 제1 이벤트 객체의 기본 정보를 상기 제1 콘텐츠 데이터의 제1 레벨 영역에 저장하는 단계를 포함 할 수 있다.According to an embodiment, the step of generating the first content data may include storing the generation time information of the continuous coordinate information and the continuous coordinate information in correspondence with each other in a third level area of the first content data; Storing detailed information of the first event object in a second level area of the first content data; And storing basic information of the first event object in a first level area of the first content data.
일 실시예에 의하면, 상기 제1 이벤트 객체의 상기 기본 정보는, 이벤트 종류 정보, 이미지 인덱스 정보, 상기 제1 이벤트 객체와 연동되는 미디어의 재생 시점 정보 및 상기 제1 이벤트 객체의 세부 정보에 대한 이벤트 인덱스 정보를 할 수 있다.According to an embodiment of the present invention, the basic information of the first event object includes at least one of an event type information, an image index information, a playback time information of a media linked to the first event object, Index information can be obtained.
일 실시예에 의하면, 상기 제1 이벤트 객체의 상기 상세 정보는, 상기 이벤트 인덱스 정보, 상기 연속 좌표 정보들 중 시작점 좌표 정보, 상기 연속 좌표 정보들 중 종료점 좌표 정보, 상기 제1 이벤트 객체의 영역 정보, 이벤트 색상 정보, 점 굵기 정보 및 상기 제1 이벤트 객체에 대한 수정 발생 유무를 나타내는 수정 정보를 할 수 있다.According to an embodiment, the detailed information of the first event object includes at least one of the event index information, starting point coordinate information of the continuous coordinate information, end point coordinate information of the continuous coordinate information, , Event color information, point thickness information, and correction information indicating whether or not a correction has been made to the first event object.
일 실시예에 의하면, 상기 좌표 정보들을 생성하는 단계는, 기 생성된 제2 콘텐츠 데이터가 선택된 경우, 상기 제2 콘텐츠 데이터에 대응하는 제2 이벤트 객체에 대한 변경 정보를 생성하는 단계를 할 수 있다.According to an embodiment, the step of generating the coordinate information may include generating change information for a second event object corresponding to the second content data, when the generated second content data is selected .
일 실시예에 의하면, 상기 제2 이벤트 객체의 상기 변경 정보는, 이벤트 인덱스 정보, 이벤트 종류 정보, 수정 이벤트 종류 정보, 수정 시작점 좌표 정보, 수정 종료점 정보, 수정된 제2 이벤트 객체의 영역 정보 및 회전 각도 정보를 할 수 있다.According to an embodiment, the change information of the second event object may include at least one of event index information, event type information, modification event type information, modification start point coordinate information, modification end point information, area information of the modified second event object, Angle information.
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 콘텐츠 데이터 생성 방법은, 외부로부터 순차적으로 제공되는 2차원 평면 상의 좌표 정보들에 기초하여 콘텐츠 데이터를 생성하는 콘텐츠 데이터 생성 장치에서 수행될 수 있다. 상기 콘텐츠 데이터 생성 방법은, 상기 좌표 정보들 중에서 상호 연속적으로 제공된 연속 좌표 정보들을 제1 이벤트 객체로 설정하고, 상기 연속 좌표 정보들의 생성 시점 정보들 및 상기 연속 좌표 정보들을 대응시켜 상기 제1 콘텐츠 데이터의 제3 레벨 영역에 저장하는 단계; 상기 제1 이벤트 객체의 세부 정보를 상기 제1 콘텐츠 데이터의 제2 레벨 영역에 저장하는 단계; 및 상기 제1 이벤트 객체의 기본 정보를 상기 제1 콘텐츠 데이터의 제1 레벨 영역에 저장하는 단계를 포함 할 수 있다.In order to achieve one object of the present invention, a content data generation method according to embodiments of the present invention is a content data generation apparatus that generates content data based on coordinate information on a two-dimensional plane sequentially provided from the outside . The content data generation method may further include setting consecutive coordinate information provided successively among the coordinate information as a first event object, associating generation time information of the continuous coordinate information and the continuous coordinate information, In a third level region of the second level; Storing detailed information of the first event object in a second level area of the first content data; And storing basic information of the first event object in a first level area of the first content data.
일 실시예에 의하면, According to one embodiment,
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 다른 콘텐츠 데이터 구조는, 이벤트 객체에 대응하는 복수의 좌표 정보들을 포함 할 수 있다. 상기 콘텐츠 데이터 구조는, 상기 이벤트 객체의 기본 정보를 저장하는 제1 레벨 영역; 상기 이벤트 객체의 세부 정보를 저장하는 제2 레벨 영역; 및 상기 좌표 정보들 및 상기 좌표 정보들의 생성 시점 정보들을 대응시켜 저장하는 제3 레벨 영역을 포함 할 수 있다.In order to achieve an object of the present invention, a content data structure according to embodiments of the present invention may include a plurality of coordinate information corresponding to an event object. Wherein the content data structure comprises: a first level area for storing basic information of the event object; A second level area for storing detailed information of the event object; And a third level area for storing the coordinate information and the generation time information of the coordinate information in association with each other.
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 컨래버레이션 방법은, 네트워크를 통해 상호 연결된 제1 사용자 단말과 제2 사용자 단말을 포함하는 콘텐츠 데이터 기반의 협력 시스템에서 수행될 수 있다. 상기 컬래버레이션 방법은, 상기 제1 사용자 단말에서 컬래버레이션 서버를 생성하는 단계; 상기 제2 사용자 단말이 클라이언트 어플리케이션을 통해 상기 컬래버레이션 서버에 접속하는 단계; 상기 제2 사용자 단말의 접속이 정상적으로 수행된 경우, 상기 제1 사용자 단말로부터 상기 제2 사용자 단말에 판서 데이터 및 교안 데이터 중 적어도 하나를 포함하는 콘텐츠 데이터를 전송하는 단계; 주기적으로, 상기 제1 사용자 단말 및 상기 제2 사용자 단말 중 하나에 입력된 복수의 점 좌표들을 상기 제1 사용자 단말 및 상기 제2 사용자 단말 중 다른 하나에 전송하는 단계; 및 상기 복수의 점 좌표들의 불연속 구간에 기초하여 상기 복수의 점 좌표들을 복수의 판서 데이터들로 순차적으로 구분하여 저장하는 단계를 포함 할 수 있다.In order to accomplish one object of the present invention, a method of collaborating according to embodiments of the present invention is performed in a content data-based collaboration system including a first user terminal and a second user terminal interconnected via a network . The method includes: generating a collaboration server at the first user terminal; Connecting the second user terminal to the collaboration server via a client application; Transmitting content data including at least one of book form data and teaching material data from the first user terminal to the second user terminal when the connection of the second user terminal is normally performed; Periodically transmitting a plurality of point coordinates input to one of the first user terminal and the second user terminal to the other one of the first user terminal and the second user terminal; And sequentially dividing the plurality of point coordinates into a plurality of form data based on a discontinuous section of the plurality of point coordinates.
일 실시예에 의하면, 상기 콘텐츠 데이터를 전송하는 단계는, 헤더(header), 콘텐츠 데이터, 테일(tail) 및 블록 사이즈 정보를 포함하는 패킷 구조를 이용하여 상기 콘텐츠 데이터를 전송하되, 상기 블록 사이즈 정보는 상기 헤더의 사이즈, 상기 콘텐츠의 사이즈, 상기 테일의 사이즈의 총 합을 포함하며, 고정 길이(fixed length)를 가질 수 있다.According to an embodiment, the step of transmitting the content data may include transmitting the content data using a packet structure including a header, content data, a tail, and block size information, Includes a total sum of the header size, the content size, and the tail size, and may have a fixed length.
일 실시예에 의하면, 상기 콘텐츠 데이터를 전송하는 단계는, 상기 제2 사용자 단말에 대해 판서 권한 및 툴 사용 권한 중 적어도 하나를 부여하는 단계를 포함하고, 상기 판서 권한이 부여된 경우, 상기 제2 사용자 단말에 입력된 점 좌표들을 상기 제1 사용자 단말에 전송하며, 상기 툴 사용 권한이 부여된 경우, 상기 제2 사용자 단말에 의해 입력된 점 좌표들에 기초하여 상기 판서 데이터들 중 적어도 하나에 대한 수정을 허용하되, 상기 제1 사용자 단말에 의한 상기 판서 데이터들에 대한 수정을 제한 할 수 있다.According to another embodiment of the present invention, the step of transmitting the content data may include providing at least one of a publisher right and a tool usage right to the second user terminal, The method comprising the steps of: transmitting point coordinates input to a user terminal to the first user terminal; and, when the tool use right is granted, The second user terminal can restrict the modification to the author data by the first user terminal.
본 발명의 실시예들에 따른 콘텐츠 데이터 생성 방법은, 점들로 구성된 판서를 계층화된 구조를 가지는 콘텐츠 데이터 구조를 이용하여 저장하되, 판서 데이터에 대한 좌표 정보들뿐만 아니라, 이동/확대/축소/회전/삭제 등에 이벤트 정보 및 이벤트 발생한 시점 등을 최적화하여 저장함으로써, 판서 데이터의 관리를 용이하게 할 수 있다.The method of generating content data according to embodiments of the present invention is a method of generating a content data structure by using a content data structure having a layered structure and storing the format information including not only coordinate information on the writer data but also moving / / Deletion, and the like, optimizing and storing the event information and the time at which the event occurs can facilitate management of the writing data.
본 발명의 실시예들에 따른 콘텐츠 데이터 구조는, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들을 계층화하여 저장함으로써, 편집 및 관리가 용이할 수 있다.The contents data structure according to the embodiments of the present invention can be easily edited and managed by layering and storing basic information, detailed information and coordinate information of the event object.
본 발명의 실시예들에 따른 컬래버레이션 방법은 사용자 별로 판서 권한 및 툴 사용 권한 중 적어도 하나를 설정함으로써, 임의의 사용자에 의한 콘텐츠 데이터의 수정, 삭제 등을 방지하고, 원할한 컬래버레이션 또는 프레젠테이션을 가능하게 할 수 있다.The collaborating method according to the embodiments of the present invention can prevent at least one of the authoring right and the right to use the tool from being set for each user to prevent modification or deletion of content data by any user, Presentation can be made possible.
도 1은 본 발명의 실시예들에 따른 컬래버레이션 시스템을 나타내는 도면이다.
도 2a는 도 1의 컬래버레이션 시스템에 포함된 서버의 일 예를 나타내는 도면이다.
도 2b는 도 1의 컬래버레이션 시스템에 포함된 사용자 단말의 일 예를 나타내는 도면이다.
도 3은 본 발명의 실시예들에 따른 콘텐츠 생성 장치의 일 예를 나타내는 블록도이다.
도 4a 및 도 4b는 도 3의 콘텐츠 생성 장치에서 출력되는 화면의 일 예를 나타내는 도면이다.
도 5a는 도 3의 콘텐츠 생성 장치에서 생성된 콘텐츠 데이터의 일 예를 나타내는 도면이다.
도 5b는 도 3의 콘텐츠 생성 장치에서 사용되는 콘텐츠 데이터의 구조를 나타내는 도면이다.
도 6a 내지 도 6f는 도 5b의 콘텐츠 데이터 구조에 포함된 속성들을 설명하는 도면이다.
도 7a 및 도 7b는 도 3의 콘텐츠 생성 장치에서 수행하는 권한 설정을 설명하는 도면이다.
도 8은 본 발명의 실시예들에 따른 콘텐츠 데이터 생성 방법을 나타내는 순서도이다.
도 9는 도 8의 콘텐츠 데이터 생성 방법의 일 예를 나타내는 순서도이다.
도 10은 본 발명의 실시예들에 따른 컬래버레이션 방법을 나타내는 순서도이다.
도 11a 및 도 11b는 도 10의 컬래버레이션 방법에서 사용되는 패킷의 일 예를 나타내는 도면이다.1 is a diagram illustrating a collation system in accordance with embodiments of the present invention.
2A is a diagram showing an example of a server included in the collaboration system of FIG.
2B is a diagram illustrating an example of a user terminal included in the collaboration system of FIG.
3 is a block diagram showing an example of a content generation apparatus according to the embodiments of the present invention.
4A and 4B are views showing an example of a screen output from the content generation apparatus of FIG.
FIG. 5A is a diagram showing an example of content data generated by the content generation apparatus of FIG. 3; FIG.
5B is a diagram showing a structure of content data used in the content generating apparatus of FIG.
Figs. 6A to 6F are diagrams illustrating attributes included in the contents data structure of Fig. 5B.
7A and 7B are diagrams for explaining rights setting performed by the content generating apparatus of FIG.
8 is a flowchart showing a content data generation method according to the embodiments of the present invention.
9 is a flowchart showing an example of a content data generating method of FIG.
10 is a flow chart illustrating a method of collation according to embodiments of the present invention.
11A and 11B are diagrams showing an example of a packet used in the method of collation shown in FIG.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.
본 발명의 실시예들에 따른 컬래버레이션 시스템(또는, 콘텐츠 데이터 생성 시스템, 콘텐츠 데이터 생성 장치)은 복수의 점들(예를 들어, 적외선 카메라를 통해 스크린 상에 순차적으로 포인팅된 점들, 또는 별도의 입력 장치를 통해 순차적으로 감지/입력된 점들)에 기초하여 이벤트 객체(예를 들어, 문자 객체)를 설정하고, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들을 계층화하여 이벤트 객체에 대응하는 콘텐츠 데이터를 생성할 수 있다. 또한, 컬래버레이션 시스템은 네트워크를 통해 상호 연결된 호스트 단말(또는, 서버) 및 클라이언트 단말(또는, 사용자 단말)을 포함하고, 판서/툴 권한을 가진 단말에서 감지된 점들(또는, 점들에 대응하는 콘텐츠 데이터)를 실시간으로 전파하는 방식으로 컬래버레이션 또는 프레젠테이션을 제공할 수 있다.(Or a content data generation system, a content data generation apparatus) according to embodiments of the present invention may include a plurality of points (for example, points pointed sequentially on a screen through an infrared camera, (E.g., a character object) on the basis of the points (the points sequentially sensed / inputted through the input device), layering the basic information, the detailed information and the coordinate information of the event object, Lt; / RTI > In addition, the collaboration system includes a host terminal (or server) and a client terminal (or a user terminal) interconnected via a network, and the points (or points corresponding to points) Content data) can be provided in real time in a manner that propagates or provides the presentation.
이하에서는, 콘텐츠 데이터를 생성하는 구성, 생성된 콘텐츠 데이터의 구조 및 컬래버레이션을 수행하는 구성에 대해서 순차적으로 설명하기로 한다.Hereinafter, a configuration for generating content data, a structure for generating generated content data, and a configuration for performing collation will be sequentially described.
도 1은 본 발명의 실시예들에 따른 컬래버레이션 시스템을 나타내는 도면이고, 도 2a는 도 1의 컬래버레이션 시스템에 포함된 서버의 일 예를 나타내는 도면이며, 도 2b는 도 1의 컬래버레이션 시스템에 포함된 사용자 단말의 일 예를 나타내는 도면이다.Figure 1 is a diagram of a collation system according to embodiments of the present invention, Figure 2a is an illustration of a server included in the collation system of Figure 1, Figure 2b is a cross- FIG. 4 is a diagram illustrating an example of a user terminal included in the system of FIG.
도 1 및 도 2a를 참조하면, 컬래버레이션 시스템(100)(또는, 콘텐츠 데이터 생성 시스템)은 서버(110)(또는, 콘텐츠 데이터 생성 장치, 호스트 단말), 표시 장치(120), 센싱 장치(130) 및 사용자 단말들(140-1 내지 140-7)(또는, 클라이언트 단말들)을 포함할 수 있다. 한편, 컬래버레이션 시스템(100)은 전자펜(10) 및 스크린(20)을 포함할 수 있다.1 and 2A, a collaborative system 100 (or a content data generation system) includes a server 110 (or a content data generation device, a host terminal), a
컬래버레이션 시스템(100)은 전자펜(10)(예를 들어, 비가시 적외선을 발산하는 펜)에서 발산되어 스크린(20)(또는, 표시 영역, 제1 영역) 상에 포인팅 된 적외선 포인트들을 센싱 장치(130)(예를 들어, 적외선 카메라)를 통해 주기적으로 센싱하고, 스크린(20)에 대응하여 기 설정된 기준 좌표계에 기초하여 적외선 포인트들에 대한 복수의 좌표 정보들을 생성하며, 좌표 정보들 중에서 상호 연속적으로 제공된 연속 좌표 정보들을 이벤트 객체로 설정하고, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들(또는, 점들의 좌표 정보들)을 계층화하여 이벤트 객체에 대응하는 콘텐츠 데이터를 생성할 수 있다.The
여기서, 연속 좌표 정보들은 컬래버레이션 시스템(100)(또는, 센싱 장치(130))의 센싱 주기(예를 들어, 10ms)에 대응하여 시간적으로 상호 연속적으로 생성/감지/입력된 좌표 정보들일 수 있다. 이벤트 객체의 기본 정보는 이벤트 객체의 이벤트 종류(또는, 유형), 이벤트 발생시 관련 데이터의 정보(예를 들어, 비디오/오디오 데이터의 진행 시간) 등을 포함하고, 이벤트 객체의 세부 정보는 이벤트 객체의 시작점 좌표, 종료점 좌표, 크기(예를 들어, 높이, 폭) 등을 포함할 수 있다. 기본 정보, 세부 정보 및 좌표 정보들의 계층화는 기본 정보, 세부 정보 및 좌표 정보들을 상호 독립적으로 저장하되, 상기 정보들을 상호 연관시키는 것에 해당할 수 있으며, 예를 들어, 콘텐츠 데이터 생성 시스템(100)은 기본 정보, 세부 정보 및 좌표 정보들을 트리 구조로 저장할 수 있다.Here, the continuous coordinate information may be coordinate information generated / detected / inputted in a temporally successive manner corresponding to the sensing period (for example, 10 ms) of the collation system 100 (or the sensing device 130) have. The basic information of the event object includes an event type (or a type) of the event object, information (e.g., progress time of video / audio data) of related data when an event occurs, Start point coordinates, end point coordinates, size (e.g., height, width), and the like. The layering of the basic information, the detailed information and the coordinate information may correspond to mutually associating the basic information, the detailed information and the coordinate information independently of each other, for example, the contents
콘텐츠 데이터의 구조 및 콘텐츠 데이터를 생성하는 구성에 대해서는 도 3 내지 도 7b를 참조하여 후술하기로 한다.The structure of the content data and the configuration for generating the content data will be described later with reference to Figs. 3 to 7B.
서버(110)는 프레젠테이션 영상 데이터를 생성하여 표시 장치(120)에 제공하고, 센싱 장치(130)로부터 획득한 영상으로부터 점들의 정보(예를 들어, 판서된 문자, 도형 등을 구성하는 점들의 좌표 정보, 좌표 값들)를 획득하며, 점들의 정보에 기초하여 콘텐츠 데이터를 생성할 수 있다. 여기서, 프레젠테이션 영상 데이터는 프레젠테이션(presentation)에 사용되는 일반적인 영상 데이터로, 프레젠테이션 데이터(예를 들어, 프레젠테이션 진행에 기본적으로 사용/제공되는 데이터, 교안 데이터)와 실시간으로 생성/갱신되는 콘텐츠 데이터(예를 들어, 판서 데이터)를 포함할 수 있다. 서버(110)는 일반적인 컴퓨팅 장치로 구현되며, 예를 들어, 퍼스널 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 패드, 스마튼 폰으로 구현될 수 있다.The
표시 장치(120)는 프레젠테이션 영상 데이터에 기초하여 프레젠테이션 영상을 생성하여 스크린(20)에 표시할 수 있다. 예를 들어, 표시 장치(120)는 빔 프로젝터로 구현되거나, 스크린(20)에 대응하는 디스플레이 패널을 포함하는 일반적인 디스플레이 장치(예를 들어, LCD 디스플레이 장치, OLED 디스플레이 장치)로 구현될 수 있다.The
센싱 장치(130)는 전자펜(10)으로부터 발산되어 스크린(20)에 포인팅되는 적외선 점들(예를 들어, 비가시 적외선이 포인팅된 점)을 감지하여 적외선 영상을 획득 할 수 있다. 또한, 센싱 장치(130)는 적외선 영상으로부터 적외선 점들의 정보(예를 들어, 좌표값)을 생성할 수 있다. 여기서, 적외선 점들의 정보는 스크린(20)을 기준으로 설정된 좌표계 상의 좌표값 및 감지된 시간 정보를 포함할 수 있다.The
표시 장치(110)가 빔 프로젝터로 구현되는 경우 센싱 장치(130)는 적외선 카메라로 구현될 수 있으며, 이와 달리, 표시 장치(110)가 디스플레이 장치로 구현되는 경우 센싱 장치(130)는 디스플레이 장치와 일체로 구성된 터치 스크린으로 구현될 수 있다.When the
도 1 및 도 2b를 참조하면, 서버(110) 및 사용자 단말들(140-1 내지 140-7) 중 적어도 하나(이하, 제1 사용자 단말(140-1)이라 함)는 스마트 패드로 구현될 수 있고, 처리 모듈(210), 디스플레이 모듈(220) 및 터치 스크린(230)을 포함할 수 있다.1 and 2B, at least one of the
처리 모듈(210) 및 디스플레이 모듈(130)은 도 2a를 참조하여 설명한 서버(110) 및 표시 장치(120)와 실질적으로 동일하므로, 중복되는 설명은 반복하지 않기로 한다.The
터치 스크린(823)은, 일반적인 터치 스크린과 같이, 정전식 터치 입력 기술, 감압식 터치 입력 기술 등을 이용하여 전자펜(10)을 통해 순차적으로 입력되는 점들을 감지할 수 있다.The touch screen 823 can sense points sequentially input through the
도 1 내지 도 2b를 참조하여 설명한 바와 같이, 컬래버레이션 시스템(100)(또는, 서버(110), 사용자 단말들(140-1 내지 140-7))은 순차적으로 입력되는 점들 중에서 상호 연속적인 연속 좌표 점들을 하나의 이벤트 객체로 설정하고, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들을 계층화하여 콘텐츠 데이터를 생성할 수 있다. 콘텐츠 데이터가 계층화되어 저장됨으로써, 콘텐츠 데이터에 대한 관리, 편집 등이 용이해 질 수 있다.As described with reference to Figs. 1 and 2B, the collation system 100 (or the
도 3은 본 발명의 실시예들에 따른 콘텐츠 생성 장치의 일 예를 나타내는 블록도이고, 도 4a 및 도 4b는 도 3의 콘텐츠 생성 장치에서 출력되는 화면의 일 예를 나타내는 도면이며, 도 5a는 도 3의 콘텐츠 생성 장치에서 생성된 콘텐츠 데이터의 일 예를 나타내는 도면이고, 도 5b는 도 3의 콘텐츠 생성 장치에서 사용되는 콘텐츠 데이터의 구조를 나타내는 도면이며, 도 6a 내지 도 6f는 도 5b의 콘텐츠 데이터 구조에 포함된 속성들을 설명하는 도면이고, 도 7a 및 도 7b는 도 3의 콘텐츠 생성 장치에서 수행하는 권한 설정을 설명하는 도면이다.FIG. 3 is a block diagram showing an example of a content generation apparatus according to an embodiment of the present invention, FIGS. 4A and 4B are views showing an example of a screen output from the content generation apparatus of FIG. 3, FIG. 5B is a diagram showing the structure of content data used in the content generation apparatus of FIG. 3, and FIGS. 6A to 6F are diagrams showing the structure of content FIG. 7A and FIG. 7B are explanatory diagrams of rights set in the content generation apparatus of FIG. 3. FIG.
먼저 도 3을 참조하면, 콘텐츠 생성 장치(300)(또는, 서버(110))는 통신부(310), 좌표 정보 획득부(320), 연산부(340), 저장부(350), 사용자 관리부(360) 및 제어부(950)를 포함할 수 있다. 여기서, 콘텐츠 생성 장치(300)는 도 1 내지 도 2b를 참조하여 설명한 서버(110) 및 사용자 단말들(140-1 내지 140-7) 중 적어도 하나일 수 있다.3, the content generation apparatus 300 (or the server 110) includes a
통신부(310)는 표시 장치(120), 센싱 장치(130) 등과 데이터 통신을 수행하며, 예를 들어, 프레젠테이션 영상 데이터를 송신하거나, 적외선 영상 데이터를 수신할 수 있다. 또한, 통신부(310)는 다른 단말(예를 들어, 사용자 단말)과 데이터 통신을 수행할 수 있다. 통신부(310)는 일반적인 유무선 통신 모듈로 구현될 수 있다.The
좌표 정보 획득부(320)는 센싱 장치(130)로부터 수신한 적외선 영상 데이터에 포함된 적외선 점들의 정보(예를 들어, 좌표값)를 산출할 수 있다. 적외선 영상 데이터에 포함된 적외선 점들의 좌표 정보를 산출하는 구성은, 일반적인 비가시 레이저를 이용한 가상 체험 시스템의 레이저 포인팅 점의 좌표 산출 구성과 실질적으로 동일하므로, 또한, 터치 입력 방식의 터치 입력점의 좌표 산출 구성과 실질적으로 동일하므로, 이에 대한 설명은 생략하기로 한다.The coordinate
한편, 도 3에서 좌표 정보 획득부(320)가 콘텐츠 생성 장치(300)에 포함되는 것으로 설명하였으나, 좌표 정보 획득부(320)가 이에 한정되는 것은 아니다. 예를 들어, 좌표 정보 획득부(320)는 센싱 장치(130)에 포함될 수 있다.3, the coordinate
인터페이스 제공부(330)는 콘텐츠 데이터를 생성하기 위한 사용자 인터페이스를 제공할 수 있다.The
도 4a 및 도 4b를 참조하면, 사용자 인터페이스는 메뉴(PAL)와 판서 영역(또는, 판서 입력이 허용되는 판서 입력 창)을 제공할 수 있다. 메뉴(PAL)는 도 4a 및 도 4b에 도시된 바와 같이, 특정 형상(예를 들어, 사각형, 원형)을 가지고 특정 위치(예를 들어, 화면의 상단, 우측 하단 등)에 배치될 수 있다. Referring to FIGS. 4A and 4B, the user interface may provide a menu (PAL) and a writer area (or a writer input window in which a writer is permitted). The menu PAL may be placed at a specific position (e.g., top of the screen, bottom right of the screen, etc.) with a specific shape (e.g., a square, a circle), as shown in Figs. 4A and 4B.
메뉴(PAL)는 제1 내지 제 7 아이콘들(M1 내지 M7)을 포함할 수 있다. 예를 들어, 사용자는 제1 아이콘(M1)을 통해 가상 펜의 종류(예를 들어, 펜, 붓 등)을 선택하고, 제2 아이콘(M2)을 통해 입력할 도형의 종류를 선택하며, 제3 아이콘(M3)을 통해 가상 펜의 속성(예를 들어, 색상, 굵기 등)을 선택하고, 제4 아이콘(M4)을 통해 지우개를 설정할 수 있다. 또한, 사용자는 제5 아이콘(M5)을 통해 화면(또는, 노트)를 전환하고, 제6 아이콘(M6)을 통해 이벤트 객체(예를 들어, 특정 문자)를 선택하며, 제7 아이콘(M6)을 통해 이벤트 객체, 특정 영역 등을 확대 또는 축소할 수 있다.The menu PAL may include the first to seventh icons M1 to M7. For example, the user selects the type of the virtual pen (e.g., pen, brush, etc.) through the first icon M1, selects the type of the figure to be input through the second icon M2, (For example, color, thickness, and the like) of the virtual pen through the third icon M3 and the eraser via the fourth icon M4. The user also switches the screen (or note) through the fifth icon M5, selects an event object (e.g., a specific character) via the sixth icon M6, An event object, a specific area, and the like can be enlarged or reduced through the UI.
한편, 사용자는 판서 영역을 통해 점들(또는, 점들로 구성된 문자, 도형 등)을 입력할 수 있으며, 이 경우, 콘텐츠 생성 장치(300)는 점들(또는, 점들의 좌표 정보)에 기초하여 상호 연속된 점들(예를 들어, 하나의 문자) 단위로 콘텐츠 데이터를 생성할 수 있다.On the other hand, the user can input points (or characters, figures, etc. composed of points) through the writing area. In this case, The content data can be generated in units of points (for example, one character).
다시 도 3을 참조하면, 연산부(340)는 좌표 정보 획득부(320)에서 산출된 점들 중에서 상호 연속적으로 제공된 연속 좌표점들(또는, 연속 좌표 정보들)을 하나의 이벤트 객체로 설정하고, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들을 계층화하여 콘텐츠 데이터를 생성할 수 있다.Referring again to FIG. 3, the
실시예들에서, 연산부(340)는 연속 좌표 정보들의 생성 시점 정보들(또는, 감지된 시간 정보) 및 연속 좌표 정보들을 대응시켜 콘텐츠 데이터의 제3 레벨 영역에 저장하고, 이벤트 객체의 세부 정보를 콘텐츠 데이터의 제2 레벨 영역에 저장하며, 이벤트 객체의 기본 정보를 콘텐츠 데이터의 제1 레벨 영역에 저장하며, 이벤트 객체의 식별자(또는, 이벤트 인덱스)에 기초하여 제1 내지 제3 레벨 영역들에 저장된 정보들을 상호 연관시킬 수 있다. 예를 들어, 연산부(340)는 콘텐츠 데이터를 XML 파일로 저장할 수 있다.In the embodiments, the
도 5a 내지 도 6f를 참조하면, 콘텐츠 데이터는, 제1 테이블(TABLE1)에 도시된 바와 같이, 이벤트 마스터(event master; EM)(또는, 기본 정보), 이벤트 디테일(event detail; ED)(또는, 세부 정보), 이레이즈 포인트(erase point; EP)(또는, 삭제 정보), 모디파이 이벤트(modify event; ME)(또는, 변경 정보), 프리 포인트(free point; FP)(또는, 포인트 정보) 및 노트(Notes)(또는, 노트 정보)를 포함할 수 있다.5A to 6F, the content data includes an event master (EM) (or basic information), an event detail (ED) (Or change information), a free point (FP) (or point information), and the like), an erase point (EP) ) And a note (or note information).
여기서, 이벤트 마스터(EM)은 이벤트 식별자(EventId) 및 이벤트 객체의 기본 정보를 가질 수 있다. 이벤트 디테일(ED)은 이벤트 식별자(EventId)와 연결되어, 이벤트 객체의 세부 정보를 가질 수 있다. 이레이즈 포인트(EP)는 이벤트 디테일(ED)의 삭제 유무(deleted)를 조건으로 이벤트 식별자(EventId)와 연결되어, 지우개(예를 들어, 이벤트 객체의 적어도 일부를 지우는데 사용되는 자유 지우개로, 도 4a에 도시된 제4 아이콘(M4))를 통한 삭제시, 좌표 정보를 가질 수 있다. 모디파이 이벤트(ME)는 이벤트 디테일(ED)의 수정 유무(modify)를 조건으로 이벤트 식별자(EventId)와 연결되어, 이벤트 객체에 대한 변경 정보(예를 들어, 적어도 일부 점에 대한 수정, 확대/축소 등)(또는, 변경 이벤트 정보)를 가질 수 있다. 프리 포인트(FP)는 이벤트 식별자(EventId)와 연결되어, 펜 판서(또는, 점들)에 대한 좌표 정보를 가질 수 있다. 노트(Notes)는 교안(또는, 프레젠테이션 데이터)의 파일명 및 정보를 가질 수 있다.Here, the event master EM may have an event identifier (EventId) and basic information of the event object. The event detail (ED) is associated with the event identifier (EventId), and can have detailed information of the event object. The erase point EP is connected to the event identifier EventId on the condition that the event detail ED is deleted, and is used as an eraser (for example, a free eraser used to erase at least a part of the event object, The fourth icon M4 shown in Fig. 4A). The modifier event ME is associated with the event identifier EventId on the condition that the event detail ED is modified so that the modification information for the event object (for example, modification, enlargement / Reduction, etc.) (or change event information). The free point FP may be associated with an event identifier (EventId) and may have coordinate information for the pen writer (or points). A note may have a file name and information of a drawing (or presentation data).
한편, 이벤트 마스터(EM)는, 제2 테이블(TABLE2)에 도시된 바와 같이, 이벤트 종류를 나타내는 이벤트 종류 정보(KD), 이미지 인덱스(또는, 이미지 식별자)를 나타내는 이미지 인덱스 정보(SD), 이벤트 객체와 연동되는 미디어의 재생 시점 정보(MP), 이벤트 인덱스(또는, 이벤트 식별자)를 나타내는 이벤트 인덱스 정보(EI), 노트의 확대/축소시 사용되는 확대 비율을 나타내는 확대 비율 정보(SC), 노트의 수직 스크롤 위치를 나타내는 수직 스크롤 위치 정보(VS), 노트의 수평 스크롤 위치를 나태는 수평 스크롤 위치 정보(HS) 및 멀티 입력에 대한 멀티 입력 인덱스 정보(TI)를 포함할 수 있다. 상기 정보들(KD 내지 TI)은 정수 또는 실수 형태의 값을 가질 수 있다.On the other hand, as shown in the second table TABLE2, the event master EM includes event type information KD indicating an event type, image index information SD indicating an image index (or image identifier) Event index information EI indicating an event index (or an event identifier), enlargement ratio information SC indicating an enlargement ratio used for enlarging / reducing a note, Vertical scroll position information VS indicating the vertical scroll position of the note, horizontal scroll position information HS indicating the horizontal scroll position of the note, and multi-input index information TI for multi-input. The information (KD to TI) may have an integer or real value.
이벤트 디테일(ED)은, 제3 테이블(TABLE3)에 도시된 바와 같이, 이벤트 인덱스 정보(EI), 이벤트 객체의 시작점 좌표 정보(SX, SY), 이벤트 객체의 종료점 좌표 정보(EX, EY), 이벤트 객체의 영역 정보(OX, OY, OW, OH), 이벤트 객체의 이동/변경시 이동/변경된 이벤트 객체의 영역 정보(BX, BY, BW, BH), 이벤트 객체의 색상 정보(PC), 이벤트 객체의 굵기 정보(PW)(또는, 펜 굵기 정보), 이벤트 객체의 삭제 유무를 나타내는 이벤트 삭제 정보(BD), 이벤트 객체의 투명도를 나타내는 투명도 정보(TP), 이벤트 객체에 대한 수정 발생 유무를 나타내는 수정 발생 정보(MD)을 포함할 수 있다. 또한, 이벤트 디테일(ED)은 점들의 입력 방식으로서 타블렛 입력의 유무를 나타내는 타블렛 입력 정보를 포함할 수 있다. 이벤트 디테일(ED)에 포함된 상기 정보들(EI 내지 BT)는 정수 형태의 값을 가질 수 있다. 한편, 이벤트 마스터(EM)와 이벤트 디테일(ED)는 이벤트 인덱스 정보(EI)를 통해 연관될 수 있다.The event detail ED includes event index information EI, starting point coordinate information SX and SY of the event object, end point coordinate information EX and EY of the event object, (BX, BY, BW, BH), event object color information (PC), and event information (OX, OY, OW, OH) (Thickness) information of the object, event deletion information (BD) indicating the deletion of the event object, transparency information (TP) indicating transparency of the event object, presence or absence of modification to the event object And may include correction occurrence information (MD). In addition, the event detail (ED) may include tablet input information indicating the presence or absence of a tablet input as an input method of points. The information (EI to BT) included in the event detail (ED) may have an integer type value. Meanwhile, the event master (EM) and the event detail (ED) can be associated through the event index information (EI).
이레이즈 포인트(EP)는 제4 테이블(TABLE4)에 도시된 바와 같이, 이벤트 인덱스 정보(EI), 이벤트 객체의 생성 시간을 나타내는 이벤트 생성 시간 정보(MP) 및 삭제 이벤트 종류 정보(EK)를 포함할 수 있다. 이레이즈 포인트(EP)에 포함된 상기 정보들(EI 내지 EK)는 정수 또는 실수 형태의 값을 가질 수 있다.The erasure point EP includes event index information EI, event generation time information MP indicating the generation time of the event object, and deletion event type information EK as shown in the fourth table TABLE4 can do. The information (EI to EK) included in the erase point EP may have an integer or real value.
프리 포인트(FP)는, 제5 테이블(TABLE5)에 도시된 바와 같이, 이벤트 인덱스 정보(EI), 이벤트 생성 시간 정보(MP), 마우스(즉, 입력 장치의 일 유형으로서, 마우스)에 의해 마우스 이벤트 식별값(MS), 타블렛 펜(즉, 입력 장치의 일 유형으로서, 타블렛 펜)의 압력값(PS) 및 이벤트 객체의 시작점 정보(SX, SY)를 포함할 수 있다. 프리 포인트(FP)에 포함된 상기 정보들(EI 내지 SY)는 정수 도는 실수 형태의 값을 가질 수 있다.The free point FP is constituted by the event index information EI, the event generation time information MP and a mouse (i.e., a mouse as one type of input device) as shown in the fifth table TABLE5 An event identification value MS, a pressure value PS of the tablet pen (i.e., a tablet pen as one type of input device), and starting point information SX, SY of the event object. The information EI to SY included in the free point FP may have a value of integer or real type.
모디파이 이벤트(ME)는, 제6 테이블(TABLE6)에 도시된 바와 같이, 이벤트 인덱스 정보(EI), 미디어의 재생 시점 정보(MP), 이벤트 종류 정보(KD), 수정 이벤트 종류 정보(MK), 이동/변경된 이벤트 객체의 시작점 정보(MX, MY), 이동/변경된 이벤트 객체의 종료점 정보(CX, CY), 이동/변경된 이벤트 객체의 영역 정보(BX, BY, BW, BH), 이미지 인덱스 정보(SD) 및 이벤트 객체의 회전 각도 정보(AG)를 포함할 수 있다. 모디파이 이벤트(ME)에 포함된 상기 정보들(EI 내지 AG)는 정수 또는 실수 형태의 값을 가질 수 있다.The modifier event ME includes event index information EI, media playback time information MP, event type information KD, modified event type information MK, and the like, as shown in the sixth table TABLE6, The end point information (CX, CY) of the moved / changed event object, the area information (BX, BY, BW, BH) of the moved / changed event object, the image index information (SD) and rotation angle information (AG) of the event object. The information (EI to AG) included in the modulation event (ME) may have a value in the form of integer or real number.
연산부(340)(또는, 콘텐츠 생성 장치(300))는 판서 데이터(즉, 점들로 구성된 문자, 도형 등에 대응하는 콘텐츠 데이터)를 도 5a 내지 도 6f에 도시된 구조체 형태로 저장하되, 판서 데이터에 대한 좌표 정보들뿐만 아니라, 이동/확대/축소/회전/삭제 등에 이벤트 정보 및 이벤트 발생한 시점 등을 최적화하여 저장함으로써, 판서 데이터의 관리를 용이하게 할 수 있다.The operation unit 340 (or the contents generation apparatus 300) stores the form data (i.e., the contents data corresponding to the characters, graphics, etc. constituted by the points) in the form of the structure shown in FIGS. 5A to 6F, The event information and the time when the event occurs are optimized and stored in addition to the coordinate information for moving, enlarging / reducing / rotating / deleting.
도 5a에 도시된 콘텐츠 데이터는 약 10초 동안 판서된 숫자 1 내지 10에 대한 판서 데이터(예를 들어, XML 파일 형태의 판서 데이터)를 나타내며, 일반적인 벡터 방식의 데이터 구조에 비해 저장 용량을 감소시킬 수 있다(예를 들어, 종래의 경우, 251KB -> 본 발명의 경우 25KB).The content data shown in FIG. 5A represents the form data (for example, form data in the form of an XML file) for the
일 실시예에서, 연산부(340)는 특정 시간 내에 생성된 2개의 이상의 이벤트 객체들이 상호 중첩되는 경우, 2개 이상의 이벤트 객체들을 하나의 이벤트 객체로 통합할 수 있다.In one embodiment, when two or more event objects generated within a specific time period overlap each other, the
도 4b를 참조하여 예를 들면, 숫자 "4"의 경우, "ㄴ" 형태의 제1 이벤트 객체(OBJ1)와 "1" 형태의 제2 이벤트 객체(OBJ2)로 분리되어 저장될 수 있다. 이 경우, 연산부(340)는 제1 이벤트 객체(OBJ1) 및 제2 이벤트 객체(OBJ2) 각각의 이벤트 영역 정보(OX, OY, OW, OH) 등에 기초하여 제1 이벤트 객체(OBJ1) 및 제2 이벤트 객체(OBJ2)가 적어도 부분적으로 중첩되는지 여부를 판단하고, 상호 중첩되는 경우, 제1 이벤트 객체(OBJ1) 및 제2 이벤트 객체(OBJ2) 각각의 이벤트 마스터(EM)의 재생 시점 정보(MP) 등에 기초하여 제1 이벤트 객체(OBJ1) 및 제2 이벤트 객체(OBJ2)가 특정 시간 간격 내에 생성되었는지 여부를 판단하며, 특정 시간 간격 내에 생성된 경우 제1 이벤트 객체(OBJ1) 및 제2 이벤트 객체(OBJ2)를 통합하여 제3 이벤트 객체(OBJ3)를 생성하거나, 제1 이벤트 객체(OBJ1)를 수정 할 수 있다.Referring to FIG. 4B, for example, in the case of the number "4", the first event object OBJ1 of the "b" type and the second event object OBJ2 of the "1" type may be separately stored. In this case, the
예를 들어, 문자 "ㄷ"에 포함된 이벤트 이벤트 객체들도 그 영역 정보들에 기초하여 상호 중첩되는 것으로 판단될 수 있으므로, 문자 "ㄷ"은 하나의 이벤트 객체로 저장 및 관리될 수 있다. 유사하게, 문자 "ㅁ"도 하나의 이벤트 객체로 저장 및 관리될 수 있다.For example, since the event event objects included in the character "C " can also be judged to overlap each other based on the area information, the character" C "can be stored and managed as one event object. Similarly, the character "" can also be stored and managed as a single event object.
일 실시예에서, 연산부(340)는 이벤트 영역 정보(OX, OY, OW, OH)에 기초하여 이벤트 객체를 선택할 수 있다.In one embodiment, the
도 4b를 참조하여 예를 들면, 사용자가 문자 "d"를 선택하기 위해 원형으로 선택 영역을 설정하는 경우, 문자 "d"의 일부가 포함되지 않거나, 문자 "e"의 일부가 포함될 수 있다. 따라서, 연산부(340)는 이벤트 영역 정보(OX, OY, OW, OH) 중 이벤트 영역 좌표값(OX, OY)(예를 들어, 이벤트 영역의 중심점)이 선택 영역에 포함되어 있는지 여부를 포함하고, 이벤트 영역 좌표값(OX, OY)가 포함된 이벤트 객체만을 선택할 수 있다. 따라서, 사용자의 의도에 부합하는 "d"만이 선택될 수 있다.Referring to Fig. 4B, for example, when the user sets the selection area circularly to select the letter "d ", part of the letter" d "is not included or part of the letter" e " Accordingly, the
다시 도 3을 참조하면, 저장부(350)는 프레젠테이션 데이터(예를 들어, 교안 데이터), 콘텐츠 데이터(예를 들어, 판서 데이터) 등을 저장하고, 콘텐츠 데이터의 생성 및 컬래버레이션(또는, 프레젠테이션)에 필요한 소프트웨어, 프로그램 등을 저장할 수 있다. 예를 들어, 연산부(340)에서 수행되는 콘텐츠 데이터 생성 방법은 콘텐츠 생성 프로그램으로 구현되어 저장부(350)에 저장될 수 있다. 저장부(350)는 메모리 장치 등으로 구현될 수 있다. 콘텐츠 생성 프로그램 등은 별도의 컴퓨터로 읽을 수 있는 기록매체(예를 들어, 메모리 장치, CD 등)에 저장되고, 유무선 통신망을 통해 배포될 수 있다.3, the
사용자 관리부(360)는 컬래버레이션(또는, 프레젠테이션)에 참여하는 사용자에 대한 사용자 정보에 기초하여 사용자를 인증하고, 사용자에게 컬래버레이션 권한을 설정할 수 있다. 여기서, 컬래버레이션 권한은 판서 권한 및 툴 사용 권한을 포함할 수 있다. 한편, 사용자 정보는 저장부(350)에 저장될 수 있다.The
실시예들에서, 사용자 관리부(360)는 사용자 단말들 중 제1 사용자 단말(140-1)(또는, 제1 사용자 단말(140-1)을 사용하는 제1 사용자)에게 판서 권한 및 툴 사용 권한 중 적어도 하나를 부여할 수 있다. In embodiments, the
예를 들어, 제1 사용자 단말(140-1)에 판서 권한이 부여된 경우, 제1 사용자 단말(140-1)에서 입력된 점 좌표들(또는, 판서 데이터)는 서버(110)에 전송되며, 서버(110)를 통해 다른 사용자 단말들(예를 들어, 제2 사용자 단말(140-2))에 전송/배포되고, 서버(110)(또는, 제1 사용자 단말(140-1))는 점 좌표들에 기초하여 콘텐츠 데이터를 생성할 수 있다.For example, when the first user terminal 140-1 is given the author authority, the point coordinates (or writing data) input from the first user terminal 140-1 are transmitted to the
예를 들어, 제1 사용자 단말(140-1)에 툴 사용 권한이 부여된 경우, 제1 사용자 단말(140-1)은 도 4a를 참조하여 설명한 메뉴(PAL)를 이용하여 프레젠테이션 데이터(또는, 콘텐츠 데이터)를 편집할 수 있다.For example, when the first user terminal 140-1 is given a right to use a tool, the first user terminal 140-1 transmits the presentation data (or the presentation data) using the menu PAL described with reference to FIG. Content data) can be edited.
한편, 인테페이스 제공부(330)는 사용자 단말들(140-1 내지 140-7)의 컬래버레이션 권한 설정 및 현황을 표시하는 사용자 인터페이스를 제공할 수 있다.On the other hand, the
도 7a 및 도 7b를 참조하면, 인터페이스 제공부(330)는 화면의 일측(예를 들어, 우측)에 권한 설정창(AR1)을 제공하고, 권한 설정창(A1)에는 서버(Server), 제1 사용자(User) 등의 권한 부여 상태가 표시되고, 사용자(또는, 서버 사용자, 관리자)는 클릭(click)과 같은 입력 방식을 이용하여 해당 사용자에 대한 권한을 설정하거나 해제(또는, 회수)할 수 있다. 권한 설정창(AR1)은 제1 아이콘(IC1)을 통해 보이기/숨기기 형태로 표시될 수 있다.7A and 7B, the
또한, 인터페이스 제공부(330)는 해당 사용자에게 표시되는 화면을 통해 해당 사용자에게 판서 권한 및 툴 사용 권한이 부여되어 있는지를 메뉴(PAL)의 제2 및 제3 아이콘들(IC2, IC3)을 통해 각각 표시할 수 있다.In addition, the
다시 도 3을 참조하면, 제어부(370)는 통신부(310), 좌표 정보 획득부(320), 연산부(340), 저장부(350) 및 사용자 관리부(360) 간의 데이터 흐름을 제어하고, 이들 각각의 동작을 제어할 수 있다.3, the
도 3 내지 도 7b를 참조하여 설명한 바와 같이, 콘텐츠 생성 장치(300)(또는, 컬래버레이션 시스템(100))는 판서 데이터(즉, 점들로 구성된 문자, 도형 등에 대응하는 콘텐츠 데이터)를 구조체 형태로 저장하되, 판서 데이터에 대한 좌표 정보들뿐만 아니라, 이동/확대/축소/회전/삭제 등에 이벤트 정보 및 이벤트 발생한 시점 등을 최적화하여 저장함으로써, 판서 데이터의 관리를 용이하게 할 수 있다.As described with reference to Figs. 3 to 7B, the content generation apparatus 300 (or the collation system 100) can generate the form data (i.e., the content data corresponding to characters, And optimizes and stores event information, event occurrence time, and the like, as well as coordinate information on the writing data, movement / enlargement / reduction / rotation / deletion, etc., thereby facilitating management of writing data.
또한, 콘텐츠 생성 장치(300)(또는, 컬래버레이션 시스템(100))는 사용자 별로 판서 권한 및 툴 사용 권한 중 적어도 하나를 설정함으로써, 임의의 사용자에 의한 콘텐츠 데이터의 수정, 삭제 등을 방지하고, 원할한 프레젠테이션을 가능하게 할 수 있다.In addition, the content generation apparatus 300 (or the collaboration system 100) may set at least one of the authoring right and the right to use the tool for each user, thereby preventing modification or deletion of the content data by any user , It is possible to make a presentation as desired.
도 8은 본 발명의 실시예들에 따른 콘텐츠 데이터 생성 방법을 나타내는 순서도이고, 도 9는 도 8의 콘텐츠 데이터 생성 방법의 일 예를 나타내는 순서도이다.FIG. 8 is a flowchart showing a content data generating method according to the embodiments of the present invention, and FIG. 9 is a flowchart showing an example of a content data generating method of FIG.
도 8을 참조하면, 도 8의 콘텐츠 데이터 생성 방법은 도 1의 컬래버레이션 시스템(100) 또는 도 3의 콘텐츠 생성 장치(300)(또는, 서버(110), 사용자 단말들(140-1 내지 140-7))에서 수행될 수 있다.8, the content data generation method of FIG. 8 is the same as the
도 8의 방법은 전자펜(10)에서 스크린(20) 상에 레이저가 발산되면(S810), 적외선 카메라(130)를 통해 스크린(20) 상에 포인팅된 레이저 포인트를 센싱할 수 있다(S820). 예를 들어, 도 8의 방법은 전자펜(10)에서 발산되어 스크린(20)(또는, 제1 영역) 상에 포인팅 된 적외선 포인트들을 적외선 카메라(130)를 통해 주기적으로 센싱할 수 있다.The method of FIG. 8 may sense the laser point pointed on the
도 8의 방법은 레이저 포인트의 점 좌표를 생성할 수 있다(S830). 예를 들어, 도 8의 방법은 스크린(20)에 대응하여 기 설정된 기준 좌표계에 기초하여 적외선 포인트들에 대한 좌표 정보들을 생성할 수 있다.The method of FIG. 8 may generate the point coordinates of the laser point (S830). For example, the method of FIG. 8 may generate coordinate information for the infrared points based on a predetermined reference coordinate system corresponding to the
이후, 도 8의 방법은 적외선 포인트가 기 생성된 콘텐츠 데이터(또는, 판서 데이터, 예를 들어, 제2 콘텐츠 데이터)를 선택하는지 여부를 확인하고(S840), 기 생성된 콘텐츠 데이터를 선택하는 경우가 아닌 경우, 연속 좌표 정보들에 기초하여 이벤트 객체에 대응하는 콘텐츠 데이터(예를 들어, 제1 콘텐츠 데이터)를 생성하며(S850), 기 생성된 콘텐츠 데이터를 선택하는 경우, 좌표 정보들에 기초하여 이벤트 객체 또는 콘텐츠 데이터를 수정할 수 있다(S860).Then, the method of FIG. 8 confirms whether or not the infrared point selects the generated content data (or writing data, for example, second content data) (S840), and when the previously generated content data is selected (E.g., first content data) corresponding to the event object based on the continuous coordinate information (S850), and when selecting the pre-generated content data, based on the coordinate information, To modify the event object or the content data (S860).
일 실시예에서, 도 8의 방법은 좌표 정보들 중에서 상호 연속적으로 제공된 연속 좌표 정보들을 하나의 이벤트 객체(예를 들어, 제1 이벤트 객체)로 설정하고, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들을 계층화하여 이벤트 객체에 대응하는 콘텐츠 데이터를 생성할 수 있다.In one embodiment, the method of FIG. 8 sets consecutive coordinate information provided in succession among the coordinate information to one event object (e.g., the first event object), and sets basic information, And the content data corresponding to the event object can be generated by layering the information.
도 9를 참조하면, 도 8의 방법(또는, 도 8의 방법)은 순차적으로 수신되는 점의 정보(예를 들어, 점 좌표)를 실시간으로 기록하되(S910), 해당 점이 종료점인지 여부를 판단할 수 있다(S920). 예를 들어, 특정 점을 기준으로 특정 시간 내에 다음 점(next point)이 수신되지 않는 경우, 도 8의 방법은 특정 점을 종료점으로 판단할 수 있다.Referring to FIG. 9, the method of FIG. 8 (or the method of FIG. 8) records information (for example, point coordinates) of points received sequentially in real time (S910), and determines whether or not the point is an end point (S920). For example, if the next point is not received within a certain time based on a specific point, the method of FIG. 8 can determine the specific point as an end point.
해당 점이 종료점인 경우, 도 8의 방법은 특정 점(예를 들어, 시작점)부터 종료점까지 기록된 점들(또는, 연속 좌표 점들)을 하나의 이벤트 객체로 설정하여 콘텐츠 데이터의 프리 포인트(FP)에 저장할 수 있다(S930). 예를 들어, 도 8의 방법은 연속 좌표 정보들의 생성 시점 정보들(또는, 재생 시점 정보(MP) 및 좌표 정보들(예를 들어, 시작점 좌표 정보(SX, SY)로, 점의 경우 시작점 좌표 정보만을 가짐)을 대응시켜 콘텐츠 데이터의 제3 레벨 영역에 저장할 수 있다.When the corresponding point is the end point, the method of FIG. 8 sets the recorded points (or continuous coordinate points) from a specific point (for example, starting point) to the end point as one event object, (S930). For example, the method of FIG. 8 may include generating point-in-time information (or reproducing point-in-time information MP and coordinate information (e.g., starting point coordinate information SX, SY) Information) can be stored in the third level area of the content data in association with each other.
도 8의 방법은 이벤트 객체의 세부 정보를 생성 및 저장할 수 있다(S940). 예를 들어, 도 8의 방법은 연속 좌표 정보들에 기초하여 이벤트 객체의 이벤트 디테일(ED)에 포함된 정보들을 생성하고, 콘텐츠 데이터의 제2 레벨 영역에 저장할 수 있다.The method of FIG. 8 may generate and store detailed information of the event object (S940). For example, the method of FIG. 8 may generate information contained in an event detail (ED) of an event object based on continuous coordinate information, and store the information in a second level area of the content data.
이후, 도 8의 방법은 이벤트 객체의 기본 정보로서 이벤트 마스터(EM)를 생성 및 저장할 수 있다(S950). 예를 들어, 도 8의 방법은 이벤트 객체의 기본 정보를 콘텐츠 데이터의 제1 레벨 영역에 저장할 수 있다.Then, the method of FIG. 8 may generate and store the event master EM as basic information of the event object (S950). For example, the method of FIG. 8 may store basic information of an event object in a first level area of content data.
도 8 및 도 9를 참조하여 설명한 바와 같이, 본 발명의 실시예들에 따른 콘텐츠 데이터 생성 방법은, 순차적으로 감지한 점들 중에서 상호 연속적인 연속 좌표 점들을 하나의 이벤트 객체로 생성하되, 이벤트 객체의 기본 정보, 세부 정보 및 좌표 정보들을 계층화하여 저장할 수 있다.As described with reference to FIGS. 8 and 9, in the content data generation method according to the embodiments of the present invention, consecutive continuous coordinate points are generated as one event object among sequentially detected points, Basic information, detailed information and coordinate information can be layered and stored.
도 10은 본 발명의 실시예들에 따른 컬래버레이션 방법을 나타내는 순서도이다.10 is a flow chart illustrating a method of collation according to embodiments of the present invention.
도 10을 참조하면, 도 10의 방법은 도 1의 컬래버레이션 시스템(100)에서 수행될 수 있다. 도 10에 도시된 호스트 단말(1010) 및 클라이언트 단말(1020)는 도 1 내지 도 2b를 참조하여 설명한 서버(110) 및 제1 사용자 단말(또는, 사용자 단말들(140-1 내지 140-7) 중 적어도 하나)와 실질적으로 동일할 수 있다. 따라서, 중복되는 설명은 반복하지 않기로 한다.Referring to FIG. 10, the method of FIG. 10 may be performed in the
도 10의 방법은, 외부로부터 순차적으로 제공되는 2차원 평면 상의 좌표 정보들에 기초하여 콘텐츠 데이터를 생성할 수 있다.The method of FIG. 10 can generate content data based on coordinate information on a two-dimensional plane sequentially provided from the outside.
먼저, 도 10의 방법은 호스트 단말(1010)에 서버(예를 들어, 프레젠테이션 데이터 등을 주체적으로 생성/처리/저장하는 프레젠테이션 서버)를 생성하고(S1010), 클라이언트 단말(1020)의 서버에 대한 접속을 시도 또는 허용할 수 있다(S1020). 여기서, 클라이언트 접속은 별도의 클라이언트 어플리케이션을 통해 제공될 수 있다.10, a method of generating a server (e.g., a presentation server for subjectively generating / processing / storing presentation data) in the host terminal 1010 (S1010) The connection can be attempted or permitted (S1020). Here, the client connection can be provided through a separate client application.
예를 들어, 프레젠테이션을 주최하는 제1 사용자는 어플리케이션에서 제공되는 서버 생성 기능을 이용하여 서버를 생성하고, 프레젠테이션에 참석하는 제2 사용자는 어플리케이션에서 제공되는 접속 기능을 이용하여 클라이언트 접속을 시도할 수 있다. 예를 들어, 제2 사용자는 아이피(IP) 및 패스워드(PW)을 통해 클라이언트 접속을 시도할 수 있으며, 아이피(IP)는 서버의 주소에 해당하고, 패스워드(PW)는 허용되지 않는 사용자의 접속을 제한하기 위해 서버에 설정된 패스워드일 수 있다.For example, a first user hosting a presentation may create a server using a server creation function provided in an application, and a second user attending a presentation may attempt to access the client using a connection function provided in the application have. For example, the second user may attempt to access the client via the IP and PW, the IP corresponds to the address of the server, the password PW is not allowed, Lt; RTI ID = 0.0 > and / or < / RTI >
클라이언트 단말(1020)을 통해 입력된 아이피(IP)에 대응하는 서버에 패스워드(PW)가 전송되고(S1025), 도 10의 방법은 패스워드(PW)가 기 설정된 패스워드와 일치하는 여부를 판단하여(S1030), 사용자의 서버에 대한 접속을 허용할 수 있다.The password PW is transmitted to the server corresponding to the IP input through the client terminal 1020 (S1025), and the method of FIG. 10 determines whether or not the password PW matches the predetermined password S1030) and allow the user to connect to the server.
클라이언트 단말(1020)의 서버에 대한 접속이 정상적으로 수행된 경우, 도 10의 방법은 클라이언트 레벨을 설정할 수 있다(S1040). 여기서, 클라이언트 레벨은 프레젠테이션에서 해당 사용자의 권한 레벨을 나타내며, 권한 레벨에 따라 도 3, 도 7a 및 도 7b를 참조하여 설명한 판서 권한, 툴 사용 권한이 부여될 수 있다. 즉, 클라이언트 레벨은 판서 권한, 툴 사용 권한 등 컬래보레이션 시스템(100)에서 제공되는 기능들 중에서 컬래보레이션(또는, 프레젠이션)과 관련하여 일부 기능들에 대한 제한 등을 설정하기 위한 시스템 일 수 있다.When the
예를 들어, 제0 레벨(Lv0)는 협업 기능, 즉, 컬래보레이션(또는, 프레젠테이션)에 참여할 수 있는 권한이 없는 경우에 해당 할 수 있다. 제1 레벨(Lv1)은 판서 권한이 없는 경우에 해당하며, 예를 들어, 제1 레벨(Lv1)의 사용자는 프레젠테이션을 참관만 할 수 있다. 제2 레벨(Lv2)는 판서 권한이 부여된 경우에 해당하고, 예를 들어, 제1 레벨(Lv1)의 사용자에 의해 입력된 판서는 직간접적으로 서버 및 다른 클라이언트 단말들에 배포될 수 있다. 제3 레벨(Lv3)은 서버의 생성, 실행 등의 모든 권한을 가진 경우에 해당하고, 예를 들어, 제3 레벨(Lv3)은 서버를 호스트 단말(1010)에만 부여되며, 판서 권한을 가질 수 있다.For example, the level zero (Lv0) may correspond to a case in which the user is not authorized to participate in the collaboration function, i.e., the collaboration (or presentation). The first level Lv1 corresponds to the case where there is no author authority, for example, the user of the first level Lv1 can only view the presentation. The second level Lv2 corresponds to a case in which a writing authority is granted. For example, a writing entered by a user at the first level Lv1 may be directly or indirectly distributed to the server and other client terminals. For example, the third level Lv3 corresponds to a case where the server is given only to the
한편, 제2 레벨(Lv2)은 제3 레벨(Lv3)인 호스트 단말(1010)을 통해 부여되며, 복수의 클라이언트 단말들 중 하나의 클라이언트 단말에만 부여되며, 나머지 클라이언트 단말들은 제1 레벨(Lv1)을 가질 수 있다. 이 경우, 호스트 단말(1010) 및 하나의 클라이언트 단말만이 판서 권한을 가지며, 양방향 판서, 호스트 단말(1010) 및 하나의 클라이언트 단말만 각각에서 생성된 판서는 실시간으로 동시에 배포될 수 있다. 예를 들어, 하나의 클라이언트 단말은 호스트 단말(1010)에서 설정된 그리기 속성(펜, 붓펜, 도형)과는 다른 그리기 속성을 사용할 수 있으며, 또한, 굵기, 색상 등의 속성 등도 독립적으로 가질 수 있다.On the other hand, the second level Lv2 is given through the
한편, 툴 사용 권한은 호스트 단말(1010) 또는 하나의 클라이언트 단말(즉, 제2 레벨(Lv2)의 클라이언트 단말)이 가질 수 있다. 예를 들어, 호스트 단말(1010)의 제2 레벨(Lv2)의 클라이언트 단말에 툴 사용 권한을 넘겨 주거나 다시 가져올 수 있으며, 툴 사용 권한에 따라 호스트 단말(1010) 또는 제2 레벨(Lv2)의 클라이언트 단말은 이벤트 객체를 수정(예를 들어, 삭제, 이동, 회전, 확대, 축소) 및 노트 전환(예를 들어, 프레젠테이션의 배경이 되는 화면 등에 대한 전환)을 할 수 있다.On the other hand, the right to use a tool can be owned by the
다시 도 10을 참조하면, 도 10의 방법은 클라이언트 단말(1020)의 접속 승인과 함께, 프레젠테이션 데이터(예를 들어, 교안 데이터 및 판서 데이터 중 적어도 하나)를 클라이언트 단말(1020)에 제공할 수 있다(S1050).10, the method of FIG. 10 may provide the
도 10의 방법은 클라이언트 단말(1020)을 통해 프레젠테이션 데이터(예를 들어, 교안 데이터 및 판서 데이터)를 표시할 수 있다(S1060).The method of FIG. 10 may display the presentation data (for example, the teaching data and the writing data) through the client terminal 1020 (S1060).
이후, 도 10의 방법은, 호스트(1010) 또는 판서 권한을 가진 다른 클라이언트 단말로부터 생성/제공된 데이터(예를 들어, 점 좌표 정보들)가 있는 경우, 해당 데이터를 클라이언트 단말(1020)에 주기적으로 또는 실시간으로 전송하고(S1070), 클라이언트 단말(1020)을 통해 해당 데이터를 실시간으로 표시 할 수 있다(S1080).10, if there is data (for example, point coordinate information) generated / provided by the
한편, 도 10의 방법은 호스트 단말(1010)에 제공되는 데이터(예를 들어, 점 좌표 정보들)의 불연속 구간에 기초하여 데이터를 복수의 이벤트 객체들로 구분하고, 이벤트 객체들 각각에 대응하는 콘텐츠 데이터(또는, 판서 데이터)를 순차적으로 생성 및 저장할 수 있다. 여기서, 불연속 구간은, 도 1을 참조하여 설명한 연속에 반대되는 개념으로, 예를 들어, 컬래버레이션 시스템(100)의 센싱 주기(10ms)를 초과하여 좌표 정보가 획득되지 않는 시간(또는, 구간)에 해당할 수 있다. 즉, 도 10의 방법은 점들 중 연속 점들을 하나의 이벤트 객체로 설정하여 콘텐츠 데이터를 순차적으로 생성할 수 있다. 콘텐츠 데이터를 생성하는 방법은 도 8의 방법 및 도 9의 방법과 실질적으로 동일하므로, 중복되는 설명은 반복하지 않기로 한다.In the meantime, the method of FIG. 10 divides data into a plurality of event objects based on a discontinuous section of data (for example, point coordinate information) provided to the
도 11a 및 도 11b는 도 10의 컬래버레이션 방법에서 사용되는 패킷의 일 예를 나타내는 도면이다.11A and 11B are diagrams showing an example of a packet used in the method of collation shown in FIG.
도 11a 및 도 11b를 참조하면, 도 10의 방법은 도 11a 및 도 11b에 도시된 패킷(또는, 패킷 구조)를 이용하여 콘텐츠 데이터 등을 전송할 수 있다.Referring to FIGS. 11A and 11B, the method of FIG. 10 may transmit content data or the like using the packet (or packet structure) shown in FIGS. 11A and 11B.
패킷은 헤더(header), 콘텐츠 데이터, 테일(tail) 및 블록 사이즈 정보를 포함할 수 있다. 블록 사이즈 정보는 헤더의 사이즈, 콘텐츠의 사이즈, 테일의 사이즈의 총 합을 포함하며, 고정 길이(fixed length)를 가질 수 있다. 헤더는 프로토콜의 종류(또는, 유형)를 나타내는 문자로 구성되고, 테일은 프로토콜을 끝을 알려주는 문자로 구성될 수 있다.A packet may include a header, content data, a tail, and block size information. The block size information includes a total size of a header size, a content size, and a tail size, and may have a fixed length. The header is composed of characters representing the type (or type) of the protocol, and the tail may be composed of characters indicating the end of the protocol.
도 11b를 참조하여 예를 들어, 헤더는, 문자 전송을 의미하는 DOC_ST, 문자 전송의 끝을 알리는 DOC_EN 등을 포함할 수 있다. 헤더에 포함된 프로토콜의 유형은 도 11b에 기재되어 있으므로, 이에 대한 상세한 설명은 생략하기로 한다.Referring to FIG. 11B, for example, the header may include a DOC_ST indicating the character transmission, a DOC_EN indicating the end of the character transmission, and the like. The type of the protocol included in the header is described in FIG. 11B, so a detailed description thereof will be omitted.
본 발명은 필기 인식 장치, 컬래버레이션 시스템 등에 적용될 수 있다. The present invention can be applied to a handwriting recognition apparatus, a collation system, and the like.
상술한 바와 같이, 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be understood that the invention may be varied and changed without departing from the scope of the invention.
100: 컬래버레이션 시스템
110: 서버
120: 표시 장치
130: 센싱 장치
140-1 내지 140-7: 사용자 단말들
210: 처리 모듈
220: 디스플레이 모듈
230: 터치 스크린
300: 콘텐츠 생성 장치
310: 통신부
320: 좌표 정보 획득부
330: 인터페이스 제공부
340: 연산부
350: 저장부
360: 사용자 관리부
370: 제어부
1010: 호스트 단말
1020: 클라이언트 단말100: Collaboration system
110: Server
120: display device
130: sensing device
140-1 to 140-7:
210: Processing module
220: Display module
230: Touch screen
300: Content generating device
310:
320: coordinate information obtaining unit
330: interface provisioning
340:
350:
360: User Management Section
370:
1010:
1020:
Claims (11)
상기 전자펜에서 발산되어 제1 영역 상에 포인팅 된 적외선 포인트들을 상기 적외선 카메라를 통해 주기적으로 센싱하는 단계;
상기 제1 영역에 대응하여 기 설정된 기준 좌표계에 기초하여 상기 적외선 포인트들에 대한 복수의 좌표 정보들을 생성하는 단계; 및
상기 좌표 정보들 중에서 상호 연속적으로 제공된 연속 좌표 정보들을 제1 이벤트 객체로 설정하고, 상기 제1 이벤트 객체의 기본 정보, 세부 정보 및 상기 좌표 정보들을 계층화하여 상기 제1 이벤트 객체에 대응하는 제1 콘텐츠 데이터를 생성하는 단계를 포함하는 콘텐츠 데이터 생성 방법.
In a content data generation method performed in a content data generation system including an electronic pen, an infrared camera, and a content data generation device,
Sensing the infrared points emitted from the electronic pen and pointed to the first area through the infrared camera periodically;
Generating a plurality of coordinate information for the infrared points based on a predetermined reference coordinate system corresponding to the first area; And
Wherein the control unit sets consecutive coordinate information provided successively among the coordinate information as a first event object and layers the basic information, the detailed information, and the coordinate information of the first event object to generate a first content corresponding to the first event object And generating the data.
상기 연속 좌표 정보들의 생성 시점 정보들 및 상기 연속 좌표 정보들을 대응시켜 상기 제1 콘텐츠 데이터의 제3 레벨 영역에 저장하는 단계;
상기 제1 이벤트 객체의 세부 정보를 상기 제1 콘텐츠 데이터의 제2 레벨 영역에 저장하는 단계; 및
상기 제1 이벤트 객체의 기본 정보를 상기 제1 콘텐츠 데이터의 제1 레벨 영역에 저장하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 데이터 생성 방법.
2. The method of claim 1, wherein generating the first content data comprises:
Storing generation time information of the continuous coordinate information and the continuous coordinate information in correspondence with each other in a third level region of the first contents data;
Storing detailed information of the first event object in a second level area of the first content data; And
And storing basic information of the first event object in a first level area of the first content data.
이벤트 종류 정보, 이미지 인덱스 정보, 상기 제1 이벤트 객체와 연동되는 미디어의 재생 시점 정보 및 상기 제1 이벤트 객체의 세부 정보에 대한 이벤트 인덱스 정보를 포함하는 것을 특징으로 하는 콘텐츠 데이터 생성 방법.
3. The method of claim 2, wherein the basic information of the first event object comprises:
An event index information for the detailed information of the first event object, and an event index information for the second event object.
상기 이벤트 인덱스 정보, 상기 연속 좌표 정보들 중 시작점 좌표 정보, 상기 연속 좌표 정보들 중 종료점 좌표 정보, 상기 제1 이벤트 객체의 영역 정보, 이벤트 색상 정보, 점 굵기 정보 및 상기 제1 이벤트 객체에 대한 수정 발생 유무를 나타내는 수정 정보를 포함하는 것을 특징으로 하는 콘텐츠 데이터 생성 방법.
4. The method of claim 3, wherein the detailed information of the first event object further comprises:
The endpoint coordinate information of the continuous coordinate information, the area information of the first event object, the event color information, the point thickness information, and the modification to the first event object, And correction information indicating whether the content data has been generated or not.
기 생성된 제2 콘텐츠 데이터가 선택된 경우, 상기 제2 콘텐츠 데이터에 대응하는 제2 이벤트 객체에 대한 변경 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 데이터 생성 방법.
2. The method of claim 1, wherein generating the coordinate information comprises:
And generating change information for a second event object corresponding to the second content data when the generated second content data is selected.
이벤트 인덱스 정보, 이벤트 종류 정보, 수정 이벤트 종류 정보, 수정 시작점 좌표 정보, 수정 종료점 정보, 수정된 제2 이벤트 객체의 영역 정보 및 회전 각도 정보를 포함하는 것을 특징으로 하는 콘텐츠 데이터 생성 방법.
6. The method of claim 5, wherein the change information of the second event object comprises:
The event index information, the event type information, the modification event type information, the modification start point coordinate information, the modification end point information, the area information of the modified second event object, and the rotation angle information.
상기 좌표 정보들 중에서 상호 연속적으로 제공된 연속 좌표 정보들을 제1 이벤트 객체로 설정하고, 상기 연속 좌표 정보들의 생성 시점 정보들 및 상기 연속 좌표 정보들을 대응시켜 상기 제1 콘텐츠 데이터의 제3 레벨 영역에 저장하는 단계;
상기 제1 이벤트 객체의 세부 정보를 상기 제1 콘텐츠 데이터의 제2 레벨 영역에 저장하는 단계; 및
상기 제1 이벤트 객체의 기본 정보를 상기 제1 콘텐츠 데이터의 제1 레벨 영역에 저장하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 데이터 생성 방법.
A content data generating method performed in a content data generating apparatus for generating content data based on coordinate information on a two-dimensional plane sequentially provided from the outside,
Wherein the continuous coordinate information is provided as a first event object and the generation time information and the continuous coordinate information of the continuous coordinate information are stored in a third level area of the first content data, ;
Storing detailed information of the first event object in a second level area of the first content data; And
And storing basic information of the first event object in a first level area of the first content data.
상기 이벤트 객체의 기본 정보를 저장하는 제1 레벨 영역;
상기 이벤트 객체의 세부 정보를 저장하는 제2 레벨 영역; 및
상기 좌표 정보들 및 상기 좌표 정보들의 생성 시점 정보들을 대응시켜 저장하는 제3 레벨 영역을 포함하는 콘텐츠 데이터 구조.
In a content data structure including a plurality of coordinate information corresponding to an event object,
A first level area for storing basic information of the event object;
A second level area for storing detailed information of the event object; And
And a third level area for storing the coordinate information and the generation time information of the coordinate information in association with each other.
상기 제1 사용자 단말에서 컬래버레이션 서버를 생성하는 단계;
상기 제2 사용자 단말이 클라이언트 어플리케이션을 통해 상기 컬래버레이션 서버에 접속하는 단계;
상기 제2 사용자 단말의 접속이 정상적으로 수행된 경우, 상기 제1 사용자 단말로부터 상기 제2 사용자 단말에 판서 데이터 및 교안 데이터 중 적어도 하나를 포함하는 콘텐츠 데이터를 전송하는 단계;
주기적으로, 상기 제1 사용자 단말 및 상기 제2 사용자 단말 중 하나에 입력된 복수의 점 좌표들을 상기 제1 사용자 단말 및 상기 제2 사용자 단말 중 다른 하나에 전송하는 단계; 및
상기 복수의 점 좌표들의 불연속 구간에 기초하여 상기 복수의 점 좌표들을 복수의 판서 데이터들로 순차적으로 구분하여 저장하는 단계를 포함하는 컬래버레이션 방법.
A method of collaborating performed on a content data-based collaborative system comprising a first user terminal and a second user terminal interconnected via a network,
Generating a collaboration server at the first user terminal;
Connecting the second user terminal to the collaboration server via a client application;
Transmitting content data including at least one of book form data and teaching material data from the first user terminal to the second user terminal when the connection of the second user terminal is normally performed;
Periodically transmitting a plurality of point coordinates input to one of the first user terminal and the second user terminal to the other one of the first user terminal and the second user terminal; And
And storing the plurality of point coordinates in a sequential manner by dividing the plurality of point coordinates into a plurality of writing data based on a discontinuous section of the plurality of point coordinates.
헤더(header), 콘텐츠 데이터, 테일(tail) 및 블록 사이즈 정보를 포함하는 패킷 구조를 이용하여 상기 콘텐츠 데이터를 전송하되,
상기 블록 사이즈 정보는 상기 헤더의 사이즈, 상기 콘텐츠의 사이즈, 상기 테일의 사이즈의 총 합을 포함하며, 고정 길이(fixed length)를 가지는 것을 특징으로 하는 컬래버레이션 방법.
10. The method of claim 9, wherein the step of transmitting the content data comprises:
Transmitting the content data using a packet structure including a header, content data, a tail, and block size information,
Wherein the block size information includes a sum of a size of the header, a size of the content, and a size of the tail, and has a fixed length.
상기 제2 사용자 단말에 대해 판서 권한 및 툴 사용 권한 중 적어도 하나를 부여하는 단계를 포함하고,
상기 판서 권한이 부여된 경우, 상기 제2 사용자 단말에 입력된 점 좌표들을 상기 제1 사용자 단말에 전송하며,
상기 툴 사용 권한이 부여된 경우, 상기 제2 사용자 단말에 의해 입력된 점 좌표들에 기초하여 상기 판서 데이터들 중 적어도 하나에 대한 수정을 허용하되, 상기 제1 사용자 단말에 의한 상기 판서 데이터들에 대한 수정을 제한하는 것을 특징으로 하는 컬래버레이션 방법.10. The method of claim 9, wherein the step of transmitting the content data comprises:
And granting at least one of a publisher right and a tool usage right to the second user terminal,
And transmits the point coordinates input to the second user terminal to the first user terminal when the writing authority is granted,
The method of claim 1, further comprising: allowing, when the tool usage right is granted, modification to at least one of the author data based on the point coordinates input by the second user terminal, Wherein the modification is limited to a predetermined range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182951A KR102003318B1 (en) | 2017-12-28 | 2017-12-28 | Method of generating content data and content data structure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182951A KR102003318B1 (en) | 2017-12-28 | 2017-12-28 | Method of generating content data and content data structure |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190080472A true KR20190080472A (en) | 2019-07-08 |
KR102003318B1 KR102003318B1 (en) | 2019-07-24 |
Family
ID=67256719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170182951A KR102003318B1 (en) | 2017-12-28 | 2017-12-28 | Method of generating content data and content data structure |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102003318B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100764312B1 (en) | 2000-05-19 | 2007-10-05 | 소니 가부시끼 가이샤 | Network conferencing system, attendance authentication method and presentation method |
KR20110051374A (en) * | 2009-11-10 | 2011-05-18 | 삼성전자주식회사 | Apparatus and method for processing data in terminal having touch screen |
KR101378318B1 (en) | 2012-06-22 | 2014-03-28 | 주식회사 라온옵틱스 | Electronic board system using infrared camera |
KR101530476B1 (en) | 2014-02-17 | 2015-06-19 | 대전대학교 산학협력단 | Electronic board system for using pir sensor |
KR20160062565A (en) * | 2014-11-25 | 2016-06-02 | 삼성전자주식회사 | Device and method for providing handwritten content |
-
2017
- 2017-12-28 KR KR1020170182951A patent/KR102003318B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100764312B1 (en) | 2000-05-19 | 2007-10-05 | 소니 가부시끼 가이샤 | Network conferencing system, attendance authentication method and presentation method |
KR20110051374A (en) * | 2009-11-10 | 2011-05-18 | 삼성전자주식회사 | Apparatus and method for processing data in terminal having touch screen |
KR101378318B1 (en) | 2012-06-22 | 2014-03-28 | 주식회사 라온옵틱스 | Electronic board system using infrared camera |
KR101530476B1 (en) | 2014-02-17 | 2015-06-19 | 대전대학교 산학협력단 | Electronic board system for using pir sensor |
KR20160062565A (en) * | 2014-11-25 | 2016-06-02 | 삼성전자주식회사 | Device and method for providing handwritten content |
Also Published As
Publication number | Publication date |
---|---|
KR102003318B1 (en) | 2019-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11880630B2 (en) | Collaborative remote interactive platform | |
TWI609317B (en) | Smart whiteboard interactions | |
US10620898B2 (en) | Method to exchange visual elements and populate individual associated displays with interactive content | |
US11190557B1 (en) | Collaborative remote interactive platform | |
US20150121189A1 (en) | Systems and Methods for Creating and Displaying Multi-Slide Presentations | |
CN104813265A (en) | Interactive whiteboard sharing | |
JP6035971B2 (en) | Information processing apparatus, program, and image processing system | |
US20120144306A1 (en) | Method and system for interacting or collaborating with exploration | |
US10990344B2 (en) | Information processing apparatus, information processing system, and information processing method | |
US11349889B1 (en) | Collaborative remote interactive platform | |
US20170017632A1 (en) | Methods and Systems of Annotating Local and Remote Display Screens | |
KR102159326B1 (en) | System and Device for learning creator's style | |
KR102003318B1 (en) | Method of generating content data and content data structure | |
KR102162914B1 (en) | Collaboration method based on content data | |
KR102189292B1 (en) | Method for displaying chart and apparatus using the same | |
KR20200110292A (en) | Device | |
JP6996196B2 (en) | Information processing equipment and information processing programs | |
KR102153749B1 (en) | Method for Converting Planed Display Contents to Cylindrical Display Contents | |
JP6880955B2 (en) | Information processing equipment and information processing programs | |
KR20230127613A (en) | Practical education system based on metabus | |
CN114047864A (en) | Special effect data packet generating and displaying method, device, equipment, medium and product | |
JP2021057843A (en) | Display unit, method for providing method of use, program, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |