KR20190118946A - System and method for providing editable visual object based on schema - Google Patents
System and method for providing editable visual object based on schema Download PDFInfo
- Publication number
- KR20190118946A KR20190118946A KR1020180140363A KR20180140363A KR20190118946A KR 20190118946 A KR20190118946 A KR 20190118946A KR 1020180140363 A KR1020180140363 A KR 1020180140363A KR 20180140363 A KR20180140363 A KR 20180140363A KR 20190118946 A KR20190118946 A KR 20190118946A
- Authority
- KR
- South Korea
- Prior art keywords
- editable
- video object
- type
- image
- image object
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 100
- 230000000007 visual effect Effects 0.000 title description 4
- 230000015654 memory Effects 0.000 claims abstract description 33
- 230000004044 response Effects 0.000 claims description 31
- 230000009471 action Effects 0.000 claims description 6
- 210000004709 eyebrow Anatomy 0.000 claims description 3
- 210000003128 head Anatomy 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 16
- 239000000306 component Substances 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 230000008451 emotion Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010276 construction Methods 0.000 description 10
- 238000012423 maintenance Methods 0.000 description 10
- 238000012546 transfer Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 235000013405 beer Nutrition 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 235000021438 curry Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 235000015220 hamburgers Nutrition 0.000 description 1
- 235000019692 hotdogs Nutrition 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000012149 noodles Nutrition 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 235000014347 soups Nutrition 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8543—Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Abstract
Description
아래의 설명은 스키마 기반의 편집형 영상 객체 제공 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자의 감성을 반영하여 편집형 영상 객체를 편집하고, 대상 단말로 제공하는 기술에 대한 것이다.The following description relates to a schema-based editable video object providing system and a method thereof, and more particularly, to a technology for editing an edited video object based on a user's emotion and providing the same to a target terminal.
스크린 골프, 4D 영화관, 가상 피팅 시스템 또는 온라인 메신저 등에서 널리 사용되고 있는 이모티콘, 플래시콘 또는 아바타(이하, 이모티콘, 플래시콘 또는 아바타를 영상 객체(Visual Object)로 기재함)는 가상 세계에 국한되지 않고, 실세계의 캐릭터로 구현됨으로써, 오프라인까지 확대 사용되고 있는 실정이다.Emoticons, flash cones or avatars (hereinafter referred to as emoticons, flash cones or avatars as Visual Objects), which are widely used in screen golf, 4D cinemas, virtual fitting systems or online messengers, are not limited to the virtual world. By being implemented as a character, the situation is being extended to offline.
이러한 영상 객체는 사용자 단말에 설치된 어플리케이션과 대상 단말에 설치된 어플리케이션 사이에서 제공되기 때문에, 어플리케이션이 지원하는 영상 객체의 전송 용량 및 전송 속도 등의 한계로 인하여, 편집이 불가능한 단점이 있다. 또한, 영상 객체는 편집이 불가능하므로, 사용자가 원하는 표현을 세밀하고 자유롭게 표현할 수 없는 단점을 갖는다.Since the video object is provided between an application installed in the user terminal and an application installed in the target terminal, editing is not possible due to limitations such as transmission capacity and transmission speed of the image object supported by the application. In addition, since the image object is not editable, there is a disadvantage in that the expression desired by the user cannot be expressed in detail and freely.
이에, 아래의 실시예들은 단말의 어플리케이션이 지원하는 전송 용량 및 전송 속도의 제약 아래, 사용자의 감성을 반영하도록 편집 가능한 영상 객체를 제공(생성, 전송 및 재생)하는 기술을 제안한다.Accordingly, the following embodiments propose a technique for providing (creating, transmitting and playing) an image object that can be edited to reflect the user's emotion, under the constraints of the transmission capacity and the transmission speed supported by the application of the terminal.
일 실시예들은 편집형 영상 객체를 XML 형태의 스키마로 설계하고, 대상 단말로 전달하는 과정에서 BiM(MPEG Binary Format) 기법을 이용함으로써, 사용자 단말 및 대상 단말이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공하는 방법 및 시스템을 제안한다.According to an embodiment of the present invention, an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal. Below, we propose a method and system for providing an editable image object.
구체적으로, 일 실시예들은 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말 및 대상 단말 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말 및 대상 단말에 편집형 영상 객체 서비스를 제공하는 방법 및 시스템을 제안한다.Specifically, in an embodiment, a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal. In response to editing an editable video object in a terminal, a method and system for providing an editable video object service to a user terminal and a target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal.
이 때, 일 실시예들은 사용자 수동 편집 입력에 응답하여 편집형 영상 객체를 편집하거나, 사용자의 정보를 기초로 자동으로 편집형 영상 객체를 편집하는 방법 및 시스템을 제안한다.At this time, one embodiment proposes a method and system for editing an editable video object in response to a user manual edit input or automatically editing the editable video object based on user information.
또한, 일 실시예들은 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체가 사용자 단말로부터 대상 단말로 전달되는 과정 및/또는 대상 단말에서 재생되는 과정에서, 대상 단말이 지원하는 재생 방식을 고려하는 방법 및 시스템을 제안한다.In addition, embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. We propose a method and system.
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 방법은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계를 포함한다.According to an embodiment, the schema-based editing type video object providing method includes an image in which a plurality of editing type video objects are matched with a plurality of image object IDs and stored on a memory included in each of a user terminal and a target terminal. Building and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.
일측에 따르면, 상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다.According to one side, the plurality of editable image objects and the plurality of image object IDs, can be designed in a schema of XML format.
또 다른 일측에 따르면, 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계는, BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계일 수 있다.According to another aspect of the present invention, the transmitting of the video object ID and the editing information to the target terminal comprises: transmitting the video object ID and the editing information to the target terminal based on a MPEG Binary Format (BiM) technique. Can be.
또 다른 일측에 따르면, 상기 복수의 편집형 영상 객체들 각각은, 상기 복수의 편집형 영상 객체들 각각의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 적어도 하나의 엘리멘트를 포함하고, 상기 영상 객체 데이터베이스를 구축 및 유지하는 단계는, 상기 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 상기 영상 객체 데이터베이스에 저장 및 유지하는 단계를 포함할 수 있다.According to another aspect of the present invention, each of the plurality of editable image objects includes at least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects, and the image object The establishing and maintaining of the database may include storing and maintaining the at least one element with the at least one element ID, respectively, in the image object database.
또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택하는 단계; 및 상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계를 포함하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계는, 상기 영상 객체 데이터베이스로부터 상기 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 추출하는 단계; 및 상기 추출된 엘리멘트 아이디를 상기 편집 정보로 획득하는 단계를 포함할 수 있다.According to another aspect, the editing of any one of the edited image object of the plurality of editable image object stored in the image object database included in the user terminal, is included in the one edited image object Selecting any one element; And changing the one edited video object based on the selected element, wherein acquiring the edited information edited by the one edited video object comprises: selecting the selected element from the video object database. Extracting an element ID corresponding to the ID; And acquiring the extracted element ID as the edit information.
또 다른 일측에 따르면, 상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계는, 상기 어느 하나의 편집형 영상 객체를 변경하여 재생형 영상 객체를 생성하는 단계; 및 상기 사용자 단말이 지원하는 재생 방식에 기초하여 상기 사용자 단말에 상기 재생형 영상 객체를 재생하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the changing of the one edited video object based on the selected element comprises: generating a playable video object by changing the one edited video object; And reproducing the reproducible video object on the user terminal based on a reproduction scheme supported by the user terminal.
또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 상기 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득하는 단계; 및 상기 획득된 적어도 하나의 정보에 기초하여 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계를 포함할 수 있다.According to another aspect of the present invention, the editing of any one of the editable video object of the plurality of editable video objects stored in the video object database included in the user terminal, automatic image input generated on the user interface In response to obtaining at least one of location information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal; And selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.
또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계를 포함할 수 있다.According to another aspect, the editing of any one of the edited video object of the plurality of editable video object stored in the video object database included in the user terminal, the user manual editing input generated on the user interface In response, the method may include selecting and editing any one of the plurality of editable image objects.
또 다른 일측에 따르면, 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계는, 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 재생형 영상 객체를 생성하는 단계; 및 상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계를 포함할 수 있다.According to another aspect, the step of applying the editing information to the extracted editable video object to provide to the target terminal, by applying the edit information to the extracted editable video object to generate a playable video object step; And providing the playback type video object to the target terminal.
또 다른 일측에 따르면, 상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계는, 상기 대상 단말이 지원하는 재생 방식에 기초하여 상기 대상 단말에 상기 재생형 영상 객체를 재생하는 단계를 포함할 수 있다.According to another aspect, the providing of the playback type video object to the target terminal may include playing the playback type video object on the target terminal based on a playback method supported by the target terminal. .
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 방법을 실행시키기 위해 컴퓨터로 읽을 수 있는 매체에 저장된 컴퓨터 프로그램에 있어서, 상기 편집형 영상 객체 제공 방법은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계를 포함한다.According to an embodiment, in a computer program stored in a computer readable medium for executing a schema-based editable video object providing method, the editable video object providing method is included in each of a user terminal and a target terminal. Constructing and maintaining a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 서버는, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부를 포함한다.According to an embodiment, the schema-based editable video object providing server may include an image in which a plurality of editable video objects are matched with a plurality of video object IDs and stored on a memory included in each of a user terminal and a target terminal. An image object database construction / maintenance unit for constructing and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.
일측에 따르면, 상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다.According to one side, the plurality of editable image objects and the plurality of image object IDs, can be designed in a schema of XML format.
또 다른 일측에 따르면, 상기 전달부는, BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달할 수 있다.According to another aspect, the transfer unit may transmit the image object ID and the edit information to the target terminal based on a MPEG Binary Format (Bim) technique.
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 시스템은, 사용자 단말; 대상 단말; 및 편집형 영상 객체 제공 서버를 포함하고, 상기 편집형 영상 객체 제공 서버는, 상기 사용자 단말 및 상기 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부를 포함한다.According to one embodiment, a schema-based editing image object providing system, the user terminal; Target terminal; And an editable video object providing server, wherein the editable video object providing server includes a plurality of editable video objects corresponding to a plurality of video object IDs on a memory included in each of the user terminal and the target terminal. A video object database construction / maintenance unit for constructing and maintaining a video object database that is matched and stored; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.
일 실시예들은 편집형 영상 객체를 XML 형태의 스키마로 설계하고, 대상 단말로 전달하는 과정에서 BiM(MPEG Binary Format) 기법을 이용함으로써, 사용자 단말 및 대상 단말이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공하는 방법 및 시스템을 제안할 수 있다.According to an embodiment of the present invention, an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal. Below, a method and system for providing an editable image object may be proposed.
구체적으로, 일 실시예들은 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말 및 대상 단말 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말 및 대상 단말에 편집형 영상 객체 서비스를 제공하는 방법 및 시스템을 제안할 수 있다.Specifically, in an embodiment, a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal. In response to editing the editable video object in the terminal, a method and system for providing an editable video object service to the user terminal and the target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal can be proposed. have.
이 때, 일 실시예들은 사용자 수동 편집 입력에 응답하여 편집형 영상 객체를 편집하거나, 사용자의 정보를 기초로 자동으로 편집형 영상 객체를 편집하는 방법 및 시스템을 제안할 수 있다.In this case, one embodiment may propose a method and system for editing an editable video object in response to a user manual editing input or automatically editing the editable video object based on user information.
또한, 일 실시예들은 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체가 사용자 단말로부터 대상 단말로 전달되는 과정 및/또는 대상 단말에서 재생되는 과정에서, 대상 단말이 지원하는 재생 방식을 고려하는 방법 및 시스템을 제안할 수 있다.In addition, embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. Methods and systems can be proposed.
도 1은 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 시스템을 나타낸 도면이다.
도 2는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 서버의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 영상 객체 데이터베이스를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 대상 단말로 편집형 영상 객체를 제공하기 위한 사용자 단말과 대상 단말 사이의 데이터 전달 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.
도 6은 다른 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.
도 8은 다른 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 방법을 나타낸 플로우 차트이다.1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
3 is a diagram for describing an image object database, according to an exemplary embodiment.
4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Also, like reference numerals in the drawings denote like elements.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Also, the terminology used herein is a term used to properly express a preferred embodiment of the present invention, which may vary depending on a viewer, an operator's intention, or customs in the field to which the present invention belongs. Therefore, the definitions of the terms should be made based on the contents throughout the specification.
도 1은 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 시스템을 나타낸 도면이다.1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
도 1을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 시스템(100)은 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)을 포함한 채, 네트워크(120)를 통하여 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)을 서로 연결함으로써, 편집형 영상 객체 서비스를 사용자 단말(130) 및 대상 단말(140)로 제공한다.Referring to FIG. 1, an editable video
이하, 편집형 영상 객체 서비스는 사용자 단말(130)이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여 어느 하나의 편집형 영상 객체를 편집하고, 편집된 어느 하나의 편집형 영상 객체를 대상 단말로 제공하는 서비스를 의미한다. 이러한 편집형 영상 객체 서비스는, 사용자 단말(130)의 사용자가 대상 단말(140)로 편집형 영상 객체를 전송하고자 하는 요청에 의하여 제공될 수 있다. 또한, 이하, 편집형 영상 객체는 이모티콘, 플래시콘 또는 아바타와 같이, 정지 이미지와 정지 이미지의 움직임이 결합된 컨텐츠 데이터를 의미한다.Hereinafter, the editable video object service edits any edited video object in response to a user input generated on the user interface provided by the
사용자 단말(130) 및 대상 단말(140) 각각은 PC, 노트북, 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등으로, 편집형 영상 객체 제공 시스템(100)의 편집형 영상 객체 서비스를 위하여, 편집형 영상 객체 서비스와 관련된 웹/모바일 사이트의 접속 또는 전용 어플리케이션의 설치 및 실행이 가능한 모든 단말 장치를 의미할 수 있다. 이에, 사용자 단말(130) 및 대상 단말(140) 각각은 웹/모바일 사이트 또는 전용 어플리케이션의 제어 하에 서비스 화면 구성, 데이터 입력/출력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다.Each of the
도면에는 사용자 단말(130) 및 대상 단말(140) 각각이 스마트폰인 경우로 도시되었으나, 이에 제한되거나 한정되지 않고, 편집형 영상 객체를 편집하거나, 재생할 수 있는 다양한 기기일 수 있다. 특히, 대상 단말(140)로는, 사용자 단말(130)에서 편집형 영상 객체가 편집되어 생성되는 재생형 영상 객체가 재생될 수 있는 인형, 팔찌, 시계, 펜던트 등의 기기가 사용될 수 있다.In the drawing, although each of the
이하, 사용자 단말(130)은 실질적으로 사용자 단말(130)을 사용하는 '사용자'를 의미할 수 있으며, 대상 단말(140)은 실질적으로 대상 단말(140)을 사용하는 '사용자'를 의미할 수 있다.Hereinafter, the
편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)은 네트워크(120)를 통하여 데이터를 송수신할 수 있다.The editable video
여기서, 네트워크(120)는 데이터 프로세싱 시스템들, 컴퓨터들, 서버들, 각종 장치들 간의 통신 링크들을 제공하는데 사용되는 매체일 수 있다. 네트워크(120)는 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)이 서로 통신하기 위하여 TCP/IP(transmission control protocol internet protocol) 프로토콜 스위트(suite of protocols)를 사용하는 네트워크들 및 게이트웨이들의 월드 와이드 컬렉션을 나타낼 수 있다. 일부 예들에서, 네트워크(120)는 인트라넷, LAN(local area network) 또는 WAN(wide area network)을 포함하거나 또는 그 일부일 수 있다. 또한, 일부 예들에서, 네트워크(120)는 인터넷의 일부일 수 있다.Here,
편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140) 사이의 통신 방식은 제한되지 않으며, 네트워크(120)가 포함할 수 있는 통신망을 활용하는 통신 방식뿐만 아니라, 기기들간의 근거리 무선 통신 역시 포함할 수 있다. 예를 들어, 네트워크(120)는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(120)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method between the editable image
편집형 영상 객체 제공 서버(110)는 편집형 영상 객체 서비스를 사용자 단말(130) 및 대상 단말(140)로 제공하는 주체로서, 사용자 단말(130) 및 대상 단말(140)과 네트워크(120)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The editable video
이 때, 편집형 영상 객체 제공 서버(110)는 편집형 영상 객체 서비스를 제공하는 서버의 플랫폼에 포함되는 형태로 구현되어, 클라이언트(client)인 사용자 단말(130) 및 대상 단말(140)로 편집형 영상 객체 서비스를 제공할 수 있다. 그러나 이에 제한되거나, 한정되지 않고, 편집형 영상 객체 제공 서버(110)는 적어도 일부의 구성 요소 또는 전체의 구성 요소가 사용자 단말(130) 및 대상 단말(140) 상에 설치되는 전용 어플리케이션의 형태로 구현되거나, 혹은 클라이언트-서버 환경에서 서비스를 제공하는 플랫폼에 포함되는 형태로 구현되는 것 또한 가능하다.In this case, the editable video
이와 같은 편집형 영상 객체 제공 서버(110)는 사용자 단말(130) 및 대상 단말(140) 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말(130)에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말(130) 및 대상 단말(140) 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말(130) 및 대상 단말(140)에 편집형 영상 객체 서비스를 제공한다. 이에 대한 상세한 설명은 도 2를 참조하여 기재하기로 한다.The editable video
특히, 편집형 영상 객체 제공 서버(110)는 사용자 단말(130) 및 대상 단말(140) 각각에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 XML 형태의 스키마로 설계하고(영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들을 XML 형태의 스키마로 설계함), 사용자 단말(130) 및 대상 단말(140) 사이에서 영상 객체 아이디 및 편집 정보를 BiM(MPEG Binary Format) 기법을 기반으로 송수신함으로써, 사용자 단말(130) 및 대상 단말(140)이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공할 수 있다. 이에 대한 상세한 설명은 도 3 내지 4를 참조하여 기재하기로 한다.In particular, the editable video
도 2는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 서버의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
도 2를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버(200)는 도 1을 참조하여 상술된 편집형 영상 객체 제공 시스템에 포함되는 것으로, 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함할 수 있다. 메모리(240)는 운영체제(241) 및 서비스 제공 루틴(242)를 포함할 수 있다. 프로세서(210)는 영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216)를 포함한다. 다른 실시예들에서 편집형 영상 객체 제공 서버(200)는 도면에 도시된 구성요소들보다 더 많은 구성요소들 또는 더 적은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 편집형 영상 객체 제공 서버(200)는 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.Referring to FIG. 2, the editable video
메모리(240)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(240)에는 운영체제(241)와 서비스 제공 루틴(242)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(240)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(230)를 통해 메모리(240)에 로딩될 수도 있다.The
버스(220)는 편집형 영상 객체 제공 서버(200)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(220)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The
네트워크 인터페이스(230)는 편집형 영상 객체 제공 서버(200)를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(230)는, 이더넷 카드와 같은 네트워크 인터페이스 카드, 광학 송수신기, 무선 주파수 송수신기, 혹은 정보를 송수신할 수 있는 임의의 다른 타입의 디바이스일 수 있다. 이러한 네트워크 인터페이스들의 다른 예들은 모바일 컴퓨팅 디바이스들 및 USB 내의 블루투스(Bluetooth), 저전력 광역 통신망, 3G 및 WiFi 등을 포함하는 무선기기일 수 있다. 일부 예들에서, 컴퓨팅 디바이스는, 서버, 모바일 폰, 혹은 다른 네트워크화된 컴퓨팅 디바이스와 같은 외부 디바이스와 무선으로 통신하기 위해 네트워크 인터페이스(230)를 사용할 수 있다. 특히, 네트워크 인터페이스(230)는 편집형 영상 객체 제공 서버(200)를 네트워크를 통해 사용자 단말 및 대상 단말과 연결시킬 수 있다.The
데이터베이스(250)는 편집형 영상 객체 서비스를 제공하기 위한 데이터를 저장 및 유지하는 역할을 할 수 있다. 예를 들어, 데이터베이스(250)에는 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장될 수 있다. 따라서, 데이터베이스(250)는 도 3을 참조하여 후술되는 사용자 단말 및 대상 단말 각각의 메모리 상에 영상 객체 데이터베이스를 구축 및/또는 업데이트하는 과정에서 이용될 수 있다.The
도면에서는, 편집형 영상 객체 제공 서버(200)의 내부에 데이터베이스(250)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.In the drawing, although the
프로세서(210)는 기본적인 산술, 로직 및 편집형 영상 객체 제공 서버(200)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(240) 또는 네트워크 인터페이스(230)에 의해, 그리고 버스(220)를 통해 프로세서(210)로 제공될 수 있다. 프로세서(210)는 영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(240)와 같은 기록 장치에 저장될 수 있다.The
영상 객체 데이터베이스 구축/유지부(211)는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한다.The image object database construction /
여기서, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체 이미지를 포함한다. 따라서, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매치되어 저장된다는 것은, 복수의 편집형 영상 객체 이미지들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 것을 의미한다.Here, each of the plurality of editable video objects includes an editable video object image. Accordingly, the plurality of editable video object images are matched and stored with the plurality of video object IDs, respectively, and the plurality of editable video object images are matched with the plurality of video object IDs, respectively.
또한, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체(편집형 영상 객체 이미지)의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 엘리멘트를 포함할 수 있다. 따라서, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장된다는 것은, 복수의 엘리멘트들이 복수의 엘리멘트 아이디들과 각각 매칭되어 저장되는 것을 의미할 수 있다.Each of the plurality of editable video objects may include an element representing at least one of an expression, an action, a state, or an environment of the editable video object (the edited video object image). Accordingly, the plurality of editable image objects may be matched and stored with the plurality of image object IDs, respectively, and may mean that the plurality of elements are matched with the plurality of element IDs and stored.
즉, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체 이미지들을 복수의 영상 객체 아이디들과 각각 매칭하여 저장하고, 복수의 엘리멘트들을 복수의 엘리멘트 아이디들과 각각 매칭하여 저장함으로써, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지할 수 있다.That is, the image object database construction /
특히, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들을 XML 형태의 스키마로 설계함으로써, 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들이 각각 매칭되어 저장되는 영상 객체 데이터베이스를 저용량으로 구축 및 유지할 수 있다. 마찬가지로, 복수의 엘리멘트들 및 복수의 엘리멘트 아이디들 역시 XML 형태의 스키마로 설계될 수 있다.In particular, the image object database construction /
이와 같이, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들을 XML 형태의 스키마로 설계함으로써, 후술되는 전달부(214)가 영상 객체 아이디 및 편집 정보를 대상 단말로 전달함에 있어, BiM 기법을 이용하도록 하여 전송 용량을 최소화하고 전송 속도를 극대화하도록 할 수 있다. 이에 대한 상세한 설명은 도 3 내지 4를 참조하여 기재하기로 한다.As such, the image object database construction /
또한, 영상 객체 데이터베이스 구축/유지부(211)는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 업데이트할 수도 있다.In addition, the image object database construction /
영상 객체 편집부(212)는 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집한다.The image
구체적으로, 영상 객체 편집부(212)는 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고, 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택한 뒤, 선택된 엘리멘트에 기초하여 어느 하나의 편집형 영상 객체를 변경하여 편집할 수 있다.In detail, the image
이 때, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하는 것은, 복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택하는 것을 의미할 수 있다. 이에, 영상 객체 편집부(212)는 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택하고, 어느 하나의 편집형 영상 객체 이미지와 연관된 복수의 엘리멘트들(선택된 어느 하나의 편집형 영상 객체에 포함되는 복수의 엘리멘트들) 중 어느 하나의 엘리멘트를 선택할 수 있다. 따라서, 영상 객체 편집부(212)는 선택된 어느 하나의 엘리멘트가 나타내는 표정, 동작, 상태 또는 환경 중 적어도 하나를 선택된 어느 하나의 편집형 영상 객체 이미지에 반영함으로써, 어느 하나의 편집형 영상 객체를 변경, 편집하여 재생형 영상 객체를 생성할 수 있다.In this case, selecting one of the plurality of editable image objects may mean selecting one of the plurality of editable image object images. Accordingly, the image
여기서, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하는 것과 선택된 어느 하나의 편집형 영상 객체에 포함되는 복수의 엘리멘트들 중 어느 하나의 엘리멘트를 선택하는 것은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여 수동으로 수행되거나, 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여 자동으로 수행될 수 있다. 이에 대한 상세한 설명은 도 5 및 6을 참조하여 기재하기로 한다.Here, selecting one of the plurality of editable video objects and selecting one of the elements included in the selected one of the edited video objects is provided by the user terminal. The image may be manually performed in response to a user manual edit input generated on the user interface, or may be automatically performed in response to an image object automatic generation input generated on the user interface. Detailed description thereof will be described with reference to FIGS. 5 and 6.
또한, 영상 객체 편집부(212)는 어느 하나의 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체를 사용자 단말 상에서 재생함으로써, 사용자 단말의 사용자가 편집형 영상 객체의 편집 결과를 확인하도록 할 수 있다.In addition, the image
아이디 추출/편집 정보 획득부(213)는 영상 객체 편집부(212)에 의해 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득한다. 이 때, 편집 정보는 편집형 영상 객체가 편집 및 변경되어 재생형 영상 객체로 생성됨에 있어서, 편집형 영상 객체가 어떻게 편집 및 변경되는가를 나타내는 정보로, 영상 객체 아이디와 마찬가지로 XML 형태의 스키마로 설계될 수 있다.The ID extracting / editing
구체적으로, 아이디 추출/편집 정보 획득부(213)는 영상 객체 편집부(212)가 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체를 선택함에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출한 뒤, 영상 객체 편집부(212)가 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택함에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디를 추출하고, 추출된 엘리멘트 아이디를 편집 정보로 획득할 수 있다.In detail, the ID extracting / editing
즉, 어느 하나의 편집형 영상 객체가 편집된 편집 정보는, 영상 객체 편집부(212)에서 선택한 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디일 수 있다.That is, the edit information in which any editable video object is edited may be an element ID corresponding to any one element selected by the video
상술한 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 동작은, 사용자 단말에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 기반으로 수행되기 때문에, 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각은 사용자 단말의 메모리에 접근할 수 있는 권한을 가질 수 있으며, 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 일부 동작은 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 제어에 따라 사용자 단말의 프로세서가 실행의 주체가 되어 수행될 수 있다.Since the operations of each of the above-described image
전달부(214)는 아이디 추출/편집 정보 획득부(213)에서 추출된 영상 객체 아이디 및 획득된 편집 정보를 대상 단말로 전달한다. 여기서, 영상 객체 아이디 및 편집 정보는 XML 형태의 스키마로 설계되어 있기 때문에, 전달부(214)는 BiM 기법을 기반으로 영상 객체 아이디 및 편집 정보를 대상 단말로 전송함으로써, 전송 용량을 최소화하고, 전송 속도를 극대화할 수 있다.The
또한, 전달부(214)는 대상 단말이 지원하는 재생 방식을 고려하여, 영상 객체 아이디 및 편집 정보를 대상 단말로 전달할 수도 있다. 예를 들어, 대상 단말이 재생형 영상 객체를 사운드 방식으로만 재생하는 것을 지원하는 기기인 경우, 전달부(214)는 편집 정보 중 사운드 방식의 재생과 관련된 일부 정보만을 대상 단말로 전달할 수도 있다. 따라서, 전달부(214)는 사용자 단말과 대상 단말 사이의 데이터 전송 용량을 최소화함으로써, 데이터 전송 속도를 극대화할 수 있다.In addition, the
영상 객체 추출부(215)는 전달부(214)가 영상 객체 아이디 및 편집 정보를 대상 단말로 전달함에 응답하여, 대상 단말에 포함되는 영상 객체 데이터베이스로부터 해당 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출한다. 이 때, 대상 단말에 포함되는 영상 객체 데이터베이스는 사용자 단말에 포함되는 영상 객체 데이터베이스와 동일한 데이터를 포함하는 동일한 데이터베이스이기 때문에, 대상 단말에 포함되는 영상 객체 데이터베이스 상에서 해당 영상 객체 아이디에 대응하는 편집형 영상 객체는, 아이디 추출/편집 정보 획득부(213)가 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 해당 영상 객체 아이디를 추출할 때 이용한 편집형 영상 객체(사용자 단말에서 편집된 편집형 영상 객체)와 동일한 것일 수 있다.The
여기서, 영상 객체 추출부(215)가 추출한 편집형 영상 객체는 편집형 영상 객체의 이미지를 포함하기 때문에, 영상 객체 제공부(216)는, 영상 객체 추출부(215)에서 추출된 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)에 편집 정보(전달부(214)에서 전달된 편집 정보)를 적용함으로써, 사용자 단말에서 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체와 동일한 재생형 영상 객체를 생성한 뒤, 대상 단말로 제공할 수 있다.Here, since the editable video object extracted by the
이 때, 영상 객체 추출부(215)는 대상 단말이 지원하는 재생 방식에 기초하여 대상 단말에 재생형 영상 객체를 재생할 수 있다. 이에 대한 상세한 설명은 도 7 내지 8을 참조하여 기재하기로 한다.In this case, the
상술한 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 동작은, 대상 단말에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 기반으로 수행되기 때문에, 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각은 대상 단말의 메모리에 접근할 수 있는 권한을 가질 수 있으며, 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 일부 동작은 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 제어에 따라 대상 단말의 프로세서가 실행의 주체가 되어 수행될 수 있다.Since the operations of the above-described image
이상, 편집형 영상 객체 제공 서버(200)가 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함하는 경우로 설명하였으나, 이에 제한되거나 한정되지 않고, 프로세서(210)의 핵심 구성부들(영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216))만을 포함할 수도 있다.As described above, the editable image
도 3은 일 실시예에 따른 영상 객체 데이터베이스를 설명하기 위한 도면이다.3 is a diagram for describing an image object database, according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 영상 객체 데이터베이스(300)를 구축 및 유지할 수 있다.Referring to FIG. 3, an editable video object providing server according to an embodiment may build and maintain an
구체적으로, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들(320, 330)을 복수의 영상 객체 아이디들(310)과 각각 매칭하여 저장함으로써, 영상 객체 데이터베이스(300)를 구축할 수 있다.In detail, the editable video object providing server may construct the
이 때, 복수의 편집형 영상 객체들(320, 330) 각각은 편집형 영상 객체 이미지(정지 이미지)(320)를 포함하고, 편집형 영상 객체 이미지(320)와 연관된 복수의 엘리멘트들(330)을 포함하기 때문에, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체 이미지들(320)을 복수의 영상 객체 아이디들(310)과 각각 매칭하여 저장하고, 복수의 편집형 영상 객체 이미지들(320) 각각과 연관된 복수의 엘리멘트들(330)을 복수의 엘리멘트 아이디들(340)과 각각 매칭하여 저장함으로써, 영상 객체 데이터베이스(300)를 구축할 수 있다.In this case, each of the plurality of editable image objects 320 and 330 includes an editable image object image (still image) 320 and a plurality of
여기서, 복수의 엘리멘트들(330) 각각은, 정지 이미지인 복수의 편집형 영상 객체 이미지들(320) 각각의 표정, 동작, 상태 또는 환경 중 적어도 어느 하나를 나타내는 데이터를 의미한다.Here, each of the plurality of
예를 들어, 편집형 영상 객체 제공 서버는 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지를 제1 영상 객체 아이디 '001'에 매칭하여 저장한 뒤, 제1 편집형 영상 객체 이미지와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트를 제1-1 엘리멘트 아이디 '001'에 매칭하여 저장하고, 제1 편집형 영상 객체 이미지와 연관된 '울음'의 표정을 나타내는 제1-2 엘리멘트를 제1-2 엘리멘트 아이디 '002'에 매칭하여 저장하며, 제1 편집형 영상 객체 이미지와 연관된 '화남'의 표정을 나타내는 제1-3 엘리멘트를 제1-3 엘리멘트 아이디 '003'에 매칭하여 저장할 수 있다. 여기서, 제1-1 엘리멘트, 제1-2 엘리멘트 및 제1-3 엘리멘트는 제1 편집형 영상 객체 이미지와도 매칭되어 연관 저장될 수 있다.For example, the editable video object providing server stores the first editable video object image representing a still image of a person by matching the first video object ID '001' and then stores the first edited video object image. A first-first element representing an associated 'laugh' expression and storing the first-first element corresponding to the first-first element ID '001' and storing the first-second element representing the expression of 'cry' associated with the first edited image object image. To store the first and second element ID '002', and match the first and third elements representing the expression of 'angry' associated with the first editable image object image to the first and second element ID '003'. Can be stored. Here, the first-first element, the first-second element, and the first-third element may be matched with and stored in the first editable image object image.
이와 같이 영상 객체 데이터베이스(300)에 저장되는 복수의 영상 객체 아이디들(310), 복수의 편집형 영상 객체 이미지들(320), 복수의 엘리멘트들(330) 및 복수의 엘리멘트 아이디들(340)은 모두 XML 형태의 스키마로 설계될 수 있다. 따라서, 영상 객체 데이터베이스(300) 자체는 XML 형태의 스키마를 지원하는 데이터베이스로, XML 형태의 스키마로 설계되는 데이터들을 저장 및 유지하기 때문에, 저용량으로 구축될 수 있다.As such, the plurality of
이 때, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들(320, 330)이 복수의 영상 객체 아이디들(310)과 각각 매칭되어 저장된 데이터베이스(도 2에 도시된 데이터베이스)를 서버 자체에 구축하여 보관하다가, 사용자 단말 및 대상 단말이 편집형 영상 객체 서비스를 이용하기 위하여 등록될 때, 서버 자체에 보관 중인 데이터베이스를 사용자 단말의 메모리 및 대상 단말의 메모리 각각에 카피하여 구축함으로써, 사용자 단말 및 대상 단말이 동일한 영상 객체 데이터베이스(300)를 유지하도록 할 수 있다.In this case, the editable video object providing server may store a database (database shown in FIG. 2) stored in the server itself by matching the plurality of editable video objects 320 and 330 with the plurality of
또한, 편집형 영상 객체 제공 서버는 상술한 영상 객체 데이터베이스(300) 구축 과정과 동일하게, 사용자 단말 및 대상 단말 각각에 구축 및 유지되는 영상 객체 데이터베이스(300)를 업데이트할 수 있다. 이러한 업데이트 과정은, 편집형 영상 객체 제공 서버가 사용자 단말 및 대상 단말과 무선 또는 유선의 통신으로 연결되어 수행될 수 있으며, 영상 객체 데이터베이스(300)에 저장된 데이터들은 모두 XML 형태의 스키마로 설계되기 때문에, 업데이트 과정의 속도 및 효율이 증가될 수 있다.In addition, the editable image object providing server may update the
도 4는 일 실시예에 따른 대상 단말로 편집형 영상 객체를 제공하기 위한 사용자 단말과 대상 단말 사이의 데이터 전달 과정을 설명하기 위한 도면이다.4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
도 4를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말(410)에 포함되는 영상 객체 데이터베이스(411)로부터 어느 하나의 편집형 영상 객체에 대응하여 추출된 영상 객체 아이디 및 획득된 편집 정보(430)만을 대상 단말(420)로 전달한다.Referring to FIG. 4, the editable video object providing server according to an embodiment may include a video object database included in the
이 때, 편집 정보는 어느 하나의 편집형 영상 객체가 편집 및 변경되어 재생형 영상 객체로 생성됨에 있어서, 편집형 영상 객체가 어떻게 편집 및 변경되는가를 나타내는 정보로, 어느 하나의 편집형 영상 객체에 포함되는 선택된 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디일 수 있다.At this time, the edit information is information indicating how the editable video object is edited and changed in any one editable video object being edited and changed to generate a playable video object. It may be an element ID corresponding to any one selected element included.
예를 들어, 사용자 단말(410)에 포함되는 영상 객체 데이터베이스(411)에서 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지가 선택되고, 제1 편집형 영상 객체 이미지와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트가 선택되어 제1 편집형 영상 객체가 편집되었다면, 편집형 영상 객체 제공 서버는 영상 객체 데이터베이스(411)로부터 제1 편집형 영상 객체 이미지에 대응하는 제1 영상 객체 아이디 '001'을 추출하고, 제1-1 엘리멘트에 대응하는 제1-1 엘리멘트 아이디 '001'을 편집 정보로 획득할 수 있다. 따라서, 편집형 영상 객체 제공 서버는 제1 영상 객체 아이디 '001'과 제1-1 엘리멘트 아이디 '001'이 결합된 '001001'의 아이디 데이터(430)를 대상 단말(420)로 전달할 수 있다.For example, in the
이와 같은 영상 객체 아이디 및 편집 정보(430)는 XML 형태의 스키마로 설계되어 있기 때문에, 데이터 용량이 매우 낮으며, BiM 기법을 기반으로 송수신됨으로써, 전송 용량을 최소화하고 전송 속도를 극대화할 수 있다. 이에, 편집형 영상 객체 제공 서버는 사용자 단말(410) 및 대상 단말(420)이 지원하는 송수신 용량 및 송수신 속도의 제약을 만족시키며, 편집 가능한 영상 객체를 대상 단말(420)로 제공할 수 있다.Since the video object ID and the
편집형 영상 객체 제공 서버는 대상 단말(420)이 영상 객체 아이디 및 편집 정보(430)를 수신함에 응답하여, 대상 단말(420)에 포함되는 영상 객체 데이터베이스(421)로부터 영상 객체 아이디에 대응하는 편집형 영상 객체(정확하게는 편집형 영상 객체 이미지)를 추출하고, 추출된 편집형 영상 객체(정확하게는 편집형 영상 객체 이미지)에 편집 정보를 적용함으로써, 재생형 영상 객체를 생성한 뒤, 대상 단말(420)에 제공할 수 있다.In response to the
여기서, 편집형 영상 객체에 편집 정보를 적용한다는 것은, 편집 정보인 엘리멘트 아이디에 대응하는 엘리멘트가 나타내는 표정, 동작, 상태 또는 환경 중 적어도 하나를 정지 이미지인 편집형 영상 객체 이미지에 적용함으로써, 정지 이미지가 움직이는 컨텐츠 데이터를 재생형 영상 객체로 생성하는 것을 의미한다.Here, the application of the editing information to the editable video object may be performed by applying at least one of a facial expression, an action, a state, or an environment indicated by an element corresponding to an element ID, which is the edit information, to the editable video object image. This means that the moving content data is generated as a playable image object.
예를 들어, 앞서 예시에서 설명한 바와 같이, 제1 영상 객체 아이디 '001'과 제1-1 엘리멘트 아이디 '001'이 결합된 '001001'의 아이디 데이터(430)가 대상 단말(420)로 전달됨에 응답하여, 편집형 영상 객체 제공 서버는 영상 객체 데이터베이스(421)로부터 제1 영상 객체 아이디 '001'에 대응하는 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지를 추출하고, 제1-1 엘리멘트 아이디 '001'에 대응하는 '웃음'의 표정을 나타내는 제1-1 엘리멘트를 선택한 뒤, 제1 편집형 영상 객체 이미지인 '사람'에 제1-1 엘리멘트인 '웃음'의 표정을 적용함으로써, '사람이 웃고 있는 컨텐츠'인 재생형 영상 객체를 생성하여 대상 단말(420)로 제공할 수 있다.For example, as described in the above example, the
도 5는 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
도 5를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말이 제공하는 사용자 인터페이스(510) 상에서 발생되는 사용자 수동 편집 입력(511)에 응답하여, 복수의 편집형 영상 객체들(521, 522, 523, 524, 525) 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Referring to FIG. 5, in response to a user
예를 들어, 사용자 인터페이스(510) 상에 디스플레이된 '수동 생성' 버튼(511)에서 사용자 입력이 발생되면, 편집형 영상 객체 제공 서버는 수동 편집 사용자 인터페이스(520)를 사용자 단말에 로드할 수 있다. 여기서, 수동 편집 사용자 인터페이스(520)에는 복수의 편집형 영상 객체들(521, 522, 523, 524, 525)이 디스플레이됨으로써, 사용자가 직접 선택 입력하여 어느 하나의 편집형 영상 객체를 선택하여 편집하도록 지원할 수 있다.For example, when a user input is generated from the 'manual generation'
더 구체적인 예를 들면, 수동 편집 사용자 인터페이스(520)에 디스플레이된 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지(521) 및 '곰'의 정지 이미지를 나타내는 제2 편집형 영상 객체 이미지(525) 중 사용자 선택 입력에 의해 제1 편집형 영상 객체 이미지(521)가 선택되고, 제1 편집형 영상 객체 이미지(521)와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트(522), '화남'의 표정을 나타내는 제1-2 엘리멘트(523) 및 '울음'의 표정을 나타내는 제1-3 엘리멘트(524) 중 사용자 선택 입력에 의해 제 1-1 엘리멘트(522)가 선택되면, 편집형 영상 객체 제공 서버는 선택된 제 1-1 엘리멘트(522)에 기초하여 제1 편집형 영상 객체 이미지(521)를 변경하여 '사람이 웃고 있는 컨텐츠'인 재생형 영상 객체(도면에는 도시되지 않음)를 생성한 뒤, 사용자 단말에 제공할 수 있다.More specifically, for example, the first editable
이 때, 편집형 영상 객체 제공 서버는 편집형 영상 객체(521, 522)가 편집되어 생성된 재생형 영상 객체를 사용자 단말의 사용자 인터페이스 상에서 재생함으로써, 사용자 단말의 사용자가 편집 결과를 직접적으로 확인하도록 할 수 있다At this time, the editable video object providing server reproduces the reproduced video object generated by editing the editable video objects 521 and 522 on the user interface of the user terminal, so that the user of the user terminal can directly check the editing result. can do
도 6은 다른 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
도 6을 참조하면, 다른 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말이 제공하는 사용자 인터페이스(610) 상에서 발생되는 영상 객체 자동 생성 입력(611)에 응답하여, 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득함으로써, 획득된 적어도 하나의 정보에 기초하여 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Referring to FIG. 6, the editable video object providing server according to another exemplary embodiment responds to the video object
예를 들어, 사용자 인터페이스(610) 상에 디스플레이된 '자동 생성' 버튼(611)에서 사용자 입력이 발생되면, 편집형 영상 객체 제공 서버는 자동 생성 사용자 인터페이스(620)를 사용자 단말에 로드할 수 있다. 여기서, 자동 생성 사용자 인터페이스(620)에는 사용자의 위치 정보 및 신체 센싱 정보(621)와 함께, 사용자의 위치 정보 및 신세 센싱 정보(621)를 기초로 어느 하나의 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체(622)가 디스플레이될 수 있다.For example, when a user input is generated from the 'auto generation'
더 구체적인 예를 들면, 사용자의 위치 정보가 '북서울 숲'을 나타내고, 사용자의 신체 센싱 정보인 심박수가 '150'인 경우, 편집형 영상 객체 제공 서버는 사용자가 현재 운동하고 있음을 인식하여 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 '운동'과 관련된 어느 하나의 영상 객체 이미지를 선택하고, 사용자의 현재 위치가 '북서울 숲'임을 인식하여 '숲'의 환경을 나타내는 어느 하나의 엘리멘트를 선택한 뒤, 선택된 운동'과 관련된 어느 하나의 영상 객체 이미지에 '숲'의 환경을 나타내는 어느 하나의 엘리멘트를 적용함으로써, '사람이 숲에서 운동하고 있는 컨텐츠'인 재생형 영상 객체(622)를 자동으로 생성하여 사용자 단말의 사용자 인터페이스(620)에 디스플레이할 수 있다.More specifically, when the location information of the user indicates 'North Seoul forest' and the heart rate, which is the user's body sensing information, is '150', the editable video object providing server recognizes that the user is currently exercising and the user After selecting one image object image related to 'movement' from the image object database included in the terminal and recognizing that the current location of the user is 'North Seoul forest', the user selects one element representing the environment of 'forest' , By automatically applying one of the elements representing the environment of the 'forest' to any one of the image object image associated with the 'selected movement', automatically generating a
도 7은 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
도 7을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말(710)이 제공하는 사용자 인터페이스(711) 상에서 발생되는 사용자 입력에 응답하여, 어느 하나의 편집형 영상 객체를 편집함으로써, 재생형 영상 객체(712)를 생성하고 사용자 인터페이스(711) 상에 디스플레이한 뒤, 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디 및 편집 정보를 대상 단말(720)로 전달할 수 있다.Referring to FIG. 7, in response to a user input generated on a
이에, 편집형 영상 객체 제공 서버는 대상 단말(720)에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출함으로써, 추출된 편집형 영상 객체에 편집 정보를 적용하여 재생형 영상 객체(722)를 생성한 뒤, 대상 단말(720)이 제공하는 사용자 인터페이스(721) 상에 재생형 영상 객체(722)를 디스플레이할 수 있다.Accordingly, the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the
여기서, 사용자 단말(710)에 디스플레이되는 재생형 영상 객체(712)는 사용자 단말(710)에 포함되는 영상 객체 데이터베이스에 기반하여 생성되고, 대상 단말(720)에 디스플레이되는 재생형 영상 객체(722)는 대상 단말(720)에 포함되는 영상 객체 데이터베이스에 기반하여 생성된다. 따라서, 사용자 단말(710)에 포함되는 영상 객체 데이터베이스와 대상 단말(720)에 포함되는 영상 객체 데이터베이스는 동일하게 구축되기 때문에, 사용자 단말(710)에 디스플레이되는 재생형 영상 객체(712)와 대상 단말(720)에 디스플레이되는 재생형 영상 객체(722)는 동일한 컨텐츠일 수 밖에 없다.Here, the reproduced
이 때, 편집형 영상 객체 제공 서버는 재생형 영상 객체(712)를 사용자 단말(710)의 사용자 인터페이스(711) 상에 디스플레이함에 있어, 사용자 단말(710)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(712)를 재생할 수 있고, 재생형 영상 객체(722)를 대상 단말(720)의 사용자 인터페이스(721) 상에 디스플레이함에 있어, 대상 단말(720)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(722)를 재생할 수 있다.In this case, the editing type video object providing server displays the playback
예를 들어, 도면과 같이, 사용자 단말(710) 및 대상 단말(720) 모두 스마트폰으로서, 재생형 영상 객체(712, 722)를 그래픽 방식 및 사운드 방식으로 재생할 수 있는 경우, 편집형 영상 객체 제공 서버는 사용자 단말(710)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(712)를 제공하고, 대상 단말(720)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(722)를 제공할 수 있다.For example, as shown in the drawing, when both the
다른 예를 들면, 사용자 단말(710) 및 대상 단말(720) 모두 스마트폰으로서, 사용자 단말(710)은 재생형 영상 객체(712)를 그래픽 방식 및 사운드 방식으로 재생할 수 있으나, 대상 단말(720)은 재생형 영상 객체(722)를 그래픽 방식으로만 재생할 수 있는 경우, 편집형 영상 객체 제공 서버는 사용자 단말(710)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(712)를 제공하고, 대상 단말(720)에 그래픽 방식만을 이용하여 재생형 영상 객체(722)를 제공할 수 있다.For another example, both the
또한, 편집형 영상 객체 제공 서버는 대상 단말(720)이 인형, 팔찌, 시계 펜던트 등의 기기일 경우에도, 대상 단말(720)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(722)를 제공할 수 있다. 이에 대한 상세한 설명은 아래에서 기재하기로 한다.In addition, even when the
도 8은 다른 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
도 8을 참조하면, 다른 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말(810)이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 어느 하나의 편집형 영상 객체를 편집함으로써, 재생형 영상 객체(811)를 생성하고 사용자 인터페이스 상에 디스플레이한 뒤, 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디 및 편집 정보를 대상 단말(820)로 전달할 수 있다.Referring to FIG. 8, the editable video object providing server according to another exemplary embodiment plays back by editing any one editable video object in response to a user input generated on a user interface provided by the
이에, 편집형 영상 객체 제공 서버는 대상 단말(780)에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출함으로써, 추출된 편집형 영상 객체에 편집 정보를 적용하여 재생형 영상 객체(821)를 생성한 뒤, 대상 단말(820)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(821)를 제공할 수 있다.Accordingly, the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 780, and applies edit information to the extracted edited video object to reproduce the playable video. After generating the
이 때, 대상 단말(820)은 도면에 도시된 바와 같이 인형이기 때문에, 대상 단말(820)은 인형의 표정 인터페이스를 통한 재생 방식, 신체 움직임의 동작 인터페이스를 통한 재생 방식, 신체 진동의 재생 방식, 사운드 방식 등을 지원할 수 있다.At this time, since the
따라서, 편집형 영상 객체 제공 서버는 도면과 같이 인형의 표정 인터페이스를 통하여 재생형 영상 객체(821)를 제공할 수 있다.Accordingly, the editable video object providing server may provide the
이상, 대상 단말(820)이 인형인 것으로 설명하였으나, 이에 제한되거나 한정되지 않고, 재생형 영상 객체(821)를 재생할 수 있는 다양한 기기, 예컨대, 팔찌, 시계, 펜던트 등일 수 있다. 여기서, 재생형 영상 객체(821)를 재생할 수 있다는 것은, 재생형 영상 객체(821)의 일부 정보(예컨대, 진동, 사운드, 그래픽 등 중 어느 하나의 일부 정보)만을 재생할 수 있다는 것을 포함한다.As described above, the
도 9는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 방법을 나타낸 플로우 차트이다.9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.
도 9를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 방법은, 도 1 내지 2를 참조하여 상술한 편집형 영상 객체 제공 시스템(특히, 편집형 영상 객체 제공 시스템에 포함되는 편집형 영상 객체 제공 서버)에 의해 수행된다.Referring to FIG. 9, the method for providing an editable video object according to an embodiment may include the editable video object providing system described above with reference to FIGS. 1 to 2 (in particular, the editable video object included in the editable video object providing system). Providing server).
편집형 영상 객체 제공 시스템은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한다(910).The editable video object providing system constructs and maintains a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory included in each of the user terminal and the target terminal (910). ).
여기서, 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다. 따라서, 영상 객체 데이터베이스는 XML 형태의 스키마를 지원하는 데이터베이스일 수 있다.Here, the plurality of editable image objects and the plurality of image object IDs may be designed in a schema of XML. Therefore, the image object database may be a database supporting a schema of XML format.
이 때, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체 이미지 및 적어도 하나의 엘리멘트를 포함할 수 있다. 편집형 영상 객체 이미지는 편집형 영상 객체의 기반이 되는 정지 이미지를 의미하고, 적어도 하나의 엘리멘트는 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타낸다. 이에, 복수의 편집형 영상 객체 이미지들 및 복수의 엘리멘트들 역시 XML 형태의 스키마로 설계될 수 있다.In this case, each of the plurality of editable image objects may include an editable image object image and at least one element. The editable video object image refers to a still image on which the editable video object is based, and at least one element represents at least one of an expression, an action, a state, or an environment of the editable video object (exactly, the editable video object image). Indicates. Accordingly, the plurality of editable image object images and the plurality of elements may also be designed in a schema of XML.
또한, 영상 객체 데이터베이스는 복수의 엘리멘트 아이디들이 포함될 수 있다. 여기서, 복수의 엘리멘트 아이디들은 복수의 엘리멘트들과 각각 매칭되어 저장되는 식별자 역할을 할 수 있다. 마찬가지로, 복수의 엘리멘트 아이디들 역시 XML 형태의 스키마로 설계될 수 있다.In addition, the image object database may include a plurality of element IDs. Here, the plurality of element IDs may serve as identifiers that are respectively matched and stored with the plurality of elements. Similarly, the plurality of element IDs may also be designed in a schema of XML.
따라서, 910 단계에서, 편집형 영상 객체 제공 시스템은, 복수의 편집형 영상 객체 이미지들을 복수의 영상 객체 아이디들과 각각 매칭하여 영상 객체 데이터베이스에 저장 및 유지할 수 있고, 복수의 편집형 영상 객체 이미지들과 연관된 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 영상 객체 데이터베이스에 저장 및 유지할 수 있다.Accordingly, in
이어서, 편집형 영상 객체 제공 시스템은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집한다(920).Subsequently, the editable video object providing system, in response to a user input generated on a user interface provided by the user terminal, edited image of any one of a plurality of editable video objects stored in a video object database included in the user terminal. The object is edited (920).
구체적으로, 920 단계에서, 편집형 영상 객체 제공 시스템은, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고(복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택), 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택한 뒤(어느 하나의 편집형 영상 객체 이미지에 연관된 어느 하나의 엘리멘트를 선택), 선택된 엘리멘트에 기초하여 어느 하나의 편집형 영상 객체를 변경함으로써(어느 하나의 편집형 영상 객체 이미지에 선택된 엘리멘트를 적용), 재생형 영상 객체를 생성할 수 있다.In detail, in
또한, 920 단계에서, 편집형 영상 객체 제공 시스템은, 생성된 재생형 영상 객체를 사용자 단말이 지원하는 재생 방식에 기초하여 사용자 단말에 재생할 수 있다.In
이와 같은 편집 과정은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 따라 수동 또는 자동으로 수행될 수 있다. 예를 들어, 편집형 영상 객체 제공 시스템은, 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득함으로써, 획득된 적어도 하나의 정보에 기초하여 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Such an editing process may be performed manually or automatically according to a user input generated on a user interface provided by the user terminal. For example, the editable image object providing system, in response to an automatic image object generation input generated on a user interface, records location information, environment information, body sensing information, schedule information, or image object usage history of a user using a user terminal. By acquiring at least one piece of information, one of the plurality of editable image objects may be selected and edited based on the obtained at least one information.
다른 예를 들면, 편집형 영상 객체 제공 시스템은, 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수도 있다.For another example, the editable video object providing system may select and edit any one of a plurality of editable video objects in response to a user manual edit input generated on a user interface.
그 다음, 편집형 영상 객체 제공 시스템은, 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득한다(930).Next, as the editable video object providing system is edited, the editable video object providing system extracts a video object ID corresponding to any one of the edited video objects from the video object database included in the user terminal. One editable image object obtains edited edit information (930).
이 때, 930 단계에서, 편집형 영상 객체 제공 시스템은, 920 단계에서 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 추출함으로써, 추출된 엘리멘트 아이디를 편집 정보로 획득할 수 있다.In this case, in
그 다음, 편집형 영상 객체 제공 시스템은, 영상 객체 아이디 및 편집 정보를 대상 단말로 전달한다(940).Next, the editable video object providing system transmits the video object ID and the edit information to the target terminal (940).
여기서, 영상 객체 아이디 및 편집 정보 모두 XML 형태의 스키마로 설계되었기 때문에, 편집형 영상 객체 제공 시스템은, 940 단계에서, BiM(MPEG Binary Format) 기법을 기반으로 영상 객체 아이디 및 편집 정보를 대상 단말로 전달할 수 있다.Here, since both the video object ID and the edit information are designed in the XML format schema, the editable video object providing system transmits the video object ID and the edit information to the target terminal in
또한, 940 단계에서, 편집형 영상 객체 제공 시스템은 대상 단말이 지원하는 재생 방식을 고려하여, 편집 정보 중 일부 정보만을 대상 단말로 전달할 수 있다.In
그 다음, 편집형 영상 객체 제공 시스템은, 대상 단말에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출한다(950).Next, the editable video object providing system extracts the editable video object corresponding to the video object ID from the video object database included in the target terminal (950).
그 후, 편집형 영상 객체 제공 시스템은, 추출된 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공한다(960).Thereafter, the editable video object providing system applies edit information to the extracted edited video object and provides the edited video object to the target terminal (960).
구체적으로, 960 단계에서, 편집형 영상 객체 제공 시스템은, 950 단계에서 추출된 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)에 편집 정보를 적용하여 재생형 영상 객체를 생성함으로써, 복원된 재생형 영상 객체를 대상 단말로 제공할 수 있다.In detail, in
또한, 960 단계에서, 편집형 영상 객체 제공 시스템은, 재생형 영상 객체를 대상 단말이 지원하는 재생 방식에 기초하여 대상 단말 단말에 재생할 수 있다.In
본 발명의 일 측면에 따르면, 서비스 디스크립션을 저장하는 서비스 디스크립션 제공부; 서비스 추천 요청을 수신하는 통신 인터페이스; 및 상기 서비스 추천 요청에 상응하는 서비스 디스크립션을 상기 서비스 디스크립션 제공부로부터 획득하고, 상기 서비스 디스크립션을 참조하여 추천 디스크립션을 생성하는 추천 엔진;을 포함하되, 상기 서비스 디스크립션은 서비스 일반 디스크립션(Service General Description), 포맷 타입(FormatType), 서비스 대상 정보 타입(ServiceTargetInformationType), 서비스 대상 모델 타입(ServiceTargetModelType), 어휘 세트 타입(VocabularySetType), 서비스 인터페이스 타입(ServiceInterfaceType), 필수 입력 데이터 타입(RequiredInputDataType), 내부 서비스들 타입(InternalServicesType), 내부 서비스 타입(InternalServiceType), 무손실 오디오 DB 타입(LosslessAudioDBType), 손실 오디오 DB 타입(LossyAudioDBType), 비디오 DB 타입(VideoDBType), 서비스 객체 타입(ServiceObjectType) 및 객체 타입(ObjectType) 중 하나 이상을 포함하는 서비스 추천 장치가 제공된다.According to an aspect of the invention, the service description providing unit for storing a service description; A communication interface for receiving a service recommendation request; And a recommendation engine that obtains a service description corresponding to the service recommendation request from the service description providing unit, and generates a recommendation description with reference to the service description, wherein the service description is a service general description. Format Type (FormatType), Service Target Information Type (ServiceTargetInformationType), Service Target Model Type (ServiceTargetModelType), Vocabulary Set Type (VocabularySetType), Service Interface Type (ServiceInterfaceType), Required Input Data Type (RequiredInputDataType), Internal Services Type ( Include at least one of InternalServicesType, InternalServiceType, Lossless AudioDBType, LossAudioDBType, LossyAudioDBType, VideoDBType, VideoDBType, Service ObjectType (ServiceObjectType), and ObjectType (ObjectType). Book A service recommendation device is provided.
본 발명의 일 측면에 따르면, 유저 디스크립션을 저장하는 유저 디스크립션 제공부; 서비스 추천 요청을 수신하는 통신 인터페이스; 및 상기 서비스 추천 요청에 상응하는 유저 디스크립션을 상기 유저 디스크립션 제공부로부터 획득하고, 상기 유저 디스크립션을 참조하여 추천 디스크립션을 생성하는 추천 엔진;을 포함하되, 상기 유저 디스크립션은 사용자 프로필 타입(UserProfileType), 개인 프로필 타입(PersonProfileType), 조직 프로필 타입(OrganizationProfileType), 장치 프로필 타입(DeviceProfileType), 그룹화 프로필 타입(GroupedProfileType), 사용 히스토리 타입(UsageHistoryTyp), 이벤트 타입(EventType), 상호 작용 아톰 타입(interactionAtomType), 아티펙트 타입(artefactType), 관찰 대상 타입(observableType), 상태 타입(stateType), 선호 타입(PreferenceType), 감정 타입(EmotionType), 어휘 세트 타입(VocabularySetType), 스케줄 타입(ScheduleType), 활동 타입(ActivityType), 의도 타입(IntentionType), 언어 타입(LanguageType), 특기 타입(SpecialtyType), 접근성 타입(AccessibilityType), 사회 정보 타입(SocialInformationType) 및 객체 공유 타입(ObjectSharingType) 중 하나 이상을 포함하는 서비스 추천 장치가 제공된다.According to an aspect of the present invention, a user description providing unit for storing a user description; A communication interface for receiving a service recommendation request; And a recommendation engine that obtains a user description corresponding to the service recommendation request from the user description provider, and generates a recommendation description with reference to the user description, wherein the user description includes a user profile type (UserProfileType), an individual. Profile type (PersonProfileType), Organization profile type (OrganizationProfileType), Device profile type (DeviceProfileType), Grouping profile type (GroupedProfileType), Usage history type (UsageHistoryTyp), Event type (EventType), Interaction atom type (interactionAtomType), Artifact type (artefactType), observableType, stateType, preference type, preference type, emotion type, lexical set type (VocabularySetType), schedule type (ScheduleType), activity type (ActivityType), intention type (IntentionType), LanguageType, SpecialtyType, Access A service recommendation apparatus including at least one of an accessibility type, a social information type, and an object sharing type is provided.
상기 사용 히스토리 타입(UsageHistoryTyp)은 멀티미디어 경험 타입(multimediaExperienceType) 및 세부 사용자 상호 작용 타입을 포함할 수 있다.The usage history type (UsageHistoryTyp) may include a multimedia experience type and a user interaction type.
상기 선호 타입은 사용자 선호 타입, 오디오 프리젠테이션 선호 타입, 디스플레이 프리젠테이션 선호 타입, 그래픽 프리젠테이션 선호 타입, 서비스 선호 타입, 오디오 프리젠테이션 선호 정보 타입, 번역 선호 타입, 관심 미디어 타입 및 웹 링크 선호 타입 중 하나 이상을 포함할 수 있다.The preference type is one of a user preference type, an audio presentation preference type, a display presentation preference type, a graphic presentation preference type, a service preference type, an audio presentation preference information type, a translation preference type, an interest media type, and a web link preference type. It may include one or more.
상기 언어 타입은 명칭 타입, 언어 능력 레퍼런스 타입, 언어 지역 타입, 언어의 타입, 읽기 레벨 타입, 쓰기 레벨 타입, 말하기 레벨 타입 및 듣기 레벨 타입 중 하나 이상을 포함할 수 있다.The language type may include one or more of a name type, a language capability reference type, a language region type, a language type, a reading level type, a writing level type, a speaking level type, and a listening level type.
상기 언어 능력 레퍼런스 타입은 능력 테스트 명칭 타입, 능력 레벨 타입(CompetenceLevelType), 능력 테스트 URI 타입 및 능력 테스트 날짜 타입을 포함할 수 있다.The language capability reference type may include a capability test name type, a competency level type (CompetenceLevelType), a capability test URI type, and a capability test date type.
상기 스케줄 타입은 이벤트 타입, 스케줄 디스크립션 타입, 공유된 유저(SharedUser) 타입, 시간 타입, 디스크립션 방법(descriptionMethod) 타입, 중 하나 이상을 포함할 수 있다.The schedule type may include one or more of an event type, a schedule description type, a shared user type, a time type, and a description method type.
본 발명의 다른 측면에 따르면, 서비스 추천 장치가 서비스를 추천하는 방법에 있어서, 서비스 추천 요청을 수신하는 단계; 상기 서비스 추천 요청에 상응하는 유저 디스크립션을 획득하는 단계; 및 상기 유저 디스크립션을 참조하여 추천 디스크립션을 생성하는 단계; 를 포함하되, 상기 유저 디스크립션은 사용자 프로필 타입(UserProfileType), 개인 프로필 타입(PersonProfileType), 조직 프로필 타입(OrganizationProfileType), 장치 프로필 타입(DeviceProfileType), 그룹화 프로필 타입(GroupedProfileType), 사용 히스토리 타입(UsageHistoryTyp), 이벤트 타입(EventType), 상호 작용 아톰 타입(interactionAtomType), 아티펙트 타입(artefactType), 관찰 대상 타입(observableType), 상태 타입(stateType), 선호 타입(PreferenceType), 감정 타입(EmotionType), 어휘 세트 타입(VocabularySetType), 스케줄 타입(ScheduleType), 활동 타입(ActivityType), 의도 타입(IntentionType), 언어 타입(LanguageType), 특기 타입(SpecialtyType), 접근성 타입(AccessibilityType), 사회 정보 타입(SocialInformationType) 및 객체 공유 타입(ObjectSharingType) 중 하나 이상을 포함하는 서비스 추천 방법이 제공된다.According to another aspect of the present invention, a method for recommending a service by a service recommendation apparatus, the method comprising: receiving a service recommendation request; Obtaining a user description corresponding to the service recommendation request; Generating a recommendation description with reference to the user description; The user description may include a user profile type (UserProfileType), a personal profile type (PersonProfileType), an organization profile type (OrganizationProfileType), a device profile type (DeviceProfileType), a grouped profile type (GroupedProfileType), a usage history type (UsageHistoryTyp), Event Type, Interaction Atom Type, Artifact Type, Observable Type, State Type, Preference Type, Emotion Type, VocabularySetType ), Schedule type (ScheduleType), activity type (ActivityType), intention type (IntentionType), language type (LanguageType), specialty type (SpecialtyType), accessibility type (AccessibilityType), social information type (SocialInformationType), and object sharing type (ObjectSharingType). Service recommendation method comprising one or more of the following.
상기 사용 히스토리 타입(UsageHistoryTyp)은 멀티미디어 경험 타입(multimediaExperienceType) 및 세부 사용자 상호 작용 타입을 포함할 수 있다.The usage history type (UsageHistoryTyp) may include a multimedia experience type and a user interaction type.
상기 선호 타입은 사용자 선호 타입, 오디오 프리젠테이션 선호 타입, 디스플레이 프리젠테이션 선호 타입, 그래픽 프리젠테이션 선호 타입, 서비스 선호 타입, 오디오 프리젠테이션 선호 정보 타입, 번역 선호 타입, 관심 미디어 타입 및 웹 링크 선호 타입 중 하나 이상을 포함할 수 있다.The preference type is one of a user preference type, an audio presentation preference type, a display presentation preference type, a graphic presentation preference type, a service preference type, an audio presentation preference information type, a translation preference type, an interest media type, and a web link preference type. It may include one or more.
상기 언어 타입은 명칭 타입, 언어 능력 레퍼런스 타입, 언어 지역 타입, 언어의 타입, 읽기 레벨 타입, 쓰기 레벨 타입, 말하기 레벨 타입 및 듣기 레벨 타입 중 하나 이상을 포함할 수 있다.The language type may include one or more of a name type, a language capability reference type, a language region type, a language type, a reading level type, a writing level type, a speaking level type, and a listening level type.
상기 언어 능력 레퍼런스 타입은 능력 테스트 명칭 타입, 능력 레벨 타입(CompetenceLevelType), 능력 테스트 URI 타입 및 능력 테스트 날짜 타입을 포함할 수 있다.The language capability reference type may include a capability test name type, a competency level type (CompetenceLevelType), a capability test URI type, and a capability test date type.
상기 스케줄 타입은 이벤트 타입, 스케줄 디스크립션 타입, 공유된 유저(SharedUser) 타입, 시간 타입, 디스크립션 방법(descriptionMethod) 타입, 중 하나 이상을 포함할 수 있다.The schedule type may include one or more of an event type, a schedule description type, a shared user type, a time type, and a description method type.
본 발명의 일 측면에 따르면, 컨텍스트 디스크립션을 저장하는 서비스 디스크립션 제공부; 서비스 추천 요청을 수신하는 통신 인터페이스; 및 상기 서비스 추천 요청에 상응하는 상기 컨텍스트 디스크립션을 상기 컨텍스트 디스크립션 제공부로부터 획득하고, 상기 컨텍스트 디스크립션을 참조하여 추천 디스크립션을 생성하는 추천 엔진;을 포함하되, 상기 컨텍스트 디스크립션은 컨텍스트 디스크립션 타입(ContextDescriptionType), 컨텍스트 식별 타입(ContextIdentificationType), 장치 특징 타입(DeviceCharacteristicsType), 네트워크 정보 타입(NewworkInfoType), 위치 타입(LocationType), 날씨 타입(WeatherType), 부가 환경 정보 타입(OtherEnvironmentalInfoType), 오디오 환경 타입(AudioEnvironment), 녹음 환경 타입(RecordingEnvironmentType) 및 컨텍스트 우선 타입(ContextPriorityType) 중 하나 이상을 포함하는 것을 특징으로 하는 서비스 추천 장치가 제공된다.According to an aspect of the invention, the service description providing unit for storing the context description; A communication interface for receiving a service recommendation request; And a recommendation engine that obtains the context description corresponding to the service recommendation request from the context description providing unit, and generates a recommendation description with reference to the context description, wherein the context description includes a context description type (ContextDescriptionType), Context Identification Type (ContextIdentificationType), Device Characteristic Type (DeviceCharacteristicsType), Network Information Type (NewworkInfoType), Location Type (LocationType), Weather Type (WeatherType), Additional Environment Information Type (OtherEnvironmentalInfoType), Audio Environment Type (AudioEnvironment), Recording Environment Provided is a service recommendation apparatus comprising one or more of a type (RecordingEnvironmentType) and a context priority type (ContextPriorityType).
유저 디스크립션의 SYNTAX는 다음과 같다.The SYNTAX of the user description is:
<complexType name="UD"><complexType name = "UD">
<sequence><sequence>
<element name="ClassificationSchemeAlias" type="ct:ClassificationSchemeAliasType" minOccurs="0" maxOccurs="unbounded"/><element name = "ClassificationSchemeAlias" type = "ct: ClassificationSchemeAliasType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="UserID" type="mpeg7:UniqueIDType"/><element name = "UserID" type = "mpeg7: UniqueIDType" />
<element name="UserProfile" type="ud:UserProfileType" minOccurs="0"/><element name = "UserProfile" type = "ud: UserProfileType" minOccurs = "0" />
<element name="UsageHistory" type="ud:UsageHistoryType" minOccurs="0"/><element name = "UsageHistory" type = "ud: UsageHistoryType" minOccurs = "0" />
<element name="Preference" type="ud:PreferenceType" minOccurs="0"/><element name = "Preference" type = "ud: PreferenceType" minOccurs = "0" />
<element name="Emotion" type="ud:EmotionType" minOccurs="0"/><element name = "Emotion" type = "ud: EmotionType" minOccurs = "0" />
<element name="Schedule" type="ud:ScheduleType" minOccurs="0"/><element name = "Schedule" type = "ud: ScheduleType" minOccurs = "0" />
<element name="Activity" type="ud:ActivityType" minOccurs="0"/><element name = "Activity" type = "ud: ActivityType" minOccurs = "0" />
<element name="Representation" type="ct:ObjectType" minOccurs="0"/><element name = "Representation" type = "ct: ObjectType" minOccurs = "0" />
<element name="Intention" type="ud:IntentionType" minOccurs="0"/><element name = "Intention" type = "ud: IntentionType" minOccurs = "0" />
<element name="Knowledge" type="ud:KnowledgeType" minOccurs="0"/><element name = "Knowledge" type = "ud: KnowledgeType" minOccurs = "0" />
<element name="ObjectSharing" type="ud:ObjectSharingType" minOccurs="0"/><element name = "ObjectSharing" type = "ud: ObjectSharingType" minOccurs = "0" />
<element name="ServiceUsagePattern" type="ud:UsagePatternType" minOccurs="0"/><element name = "ServiceUsagePattern" type = "ud: UsagePatternType" minOccurs = "0" />
<element name="LoudnessPreferences" type="ud:LoudnessPreferencesType"/> <element name = "LoudnessPreferences" type = "ud: LoudnessPreferencesType" />
<element name="VisualExpressionPreference" type="ud:VisualExpressionPreferenceType"/> <element name = "VisualExpressionPreference" type = "ud: VisualExpressionPreferenceType" />
</sequence></ sequence>
<attributeGroup ref="ct:commonAttributes"/><attributeGroup ref = "ct: commonAttributes" />
</complexType></ complexType>
SEMANTIC은 다음과 같다.SEMANTIC is as follows.
그리고, 멀티미디어의 소비 및 인터랙션의 히스토리를 기술하는 UsageHistoryType의 SYNTAX는 다음과 같다.The SYNTAX of UsageHistoryType describing the history of the consumption and interaction of multimedia is as follows.
<complexType name="UsageHistoryType"><complexType name = "UsageHistoryType">
<sequence> <sequence>
<element name="DetailedUserInteraction" type="ud:DetailedUserInteractionType" minOccurs="0"/> <element name = "DetailedUserInteraction" type = "ud: DetailedUserInteractionType" minOccurs = "0" />
<element name="ServiceUsageInformation" type="ud:ServiceUsageInformationType" minOccurs="0" /><element name = "ServiceUsageInformation" type = "ud: ServiceUsageInformationType" minOccurs = "0" />
</sequence> </ sequence>
</complexType> </ complexType>
<complexType name="DetailedUserInteractionType"> <complexType name = "DetailedUserInteractionType">
<annotation> <annotation>
<documentation>The main complex type describing detailed interaction with multimedia items</documentation> <documentation> The main complex type describing detailed interaction with multimedia items </ documentation>
</annotation> </ annotation>
<sequence> <sequence>
<element name="MultimediaExperiences"> <element name = "MultimediaExperiences">
<complexType> <complexType>
<sequence> <sequence>
<element name="MultimediaExperience" type="ud:MultimediaExperienceType" maxOccurs="unbounded"/> <element name = "MultimediaExperience" type = "ud: MultimediaExperienceType" maxOccurs = "unbounded" />
</sequence> </ sequence>
</complexType> </ complexType>
</element> </ element>
</sequence> </ sequence>
</complexType> </ complexType>
<complexType name="ServiceUsageInformationType"><complexType name = "ServiceUsageInformationType">
<sequence> <sequence>
<element name="ServiceID" type="sd:ServiceDescriptionType"/> <element name = "ServiceID" type = "sd: ServiceDescriptionType" />
<element name="UsageTime" type="ct:TimeType"/> <element name = "UsageTime" type = "ct: TimeType" />
</sequence> </ sequence>
</complexType> </ complexType>
SEMANTIC은 다음과 같다.SEMANTIC is as follows.
그 예는 다음과 같다.An example is as follows.
<ud:UsageHistory><ud: UsageHistory>
<ud:ServiceUsageInformation> <ud: ServiceUsageInformation>
<ud:ServiceID xmlns:ct="urn:mpeg:mpeg21:UD:CT:2016" xmlns:sd="urn:mpeg:mpeg21:UD:SD:2016"> <ud: ServiceID xmlns: ct = "urn: mpeg: mpeg21: UD: CT: 2016" xmlns: sd = "urn: mpeg: mpeg21: UD: SD: 2016">
<sd:ServiceID>13243</sd:ServiceID> <sd: ServiceID> 13243 </ sd: ServiceID>
<sd:ServiceGeneralInformation> <sd: ServiceGeneralInformation>
<sd:ServiceName>Service1</sd:ServiceName> <sd:ServiceProviderName>ServiceProvider</sd:ServiceProviderName> <sd: ServiceName> Service1 </ sd: ServiceName> <sd: ServiceProviderName> ServiceProvider </ sd: ServiceProviderName>
</sd:ServiceGeneralInformation> </ sd: ServiceGeneralInformation>
<sd:ServiceTargetInformation></sd:ServiceTargetInformation> <sd: ServiceTargetInformation> </ sd: ServiceTargetInformation>
<sd:IsServiceAvailable>true</sd:IsServiceAvailable> <sd: IsServiceAvailable> true </ sd: IsServiceAvailable>
</ud:ServiceID> </ ud: ServiceID>
<ud:UsageTime> <ud: UsageTime>
<startTime xmlns="urn:mpeg:mpeg21:UD:CT:2016">2016-01-03T09:00:00Z</startTime> <startTime xmlns = "urn: mpeg: mpeg21: UD: CT: 2016"> 2016-01-03T09: 00: 00Z </ startTime>
<endTime xmlns="urn:mpeg:mpeg21:UD:CT:2016">2016-01-03T09:40:00Z</endTime> <endTime xmlns = "urn: mpeg: mpeg21: UD: CT: 2016"> 2016-01-03T09: 40: 00Z </ endTime>
</ud:UsageTime> </ ud: UsageTime>
</ud:ServiceUsageInformation> </ ud: ServiceUsageInformation>
</ud:UsageHistory> </ ud: UsageHistory>
PreferenceType은 다음과 같다.PreferenceType is as follows.
PreferenceType describes the preference related to the various services. Preference could be conceived of as an individual’s attitude towards a set of objects. Interested topics, preference on presentation style, sensory effects preference, score of satisfaction, service usage preferences, preference on service provider, interested topics and multimedia can be a preference. PreferenceType describes the preference related to the various services. Preference could be conceived of as an individual ’s attitude towards a set of objects. Interested topics, preference on presentation style, sensory effects preference, score of satisfaction, service usage preferences, preference on service provider, interested topics and multimedia can be a preference.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="PreferenceType"><complexType name = "PreferenceType">
<sequence> <sequence>
<element name="UserPreferences" type="mpeg7:UserPreferencesType" minOccurs="0"/> <element name = "UserPreferences" type = "mpeg7: UserPreferencesType" minOccurs = "0" />
<element name="AudioPresentationPreferences" type="ud:AudioPresentationPreferencesType" minOccurs="0"/> <element name = "AudioPresentationPreferences" type = "ud: AudioPresentationPreferencesType" minOccurs = "0" />
<element name="DisplayPresentationPreferences" type="mpeg21:DisplayPresentationPreferencesType" minOccurs="0"/> <element name = "DisplayPresentationPreferences" type = "mpeg21: DisplayPresentationPreferencesType" minOccurs = "0" />
<element name="GraphicsPresentationPreferences" type="mpeg21:GraphicsPresentationPreferencesType" minOccurs="0"/> <element name = "GraphicsPresentationPreferences" type = "mpeg21: GraphicsPresentationPreferencesType" minOccurs = "0" />
<element name="TextPresentationPreferences" type="ud:TextPresentationPreferencesType" minOccurs="0" maxOccurs="unbounded"/><element name = "TextPresentationPreferences" type = "ud: TextPresentationPreferencesType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="ServicePreference" type="ud:ServicePreferencesType" minOccurs="0"/> <element name = "ServicePreference" type = "ud: ServicePreferencesType" minOccurs = "0" />
<element name="TranslationPreference" type="ud:TranslationPreferenceType" minOccurs="0"/> <element name = "TranslationPreference" type = "ud: TranslationPreferenceType" minOccurs = "0" />
<element name="WebLinkPreferences" type="ud:WebLinkPreferenceType" minOccurs="0" maxOccurs="unbounded"/> <element name = "WebLinkPreferences" type = "ud: WebLinkPreferenceType" minOccurs = "0" maxOccurs = "unbounded" />
</sequence> </ sequence>
</complexType></ complexType>
SEMANTIC은 다음과 같다.SEMANTIC is as follows.
TextPresentationPreferencesType은 다음과 같다.TextPresentationPreferencesType is as follows.
This TextPresentationPreferencesType describes user's presentation preference related to text to be presented in the display device.This TextPresentationPreferencesType describes user's presentation preference related to text to be presented in the display device.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="TextPresentationPreferencesType"><complexType name = "TextPresentationPreferencesType">
<sequence> <sequence>
<element name="TextPropertyPreference" type="ud:TextPropertyPreferenceType"/> <element name = "TextPropertyPreference" type = "ud: TextPropertyPreferenceType" />
<element name="TargetDisplayDeviceCapability" type="mpeg21:DisplayCapabilityType" minOccurs="0"/> <element name = "TargetDisplayDeviceCapability" type = "mpeg21: DisplayCapabilityType" minOccurs = "0" />
</sequence> </ sequence>
</complexType></ complexType>
<complexType name="TextPropertyPreferenceType"><complexType name = "TextPropertyPreferenceType">
<complexContent> <complexContent>
<extension base="mpeg21:FontType"> <extension base = "mpeg21: FontType">
<attribute name="italic" type="boolean" use="optional" default="false"/> <attribute name = "italic" type = "boolean" use = "optional" default = "false" />
<attribute name="oblique" type="boolean" use="optional" default="false"/><attribute name = "oblique" type = "boolean" use = "optional" default = "false" />
<attribute name="bold" type="boolean" use="optional" default="false"/> <attribute name = "bold" type = "boolean" use = "optional" default = "false" />
<attribute name="smallcap" type="boolean" use="optional" default="false"/><attribute name = "smallcap" type = "boolean" use = "optional" default = "false" />
<attribute name="underline" type="boolean" use="optional" default="false"/><attribute name = "underline" type = "boolean" use = "optional" default = "false" />
<attribute name="overline" type="boolean" use="optional" default="false"/><attribute name = "overline" type = "boolean" use = "optional" default = "false" />
</extension> </ extension>
</complexContent> </ complexContent>
</complexType></ complexType>
SEMANTIC은 다음과 같다.SEMANTIC is as follows.
예는 다음과 같다.An example follows.
<ud:UD><ud: UD>
<ud:UserID>keti</ud:UserID> <ud: UserID> keti </ ud: UserID>
<ud:Preference> <ud: Preference>
<ud:TextPresentationPreferences> <ud: TextPresentationPreferences>
<ud:TextPropertyPreference fontColor="black" fontSize="10" fontType="arial" italic="true" underline="true"/> <ud: TextPropertyPreference fontColor = "black" fontSize = "10" fontType = "arial" italic = "true" underline = "true" />
<ud:TargetDisplayDeviceCapability> <ud: TargetDisplayDeviceCapability>
<mpeg21:Mode> <mpeg21: Mode>
<mpeg21:Resolution horizontal="720" vertical="480"/> <mpeg21: Resolution horizontal = "720" vertical = "480" />
</mpeg21:Mode> </ mpeg21: Mode>
<mpeg21:ScreenSize horizontal="49" vertical="52"/> <mpeg21: ScreenSize horizontal = "49" vertical = "52" />
</ud:TargetDisplayDeviceCapability> </ ud: TargetDisplayDeviceCapability>
</ud:TextPresentationPreferences> </ ud: TextPresentationPreferences>
</ud:Preference> </ ud: Preference>
</ud:UD> </ ud: UD>
WebLinkPreferenceType은 다음과 같다.WebLinkPreferenceType is as follows.
ebLinkPreferenceType type describes the preference related to the various weblinks. ebLinkPreferenceType type describes the preference related to the various weblinks.
WebLinkPreferenceType type is composed of WebLinkAddress element, WebLinkUsageHistoryType element and preferenceLevel attribute for that link.WebLinkPreferenceType type is composed of WebLinkAddress element, WebLinkUsageHistoryType element and preferenceLevel attribute for that link.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="WebLinkPreferenceType"><complexType name = "WebLinkPreferenceType">
<sequence><sequence>
<element name="WebLinkAddress" type="anyURI"/><element name = "WebLinkAddress" type = "anyURI" />
<element name="WebLinkUsageHistory" type="ud:WebLinkUsageHistoryType" minOccurs="0" maxOccurs="unbounded"/> <element name = "WebLinkUsageHistory" type = "ud: WebLinkUsageHistoryType" minOccurs = "0" maxOccurs = "unbounded" />
</sequence></ sequence>
<attribute name="preferenceLevel" type="ct:ZeroToOnehundredRatioType" use="optional" default="50"/><attribute name = "preferenceLevel" type = "ct: ZeroToOnehundredRatioType" use = "optional" default = "50" />
</complexType></ complexType>
SEMANTIC은 다음과 같다.SEMANTIC is as follows.
예는 다음과 같다.An example follows.
<ud:Preference><ud: Preference>
<ud:WebLinkPreferences> <ud: WebLinkPreferences>
<ud:WebLinkAddress></ud:WebLinkAddress> <ud: WebLinkAddress> </ ud: WebLinkAddress>
<ud:WebLinkUsageHistory feedback="true"> <ud: WebLinkUsageHistory feedback = "true">
<ud:Coordinates> <ud: Coordinates>
<ud:Time> <ud: Time>
<ct:startTime xmlns:ct="urn:mpeg:mpeg21:UD:CT:2016">2015-06-04T18:13:51.0Z</ct:startTime> <ct: startTime xmlns: ct = "urn: mpeg: mpeg21: UD: CT: 2016"> 2015-06-04T18: 13: 51.0Z </ ct: startTime>
</ud:Time> </ ud: Time>
</ud:Coordinates> </ ud: Coordinates>
</ud:WebLinkUsageHistory> </ ud: WebLinkUsageHistory>
</ud:WebLinkPreferences> </ ud: WebLinkPreferences>
</ud:Preference></ ud: Preference>
WebLinkUsageHistoryType는 다음과 같다.WebLinkUsageHistoryType is as follows.
WebLinkUsageHistoryType type describes the usage history of a specific weblink.WebLinkUsageHistoryType type describes the usage history of a specific weblink.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="WebLinkUsageHistoryType"><complexType name = "WebLinkUsageHistoryType">
<complexContent><complexContent>
<extension base="ud:EventType"><extension base = "ud: EventType">
<attribute name="feedback" type="boolean"/><attribute name = "feedback" type = "boolean" />
</extension></ extension>
</complexContent></ complexContent>
</complexType></ complexType>
SEMANTIC은 다음과 같다SEMANTIC is as follows
SocialInformationType은 다음과 같다.SocialInformationType is as follows.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="SocialInformationType"><complexType name = "SocialInformationType">
<sequence> <sequence>
<element name="ServiceID" type="sd:ServiceDescriptionType" minOccurs="0"/> <element name = "ServiceID" type = "sd: ServiceDescriptionType" minOccurs = "0" />
<element name="LoginID" type="ud:UserDescriptionType"/> <element name = "LoginID" type = "ud: UserDescriptionType" />
<element name="LoginPassword" > <element name = "LoginPassword">
<simpleType> <simpleType>
<restriction base="string"> <restriction base = "string">
<minLength value="8"/> <minLength value = "8" />
<maxLength value="512"/> <maxLength value = "512" />
</restriction> </ restriction>
</simpleType> </ simpleType>
</element> </ element>
<element name="Nickname" type="Name" minOccurs="0"/> <element name = "Nickname" type = "Name" minOccurs = "0" />
<element name="GroupID" type="mpeg7:UserIdentifierType"minOccurs="0"/> <element name = "GroupID" type = "mpeg7: UserIdentifierType" minOccurs = "0" />
<element name="FriendUserID" type="mpeg7:UserIdentifierType" minOccurs="0" maxOccurs="unbounded"/> <element name = "FriendUserID" type = "mpeg7: UserIdentifierType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="PrivateInformationAccessID" type="mpeg7:UserIdentifierType" minOccurs="0" maxOccurs="unbounded"/> <element name = "PrivateInformationAccessID" type = "mpeg7: UserIdentifierType" minOccurs = "0" maxOccurs = "unbounded" />
</sequence> </ sequence>
</complexType></ complexType>
SEMANTIC은 다음과 같다SEMANTIC is as follows
KnowledgeType은 다음과 같다.KnowledgeType is as follows.
We propose to add the following complex type:This complex type describes knowledge that the user wants to share for recommendation purposes.We propose to add the following complex type: This complex type describes knowledge that the user wants to share for recommendation purposes.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="KnowledgeType"><complexType name = "KnowledgeType">
<choice maxOccurs="unbounded"> <choice maxOccurs = "unbounded">
<element name="KnowledgeGraph"> <element name = "KnowledgeGraph">
<complexType> <complexType>
<sequence> <sequence>
<any namespace="http://www.w3.org/1999/02/22-rdf-syntax-ns#" processContents="skip"/> <any namespace = "http://www.w3.org/1999/02/22-rdf-syntax-ns#" processContents = "skip" />
</sequence> </ sequence>
<attribute name="IRI" type="anyURI"/> <attribute name = "IRI" type = "anyURI" />
</complexType> </ complexType>
</element> </ element>
<element name="KnowledgeGrpahRef"> <element name = "KnowledgeGrpahRef">
<complexType> <complexType>
<attribute name="url" type="anyURI"/> <attribute name = "url" type = "anyURI" />
</complexType> </ complexType>
</element> </ element>
</choice> </ choice>
</complexType></ complexType>
SEMANTIC은 다음과 같다SEMANTIC is as follows
The following example illustrates a case in which a user shares the knowledge about Wolfgang Amadeus Mozart. A Recommendation Engine can exploit this knowledge by e.g. exploring other entities in DBPedia of one or more of the categories stated in the Knowledge Graph about W.A. Mozart. For example, by exploring one of the dct:subject statements (namely the one pointing at the resource http://dbpedia.org/resource/Category:Austrian_classical_composers) the engine will discover that Joseph Haydn is also an Austrian classical composer, and thus can decide to recommend Haydn's compositions to the user.The following example illustrates a case in which a user shares the knowledge about Wolfgang Amadeus Mozart. A Recommendation Engine can exploit this knowledge by e.g. exploring other entities in DBPedia of one or more of the categories stated in the Knowledge Graph about W.A. Mozart. For example, by exploring one of the dct: subject statements (namely the one pointing at the resource http://dbpedia.org/resource/Category:Austrian_classical_composers) the engine will discover that Joseph Haydn is also an Austrian classical composer, and thus can decide to recommend Haydn's compositions to the user.
<UD xmlns="urn:mpeg:mpeg21:UD:UD:2016" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="urn:mpeg:mpeg21:UD:UD:2016 1.MPEG_21_UD_UD.xsd" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"><UD xmlns = "urn: mpeg: mpeg21: UD: UD: 2016" xmlns: xsi = "http://www.w3.org/2001/XMLSchema-instance" xsi: schemaLocation = "urn: mpeg: mpeg21: UD : UD: 2016 1.MPEG_21_UD_UD.xsd "xmlns: rdf =" http://www.w3.org/1999/02/22-rdf-syntax-ns# ">
<UserID>U100</UserID> <UserID> U100 </ UserID>
<UserProfile> <UserProfile>
[...] [...]
</UserProfile> </ UserProfile>
[...] [...]
<Knowledge> <Knowledge>
<KnowledgeGraph> <KnowledgeGraph>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#" xmlns:dbo="http://dbpedia.org/ontology/" xmlns:dct="http://purl.org/dc/terms/" xmlns:owl="http://www.w3.org/2002/07/owl#" xmlns:dbp="http://dbpedia.org/property/" xmlns:foaf="http://xmlns.com/foaf/0.1/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:prov="http://www.w3.org/ns/prov#"> <rdf: RDF xmlns: rdf = "http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns: rdfs = "http://www.w3.org/2000/01 / rdf-schema # "xmlns: dbo =" http://dbpedia.org/ontology/ "xmlns: dct =" http://purl.org/dc/terms/ "xmlns: owl =" http: // www .w3.org / 2002/07 / owl # "xmlns: dbp =" http://dbpedia.org/property/ "xmlns: foaf =" http://xmlns.com/foaf/0.1/ "xmlns: dc = "http://purl.org/dc/elements/1.1/" xmlns: prov = "http://www.w3.org/ns/prov#">
<rdf:Description rdf:about="http://dbpedia.org/resource/Wolfgang_Amadeus_Mozart"> <rdf: Description rdf: about = "http://dbpedia.org/resource/Wolfgang_Amadeus_Mozart">
<rdf:type rdf:resource="http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#Agent"/> <rdf: type rdf: resource = "http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#Agent" />
<rdf:type rdf:resource="http://xmlns.com/foaf/0.1/Person"/> <rdf: type rdf: resource = "http://xmlns.com/foaf/0.1/Person" />
<rdf:type rdf:resource="http://schema.org/Person"/> <rdf: type rdf: resource = "http://schema.org/Person" />
<rdf:type rdf:resource="http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#NaturalPerson"/> <rdf: type rdf: resource = "http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#NaturalPerson" />
<rdf:type rdf:resource="http://dbpedia.org/ontology/Person"/> <rdf: type rdf: resource = "http://dbpedia.org/ontology/Person" />
<rdf:type rdf:resource="http://dbpedia.org/ontology/Agent"/> <rdf: type rdf: resource = "http://dbpedia.org/ontology/Agent" />
<dbo:deathPlace rdf:resource="http://dbpedia.org/resource/Austria"/> <dbo: deathPlace rdf: resource = "http://dbpedia.org/resource/Austria" />
<dbo:deathPlace rdf:resource="http://dbpedia.org/resource/Vienna"/> <dbo: deathPlace rdf: resource = "http://dbpedia.org/resource/Vienna" />
<dbo:deathDate rdf:datatype="http://www.w3.org/2001/XMLSchema#date">1791-12-05</dbo:deathDate> <dbo: deathDate rdf: datatype = "http://www.w3.org/2001/XMLSchema#date"> 1791-12-05 </ dbo: deathDate>
<dbo:birthPlace rdf:resource="http://dbpedia.org/resource/Salzburg"/> <dbo: birthPlace rdf: resource = "http://dbpedia.org/resource/Salzburg" />
<dbo:birthPlace rdf:resource="http://dbpedia.org/resource/Austria"/> <dbo: birthPlace rdf: resource = "http://dbpedia.org/resource/Austria" />
<dbo:birthDate rdf:datatype="http://www.w3.org/2001/XMLSchema#date">1756-01-27</dbo:birthDate> <dbo: birthDate rdf: datatype = "http://www.w3.org/2001/XMLSchema#date"> 1756-01-27 </ dbo: birthDate>
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Knights_of_the_Golden_Spur"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Knights_of_the_Golden_Spur" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:German_male_classical_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:German_male_classical_composers" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:German_opera_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:German_opera_composers" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Classical-period_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Classical-period_composers" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Austrian_opera_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Austrian_opera_composers" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Child_classical_musicians"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Child_classical_musicians" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Composers_for_pedal_piano"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Composers_for_pedal_piano" />
<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Austrian_classical_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Austrian_classical_composers" />
</rdf:Description> </ rdf: Description>
</rdf:RDF></ rdf: RDF>
</KnowledgeGraph></ KnowledgeGraph>
</Knowledge></ Knowledge>
[...][...]
</UD></ UD>
UsagePatternTypeUsagePatternType
The UsagePatternType describes varioususages patterns ofuser.The UsagePatternType describes varioususages patterns ofuser.
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="UsagePatternType"><complexType name = "UsagePatternType">
<sequence> <sequence>
<element name="WebUsage"> <element name = "WebUsage">
<complexType> <complexType>
<sequence> <sequence>
<element name="AverageTimeOfUsage" type="duration" minOccurs="0"/><element name = "AverageTimeOfUsage" type = "duration" minOccurs = "0" />
<element name="AverageNumberOfUsage" type="integer" minOccurs="0"/> <element name = "AverageNumberOfUsage" type = "integer" minOccurs = "0" />
</sequence> </ sequence>
</complexType> </ complexType>
</element> </ element>
<!--<element name="ApplicationUsage" type="ud:ApplicatoinUsageType"/> TBC --><!-<element name = "ApplicationUsage" type = "ud: ApplicatoinUsageType" /> TBC->
</sequence> </ sequence>
</complexType></ complexType>
SEMANTIC은 다음과 같다SEMANTIC is as follows
<ud:UsagePattern><ud: UsagePattern>
<ud:WebUsage> <ud: WebUsage>
<ud:AverageTimeOfUsage>P50M</ud:AverageTimeOfUsage> <ud: AverageTimeOfUsage> P50M </ ud: AverageTimeOfUsage>
<ud:AverageNumberOfUsage>3</ud:AverageNumberOfUsage> <ud: AverageNumberOfUsage> 3 </ ud: AverageNumberOfUsage>
</ud:WebUsage> </ ud: WebUsage>
</ud:UsagePattern></ ud: UsagePattern>
ContextDescriptionTypeContextDescriptionType
SYNTAX는 다음과 같다.SYNTAX is as follows.
<complexType name="CD" abstract="true"><complexType name = "CD" abstract = "true">
<attribute name="InfoSource" type="anyURI"/> <attribute name = "InfoSource" type = "anyURI" />
</complexType></ complexType>
<complexType name="ContextDescriptionType"><complexType name = "ContextDescriptionType">
<sequence> <sequence>
<element name="ClassificationSchemeAlias" type="ct:ClassificationSchemeAliasType" minOccurs="0" maxOccurs="unbounded"/> <element name = "ClassificationSchemeAlias" type = "ct: ClassificationSchemeAliasType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="ContextIdentification" type="cd:ContextIdentificationType" minOccurs="0"/> <element name = "ContextIdentification" type = "cd: ContextIdentificationType" minOccurs = "0" />
<element name="ValidTimeDuration" type="ct:TimeType" minOccurs="0"/> <element name = "ValidTimeDuration" type = "ct: TimeType" minOccurs = "0" />
<element name="Season" type="mpeg7:termReferenceType" minOccurs="0"/> <element name = "Season" type = "mpeg7: termReferenceType" minOccurs = "0" />
<element name="DeviceCharacteristics" type="cd:DeviceCharacteristicsType" minOccurs="0" maxOccurs="unbounded"/> <element name = "DeviceCharacteristics" type = "cd: DeviceCharacteristicsType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="NetworkInfo" type="cd:NetworkInfoType" minOccurs="0" maxOccurs="unbounded"/> <element name = "NetworkInfo" type = "cd: NetworkInfoType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Location" type="ct:LocationType" minOccurs="0"/> <element name = "Location" type = "ct: LocationType" minOccurs = "0" />
<element name="Weather" type="cd:WeatherType" minOccurs="0"/> <element name = "Weather" type = "cd: WeatherType" minOccurs = "0" />
<element name="OtherEnvironmentalInfo" type="cd:OtherEnvironmentalInfoType" minOccurs="0"/> <element name = "OtherEnvironmentalInfo" type = "cd: OtherEnvironmentalInfoType" minOccurs = "0" />
<element name="OtherContextInfo" type="anyType" minOccurs="0" maxOccurs="unbounded"/> <element name = "OtherContextInfo" type = "anyType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="LoudnessEnvironment" type="cd:LoudnessEnvironmentType"/> <element name = "LoudnessEnvironment" type = "cd: LoudnessEnvironmentType" />
<element name="VisualExpressionEnvironment" type="cd:VisualExpressionEnvironmentType"/> <element name = "VisualExpressionEnvironment" type = "cd: VisualExpressionEnvironmentType" />
</sequence> </ sequence>
<attributeGroup ref="ct:commonAttributes"/> <attributeGroup ref = "ct: commonAttributes" />
<attribute name="Priority" type="ct:ZeroToOnehundredOrdinalType" use="optional"/> <attribute name = "Priority" type = "ct: ZeroToOnehundredOrdinalType" use = "optional" />
</complexType></ complexType>
SEMANTIC은 다음과 같다SEMANTIC is as follows
8.1.1 ServiceDescriptionType8.1.1 ServiceDescriptionType
This subclause describes a structure of ServiceDescriptionType data type. The ServiceDescriptionType contains several elements, such as ServiceGeneralInformation, ServiceTargetInformation, ServiceInterfaces, InternalServices, Priority, IsServiceAvailable and ServiceObjectsInformation each of which is used for describing service’s information. This subclause describes a structure of ServiceDescriptionType data type. The ServiceDescriptionType contains several elements, such as ServiceGeneralInformation, ServiceTargetInformation, ServiceInterfaces, InternalServices, Priority, IsServiceAvailable and ServiceObjectsInformation each of which is used for describing service ’s information.
8.1.1.1 Syntax8.1.1.1 Syntax
<complexType name="SD"><complexType name = "SD">
<sequence> <sequence>
<element name="ClassificationSchemeAlias" type="ct:ClassificationSchemeAliasType" minOccurs="0" maxOccurs="unbounded"/> <element name = "ClassificationSchemeAlias" type = "ct: ClassificationSchemeAliasType" minOccurs = "0" maxOccurs = "unbounded" />
<element name="ServiceID" type="mpeg7:UniqueIDType"/> <element name = "ServiceID" type = "mpeg7: UniqueIDType" />
<element name="ServiceGeneralInformation" type="sd:ServiceGeneralInformationType"/> <element name = "ServiceGeneralInformation" type = "sd: ServiceGeneralInformationType" />
<element name="ServiceTargetInformation" type="sd:ServiceTargetInformationType"/> <element name = "ServiceTargetInformation" type = "sd: ServiceTargetInformationType" />
<element name="ServiceInterfaces" type="sd:ServiceInterfacesType" minOccurs="0"/> <element name = "ServiceInterfaces" type = "sd: ServiceInterfacesType" minOccurs = "0" />
<element name="InternalServices" type="sd:InternalServicesType" minOccurs="0"/> <element name = "InternalServices" type = "sd: InternalServicesType" minOccurs = "0" />
<element name="Priority" type="ct:ZeroToOnehundredOrdinalType" minOccurs="0"/> <element name = "Priority" type = "ct: ZeroToOnehundredOrdinalType" minOccurs = "0" />
<element name="IsServiceAvailable" type="boolean"/> <element name = "IsServiceAvailable" type = "boolean" />
<element name="ServiceObjectsInformation" type="sd:ServiceObjectType" minOccurs="0"/> <element name = "ServiceObjectsInformation" type = "sd: ServiceObjectType" minOccurs = "0" />
<element name="LoudnessControlServiceDescription" type="LoudnessInfoType"/> <element name = "LoudnessControlServiceDescription" type = "LoudnessInfoType" />
<element name="VisualExpressionServiceDescription" type="SD:VisualExpression"/> <element name = "VisualExpressionServiceDescription" type = "SD: VisualExpression" />
<element name="PrivacyProtectionServiceDescription" type="SD:PrivacyProtection"/> <element name = "PrivacyProtectionServiceDescription" type = "SD: PrivacyProtection" />
<element name="CompanionScreenServiceServiceDescription" type="SD:CompanionScreenService"/> <element name = "CompanionScreenServiceServiceDescription" type = "SD: CompanionScreenService" />
</sequence> </ sequence>
</complexType></ complexType>
VisualExpressionInfoTypeVisualExpressionInfoType
<complexType name="SD:VisualExpression"><complexType name = "SD: VisualExpression">
<sequence> <sequence>
<element name="VisualObject" type="VOType"/> <element name = "VisualObject" type = "VOType" />
</sequence> </ sequence>
</complexType></ complexType>
<complexType name="VOType"><complexType name = "VOType">
<choice minOccurs="0" maxOccurs="unbounded"> <choice minOccurs = "0" maxOccurs = "unbounded">
<element name="Face" type="Face"/> <element name = "Face" type = "Face" />
<element name="Clock" type="Clock"/> <element name = "Clock" type = "Clock" />
<element name="Animal" type="Animal"/> <element name = "Animal" type = "Animal" />
<element name="Fruit" type="Fruit"/> <element name = "Fruit" type = "Fruit" />
<element name="Weather" type="Weather"/> <element name = "Weather" type = "Weather" />
<element name="Food" type="Food"/> <element name = "Food" type = "Food" />
<element name="Vehicle" type="Vehicle"/> <element name = "Vehicle" type = "Vehicle" />
<element name="Plant" type="Plant"/> <element name = "Plant" type = "Plant" />
<element name="Building" type="Building"/> <element name = "Building" type = "Building" />
</choice> </ choice>
</complexType></ complexType>
<complexType name="Face"><complexType name = "Face">
<sequence> <sequence>
<element name="FaceOutline" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "FaceOutline" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Eye" type="VOComponentInfo" maxOccurs="unbounded"/><element name = "Eye" type = "VOComponentInfo" maxOccurs = "unbounded" />
<element name="Nose" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Nose" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Mouth" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Mouth" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Hair" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Hair" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Ear" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Ear" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="FacialHair" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "FacialHair" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Eyebrows" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Eyebrows" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Clock"><complexType name = "Clock">
<sequence> <sequence>
<element name="Frame" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Frame" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="HourNeedle" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "HourNeedle" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="MinuteNeedle" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "MinuteNeedle" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Animal"><complexType name = "Animal">
<extension base="Face"> <extension base = "Face">
<sequence><sequence>
<element name="Head" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Head" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Body" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Body" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Leg" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Leg" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Tail" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Tail" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Clothing" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Clothing" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Horn" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Horn" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Wings" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Wings" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<\sequence> <\ sequence>
<\extension><\ extension>
<\complexType><\ complexType>
<complexType name="Fruit"><complexType name = "Fruit">
<sequence> <sequence>
<element name="Body" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Body" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Leaf" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Leaf" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Stem" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Stem" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Weather"><complexType name = "Weather">
<sequence> <sequence>
<element name="Sun" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Sun" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Cloud" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Cloud" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Fog" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Fog" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Rain" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Rain" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />
<element name="Snow" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Snow" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Wind" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wind" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Food"><complexType name = "Food">
<sequence> <sequence>
<element name="Rice" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Rice" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Bread" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Bread" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Hamburger" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Hamburger" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Sandwich" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Sandwich" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Steak" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Steak" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Hotdog" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Hotdog" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Fish" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Fish" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Soup" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Soup" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Curry" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Curry" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Noodle" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Noodle" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Cake" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Cake" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Fries" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Fries" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Beer" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Beer" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Wine" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wine" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Plate" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Plate" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Cutlery" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Cutlery" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Vehicle"><complexType name = "Vehicle">
<sequence> <sequence>
<element name="Body" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Body" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Wheel" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wheel" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Wing" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wing" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Sail" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Sail" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Door" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Door" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Plant"><complexType name = "Plant">
<sequence> <sequence>
<element name="Body" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Body" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Leaf" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Leaf" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Stem" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Stem" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Fruit" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Fruit" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Root" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Root" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name="Building"><complexType name = "Building">
<sequence> <sequence>
<element name="Structure" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Structure" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Window" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Window" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Door" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Door" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<element name="Roof" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Roof" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>
<\sequence> <\ sequence>
<\complexType><\ complexType>
<complexType name ="VOComponentInfo"/><complexType name = "VOComponentInfo" />
<sequence> <sequence>
<element name ="PlacementX" type="integer" maxOccurs="1"/> <element name = "PlacementX" type = "integer" maxOccurs = "1" />
<element name ="PlacementY" type="integer" maxOccurs="1"/> <element name = "PlacementY" type = "integer" maxOccurs = "1" />
<element name ="Size" type="integer" maxOccurs="1"/> <element name = "Size" type = "integer" maxOccurs = "1" />
<element name ="Color" type="string" maxOccurs="1"/> <element name = "Color" type = "string" maxOccurs = "1" />
<element name ="Rotation" type="integer" maxOccurs="1"/><element name = "Rotation" type = "integer" maxOccurs = "1" />
<element name ="PlacementOrder" type="integer" maxOccurs="1"/><element name = "PlacementOrder" type = "integer" maxOccurs = "1" />
<sequence\> <sequence \>
<\complexType><\ complexType>
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device for the purpose of interpreting or providing instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.
Claims (11)
사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계;
상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계;
상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계;
상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계;
상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계
를 포함하고,
상기 어느 하나의 편집형 영상 객체는 얼굴 및 얼굴 내에 포함된 복수의 엘리먼트들을 포함하는 편집형 영상 객체 제공 방법.In the schema-based editing image object providing method,
Constructing and maintaining a video object database in which a plurality of editable video objects are matched and stored with a plurality of video object IDs, respectively, on a memory included in each of the user terminal and the target terminal;
In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal;
As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information;
Transmitting the image object ID and the edit information to the target terminal;
Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And
Applying the edit information to the extracted editable video object and providing the edited information to the target terminal;
Including,
The one or more editable image objects include a face and a plurality of elements included in the face.
상기 복수의 엘리먼트들은
눈썹을 포함하고, 상기 눈썹에 대한 편집 정보는 상기 대상 단말로 제공되는 편집형 영상 객체 제공 방법.The method of claim 1,
The plurality of elements
And an eyebrow, wherein the editing information for the eyebrow is provided to the target terminal.
사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계;
상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계;
상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계;
상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계;
상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계
를 포함하고,
상기 어느 하나의 편집형 영상 객체는 동물 및 동물 내에 포함된 복수의 엘리먼트들을 포함하는 편집형 영상 객체 제공 방법.In the schema-based editing image object providing method,
Constructing and maintaining a video object database in which a plurality of editable video objects are matched and stored with a plurality of video object IDs, respectively, on a memory included in each of the user terminal and the target terminal;
In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal;
As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information;
Transmitting the image object ID and the edit information to the target terminal;
Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And
Applying the edit information to the extracted editable video object and providing the edited information to the target terminal;
Including,
The one or more editable video objects include an animal and a plurality of elements included in the animal.
상기 복수의 엘리먼트들은
머리(head) 또는 날개를 포함하고, 상기 머리 또는 날개에 대한 편집 정보는 상기 대상 단말로 제공되는 편집형 영상 객체 제공 방법.The method of claim 1,
The plurality of elements
And a head or wing, wherein the editing information for the head or wing is provided to the target terminal.
상기 복수의 편집형 영상 객체들 각각은,
상기 복수의 편집형 영상 객체들 각각의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 적어도 하나의 엘리멘트를 포함하고,
상기 영상 객체 데이터베이스를 구축 및 유지하는 단계는,
상기 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 상기 영상 객체 데이터베이스에 저장 및 유지하는 단계
를 포함하는 편집형 영상 객체 제공 방법.The method of claim 1,
Each of the plurality of editable image objects,
At least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects,
Building and maintaining the image object database,
Matching each of the at least one element with at least one element ID and storing and maintaining the at least one element in the image object database.
Editing image object providing method comprising a.
상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는,
상기 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택하는 단계; 및
상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계
를 포함하고,
상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계는,
상기 영상 객체 데이터베이스로부터 상기 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 추출하는 단계; 및
상기 추출된 엘리멘트 아이디를 상기 편집 정보로 획득하는 단계
를 포함하는 편집형 영상 객체 제공 방법.The method of claim 5,
Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
Selecting one element included in one of the editable video objects; And
Changing any one of the editable image objects based on the selected element
Including,
Acquiring the edited information edited by any one of the editable video objects,
Extracting an element ID corresponding to the selected element from the image object database; And
Acquiring the extracted element ID as the edit information;
Editing image object providing method comprising a.
상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계는,
상기 어느 하나의 편집형 영상 객체를 변경하여 재생형 영상 객체를 생성하는 단계; 및
상기 사용자 단말이 지원하는 재생 방식에 기초하여 상기 사용자 단말에 상기 재생형 영상 객체를 재생하는 단계
를 더 포함하는 편집형 영상 객체 제공 방법.The method of claim 6,
Changing the one edited video object based on the selected element,
Generating a playable video object by changing one of the editable video objects; And
Playing the playback type video object on the user terminal based on a playback method supported by the user terminal;
Editing image object providing method further comprising.
상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는,
상기 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 상기 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득하는 단계; 및
상기 획득된 적어도 하나의 정보에 기초하여 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계
를 포함하는 편집형 영상 객체 제공 방법.The method of claim 1,
Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
Acquiring at least one of position information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal in response to an image object automatic generation input generated on the user interface; ; And
Selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.
Editing image object providing method comprising a.
상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는,
상기 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계
를 포함하는 편집형 영상 객체 제공 방법.The method of claim 1,
Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
In response to a user manual edit input generated on the user interface, selecting and editing one of the editable video objects from among the plurality of editable video objects
Editing image object providing method comprising a.
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계는,
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 재생형 영상 객체를 생성하는 단계; 및
상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계
를 포함하는 편집형 영상 객체 제공 방법.The method of claim 1,
The applying of the editing information to the extracted editable video object and providing the edited information to the target terminal may include:
Generating a playable video object by applying the edit information to the extracted editable video object; And
Providing the playback type video object to the target terminal
Editing image object providing method comprising a.
상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계는,
상기 대상 단말이 지원하는 재생 방식에 기초하여 상기 대상 단말에 상기 재생형 영상 객체를 재생하는 단계
를 포함하는 편집형 영상 객체 제공 방법.The method of claim 10,
Providing the playback type video object to the target terminal,
Playing the playback type video object on the target terminal based on a playback scheme supported by the target terminal;
Editing image object providing method comprising a.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20180042405 | 2018-04-11 | ||
KR1020180042405 | 2018-04-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190118946A true KR20190118946A (en) | 2019-10-21 |
Family
ID=68460224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180140363A KR20190118946A (en) | 2018-04-11 | 2018-11-15 | System and method for providing editable visual object based on schema |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190118946A (en) |
-
2018
- 2018-11-15 KR KR1020180140363A patent/KR20190118946A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8117281B2 (en) | Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content | |
CN104756514B (en) | TV and video frequency program are shared by social networks | |
AU2008267775B2 (en) | Communication method, system and products | |
KR20130060299A (en) | Content capture device and methods for automatically tagging content | |
JP2020144898A (en) | Method and system for multimedia content | |
KR20070061359A (en) | Brokering of personalized rulesets for use in digital media character replacement | |
US8903850B2 (en) | Metadata ingestion to stream customization | |
McCracken et al. | a tumblr book: platform and cultures | |
US20190273972A1 (en) | User interface elements for content selection in media narrative presentation | |
Yoon et al. | MPEG-V: Bridging the virtual and real world | |
CN115552472A (en) | System and method for providing a relational landscape for a social world | |
US20210051122A1 (en) | Systems and methods for pushing content | |
WO2022078167A1 (en) | Interactive video creation method and apparatus, device, and readable storage medium | |
US10152724B2 (en) | Technology of assisting context based service | |
De Kare-Silver | e-shock 2020: how the digital technology revolution is changing business and all our lives | |
US9959497B1 (en) | System and method for using a digital virtual clone as an input in a simulated environment | |
Robards et al. | Tumblr as a space of learning, connecting, and identity formation for LGBTIQ+ young people | |
US11838576B2 (en) | Video distribution system, method, computing device and user equipment | |
US10055688B2 (en) | Context based service technology | |
US20220207029A1 (en) | Systems and methods for pushing content | |
Lam et al. | X-Men bromance: film, audience and promotion | |
KR20190118946A (en) | System and method for providing editable visual object based on schema | |
KR102349629B1 (en) | Method for providing contents sharing service using intuitive user interface and user experience design | |
US10755309B2 (en) | Delivering content | |
US10943380B1 (en) | Systems and methods for pushing content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |